Hash算法和一致性Hash算法
一致性Hash算法
一致性Hash
算法在1997
年由麻省理工学院提出的一种分布式哈希(DHT)
实现算法,设计目标是为了解决因特网中的热点(Hot Spot)
问题,初衷和CARP
十分相似。一致性Hash
修正了CARP
使用的简单哈希算法带来的问题,使得分布式哈希(DHT)
可以在P2P
环境中真正得到应用。
一致性Hash
算法也是使用取模的方法,只是,刚才描述的取模法是对服务器的数量进行取模,而一致性Hash算法是对2^32
取模,什么意思呢?简单来说,一致性Hash
算法将整个哈希值空间组织成一个虚拟的圆环,如假设某哈希函数H的值空间为0-2^32-1
(即哈希值是一个32位无符号整形)。整个空间按顺时针方向组织,圆环的正上方的点代表0,0
点右侧的第一个点代表1
,以此类推,2、3、4、5、6
……直到2^32-1
,也就是说0
点左侧的第一个点代表2^32-1
, 0
和2^32-1
在零点中方向重合,我们把这个由2^32
个点组成的圆环称为Hash环。
特性定义
一致性Hash
算法提出了在动态变化的Cache
环境中,判定哈希算法好坏的四个定义:
**1、平衡性(Balance):**平衡性是指哈希的结果能够尽可能分布在所有的缓冲(Cache)
中去,这样可以使得所有的缓冲空间得到利用。很多哈希算法都能够满足这一条件。
**2、单调性(Monotonicity):**单调性是指如果已经有一些内容通过哈希分派到了相应的缓冲中,又有新的缓冲加入到系统中。哈希的结果应该能够保证原有已分配的内容可以被映射到原有的或者新的缓冲中去,而不会映射到旧的缓冲集合中的其他缓冲区。
**3、分散性(Spread):**在分布式环境中,终端有可能看不到所有的缓冲,而只能看到其中的一部分。当终端希望通过哈希过程将内容映射到缓冲上去,由于不同终端所见的缓冲范围有可能不同,从而导致哈希的结果不一致,最终的结果是相同的内容被不同的终端映射到不同的缓冲区中。这种情况显然是应该避免的,因为它导致相同内容被存储到不同缓冲中去,降低了系统存储的效率。分散性的定义就是上述情况发生的严重程度。好的哈希算法应该能够尽量避免不一致的情况发生,也就是尽量降低分散性。
**4、负载(Load):**负载问题实际上是从另一个角度看待分散性问题。既然不同的终端可能将相同的内容映射到不同的缓冲区中,那么对于一个特定的缓冲区而言,也可能被不同的用户映射到不同的内容。与分散性一样,这种情况也是应当避免的,因此好的哈希算法应能够尽量降低缓冲的负荷。
下一步将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置,这里假设将上文中四台服务器使用IP地址哈希后在环空间的位置如下:
<img src="http://static.cyblogs.com/hash算法002.png" alt="http://static.cyblogs.com/hash算法002.png"/>
接下来使用如下算法定位数据访问到相应服务器:将数据key
使用相同的函数Hash
计算出哈希值,并确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器!
例如我们有Object A
、Object B
、Object C
、Object D
四个数据对象,经过哈希计算后,在环空间上的位置如下:
<img src="http://static.cyblogs.com/hash算法003.png" alt="http://static.cyblogs.com/hash算法003.png"/>
根据一致性Hash
算法,数据A
会被定为到Node A
上,B
被定为到Node B
上,C
被定为到Node C
上,D
被定为到Node D
上。
容错和可扩展
现假设Node C
不幸宕机,可以看到此时对象A、B、D
不会受到影响,只有C
对象被重定位到Node D
。一般的,在一致性Hash
算法中,如果一台服务器不可用,则受影响的数据仅仅是此服务器到其环空间中前一台服务器(即沿着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响,如下所示:
<img src="http://static.cyblogs.com/hash算法004.png" alt="http://static.cyblogs.com/hash算法004.png" />
下面考虑另外一种情况,如果在系统中增加一台服务器Node X
,如下图所示:
<img src="http://static.cyblogs.com/hash算法005.png" alt="http://static.cyblogs.com/hash算法005.png" />
此时对象Object A、B、D
不受影响,只有对象C
需要重定位到新的Node X
!一般的,在一致性Hash
算法中,如果增加一台服务器,则受影响的数据仅仅是新服务器到其环空间中前一台服务器(即沿着逆时针方向行走遇到的第一台服务器)之间数据,其它数据也不会受到影响。
综上所述,一致性Hash
算法对于节点的增减都只需重定位环空间中的一小部分数据,具有较好的容错性和可扩展性。
Hash环的数据倾斜问题
一致性Hash
算法在服务节点太少时,容易因为节点分部不均匀而造成数据倾斜(被缓存的对象大部分集中缓存在某一台服务器上)问题,例如系统中只有两台服务器,其环分布如下:
此时必然造成大量数据集中到Node A
上,而只有极少量会定位到Node B
上。为了解决这种数据倾斜问题,一致性Hash
算法引入了虚拟节点机制,即对每一个服务节点计算多个哈希,每个计算结果位置都放置一个此服务节点,称为虚拟节点。具体做法可以在服务器IP
或主机名
的后面增加编号来实现。
例如上面的情况,可以为每台服务器计算三个虚拟节点,于是可以分别计算 “Node A#1
”、“Node A#2
”、“Node A#3
”、“Node B#1
”、“Node B#2
”、“Node B#3
”的哈希值,于是形成六个虚拟节点:
<img src="http://static.cyblogs.com/hash算法007.png" alt="http://static.cyblogs.com/hash算法007.png" />
同时数据定位算法不变,只是多了一步虚拟节点到实际节点的映射,例如定位到“Node A#1
”、“Node A#2
”、“Node A#3”
三个虚拟节点的数据均定位到Node A
上。这样就解决了服务节点少时数据倾斜的问题。在实际应用中,通常将虚拟节点数设置为32
甚至更大,因此即使很少的服务节点也能做到相对均匀的数据分布。
如果大家喜欢我的文章,可以关注个人订阅号。欢迎随时留言、交流。
以上是 Hash算法和一致性Hash算法 的全部内容, 来源链接: utcz.com/z/513631.html