您好,登錄后才能下訂單哦!
本篇內容介紹了“Redis哈希分片原理是什么”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
如果Redis只用復制功能做主從,那么當數據量巨大的情況下,單機情況下可能已經承受不下一份數據,更不用說是主從都要各自保存一份完整的數據。在這種情況下,數據分片是一個非常好的解決辦法。
Redis的Cluster正是用于解決該問題。它主要提供兩個功能:
自動對數據分片,落到各個節點上
即使集群部分節點失效或者連接不上,依然可以繼續處理命令
對于第二點,它的功能有點類似于Sentienl的故障轉移(可以了解下之前Sentinel的文章),在這里不細說。下面詳細了解下Redis的槽位分片原理,在此之前,先了解下分布式簡單哈希算法和一致性哈希算法,以幫助理解槽位的作用。
假設有三臺機,數據落在哪臺機的算法為
c = Hash(key) % 3
例如key A的哈希值為4,4%3=1,則落在第二臺機。Key ABC哈希值為11,11%3=2,則落在第三臺機上。
利用這樣的算法,假設現在數據量太大了,需要增加一臺機器。A原本落在第二臺上,現在根據算法4%4=0,落到了第一臺機器上了,但是第一臺機器上根本沒有A的值。這樣的算法會導致增加機器或減少機器的時候,引起大量的緩存穿透,造成雪崩。
在1997年,麻省理工學院的Karger等人提出了一致性哈希算法,為的就是解決分布式緩存的問題。
在一致性哈希算法中,整個哈希空間是一個虛擬圓環
假設有四個節點Node A、B、C、D,經過ip地址的哈希計算,它們的位置如下
有4個存儲對象Object A、B、C、D,經過對Key的哈希計算后,它們的位置如下
對于各個Object,它所真正的存儲位置是按順時針找到的第一個存儲節點。例如Object A順時針找到的第一個節點是Node A,所以Node A負責存儲Object A,Object B存儲在Node B。
一致性哈希算法大概如此,那么它的容錯性和擴展性如何呢?
假設Node C節點掛掉了,Object C的存儲丟失,那么它順時針找到的最新節點是Node D。也就是說Node C掛掉了,受影響僅僅包括Node B到Node C區間的數據,并且這些數據會轉移到Node D進行存儲。
同理,假設現在數據量大了,需要增加一臺節點Node X。Node X的位置在Node B到Node C直接,那么受到影響的僅僅是Node B到Node X間的數據,它們要重新落到Node X上。
所以一致性哈希算法對于容錯性和擴展性有非常好的支持。但一致性哈希算法也有一個嚴重的問題,就是數據傾斜。
如果在分片的集群中,節點太少,并且分布不均,一致性哈希算法就會出現部分節點數據太多,部分節點數據太少。也就是說無法控制節點存儲數據的分配。如下圖,大部分數據都在A上了,B的數據比較少。
Redis集群(Cluster)并沒有選用上面一致性哈希,而是采用了哈希槽(SLOT)的這種概念。主要的原因就是上面所說的,一致性哈希算法對于數據分布、節點位置的控制并不是很友好。
首先哈希槽其實是兩個概念,第一個是哈希算法。Redis Cluster的hash算法不是簡單的hash(),而是crc16算法,一種校驗算法。
另外一個就是槽位的概念,空間分配的規則。其實哈希槽的本質和一致性哈希算法非常相似,不同點就是對于哈希空間的定義。一致性哈希的空間是一個圓環,節點分布是基于圓環的,無法很好的控制數據分布。而Redis Cluster的槽位空間是自定義分配的,類似于Windows盤分區的概念。這種分區是可以自定義大小,自定義位置的。
Redis Cluster包含了16384個哈希槽,每個Key通過計算后都會落在具體一個槽位上,而這個槽位是屬于哪個存儲節點的,則由用戶自己定義分配。例如機器硬盤小的,可以分配少一點槽位,硬盤大的可以分配多一點。如果節點硬盤都差不多則可以平均分配。所以哈希槽這種概念很好地解決了一致性哈希的弊端。
另外在容錯性和擴展性上,表象與一致性哈希一樣,都是對受影響的數據進行轉移。而哈希槽本質上是對槽位的轉移,把故障節點負責的槽位轉移到其他正常的節點上。擴展節點也是一樣,把其他節點上的槽位轉移到新的節點上。
但一定要注意的是,對于槽位的轉移和分派,Redis集群是不會自動進行的,而是需要人工配置的。所以Redis集群的高可用是依賴于節點的主從復制與主從間的自動故障轉移。
下面以最簡單的例子,拋開高可用主從復制級轉移的內容,來重點介紹下Redis集群是如何搭建,槽位是如何分配的,以加深對Redis集群原理及概念的理解。
先找到redis.conf,啟用cluster功能。
cluster-enabled yes
默認是關閉的,要啟用cluster,讓redis成為集群的一部分,需要手動打開才行。
然后配置cluster的配置文件
每一個cluster節點都有一個cluster的配置文件,這個文件主要用于記錄節點信息,用程序自動生成和管理,不需要人工干預。唯一要注意的是,如果在同一臺機器上運行多個節點,需要修改這個配置為不同的名字。
本次為了方便搭建,所有Redis實例都在同一臺機器上,所以修改不同的cluster config名字后,復制三份redis.conf配置,以用于啟動三個集群實例(cluster至少要三個主節點才能進行)。
> redis-server /usr/local/etc/redis/redis-6379.conf --port 6379 & > redis-server /usr/local/etc/redis/redis-6380.conf --port 6380 & > redis-server /usr/local/etc/redis/redis-6381.conf --port 6381 &
&符號的作用是讓命令在后臺執行,但程序執行的log依然會打印在console中。也可以通過配置redis.conf中deamonize yes
,讓Redis在后臺運行。
連上6379的Redis實例,然后通過cluster nodes
查看集群范圍。
連上其他實例也是一樣,目前6379、6380、6381在各自的集群中,且集群只有它們自己一個。
在6379上,通過cluster meet
命令,與6380、6381建立鏈接。
127.0.0.1:6379> cluster meet 127.0.0.1 6380 127.0.0.1:6379> cluster meet 127.0.0.1 6381
可以看到集群中已經包含了6379、6380、6381三個節點了。登錄其他節點查看也是一樣的結果。即使6380與6381之間沒有直接手動關聯,但在集群中,節點一旦發現有未關聯的節點,會自動與之握手關聯。
通過cluster info
命令查看集群的狀態
state的狀態是fail的,還沒啟用。看下官方的說明
只有state為ok,節點才能接受請求。如果只要有一個槽位(slot)沒有分配,那么這個狀態就是fail。而一共需要分配16384槽位才能讓集群正常工作。
接下來給6379分配0~5000的槽位,給6380分配5001~10000的槽位,給6381分配10001~16383的槽位。
> redis-cli -c -p 6379 cluster addslots {0..5000} > redis-cli -c -p 6380 cluster addslots {5001..10000} > redis-cli -c -p 6381 cluster addslots {10001..16383}
再看看cluster info
state已經為ok,16384個槽位都已經分配好了。現在集群已經可以正常工作了。
隨便登上一個實例,記得加上參數-c
,啟用集群模式的客戶端,否則無法正常運行。
redis-cli -c -p 6380
嘗試下set、get操作
可以看到,Redis集群會計算key落在哪個卡槽,然后會把命令轉發到負責該卡槽的節點上執行。
利用cluster keyslot
命令計算出key是在哪個槽位上,從而得出會跳轉到哪個節點上執行。
“Redis哈希分片原理是什么”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。