硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

之前我們提到,為了保證Redis的高可用,主要需要以下幾個方面:

資料持久化

主從複製

自動故障恢復

叢集化

我們簡單瞭解一下這幾個方案的特點,以及它們之間的聯絡。

資料持久化本質上是為了做資料備份,有了資料持久化,當Redis宕機時,我們可以把資料從磁碟上恢復回來,但在資料恢復之前,服務是不可用的,而且資料恢復的時間取決於例項的大小,資料量越大,恢復起來越慢。

而主從複製則是部署多個副本節點,多個副本節點實時複製主節點的資料,當主節點宕機時,我們有完整的副本節點可以使用。另一方面,如果我們業務的讀請求量很大,主節點無法承受所有的讀請求,多個副本節點可以分擔讀請求,實現讀寫分離,這樣可以提高Redis的訪問效能。

但有個問題是,當主節點宕機時,我們雖然有完整的副本節點,但需要手動操作把從節點提升為主節點繼續提供服務,如果每次主節點故障,都需要人工操作,這個過程既耗時耗力,也無法保證及時性,高可用的程度將大打折扣。如何最佳化呢?

有了

資料持久化、主從複製、故障自動恢復

這些功能,我們在使用Redis時是不是就可以高枕無憂了?

答案是否定的,如果我們的業務大部分都是讀請求,可以使用讀寫分離提升效能。但如果

寫請求量

也很大呢?現在是大資料時代,像阿里、騰訊這些大體量的公司,每時每刻都擁有非常大的寫入量,此時如果只有一個主節點是無法承受的,那如何處理呢?

這就需要

叢集化

!簡單來說實現方式就是,

多個主從節點構成一個叢集,每個節點儲存一部分資料,這樣寫請求也可以分散到多個主節點上,解決寫壓力大的問題。同時,叢集化可以在節點容量不足和效能不夠時,動態增加新的節點,對進群進行擴容,提升效能。

今天給大家介紹Redis的叢集化方案。當然,叢集化也意味著Redis部署架構更復雜,管理和維護起來成本也更高。而且在使用過程中,也會遇到很多問題,這也衍生出了不同的叢集化解決方案,它們的側重點各不相同。

叢集化方案

要想實現叢集化,就必須部署多個主節點,每個主節點還有可能有多個從節點,以這樣的部署結構組成的叢集,才能更好地承擔更大的流量請求和儲存更多的資料。

可以承擔更大的流量是叢集最基礎的功能,一般叢集化方案還包括了上面提到了資料持久化、資料複製、故障自動恢復功能,利用這些技術,來保證叢集的高效能和高可用。

另外,優秀的叢集化方案還實現了

線上水平擴容

功能,當節點數量不夠時,可以動態增加新的節點來提升整個叢集的效能,而且這個過程是線上完成的,業務無感知。

業界主流的Redis叢集化方案主要包括以下幾個:

客戶端分片

Codis

Twemproxy

Redis Cluster

它們還可以用

是否中心化

來劃分,其中

客戶端分片、Redis Cluster屬於無中心化的叢集方案,Codis、Tweproxy屬於中心化的叢集方案。

是否中心化是指客戶端訪問多個Redis節點時,是

直接訪問

還是透過一個

中間層Proxy

來進行操作,直接訪問的就屬於無中心化的方案,透過中間層Proxy訪問的就屬於中心化的方案,它們有各自的優劣,下面分別來介紹。

客戶端分片

客戶端分片主要是說,我們只需要部署多個Redis節點,具體如何使用這些節點,主要工作在客戶端。

客戶端透過固定的Hash演算法,針對不同的key計算對應的Hash值,然後對不同的Redis節點進行讀寫。

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

這個方案的優點是部署非常方便,業務需要多少個節點DBA直接部署交付即可,剩下的事情就需要業務開發人員根據節點數量來編寫key的

請求路由邏輯

,制定一個規則,一般採用固定的Hash演算法,把不同的key寫入到不同的節點上,然後再根據這個規則進行資料讀取。

可見,它的缺點是業務開發人員

使用Redis的成本較高

,需要編寫路由規則的程式碼來使用多個節點,而且如果事先對業務的資料量評估不準確,後期的

擴容和遷移成本非常高

,因為節點數量發生變更後,Hash演算法對應的節點也就不再是之前的節點了。

所以後來又衍生出了

一致性雜湊演算法

,就是為了解決當節點數量變更時,儘量減少資料的遷移和效能問題。

這種客戶端分片的方案一般用於業務資料量比較穩定,後期不會有大幅度增長的業務場景下使用,只需要前期評估好業務資料量即可。

Codis

隨著業務和技術的發展,人們越發覺得,當我需要使用Redis時,我們

不想關心集群后面有多少個節點

,我們希望我們使用的Redis是一個大叢集,當我們的業務量增加時,這個大叢集可以

增加新的節點來解決容量不夠用和效能問題

這種方式就是

服務端分片方案

,客戶端不需要關心集群后面有多少個Redis節點,只需要像使用一個Redis的方式去操作這個叢集,這種方案將大大降低開發人員的使用成本,開發人員可以只需要關注業務邏輯即可,不需要關心Redis的資源問題。

多個節點組成的叢集,如何讓開發人員像操作一個Redis時那樣來使用呢?這就涉及到多個節點是如何組織起來提供服務的,一般我們會在客戶端和服務端中間增加一個

代理層

,客戶端只需要操作這個代理層,代理層實現了具體的請求轉發規則,然後轉發請求到後面的多個節點上,因此這種方式也叫做

中心化

方式的叢集方案,Codis就是以這種方式實現的叢集化方案。

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

Codis是由國人前豌豆莢大神開發的,採用中心化方式的叢集方案。因為需要代理層Proxy來進行所有請求的轉發,所以對Proxy的效能要求很高,Codis採用Go語言開發,相容了開發效率和效能。

Codis包含了多個元件:

codis-proxy:主要負責對請求的讀寫進行轉發

codis-dashbaord:統一的控制中心,整合了資料轉發規則、故障自動恢復、資料線上遷移、節點擴容縮容、自動化運維API等功能

codis-group:基於Redis 3。2。8版本二次開發的Redis Server,增加了非同步資料遷移功能

codis-fe:管理多個叢集的UI介面

可見Codis的元件還是挺多的,它的功能非常全,

除了請求轉發功能之外,還實現了線上資料遷移、節點擴容縮容、故障自動恢復等功能

Codis的Proxy就是負責請求轉發的元件,它內部維護了請求轉發的具體規則,Codis把整個叢集劃分為1024個槽位,在處理讀寫請求時,採用crc32Hash演算法計算key的Hash值,然後再根據Hash值對1024個槽位取模,最終找到具體的Redis節點。

Codis最大的特點就是可以線上擴容,在擴容期間不影響客戶端的訪問,也就是不需要停機。這對業務使用方是極大的便利,當叢集效能不夠時,就可以動態增加節點來提升叢集的效能。

為了實現線上擴容,保證資料在遷移過程中還有可靠的效能,Codis針對Redis進行了修改,增加了針對

非同步遷移資料

相關命令,它基於Redis 3。2。8進行開發,上層配合Dashboard和Proxy元件,完成對業務無損的資料遷移和擴容功能。

因此,要想使用Codis,必須使用它內建的Redis,這也就意味著Codis中的Redis是否能跟上官方最新版的功能特性,可能無法得到保障,這取決於Codis的維護方,目前Codis已經不再維護,所以使用Codis時只能使用3。2。8版的Redis,這是一個痛點。

另外,由於叢集化都需要部署多個節點,因此操作叢集並不能完全像操作單個Redis一樣實現所有功能,主要是對於

操作多個節點可能產生問題的命令進行了禁用或限制

,具體可參考Codis不支援的命令列表。

但這不影響它是一個優秀的叢集化方案,由於我司使用Redis叢集方案較早,那時Redis Cluster還不夠成熟,所以我司使用的Redis叢集方案就是Codis。

目前我的工作主要是圍繞Codis展開的,我們公司對Codis進行了定製開發,還對Redis進行了一些改造,讓Codis支援了跨多個數據中心的資料同步。

Twemproxy

Twemproxy是由Twitter開源的叢集化方案,它既可以做Redis Proxy,還可以做Memcached Proxy。

它的功能比較單一,只實現了請求路由轉發,沒有像Codis那麼全面有線上擴容的功能,它解決的重點就是把客戶端分片的邏輯統一放到了Proxy層而已,其他功能沒有做任何處理。

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

Tweproxy推出的時間最久,在早期沒有好的服務端分片叢集方案時,應用範圍很廣,而且效能也極其穩定。

但它的痛點就是

無法線上擴容、縮容

,這就導致運維非常不方便,而且也沒有友好的運維UI可以使用。Codis就是因為在這種背景下才衍生出來的。

Redis Cluster

採用中間加一層Proxy的中心化模式時,這就對Proxy的要求很高,因為它一旦出現故障,那麼操作這個Proxy的所有客戶端都無法處理,要想實現Proxy的高可用,還需要另外的機制來實現,例如Keepalive。

而且增加一層Proxy進行轉發,必然會有一定的

效能損耗

,那麼除了客戶端分片和上面提到的中心化的方案之外,還有比較好的解決方案麼?

Redis官方推出的Redis Cluster另闢蹊徑,它沒有采用中心化模式的Proxy方案,而是把請求轉發邏輯一部分放在客戶端,一部分放在了服務端,它們之間互相配合完成請求的處理。

Redis Cluster是在Redis 3。0推出的,早起的Redis Cluster由於沒有經過嚴格的測試和生產驗證,所以並沒有廣泛推廣開來。也正是在這樣的背景下,業界衍生了出了上面所說的中心化叢集方案:Codis和Tweproxy。

但隨著Redis的版本迭代,Redis官方的Cluster也越來越穩定,更多人開始採用官方的叢集化方案。也正是因為它是官方推出的,所以它的持續維護性可以得到保障,這就比那些第三方的開源方案更有優勢。

Redis Cluster沒有了中間的Proxy代理層,那麼是如何進行請求的轉發呢?

Redis把請求轉發的邏輯放在了Smart Client中,要想使用Redis Cluster,必須升級Client SDK,這個SDK中內建了請求轉發的邏輯,所以業務開發人員同樣不需要自己編寫轉發規則,Redis Cluster採用16384個槽位進行路由規則的轉發。

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

沒有了Proxy層進行轉發,客戶端可以直接操作對應的Redis節點,這樣就少了Proxy層轉發的效能損耗。

Redis Cluster也提供了

線上資料遷移、節點擴容縮容

等功能,內部還

內建了哨兵完成故障自動恢復功能

,可見它是一個整合所有功能於一體的Cluster。因此它在部署時非常簡單,不需要部署過多的元件,對於運維極其友好。

Redis Cluster在節點資料遷移、擴容縮容時,對於客戶端的請求處理也做了相應的處理。當客戶端訪問的資料正好在遷移過程中時,服務端與客戶端制定了一些協議,來告知客戶端去正確的節點上訪問,幫助客戶端訂正自己的路由規則。

雖然Redis Cluster提供了線上資料遷移的功能,但它的遷移效能並不高,遷移過程中遇到大key時還有可能長時間阻塞遷移的兩個節點,這個功能相較於Codis來說,Codis資料遷移效能更好。

現在越來越多的公司開始採用Redis Cluster,有能力的公司還在它的基礎上進行了二次開發和定製,來解決Redis Cluster存在的一些問題,我們期待Redis Cluster未來有更好的發展。

總結

比較完了這些叢集化方案,下面我們來總結一下。

硬核!阿里神作Redis的3種叢集方案對比,已在GitHub獲得上億推薦

業界主流的叢集化方案就是以上這些,並對它們的特點和區別做了簡單的介紹,我們在開發過程中選擇自己合適的叢集方案即可,但最好是理解它們的實現原理,在使用過程中遇到問題才可以更從容地去解決。最後,關注我,私信“資料”,可以獲取我整理的 Java 系列面試題和答案,非常齊全。還有更多Java學習資料。