據(jù)說是阿里 P8 級高級架構(gòu)師吐血總結(jié)的一份 Java 核心知識.pdf, 內(nèi)容覆蓋很廣,Java 核心基礎(chǔ)、Java 多線程、高并發(fā)、Spring、微服務(wù)、Netty 與 RPC、Zookeeper、Kafka、RabbitMQ、Habase、設(shè)計模式、負(fù)載均衡、分布式緩存、Hadoop、Spark、Storm、云計算等。 另外,附送 100G 學(xué)習(xí)、面試視頻文檔喲~ 獲取方式:【關(guān)注 轉(zhuǎn)發(fā)】后,私信我,回復(fù)關(guān)鍵字【資源】,即可免費無套路獲取哦~ 以下是資源的部分目錄以及內(nèi)容截圖: 重要的事再說一遍,獲取方式:【關(guān)注 轉(zhuǎn)發(fā)】后,私信我,回復(fù)關(guān)鍵字【資源】,即可免費無套路獲取哦~ 正文開始,前言背景前不久發(fā)過兩篇關(guān)于分表的文章:
從標(biāo)題可以看得出來,當(dāng)時我們只做了分表;還是由于業(yè)務(wù)發(fā)展,截止到現(xiàn)在也做了分庫,目前看來都還比較順利,所以借著腦子還記得清楚來一次復(fù)盤。 先來回顧下整個分庫分表的流程如下: 整個過程也很好理解,基本符合大部分公司的一個發(fā)展方向。 很少會有業(yè)務(wù)一開始就會設(shè)計為分庫分表,雖說這樣會減少后續(xù)的坑,但部分公司剛開始都是以業(yè)務(wù)為主。 直到業(yè)務(wù)發(fā)展到單表無法支撐時,自然而然會考慮分表甚至分庫的事情。 于是本篇會作一次總結(jié),之前提過的內(nèi)容可能會再重復(fù)一次。 分表首先討論下什么樣的情況下適合分表? 根據(jù)我的經(jīng)驗來看,當(dāng)某張表的數(shù)據(jù)量已經(jīng)達(dá)到千萬甚至上億,同時日增數(shù)據(jù)量在 2% 以上。 當(dāng)然這些數(shù)字并不是絕對的,最重要的還是對這張表的寫入和查詢都已經(jīng)影響到正常業(yè)務(wù)執(zhí)行,比如查詢速度明顯下降,數(shù)據(jù)庫整體 IO 居高不下等。 而談到分表時我們著重討論的還是水平分表; 也就是將一張大表數(shù)據(jù)通過某種路由算法將數(shù)據(jù)盡可能的均勻分配到 N 張小表中。 Range 而分表策略也有好幾種,分別適用不同的場景。 首先第一種是按照范圍劃分,比如我們可以將某張表的創(chuàng)建時間按照日期劃分存為月表;也可以將某張表的主鍵按照范圍劃分,比如 【1~10000】在一張表,【10001~20000】在一張表,以此類推。 這樣的分表適合需要對數(shù)據(jù)做歸檔處理,比如系統(tǒng)默認(rèn)只提供近三個月歷史數(shù)據(jù)的查詢功能,這樣也方便操作;只需要把三月之前的數(shù)據(jù)單獨移走備份保存即可)。 這個方案有好處也有弊端:
Hash 按照日期這樣的范圍分表固然簡單,但適用范圍還是比較窄;畢竟我們大部分的數(shù)據(jù)查詢都不想帶上時間。 比如某個用戶想查詢他產(chǎn)生的所有訂單信息,這是很常見的需求。 于是我們分表的維度就得改改,分表算法可以采用主流的 hash mod 的組合。 這是一個經(jīng)典的算法,大名鼎鼎的 HashMap 也是這樣來存儲數(shù)據(jù)。 假設(shè)我們這里將原有的一張大表訂單信息分為 64 張分表: 這里的 hash 便是將我們需要分表的字段進(jìn)行一次散列運算,使得經(jīng)過散列的數(shù)據(jù)盡可能的均勻并且不重復(fù)。 當(dāng)然如果本身這個字段就是一個整形并且不重復(fù)也可以省略這個步驟,直接進(jìn)行 Mod 得到分表下標(biāo)即可。 分表數(shù)量選擇 至于這里的分表數(shù)量(64)也是有講究的,具體設(shè)為多少這個沒有標(biāo)準(zhǔn)值,需要根據(jù)自身業(yè)務(wù)發(fā)展,數(shù)據(jù)增量進(jìn)行預(yù)估。 根據(jù)我個人的經(jīng)驗來看,至少需要保證分好之后的小表在業(yè)務(wù)發(fā)展的幾年之內(nèi)都不會出現(xiàn)單表數(shù)據(jù)量過大(比如達(dá)到千萬級)。 我更傾向于在數(shù)據(jù)庫可接受的范圍內(nèi)盡可能的增大這個分表數(shù),畢竟如果后續(xù)小表也達(dá)到瓶頸需要再進(jìn)行一次分表擴(kuò)容,那是非常痛苦的。
但是這個數(shù)量又不是瞎選的,和 HashMap 一樣,也建議得是 2^n,這樣可以方便在擴(kuò)容的時盡可能的少遷移數(shù)據(jù)。 Range Hash 當(dāng)然還有一種思路, Range 和 Hash 是否可以混用。 比如我們一開始采用的是 Hash 分表,但是數(shù)據(jù)增長巨大,導(dǎo)致每張分表數(shù)據(jù)很快達(dá)到瓶頸,這樣就不得不再做擴(kuò)容,比如由 64 張表擴(kuò)容到 256 張。 但擴(kuò)容時想要做到不停機(jī)遷移數(shù)據(jù)非常困難,即便是停機(jī),那停多久呢?也不好說。 所以我們是否可以在 Mod 分表的基礎(chǔ)上再分為月表,借助于 Range 自身的擴(kuò)展性就不用考慮后續(xù)數(shù)據(jù)遷移的事情了。 這種方式理論可行,但我沒有實際用過,給大家的思路做個參考吧。 煩人的數(shù)據(jù)遷移 分表規(guī)則弄好后其實只是完成了分表的第一步,真正麻煩的是數(shù)據(jù)遷移,或者說是如何做到對業(yè)務(wù)影響最小的數(shù)據(jù)遷移。 除非是一開始就做了分表,所以數(shù)據(jù)遷移這一步驟肯定是跑不掉的。 下面整理下目前我們的做法供大家參考:
至此整個分表操作完成。 業(yè)務(wù)兼容 同時分表之后還需要兼容其他業(yè)務(wù);比如原有的報表業(yè)務(wù)、分頁查詢等,現(xiàn)在來看看我們是如何處理的。 報表 首先是報表,沒分表之前之間查詢一張表就搞定了,現(xiàn)在不同,由一張表變?yōu)?N 張表。 所以原有的查詢要改為遍歷所有的分表,考慮到性能可以利用多線程并發(fā)查詢分表數(shù)據(jù)然后匯總。 不過只依靠 Java 來對這么大量的數(shù)據(jù)做統(tǒng)計分析還是不現(xiàn)實,剛開始可以應(yīng)付過去,后續(xù)還得用上大數(shù)據(jù)平臺來處理。 查詢 再一個是查詢,原有的分頁查詢肯定是不能用了,畢竟對上億的數(shù)據(jù)分頁其實沒什么意義。 只能提供通過分表字段的查詢,比如是按照訂單 ID 分表,那查詢條件就得帶上這個字段,不然就會涉及到遍歷所有表。 這也是所有分表之后都會遇到的一個問題,除非不用 MySQL 這類關(guān)系型數(shù)據(jù)庫。 分庫分表完成后可以解決單表的壓力,但數(shù)據(jù)庫本身的壓力卻沒有下降。 我們在完成分表之后的一個月內(nèi)又由于數(shù)據(jù)庫里“其他表”的寫入導(dǎo)致整個數(shù)據(jù)庫 IO 增加,而且這些“其他表”還和業(yè)務(wù)關(guān)系不大。 也就是說一些可有可無的數(shù)據(jù)導(dǎo)致了整體業(yè)務(wù)受影響,這是非常不劃算的事情。 于是我們便把這幾張表單獨移到一個新的數(shù)據(jù)庫中,完全和現(xiàn)有的業(yè)務(wù)隔離開來。 這樣就會涉及到幾個改造:
目前我們將這類數(shù)據(jù)量巨大但對業(yè)務(wù)不太影響的表單獨遷到一個庫后,數(shù)據(jù)庫的整體 IO 下降明顯,業(yè)務(wù)也恢復(fù)正常。 總結(jié)最后我們還需要做一步歷史數(shù)據(jù)歸檔的操作,將 N 個月之前的數(shù)據(jù)要定期遷移到 HBASE 之類存儲,保證 MySQL 中的數(shù)據(jù)一直保持在一個可接受的范圍。 而歸檔數(shù)據(jù)的查詢便依賴于大數(shù)據(jù)提供服務(wù)。 本次分庫分表是一次非常難得的實踐操作,網(wǎng)上大部分的資料都是在汽車出廠前就換好了輪胎。 而我們大部分碰到的場景都是要對高速路上跑著的車子換胎,一不小心就“車毀人亡”。 |
|