匠心零度 轉載請註明原創出處,謝謝!
緣起
為什麼會突然談到分散式唯一id呢?原因是最近在準備使用RocketMQ,看看官網介紹:
一句話,訊息可能會重複,所以消費端需要做冪等。為什麼訊息會重複後續RocketMQ章節進行詳細介紹,本節重點不在這裡。
為了達到業務的冪等,必須要有這樣一個id存在,需要滿足下面幾個條件:
- 同一業務場景要全域性唯一。
- 該id必須是在訊息的傳送方進行產生髮送到MQ。
- 消費端根據該id進行判斷是否重複,確保冪等。
在那裡產生,和消費端進行判斷等和這個id沒有關係,這個id的要求就是區域性唯一或者全域性唯一即可,由於這個id是唯一的,可以用來當資料庫的主鍵,既然要做主鍵那麼之前剛剛好發過一篇文章:從開發者角度談Mysql(1):主鍵問題,文章重點提到為什麼需要自增、或者趨勢自增的好處。(和Mysql資料儲存做法有關)。
那麼該id需要有2個特性:
- 區域性、全域性唯一。
- 趨勢遞增。
如果有方法可以生成全域性唯一(那麼在區域性也一定唯一了),生成分散式唯一id的方法有很多。大家可以看看分散式系統唯一ID生成方案彙總:http://www.cnblogs.com/haoxinyue/p/5208136.html(由於微信不是他的地址都顯示不出來,所以把地址貼出來下),這個文章裡面提到了很多以及各各的優缺點。 本文關注重點是snowflake演算法,該演算法實現得到的id就滿足上面提到的2點。
snowflake演算法
snowflake是Twitter開源的分散式ID生成演算法,結果是一個long型的ID。其核心思想是:使用41bit作為毫秒數,10bit作為機器的ID(5個bit是資料中心,5個bit的機器ID),12bit作為毫秒內的流水號(意味著每個節點在每毫秒可以產生 4096 個 ID),最後還有一個符號位,永遠是0。
該演算法實現基本就是二進位制操作,如果二進位制不熟悉的可以看看我之前寫的相關文章:java二進位制相關基礎、二進位制實戰技巧。
這個演算法單機每秒內理論上最多可以生成1000*(2^12),也就是409.6萬個ID,(吼吼,這個得了的快啊)。
java實現程式碼基本上就是類似這樣的(都差不多,基本就是二進位制位操作): 參考:https://www.cnblogs.com/relucent/p/4955340.html
/**
* Twitter_Snowflake<br>
* SnowFlake的結構如下(每部分用-分開):<br>
* 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 - 000000000000 <br>
* 1位標識,由於long基本型別在Java中是帶符號的,最高位是符號位,正數是0,負數是1,所以id一般是正數,最高位是0<br>
* 41位時間截(毫秒級),注意,41位時間截不是儲存當前時間的時間截,而是儲存時間截的差值(當前時間截 - 開始時間截)
* 得到的值),這裡的的開始時間截,一般是我們的id生成器開始使用的時間,由我們程式來指定的(如下下面程式IdWorker類的startTime屬性)。41位的時間截,可以使用69年,年T = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69<br>
* 10位的資料機器位,可以部署在1024個節點,包括5位datacenterId和5位workerId<br>
* 12位序列,毫秒內的計數,12位的計數順序號支援每個節點每毫秒(同一機器,同一時間截)產生4096個ID序號<br>
* 加起來剛好64位,為一個Long型。<br>
* SnowFlake的優點是,整體上按照時間自增排序,並且整個分散式系統內不會產生ID碰撞(由資料中心ID和機器ID作區分),並且效率較高,經測試,SnowFlake每秒能夠產生26萬ID左右。
*/
public class SnowflakeIdWorker {
// ==============================Fields===========================================
/** 開始時間截 (2015-01-01) */
private final long twepoch = 1420041600000L;
/** 機器id所佔的位數 */
private final long workerIdBits = 5L;
/** 資料標識id所佔的位數 */
private final long datacenterIdBits = 5L;
/** 支援的最大機器id,結果是31 (這個移位演算法可以很快的計算出幾位二進位制數所能表示的最大十進位制數) */
private final long maxWorkerId = -1L ^ (-1L << workerIdBits);
/** 支援的最大資料標識id,結果是31 */
private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
/** 序列在id中佔的位數 */
private final long sequenceBits = 12L;
/** 機器ID向左移12位 */
private final long workerIdShift = sequenceBits;
/** 資料標識id向左移17位(12+5) */
private final long datacenterIdShift = sequenceBits + workerIdBits;
/** 時間截向左移22位(5+5+12) */
private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
/** 生成序列的掩碼,這裡為4095 (0b111111111111=0xfff=4095) */
private final long sequenceMask = -1L ^ (-1L << sequenceBits);
/** 工作機器ID(0~31) */
private long workerId;
/** 資料中心ID(0~31) */
private long datacenterId;
/** 毫秒內序列(0~4095) */
private long sequence = 0L;
/** 上次生成ID的時間截 */
private long lastTimestamp = -1L;
//==============================Constructors=====================================
/**
* 建構函式
* @param workerId 工作ID (0~31)
* @param datacenterId 資料中心ID (0~31)
*/
public SnowflakeIdWorker(long workerId, long datacenterId) {
if (workerId > maxWorkerId || workerId < 0) {
throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
}
if (datacenterId > maxDatacenterId || datacenterId < 0) {
throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
}
this.workerId = workerId;
this.datacenterId = datacenterId;
}
// ==============================Methods==========================================
/**
* 獲得下一個ID (該方法是執行緒安全的)
* @return SnowflakeId
*/
public synchronized long nextId() {
long timestamp = timeGen();
//如果當前時間小於上一次ID生成的時間戳,說明系統時鐘回退過這個時候應當丟擲異常
if (timestamp < lastTimestamp) {
throw new RuntimeException(
String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
}
//如果是同一時間生成的,則進行毫秒內序列
if (lastTimestamp == timestamp) {
sequence = (sequence + 1) & sequenceMask;
//毫秒內序列溢位
if (sequence == 0) {
//阻塞到下一個毫秒,獲得新的時間戳
timestamp = tilNextMillis(lastTimestamp);
}
}
//時間戳改變,毫秒內序列重置
else {
sequence = 0L;
}
//上次生成ID的時間截
lastTimestamp = timestamp;
//移位並通過或運算拼到一起組成64位的ID
return ((timestamp - twepoch) << timestampLeftShift) //
| (datacenterId << datacenterIdShift) //
| (workerId << workerIdShift) //
| sequence;
}
/**
* 阻塞到下一個毫秒,直到獲得新的時間戳
* @param lastTimestamp 上次生成ID的時間截
* @return 當前時間戳
*/
protected long tilNextMillis(long lastTimestamp) {
long timestamp = timeGen();
while (timestamp <= lastTimestamp) {
timestamp = timeGen();
}
return timestamp;
}
/**
* 返回以毫秒為單位的當前時間
* @return 當前時間(毫秒)
*/
protected long timeGen() {
return System.currentTimeMillis();
}
//==============================Test=============================================
/** 測試 */
public static void main(String[] args) {
SnowflakeIdWorker idWorker = new SnowflakeIdWorker(0, 0);
for (int i = 0; i < 1000; i++) {
long id = idWorker.nextId();
System.out.println(Long.toBinaryString(id));
System.out.println(id);
}
}
}
複製程式碼
優點:
- 快(哈哈,天下武功唯快不破)。
- 沒有啥依賴,實現也特別簡單。
- 知道原理之後可以根據實際情況調整各各位段,方便靈活。
缺點:
- 只能趨勢遞增。(有些也不叫缺點,網上有些如果絕對遞增,競爭對手中午下單,第二天在下單即可大概判斷該公司的訂單量,危險!!!)
- 依賴機器時間,如果發生回撥會導致可能生成id重複。 下面重點討論時間回撥問題。
snowflake演算法時間回撥問題思考
由於存在時間回撥問題,但是他又是那麼快和簡單,我們思考下是否可以解決呢? 零度在網上找了一圈沒有發現具體的解決方案,但是找到了一篇美團不錯的文章:Leaf——美團點評分散式ID生成系統(https://tech.meituan.com/MT_Leaf.html)文章很不錯,可惜並沒有提到時間回撥如何具體解決。下面看看零度的一些思考:
分析時間回撥產生原因
第一:人物操作,在真實環境一般不會有那個傻逼幹這種事情,所以基本可以排除。 第二:由於有些業務等需要,機器需要同步時間伺服器(在這個過程中可能會存在時間回撥,查了下我們伺服器一般在10ms以內(2小時同步一次))。
解決方法
-
由於是分佈在各各機器自己上面,如果要幾臺集中的機器(並且不做時間同步),那麼就基本上就不存在回撥可能性了(曲線救國也是救國,哈哈),但是也的確帶來了新問題,各各結點需要訪問集中機器,要保證效能,百度的uid-generator產生就是基於這種情況做的(每次取一批迴來,很好的思想,效能也非常不錯)https://github.com/baidu/uid-generator。 如果到這裡你採納了,基本就沒有啥問題了,你就不需要看了,如果你還想看看零度自己的思考可以繼續往下看看(零度的思考只是一種思考 可能也不一定好,期待你的交流。),uid-generator我還沒有細看,但是看測試報告非常不錯,後面有空的確要好好看看。
-
下面談談零度自己的思考,之前也大概和美團Leaf作者交流了下,的確零度的這個可以解決一部分問題,但是引入了一些其他問題和依賴。是零度的思考,期待更多的大佬給點建議。
時間問題回撥的解決方法:
- 當回撥時間小於15ms,就等時間追上來之後繼續生成。
- 當時間大於15ms時間我們通過更換workid來產生之前都沒有產生過的來解決回撥問題。
首先把workid的位數進行了調整(15位可以達到3萬多了,一般夠用了)
Snowflake演算法稍微調整下位段:- sign(1bit) 固定1bit符號標識,即生成的暢途分散式唯一id為正數。
- delta seconds (38 bits) 當前時間,相對於時間基點"2017-12-21"的增量值,單位:毫秒,最多可支援約8.716年
- worker id (15 bits) 機器id,最多可支援約3.28萬個節點。
- sequence (10 bits) 每秒下的併發序列,10 bits,這個演算法單機每秒內理論上最多可以生成1000*(2^10),也就是100W的ID,完全能滿足業務的需求。
由於服務無狀態化關係,所以一般workid也並不配置在具體配置檔案裡面,看看我這篇的思考,為什麼需要無狀態化。高可用的一些思考和理解,這裡我們選擇redis來進行中央儲存(zk、db)都是一樣的,只要是集中式的就可以。
下面到了關鍵了: 現在我把3萬多個workid放到一個佇列中(基於redis),由於需要一個集中的地方來管理workId,每當節點啟動時候,(先在本地某個地方看看是否有 借鑑弱依賴zk 本地先儲存),如果有那麼值就作為workid,如果不存在,就在佇列中取一個當workid來使用(佇列取走了就沒了 ),當發現時間回撥太多的時候,我們就再去佇列取一個來當新的workid使用,把剛剛那個使用回撥的情況的workid存到佇列裡面(佇列我們每次都是從頭取,從尾部進行插入,這樣避免剛剛a機器使用又被b機器獲取的可能性)。
有幾個問題值得思考:
-
如果引入了redis為啥不用redis下發id?(檢視分散式系統唯一ID生成方案彙總會獲得答案,我們這裡僅僅是用來一致性佇列的,能做一致性佇列的基本都可以)。
-
引入redis就意味著引入其他第三方的架構,做基礎框架最好是不要引用(越簡單越好,目前還在學習提高)。
-
redis一致性怎麼保證?(redis掛了怎麼辦,怎麼同步,的確值得商榷。可能會引入會引入很多新的小問題)。
總結
所以選擇類似百度的那種做法比較好,集中之後批取,零度的思考雖然思考了,但是從基礎元件來看並不是特別合適,但是也算一種思路吧。期待與大佬們的交流。
如果讀完覺得有收穫的話,歡迎點贊、關注、加公眾號【匠心零度】,查閱更多精彩歷史!!!