前面遇到過一次因為Hive
中表被鎖住了,導致定時任務一直失敗。這兩天又出現了表被鎖,原因是連線hiveserver2
過於頻繁,mysql
連線被打滿,引發的連鎖反應,導致我們的小時任務一直失敗,下午重點注意到這個問題,才解決好。
Hive中的鎖
在執行insert into
或insert overwrite
任務時,中途手動將程式停掉,會出現卡死情況(無法提交MapReduce),只能執行查詢操作,而drop insert
操作均不可操作,無論執行多久,都會保持卡死狀態。
檢視Hive
的中死鎖,可以使用show locks [table]
來檢視。
可以看到裡面的那個Type下的EXCLUSIVE,這是一種互斥鎖,需要解決,否則後續的查詢和插入任務都會影響。
hive存在兩種鎖,共享鎖Shared (S)
和互斥鎖Exclusive (X)
鎖 | S | X |
---|---|---|
S | 是 | 否 |
X | 否 | 否 |
鎖的基本機制是:
-
元資訊和資料的變更需要互斥鎖
-
資料的讀取需要共享鎖
觸發共享鎖的操作是可以併發執行的,但是觸發互斥鎖,那麼該表和該分割槽就不能併發的執行作業了。
對於上面的情況,使用解鎖命令:
unlock table tableName
注意:表鎖和分割槽鎖是兩個不同的鎖,對錶解鎖,對分割槽是無效的,分割槽需要單獨解鎖
解鎖方法
檢視錶被鎖的情況:
show locks tableName
常規解鎖方法:
unlock table 表名; -- 解鎖表
unlock table 表名 partition(dt='2014-04-01'); -- 解鎖某個分割槽
高版本hive預設插入資料時,不能查詢,因為有鎖
可能出現的問題
解鎖之路通常不是一帆風順的,可能會遇到各種問題,筆者是在Hive2.1.1
下面測試,比如:
這個命令無法執行,說LockManager
沒有指定,這時候需要執行命令:
set hive.support.concurrency=true;
set hive.txn.manager = org.apache.hadoop.hive.ql.lockmgr.DummyTxnManager;
這樣重新執行,命令就可以執行了
如果還!是!不!行,終極方法,可以直接去mysql後設資料執行:
select * from HIVE_LOCKS;
查到所有的鎖,然後根據條件把對應的鎖刪掉,這個鎖住的表即可釋放出來了。
delete from HIVE_LOCKS where HL_DB = 'cdn' and HL_TABLE = 'cdn_log_format';
注意:表名和欄位都需要大寫。
通過這種辦法,通常可以徹底解決鎖的問題。