您好,登錄后才能下訂單哦!
今天遇到一個朋友的線上問題,大概意思就是說,我有一個線上的大事務大概100G左右,正在做回滾,當前看起來似乎影響了線上的業務,并且回滾很慢,是否可以減輕對線上業務的影響。并且朋友已經取消了雙1設置,但是沒有任何改觀。版本MySQL 5.6
歡迎關注我的《深入理解MySQL主從原理 32講 》,如下:
首先我們需要知道的是,MySQL并不適合大事務,大概列舉一些MySQL中大事務的影響:
基于如上一些不完全的列舉,我們應該在線上盡可能的避免大事務。好了我們下面來進行問題討論。
前面已經說了,我們已經取消了雙1設置,所謂的雙1就是 sync_binlog=1和 innodb_flush_log_at_trx_commit=1。這兩個參數線上要保證為1,前者保證binlog的安全,后者保證redo的安全,它們在數據庫crash recovery的時候起到了關鍵做用,不設置為雙1可能導致數據丟失。具體的參數含義不做過多討論。但是這里的問題是即便取消了雙1,沒有任何改觀,因此似乎說明IO問題不是主要瓶頸呢?下面我們來看幾個截圖:
我們重點觀察vmstat的r 和 b列發現,IO隊列沒有有什么問題 并且wa%并不大。我們觀察iostat中的%util和讀寫數據大小來看問題不大,并且tps遠沒達到極限(SSD盤)。我們top -Hu 可以觀察到 %us不小,并且有線程已經打滿了(99.4%CPU)一個CPU核。
因此我們可以將方向轉為研究CPU瓶頸的產生,希望能夠對問題有幫助,然后從提供的perf top中我們有如下發現:
好了我們將問題先鎖定到lock_number_of_rows_locked這個函數上。
朋友用的5.6,但是我這里以5.7.26的版本進行描述。然后下一節描述5.6和5.7算法上的關鍵差異。
不知道大家是否注意過show engine innodb status中的這樣一個標志:
這個標記就來自函數lock_number_of_rows_locked,含義為當前事務加行鎖的行數。而這個函數包裹在函數lock_print_info_all_transactions下面,lock_print_info_all_transactions函數是打印我們通常看到show engine innodb status中事務部分的核心參數。我們來看一下簡單的流程:
PrintNotStarted print_not_started(file);//建立一個結構體,目的是做not start 事務的打印
ut_list_map(trx_sys->mysql_trx_list, print_not_started); //這個地方打印出那些事務狀態是no start的事務。mysql_trx_list是全事務。
const trx_t* trx;
TrxListIterator trx_iter; //這個迭代器是trx_sys->rw_trx_list 這個鏈表的迭代器
const trx_t* prev_trx = 0;
/* Control whether a block should be fetched from the buffer pool. */
bool load_block = true;
bool monitor = srv_print_innodb_lock_monitor && (srv_show_locks_held != 0);
while ((trx = trx_iter.current()) != 0) { //通過迭代器進行迭代 ,顯然這里不會有只讀事務的信息,全部是讀寫事務。
...
/* If we need to print the locked record contents then we
need to fetch the containing block from the buffer pool. */
if (monitor) {
/* Print the locks owned by the current transaction. */
TrxLockIterator& lock_iter = trx_iter.lock_iter();
if (!lock_trx_print_locks( //打印出鎖的詳細信息
file, trx, lock_iter, load_block))
簡單的說就是先打印哪些處于not start的事務,然后打印那些讀寫事務的信息,當然我們的回滾事務肯定也包含在其中了,需要注意的是只讀事務show engine不會打印。
對于處于回滾狀態的事務我們可以在show engine中觀察到如下信息:
函數trx_print_low可以看到大部分的信息,這里就不詳細解釋了。既然如此我們需要明白lock_number_of_rows_locked是如何計算的,下面進行討論。
上面我們說了函數lock_number_of_rows_locked函數會打印出當前事務加行鎖的行數。那么我們來看一下5.6和5.7算法的不同。
實際上只有如下一句話:
return(trx_lock->n_rec_locks);
我們可以看到這是返回了一個計數器,而這個計數器的遞增就是在每行記錄加鎖后完成的,在函數lock_rec_set_nth_bit的末尾可以看到 ++lock->trx->lock.n_rec_locks ,因此這是一種預先計算的機制。
因此這樣的計算代價很低,也不會由于某個事務持有了大量的鎖,而導致計算代價過高。
隨后我翻了一下5.6.22的代碼,發現完全不同如下:
for (lock = UT_LIST_GET_FIRST(trx_lock->trx_locks); //使用for循環每個獲取的鎖結構
lock != NULL;
lock = UT_LIST_GET_NEXT(trx_locks, lock)) {
if (lock_get_type_low(lock) == LOCK_REC) { //過濾為行鎖
ulint n_bit;
ulint n_bits = lock_rec_get_n_bits(lock);
for (n_bit = 0; n_bit < n_bits; n_bit++) {//開始循環每一個鎖結構的每一個bit位進行統計
if (lock_rec_get_nth_bit(lock, n_bit)) {
n_records++;
}
}
}
}
return(n_records);
我們知道循環本身是一種CPU密集型的操作,這里使用了嵌套循環實現。因此如果在5.6中如果出現大事務操作了大量的行,那么獲取行鎖記錄的個數的時候,將會出現高耗CPU的情況。
有了上面的分析我們很清楚了,觸發的原因有如下幾點:
這樣當在統計這個大事務行鎖個數的時候,就會進行大量的循環操作。從現象上看就是線程消耗了大量的CPU資源,并且處于perf top的第一位。
知道了原因就很簡單了,找出為頻繁使用show engine innodb status的監控工具,隨后業務全部恢復正常,IO利用率也上升了如下:
當然如果能夠使用更新的版本比如5.7及8.0 版本將不會出現這個問題,可以考慮使用更高版本。
分析性能問題需要首先找到性能的瓶頸然后進行集中突破,比如本例中CPU資源消耗更加嚴重。也許解決問題就在一瞬間。
最后通過朋友后面查詢的bug如下:
https://bugs.mysql.com/bug.php?id=68647
發現印風(翟衛翔)已經在多年前提出過了這個問題,并且做出了修改意見,并且這個修改意見官方采納了,也就是上面我們分析的算法改變。經過印風(翟衛翔)的測試有bug中有如下描述:
也就是CPU消耗會高達20%。
下面是5.7.26調用棧幀:
#0 lock_number_of_rows_locked (trx_lock=0x7fffedc5bdd0) at /mysql/mysql-5.7.26/storage/innobase/lock/lock0lock.cc:1335
#1 0x0000000001bd700f in trx_print_latched (f=0x301cad0, trx=0x7fffedc5bd08, max_query_len=600) at /mysql/mysql-5.7.26/storage/innobase/trx/trx0trx.cc:2633
#2 0x0000000001a3ac40 in lock_trx_print_wait_and_mvcc_state (file=0x301cad0, trx=0x7fffedc5bd08) at /mysql/mysql-5.7.26/storage/innobase/lock/lock0lock.cc:5170
#3 0x0000000001a3b28f in lock_print_info_all_transactions (file=0x301cad0) at /mysql/mysql-5.7.26/storage/innobase/lock/lock0lock.cc:5357
#4 0x0000000001b794b1 in srv_printf_innodb_monitor (file=0x301cad0, nowait=0, trx_start_pos=0x7fffec3f4cc0, trx_end=0x7fffec3f4cb8)
at /mysql/mysql-5.7.26/storage/innobase/srv/srv0srv.cc:1250
#5 0x00000000019bd5c9 in innodb_show_status (hton=0x2e85bd0, thd=0x7fffe8000c50,
stat_print=0xf66cab <stat_print(THD*, char const*, size_t, char const*, size_t, char const*, size_t)>)
at /mysql/mysql-5.7.26/storage/innobase/handler/ha_innodb.cc:15893
#6 0x00000000019bdf35 in innobase_show_status (hton=0x2e85bd0, thd=0x7fffe8000c50,
stat_print=0xf66cab <stat_print(THD*, char const*, size_t, char const*, size_t, char const*, size_t)>, stat_type=HA_ENGINE_STATUS)
at /mysql/mysql-5.7.26/storage/innobase/handler/ha_innodb.cc:16307
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。