MongoDB Kill Hang問題排查記錄
AliCloudDB MongoDB在開發過程中遇到一個無法正常退出的BUG,由於是Release版本的編譯(-O3),debuginfo已經不能很好的展現出堆棧的情況。這時又該如何確定問題所在呢?本篇文章完整的記錄了整個排查過程。
場景
kill命令正常執行,但進程遲遲沒有退出。非必現場景,在批量回收資源時比較容易出現,平時開發測試時沒有遇到。從場景上看出現的概率並不高,可能是在某種極端條件下才能觸發,由於第一次收到報告後沒有保留現場,先到官方JIRA平台上去搜相關的BUG,無果,又盲目的嚐試了幾個場景後隻能先Hold住,等待下次出現。
排查
確認BUG方向
很幸運,第二天BUG再次出現,僵屍進程?死循環?死鎖?沒有收到Kill信號?無數想法蹦出來,迅速登陸機器,查看現場,先從最簡單的可能性開始開始排查。
ps
top
第一套組合拳,排除了僵屍進程可能性,並且TOP顯示CPU使用率為0並不高;strace繼續跟進查看,也沒有發現有係統調用,最後在補一個pstack打印堆棧信息,全部線程都在wait。BUG的排查方向大致確定:線程間資源同步的問題(當然也不能排除是其他的可能性)。
確認代碼範圍
詳細分析pstack內容,從堆棧信息中看一個長相特別的(其他大部分的線程堆棧都是雷同的):
Thread 46 (Thread 0x2b5f079be700 (LWP 613)):
#0 0x000000301800b43c in pthread_cond_wait@@GLIBC_2.3.2 () from /lib64/libpthread.so.0
#1 0x0000000000fec763 in boost::thread::join() ()
#2 0x0000000000c8eebc in mongo::repl::ReplicationCoordinatorExternalStateImpl::shutdown() ()
#3 0x0000000000c93fed in mongo::repl::ReplicationCoordinatorImpl::shutdown() ()
#4 0x0000000000ad2463 in mongo::exitCleanly(mongo::ExitCode) ()
#5 0x0000000000f9c176 in ?? ()
#6 0x0000000000feb384 in ?? ()
#7 0x0000003018007851 in start_thread () from /lib64/libpthread.so.0
#8 0x000000300a4e767d in clone () from /lib64/libc.so.6
從函數名上看起來是MongoDB退出的關鍵路徑,就從這裏入手,人肉翻下源碼:
97 void ReplicationCoordinatorExternalStateImpl::shutdown() {
98 boost::lock_guard<boost::mutex> lk(_threadMutex);
99 if (_startedThreads) {
100 log() << "Stopping replication applier threads";
101 _syncSourceFeedback.shutdown();
102 _syncSourceFeedbackThread->join();
103 _applierThread->join();
104 BackgroundSync* bgsync = BackgroundSync::get();
105 bgsync->shutdown();
106 _producerThread->join();
107 }
108 }
這麼多的Join,到底是哪個呢。上GDB,我們來看看Thread 46到底在等誰。先加載symbol-file,失敗,加載後堆棧變得更亂了,換disassemble
命令,顯示匯編信息:
0x0000000000c8ee6b <+75>: mov %rsp,%rdi
0x0000000000c8ee6e <+78>: callq 0xdc8670 <_ZN5mongo6logger16LogstreamBuilder10makeStreamEv>
0x0000000000c8ee73 <+83>: mov 0x20(%rsp),%rdi
0x0000000000c8ee78 <+88>: lea 0x86e299(%rip),%rsi # 0x14fd118
0x0000000000c8ee7f <+95>: mov $0x24,%edx
0x0000000000c8ee84 <+100>: callq 0x1456550 <_ZSt16__ostream_insertIcSt11char_traitsIcEERSt13basic_ostreamIT_T0_ES6_PKS3_l>
0x0000000000c8ee89 <+105>: mov %rsp,%rdi
0x0000000000c8ee8c <+108>: callq 0xdc88d0 <_ZN5mongo6logger16LogstreamBuilderD2Ev>
0x0000000000c8ee91 <+113>: lea 0x38(%rbp),%rdi
0x0000000000c8ee95 <+117>: callq 0xcce810 <_ZN5mongo4repl18SyncSourceFeedback8shutdownEv>
0x0000000000c8ee9a <+122>: mov 0xe8(%rbp),%rdi
0x0000000000c8eea1 <+129>: test %rdi,%rdi
0x0000000000c8eea4 <+132>: je 0xc8ef14 <_ZN5mongo4repl39ReplicationCoordinatorExternalStateImpl8shutdownEv+244>
0x0000000000c8eea6 <+134>: callq 0xfec600 <_ZN5boost6thread4joinEv>
0x0000000000c8eeab <+139>: mov 0xf0(%rbp),%rdi
0x0000000000c8eeb2 <+146>: test %rdi,%rdi
0x0000000000c8eeb5 <+149>: je 0xc8ef14 <_ZN5mongo4repl39ReplicationCoordinatorExternalStateImpl8shutdownEv+244>
0x0000000000c8eeb7 <+151>: callq 0xfec600 <_ZN5boost6thread4joinEv>
=> 0x0000000000c8eebc <+156>: callq 0xc284a0 <_ZN5mongo4repl14BackgroundSync3getEv>
0x0000000000c8eec1 <+161>: mov %rax,%rdi
0x0000000000c8eec4 <+164>: callq 0xc27f60 <_ZN5mongo4repl14BackgroundSync8shutdownEv>
0x0000000000c8eec9 <+169>: mov 0xf8(%rbp),%rdi
0x0000000000c8eed0 <+176>: test %rdi,%rdi
0x0000000000c8eed3 <+179>: je 0xc8ef14 <_ZN5mongo4repl39ReplicationCoordinatorExternalStateImpl8shutdownEv+244>
0x0000000000c8eed5 <+181>: callq 0xfec600 <_ZN5boost6thread4joinEv>
0x0000000000c8eeda <+186>: nopw 0x0(%rax,%rax,1)
0x0000000000c8eee0 <+192>: mov %rbx,%rdi
0x0000000000c8eee3 <+195>: callq 0x804a38 <pthread_mutex_unlock@plt>
0x0000000000c8eee8 <+200>: cmp $0x4,%eax
0x0000000000c8eeeb <+203>: je 0xc8eee0 <_ZN5mongo4repl39ReplicationCoordinatorExternalStateImpl8shutdownEv+192>
0x0000000000c8eeed <+205>: test %eax,%eax
0x0000000000c8eeef <+207>: jne 0xc8ef0f <_ZN5mongo4repl39ReplicationCoordinatorExternalStateImpl8shutdownEv+239>
0x0000000000c8eef1 <+209>: add $0x38,%rsp
0x0000000000c8eef5 <+213>: pop %rbx
0x0000000000c8eef6 <+214>: pop %rbp
0x0000000000c8eef7 <+215>: pop %r12
0x0000000000c8eef9 <+217>: pop %r13
0x0000000000c8eefb <+219>: retq
查看0x0000000000c8eeb7
地址的上下文,通過前後指令的函數符號名確定了目前代碼是在_applierThread->join()
,這裏可以思考下是否還有的其他方法獲得代碼行。
_applierThread
同樣也是個線程,如果shutdown在等它,那它又在等誰呢,回頭繼續查pstack輸出,找到相關的堆棧:
Thread 34 (Thread 0x2b5f0a6d8700 (LWP 1355)):
#0 0x000000301800b43c in pthread_cond_wait@@GLIBC_2.3.2 () from /lib64/libpthread.so.0
#1 0x0000000000c2687b in mongo::repl::BackgroundSync::waitUntilPaused() ()
#2 0x0000000000cd192e in mongo::repl::SyncTail::tryPopAndWaitForMore(mongo::OperationContext*, mongo::repl::SyncTail::OpQueue*, mongo::repl::ReplicationCoordinator*) ()
#3 0x0000000000cd2823 in mongo::repl::SyncTail::oplogApplication() ()
#4 0x0000000000ccaaaf in mongo::repl::runSyncThread() ()
#5 0x0000000000feb384 in ?? ()
#6 0x0000003018007851 in start_thread () from /lib64/libpthread.so.0
#7 0x000000300a4e767d in clone () from /lib64/libc.so.6
注意這裏與shutdown的等待是不同的,shutdown是在等待線程退出,而這裏是在等待某個條件變量,再次上GDB,查看Thread 34 & backtrace 1, info locals
:
_lastOpTimeFetched = {i = 4, secs = 1448986976},
_lastAppliedHash = 3485900536827542548,
_lastFetchedHash = 3485900536827542548,
_pause = false,
_pausedCondition = {internal_mutex =
{ __data =
{__lock = 0, __count = 0, __owner = 0, __nusers = 1, __kind = 0, __spins = 0, __list =
{__prev = 0x0, __next = 0x0}
},
__size = '\000' <repeats 12 times>, "\001", '\000' <repeats 26 times>, __align = 0
}
找到代碼BUG
看看代碼怎麼寫的吧:
469 void BackgroundSync::waitUntilPaused() {
470 boost::unique_lock<boost::mutex> lock(_mutex);
471 while (!_pause) {
472 _pausedCondition.wait(lock);
473 }
474 }
_pause
變量一直都是0,所以會Hang在這裏。繼續查看代碼,跟蹤_pausedCondition
的調用,有兩個函數會去喚醒,一個是stop,另一個是shutdown,但shutdown的調用應該在線程退後調用,以便釋放資源。
同時,再次回過來在pstack中查看BackgroundSync
的堆棧信息,想看看到底卡在了哪裏。結果找不到BackgroundSync
線程,問題更清晰了,所有_pausedCondition
條件變量的喚醒,都是在該線程中完成的,如果BackgroundSync
已經不存在了,一定會hang住。
再反複閱讀代碼,BackgroundSync
在判斷到inShutdown()
時會自動結束生命周期,但結束後並沒有更改_pause
狀態。
FIX BUG
解決辦法是線程最後退出前執行stop函數,修改_pause
狀態,(shutdown會提前釋放資源),查看官方最最新代碼,確認有同樣的修改,反向追蹤提交,找到相關JIRA,抱怨JIRA的搜索弱爆了。
複現和驗證
為何該BUG出現的頻率會非常低呢,主要在判斷是否等待的條件上:
if (replCoord->isWaitingForApplierToDrain()) {
506 BackgroundSync::get()->waitUntilPaused();
507 if (peek(&op)) {
508 // The producer generated a last batch of ops before pausing so return
509 // false so that we'll come back and apply them before signaling the drain
510 // is complete.
511 return false;
512 }
513 replCoord->signalDrainComplete(txn);
514 }
1908 case kActionWinElection: {
1909 boost::unique_lock<boost::mutex> lk(_mutex);
1910 _electionId = OID::gen();
1911 _topCoord->processWinElection(_electionId, getNextGlobalOptime());
1912 _isWaitingForDrainToComplete = true;
1913 const PostMemberStateUpdateAction nextAction =
1914 _updateMemberStateFromTopologyCoordinator_inlock();
1915 invariant(nextAction != kActionWinElection);
1916 lk.unlock();
1917 _performPostMemberStateUpdateAction(nextAction);
1918 break;
1919 }
也就是說剛剛贏得了選舉後會產生_isWaitingForDrainToComplete == true
狀態,恰巧這個時間窗口內進程接受到退出信號。複現的辦法就是在kActionWinElection
的後麵加上sleep,以此來延長時間窗口,當然也可以通過GDB BLOCK的方式來複現。
最後更新:2017-04-01 13:37:07