中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

從Linux源碼看TIME_WAIT的持續時間

發布時間:2021-06-22 13:36:40 來源:億速云 閱讀:312 作者:chen 欄目:開發技術

本篇內容介紹了“從Linux源碼看TIME_WAIT的持續時間”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

目錄
  • 一、前言

  • 二、首先介紹下Linux環境

  • 三、TIME_WAIT狀態轉移圖

  • 四、持續時間真如TCP_TIMEWAIT_LEN所定義么?

  • 五、TIME_WAIT定時器源碼

    • 5.1、inet_twsk_schedule

    • 5.2、具體的清理函數

    • 5.3、先作出一個假設

    • 5.4、如果一個slot中的TIME_WAIT<=100

    • 5.5、如果一個slot中的TIME_WAIT>100

    • 5.6、PAWS(Protection Against Wrapped Sequences)使得TIME_WAIT延長

一、前言

筆者一直以為在Linux下TIME_WAIT狀態的Socket持續狀態是60s左右。線上實際卻存在TIME_WAIT超過100s的Socket。由于這牽涉到最近出現的一個復雜Bug的分析。所以,筆者就去Linux源碼里面,一探究竟。

二、首先介紹下Linux環境

TIME_WAIT這個參數通常和五元組重用扯上關系。在這里,筆者先給出機器的內核參數設置,以免和其它問題相混淆。

cat /proc/sys/net/ipv4/tcp_tw_reuse 0

cat /proc/sys/net/ipv4/tcp_tw_recycle 0

cat /proc/sys/net/ipv4/tcp_timestamps 1

可以看到,我們設置了tcp_tw_recycle為0,這可以避免NAT下tcp_tw_recycle和tcp_timestamps同時開啟導致的問題。

三、TIME_WAIT狀態轉移圖

提到Socket的TIME_WAIT狀態,不得就不亮出TCP狀態轉移圖了:

從Linux源碼看TIME_WAIT的持續時間

持續時間就如圖中所示的2MSL。但圖中并沒有指出2MSL到底是多長時間,但筆者從Linux源碼里面翻到了下面這個宏定義。

#define TCP_TIMEWAIT_LEN (60*HZ) /* how long to wait to destroy TIME-WAIT
				  * state, about 60 seconds	*/

如英文字面意思所示,60s后銷毀TIME_WAIT狀態,那么2MSL肯定就是60s嘍?

四、持續時間真如TCP_TIMEWAIT_LEN所定義么?

筆者之前一直是相信60秒TIME_WAIT狀態的socket就能夠被Kernel回收的。甚至筆者自己做實驗telnet一個端口號,人為制造TIME_WAIT,自己計時,也是60s左右即可回收。

從Linux源碼看TIME_WAIT的持續時間

但在追查一個問題時候,發現,TIME_WAIT有時候能夠持續到111s,不然完全無法解釋問題的現象。這就逼得筆者不得不推翻自己的結論,重新細細閱讀內核對于TIME_WAIT狀態處理的源碼。當然,這個追查的問題也會寫成博客分享出來,敬請期待_。

五、TIME_WAIT定時器源碼

談到TIME_WAIT何時能夠被回收,不得不談到TIME_WAIT定時器,這個就是專門用來銷毀到期的TIME_WAIT Socket的。而每一個Socket進入TIME_WAIT時,必然會經過下面的代碼分支:

tcp_v4_rcv

|->tcp_timewait_state_process

/* 將time_wait狀態的socket鏈入時間輪

|->inet_twsk_schedule

由于我們的kernel并沒有開啟tcp_tw_recycle,所以最終的調用為:

/* 這邊TCP_TIMEWAIT_LEN 60 * HZ */
inet_twsk_schedule(tw, &tcp_death_row, TCP_TIMEWAIT_LEN,
					 TCP_TIMEWAIT_LEN);

好了,讓我們按下這個核心函數吧。

5.1、inet_twsk_schedule

在閱讀源碼前,先看下大致的處理流程。Linux內核是通過時間輪來處理到期的TIME_WAIT socket,如下圖所示:

從Linux源碼看TIME_WAIT的持續時間

內核將60s的時間分為8個slot(INET_TWDR_RECYCLE_SLOTS),每個slot處理7.5(60/8)范圍time_wait狀態的socket。

void inet_twsk_schedule(struct inet_timewait_sock *tw,struct inet_timewait_death_row *twdr,const int timeo, const int timewait_len)
{
	......
	// 計算時間輪的slot
	slot = (timeo + (1 << INET_TWDR_RECYCLE_TICK) - 1) >> INET_TWDR_RECYCLE_TICK;
	......
	// 慢時間輪的邏輯,由于沒有開啟TCP\_TW\_RECYCLE,timeo總是60*HZ(60s)
	// 所有都走slow_timer邏輯 
	if (slot >= INET_TWDR_RECYCLE_SLOTS) {
		/* Schedule to slow timer */
		if (timeo >= timewait_len) {
			slot = INET_TWDR_TWKILL_SLOTS - 1;
		} else {
			slot = DIV_ROUND_UP(timeo, twdr->period);
			if (slot >= INET_TWDR_TWKILL_SLOTS)
				slot = INET_TWDR_TWKILL_SLOTS - 1;
		}
		tw->tw_ttd = jiffies + timeo;
		// twdr->slot當前正在處理的slot
		// 在TIME_WAIT_LEN下,這個邏輯一般7
		slot = (twdr->slot + slot) & (INET_TWDR_TWKILL_SLOTS - 1);
		list = &twdr->cells[slot];
	} else{
		// 走短時間定時器,由于篇幅原因,不在這里贅述
		......
	}
	......
	/* twdr->period 60/8=7.5 */
	if (twdr->tw_count++ == 0)
		mod_timer(&twdr->tw_timer, jiffies + twdr->period);
	spin_unlock(&twdr->death_lock);
}

從源碼中可以看到,由于我們傳入的timeout皆為TCP_TIMEWAIT_LEN。所以,每次剛成為的TIME_WAIT狀態的socket即將鏈接到當前處理slot最遠的slot(+7)以便處理。如下圖所示:

從Linux源碼看TIME_WAIT的持續時間

如果Kernel不停的產生TIME_WAIT,那么整個slow timer時間輪就會如下圖所示:

從Linux源碼看TIME_WAIT的持續時間

所有的slot全部掛滿了TIME_WAIT狀態的Socket。

5.2、具體的清理函數

每次調用inet_twsk_schedule時候傳入的處理函數都是:

/*參數中的tcp_death_row即為承載時間輪處理函數的結構體*/
inet_twsk_schedule(tw,&tcp_death_row,TCP_TIMEWAIT_LEN,TCP_TIMEWAIT_LEN)
/* 具體的處理結構體 */
struct inet_timewait_death_row tcp_death_row = {
	......
	/* slow_timer時間輪處理函數 */
	.tw_timer	= TIMER_INITIALIZER(inet_twdr_hangman, 0,
					    (unsigned long)&tcp_death_row),
	/* slow_timer時間輪輔助處理函數*/
	.twkill_work	= __WORK_INITIALIZER(tcp_death_row.twkill_work,
					     inet_twdr_twkill_work),
	/* 短時間輪處理函數 */
	.twcal_timer	= TIMER_INITIALIZER(inet_twdr_twcal_tick, 0,
					    (unsigned long)&tcp_death_row),				
};

由于我們這邊主要考慮的是設置為TCP_TIMEWAIT_LEN(60s)的處理時間,所以直接考察slow_timer時間輪處理函數,也就是inet_twdr_hangman。這個函數還是比較簡短的:

void inet_twdr_hangman(unsigned long data)
{
	struct inet_timewait_death_row *twdr;
	unsigned int need_timer;

	twdr = (struct inet_timewait_death_row *)data;
	spin_lock(&twdr->death_lock);

	if (twdr->tw_count == 0)
		goto out;

	need_timer = 0;
	// 如果此slot處理的time_wait socket已經達到了100個,且還沒處理完
	if (inet_twdr_do_twkill_work(twdr, twdr->slot)) {
		twdr->thread_slots |= (1 << twdr->slot);
		// 將余下的任務交給work queue處理
		schedule_work(&twdr->twkill_work);
		need_timer = 1;
	} else {
		/* We purged the entire slot, anything left?  */
		// 判斷是否還需要繼續處理
		if (twdr->tw_count)
			need_timer = 1;
		// 如果當前slot處理完了,才跳轉到下一個slot
		twdr->slot = ((twdr->slot + 1) & (INET_TWDR_TWKILL_SLOTS - 1));
	}
	// 如果還需要繼續處理,則在7.5s后再運行此函數
	if (need_timer)
		mod_timer(&twdr->tw_timer, jiffies + twdr->period);
out:
	spin_unlock(&twdr->death_lock);
}

雖然簡單,但這個函數里面有不少細節。第一個細節,就在inet_twdr_do_twkill_work,為了防止這個slot的time_wait過多,卡住當前的流程,其會在處理完100個time_wait socket之后就回返回。這個slot余下的time_wait會交給Kernel的work_queue機制去處理。

從Linux源碼看TIME_WAIT的持續時間

值得注意的是。由于在這個slow_timer時間輪判斷里面,根本不判斷精確時間,直接全部刪除。所以輪到某個slot,例如到了52.5-60s這個slot,直接清理52.5-60s的所有time_wait。即使time_wait還沒有到60s也是如此。而小時間輪(tw_cal)會精確的判定時間,由于篇幅原因,就不在這里細講了。

注: 小時間輪(tw\_cal)在tcp\_tw\_recycle開啟的情況下會使用

5.3、先作出一個假設

我們假設,一個時間輪的數據最多能在一個slot間隔時間,也就是(60/8=7.5)內肯定能處理完畢。由于系統有tcp_tw_max_buckets設置,如果設置的比較合理,這個假設還是比較靠譜的。

注: 這里的60/8為什么需要精確到小數,而不是7。

因為實際計算的時候是拿60*HZ進行計算,

如果HZ是1024的話,那么period應該是7680,即精度精確到ms級。

所以在本文中計算的時候需要精確到小數。

5.4、如果一個slot中的TIME_WAIT<=100

如果一個slot的TIME_WAIT<=100,很自然的,我們的處理函數并不會啟用work_queue。同時,還將slot+1,使得在下一個period的時候可以處理下一個slot。如下圖所示:

從Linux源碼看TIME_WAIT的持續時間

5.5、如果一個slot中的TIME_WAIT>100

如果一個slot的TIME_WAIT>100,Kernel會將余下的任務交給work_queue處理。同時,slot不變!也即是說,下一個period(7.5s后)到達的時候,還會處理同樣的slot。按照我們的假設,這時候slot已經處理完畢,那么在第7.5s的時候才將slot向前推進。也就是說,假設slot一開始為0,到真正處理slot 1需要15s!

從Linux源碼看TIME_WAIT的持續時間

假設每一個slot的TIME_WAIT都>100的話,那么每個slot的處理都需要15s。

對于這種情況,筆者寫了個程序進行模擬。

public class TimeWaitSimulator {

    public static void main(String[] args) {
        double delta = (60) * 1.0 / 8;

        // 0表示開始清理,1表示清理完畢
        // 清理完畢之后slot向前推進
        int startPurge = 0;
        double sum = 0;
        int slot = 0;
        while (slot < 8) {
            if (startPurge == 0) {
                sum += delta;
                startPurge = 1;
                if (slot == 7) {
                    // 因為假設進入work_queue之后,很快就會清理完
                    // 所以在slot為7的時候并不需要等最后的那個purge過程7.5s
                    System.out.println("slot " + slot + " has reach the last " + sum);
                    break;
                }
            }
            if (startPurge == 1) {
                sum += delta;
                startPurge = 0;
                System.out.println("slot " + "move to next at time " + sum);
                // 清理完之后,slot才應該向前推進
                slot++;
            }
        }
    }
}

得出結果如下面所示:

slot move to next at time 15.0

slot move to next at time 30.0

slot move to next at time 45.0

slot move to next at time 60.0

slot move to next at time 75.0

slot move to next at time 90.0

slot move to next at time 105.0

slot 7 has reach the last  112.5

也即處理到52.5-60s這個時間輪的時候,其實外面時間已經過去了112.5s,處理已經完全滯后了。不過由于TIME_WAIT狀態下的Socket(inet_timewait_sock)所占用內存很少,所以不會對系統可用資源造成太大的影響。但是,這會在NAT環境下造成一個坑,這也是筆者文章前面提到過的Bug。
上面的計算如果按照圖和時間線畫出來,應該是這么個情況:

從Linux源碼看TIME_WAIT的持續時間

也即TIME_WAIT狀態的Socket在一個period(7.5s)內能處理完當前slot的情況下,最多能夠存在112.5s!

如果7.5s內還處理不完,那么響應時間輪的輪轉還得繼續加上一個或多個perod。但在tcp_tw_max_buckets的限制,應該無法達到這么嚴苛的條件。

5.6、PAWS(Protection Against Wrapped Sequences)使得TIME_WAIT延長

事實上,以上結論還是不夠嚴謹。TIME_WAIT時間還可以繼續延長!看下這段源碼:

enum tcp_tw_status
tcp_timewait_state_process(struct inet_timewait_sock *tw, struct sk_buff *skb,
			   const struct tcphdr *th)
{
	......
	if (paws_reject)
		NET_INC_STATS_BH(twsk_net(tw), LINUX_MIB_PAWSESTABREJECTED);
		
	if (!th->rst) {
		/* In this case we must reset the TIMEWAIT timer.
		 *
		 * If it is ACKless SYN it may be both old duplicate
		 * and new good SYN with random sequence number <rcv_nxt.
		 * Do not reschedule in the last case.
		 */
		/* 如果有回繞校驗失敗的包到達的情況下,或者其實ack包 
		 * 重置定時器到新的60s之后
		 * /
		if (paws_reject || th->ack)
			inet_twsk_schedule(tw, &tcp_death_row, TCP_TIMEWAIT_LEN,
					   TCP_TIMEWAIT_LEN);

		/* Send ACK. Note, we do not put the bucket,
		 * it will be released by caller.
		 */
		/* 向對端發送當前time wait狀態應該返回的ACK */
		return TCP_TW_ACK;
	}
	inet_twsk_put(tw);
	/* 注意,這邊通過paws校驗的包,會返回tcp_tw_success,使得time_wait狀態的
	 * socket五元組也可以三次握手成功重新復用
	 * /
	return TCP_TW_SUCCESS;
}

上面的邏輯如下圖所示:

從Linux源碼看TIME_WAIT的持續時間

注意代碼最后的return TCP_TW_SUCCESS,通過PAWS校驗的包,會返回TCP_TW_SUCCESS,使得TIME_WAIT狀態的Socket(五元組)也可以三次握手成功重新復用!

“從Linux源碼看TIME_WAIT的持續時間”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

若羌县| 乐业县| 阿尔山市| 安达市| 时尚| 商都县| 鄂托克旗| 睢宁县| 涞水县| 宁远县| 余干县| 呼图壁县| 平武县| 乌拉特后旗| 荥阳市| 临漳县| 湖南省| 吉隆县| 行唐县| 丰县| 内乡县| 沙坪坝区| 玉龙| 延边| 察隅县| 宜君县| 沐川县| 剑河县| 通道| 云浮市| 乳山市| 建昌县| 顺平县| 东乡族自治县| 杭锦旗| 红河县| 博白县| 丽水市| 航空| 湘潭县| 衡水市|