您好,登錄后才能下訂單哦!
本篇內容主要講解“為什么不要在nodejs中阻塞event loop”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“為什么不要在nodejs中阻塞event loop”吧!
我們知道event loop是nodejs中事件處理的基礎,event loop中主要運行的初始化和callback事件。除了event loop之外,nodejs中還有Worker Pool用來處理一些耗時的操作,比如I/O操作。
nodejs高效運行的秘訣就是使用異步IO從而可以使用少量的線程來處理大量的客戶端請求。
而同時,因為使用了少量的線程,所以我們在編寫nodejs程序的時候,一定要特別小心。
在nodejs中有兩種類型的線程。第一類線程就是Event Loop也可以被稱為主線程,第二類就是一個Worker Pool中的n個Workers線程。
如果這兩種線程執行callback花費了太多的時間,那么我們就可以認為這兩個線程被阻塞了。
線程阻塞第一方面會影響程序的性能,因為某些線程被阻塞,就會導致系統資源的占用。因為總的資源是有限的,這樣就會導致處理其他業務的資源變少,從而影響程序的總體性能。
第二方面,如果經常會有線程阻塞的情況,很有可能被惡意攻擊者發起DOS攻擊,導致正常業務無法進行。
nodejs使用的是事件驅動的框架,Event Loop主要用來處理為各種事件注冊的callback,同時也負責處理非阻塞的異步請求,比如網絡I/O。
而由libuv實現的Worker Pool主要對外暴露了提交task的API,從而用來處理一些比較昂貴的task任務。這些任務包括CPU密集性操作和一些阻塞型IO操作。
而nodejs本身就有很多模塊使用的是Worker Pool。
比如IO密集型操作:
DNS模塊中的dns.lookup(), dns.lookupService()。
和除了fs.FSWatcher()和 顯式同步的文件系統的API之外,其他多有的File system模塊都是使用的Worker Pool。
CPU密集型操作:
Crypto模塊:crypto.pbkdf2(), crypto.scrypt(), crypto.randomBytes(), crypto.randomFill(), crypto.generateKeyPair()。
Zlib模塊:除了顯示同步的API之外,其他的API都是用的是worker pool。
一般來說使用Worker Pool的模塊就是這些了,除此之外,你還可以使用nodejs的C++ add-on來自行提交任務到Worker Pool。
在之前的文件中,我們講到了event loop中使用queue來存儲event的callback,實際上這種描述是不準確的。
event loop實際上維護的是一個文件描述符集合。這些文件描述符使用的是操作系統內核的 epoll (Linux), kqueue (OSX), event ports (Solaris), 或者 IOCP (Windows)來對事件進行監聽。
當操作系統檢測到事件準備好之后,event loop就會調用event所綁定的callback事件,最終執行callback。
相反的,worker pool就真的是保存了要執行的任務隊列,這些任務隊列中的任務由各個worker來執行。當執行完畢之后,Woker將會通知Event Loop該任務已經執行完畢。
因為nodejs中的線程有限,如果某個線程被阻塞,就可能會影響到整個應用程序的執行,所以我們在程序設計的過程中,一定要小心的考慮event loop和worker pool,避免阻塞他們。
event loop主要關注的是用戶的連接和響應用戶的請求,如果event loop被阻塞,那么用戶的請求將會得不到及時響應。
因為event loop主要執行的是callback,所以,我們的callback執行時間一定要短。
時間復雜度一般用在判斷一個算法的運行速度上,這里我們也可以借助時間復雜度這個概念來分析一下event loop中的callback。
如果所有的callback中的時間復雜度都是一個常量的話,那么我們可以保證所有的callback都可以很公平的被執行。
但是如果有些callback的時間復雜度是變化的,那么就需要我們仔細考慮了。
app.get('/constant-time', (req, res) => { res.sendStatus(200); });
先看一個常量時間復雜度的情況,上面的例子中我們直接設置了respose的status,是一個常量時間操作。
app.get('/countToN', (req, res) => { let n = req.query.n; // n iterations before giving someone else a turn for (let i = 0; i < n; i++) { console.log(`Iter ${i}`); } res.sendStatus(200); });
上面的例子是一個O(n)的時間復雜度,根據request中傳入的n的不同,我們可以得到不同的執行時間。
app.get('/countToN2', (req, res) => { let n = req.query.n; // n^2 iterations before giving someone else a turn for (let i = 0; i < n; i++) { for (let j = 0; j < n; j++) { console.log(`Iter ${i}.${j}`); } } res.sendStatus(200); });
上面的例子是一個O(n^2)的時間復雜度。
這種情況應該怎么處理呢?首先我們需要估算出系統能夠承受的響應極限值,并且設定用戶傳入的參數極限值,如果用戶傳入的數據太長,超出了我們的處理范圍,則可以直接從用戶輸入端進行限制,從而保證我們的程序的正常運行。
在nodejs中的核心模塊中,有一些方法是同步的阻塞API,使用起來開銷比較大,比如壓縮,加密,同步IO,子進程等等。
這些API的目的是供我們在REPL環境中使用的,我們不應該直接在服務器端程序中使用他們。
有哪些不推薦在server端使用的API呢?
Encryption: crypto.randomBytes (同步版本) crypto.randomFillSync crypto.pbkdf2Sync
Compression: zlib.inflateSync zlib.deflateSync
File system: 不要使用fs的同步API
Child process: child_process.spawnSync child_process.execSync child_process.execFileSync
為了不阻塞event loop,同時給其他event一些運行機會,我們實際上有兩種解決辦法,那就是partitioning和offloading。
partitioning就是分而治之,把一個長的任務,分成幾塊,每次執行一塊,同時給其他的event一些運行時間,從而不再阻塞event loop。
舉個例子:
for (let i = 0; i < n; i++) sum += i; let avg = sum / n; console.log('avg: ' + avg);
比如我們要計算n個數的平均數。上面的例子中我們的時間復雜度是O(n)。
function asyncAvg(n, avgCB) { // Save ongoing sum in JS closure. var sum = 0; function help(i, cb) { sum += i; if (i == n) { cb(sum); return; } // "Asynchronous recursion". // Schedule next operation asynchronously. setImmediate(help.bind(null, i+1, cb)); } // Start the helper, with CB to call avgCB. help(1, function(sum){ var avg = sum/n; avgCB(avg); }); } asyncAvg(n, function(avg){ console.log('avg of 1-n: ' + avg); });
這里我們用到了setImmediate,將sum的任務分解成一步一步的。雖然asyncAvg需要執行很多次,但是每一次的event loop都可以保證不被阻塞。
partitioning雖然邏輯簡單,但是對于一些大型的計算任務來說,并不合適。并且partitioning本身還是運行在event loop中的,它并沒有享受到多核系統帶來的優勢。
這個時候我們就需要將任務offloading到worker Pool中。
使用Worker Pool有兩種方式,第一種就是使用nodejs自帶的Worker Pool,我們可以自行開發C++ addon或者node-webworker-threads。
第二種方式就是自行創建Worker Pool,我們可以使用Child Process 或者 Cluster來實現。
當然offloading也有缺點,它的最大缺點就是和Event Loop的交互損失。
nodejs是運行在V8引擎上的,通常來說V8引擎已經足夠優秀足夠快了,但是還是存在兩個例外,那就是正則表達式和JSON操作。
正則表達式有什么問題呢?正則表達式有一個悲觀回溯的問題。
什么是悲觀回溯呢?
我們舉個例子,假如大家對正則表達式已經很熟悉了。
假如我們使用/^(x*)y$/ 來和字符串xxxxxxy來進行匹配。
匹配之后第一個分組(也就是括號里面的匹配值)是xxxxxx。
如果我們把正則表達式改寫為 /^(x*)xy$/ 再來和字符串xxxxxxy來進行匹配。 匹配的結果就是xxxxx。
這個過程是怎么樣的呢?
首先(x*)會盡可能的匹配更多的x,知道遇到字符y。 這時候(x*)已經匹配了6個x。
接著正則表達式繼續執行(x*)之后的xy,發現不能匹配,這時候(x*)需要從已經匹配的6個x中,吐出一個x,然后重新執行正則表達式中的xy,發現能夠匹配,正則表達式結束。
這個過程就是一個回溯的過程。
如果正則表達式寫的不好,那么就有可能會出現悲觀回溯。
還是上面的例子,但是這次我們用/^(x*)y$/ 來和字符串xxxxxx來進行匹配。
按照上面的流程,我們知道正則表達式需要進行6次回溯,最后匹配失敗。
考慮一些極端的情況,可能會導致回溯一個非常大的次數,從而導致CPU占用率飆升。
我們稱正則表達式的DOS攻擊為REDOS。
舉個nodejs中REDOS的例子:
app.get('/redos-me', (req, res) => { let filePath = req.query.filePath; // REDOS if (filePath.match(/(\/.+)+$/)) { console.log('valid path'); } else { console.log('invalid path'); } res.sendStatus(200); });
上面的callback中,我們本意是想匹配 /a/b/c這樣的路徑。但是如果用戶輸入filePath=///.../\n,假如有100個/,最后跟著換行符。
那么將會導致正則表達式的悲觀回溯。因為.
表示的是匹配除換行符 \n 之外的任何單字符。但是我們只到最后才發現不能夠匹配,所以產生了REDOS攻擊。
如何避免REDOS攻擊呢?
一方面有一些現成的正則表達式模塊,我們可以直接使用,比如safe-regex,rxxr2和node-re2等。
一方面可以到www.regexlib.com網站上查找要使用的正則表達式規則,這些規則是經過驗證的,可以減少自己編寫正則表達式的失誤。
通常我們會使用JSON.parse 和 JSON.stringify 這兩個JSON常用的操作,但是這兩個操作的時間是和輸入的JSON長度相關的。
舉個例子:
var obj = { a: 1 }; var niter = 20; var before, str, pos, res, took; for (var i = 0; i < niter; i++) { obj = { obj1: obj, obj2: obj }; // Doubles in size each iter } before = process.hrtime(); str = JSON.stringify(obj); took = process.hrtime(before); console.log('JSON.stringify took ' + took); before = process.hrtime(); pos = str.indexOf('nomatch'); took = process.hrtime(before); console.log('Pure indexof took ' + took); before = process.hrtime(); res = JSON.parse(str); took = process.hrtime(before); console.log('JSON.parse took ' + took);
上面的例子中我們對obj進行解析操作,當然這個obj比較簡單,如果用戶傳入了一個超大的json文件,那么就會導致event loop的阻塞。
解決辦法就是限制用戶的輸入長度。或者使用異步的JSON API:比如JSONStream和Big-Friendly JSON。
nodejs的理念就是用最小的線程來處理最大的客戶連接。上面我們也講過了要把復雜的操作放到Worker Pool中來借助線程池的優勢來運行。
但是線程池中的線程個數也是有限的。如果某一個線程執行了一個long run task,那么就等于線程池中少了一個worker線程。
惡意攻擊者實際上是可以抓住系統的這個弱點,來實施DOS攻擊。
所以對Worker Pool中long run task的最優解決辦法就是partitioning。從而讓所有的任務都有平等的執行機會。
當然,如果你可以很清楚的區分short task和long run task,那么我們實際上可以分別構造不同的worker Pool來分別為不同的task任務類型服務。
到此,相信大家對“為什么不要在nodejs中阻塞event loop”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。