流中的背壓
在資料處理過程中會出現一個叫做背壓的常見問題,它描述了資料傳輸過程中緩衝區後面資料的累積,當傳輸的接收端具有複雜的操作時,或者由於某種原因速度較慢時,來自傳入源的資料就有累積的趨勢,就像阻塞一樣。
要解決這個問題,必須有一個委託系統來確保資料從一個源到另一個源的平滑流動,不同的社群已經針對他們的程式獨特地解決了這個問題,Unix管道和TCP套接字就是很好的例子,並且通常被稱為流量控制,在Node.js中,流是已採用的解決方案。
本指南的目的是進一步詳細說明背壓是什麼,以及精確流如何在Node.js的原始碼中解決這個問題,本指南的第二部分將介紹建議的最佳實踐,以確保在實現流時應用程式的程式碼是安全的和優化的。
我們假設你對Node.js中背壓、Buffer
和EventEmitter
的一般定義以及Stream
的一些經驗有所瞭解。如果你還沒有閱讀這些文件,那麼首先檢視API文件並不是一個壞主意,因為它有助於在閱讀本指南時擴充套件你的理解。
資料處理的問題
在計算機系統中,資料通過管道、sockets和訊號從一個程式傳輸到另一個程式,在Node.js中,我們找到了一種名為Stream
的類似機制。流很好!他們為Node.js做了很多事情,幾乎內部程式碼庫的每個部分都使用該模組,作為開發人員,我們鼓勵你使用它們!
const readline = require(`readline`);
// process.stdin and process.stdout are both instances of Streams
const rl = readline.createInterface({
input: process.stdin,
output: process.stdout
});
rl.question(`Why should you use streams? `, (answer) => {
console.log(`Maybe it`s ${answer}, maybe it`s because they are awesome! :)`);
rl.close();
});
通過比較Node.js的Stream
實現的內部系統工具,可以證明為什麼通過流實現背壓機制是一個很好的優化的一個很好的例子。
在一種情況下,我們將使用一個大檔案(約〜9gb)並使用熟悉的zip(1)工具對其進行壓縮。
$ zip The.Matrix.1080p.mkv
雖然這需要幾分鐘才能完成,但在另一個shell中我們可以執行一個指令碼,該指令碼採用Node.js的模組zlib
,它包含另一個壓縮工具gzip(1)。
const gzip = require(`zlib`).createGzip();
const fs = require(`fs`);
const inp = fs.createReadStream(`The.Matrix.1080p.mkv`);
const out = fs.createWriteStream(`The.Matrix.1080p.mkv.gz`);
inp.pipe(gzip).pipe(out);
要測試結果,請嘗試開啟每個壓縮檔案,zip(1)工具壓縮的檔案將通知你檔案已損壞,而Stream
完成的壓縮將無錯誤地解壓縮。
注意:在此示例中,我們使用.pipe()
將資料來源從一端獲取到另一端,但是,請注意沒有附加正確的錯誤處理程式。如果無法正確接收資料塊,Readable
源或gzip
流將不會被銷燬,pump是一個實用工具,如果其中一個流失敗或關閉,它將正確地銷燬管道中的所有流,並且在這種情況下是必須的!
只有Nodejs 8.x或更早版本才需要pump,對於Node 10.x或更高版本,引入pipeline
來替換pump。這是一個模組方法,用於在流傳輸之間轉發錯誤和正確清理,並在管道完成時提供回撥。
以下是使用管道的示例:
const { pipeline } = require(`stream`);
const fs = require(`fs`);
const zlib = require(`zlib`);
// Use the pipeline API to easily pipe a series of streams
// together and get notified when the pipeline is fully done.
// A pipeline to gzip a potentially huge video file efficiently:
pipeline(
fs.createReadStream(`The.Matrix.1080p.mkv`),
zlib.createGzip(),
fs.createWriteStream(`The.Matrix.1080p.mkv.gz`),
(err) => {
if (err) {
console.error(`Pipeline failed`, err);
} else {
console.log(`Pipeline succeeded`);
}
}
);
你還可以在管道上呼叫promisify
以將其與async
/await
一起使用:
const stream = require(`stream`);
const fs = require(`fs`);
const zlib = require(`zlib`);
const pipeline = util.promisify(stream.pipeline);
async function run() {
try {
await pipeline(
fs.createReadStream(`The.Matrix.1080p.mkv`),
zlib.createGzip(),
fs.createWriteStream(`The.Matrix.1080p.mkv.gz`),
);
console.log(`Pipeline succeeded`);
} catch (err) {
console.error(`Pipeline failed`, err);
}
}
太多的資料,太快
有些情況下,Readable
流可能會過快地為Writable
提供資料 — 遠遠超過消費者可以處理的資料!
當發生這種情況時,消費者將開始排隊所有資料塊以供以後消費,寫入佇列將變得越來越長,因此在整個過程完成之前,必須將更多資料儲存在記憶體中。
寫入磁碟比從磁碟讀取要慢很多,因此,當我們嘗試壓縮檔案並將其寫入我們的硬碟時,將發生背壓,因為寫入磁碟將無法跟上讀取的速度。
// Secretly the stream is saying: "whoa, whoa! hang on, this is way too much!"
// Data will begin to build up on the read-side of the data buffer as
// `write` tries to keep up with the incoming data flow.
inp.pipe(gzip).pipe(outputFile);
這就是背壓機制很重要的原因,如果沒有背壓系統,該程式會耗盡系統的記憶體,有效地減緩了其他程式,並獨佔你係統的大部分直到完成。
這導致了一些事情:
- 減緩所有其他當前程式。
- 一個非常超負荷的垃圾收集器。
- 記憶體耗盡。
在下面的示例中,我們將取出.write()函式的返回值並將其更改為true
,這有效地禁用了Node.js核心中的背壓支援,在任何對`modified`二進位制檔案的引用中,我們正在談論在沒有return ret;
行的情況下執行node
二進位制,而改為return true;
。
垃圾收集器上的過度負荷
我們來看看快速基準測試,使用上面的相同示例,我們進行幾次試驗,以獲得兩個二進位制的中位時間。
trial (#) | `node` binary (ms) | modified `node` binary (ms)
=================================================================
1 | 56924 | 55011
2 | 52686 | 55869
3 | 59479 | 54043
4 | 54473 | 55229
5 | 52933 | 59723
=================================================================
average time: | 55299 | 55975
兩者都需要大約一分鐘來執行,因此根本沒有太大差別,但讓我們仔細看看以確認我們的懷疑是否正確,我們使用Linux工具dtrace來評估V8垃圾收集器發生了什麼。
GC(垃圾收集器)測量時間表示垃圾收集器完成單次掃描的完整週期的間隔:
approx. time (ms) | GC (ms) | modified GC (ms)
=================================================
0 | 0 | 0
1 | 0 | 0
40 | 0 | 2
170 | 3 | 1
300 | 3 | 1
* * *
* * *
* * *
39000 | 6 | 26
42000 | 6 | 21
47000 | 5 | 32
50000 | 8 | 28
54000 | 6 | 35
雖然這兩個過程開始時相同,但似乎以相同的速率執行GC,很明顯,在適當工作的背壓系統幾秒鐘後,它將GC負載分佈在4-8毫秒的一致間隔內,直到資料傳輸結束。
但是,當背壓系統不到位時,V8垃圾收集開始拖延,正常二進位制檔案在一分鐘內呼叫GC約75次,然而,修改後的二進位制檔案僅觸發36次。
這是由於記憶體使用量增加而累積的緩慢而漸進的債務,隨著資料傳輸,在沒有背壓系統的情況下,每個塊傳輸使用更多記憶體。
分配的記憶體越多,GC在一次掃描中需要處理的記憶體就越多,掃描越大,GC就越需要決定可以釋放什麼,並且在更大的記憶體空間中掃描分離的指標將消耗更多的計算能力。
記憶體耗盡
為確定每個二進位制的記憶體消耗,我們使用/usr/bin/time -lp sudo ./node ./backpressure-example/zlib.js
單獨為每個程式計時。
這是正常二進位制的輸出:
Respecting the return value of .write()
=============================================
real 58.88
user 56.79
sys 8.79
87810048 maximum resident set size
0 average shared memory size
0 average unshared data size
0 average unshared stack size
19427 page reclaims
3134 page faults
0 swaps
5 block input operations
194 block output operations
0 messages sent
0 messages received
1 signals received
12 voluntary context switches
666037 involuntary context switches
虛擬記憶體佔用的最大位元組大小約為87.81mb。
現在更改.write()
函式的返回值,我們得到:
Without respecting the return value of .write():
==================================================
real 54.48
user 53.15
sys 7.43
1524965376 maximum resident set size
0 average shared memory size
0 average unshared data size
0 average unshared stack size
373617 page reclaims
3139 page faults
0 swaps
18 block input operations
199 block output operations
0 messages sent
0 messages received
1 signals received
25 voluntary context switches
629566 involuntary context switches
虛擬記憶體佔用的最大位元組大小約為1.52gb。
如果沒有流來委託背壓,則分配的記憶體空間要大一個數量級 — 同一程式之間的巨大差異!
這個實驗展示了Node.js的反壓機制是如何優化和節省成本的,現在,讓我們分析一下它是如何工作的!
背壓如何解決這些問題?
將資料從一個程式傳輸到另一個程式有不同的函式,在Node.js中,有一個名為.pipe()
的內部內建函式,還有其他包也可以使用!但最終,在這個過程的基本層面,我們有兩個獨立的元件:資料來源和消費者。
當從源呼叫.pipe()
時,它向消費者發出訊號,告知有資料要傳輸,管道函式有助於為事件觸發器設定適當的背壓閉合。
在Node.js中,源是Readable
流,而消費者是Writable
流(這些都可以與Duplex
或Transform
流互換,但這超出了本指南的範圍)。
觸發背壓的時刻可以精確地縮小到Writable
的.write()
函式的返回值,當然,該返回值由幾個條件決定。
在資料緩衝區已超過highWaterMark
或寫入佇列當前正忙的任何情況下,.write()
將返回false
。
當返回false
值時,背壓系統啟動,它會暫停傳入的Readable
流傳送任何資料,並等待消費者再次準備就緒,清空資料緩衝區後,將發出.drain()
事件並恢復傳入的資料流。
佇列完成後,背壓將允許再次傳送資料,正在使用的記憶體空間將自行釋放併為下一批資料做好準備。
這有效地允許在任何給定時間為.pipe()
函式使用固定數量的記憶體,沒有記憶體洩漏,沒有無限緩衝,垃圾收集器只需要處理記憶體中的一個區域!
那麼,如果背壓如此重要,為什麼你(可能)沒有聽說過它?答案很簡單:Node.js會自動為你完成所有這些工作。
那太好了!但是當我們試圖瞭解如何實現我們自己的自定義流時,也不是那麼好。
注意:在大多數機器中,有一個位元組大小可以確定緩衝區何時已滿(在不同的機器上會有所不同),Node.js允許你設定自己的自定義highWaterMark
,但通常,預設設定為16kb
(16384
,或objectMode
流為16
),在你可能希望提高該值的情況下,可以嘗試,但是要小心!
.pipe()
的生命週期
為了更好地理解背壓,下面是一個關於Readable
流的生命週期的流程圖,該流被管道傳輸到Writable
流中:
+===================+
x--> Piping functions +--> src.pipe(dest) |
x are set up during |===================|
x the .pipe method. | Event callbacks |
+===============+ x |-------------------|
| Your Data | x They exist outside | .on(`close`, cb) |
+=======+=======+ x the data flow, but | .on(`data`, cb) |
| x importantly attach | .on(`drain`, cb) |
| x events, and their | .on(`unpipe`, cb) |
+---------v---------+ x respective callbacks. | .on(`error`, cb) |
| Readable Stream +----+ | .on(`finish`, cb) |
+-^-------^-------^-+ | | .on(`end`, cb) |
^ | ^ | +-------------------+
| | | |
| ^ | |
^ ^ ^ | +-------------------+ +=================+
^ | ^ +----> Writable Stream +---------> .write(chunk) |
| | | +-------------------+ +=======+=========+
| | | |
| ^ | +------------------v---------+
^ | +-> if (!chunk) | Is this chunk too big? |
^ | | emit .end(); | Is the queue busy? |
| | +-> else +-------+----------------+---+
| ^ | emit .write(); | |
| ^ ^ +--v---+ +---v---+
| | ^-----------------------------------< No | | Yes |
^ | +------+ +---v---+
^ | |
| ^ emit .pause(); +=================+ |
| ^---------------^-----------------------+ return false; <-----+---+
| +=================+ |
| |
^ when queue is empty +============+ |
^------------^-----------------------< Buffering | |
| |============| |
+> emit .drain(); | ^Buffer^ | |
+> emit .resume(); +------------+ |
| ^Buffer^ | |
+------------+ add chunk to queue |
| <---^---------------------<
+============+
注意:如果要設定管道以將一些流連結在一起來運算元據,則很可能會實現Transform
流。
在這種情況下,你的Readable
流的輸出將輸入到Transform
中,並將管道到Writable
中。
Readable.pipe(Transformable).pipe(Writable);
背壓將自動應用,但請注意,Transform
流的輸入和輸出highWaterMark
都可能被操縱並將影響背壓系統。
背壓指南
從Node.js v0.10開始,Stream
類提供了通過使用這些相應函式的下劃線版本來修改.read()
或.write()
的行為的功能(._read()
和._write()
)。
對於實現Readable
流和Writable
流,有文件化的指南,我們假設你已閱讀過這些內容,下一節將更深入一些。
實現自定義流時要遵守的規則
流的黃金法則始終是尊重背壓,最佳實踐的構成是非矛盾的實踐,只要你小心避免與內部背壓支援相沖突的行為,你就可以確定你遵循良好做法。
一般來說:
- 如果你沒有被要求,永遠不要
.push()
。 - 永遠不要在返回
false
後呼叫.write()
,而是等待`drain`。 - 流在不同的Node.js版本和你使用的庫之間有變化,小心並測試一下。
注意:關於第3點,構建瀏覽器流的非常有用的包是readable-stream,Rodd Vagg撰寫了一篇很棒的部落格文章,描述了這個庫的實用性,簡而言之,它為Readable
流提供了一種自動優雅降級,並支援舊版本的瀏覽器和Node.js。
Readable流的特定規則
到目前為止,我們已經瞭解了.write()
如何影響背壓,並將重點放在Writable
流上,由於Node.js的功能,資料在技術上從Readable
流向下游Writable
。但是,正如我們可以在資料、物質或能量的任何傳輸中觀察到的那樣,源與目標一樣重要,Readable
流對於如何處理背壓至關重要。
這兩個過程都相互依賴,有效地進行通訊,如果Readable
忽略Writable
流要求它停止傳送資料的時候,那麼.write()
的返回值不正確就會有問題。
因此,關於.write()
返回,我們還必須尊重._read()
方法中使用的.push()
的返回值,如果.push()
返回false
值,則流將停止從源讀取,否則,它將繼續而不會停頓。
以下是使用.push()
的不好做法示例:
// This is problematic as it completely ignores return value from push
// which may be a signal for backpressure from the destination stream!
class MyReadable extends Readable {
_read(size) {
let chunk;
while (null !== (chunk = getNextChunk())) {
this.push(chunk);
}
}
}
此外,在自定義流之外,存在忽略背壓的陷阱,在這個良好的實踐的反例中,應用程式的程式碼會在資料可用時強制通過(由.data
事件發出訊號):
// This ignores the backpressure mechanisms Node.js has set in place,
// and unconditionally pushes through data, regardless if the
// destination stream is ready for it or not.
readable.on(`data`, (data) =>
writable.write(data)
);
Writable流的特定規則
回想一下.write()
可能會根據某些條件返回true
或false
,幸運的是,在構建我們自己的Writable
流時,流狀態機將處理我們的回撥並確定何時處理背壓併為我們優化資料流。
但是,當我們想直接使用Writable
時,我們必須尊重.write()
返回值並密切注意這些條件:
- 如果寫佇列忙,
.write()
將返回false
。 - 如果資料塊太大,
.write()
將返回false
(該值由變數highWaterMark
指示)。
// This writable is invalid because of the async nature of JavaScript callbacks.
// Without a return statement for each callback prior to the last,
// there is a great chance multiple callbacks will be called.
class MyWritable extends Writable {
_write(chunk, encoding, callback) {
if (chunk.toString().indexOf(`a`) >= 0)
callback();
else if (chunk.toString().indexOf(`b`) >= 0)
callback();
callback();
}
}
// The proper way to write this would be:
if (chunk.contains(`a`))
return callback();
else if (chunk.contains(`b`))
return callback();
callback();
在實現._writev()
時還需要注意一些事項,該函式與.cork()
結合使用,但寫入時有一個常見錯誤:
// Using .uncork() twice here makes two calls on the C++ layer, rendering the
// cork/uncork technique useless.
ws.cork();
ws.write(`hello `);
ws.write(`world `);
ws.uncork();
ws.cork();
ws.write(`from `);
ws.write(`Matteo`);
ws.uncork();
// The correct way to write this is to utilize process.nextTick(), which fires
// on the next event loop.
ws.cork();
ws.write(`hello `);
ws.write(`world `);
process.nextTick(doUncork, ws);
ws.cork();
ws.write(`from `);
ws.write(`Matteo`);
process.nextTick(doUncork, ws);
// as a global function
function doUncork(stream) {
stream.uncork();
}
.cork()
可以被呼叫多次,我們只需要小心呼叫.uncork()
相同的次數,使其再次流動。
結論
Streams是Node.js中經常使用的模組,它們對於內部結構非常重要,對於開發人員來說,它們可以跨Node.js模組生態系統進行擴充套件和連線。
希望你現在能夠進行故障排除,安全地編寫你自己的Writable
和Readable
流,並考慮背壓,並與同事和朋友分享你的知識。
在使用Node.js構建應用程式時,請務必閱讀有關其他API函式的Stream
的更多資訊,以幫助改進和釋放你的流功能。