乾貨收藏 | 如何優化前端效能?
簡介:隨著前端的範疇逐漸擴大,深度逐漸下沉,富前端必然帶來的一個問題就是效能。特別是在大型複雜專案中,重前端業務可能因為一個小小的資料依賴,導致整個頁面卡頓甚至崩潰。本文基於Quick BI(資料視覺化分析平臺)歷年架構變遷中效能的排查、解決和總結出的“個性”問題,嘗試總結整個前端層面相對“共性”的問題,提供一些前端效能解決思路。
一 引發效能問題原因?
引發效能問題的原因通常不是單方面緣由,特別是大型系統迭代多年後,長期積勞成疾造成,所以我們要必要分析找到癥結所在,並按瓶頸優先順序逐個擊破,拿我們專案為例,大概分幾個方面:
1 資源包過大
通過Chrome DevTools的Network標籤,我們可以拿到頁面實際拉取的資源大小(如下圖):
經過前端高速發展,近幾年專案更新迭代,前端構建產物也在急劇增大,因為要業務先行,很多同學引入庫和編碼過程並沒有考慮效能問題,導致構建的包增至幾十MB,這樣帶來兩個顯著的問題:
- 弱(普通)網路下,首屏資源下載耗時長
- 資源解壓解析執行慢
對於第一個問題,基本上會影響所有移動端使用者,並且會耗費大量不必要的使用者頻寬,對客戶是一個經濟上的隱式損失和體驗損失。
對於第二個問題,會影響所有使用者,使用者可能因為等待時間過長而放棄使用。
下圖展示了延遲與使用者反應:
2 程式碼耗時長
在程式碼執行層面,專案迭代中引發的效能問題普遍是因為開發人員編碼質量導致,大概以下幾個緣由:
不必要的資料流監聽
此場景在hooks+redux的場景下會更容易出現,如下程式碼:
const FooComponent = () => {
const data = useSelector(state => state.fullData);
return <Bar baz={data.bar.baz} />;
};
假設fullData是頻繁變更的大物件,雖然FooComponent僅依賴其.bar.baz屬性,fullData每次變更也會導致Foo重新渲染。
雙刃劍cloneDeep
相信很多同學在專案中都有cloneDeep的經歷,或多或少,特別是迭代多年的專案,其中難免有mutable型資料處理邏輯或業務層面依賴,需要用到cloneDeep,但此方法本身存在很大效能陷阱,如下:
// a.tsx
export const a = {
name: 'a',
};
// b.tsx
import { a } = b;
saveData(_.cloneDeep(a)); // 假設需要克隆後落庫到後端資料庫
上方程式碼正常迭代中是沒有問題的,但假設哪天 a 需要擴充套件一個屬性,儲存一個ReactNode的引用,那麼執行到b.tsx時,瀏覽器可能直接崩潰!
Hooks之Memo
hooks的釋出,給react開發帶來了更高的自由度,同時也帶來了容易忽略的質量問題,由於不再有類中明碼標價的生命週期概念,元件狀態需要開發人員自由控制,所以開發過程中務必懂得react對hooks元件的渲染機制,如下程式碼可優化的地方:
const Foo = () => { // 1. Foo可用React.memo,避免無props變更時渲染
const result = calc(); // 2. 元件內不可使用直接執行的邏輯,需要用useEffect等封裝
return <Bar result={result} />; // 3.render處可用React.useMemo,僅對必要的資料依賴作渲染
};
Immutable Deep Set
在使用資料流的過程中,很大程度我們會依賴lodash/fp的函式來實現immutable變更,但fp.defaultsDeep系列函式有個弊端,其實現邏輯相當於對原物件作深度克隆後執行fp.set,可能帶來一些效能問題,並且導致原物件所有層級屬性都被變更,如下:
const a = { b: { c: { d: 123 }, c2: { d2: 321 } } };
const merged = fp.defaultsDeep({ b: { c3: 3 } }, a);
console.log(merged.b.c === a.b.c); // 列印 false
3 排查路徑
對於這些問題來源,通過Chrome DevTools的Performance火焰圖,我們可以很清晰地瞭解整個頁面載入和渲染流程各個環節的耗時和卡頓點(如下圖):
當我們鎖定一個耗時較長的環節,就可以再通過矩陣樹圖往下深入(下圖),找到具體耗時較長的函式。
誠然,通常我們不會直接找到某個單點函式佔用耗時非常長,而基本是每個N毫秒函式疊加執行成百上千次導致卡頓。所以這塊結合react除錯外掛的Profile可以很好地幫助定位渲染問題所在:
如圖react元件被渲染的次數以及其渲染時長一目瞭然。
二 如何解決效能問題?
1 資源包分析
作為一名有效能sense的開發者,有必要對自己構建的產物內容保持敏感,這裡我們使用到webpack提供的stats來作產物分析。
首先執行 webpack --profile --json > ./build/stats.json 得到 webpack的包依賴分析資料,接著使用 webpack-bundle-analyzer ./build/stats.json 即可在瀏覽器看到一張構建大圖(不同專案產物不同,下圖僅作舉例):
當然,還有一種直觀的方式,可以採用Chrome的Coverage功能來輔助判定哪些程式碼被使用(如下圖):
最佳構建方式
通常來講,我們組織構建包的基本思路是:
- 按entry入口構建。
- 一個或多個共享包供多entry使用。
而基於複雜業務場景的思路是:
- entry入口輕量化。
- 共享程式碼以chunk方式自動生成,並建立依賴關係。
- 大資源包動態匯入(非同步import)。
webpack 4中提供了新的外掛 splitChunks 來解決程式碼分離優化的問題,它的預設配置如下:
module.exports = {
//...
optimization: {
splitChunks: {
chunks: 'async',
minSize: 20000,
minRemainingSize: 0,
maxSize: 0,
minChunks: 1,
maxAsyncRequests: 30,
maxInitialRequests: 30,
automaticNameDelimiter: '~',
enforceSizeThreshold: 50000,
cacheGroups: {
defaultVendors: {
test: /[\\/]node_modules[\\/]/,
priority: -10
},
default: {
minChunks: 2,
priority: -20,
reuseExistingChunk: true
}
}
}
}
};
根據上述配置,其分離chunk的依據有以下幾點:
- 模組被共享或模組來自於node_modules。
- chunk必須大於20kb。
- 同一時間並行載入的chunk或初始包不得超過30。
理論上webpack預設的程式碼分離配置已經是最佳方式,但如果專案複雜或耦合程度較深,仍然需要我們根據實際構建產物大圖情況,調整我們的chunk split配置。
解決TreeShaking失效
“你專案中有60%以上的程式碼並沒有被使用到!”
treeshaking的初衷便是解決上面一句話中的問題,將未使用的程式碼移除。
webpack預設生產模式下會開啟treeshaking,通過上述的構建配置,理論上應該達到一種效果“沒有被使用到的程式碼不應該被打入包中”,而現實是“你認為沒有被使用的程式碼,全部被打入Initial包中”,這個問題通常會在複雜專案中出現,其緣由就是程式碼副作用(code effects)。由於webpack無法判定某些程式碼是否“需要產生副作用”,所以會將此類程式碼打入包中(如下圖):
所以,你需要明確知道你的程式碼是否有副作用,通過這句話判定:“關於‘副作用’的定義是,在匯入時會執行特殊行為的程式碼(修改全域性物件、立即執行的程式碼等),而不是僅僅暴露一個 export 或多個 export。舉例說明,例如 polyfill,它影響全域性作用域,並且通常不提供 export。”
對此,解決方法就是告訴webpack我的程式碼沒有副作用,沒有被引入的情況下可以直接移除,告知的方式即:
在package.json中標記sideEffects為false。
或 在webpack配置中 module.rules 新增sideEffects過濾。
模組規範
由此,要使得構建產物達到最佳效果,我們在編碼過程中約定了以下幾點模組規範:
- [必須] 模組務必es6 module化(即export 和 import)。
- [必須] 三方包或資料檔案(如地圖資料、demo資料)超過 400KB 必須動態按需載入(非同步import)。
- [禁止] 禁止使用export * as方式輸出(可能導致tree-shaking失效並且難以追溯)。
- [推薦] 儘可能引入包中具體檔案,避免直接引入整個包(如:import { Toolbar } from '@alife/foo/bar')。
- [必須] 依賴的三方包必須在package.json中標記為sideEffects: false(或在webpack配置中標記)。
2 Mutable資料
基本上通過Performance和React外掛提供的除錯能力,我們基本可以定位問題所在。但對於mutable型的資料變更,我這裡也結合實踐給出一些非標準除錯方式:
凍結定位法
眾所周知,資料流思想的產生緣由之一就是避免mutable資料無法追溯的問題(因為你無法知道是哪段程式碼改了資料),而很多專案中避免不了mutable資料更改,此方法就是為了解決一個棘手的mutable資料變更問題而想出的方法,這裡我暫時命名為“凍結定位法”,因為原理就是使用凍結方式定位mutable變更問題,使用相當tricky:
constob j= {
prop: 42
};
Object.freeze(obj);
obj.prop=33; // Throws an error in strict mode
Mutable追溯
此方法也是為了解決mutable變更引發資料不確定性變更問題,用於實現排查的幾個目的:
- 屬性在什麼地方被讀取。
- 屬性在什麼地方被變更。
- 屬性對應的訪問鏈路是什麼。
如下示例,對於一個物件的深度變更或訪問,使用 watchObject 之後,不管在哪裡設定其屬性的任何層級,都可以輸出變更相關的資訊(stack內容、變更內容等):
const a = { b: { c: { d: 123 } } };
watchObject(a);
const c =a.b.c;
c.d =0; // Print: Modify: "a.b.c.d"
watchObject 的原理即對一個物件進行深度 Proxy 封裝,從而攔截get/set許可權,詳細可參考:
https://gist.github.com/wilsoncook/68d0b540a0fea24495d83fc284da9f4b
避免Mutable
通常像react這種技術棧,都會配套使用相應的資料流方案,其與mutable是天然對立的,所以在編碼過程中應該儘可能避免mutable資料,或者將兩者從設計上分離(不同store),否則出現不可預料問題且難以除錯
3 計算&渲染
最小化資料依賴
在專案元件爆炸式增長的情況下,資料流store內容層級也逐漸變深,很多元件依賴某個屬性觸發渲染,這個依賴項需要儘可能在設計時遵循最小化原則,避免像上方所述,依賴一個大的屬性導致頻繁渲染。
合理利用快取
(1)計算結果
在一些必要的cpu密集型計算邏輯中,務必採用 WeakMap 等快取機制,儲存當前計算終態結果或中間狀態。
(2)元件狀態
對於像hooks型元件,有必要遵循以下兩個原則:
- 儘可能memo耗時邏輯。
- 無多餘memo依賴項。
避免cpu密集型函式
某些工具類函式,其複雜度跟隨入參的量級上升,而另外一些本身就會耗費大量cpu時間。針對這型別的工具,要儘量避免使用,若無法避免,也可通過 “控制入參內容(白名單)” 及 “非同步執行緒(webworker等)”方式做到嚴控。
比如針對 _.cloneDeep ,若無法避免,則要控制其入參屬性中不得有引用之類的大型資料。
另外像最上面描述的immutable資料深度merge的問題,也應該儘可能控制入參,或者也可參考使用自研的immutable實現:
https://gist.github.com/wilsoncook/fcc830e5fa87afbf876696bf7a7f6bb1
const a = { b: { c: { d: 123 }, c2: { d2: 321 } } };
const merged = immutableDefaultsDeep(a, { b: { c3: 3 } });
console.log(merged === a); // 列印 false
console.log(merged.b.c === a.b.c); // 列印 true
三 寫在最後
以上,總結了Quick BI效能優化過程中的部分心得和經驗,效能是每個開發者不可繞過的話題,我們的每段程式碼,都對標著產品的健康度。
原文連結:https://developer.aliyun.com/article/775774?
版權宣告:本文內容由阿里雲實名註冊使用者自發貢獻,版權歸原作者所有,阿里雲開發者社群不擁有其著作權,亦不承擔相應法律責任。具體規則請檢視《阿里雲開發者社群使用者服務協議》和《阿里雲開發者社群智慧財產權保護指引》。如果您發現本社群中有涉嫌抄襲的內容,填寫侵權投訴表單進行舉報,一經查實,本社群將立刻刪除涉嫌侵權內容。
相關文章
- 挑戰月薪30K | 前端效能優化的12 條建議(乾貨收藏)前端優化
- 讓Elasticsearch飛起來!——效能優化實踐乾貨Elasticsearch優化
- 讓 Elasticsearch 飛起來!——效能優化實踐乾貨Elasticsearch優化
- 【前端效能優化】vue效能優化前端優化Vue
- 前端效能優化 —— 前端效能分析前端優化
- 從案例分析如何優化前端效能優化前端
- SQL效能優化的祕訣,快來圍觀,乾貨!SQL優化
- 前端效能優化前端優化
- 前端效能優化 --- 圖片優化前端優化
- web前端效能優化Web前端優化
- 前端效能優化指南前端優化
- 前端css效能優化前端CSS優化
- 前端效能優化整理前端優化
- 前端乾貨 -02前端
- 前端效能優化(JS/CSS優化,SEO優化)前端優化JSCSS
- 前端效能優化——桌面瀏覽器前端優化策略前端優化瀏覽器
- 乾貨!MySQL大表優化方案(1)MySql優化
- 乾貨|優酷小程式優化實戰優化
- 乾貨|智慧編譯優化框架TACT編譯優化框架
- 前端效能優化之效能測試前端優化
- 前端效能優化JavaScript篇前端優化JavaScript
- 前端效能優化總結前端優化
- 前端效能優化基礎前端優化
- vue + webpack 前端效能優化VueWeb前端優化
- 前端效能優化的點前端優化
- 前端效能優化小結前端優化
- 前端效能優化之WebP前端優化Web
- 前端效能優化術語前端優化
- 前端工程與效能優化前端優化
- 前端效能優化方案索引前端優化索引
- 前端乾貨合集(6.27)前端
- 前端進階(1)Web前端效能優化前端Web優化
- 【真·乾貨】MySQL 索引及優化實戰MySql索引優化
- 【譯】前端效能優化清單前端優化
- 前端開發效能優化方案前端優化
- 前端效能優化之Lazyload前端優化
- 桌面端前端效能優化策略前端優化
- 前端效能優化常用總結前端優化