萬字長文丨1分36秒,100億,支付寶技術雙11答卷:沒有不可能

支付寶技術團隊發表於2019-11-11

2019年雙11來了。1分36秒100億,5分25秒超過300億,12分49秒超500億……如果沒有雙11,中國的網際網路技術要發展到今天的水平,或許要再多花20年。

萬字長文丨1分36秒,100億,支付寶技術雙11答卷:沒有不可能

從雙11誕生至今的11年裡,有一個場景始終在支付寶技術團隊之中迴圈往復——每一年確定目標時,大家都將信將疑,或驚呼或腹誹:“不可能!太誇張了吧!”但每一年的誇張目標,到最後都能奇蹟般地成為現實。

前一年需要拼命躍起才能夠到的果實,後一年就會成為再普通不過的日常。不知不覺之間,雙11已經從最初啟航時的小船,成為了承載數十億人快樂和夢想的鉅艦。在這個舉世矚目的“奇蹟工程”背後,是技術和技術人一起,十餘年如一日,以難以置信的“中國速度”在不知疲倦地向前奔跑。

萬字長文丨1分36秒,100億,支付寶技術雙11答卷:沒有不可能

技術人的初衷往往極致單純——既然決定要做,那就全力以赴,一往無前,但當他們一步一個腳印風雨兼程地走來,驀然回首,就發現奇蹟已經在那裡了。

 

那時距離當機只有幾十秒

2009年11月11日,對於支付寶工程師陳亮而言,本來是與往常沒有任何不同的一天。

那年還沒有支付寶大樓,更沒有Z空間,他趟過早高峰的車流,坐到華星時代廣場的工位上時,一封來自CTO程立的郵件發到了他的電腦裡:今天淘寶商城要搞一個促銷活動,預估交易量比較大,大家盯著點系統。

陳亮當時所在的團隊主要職責是保障整個系統的穩定可靠。在促銷活動的場景下,通俗地說來,就是要保障伺服器“堅挺”,別被蜂擁而來的使用者擠爆了。

淘寶商城在2009年的8月剛剛重組上線,日均交易量對於當時的支付寶而言,要穩穩接住不在話下。就算搞促銷臨時出現洪峰,不怕,擴容就好。

事實上也就是這麼操作的。全團隊的同學聚在辦公室裡,盯著電腦螢幕,只要發現交易量逼近系統承載上限,就馬上進行擴容。

交易量的上漲有點不尋常,一片安靜的辦公室裡本來只有鍵盤聲,忽然有人高喊一聲:“我秒到了!”緊接著又有人跟著喊:“我也秒到了!”辦公室裡嗡地一下,熱鬧了起來。

原來有人很好奇淘寶商城究竟在做什麼促銷讓交易量漲成這樣,點過去一看,發現有折扣高達50%以上的“秒殺”,忍不住出手一試。

“已經想不起當時究竟秒到了什麼,只記得大家都特別快樂。”陳亮說。

快樂,是陳亮對於這個促銷活動最初、也最鮮明的印象。

不過除了一整天都忙於擴容的同學之外,當時支付寶的大多數人都對這場促銷並無感知。“事後才知道前一天有促銷,同事說流量有點猛。”現在已成為螞蟻金服研究員的李俊奎說,運維負責人很緊張地在第二天的覆盤會議上提出“抗議”:“淘寶商城那邊在搞什麼?支付量一下子提升了這麼多,萬一我們提前準備的量不夠,就危險了。”

淘寶商城搞了什麼?站在今天回頭去看,他們只是搞了一件不算很大的事:在“光棍節”當天,聯合27個品牌做了一場促銷活動,單日GMV 5000萬。

當時沒有任何人能夠預計這個促銷活動日後會成長為什麼模樣,不過支付寶從資料的增長之中嗅到了山雨欲來的氣息:這個活動帶來的交易峰值超過平日的5倍,雖然這次平穩過關,但已經逼近了當時支付寶的承載極限。

2010年的年中剛過,支付寶就去跟淘寶商城通氣:去年那個促銷,今年還搞嗎?淘寶商城說,搞。

好漢不打無準備之仗,如何籌備“雙11”被提上了支付寶每週穩定性會議的議程。首當其衝的是要準備充足的容量。但是按多少準備呢?誰都沒經驗。

“拍腦袋估個資料,然後按預估資料乘以三去買機器,簡單粗暴。”李俊奎直言不諱。

為了檢驗這樣拍腦袋的決策行不行,他還和團隊一起搞了個測試:透過手動更改配置,把多臺機器上的流量導到一臺機器上,測試一臺機器的能接住多大的流量。“現在想起來,那就是壓測最早的雛形。”

他們甚至準備了一個備用的工作聯絡群。當時還沒有釘釘,工作群都搭在旺旺上,“萬一旺旺伺服器也出問題了,不能及時聯絡怎麼辦?”

籌備的時間雖不長,倒也方方面面都有兼顧,“但是不管事先做了怎樣萬全的準備,每年總有意外發生。”金融核心技術部工程師趙尊奎說。他當年所在的團隊是賬務會計組,一舉一動都關係到錢,絲毫不容有錯。

意外真的來了。

11日凌晨,促銷活動剛開始不久,支付寶的賬務資料庫就容量告急。

病來如山倒。發現問題時,狀況已經十分危急,“只能再撐幾分鐘!”運維心急如焚,如果不能馬上找到解決辦法,支付寶就面臨當機風險,交易鏈路一斷,誰也買不成。

怎麼辦?運維把心一橫,說,砍了會計系統吧,給核心的賬務系統騰空間。

時間已經容不得多加斟酌,一群高管站在背後,支付寶中介軟體團隊的工程師蔣濤感到前所未有地緊張,“操作的時候手都在抖。”

這個當機立斷的決策將支付寶從距離當機只差幾十秒的懸崖邊挽救了回來。事後的資料顯示,2010年的雙11,參與使用者達到2100萬,總GMV達到10億,是上一年的20倍,這是任何人都很難在事先預估到的漲幅。

“能想到會漲,但誰也想不到漲勢會這麼猛烈。”趙尊奎說,“也就是從那年起,我們開始隱隱覺得,更猛烈的還在後頭。”

 

程式碼的力量

85後的肖涵和90後的鄭洋飛,都是在讀大學時就知道了雙11。

肖涵喜歡網購,09年就成了第一批嚐鮮雙11的剁手族,還在一個技術交流群裡認識了參與過雙11的支付寶工程師;鄭洋飛常買《電腦報》,那上面說2010年雙11一天的銷售額等於香港一天的零售總額,他一邊驚歎,一邊心生嚮往。

“覺得好牛B,想進去看看。”

當年互不相識的兩個年輕人,不約而同地產生了這樣的想法。

肖涵在2011年加入了支付寶,那一年支付寶已經開啟了“上半年搞建設、下半年搞大促”的模式,籌備工作從5、6月起就著手進行,他剛一入職,就被調去開發流量接入和調撥系統spanner。

這個系統相當於支付寶交易鏈路的第一道門戶,“好比餐廳上菜的推車。一般餐廳,一個服務員只能每次上一盤菜,但雙11的挑戰,就是要讓一位服務員同時能上十盤菜,因此我們需要一個推車。不過業界沒有現成的推車能滿足支付寶的需求,我們得自己造。”

差不多一整年的時間中,肖涵和團隊為這個專案廢寢忘食,spanner終於在2012年的雙11迎來了第一次大考。

誰曾想,意外又發生了。

那一年支付寶的大促監控系統也已經上線,流量曲線能夠秒級實時顯示,零點將近時,所有人都緊盯著螢幕,翹首以盼。

——零點一到,流量進來了,曲線開始增長,形成很漂亮的弧度,所有人開始歡呼,但是忽然,它跌了下去,然後開始像心電圖那樣抖動。

監控系統沒有問題,也沒有報錯,為什麼流量會進不來呢?

一石激起千層浪。他所能看到的抖動,同樣實時顯示在了淘寶的作戰指揮室裡。支付寶工程師賀巖正作為支付寶的唯一“代表”,在那裡和淘寶的技術同學一起備戰。這是個極其考驗心理承受能力的工作,在支付曲線發生抖動的時刻,“淘寶的技術同學們一下子就把我圍在了中間。連問‘支付寶出什麼事了’?”賀巖回憶道。

肖涵腦子裡一片空白,唯一的念頭是,“不能讓交易停下。”

0:00到0:20,短短的20分鐘裡,10分鐘用來定位問題,10分鐘用來解決問題;同樣在這短短的20分鐘裡,外面已經天翻地覆:“‘支付寶不能付款了’登上了微博熱搜,家人、親戚、朋友都給我打電話問是什麼情況,手機都要被打爆了。”

關掉了一個健康監控模組之後,系統終於恢復了穩定。比起緊張,肖涵感到的更是前所未有的震撼:原來自己所做的事已經和千萬人息息相關,每一點微小的疏漏,所影響的都是難以估量的龐大群體。

“沒有身在其中過,就很難意識到自己敲下的每一行程式碼有著怎樣的分量。”鄭洋飛說。他在2013年加入支付寶實習,帶他的師兄鞏傑說了一句令他印象極深的話:你看看那些客服mm,你敲程式碼時仔細一點,少出一個錯,她們就不知能少接多少個報錯電話。

 

架構革命

跨過了2012年的坎兒,DBA就再三給出警告:擴容已經到頭了,頂多再撐幾個月,按這個增速,如果不想點別的辦法,肯定堅持不到明年雙11。

禍不單行。另外的“緊箍咒”也接連落下:Oracle資料庫的連線數上限成為擴容的瓶頸,更要命的是,由於機房的一再擴容,杭州的電力已不足以支撐。有時候為了保機房供電,“大夏天的,辦公室都會停電,不得不運冰塊過來降溫。”鞏傑苦笑著說,杭州的盛夏,誰過誰知道。

治標的方法快要山窮水盡,必須要從治本的角度出發尋找新的解決方案,比如,從架構層面“搞革命”,做單元化。

革命不是請客吃飯,要從架構層面做根本性的調整,舉步維艱:一來沒有任何成功經驗可以借鑑,只能摸索著走;二來牽涉到眾多部門,大家需求不同,意見難免相左;三來,既然要革命,那目光必須放得更加長遠,不能只是為了解決今年或明年的問題,至少也要做未來三年的規劃。

與此同時,在和淘寶商城——現在叫天貓了——溝通之後,支付寶毫不意外地定下了又一個令人驚呼“不可能”的目標:支付峰值每秒2萬筆。

事關重大,人人都很謹慎。“光是架構調整的方案就討論了很久。”陳亮說,作為專案的架構師,他費了不知多少口舌去說服所有人都認同這個方案。

重擔的一頭落在他的肩上,另一頭則交給了2010年抖著手化解危機的蔣濤,蔣濤更愁穩定性問題:“做技術架構變更的同時還得穩住業務,這件事非常複雜,技術風險也很高。”

留給他們的時間也不多了。LDC架構的立項已是2012年年底,距離2013年的雙11不足一年,對於這樣浩大的工程來說,就一個字,緊。

陳亮最初構想了一個宏大的體系,要把所有系統都一口氣單元化,但這個方案被程立否了:“主要問題在淘寶的交易上,先把淘寶做了。”按他的意思,哪怕先做第一期,2013年也必須上線。

一堆不可能的目標聚集在了一起。但目標既然定了,就只剩向前這唯一的方向。

“立項之後,我們幾乎每個月都做釋出。”蔣濤說,這個頻率是一般專案開發的好幾倍,但即便如此,直到雙11之前半個月,整套系統才算部署完成,小錯仍然不斷,不過,隨著越來越多的小問題和被發現和修正,他終於感到,“心裡總算慢慢有點底氣了”。

2013年,支付寶LDC架構首次在雙11亮相,支付寶也第一次派“代表”前往雙11的總指揮室——阿里巴巴西溪園區的“光明頂”。

這位“幸運”的代表就是李俊奎。“我就是去當‘炮灰’的。”他笑稱自己一走進光明頂就感受到了熱烈的壓力。當年的總指揮李津當著全集團幾百位工程師的面,指著大螢幕點名喊他:“向秀(李俊奎的花名)!你看看支付寶!”

這項壓力山大的任務,李俊奎連做了好幾年,乃至於做出了經驗。“首先是不要慌,無論接到什麼反饋,先說‘知道了,我看看’。因為你一個人在現場其實什麼也做不了,你的職責其實是傳達,以最快的速度,把問題傳達給後方的夥伴,然後,相信他們。”

萬字長文丨1分36秒,100億,支付寶技術雙11答卷:沒有不可能

他說這是支付寶技術團隊的重要制勝秘訣之一:你永遠都不是一個人在戰鬥,你也無法一個人戰鬥,但你的身後永遠有最靠譜的夥伴。

至於這一年的戰果如何,按蔣濤的話說,“硬扛過去了”。新架構有驚無險,走出了第一步。

 

關公、靈隱寺和壓測

2013年雙11的另一個特殊之處是,支付寶的備戰室裡多出來一幅關老爺的掛畫。

掛畫是鄭洋飛“請”來的,不過“拜關公”作為支付寶技術團隊的一項傳統,早在他入職之前就由來已久。源頭據說要追溯到支付寶建立之初,每到重要的系統更新時,工程師們就會在旺旺群裡轉發關公表情包,以求更新順利,“別出bug”。

隔了一年之後,關公像“升級”了,有同學去西安校招時看到了關公的皮影藝術品,就“請”了一個回來放在備戰室。後來,程立買了一尊木質關公像放過來,去年,副CTO胡喜又買了一尊關公銅像。

萬字長文丨1分36秒,100億,支付寶技術雙11答卷:沒有不可能

除了拜關公,去寺廟燒香也是例行專案,視目的地不同,還分為“靈隱寺派”和“法喜寺派”兩大派別。至於哪邊靈驗,說法不一,但據觀察,每年雙11過後,程立、胡喜就會親自率隊上山還願,從支付寶大樓一路步行到上天竺法喜寺,回來的途中,還會沿途撿垃圾做公益。

技術是純粹的科學。技術人難道真的相信求神拜佛能避免系統故障和bug嗎?

“心理上,我覺得還是挺有用的。”陳亮說,“主要是表達對於不可預知之物的一種敬畏。雖然我們已經做了多年技術,但技術的道路上還是充滿了很多不可預知的東西。”

不可預知,構成了工程師們每年面對雙11最大的焦慮感來源。

他們用各自的辦法緩解雙11迫近的壓力。有人是運動派,用跑步或打球放空大腦,有人是“強迫症”派,一遍又一遍地check程式碼才能安心,還有人是“吃貨”派,迎戰之前必定要先組團去吃海底撈。

全程參加了過去11年全部雙11的趙尊奎,在被問到“哪年最不好搞”時,秒答曰:“哪年都不好搞。”同樣“全勤”的陳亮則表示:“14年之前,我們對於雙11零點的信心,如果非要說一個數字的話,60%吧。”

但他很快補充:“不過2014年之後,這個數字就變成95%了。”

陳亮的信心,來自於當年支付寶壓測體系的建立。這一次不再是手動調配置測單機了,而是建立出模擬環境讓系統去跑,提前找出系統的問題並及時修復,以免在正式戰場被打個措手不及。

“壓測讓雙11開始從一個不確定的事逐漸變成確定的事,它極大地改變了我們對於雙11穩定性的保障方式。”有“壓測小王子”之稱的鄭洋飛說。

雖然2014年的壓測僅覆蓋核心系統,但這個體系已經幫了大忙。在雙11之前的一個月裡,它至少讓一百多個致命的問題提前暴露出來。“如果其中有一個沒有修復,我們2014年的雙11肯定就掛了。”陳亮說。

 

1%?或10%?

壓測這一“壓”,既壓出很多隱患,也壓出了一個大問題:支付寶所用的Oracle資料庫在壓測之中“抖”了起來,效能眼見得觸到了天花板。

2014正是移動網際網路大爆發的年份。指數增長的移動支付比例勢必帶來比往年更洶湧的流量峰值,Oracle肉眼可見地支撐不住了。

再買伺服器?成本吃不消,而且為了應對峰值而增添的機器,平日裡沒有用武之地,完全是資源的浪費。

還有沒有別的辦法?有的。阿里自研的分散式資料庫OceanBase,從淘寶被劃到支付寶後,已經沉寂了兩年,正在焦急地尋找一展身手的舞臺。

但是一聽說是自研的資料庫,業務滿臉都是狐疑。跟交易和金額直接相關的資料庫,只要錯一個資料,後果就不堪設想,別說雙11這麼大的流量,即使平日,要不要用這個沒經過驗證的產品,也頗要斟酌一番。

先切1%的流量給OceanBase試試吧。這是大家爭論了好一陣後得出的方案。

但是Oracle在壓測中的表現顯示,缺口不止1%,而是10%。

OceanBase說,我們來承接這10%。

10%,聽起來不多,但雙11的10%,相當於平日裡的最高峰值。如果OceanBase能平安無事地接住這10%,就意味著它可以擔起支撐支付寶日常執行的重任。

OceanBase必須證明自己有這樣的能力。“我們找了淘寶的同學,協調了很多資源做了一個測試,主要校驗淘寶訂單的金額和支付寶交易金額是否能吻合。”DBA團隊的工程師師文匯說,當時的方案很謹慎,如果OceanBase出現了問題,隨時都可以切回來。

測試結果,OceanBase沒有錯漏一個資料。程立當即拍了板:10%都切給你們。

這個決定成就了OceanBase在雙11的首秀,“相當於Oracle和魯肅(程立的花名)都幫了我們一把。”師文匯笑著說。

這時距離2014年的雙11,時間已經不足兩週。可靠性雖然經受住了考驗,但OceanBase畢竟是個誕生才四年的年輕資料庫,小問題層出不窮,比如響應時間長達10毫秒,比Oracle差了好幾個數量級。最後十來天,師文匯和全團隊的同學一起,硬是把它最佳化到了1毫秒以下。

“做了這麼些年,對它的容量和效能還是比較有信心的。”師文匯說。

他說得輕描淡寫,但在這個曾經面臨團隊解散專案取消的產品身上,他和整個團隊一起傾注了多少心血,除了他們自己之外,誰也說不清楚。

OceanBase最初並不是為雙11而做的,但在雙11這個舞臺上,它第一次獲得了聚光燈下的位置,並且表現卓越,從此,支付寶開啟了核心交易系統完全搬遷上OceanBase的程式。

到今年,OceanBase對內100%承載螞蟻業務的流量。對外,在被譽為“資料庫領域世界盃”的TPC-C基準測試中,打破了由美國公司Oracle(甲骨文)保持了9年之久的世界記錄,成為首個登頂該榜單的中國資料庫產品。

【影片:使命必達——OceanBase登頂TPC-C測試】

我贏了一隻apple watch

2015年,李俊奎去拜訪了上海證券交易所,那裡的交易系統部署在6臺大型計算機上,交易峰值能達到每秒10萬筆。

他大為驚歎:10萬筆!何等高不可攀的數字!什麼時候支付寶也能達到就好了!

回到杭州,他馬上與同學們分享了這次見聞,結果同學們告訴他說,今年我們的目標就要超過每秒10萬筆了。

李俊奎一想,這種一聽就不可能的目標,是支付寶的作風,沒毛病。

與此同時,鄭洋飛則在為這個目標頭痛不已。他剛剛跟他的主管打了一個賭,賭的是他作為2015年雙11全鏈路壓測的負責人,能不能保障雙11的支付不出任何問題。賭注是一隻apple watch。

這一年是90後的鄭洋飛第一次挑大樑,從雙11的參與者轉換角色成為一個專案的主導者。但這一年也是他和團隊都“忍辱負重”的一年,上半年,因為頻繁不斷的可用率問題,他們做穩定性的團隊也在頻繁遭受打擊,士氣不振,不少同學選擇了離開,內外的質疑聲也接連不斷,那幾個月,空氣裡都彷彿寫滿了“難熬”二字。

“當時團隊沒幾個人了,但是人人都憋著一口氣,想著一定要把雙11這個事情搞好。”鄭洋飛說,“就是不想讓人覺得支付寶不行。”

局面有如背水一戰,如果失敗了,想要“翻盤雪恥”就要再等一年。因為雙11每年只有一次,不僅是一年一度的大考,更是一年一度的舞臺。按照系統部資深技術專家楊海悌的說法,“人人都想把自己一年的努力拿到雙11去驗證和展示,不讓上還不高興。”

跟2014年的全鏈路壓測比起來,2015年主要要做幾個方面大刀闊斧的改進:一是要從核心系統擴充套件到全部系統,二是要平臺化,也就是打造一個全鏈路壓測的平臺工具,三是要跟整個集團的壓測打通聯動。

 “老實說,非常忐忑。”鄭洋飛心裡沒底。

當雙11零點的洪峰撲面而來時,他已經忘掉了apple watch這回事。有一個壓測沒驗證到的資料庫定時任務,讓曲線看上去不那麼平滑。“穩定壓倒一切”的宗旨之下,系統只要一抖,整個團隊的心也跟著抖了起來。迅速排查的結果是,系統整體沒出問題,但壓測遺漏的一些細節,讓結果不是那麼完美。

“曲線不是特別好看。”他不無遺憾地說。

鄭洋飛最終贏得了這隻apple watch,但對於他而言,除了獎品之外,這隻apple watch更有了別樣的意義,時刻提醒他即使做了再充分的準備,也沒有萬無一失。

 

對“絲般順滑”的追求永無止境

其實每一位支付寶工程師的心中,都有一條的“完美曲線”。

理想之中,它應該是這樣的:雙11零點,洪峰來了,曲線漂亮地攀升,沒有驟升驟降,不要用頻繁的抖動去折磨大家脆弱的神經。

如果要濃縮成一個詞,那就是“絲般順滑”。

但是,每一次為此而做的技術演進和架構變更進行到一定階段,“你都會發現一開始可能設想得非常美好,但到了一定的規模之後,挑戰就接二連三地來了。”楊海悌感嘆道,“量變產生質變,這句話不是虛的。”

雙11的“量”,早已一騎絕塵地進入前所未有的領域,2016年雙11僅用了6個多小時,交易額就已超過2014年全天。這些年以來,都是自己在不斷重新整理自己的紀錄。

在這樣的量之下保障穩定,難度不止提高了一個數量級。

還記得2012年底制定的架構革命之“三年計劃”嗎?它真的持續了三年,這場最初是為了解決資料庫連線數和機房限制而進行的架構革命,在三年的演進過程中,又衍生出很多其他的架構,比如異地多活、容災,彈性的容量排程等,直到2016年,才算全部落地。這之中每一步的演進,都是為了讓系統具備動態擴容能力,能夠順滑地進行彈性的擴充套件和伸縮。

“大”是考驗,“小”也是考驗。

師文匯體會最深刻的瞬間,不是2014年OceanBase一舉成名的時刻,而是2016年一次小小的測試。在這個測試裡,他發現了一個指標有一點異常——非常不起眼,2毫秒的偏差。

“2毫秒而已,如果在別的地方,很可能就會被判斷為無關緊要,然後漏過了。”但他的團隊中的一位小夥伴,非常認真地去檢查了這個問題——萬幸如此。後來事實證明如果不解決這個問題,那年的雙11就會有大 麻煩。

“即使資源不足、時間緊張、軟體有各種不完善的地方,但我們的小夥伴不會放過任何一個問題。”師文匯感慨。

早些年,流量曾是實現完美曲線最主要的挑戰,但是越到後來,隨著業務的不斷擴充,工程師們越來越清楚地認識到,穩定壓倒一切不假,但技術更要著眼於未來。

2017年,是賀巖加入支付寶的第九年。這一年支付寶實現了離線線上混布,離線任務的大量閒置資源可以被用於線上任務,從而大大提升了資源的利用率。

“在一些小的場景中,這種效率提升能帶來的節約可能不那麼突出,但在我們這樣的體量上,它所帶來的就是不可估量的一整個未來。”賀巖說。

有了前人積澱這麼多年的基礎,面向未來的路,就越走越順利了起來。

2018年雙11,支付寶其實保障了兩個大促,天貓的大促,和支付寶自己的“碼上雙11”等玩法。這一年的故障數比前一年下降了70-80%,首次實現大促全天平穩。

大隊長李錚非常淡定:“說白了,就是我們把各種風險透過系統化或工程化的流程,控制得比較好。峰值出現的過程,也都在我們的預期之內。”

2019,則是雙11的“雲原生”元年。

如果說技術是像疊積木那樣一層一層累積起來的,那雲原生就是最下面的基礎,打好了這層基礎,上層的應用就像是站在了巨人的肩膀上,生來就具備了一系列強大的能力。業務無需再過多地擔憂技術問題,只需要專注於業務程式碼即可。


點亮全世界

故事講到這裡,不知大家是否還記得,當年因為每秒兩萬筆的峰值目標而驚呼“不可能”的同學們。

當年,每秒兩萬筆是他們舉全體之力奮鬥半年才能衝上的高峰,而去年,每秒兩萬筆已經成為支付寶再日常不過的狀況,隨隨便便,一秒鐘的事。

這樣的鉅變真實發生了,只是身處當時當地,誰也沒有想那麼多。幾乎每一位工程師都表示:“每年搞完雙11,下一年的目標就出來了,然後我們就為著下一年的目標去進行相應的準備和努力。”

一個目標,又一個目標,在征服一個又一個“不可能”的過程中,曾經以為遙不可及的標高,都一一被甩到身後。當年高不可攀的每秒10萬筆,今天看來不過小菜一碟。

只有當回頭的時候才有所感覺,在某一天忽然發現,原來已經走出了那麼遠,原來已經攀登到了那麼高的地方。

而當年那些驚呼不可能卻又拼命將不可能變成現實的年輕人,已經紛紛長大,他們現在有著更多的從容淡定,上限在哪裡沒人知道,更大的可能是,沒有上限。

萬字長文丨1分36秒,100億,支付寶技術雙11答卷:沒有不可能

流量資料的增長也早已不是雙11技術保障的全部。更多複雜的業務和玩法,在技術的成果之中生長起來,反過來又為技術的發展提供動力。走出雙11,它們還能走入很多的場景:新年紅包、五福集卡……

——或者走出支付寶和阿里巴巴。

那些由支付寶的工程師們創下的奇蹟,正一一變成產品,服務更多的金融機構。至今已有數十家銀行和金融機構用上了OceanBase,壓測平臺、雲原生等技術也紛紛走向產品化,支付寶透過歷年雙11沉澱下的技術和經驗,正在拉動整個中國的網際網路金融科技一起飛奔。

——或者走向全世界。

雙11早已不僅是中國的雙11,而是成為了一場全球的狂歡。與雙11一起,技術也在走向全世界。

“不過要是說到我們的理想,那就是將來某一年雙11,整個備戰室空空蕩蕩,除了關公像之外,不需要有任何同學留守,智慧化的系統能搞定一切問題,而我們只需要捧著茶杯或喝著酒,看著絲般順滑的曲線。”

對於鞏傑所展望的這種未來,現場就有同學笑了。“不可能吧!?”每年雙11都如同打仗一般,救兵如救火。

但是誰說不可能呢?畢竟,他們是那樣一群已經把太多的不可能變為現實的人。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69904796/viewspace-2663427/,如需轉載,請註明出處,否則將追究法律責任。

相關文章