和免疫熒游標記說拜拜 | 谷歌Cell論文:深度學習模型預測熒光位置

量子位發表於2018-04-18
Root 發自 凹非寺
量子位 出品 | 公眾號 QbitAI

在生物醫學的研究裡,顯微鏡可以幫助科學家們觀察定位細胞水平或分子水平的物質。

常用的相差顯微鏡觀察法,是從生物組織的一側給光,對細胞損傷小,且材料準備過程非常簡單。

可如果想要知道細胞核確切的位置,或者分析神經元樹突的數量或要看細胞是死是活,此前的辦法是必須要結合免疫熒游標記法,然後用熒光顯微鏡觀察。

640?wx_fmt=png&wxfrom=5&wx_lazy=1 如果不用熒游標記,就能看懂小圖1-4分別代表啥的話,算你厲害

640?wx_fmt=png 藍色,細胞核;紅色,軸突;綠色,樹突

640?wx_fmt=png

 1,神經元聚團;2,突觸;3,軸突;
4,只剩兩神經元活著,左下那個掛了(對比上個小圖4看)

但做過免疫熒游標記的同學都知道。拿到一張好的熒光照片,一路上有多麼不容易。

實驗材料養大養好拿去切片這些體力上的苦就不說了。

上一抗二抗還有封閉,每一步都是坑。即使十萬分小心走完了前面所有的步驟,到最後上熒光顯微鏡的時候還得面臨光漂白的囧況。

這還只是固定的片子。熒游標記還有個不可忽視的缺陷,染料有毒。活體細胞上了熒光之後活不了多久,所以那些時間跨度很長的生理實驗就別想了。

怎麼樣清晰定位目標物,同時還能繞開免疫熒游標記的缺點呢?

魚和熊掌可以兼得

今天,谷歌科學加速團隊(Google Accelerated Science team)在Cell上發表了一篇In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images論文。樣本無需熒光染色,用深度學習模型就可預測出目標物的位置。
640?wx_fmt=gif
不僅省去了免疫熒光繁瑣的過程,還不用擔心背景噪音、不同熒光染料串色的問題。剛切完腦片(或培養好的其他組織細胞),就可以直接放相差顯微鏡上拍片了,剩下的交給演算法模型就好。

模型訓練及工作原理

和所有模型一樣,這個預測熒游標記的模型需要獲得靠譜的訓練集。

因此,谷歌科學加速團隊聯合了哈佛Rubin實驗室以及格拉德斯通研究(Gladstone Institutes),收集了三種細胞(多功能幹細胞誘導的人類運動神經元、人類乳腺癌細胞、大鼠大腦皮層組織培養細胞)在三種光學顯微鏡(明場、相差、微分干涉相差)下的影像資料。

下圖頂行的細胞三維資訊,重構自二維影像資料的疊影。不同的level表示不同的熒游標記物,馬賽克的位置表明該實驗樣品沒有進行此類熒游標記。
640?wx_fmt=png
經過此資料集(圖1A)的訓練,模型(圖1C)就可以直接把沒有熒游標記的相差顯微影像(圖1 D)處理成帶熒游標記的影像了,預測出特定結構或蛋白的位置。
640?wx_fmt=png
這個預測標記演算法還具備遷移學習能力,只要少量的訓練資料,馬上可以獲得新型熒游標記的預測能力。深受免疫熒游標記之苦的胖友,可以前往GitHub獲取該模型的程式碼和全部資料集。

這下細胞分子生物學出結果發paper的效率要飛起來了。

最後,附論文地址:
http://www.cell.com/cell/fulltext/S0092-8674(18)30364-730364-7 

及熒游標記預測模型程式碼:
https://github.com/google/in-silico-labeling

你可能感興趣

FDA批准首個無需人類醫生指導的AI,可獨立診斷眼科疾病

可預測死亡的AI,這套系統能有效拯救生命

谷歌與Verily釋出新研究,可通過視網膜影像用AI檢測心臟病

用深度學習檢測冠心病:不依賴血管造影且成本下降25%

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。

640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態



相關文章