Facebook開源模型可解釋庫Captum,這次改模型有依據了

AIBigbull2050發表於2019-10-15

作者 | Narine Kokhlikyan, Vivek Miglani, Edward Wang, Orion Reblitz-Richardson

譯者 | Rachel

出品 | AI科技大本營( ID:rgznai100)

【導讀】前腳 TF 2.0 剛釋出,在 PyTorch 開發者大會首日也攜 PyTorch1.3 版本而來。除此之外,還發布了隱私保護機器學習框架 CrypTen、模型可解釋庫 Captum 和下一代目標檢測/目標分割研究平臺 Detectron2。這篇文章介紹的是Facebook 在深度學習的可解釋性問題上釋出的新成果——Captum。

目前,機器學習模型已經在多個領域得到了廣泛應用,並對數億的人群產生影響。隨著模型在工業領域的應用不斷擴充,模型的結構也正在變得更加複雜。對於機器學習的開發者而言,深入理解模型的原理並具備對他人解釋原理的能力非常重要。

而 Facebook 釋出的 Captum 是一個基於 Pytorch 的一個模型解釋庫,其功能強大、靈活且易於使用。該庫為所有最新的演算法提供瞭解釋性,幫助研究人員及開發者更好地理解對模型預測結果產生作用的具體特徵、神經元及神經網路層。Captum 透過包括視覺化和文字在內的多種形式提供模型解釋,併為新演算法的設計提供了可擴充性。透過使用 Captum ,研究者還能夠以 Pytorch 庫中的演算法為基準,快速對自己的演算法進行評估。

對模型開發者而言,透過使用 Captum 來識別模型中對結果產生較大影響的特徵,開發者能夠更快速地對模型效果進行提升,並對模型的不合理輸出進行除錯。在這一版本中,我們也提供了 Captum Insight 的試用版,該庫基於 Captum 構建,提供瞭解釋性的視覺化功能。

Captum Insight 能夠處理包括圖片、文字等型別在內的多種特徵,並幫助使用者理解特徵的屬性。目前,該庫實現了對 Integrated Gradients 演算法的支援,在未來我們還將加入對更多演算法的支援。更多資訊參見 captum.ai 。

地址:

https:// www.captum.ai/

Facebook開源模型可解釋庫Captum,這次改模型有依據了

Captum 實現了對最新的解釋性演算法的支援,包括 Integrated Gradients, DeepLIFT 和 Conductance。透過使用 Captum ,開發者可以理解特徵的重要性,並對神經網路的神經元和網路層的屬性進行更加深入的瞭解。

Captum 提供了對 Pytorch 生態系統中多種型別資料的無差別解釋能力,能夠幫助使用者開發更好的模型,並進行相關研究。

包括 Captum 在內的模型解釋庫能夠幫助工程師開發更加可信賴、可預測、效果更優的人工智慧系統。透過對系統工作原理進行解釋,工程師也能夠為決策過程提供資訊,並與他人建立可信賴的聯絡。另外,隨著多模態模型的不斷出現,模型解釋庫對多種型別的資訊提供無差別解釋和視覺化的能力將變得更加重要。

Captum 的 Github 地址:

.com/pytorch/captum

Facebook開源模型可解釋庫Captum,這次改模型有依據了

原文連結:

.com/blog/open-sourcing-captum-a-model-interpretability-library-for-pytorch




https://www.toutiao.com/a6747259559426916868/



來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2660009/,如需轉載,請註明出處,否則將追究法律責任。

相關文章