Hugging Face 每週速遞: 擴散模型課程完成中文翻譯,有個據說可以教 ChatGPT 看圖的模型開源了

HuggingFace發表於2023-02-20

每一週,我們的同事都會向社群的成員們釋出一些關於 Hugging Face 相關的更新,包括我們的產品和平臺更新、社群活動、學習資源和內容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」。

產品更新

享用由 A100 GPU 強力支援的超快速機器學習推理

Hugging Face Spaces 現已支援使用 A100 GPU,使用者享受超快速機器學習推理,自助開通的價格為每小時 4.13 美元,企業客戶更可以享受更低的價格。此外,未來幾個月,Spaces 還將提供更多用於機器學習的超酷硬體,如果您有特定的需求,可以給我們留言。

macOS 上的 Diffusers 應用現已釋出 (而且還開源了)

基於隱私保障設計,所有的圖片都不聯網而是在本地生成;可下載模型,這些模型都基於 CPU、GPU 和 Apple 的神經計算引擎 (ANE) 進行最佳化。

開源庫更新

Transformers 大更新

Transformer 4.25 引入了 ImageProcessor,讓使用者能夠利用更為強大的影像處理能力。同時,部分 API 也更加統一,引數配置項也改為使用 dict,更直觀也更方便。

提名道德意識良好的 Space 應用

機器學習技術在今天的社會中發揮著越來越重要的作用,可以應用於各種領域,包括醫療、金融、社交媒體、自動駕駛等。然而,這些技術的應用也可能帶來許多潛在的倫理和道德問題,比如資料隱私、演算法歧視、社會影響等。因此,有必要關注和鼓勵那些採用了倫理意識的機器學習專案,以確保這些專案符合社會的倫理標準和價值觀。

為了展示和鼓勵更好的機器學習實踐,我們正在請社群的成員們提交提名那些在這方面做的很好的 Space
應用,我們正在找尋如下相關的專案:

  • ? 徵求同意: 有意識地徵求相關方的同意,並儘可能提供透明度和選擇權。
  • ? 可持續的: 考慮其對環境和社會的影響,並採取措施減少其負面影響。
  • ?️ 社會責任感: 考慮對社會的影響,並採取措施以最大程度地提高其社會價值。
  • ?‍?‍? 具有包容性: 確保多元、平等與包容,採取措施確保其對不同背景和群體的使用者和利益相關者具有包容性。
  • ✍️ 嚴謹性: 採用嚴謹的方法和流程,以確保專案的質量和有效性。
  • ? 探索精神: 不斷追求新的想法和解決方案,並持續最佳化和改進專案。

你可以在這裡提名:
http://hf.co/spaces/society-ethics/featured-spaces-submissions

AI 與 AI 對抗賽

? Hugging Face 正在舉辦首場 AI 對陣 AI 的虛擬足球賽,你可以將自己的模型提交到 Hugging Face Hub 中,然後與其他隊伍的作品展開一張 2v2 的足球較量賽。

首場挑戰賽由 MLAgents 團隊基於 Unity 引擎提供,我們會基於大家的反饋舉辦更多精彩的比賽。

快來加入我們的課程,並與來自世界各地的同學們踢一場精彩的 AI 球賽吧!

? Accelerate 0.16.0 釋出

在這個版本中,我們提供了一款互動式配置 ? Accelerate 的線上小工具,幫助你快速上手。同時,當你在訓練中需要跳過前幾個批次的資料時,DataLoaders 現在提供了函式來直接實現。此外,我們還提供了 release_memory 函式輔助釋放 PyTorch 佔用的記憶體,以及更靈活的 load_statesave_state API。

? Hugging Face Hub 更易用了

現在,我們在模型查詢頁面增加了一個庫 (library) 篩選的標籤,這樣你就能更快找到跟自己感興趣的庫相關的各種模型了!

Tune-A-Video: 一鏡成片的文字轉語音模型

我們在 ? Hugging Face Spaces 彙總了不少優秀的 Tune-A-Video 模型,幫你輕鬆實現「一句話,讓模型給我拍個片」。

學習資源 & 內容更新

擴散模型的最後一課已經發布!

Hugging Face 擴散模型課程的第四單元: 深入研究擴散模型已經發布,這是本課程的最後一個單元,在這個單元中,我們將探討最新研究中出現的擴散模型的許多改進和擴充套件。它將比以往的單元程式碼更少,旨在為您提供進一步研究的起點。

在此前的推文裡,我們釋出了本課程的第一單元的 第一部分第二部分。我們很高興的通知大家,我們的抱抱臉本地化小組已經完成了這個課程的全部內容!我們也即將在隨後的推文中陸續釋出,歡迎關注我們。

Hugging Face ❤️ 計算機視覺

只是因為在人群中多看了你一眼,我們在計算機視覺上的投入只是從 21 年的這個 PR 開始 (huggingface/transformers#10950)。

但自去年開始,我們開始投入大量的精力投入到計算機視覺上。現如今,Hugging Face Hub 上已經有 8 個核心的計算機視覺任務、3000 多個模型和 100 多個資料集了!

我們寫了篇部落格介紹這些內容,不過你可以等等,我們的本地化小組的譯者 AIboy1993 已經完成了這篇部落格的中文版,下週就發推送 (爭取不鴿)!

除此之外,還有一篇關於計算機視覺和語言預訓練的研究進展的部落格文章 A Dive into Vision-Language Models,也已由我們本地化小組的 Matrix 同學完成了本地化,下週也將推送給大家。

看圖對話的模型 BLIP-2 開源!

據說這可能是一個可以教 ChatGPT 看懂圖片的大語言模型,BLIP-2 由 Salesforce Research 團隊釋出,你可以給他一張圖片,然後針對圖片裡的內容跟 AI 進行對話。

快來官方的 Space 應用上試玩,找找靈感吧 (或許下一個爆火的就是它呢): https://hf.co/spaces/Salesforce/BLIP2

文字生成音訊的 AudioLM 模型

現在,你可以在 ? Hugging Face Spaces 上體驗 AudioLM 模型用文字描述生成相應音效的能力了。你只需要提供足夠詳細的描述,然後提交給模型進行處理即可。快去體驗專屬於你的獨家音效吧!

視覺化三種模型輸出的結果

我們為大家提供了一款比較 Stable Diffusion v1.4、v2 和 Dall-E 2 執行文字生成圖片結果的工具。你可以選擇一個職業,及相應的形容詞,然後對比它們三者生成的圖片。

相關文章