Hugging News #0407: Google AI 的 Pix2Struct 來啦、開發者資源頁面釋出

HuggingFace發表於2023-04-07

每一週,我們的同事都會向社群的成員們釋出一些關於 Hugging Face 相關的更新,包括我們的產品和平臺更新、社群活動、學習資源和內容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」,本期 Hugging News 有哪些有趣的訊息,快來看看吧!

社群活動

ControlNet 微調衝刺活動

為了幫助更好地使用 ControlNet 探索 AI 繪畫,我們在全球社群聯合 Google Cloud 一起舉辦了這次 ? JAX / Diffusers 社群衝刺活動。請在這裡 檢視本次活動的詳細資訊。活動很快就截止報名了,再次誠摯邀請參加!

產品更新

新的 Space 應用模版: ZenML

ZenML 是一個可擴充套件的開源 MLOps 框架,為資料科學家、ML 工程師和 MLOps 開發者建立可移植、生產就緒的 MLOps 管道。你可以選擇使用 Docker 作為 Space 應用的 SDK,並選擇 ZenML 作為模版即可。

Not-For-All-Eyes 標籤

我們新新增了“Not-For-All-Eyes”標籤,該標籤將用於標記包含可能不適合所有受眾的內容的資料集等內容。你可以在個人設定裡選擇忽略這個標籤提醒。

開源更新

? ? ?‍?

我們上線了一個專題頁面,列舉了作為軟體開發者可以使用的 Hugging Face 平臺的資源。
https://hf.co/spaces/huggingface/devs

Google AI 的 Pix2Struct 現已在 ? Transformers 中提供

Google AI 的 Pix2Struct 現已在 ? Transformers 中提供,Pix2Struct 是一種預先訓練的影像到文字模型,用於純視覺語言理解。該模型透過學習將網頁的螢幕截圖解析成簡化的 HTML 來進行預訓練。Pix2Struct 還引入了可變解析度輸入表示和更靈活的語言和視覺輸入整合,其中語言提示(如問題)直接呈現在輸入影像的頂部。該模型在四個領域的九項任務中取得了最先進的結果,包括文件、插圖、使用者介面和自然影像。

手把手教你使用 ControlNet

ControlNet 這個神經網路模型使得使用者可以透過施加額外條件,細粒度地控制擴散模型的生成過程。這一技術最初由 Adding Conditional Control to Text-to-Image Diffusion Models 這篇論文提出,並很快地風靡了擴散模型的開源社群。來回顧我們本週的文章,學習如何使用 ControlNet


以上就是本週大事件,祝大家有一個愉快的週末!

相關文章