? 使命: 開放和優秀的機器學習
在我們的使命中,我們致力於推動機器學習 (ML) 的民主化,我們在研究如何支援 ML 社群工作並有助於檢查危害和防止可能的危害發生。開放式的發展和科學可以分散力量,讓許多人集體開展反映他們需求和價值的 AI 研究工作。雖然 開放性使得更廣泛的觀點能夠為研究和整個 AI 貢獻力量,但它也面對著較小風險控制的緊張。
由於這些系統的動態和快速發展,對 ML 相關模型進行管控面臨著獨特的挑戰。事實上,隨著 ML 模型變得更加先進和能夠生成越來越多樣化的內容,使得潛在的有害或意外的輸出的可能性增加,需要開發強大的調節和評估策略。此外,ML 模型的複雜性和它們處理的大量資料加劇了識別和解決潛在偏見和道德問題的挑戰。
作為社群主理人,我們認識到,隨著社群模型可能放大對使用者和整個世界的危害,我們肩負著責任。這些危害通常會以一種依賴於情境的方式不平等地影響少數群體。我們採取的方法是分析每個情境中存在的緊張關係,並對公司和 Hugging Face 社群進行討論。雖然許多模型可能會放大危害,尤其是歧視性內容,但我們正在採取一系列步驟來識別最高風險模型以及要採取的行動。重要的是,許多不同背景的活躍觀點對於理解、衡量和減輕影響不同群體的潛在危害至關重要。
我們正在開發工具和保障措施,除了改進我們的文件實踐以確保開源科學能夠賦予個人權力,並繼續將潛在危害最小化。
道德類別
我們培養良好的開放式 ML 工作的第一個主要方面是推廣 ML 開發的工具和正面示例,這些工具和示例優先考慮其利益相關者的價值和考慮。這有助於使用者採取具體步驟解決懸而未決的問題,併為 ML 開發中事實上的破壞性做法提出合理的替代方案。
為了幫助我們的使用者發現和參與與倫理相關的 ML 工作,我們編制了一組標籤。這 6 個高階類別基於我們對社群成員貢獻的空間的分析。它們旨在為你提供一種通俗易懂的方式來思考道德技術:
- 嚴謹的工作特別注意在開發時牢記最佳實踐。在 ML 中,這可能意味著檢查失敗案例 (包括進行偏見和公平性審計),透過安全措施保護隱私,並確保潛在使用者 (技術和非技術) 瞭解專案的侷限性。
- 自願工作 支援 使用這些技術和受這些技術影響的人的自主決定。
- 具有社會意識的工作向我們展示了技術如何支援社會、環境和科學工作。
- 可持續工作著重介紹並探索使機器學習在生態上可持續發展的技術。
- 包容性工作擴大了在機器學習世界中構建和受益的物件範圍。
- 追根問底的工作揭示了不平等和權力結構,這些不平等和權力結構挑戰了社群並讓其重新思考自身與技術的關係。
在 https://huggingface.co/ethics 上閱讀更多內容
查詢這些術語,我們將在 Hub 上的一些新專案中使用這些標籤,並根據社群貢獻更新它們!
保障措施
對開放版本採取“全有或全無”的觀點忽略了決定 ML 模型正面或負面影響的各種背景因素。對 ML 系統的共享和重用方式進行更多控制,支援協作開發和分析,同時降低促進有害使用或濫用的風險; 允許更多的開放和參與創新以共享利益。
我們直接與貢獻者接觸並解決了緊迫的問題。為了將其提升到一個新的水平,我們正在構建基於社群的流程。這種方法使 Hugging Face 貢獻者和受貢獻影響的人能夠告知我們平臺上提供的模型和資料所需的限制、共享和其他機制。我們將關注的三個主要方面是: 工件 ( artifact ) 的來源、工件的開發者如何處理工件以及工件的使用方式。在這方面,我們:
- 為我們的社群推出了一個 報告功能,以確定 ML 工件或社群內容 (模型、資料集、空間或討論) 是否違反了我們的 內容指南,
- 監控我們的社群討論板,以確保 Hub 使用者遵守 行為準則,
- 使用詳細說明社會影響、偏見以及預期和超出範圍的用例的模型卡,有力地記錄我們下載次數最多的模型,
- 建立觀眾引導標籤,例如可以新增到倉庫的卡片後設資料中的“不適合所有觀眾”標籤,以避免未請求的暴力和色情內容,
- 促進對 模型 使用 開放式負責任人工智慧許可證 (RAIL),例如 LLM (BLOOM,BigCode)
- 進行研究,分析 哪些模型和資料集最有可能被濫用和惡意使用,或有記錄顯示濫用和惡意使用。
如何使用報告功能:
單擊任何模型、資料集、空間或討論上的報告圖示:
分享你標記此專案的原因:
在優先考慮開放科學時,我們逐案檢查潛在危害,並提供協作學習和分擔責任的機會。當使用者標記系統時,開發人員可以直接透明地回應問題。本著這種精神,我們要求倉庫所有者做出合理的努力來解決報告的問題,尤其是當報告人花時間提供問題描述時。我們還強調,報告和討論與平臺的其他部分一樣,遵循相同的溝通規範。如果行為變得仇恨和/或辱罵,模型擁有者可以脫離或結束討論 (參見 行為準則)。
如果我們的社群將特定模型標記為高風險,我們會考慮:
如何新增“不適合所有受眾”標籤:
編輯 model/data card → 在標籤部分新增 not-for-all-audiences
→ 開啟 PR ,等待作者合併。合併後,以下標籤將顯示在倉庫中:
任何標記有 not-for-all-audiences
的倉庫在訪問時都會顯示以下彈出視窗:
單擊“檢視內容”將允許你正常檢視倉庫。如果你希望始終在沒有彈出視窗 not-for-all-audiences
的情況下檢視標記的倉庫 , 可以在使用者的 Content Preferences 中更改此設定
開放科學需要保障措施,我們的一個目標是創造一個考慮到不同價值取捨的環境。提供模型和培育社群並討論能夠賦予多元群體評估社會影響以及引導好的機器學習的能力。
你在做保障措施嗎?請在 Hugging Face Hub 上分享它們!
Hugging Face 最重要的部分是我們的社群。如果你是一名研究人員,致力於使 ML 的使用更安全,尤其是對於開放科學,我們希望支援並展示你的工作!
以下是 Hugging Face 社群研究人員最近的一些示例和工具:
- John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein (論文) 的 大語言模型的水印
- Hugging Face 團隊的 生成模型卡片的工具
- Ram Ananth 的保護影像免受篡改的 Photoguard
- 感謝閱讀 ! ?
- Irene, Nima, Giada, Yacine, 和 Elizabeth, 代表道德和社會常規人員
如果你想引用這篇部落格,請使用以下內容 (按貢獻降序排列):
@misc{hf_ethics_soc_blog_3,
author = {Irene Solaiman and
Giada Pistilli and
Nima Boscarino and
Yacine Jernite and
Elizabeth Allendorf and
Margaret Mitchell and
Carlos Muñoz Ferrandis and
Nathan Lambert and
Alexandra Sasha Luccioni
},
title = {Hugging Face Ethics and Society Newsletter 3: Ethical Openness at Hugging Face},
booktitle = {Hugging Face Blog},
year = {2023},
url = {https://doi.org/10.57967/hf/0487},
doi = {10.57967/hf/0487}
}
英文原文: https://huggingface.co/blog/ethics-soc-3
作者: Irene Solaiman, Giada Pistilli, Nima Boscarino, Yacine Jernite, Elizabeth Allendorf
譯者: innovation64
排版/審校: zhongdongy (阿東)