- 芝加哥大學最新開發了“龍葵”資料投毒工具,透過在生成影像的人工智慧程式使用的訓練資料中引入誤導或混淆的資訊,破壞這些人工智慧程式的學習過程。
- “龍葵”資料投毒工具或將成為藝術家的未來利器,幫助阻止人工智慧在未經許可的情況下使用創作作品。
- 在世界經濟論壇《2023年十大新興技術報告》中,生成式人工智慧位列10項2023年最有前途的新興技術第二名。
在生物學意義上,龍葵(nightshade)一詞常用來指代一種劇毒的植物。但最近,它被賦予了新的含義。芝加哥大學的電腦科學團隊開發了一項名為“龍葵”的資料投毒工具,幫助藝術家反擊未經授權使用其作品人工智慧。這項發明發表於該團隊的最新論文“文字到影像生成模型的快速特異性投毒攻擊”中。
什麼是“龍葵”?
“龍葵”資料投毒工具允許藝術家改變作品中的畫素。這種改變非常細微精巧,肉眼無法甄別。在這種情況下,人工智慧程式會受到誤導,從而以與人類解讀不一致的方式理解影像。
《麻省理工科技評論》在介紹“龍葵”資料投毒工具的文章中解釋稱:“(這種改變)可能會使狗變成貓,汽車變成牛。類似變化不勝列舉。”
學術界中將這種方法定義為“資料投毒”,能破壞生成式人工智慧工具的效能,使它們產生不受歡迎或不準確的輸出,從而讓生成的影像偏離使用者需求。
報導補充說,人工智慧工具通常會從高達數十億張的線上影像中提取資料,因此,在這種巨大的資料背景之下,“龍葵”資料投毒工具的使用頻次越高,人工智慧中毒的可能性也越高。
“龍葵”資料投毒工具運作的全流程。 Image: 芝加哥大學
為什麼要開發“龍葵”?
談及開發“龍葵”資料投毒工具的緣起,專案負責人、芝加哥大學的電腦科學教授趙燕斌(Ben Zhao)表示,人工智慧企業常在未經許可的情況下,罔顧藝術家的版權和智慧財產權,肆意使用藝術家的作品來訓練自己的影像生成工具。
他希望“龍葵”資料投毒工具能夠幫助制裁人工智慧企業這種不尊重藝術家版權和智慧財產權的行為,使權力天平重新往藝術家的方向傾斜。
人工智慧企業這種不尊重藝術家版權和智慧財產權的行為或已屢見不鮮。科技新聞網站VentureBeat報導顯示,藝術家、表演家和唱片公司已對多家人工智慧企業提起訴訟,理由便是這些公司在未經許可的情況下,就使用藝術家的作品來訓練自己的人工智慧工具。開發了ChatGPT的OpenAI正在被訴之列。
“龍葵”將如何影響人工智慧產業?
《麻省理工學院科技評論》評論文章的撰稿人同時表示,透過破壞或影響生成影像的人工智慧程式的行為,“龍葵”可能會成為一項重要舉措,推動人工智慧企業採取支付版權等行為,更加尊重藝術家的創作權利和版權,從而產生重要的社會和行業影響。
誠然,藝術家在目前的人工智慧開發中擁有一定的話語權。比如某些人工智慧企業已經建立了系統或流程,使藝術家能夠決定他們的作品是否可以包含在模型的訓練資料中。然而,即使藝術家不允許使用,人工智慧企業依舊對藝術內容的使用仍保留著相當大的影響力。目前,藝術家的話語權還遠遠不夠。
生成式人工智慧:全球性的新興技術
圍繞未來三到五年內有望對社會產生積極影響的技術,世界經濟論壇釋出了《2023年十大新興技術報告》。報告列出了10項2023年最有前途的新興技術,生成式人工智慧在其中位列第二。
報告指出:“雖然生成式人工智慧目前的主要應用專注於生成文字、計算機程式設計、影像和聲音等領域,但這項技術潛力無限,在藥物設計、建築和工程等多樣領域或都能施展才能。”
然而,隨著生成式人工智慧越來越多地融入人們日常生活的多個方面,報告同時強調,應用程式應符合符合約定的專業和道德標準,從而建立起公眾信任。
本文作者:
Victoria Masterson,論壇議程資深撰稿人
本文原載於世界經濟論壇Agenda部落格