面向公眾的人工智慧工具,包括ChatGPT等基於文字的應用程式,或文字到影像的模型——如Stable Diffusion、Midjourney或dall – e2等,已迅速成為監管、法律和線上隱私問題方面的最新數字前沿。惡意行為者已經在生成性人工智慧的能力幫助下實施刑事犯罪,並傳播錯誤和虛假資訊,各國政府正在努力跟上步伐,而公司則將責任推給個人使用者。正如畢馬威澳大利亞公司(KPMG Australia)和昆士蘭大學(University of Queensland)進行的一項調查顯示,一般公眾已經不相信政府機構會監督人工智慧的實施。
該研究對17個國家的1.7萬多人進行了調查,發現只有三分之一的受訪者對政府在人工智慧工具和系統的監管和治理方面具有高度或完全的信心。調查參與者同樣對科技公司和現有監管機構作為人工智慧的管理機構持懷疑態度。
儘管被調查者對國家政府表現出懷疑態度,但人們對像聯合國這樣的超國家機構的看法是比較積極的。歐盟委員會目前是這類機構中唯一起草了旨在遏制人工智慧影響並確保保護個人權利的法律的機構。《人工智慧法案》(AI Act)於2021年4月提出,目前尚未透過。擬議的法案將人工智慧應用分為不同的風險類別。例如,旨在操縱公眾輿論或從兒童或弱勢群體身上獲利的人工智慧在歐盟將成為非法行為。像生物識別資料軟體這樣的高風險應用程式將受到嚴格的法律限制。專家們批評該政策草案存在明顯的漏洞和模糊的定義。