在釋出後的短短几個月裡,OpenAI的ChatGPT工具將人工智慧的能力、道德挑戰和失敗推到了聚光燈下。人工智慧聊天機器人編造故事的例子數不勝數,包括錯誤地指控一名法學教授性騷擾,並將一名澳大利亞市長牽扯到虛假的賄賂醜聞中,這導致了首例針對人工智慧聊天機器人的誹謗訴訟。今年4月,三星的三名員工在ChatGPT上輸入內部會議記錄和原始碼,不小心洩露了公司的機密資訊,這讓三星上了頭條。這一訊息促使摩根大通(JPMorgan)和威瑞森(Verizon)等許多公司禁止企業系統訪問人工智慧聊天機器人。事實上,在彭博社(Bloomberg)最近的一項調查中,近一半的受訪公司表示,他們正在積極制定員工使用聊天機器人的政策,這表明相當大一部分企業對這些發展措手不及,沒有做好準備。

事實上,人工智慧的快速發展使得負責任地使用人工智慧變得更加困難。例如,公司越來越依賴於新興的第三方人工智慧工具,以及快速採用生成式人工智慧演算法,這些演算法使用訓練資料生成逼真或看似真實的文字、影像或音訊,這使他們面臨新的商業、法律和聲譽風險。而且,這些風險難以追蹤。在某些情況下,管理人員可能對員工或組織中的其他人使用這些工具缺乏任何意識,這種現象被稱為影子人工智慧。正如史丹佛大學法律法典研究員Riyanka Roy Choudhury所說,“AI框架並不是為了應對生成式人工智慧工具帶來的突如其來的、難以想象的風險而編寫的。”