ChatGPT以“人”的身份被《自然》雜誌社選為2023十大故事

BImpact發表於2024-01-09

今天聽得到頭條,李南南老師做了關於自然雜誌2023十大人物評選的選題,其中提到 ChatGPT 竟然被作為“人”,也進入了名單。‍ 

宇婷,查詢了下《自然》雜誌。 

Nature’s 10 主要記錄了過去一年科學領域的重要進展,以及一些幫助全世界發現關鍵答案的個人。這不是一個獎項或排名,而是由 Nature 的編輯精選出來的一系列故事,以引發思考。這些故事強調了科學界里人物們的影響力。

而 ChatGPT 將這一評選,擴充到了非人類角色,突破了傳統。足以看得出:模擬人類語言的人工智慧在科學發展和進步中所起的作用。

不久前,Sam Altman 入圍《時代週刊》年度人物:樂觀、適應性,並未最大錯誤做好準備。一己之力,登上無數頭條。ChatGPT 的對話設計,來源於 Sam 年輕時對於簡訊的痴迷。為 ChatGPT 賦予了人文主義色彩。

“它與人合作撰寫科學論文——時而偷偷摸摸;它為演講、撥款提案和課程起草大綱,大量炮製計算機程式碼,並充當研究想法的傳聲筒;它也發明參考文獻,編造事實,並且照搬仇恨言論。最重要的是,它抓住了人們的想象力:時而順從,時而迷人,時而有趣,甚至令人恐懼。ChatGPT  扮演著任何對話者想要的角色,有些甚至是他們不希望的角色。”

——這是對 ChatGPT 的一段精彩概述。

ChatGPT 的目標是以其訓練資料的風格,合理地繼續對話。但是,在這個過程中,它以及其他生成人工智慧( AI )程式正在改變科學家的工作方式。它們也重新引發了關於 AI 的限制、人類智慧的本質以及如何最好地調節兩者之間相互作用的爭論。這就是為什麼今年的 Nature’s 10 中有了一個非人類補充的原因。

一些科學家早就意識到了大型語言模型( LLMs )的潛力。但是對於許多人來說,ChatGPT 在2022年11月作為免費對話代理釋出的速度迅速地展示了這項技術的力量和陷阱。

對於一些研究人員來說,這些應用程式已經成為不可或缺的實驗室助手,幫助他們總結或編寫手稿,完善申請和編寫程式碼。在波士頓馬薩諸塞州的哈佛醫學院從事醫學研究人工智慧的 Marinka Zitnik 表示,ChatGPT 和相關軟體可以幫助進行頭腦風暴、增強科學搜尋引擎,並在文獻中確定研究空白。Zitnik 還認為,以類似方式在科學資料上進行訓練的模型可以幫助構建能夠指導研究的人工智慧系統,例如設計新分子或模擬細胞行為。

但是這項技術也是危險的。自動對話代理可以幫助作弊和抄襲;如果不加以檢查,它們可能會地破壞科學知識的來源。未公開的由 AI 生成的內容已經開始在網際網路上流傳,一些科學家承認使用 ChatGPT 生成文章而沒有宣告( Nature 2023 )。

然後,還有錯誤和偏見的問題,這些問題融入了生成AI的工作方式。LLM 透過繪製語言之間的相互關係來建立世界模型,然後毫無評估真假的概念地返回這個分佈的合理樣本。這導致程式在其訓練資料中重現歷史偏見或不準確,並編造資訊,包括不存在的科學參考文獻( W. H. Walters & E. I. Wilder Sci. Rep. 13, 14045; 2023 )。

華盛頓大學的計算語言學家 Emily Bender 認為,幾乎沒有合適的方式來使用她所稱的合成文字生成機器。ChatGPT 對環境的影響很大,存在問題的偏見,並且可能使使用者誤以為其輸出來自一個人。此外,OpenAI 正因涉嫌竊取資料和被指控開展剝削性勞動而受到訴訟(透過以低工資僱傭自由職業者)。

ChatGPT以“人”的身份被《自然》雜誌社選為2023十大故事 ChatGPT以“人”的身份被《自然》雜誌社選為2023十大故事 ChatGPT以“人”的身份被《自然》雜誌社選為2023十大故事


來自 “ ITPUB部落格 ” ,連結:https://blog.itpub.net/70028430/viewspace-3003293/,如需轉載,請註明出處,否則將追究法律責任。

相關文章