最新研究顯示,人工智慧在道德推理方面的能力可能已經超越了人類專家。美國北卡羅萊納大學教堂山分校和艾倫AI研究所的研究人員開展的兩項研究中,OpenAI的新型聊天機器人GPT-4o在提供道德建議方面,被認為質量優於公認的道德專家。
在第一項研究中,501名美國成年人對GPT-3.5-turbo模型與人類參與者提供的道德解釋進行了比較,結果顯示,GPT的解釋被認為更符合道德標準、更值得信賴,也更周到。
第二項研究中,GPT-4o生成的建議與“倫理學家”專欄中著名倫理學家Kwame Anthony Appiah的建議進行了對比。
900名參與者對50個“倫理困境”的建議進行了評分,GPT-4o在幾乎所有方面都勝過了人類專家。
AI生成的建議被認為在道德上更正確、更值得信賴、更周到,並且在準確性方面也更勝一籌。
不過這項研究僅針對美國參與者進行,未來還需進一步研究以探討不同文化背景下人們對AI生成的道德推理的接受度。
儘管如此,這一發現已經引發了關於AI在道德和倫理決策中角色的重要討論,預示著人工智慧在這一領域的應用潛力。
研究人員提醒,儘管AI在道德推理方面表現出色,但仍需謹慎對待其建議,特別是在缺乏人類監督的情況下。
自 快科技