谷歌CEO皮查伊:人工智慧需要被監管,技術無法保證美德

AIBigbull2050發表於2020-01-21

1月20日,谷歌及母公司Alphabet執行長(CEO)桑達爾·皮查伊(Sundar Pichai)在英國金融時報發表署名文章,稱“人工智慧需要被監管”。文中,皮查伊闡述了好的監管需要兼顧的條件,並表達了希望與監管部門合作的願望。


在這篇題為《為什麼谷歌認為我們需要監管人工智慧》的評論文章中,皮查伊說:“毫無疑問,人工智慧需要被監管,怎麼都不為過。唯一的問題是我們的手段是什麼。”


“歷史上充斥著許多案例,技術無法保證美德。”皮查伊說:“人工智慧的負面後果需要被切實關注,從deepfakes換臉影片到面部識別技術的不當濫用。”


為了解決這些問題,皮查伊認為,“國際協作對讓全球標準生效至關重要。”他還認為,歐洲的《通用資料保護條例》(GDPR)是一個“堅實的基礎”。


“好的監管框架能夠兼顧安全性、可解釋、公平和問責制,以確保我們用正確的方法開發出正確的工具。明智的監管必須兼顧相稱的方法、在潛在的危害和社會機遇之間取得平衡,尤其是在高風險的領域。”皮查伊這樣寫道。


據9to5Google當天報導,在具體的案例中,皮查伊指出,現有醫療框架中應用人工智慧輔助的心臟監護儀是“很好的起點”,同時自動駕駛汽車也要求政府“制定考慮到相關成本和收益的恰當新規”。前者是谷歌健康(Google Health)和Alphabet旗下生命科學部門Verily正在積極研發的領域;Alphabet旗下自動駕駛公司Waymo也已經在美國鳳凰城開展了自動駕駛商業運營。


2018年,谷歌的雲部門利用AI(人工智慧)技術幫助美國軍方識別無人機影像,招致了公司內部激烈的批評,並引發了數千名員工激烈抗議,反對谷歌與軍方合作,以及將谷歌技術用於戰爭或違反人權的用途。輿論壓力下,谷歌在2018年6月宣佈,將不會續約與美國國防部合作的Maven專案,並於當月推出了谷歌對人工智慧工具的新道德準則,旨在評估公司要發展的人工智慧專案。新道德準則中,谷歌的人工智慧軟體被禁止用於武器及違反國際監控和人權慣例的服務。


2018年10月,谷歌進一步宣佈,放棄競標美國軍方價值100億美元的雲端計算業務合約JEDI,部分原因是因為該專案與公司的新道德準則不符。


皮查伊在文章中也提到,上述人工智慧道德準則“AI Principles”。


皮查伊說,該準則“幫助我們避免偏見,嚴格地進行安全測試、設計時將隱私置於最先,並讓技術對人們負責。它還明確了我們不能設計和應用人工智慧的領域,如支援大規模監視或侵犯人權。”


文章結尾處,皮查伊表達了谷歌希望和監管部門一起合作的願望。


“當出現不可避免的緊張局勢和權衡取捨時,我們希望能成為監管部門有幫助的、共同參與的合作伙伴。提供我們的專業知識、經驗和工具,共同解決這些問題。”皮查伊說。





來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2674192/,如需轉載,請註明出處,否則將追究法律責任。

相關文章