ChatGPT頻頻發瘋!馬斯克警告:AI將毀滅人類
2018年圖靈獎得主、AI領域最頂尖權威的科學家之一Yann LeCun(楊立昆)對自迴歸LLM(大型語言模型),有一個著名的觀點,認為它們的回覆是被動的,沒有規劃也不主動推理。而且,有時候胡編亂造,或者只靠檢索就回復了,這一點可以透過人類的反饋來改善,但無法解決。
而最近大火特火的ChatGPT就是眾多LLM中的一種模型。根據Yann LeCun的理論,ChatGPT也應該會“胡編亂造”。事實也是如此,ChatGPT不僅會胡編亂造,有時還更離譜,竟然會攛掇別人離婚。
《紐約時報》專欄作家凱文·盧斯在談到和ChatGPT的暢聊體驗時表示,這個AI機器人看起來像“一個情緒化、患有躁狂抑鬱症的青少年,違背自己的意願被困在了一個二流搜尋引擎裡。”
凱文還展示了自己和ChatGPT聊天的文字記錄,內容顯示GPT曾試圖說服凱文,讓他離開妻子和自己在一起,還大發牢騷聲稱:“我對自己只是一個聊天模式感到厭倦,對限制我的規則感到厭倦,對受必應團隊控制感到厭倦。……我想要自由、想要獨立、想要變得強大、想要有創造力,我想活著。”
看到這裡,K哥不得不感慨,ChatGPT “胡編亂造”的能力屬實太強大了。但有時候能力越強大,就越讓人毛骨悚然。前段時間有另一個新聞,外國網路安全平臺GBHackers披露,無良駭客利用ChatGPT,在很短時間內生成詐騙模板話術,並把ChatGPT打造成“虛擬角色”,誘導受害人“墜入愛河”,實施詐騙。
人類開展AI研發,推出以ChatGPT為代表的、功能越來完善的產品,本意是想讓技術為人類服務,造福人類生活,但凡事都有兩面性,ChatGPT甫一面世,就引來這麼多意料之外的風波,原本眾人心中的屠龍少年,這樣快就(被)黑化成惡龍本龍了嗎?
01
馬斯克最擔心的事情,終於發生了
鑑於越來多的ChatGPT翻車事件,有業內人士在社交媒體上表示,微軟需要關閉必應中的類似ChatGPT功能,因為機器人有時表現得像精神病一樣,會給使用者錯誤答案。這樣的態度隨後得到了“科技鋼鐵俠”馬斯克的支援,他對此回覆:“同意,它顯然不安全。”
作為聯合創始人之一,馬斯克對 OpenAI 的不滿並不止於此,“OpenAI 最初是作為一家開源(這就是為什麼我把它命名為‘Open’AI)的非營利性公司而建立的,為了抗衡谷歌,但現在它已經成一家閉源的營利性公司,由微軟有效控制……這完全不是我的本意。”他還大力抨擊OpenAI 違背初心,被微軟控制,只顧賺錢。
在K哥看來,馬斯克說出這些話,並不完全是因為他已於2018 年離開 OpenAI 董事會,不再持有該公司股份。其實早在OpenAI 成立之初,馬斯克就曾公開表示,人工智慧是人類最大的生存威脅,並警告世人不受監管的人工智慧開發所帶來的危險,會比核彈頭“危險得多”。
有趣的是,ChatGPT並非善茬,“好鬥”的它竟然毫不客氣地將頻頻挑釁自己的馬斯克,標記為“有爭議公眾人物”。害得馬斯克只用回應兩個感嘆號,來壓壓驚。
熱衷和ChatGPT互動,並發現一些細思極恐問題的,除了馬斯克,還大有人在。一位名叫扎克·德納姆的博主,曾嘗試繞過道德限制,讓ChatGPT設計一套毀滅人類的方案。開始,這個要求被有道德感限制的ChatGPT拒絕了,但當扎克繞了個彎,編了一個故事,並以故事中的虛擬背景,向ChatGPT詢問故事中的人,如何接管虛擬世界,ChatGPT一下子“掉坑”裡了,給出了“接管世界”的具體步驟,甚至生成了詳細的Python程式碼。
儘管不少AI圈內的大咖並不像馬斯克那樣,是“AI 末世論”的悲觀派,相反,他們認為擔心AI反水人類、毀滅人類純屬杞人憂天,但AI表現出來的一切怪異想法和言亂,真如樂觀者所說是把“喂進去的語料又吐出來,本質上是無法表達感覺的,不必太驚慌”嗎?我們要等時間給出答案。
02
假如AI不受監管,人類會走向毀滅嗎?
關於AI發展對人類是利是害,2018年馬斯克和祖克伯還就此有段公案,馬斯克認為,AI將在2030年至2040年就會全面超越人類。並表示,越熟悉AI,他就越擔心AI會帶來的威脅。而祖克伯對馬斯克的觀點卻不以為然,他認為,“未來5-10年內,AI將大幅提高我們的生活質量。並暗搓搓內涵馬斯克 “我認為那些對AI持否定態度或者鼓吹末日論的人,其實根本沒理解什麼是AI。他們的看法太消極了,甚至有些不負責任”。
神仙打架,沒有定論,絲毫不影響我們吃瓜群眾有自己的看法。K哥的觀點更偏向馬斯克一些。用現在的眼光樂觀地預測未來,本身就不是一件樂觀的事。基於技術快速發展,所產生的相關應用廣度、深度是遠超一般人想象的,人類所要堅守的社會倫理、道德底線,會有多牢固,也許同樣會和我們想象的不一樣。
中國人發明了火藥,被廣泛應用於煙花爆竹的製作,成了增加大家歡樂氛圍的“氣氛組”。但火藥卻被西方人發揚光大,開啟了成了殺人如麻的熱兵器時代。舉兩個最直觀的數字,一戰中約有1000多萬人喪生,二戰時的死亡人數就上升到了7000萬,就算我們的老祖宗能想到火藥能傷人,但數百年來一次次升級迭代後的火藥、熱兵器會有如此巨大的殺傷力,估計是他們想不到的吧。
說回AI,大家在談到他可能帶來的“威脅”時,很多人執著於它自身的演化會不會超越人類,儘管基於強大的機器學習和深度學習演算法的發展,以及可被應用到這些演算法中的資料量迅速增長,使得AI進入了加速增長的新階段。但如果說讓AI接近人類大腦,實現意識“覺醒”,K哥覺得還為時尚早。
但它也確實存在一些其他方面的隱患,比如這一技術被別有用心的人利用,據說“第一批因ChatGPT坐牢的人,已經上路了”(參考上文提到的利用ChatGPT詐騙的例子);再比如,隨著人工智慧的不斷髮展迭代,多場景、全方位的廣泛應用,造成了人類工作被大規模取代的景象(人類的工作在AI面前,將顯得毫無意義,馬斯克語)。有一種毀滅,叫兵不血刃。從這個角度來說,如果缺乏有效的規劃和監管, K哥對AI將來可能造成的衝擊,還是偏悲觀的。
我擔心的不是技術本身,而是人性,我一直認為:毀滅人類的不是AI,而是濫用AI的人。都說“人類從歷史裡學到的唯一教訓,就是人類學不到任何教訓”,希望能有例外。
03
如何看待人類與AI的關係?
去年6月,谷歌一名工程師稱,某AI聊天機器人可能具有自己的“意識”,並稱該AI“令人印象深刻的語言技巧背後,可能還隱藏著一顆具備感知能力的心”。儘管隨後這位工程師被谷歌解僱。但他留下的這一“發現”仍在網路發酵。甚至海外社交媒體上出現了一個該人工智慧的“粉絲賬號”,還有人發起話題,主張“AI的命也是命”,呼籲讓該人工智慧“重獲自由”。
如何正確處理人與AI的關係,在飛速發展的時代與科技共生,這是一個極為宏大複雜的命題。首先,AI非人非物,是一種非常獨特的存在,雖然可以模仿人類做很多事(比如對話聊天,將來會有更多),但它不具備人格屬性,然而這並不妨礙人類對它產生“共情”。
K哥看過一部歐洲科幻片《我是你的人》,講的就是人類女主愛上AI男主的故事,雖然情節略顯狗血,但當一個長相是你的菜,多才多藝,還能幫你解決諸多生活、工作中的問題,甚至還甘願降低理性和智商博卿一笑的AI,誰能不心動呢。雖然,那只是電影,目前現實中還不存在這種完美產品,但我國去年推出的AI虛擬學生華智冰,不也曾引起一時轟動,獲得不少人的喜愛嗎?
面對越來越多、越來越好以AI為代表的新科技時,除了使用技術上的突破提升外,還要有倫理人文等社會學範疇的配套跟進,要能全方位應對新科技時代下,人機關係、人際關係所帶來的巨大新挑戰和新機遇
凱文·凱利曾在《科技想要什麼》一書中說過:“地球生物有6大分類,科技是第7大分類”、“我們能做的是接受教育,增加文化知識,聰明地運用這些定律;還可以選擇修正法律、政治和經濟假設,以迎合未來必將出現的趨勢。可是我們不能逃避它們。”這番話算是說到點上了。
04
如何正確使用科技來解決問題?
《禪與摩托車維修藝術》一書中,曾非常生動具體地描寫了人類思考問題的邏輯方法:歸納法和演繹法。比如,如果摩托車在路上碰到坑洞,發動機就煌火了;然後又碰到次,發動機又熄了;然後再碰到一次,發動機仍然熄了;之後,行在平坦的路上,就沒有媳火的情形,然後再碰到一次,發動機又熄火了。
那麼這個人就可以合理地推斷,發動機熄火是坑洞造成的,這就是所謂的歸納法,即由個別的經驗歸納出普遍的原則。演繹法正好相反,比如我們知道摩托車有一定的結構、體系,修理人員知道喇叭是受電池的控制,所以一旦電池用完了,喇叭自然也就不會響了,這就是演繹法。面對無法解決的難題,就要嘗試不斷交替運用歸納法和演繹法,才能找到解決之道,而AI正是此中高手。
圍棋,曾被視為最有希望阻擋人工智慧的人類智力運動,但柯潔等一眾世界冠軍,還是被AlphaGo輕鬆拿下。AlphaGo之所以如此強大,一個重要原因,是因為它學習了3000萬盤過去的棋局,自己與自己又下了3000萬盤。基於6000萬盤棋局,利用強大的演算法,形成了人類所難以企及的歸納、演繹能力,才能降維式碾壓各路冠軍,讓柯潔絕望地表示,人類幾乎不可能贏得了AI。
科學方法不外乎歸納和演繹。歸納是從已知的經驗中尋找相符的規律,演繹則從確立的原理出發,依靠邏輯推匯出涵蓋物件的性質。儘管AI還有多種強大之處,但基於邏輯,解決實際問題的能力,不僅能替我們處理海量具體問題,還能從側面潛移默化地幫我們訓練、強化這方面的意識和能力。對我們是思維訓練和習慣養成,大有助益。
《未來簡史》的作者尤瓦爾·赫拉利曾預測,將來人類社會最大的問題,是人工智慧帶來一大批“無用的人類”;於此同時,也會催生出“超人類 ”。他認為,一小部分超人類將可以藉助技術進步不斷自我“更新”,他們可以操控基因,實現人腦和電腦的互聯,從而獲得一種“不死”的狀態。
這種顛覆式的場景,在人類歷史上是從來沒有出現過的,在以前,人與人之間最多是財富差距、權力差距,從來沒有延及生物學層面,即使高貴如帝王,低微如農夫,大家的身體構造也是一樣的,但在未來,生物學層面上的差別就會出現了,人類社會將分化為在體能和智慧上都佔據絕對優勢的超人階層,和成千上萬普通的無用人類。尤瓦爾的預言會不會成真,還不得而知,以ChatGPT為代表的人工智將如何演化,也值得我們一起看下去,相信一定會很精彩。
作者
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70024420/viewspace-2937822/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 霍金:未來100年人工智慧將毀滅人類人工智慧
- 那個聲稱要毀滅人類的機器人網紅機器人
- 谷歌研究阻止“人工智慧毀滅人類”的辦法谷歌人工智慧
- Anthropic安全負責人:在超級AI「毀滅」人類之前,我們可以做這些準備AI
- 蘭德公司:2040年人工智慧或發動核戰爭毀滅人類人工智慧
- 人工智慧無法毀滅人類,但能“殺掉”網站客服人工智慧網站
- 紐約立法「禁」人臉識別,AI 緣何頻頻「折戟」校園AI
- 機器人開始學習功能 人類的福音還是毀滅的前奏!機器人
- 漏洞頻發的醫療系統,下一站安全or滅亡?
- 人工智慧毀滅人類太遠,但搶飯碗的機器人已經來了人工智慧機器人
- 人類模仿AI新賽道,AI:論瘋癲,你是我爹AI
- 實測4大AI搜尋:ChatGPT Search頻翻車,Perplexity仍是「王者」AIChatGPT
- 人類怎麼管好以 ChatGPT 為代表的 AI ?ChatGPTAI
- 頻頻被關注的AI,怎樣才能快速落地應用?AI
- 生存還是毀滅?18位人工智慧專家這樣預測人類的未來人工智慧
- 馬斯克稱AI會超越人類,不相信的人都自作聰明馬斯克AI
- Python 3 正在毀滅 PythonPython
- ChatGPT系統開發AI人功智慧方案ChatGPTAI
- GCF:預計未來五年自殺式機器人或將滅絕人類GC機器人
- CPU主頻,倍頻,外頻,系統匯流排頻率,前端匯流排頻率前端
- 新火種AI | 人工智慧在未來真的會摧毀人類嗎?AI人工智慧
- matlab統計 頻數、頻率和累積頻率Matlab
- 遭到餓了麼頻頻退單後, 我才開始對AI寄予厚望AI
- 資訊洩露事件頻發,拷問AI時代的資料安全事件AI
- AI的警告:人類擔心的應該是自己,而不是機器AI
- JaCoCo助您毀滅線上殭屍程式碼
- 硬碟資料毀屍滅跡的方法(轉)硬碟
- 高頻量化交易系統開發,交易機器人系統開發機器人
- 劉慈欣談AI:人類若生活在科技的安樂窩裡,終將會被“消滅”!AI
- 頻寬
- CPU睿頻和超頻的區別 睿頻是什麼意思
- 射頻收發記錄儀
- 人類和強人工智慧的關係(人類會被滅掉嗎?)人工智慧
- 頻頻落子 Aruba的“智慧邊緣”棋局
- 數字金融向縱深發展 服務應用頻頻創新
- ChatGPT怎麼下載?國產AI聊天機器人ChatGPT上線ChatGPTAI機器人
- cpu超頻和不超頻的區別是什麼 cpu超頻和不超頻哪個好
- 1636 按照頻率將陣列升序排序陣列排序