別再擔心會被chatGPT取代了,一篇文章帶你看懂它
最近chatGPT是徹底火出圈了,其實去年底就已經推出,但是這兩個月突然爆火,或許是由於流浪地球2的熱播,大家覺得他很像MOSS吧。
鋪天蓋地的文章、影片、話題,作為一個資料類的科普自媒體,好像不說幾句,似乎就和這個時代徹底脫節了。
其實很早以前,微軟小冰就已經能進行比較簡單的對話了。
我剛和小冰聊了幾句,發現它語料庫還挺新的,連chatGPT都知道。但是聊幾句就明顯能感覺到語意識別能力相對不足。
為什麼這麼多年過去了,小冰似乎沒有多大的成長,而chatGPT彷彿橫空出世,直接實現了對話機器人代差級別的、史詩級飛躍。
其實,chatGPT也不是橫空出世的。Open AI經過了六七年的打磨,才最終由量變到達質變。
簡單回顧一下AI的發展史。從類別上看,可以大體把AI分為決策式AI和生成式AI。
所謂決策式AI,基本上是用AI來進行分類、判斷和預測;而生成式AI則是由AI來創作內容。包括文字、影像、音訊等。
在2011年以前,大部分的AI技術集中於決策式AI。在2012年以後,生成式AI開始生根發芽。
特別是在2017年,Google的transformer框架釋出以後,大語言模型的理論基礎初步建立。
隨後生成式AI急速發展,在2020年GPT-3推出的時候,在業內其實已經引起了轟動。Open AI再接再厲,基於GPT-3.5微調之後,推出了集大成的chatGPT。
總的來看,chatGPT,或者說AI的發展,在近兩年出現了井噴式的增長。
主要有兩方面原因:
第一,硬體的支撐使得算力大幅增強
儲存的價格下降以及雲端計算等技術的逐漸成熟,使得大規模機器學習的硬體基礎有了保障,同時,越來越多的資料為大規模語言訓練提供了更加充足的原材料。
動則數十億級別的訓練引數在以前是完全不可想象的,既沒有那麼多資料,也跑不動那麼大的模型。
第二,演算法、模型和架構的提升
原來的AI訓練算力大體上符合摩爾定律,大約每20個月翻一番。深度學習的出現和transformer框架的釋出,大規模模型的出現使得訓練算力呈指數級增長。
所以,chatGPT的誕生並非偶然,而是技術發展到一定程度的必然結果。
而它的爆火,一方面,和它的出現形態有關,另一方面,當然和它的技術有關。
從形態上看
在過去的幾年裡,AI其實在各領域都有長足的發展。但是這些領域都過於小眾。只有圈內的人瞭解。在這個領域內,人工智慧的發展對於普通人而言,人工智慧還是一個遙遠而又看不見也摸不著的概念。
當然,這也和AI的發展狀態有關。決策式AI,通常需要在特定領域的大量資料訓練,用於輔助人類決策,使用場景上通常在企業端。而生成式AI則可以生成文字、音訊、多媒體等各類內容,這些內容是可以被普通人所感知的。
去年,AI繪圖工具——Midjourney創作的《太空歌劇院》(Théatre D’Opéra Spatial),在美國科羅拉多州博覽會藝術比賽上,獲得了“數字藝術/數字修飾照片”一等獎。
生成式AI創作的內容跨越了圈層和階級,超越了種族隔閡,消融了文化差異,不再是小眾領域的曲高和寡,而是老少皆宜的雅俗共賞。
而chatGPT採用對話的模式,以更低的門檻讓普通人也能體驗,更加感覺像人們理想中的通用人工智慧。這讓很多普通人第一次真正的感知到了人工智慧的存在。
這種互動方式,可以讓人人都被AI所賦能,在企業內部,老闆只要說一句:給我本月的利潤增速和區域排名,AI馬上就會把資料呈現在眼前,當然,這依然依賴於企業內部的資料治理和資料質量。
所謂人們理想中的通用人工智慧,也就是更像人類。那麼到底chatGPT是如何做到更像人的呢?這就得從技術上解讀了。
從技術上看
從表現上看,chatGPT的核心能力在於三點:
它能理解人類的語言; 它能輸出人類想要的結果; 它能從人類的反饋中不斷學習,自我進化。
這得益於NLP技術的發展以及大語言模型(LLM)的誕生。
Google在2017年發表了論文《Attention is all your need》,在Transformer框架中引入了注意力的概念。
簡單來說,這是模擬人類在接受資訊時,把有限的注意力集中到重點之上的思路,有助於在長文字中,理解距離較遠的詞之間的聯絡。
OpenAI基於Transformer框架推出了生成式預訓練模型(Generative Pre-trained Transformers (GPT)),並且每年一迭代,在GPT3推出的時候,其能力已經超乎很多人想象。
chatGPT是基於GPT3.5做的微調,在對話方面做了進一步強化。
資料玩家透過這兩天的研究,認為chatGPT的在已有技術的基礎上,升級的核心主要在於兩點:
訓練方法:生成式預訓練+Prompting(提示),使得訓練的過程大大加速 訓練策略:透過基於人類的反饋的強化學習來進行訓練。也就是,終於把強化學習用到了NLP領域
看起來很難理解對不對,接下來,我儘量說中文。
我們知道,訓練AI其實是和教育人類的小孩類似的。當AI犯錯時,你要提醒他什麼是對的,這個過程需要大量的人工標註來實現。
在以往的決策式AI訓練中,海量的人工標註資料是訓練AI的基礎。類似影像識別、自動駕駛、金融領域的信貸風控等,都依賴於大量的樣本標註資料。標註的工作需要大量的人力投入,因此,模型的訓練成本也很高。
大語言模型LLM的訓練方式改變了,直接餵給AI海量的文字,讓它自己學。扣掉一些詞讓它做完形填空(BERT模式),或者讓它看了上句猜下句(GPT模式)。
在這樣訓練之後,AI能夠理解人類語言的模式,它知道一個詞出現之後,他後面大機率還會出現什麼詞。
並且,在學習了海量的文字後,AI有了“常識”,這是通用型人工智慧的一大特點,也是人類和AI的主要區別之一。
它學習了數理化,也熟讀文史哲,它知道明星的名字,也知道現在美國總統是誰,它的的確確更像人了。
另外,從工程上,原來的訓練方法(fine-tuning,微調),每更新一次引數,都需要更新模型,換句話說,要重新跑一下;
而採用prompting的模式,則完全不用,只需要給AI投餵一些示例,讓它自己體會。[4]
這裡又分幾種情況:
Few-shot,給幾個示例;
One-shot,給一個示例;
Zero-shot,不給示例。
chatGPT就是Zero-shot模式,當然,你可以透過給它增加示例的方式,使其回答更加精準,這就是為什麼你可以追問chatGPT,他會隨著你的追問,越來越貼近你想要的結果。
而這個追問的方式,完全不需要你寫程式碼,只需要對話就行,這使得chatGPT可以透過和成千上萬,甚至數億的使用者對話來飛速成長,這是人類理想中通用人工智慧的樣子。
難道強人工智慧就這麼來了?彆著急,接著看。
這麼多使用者和chatGPT對話,每個人的語言風格千差萬別,到底怎麼判斷回答對還是不對?
如果AI能夠自動從人類的語言中判斷一個回答好還是不好,而不用人類去標註他的回答,那將會節省非常多的標註工作量。這就是基於人類的反饋強化學習RLHF(Reinforcement Learning from Human Feedback)。
強化學習是一種訓練策略,其他策略還有有監督(有標註樣本)、無監督(無標註樣本,主要做分類)等。
AlphaGo就是採用的強化學習,透過一個獎勵/懲罰函式,來告訴AI這一步是加大獲勝機率,還是減小,這樣AI就可以不斷的和自己對弈。
為什麼NLP領域之前沒采用這種方式呢?主要是因為這個獎勵/懲罰函式太難設計了。
人類針對一個回答可能給出非常多種的評價。比如說:不錯、還行、挺好的、很好、太棒了、和我想的一樣;或者:這不是我想要的結果、錯了、這樣不對、還可以更好、我覺得你沒有理解我的意思……
這些反饋幾乎是難以窮盡的。除非真的找一堆人,來針對AI給出的N種回答,量化的選擇自己喜歡哪一種,不喜歡哪一種。
不就是人嘛,不就是錢嘛,OpenAI不差錢,自然也不差人。
他們找了40個人的專職外包團隊,真的開始一條條的標註,所以你看,看起來是個通用人工智慧了,還是靠人工堆出來的。
具體過程如下:
第一步,針對一個話題“向一個6歲小孩解釋登月”,人工標註師會給出人類的答案,供GPT-3採用有監督的模式進行訓練;
第二步,針對以上話題,AI給出自己的四個答案,由標註師按照最好到最差進行排序,用於訓練獎勵/懲罰模型;
第三步,可以進行強化學習了,針對任意話題,AI給出一段文字以後,丟給第二步訓練出來的獎勵/懲罰模型,獲得一個反饋值,針對不同風格的回答獲得的不同反饋值,AI學習到了哪種回答是人類更喜歡的。
現在,上億的使用者正在時時刻刻為chatGPT提供著更多的資料,更多的反饋,毫無疑問,這些資料將會被用於GPT-4的開發,這個資料量級,基本上已經窮盡了人類對於特定回答可能的反應,再往後,chatGPT真的就是邊聊邊學了。
GPT-3的引數量高達1750億,超過了人腦神經元數量860億;GPT-4的引數量將達到100萬億,和人腦神經元的連線數量相當。
回到我們前面的問題,AI真的要更像人,還有一點值得探討:即AI應該永遠正確,還是像人一樣偶爾會犯錯。
現在的chatGPT,會經常犯錯,也會認錯,主要是由於還不夠強大。
等到它足夠強大了,它會學習到,有時候,不一定要給最優答案,有時候,不一定要保持正確,有時候,善意的謊言可能更能被人接受。
也就是說,AI會有情商。
再過不久,AI就可以看出人類在文字中的話外之音,聽出人類語言中的言外之意,可以透過解析人類的聲紋,從而判斷人類的情緒是否對他的回答有所影響,以及在他的回答中是否包含了別的意思。甚至透過影片的解析人類的微表情,可以判斷這個人是否在撒謊,或者說還有言下之意。科幻電影中的那一幕幕,好像真的越來越近了。
chatGPT將在哪些領域應用?我們會失業嗎?
又該回到那個老生常談,但又直擊靈魂的問題,我們會被AI取代嗎?
更具體點,我們會被chatGPT取代嗎?
毫無疑問,是的。
內容創作
首當其衝的就是內容創作領域,類似我這樣的科普作者,如果僅限於複製貼上一些概念、原理,或已有的科普材料的話,ChatGPT完全可以替代我們,而且做得比所有人更快,比大部分人更好。
除了文字創作以外,有點反直覺的是,創意創作的職業有可能會更快的被取代,比如說畫家,作曲家等等。
這聽上去和大家以往的認知有點不太一樣。
按照大家的傳統認知,人類最有優勢的就在於人類的創意,而創意來自於自主意識,這也是AI所不具備的。
那天聽了劉潤老師的直播,我有了一些不一樣的認知。
所謂的創新和創意其實是在有限的排列組合裡創作出一個人類能夠感知到美的唯一組合。
這個有限的空間指的就是音符、繪畫的顏色和構圖等。
音符和色彩組成的空間,對人類來說並不算是有限的,幾乎可以等同於無限空間,但對於AI來說,特別是對於超大算力的AI來說,是可以窮盡的有限空間。
而在一個相對有限的空間裡,不斷的試錯,尋找最優或者次優解這種事情,AI再擅長不過了。
事實上現在有很多的畫家已經把尋找靈感這件事,交給AI了。
即先嚐試讓AI透過給出的一個或幾個關鍵字進行創作,從AI創作的一系列作品中挑選自己喜歡的,用來尋找靈感,再將AI的畫作用自己的風格畫出來。
也就是說,畫家、作曲家,這類人類引以為豪的創意創作職業,已經把自己最核心的競爭優勢——靈感,交給AI去處理了。
剩下的所謂作曲或者作畫風格,如果要進行模仿,對於AI來說更加不在話下。
誠然,大師的作品總是難以逾越的,但是對於大多數不那麼著名的創作者,自己的作品比起AI來說,到底有什麼更打動人心的地方呢?
諮詢領域
其他的職業當然也面臨同樣的危機,比如諮詢領域基礎的法律,財務金融保險等等諮詢包括線上客服針對於某些領域特定知識的解答都可以被AI很好的完成,事實上現在很多人已經在用全gt去尋找。這些領域的問題的答案而不再諮詢同類
類似的還有教師,科普工作者等等
程式設計師
此外,程式設計師們似乎要被自己寫出來的AI革了自己的命,特別是面向Google程式設計的,只會ctrl+c,ctrl+v的程式設計師們。
特定功能的基礎程式碼chatGPT可以很好的完成,並且幾乎是瞬間完成。
難點在於如何把一個現實問題轉化為一個程式設計問題,拆解成多個明確的程式設計模組。
這是以後程式設計師們應該具備的核心競爭力,也就是程式設計思維。
總的來看,可能會被AI替代的,仍然是這個職業裡面相對不那麼自身的從業者。
其實換個角度,他們即使不被AI替代,也會被更優秀的同類替代,被會使用AI的同類替代。
所以對於這一類人來說,他們與其擔心AI,不如先審視一下自己。
不過大家也不用過於擔心,縱觀人類歷史,新技術的出現固然會導致一部分人的工作被替代,但是同時也會催生出新的職業和崗位。
蒸汽機的出現使得小作坊難以為繼,催生了盧德運動。
但是蒸汽機普及之後,失業的人們也找到了更適合自己的工作。從整體上來看,人類在技術進步之後,更有餘力去從事更加輕鬆的工作。
AI的出現同樣催生了新的職業和崗位,比如AI標註師。AIGC時代的標註師,除了要給樣本打標,還要自己創作內容給AI學習,引導AI修改回答,更要為AI創作的多個內容進行排序,以後的AI標註需求會更多樣化,更加複雜。
除了催生出新崗位,AI也會賦能一些崗位,從而改變一些職業。
比如程式設計師不再需要寫很多基礎的程式碼,而是更多的需要利用AI去完成更大,更復雜的任務。
人均產能比原來提升了很多,但是技能更偏向於邏輯思維和問題拆解等能力。
同樣,資料分析師也不再需要去做基礎的資料整理、收集、整合等等工作,而是要更多的把精力放在資料的理解,業務目標的洞察上。
資料的整理、收集、整合,甚至建模的繁重工作,都可以由AI來完成,事實上,現在已經有不少工具支援以上功能了,比如Altair RapidMiner等產品,能夠解決預測、聚類和異常值檢測三大類問題,大大加快了模型的構建和驗證過程。
chatGPT的隱憂
chatGPT無疑會顛覆很多行業,比如搜尋引擎。
New Bing搭載chatGPT以後,已經能解決資訊來源和資料即時性兩大痛點,體驗完勝搜尋引擎。
如果搜尋引擎的商業模式被顛覆,那Google的核心收入——廣告,就不再有優勢了,競價排名等模式也將不復存在。
留給Google的時間不多了。
這裡,我能想到兩個問題:
智慧財產權問題。這裡的引用並不是簡單的索引,經過了重新整理、歸納,自然就涉及到原站點和原作者的智慧財產權問題。
就像應對爬蟲有robot.txt這種自律公約一樣,以後會不會出現AI學習材料的自律公約,比如有的藝術作品或者網頁、文字作品,不願意讓AI學習,那就要給出相應的標識,禁止AI學習和引用。
資訊繭房問題。在web2.0推薦系統時代,已經出現資訊繭房的問題,推薦演算法會一直“投餵”你感興趣的資訊,而chatGPT,在基於人類的反饋強化學習RLHF的訓練下,它學會了討好人類,給你看到你更喜歡的答案。
而由於資訊高度歸納和抽象,人們會漸漸放棄搜尋引擎時代自己篩選資訊的複雜操作,而是選擇躺平,相信chatGPT的一切。
甚至在自己的認知與chatGPT衝突時,也全盤否定自己,接納chatGPT。
長此以往,人們的認知能力會下降,這已經不是資訊繭房了,而是演算法霸權。其權威無人能挑戰,其地位無人能撼動。
此外,由於演算法的不可解釋性,難以用於金融的強監管行業的決策支撐;
由於訓練樣本過於龐大,引數過於複雜,也難以稽核其訓練原材料的公允性;
甚至,由於RLHF的訓練有人參與,這些標註師的政治立場,有可能會影響chatGPT的立場。
事實上,現在chatGPT就不是完全中立的,而是一個左翼的環保主義者。
結語
儘管存在種種缺陷和隱憂,chatGPT仍然是近年來AI圈,甚至科技圈裡最重磅的突破。
AI會取代一些工作崗位,會顛覆一些行業,但就像以前的技術革命一樣,也會催生出新的崗位和行業。
作為普通人,我們應當審視自己的日常工作,是否存在簡單重複的勞動,主動用AI替代這部分工作,把自己的精力投入到更有創造性和挑戰的工作當中去吧。
參考資料
中信建投: 從CHAT_GPT到生成式AI:人工智慧新正規化,重新定義生產力
[2]中信建投: 從CHAT_GPT到生成式AI:人工智慧新正規化,重新定義生產力
[3]AI作畫《太空歌劇院》拿下一等獎,AI是否將入侵藝術領域?:
[4]萬字長文:AI產品經理視角的ChatGPT全解析: https://mp.weixin.qq.com/s/vHxi3-bk23QORNsIocIHeA
[5]一文讀懂chatGPT模型原理(無公式): https://mp.weixin.qq.com/s/N6gUVLDtAkJCZi-kStSS6w
[6]Long Ouyang∗, JeffWu∗, Xu Jiang∗, Diogo Almeida∗, Carroll L. Wainwright∗, Pamela Mishkin∗, et al. (2022).: Training_language_models_to_follow_instructions_with_human_feedback
[7]Long Ouyang∗, JeffWu∗, Xu Jiang∗, Diogo Almeida∗, Carroll L. Wainwright∗, Pamela Mishkin∗, et al. (2022).: Training_language_models_to_follow_instructions_with_human_feedback
[8]藝術被技術“入侵”,人工智慧作畫估值幾何?:
[9]盧德運動:英國工人為生計砸毀象徵進步的機器,誓死捍衛手工生產 :
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70024923/viewspace-2936848/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 哪些資料崗位會被ChatGPT們取代?ChatGPT
- Google 的雲遊戲平臺要上線了,但開發者們擔心它會被砍掉Go遊戲
- 安啦!李開復說這四類工作不用擔心被AI取代!AI
- 別擔心,你還不會失業——AppAgent 簡單試用APP
- 這是一篇你能看懂 Java JVM 文章JavaJVM
- 別再寫一摞if-else了!再寫開除!兩種設計模式帶你消滅它!設計模式
- go包管理速通,一篇文章就夠了,再也不用擔心因為不會導包被辭退Go
- 一篇文章帶你搞定HashTable
- 一篇帶你看懂Flutter疊加元件StackFlutter元件
- 一篇文章基本看懂gradleGradle
- 一篇文章帶你吃透 Docker 原理Docker
- 一篇文章帶你認識 SpringSecuritySpringGse
- 一篇文章帶你入門Zookeeper
- 一篇文章帶你學會Linux三劍客之一:awkLinux
- 3張圖看懂:今年你真正需要擔心的是什麼?
- Cookie 是否會被取代Cookie
- 媽媽再也不用擔心你不會使用執行緒池了(ThreadUtils)執行緒thread
- 一篇文章帶你快速入門createjsJS
- 衝機器比了個心,竟然被它發現了
- Python課堂點名器,媽媽再也不會擔心我被老師點名了Python
- 一篇文章帶你瞭解——Kotlin協程Kotlin
- TCP會被UDP取代麼?TCPUDP
- Stack Overflow:僅12%程式設計師擔心被AI取代 62%開發者在使用AI工具程式設計師AI
- 一篇文章帶你瞭解介面自動化
- # 一篇文章帶你入門軟體測試
- 一篇文章帶你掌握效能測試工具——JmeterJMeter
- 一篇文章帶你弄懂Kerberos的設計思路ROS
- 一篇文章帶你讀懂Redis的哨兵模式Redis模式
- MySQL十種鎖,一篇文章帶你全解析MySql
- 一篇文章帶你瞭解HTML5 MathMLHTML
- 一篇文章帶你搞定 SpringBoot 整合 Swagger2Spring BootSwagger
- 一篇文章帶你瞭解和使用Promise物件Promise物件
- 一篇文章帶你徹底搞懂join的用法
- 一篇文章帶你搞懂 etcd 3.5 的核心特性
- 一篇文章帶你初步瞭解—CSS特指度CSS
- 記憶體?java模型?jvm結構?一篇文章讓你全部看懂!記憶體Java模型JVM
- 一篇部落格帶你學會MyBatisMyBatis
- 👅媽媽在也不用擔心我不會寫介面了