就在昨天凌晨,OpenAI釋出了多模態預訓練大模型GPT-4。
這不昨天一覺醒來,GPT-4都快刷屏了,不管是在朋友圈還是網路上都看到了很多資訊和文章。
GPT是Generative Pre-trained Transformer的縮寫,也即生成型預訓練變換模型的意思。
OpenAI在公告中寫道,GPT-4是一個多模態大模型,也是OpenAI努力擴充套件深度學習最新的里程碑。
OpenAI的CEO也說這是他們到目前為止功能最強大的模型。
相信這兩天大家在網路上看到的資訊比較多也比較雜,關於GPT-4,我們這裡也總結了幾個比較關鍵的點。
1、支援視覺輸入
GPT-4擁有多模態能力,現在可以接受影像輸入並理解影像內容,這也是這次釋出比較有吸引力的一個點。
比如官方給出了一個示例,給出一幅圖,手套掉下去會怎麼樣?
GPT-4可以理解並輸出給到:它會掉到木板上,並且球會被彈飛。
再比如給GPT-4一個長相奇怪的充電器圖片,問為什麼這很可笑?
GPT-4回答道,VGA 線充 iPhone。
另外GPT-4也可以識別與解析圖片內容,比如直接將論文截圖後丟給GPT-4,它就可以自動對其進行理解和分析。
使用者甚至還可以直接畫一個網站草圖拍照丟給GPT-4,它就可以立馬幫助生成程式碼。
2、文字輸入限制提升
GPT-4的文字輸入限制進一步提升,得益於此,GPT-4的實用性也進一步擴充套件。比如釋出會直播上OpenAI總裁現場演示了一波GPT-4給程式碼修Bug。
使用者可以直接把萬字的程式文件丟給GPT-4等著解決方法。
3、效能提升
在正常的對話過程中,對於GPT-3.5和GPT-4之間的區別感知可能很微妙,但是當處理一些複雜輸入時GPT-4的優勢會更明顯。
團隊表示,GPT-4在各種專業測試和學術基準上的表現與人類水平相當,其中一個資料就是它透過了模擬律師考試,且分數在應試者的前10%左右,而此前釋出的GPT-3.5,則處於倒數10%的行列。
OpenAI也在那些為機器學習模型設計的傳統基準上評估了GPT-4。從實驗結果來看,GPT-4 大大優於現有的大型語言模型,以及大多數SOTA模型。
4、依然有限制性
儘管這次釋出的GPT-4表現出了很強大的能力,但是官方依然表示GPT-4與早期的GPT模型具有相似的侷限性,並不是絕對可靠。
官方表示使用這些語言模型時還是要謹慎審查其輸出內容,必要時使用與特定用例的需求相匹配的確切協議(例如人工審查、附加上下文或完全避免高風險場景下的使用) 。
GPT-4仍然可能會產生幻覺、生成錯誤答案,並出現推理錯誤,所以團隊這也是提前給打了一個預防針。
雖然這仍然是一個問題,但GPT-4相較於於以前的模型顯著減少了“幻覺”。在內部的對抗性真實性評估中,GPT-4的得分比最新的GPT-3.5高40%。
5、關於使用
聊了這麼多,普通使用者要想使用上GPT-4估計還要再等等。
目前是隻有ChatGPT Plus付費訂閱會員才可以試用GPT-4,且試用階段每四小時最多發100條資訊。
而且目前來說,使用者依然只能發出純文字資訊,像影像等一些視覺輸入功能估計後續才會放開使用。
目前OpenAI僅僅是開放了GPT-4 API的申請通道。
使用者如果想要使用的話,可以先提申請加入waitlist列表等待透過。
6、關於GPT-4論文
關於GPT-4釋出的細節和技術,官方也給出了一個pdf版本的詳細技術報告,有興趣的小夥伴可以自行檢視。
總而言之,這兩天看到太多有關GPT-4的資訊,不知道為啥心裡總有一種說不出來的感覺。
我不知道怎麼樣去描述這種感受,但是我想起來之前發的一篇文章評論區一位小夥伴的留言:
“突然感覺向未來邁出了一步是怎麼回事”
好了,今天的分享就先到這裡吧,我們下期見。