GPT-4,終於來了!

CodeSheep發表於2023-03-17

就在昨天凌晨,OpenAI釋出了多模態預訓練大模型GPT-4。

這不昨天一覺醒來,GPT-4都快刷屏了,不管是在朋友圈還是網路上都看到了很多資訊和文章。

GPT是Generative Pre-trained Transformer的縮寫,也即生成型預訓練變換模型的意思。

OpenAI在公告中寫道,GPT-4是一個多模態大模型,也是OpenAI努力擴充套件深度學習最新的里程碑。

OpenAI的CEO也說這是他們到目前為止功能最強大的模型。

相信這兩天大家在網路上看到的資訊比較多也比較雜,關於GPT-4,我們這裡也總結了幾個比較關鍵的點

1、支援視覺輸入

GPT-4擁有多模態能力,現在可以接受影像輸入並理解影像內容,這也是這次釋出比較有吸引力的一個點。

比如官方給出了一個示例,給出一幅圖,手套掉下去會怎麼樣?

GPT-4可以理解並輸出給到:它會掉到木板上,並且球會被彈飛。

再比如給GPT-4一個長相奇怪的充電器圖片,問為什麼這很可笑?

GPT-4回答道,VGA 線充 iPhone。

另外GPT-4也可以識別與解析圖片內容,比如直接將論文截圖後丟給GPT-4,它就可以自動對其進行理解和分析。

使用者甚至還可以直接畫一個網站草圖拍照丟給GPT-4,它就可以立馬幫助生成程式碼。

2、文字輸入限制提升

GPT-4的文字輸入限制進一步提升,得益於此,GPT-4的實用性也進一步擴充套件。比如釋出會直播上OpenAI總裁現場演示了一波GPT-4給程式碼修Bug。

使用者可以直接把萬字的程式文件丟給GPT-4等著解決方法。

3、效能提升

在正常的對話過程中,對於GPT-3.5和GPT-4之間的區別感知可能很微妙,但是當處理一些複雜輸入時GPT-4的優勢會更明顯。

團隊表示,GPT-4在各種專業測試和學術基準上的表現與人類水平相當,其中一個資料就是它透過了模擬律師考試,且分數在應試者的前10%左右,而此前釋出的GPT-3.5,則處於倒數10%的行列。

OpenAI也在那些為機器學習模型設計的傳統基準上評估了GPT-4。從實驗結果來看,GPT-4 大大優於現有的大型語言模型,以及大多數SOTA模型。

4、依然有限制性

儘管這次釋出的GPT-4表現出了很強大的能力,但是官方依然表示GPT-4與早期的GPT模型具有相似的侷限性,並不是絕對可靠。

官方表示使用這些語言模型時還是要謹慎審查其輸出內容,必要時使用與特定用例的需求相匹配的確切協議(例如人工審查、附加上下文或完全避免高風險場景下的使用) 。

GPT-4仍然可能會產生幻覺、生成錯誤答案,並出現推理錯誤,所以團隊這也是提前給打了一個預防針。

雖然這仍然是一個問題,但GPT-4相較於於以前的模型顯著減少了“幻覺”。在內部的對抗性真實性評估中,GPT-4的得分比最新的GPT-3.5高40%。

5、關於使用

聊了這麼多,普通使用者要想使用上GPT-4估計還要再等等。

目前是隻有ChatGPT Plus付費訂閱會員才可以試用GPT-4,且試用階段每四小時最多發100條資訊。

而且目前來說,使用者依然只能發出純文字資訊,像影像等一些視覺輸入功能估計後續才會放開使用。

目前OpenAI僅僅是開放了GPT-4 API的申請通道。

使用者如果想要使用的話,可以先提申請加入waitlist列表等待透過。

6、關於GPT-4論文

關於GPT-4釋出的細節和技術,官方也給出了一個pdf版本的詳細技術報告,有興趣的小夥伴可以自行檢視。

總而言之,這兩天看到太多有關GPT-4的資訊,不知道為啥心裡總有一種說不出來的感覺。

我不知道怎麼樣去描述這種感受,但是我想起來之前發的一篇文章評論區一位小夥伴的留言:

“突然感覺向未來邁出了一步是怎麼回事”

好了,今天的分享就先到這裡吧,我們下期見。

相關文章