AIxiv專欄是機器之心釋出學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報導了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯絡報導。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
以 GPT 為代表的大型語言模型預示著數字認知空間中通用人工智慧的曙光。這些模型透過處理和生成自然語言,展示了強大的理解和推理能力,已經在多個領域展現出廣泛的應用前景。無論是在內容生成、自動化客服、生產力工具、AI 搜尋、還是在教育和醫療等領域,大型語言模型都在不斷推動技術的進步和應用的普及。然而,要推動通用人工智慧向探索物理世界邁進,第一步便是解決視覺理解問題,即多模態理解大模型。多模態理解讓人工智慧能夠像人類一樣,透過多種感官獲取和處理資訊,從而更全面地理解和互動世界。這一領域的突破將使人工智慧在機器人、自動駕駛等方面取得更大的進展,真正實現從數字世界到物理世界的跨越。去年 6 月 GPT-4V 釋出,但相較於大型語言模型,多模態理解模型的發展顯得較為緩慢,尤其是在中文領域。此外,不同於大語言模型的技術路線和選型相對確定,業界對於多模態模型的架構和訓練方法的選型還沒有完全形成共識。近期,騰訊混元推出了基於 MoE 架構的多模態理解大模型。該模型在架構、訓練方法和資料處理方面進行了創新和深度最佳化,顯著提升了其效能,並能支援任意長寬比及最高 7K 解析度圖片的理解。與大部分多模態模型主要在開源基準測試中進行調優不同,騰訊混元多模態模型更加註重模型的通用性、實用性和可靠性,具備豐富的多模態場景理解能力。在近期釋出的中文多模態大模型 SuperCLUE-V 基準評測中(2024 年 8 月),騰訊混元斬獲國內排名第一,超越了多個主流閉源模型。騰訊混元語言大模型,在國內率先採用混合專家模型 (MoE) 架構,模型總體效能相比上一代提升 50%,部分中文能力已追平 GPT-4o,在 “時新” 問題的回答表現上,數學、推理等能力上均有較大提升。早在今年年初,騰訊混元就將該模型應用於騰訊元寶。騰訊混元認為,能夠解決海量通用任務的 MoE 架構,也是多模態理解場景的最佳選擇。MoE 能夠更好地相容更多模態和任務,確保不同模態和任務之間是互相促進而非競爭的關係。依託騰訊混元語言大模型的能力,騰訊混元推出了基於MoE架構的多模態理解大模型,在架構、訓練方法和資料處理方面進行了創新和深度最佳化,效能得到顯著提升。這也是國內首個基於MoE架構的多模態大模型。除了採用 MoE 架構外,騰訊混元多模態模型的設計還遵循簡單、合理、可規模化的原則:- 支援原生任意解析度:與業界主流的固定解析度或切子圖方法相比,騰訊混元多模態模型能夠處理原生任意解析度的圖片,實現了首個支援超過 7K 解析度和任意長寬比(例如 16:1,見下文例子)圖片理解的多模態模型。
- 採用簡單的 MLP 介面卡:相較於此前主流的 Q-former 介面卡,MLP 介面卡在資訊傳遞過程中損失更小。
這種力求簡單的設計,使得模型和資料更容易擴充套件和規模化。2024 年 8 月,SuperCLUE 首次釋出了多模態理解評測榜單 ——SuperClue-V。SuperCLUE-V 基準包括基礎能力和應用能力兩個大方向,以開放式問題形式對多模態大模型進行評估,包含 8 個一級維度 30 個二級維度。在此次評測中,混元多模態理解系統 hunyuan-vision 取得了 71.95 得分,僅次於 GPT-4o。在多模態應用方面,hunyuan-vision 領先於 Claude3.5-Sonnet 和 Gemini-1.5-Pro。值得注意的是,業界此前的多模態評測多集中於英文能力,評測題目型別大多為選擇題或判斷題。而 SuperCLUE-V 評測更側重於中文能力評測,關注使用者的真實問題。此外,由於是首次釋出,尚未出現過擬合現象。騰訊混元圖生文大模型在通用場景、影像 OCR 識別理解和中文元素理解推理等多個維度上顯示了不錯的效能,也體現了模型在未來應用上的潛力。混元多模態理解模型面向通用場景和海量應用進行了最佳化,積累了數千萬相關問答語料,涵蓋圖片基礎理解、內容創作、推理分析、知識問答、OCR 文件解析、學科答題等眾多場景。以下是一些典型應用例項。解釋一段程式碼:
分析賬單:
描述圖片內容:
做數學題:
根據圖片內容,進行分析:
幫你寫文案:
目前騰訊混元多模態理解大模型已在 AI 助手產品騰訊元寶上線,並透過騰訊雲面向企業及個人開發者開放。
騰訊元寶地址:https://yuanbao.tencent.com/chat