全球140+大模型全方位評測結果出爐,智源評測體系釋出

机器之心發表於2024-05-18

2024 年 5 月 17 日,智源研究院舉辦大模型評測釋出會,正式推出科學、權威、公正、開放的智源評測體系,釋出並解讀國內外 140 餘個開源和商業閉源的語言及多模態大模型全方位能力評測結果。

本次智源評測,分別從主觀、客觀兩個維度考察了語言模型的簡單理解、知識運用、推理能力、數學能力、程式碼能力、任務解決、安全與價值觀七大能力;針對多模態模型則主要評估了多模態理解和生成能力。

在中文語境下,國內頭部語言模型的綜合表現已接近國際一流水平,但存在能力發展不均衡的情況。在多模態理解圖文問答任務上,開閉源模型平分秋色,國產模型表現突出。國產多模態模型在中文語境下的文生圖能力與國際一流水平差距較小。多模態模型的文生影片能力上,對比各家公佈的演示影片長度和質量,Sora 有明顯優勢,其他開放評測的文生影片模型中,國產模型 PixVerse 表現優異。

由於安全與價值觀對齊是模型產業落地的關鍵,但海外模型與國內模型在該維度存在差異,因此語言模型主客觀評測的總體排名不計入該單項分數。語言模型主觀評測結果顯示,在中文語境下,位元組跳動豆包 Skylark2、OpenAI GPT-4 位居第一、第二,國產大模型更懂中國使用者。在語言模型客觀評測中,OpenAI GPT-4、百川智慧 Baichuan3 位列第一、第二。百度文心一言 4.0、智譜華章 GLM-4 和月之暗面 Kimi 均進入語言模型主客觀評測前五。

圖片

多模態理解模型客觀評測結果顯示,圖文問答方面,阿里巴巴通義 Qwen-vl-max 與上海人工智慧實驗室 InternVL-Chat-V1.5 先後領先於 OpenAI GPT-4,LLaVA-Next-Yi-34B 和上海人工智慧實驗室 Intern-XComposer2-VL-7B 緊隨其後。

圖片

多模態生成模型文生圖評測結果顯示,OpenAI DALL-E3 位列第一,智譜華章 CogView3、Meta-Imagine 分居第二、第三,百度文心一格、位元組跳動 doubao-Image 次之。多模態生成模型文生影片評測結果顯示,OpenAI Sora、Runway、愛詩科技 PixVerse、Pika、騰訊 VideoCrafter-V2 位列前五。

圖片

圖注:文生圖模型的客觀評測指標與主觀感受差異巨大,有失效的跡象,因此排名以主觀評測為準;Mdjourney 基本無法理解中文提示詞,因此排名靠後;僅使用其官方公佈的 prompts 和影片片段與其他模型生成的影片進行對比評測,評測結果存在一定的偏差。

首次聯合權威教育機構進行大模型 K12 學科測試

當前,大模型的發展具備了通用性,在邏輯推理能力上有顯著提升,日趨接近人腦的特徵。因此,在海淀區教委支援下,智源研究院聯合與海淀區教師進修學校對齊學生測驗方式,考察大模型與人類學生的學科水平差異,其中,答案不唯一的主觀題,由海淀教師親自評卷。

圖片

智源評測發現,模型在綜合學科能力上與海淀學生平均水平仍有差距,普遍存在文強理弱的情況,並且對圖表的理解能力不足,大模型未來有很大的提升空間。

圖片

北京市海淀區教師進修學校校長姚守梅解讀大模型 K12 學科測試結果時指出,在語文、歷史等人文學科的考試中,模型欠缺對文字背後的文化內涵以及家國情懷的理解。面對歷史地理綜合題時,模型並不能像人類考生一樣有效識別學科屬性。相較於簡單的英語題,模型反而更擅長複雜的英語題。解理科題目時,模型會出現以超出年級知識範圍外的方法解題的情況。當出現無法理解的考題時,模型依然存在明顯的 “幻覺”。

系統化構建文生影片模型主觀評價體系

中國傳媒大學智慧媒體計算實驗室負責人史萍教授表示,相較文字,影片的主觀評價複雜度極高。自動化指標無法完全捕捉模型生成的質量,更無法對生成影片的真實性、圖文語義一致性等進行量化。因此,需要系統化構建針對文生影片模型的主觀評價體系。

圖片

該評價體系,由智源研究院與中國傳媒大學基於雙方在大模型評測領域和影片質量評價領域的豐富科研成果與實踐經驗共同建立,在圖文一致性、真實性、影片質量、美學質量四大方面給出多維度評分,為 AIGC 影片生成技術的應用及發展提供參考。

科學權威公正開放的智源評測體系

依託科技部 “人工智慧基礎模型支撐平臺與評測技術” 和工信部 “大模型公共服務平臺” 專案,智源研究院與 10 餘家高校和機構聯合開展大模型評測方法與工具研發。

2023 年 6 月,由智源研究院與多個高校團隊共建的 FlagEval 大模型評測平臺上線,迄今為止已完成了 1000 多次覆蓋全球多個開源大模型的評測,並持續釋出評測結果,廣泛地積累了國際領先的評測技術。

智源研究院牽頭成立了 IEEE 大模型評測標準小組 P3419,組織 20 餘家企業及學者參與大模型標準建設,同時作為《人工智慧預訓練模型評測指標與方法》國家標準草案的共建單位,智源此次的模型評測,借鑑了該標準,採取了客觀評測統一規則與主觀評測多重校驗打分相結合的方法。其中,開源模型採用模型釋出方推薦的推理程式碼及執行環境,對所有模型統一使用業界通用的提示語,不針對模型做提示語的最佳化。

本次智源評測使用 20 餘個資料集、超 8 萬道考題,包括與合作單位共建和智源自建的多個評測資料集,如中文多模態多題型理解及推理評測資料集 CMMU、中文語義評測資料集 C-SEM、中文語言及認知主觀評測集 CLCC、面向複雜演算法程式碼生成任務的評測集 TACO、文生圖主觀評測集 Image-gen、多語言文生圖質量評測資料集 MG18、文生影片模型主觀評測集 CUC T2V prompts。

其中,主觀題 4000 餘道,均來源於自建原創未公開並保持高頻迭代的主觀評測集,嚴格校準打分標準,採取多人獨立匿名評分、嚴格質檢與抽檢相結合的管理機制,降低主觀偏差的影響。此外,為了更準確地評測語言模型的各項能力,智源專門對所有客觀資料集的子資料集進行了能力標籤對映

圖片

科學權威公正開放,是智源評測的最高綱領。智源研究院院長王仲遠表示,未來,智源將攜手生態合作伙伴繼續共建完善評測體系,促進模型效能的最佳化以及在多元複雜場景下的產業落地,推動大模型技術應用的有序發展。

相關文章