當地時間2月25日,AAAI 2025 在美國賓夕法尼亞州費城舉辦,會議為期8天,於3月4日結束。AAAI 由國際人工智慧促進協會主辦,是人工智慧領域歷史最悠久、涵蓋內容最廣泛的國際頂級學術會議之一,也是中國計算機學會(CCF)推薦的A類國際學術會議,每年舉辦一屆。AAAI 2025 共有12957篇有效投稿,錄用3032篇,錄取率為 23.4%。其中,Oral論文佔比4.6%。
AAAI 2025 收錄了多篇來自中國高校和網際網路企業的技術論文。如廈門大學資訊學院有32篇論文入選,研究方向涉及多模態、目標檢測、自動駕駛等領域。香港科技大學資料科學與分析學域有14篇論文入選,研究方向涉及大語言模型壓縮、微調,監督學習,AI影像處理等領域。快手有7篇論文入選,研究方向涉及短影片處理、影片問答技術、推薦模型等。螞蟻集團則有18篇論文入選,其中3篇入選Oral論文,研究領域涉及增強大模型隱私保護、提高推理速度與推理能力、提升大模型訓練效率、降低模型幻覺等。
這些論文中,聚焦大模型的技術最佳化和技術突破尤為引人關注。
大模型的快速及持續發展,離不開對模型所有權和資料隱私的保護。由螞蟻數科、浙江大學、利物浦大學和華東師範大學聯合完成的Oral論文《隱私-實用性可變的大模型跨域微調演算法》提出了一種全新的跨域微調(offsite-tuning)框架ScaleOT。該框架可為模型隱私提供多種不同規模的有失真壓縮的模擬器,還能促進無損微調。實驗表明,與基於知識蒸餾的方法相比,ScaleOT在多種模型上取得了12.5%的全量微調達成率提升。相較於知識蒸餾方法,ScaleOT還節省了90%的算力需求,為百億級引數模型的輕量化跨域微調提供可行方案。目前,該演算法已融入螞蟻數科旗下的摩斯大模型隱私保護產品中,併成為國內首批透過信通院大模型可信執行環境產品專項測試的產品之一。
大語言模型的飛速發展,還打破了許多自然語言處理任務間的壁壘。對於知識圖譜而言,實體作為最基本的資料單元,往往需要多個自然語言詞元才能準確描述,這導致知識圖譜與自然語言之間存在明顯的粒度不匹配。螞蟻集團和浙江大學聯合實驗室完成的另一篇Oral論文《K-ON:在大模型的輸出層堆疊知識圖譜知識》提出了一個叫K-ON的方法,其採用的多步Token預測機制不僅能一步生成對所有實體的評估結果,並且實現了適配語言模型的圖譜實體層級的對比學習,這是知識圖譜表示學習中最有力的工具之一。實驗結果表明,K-ON不僅優於傳統方法,而且在效能上也超過了那些利用額外文字和視覺資訊的多模態方法。此外,與傳統方法相比,K-ON的訓練輪數從1000輪減少到了5輪。在DB15K資料集上使用8張A100顯示卡可以在1小時內完成訓練。
記者發現,近年來,全球AI頂級會議上的“中國隊”越來越活躍。中國科學技術資訊研究所《中國科技論文統計報告 2024》顯示,中國熱點論文數世界第一(48.4%),高被引論文數世界第二(33.8%),以及電腦科學等 7 個學科論文被引次數世界第一。
“中國隊”中,網際網路企業和科技企業等“隊友”的表現引人注目。史丹佛 AIIndex2024 總結的十大趨勢顯示,當下,工業界正在主導人工智慧前沿研究。
中國的網際網路企業和科技公司,如今亦已成長為不容忽視的中國科研力量,期待由產學研聯手的“中國隊”,繼續在全球前沿科技舞臺上斬獲佳績。