新火種AI|位元組“釦子”正式加AI戰場!2024年的大模型能否實現彎道超車?

xinhuozhong發表於2024-02-07

作者:小巖

編輯:彩雲

2月1日,一直在AI領域保持靜默狀態的位元組跳動突然出現了大動作,正式推出AI聊天機器人構建平臺Coze的國內版——釦子。

 

與過往聊天機器人的形式不同,“釦子”更像是2023年11月Open AI釋出的GPTs,可以讓使用者透過聊天,呼叫外掛等方式,建立個人定製版Bot,實現“0程式碼”開發。這意味著無論使用者是否擁有程式設計經驗,都可以在“釦子”上快速建立各類聊天機器人,並一鍵釋出到不同社交媒體與訊息應用當中,諸如飛書,微信公眾號,豆包等渠道都是支援的。

如此來看,“百模大戰”並沒有因為2024年的到來而偃旗息鼓,反而還不斷湧現出新的選手。我們不禁好奇,在2024年大搞大模型,還能否有機會實現彎道超車?

釦子主打4大核心優勢,未來將聚焦AI應用層擴充。

依據官方介紹,釦子主要擁有4大核心優勢。

首先,它擁有無限擴充的能力集。目前,釦子已整合超過60款不同型別的外掛,且支援使用者自行塑造自定義外掛。使用者可以透過引數配置的方式,用已有的API能力快速打造外掛,以此讓Bot呼叫。其次,釦子覆蓋了豐富而易操作的資料來源,可以充當簡便的知識庫,幫助使用者管理資料與儲存資料。無論是龐大的本地檔案,抑或來自某些網站的實時資訊,都可以上傳到知識庫。而且,釦子具有持久化的記憶能力。可以提供便捷的AI互動資料庫記憶功能,可以持續記憶使用者對話的關鍵引數或內容。最後,釦子的靈活工作流設計也值得一提。他不僅能處理邏輯複雜,對穩定性要求較高的任務流,還可以提供多種靈活可組合的節點,包括大語言模型LLM,自定義程式碼,判斷邏輯等。不管你是否有程式設計基礎,都能透過簡單的拖拉拽方式快速搭建一個工作流。

截至目前,釦子Bot商店已經擁有了30多款不同的應用,包括工具,娛樂,諮詢,創意等類目,可以提供卡通頭像生成,簡歷診斷,文案輸出等能力。也正因此,釦子還被外界稱為是“平替版GPTs商店”。


釦子是位元組跳動旗下新部門Flow的作品。

自去年11月,位元組跳動突然成立了專注於AI創新業務的新部門Flow,並相繼釋出了豆包和Cici,如今再次強勢上線釦子,Flow可謂動作頻頻,實績不斷。

據悉,Flow由位元組跳動技術副總裁洪定坤擔任技術負責人,位元組大模型團隊負責人朱文佳擔任業務負責人。他曾在百度搜尋部擔任主任架構師,是當時百度網頁搜尋部技術副總監楊震的得力助手。外界普遍猜測,朱文佳之所以被選為Flow部門的業務負責人,就是為了幫助位元組跳動實現聚焦AI應用層的目的。值得一提的是,釦子已經成功進入了美國市場,而位元組的其他幾款產品尚未進入美國和歐洲市場。

大廠紛紛湧入,2024年的大模型賽道依然擁擠...

除了位元組下場以外,其他大廠也在摩拳擦掌,躍躍欲試。

1月21日,CEO傅盛創立的獵戶星空釋出了自己的大模型Orion-14B。傅盛強調,在企業應用場景中,獵戶星空大模型在結合企業私有資料和應用時,即可實現千億引數級別的模型效果。

而早在2023年,科大訊飛,360等企業就開始搶灘大模型賽道,並在2024年展開快速迭代。科大訊飛在近日釋出了星火大模型V 3.5,360則上線了大模型搜尋App“360 AI搜尋”。 


無獨有偶,手機廠商也紛紛湧入了大模型賽道。1月10日,榮耀釋出了自研的70億引數端側AI大模型“魔法大模型”。自此,華為,小米,OPPO,vivo,榮耀5家國產主流手機廠商在大模型領域齊聚。

2024年AI產業預判:不是大模型玩不起,只是應用更具價效比。

不管目前大模型賽道的競爭有多激烈,說到底,大家都更看重未來,都要為大模型的盡頭找條出路。2024年,對於大模型發展目標的認定,大家幾乎達成了共識:發展出殺手級別的應用。

百度創始人李彥宏就曾表示,“人類進入AI時代的標誌,不是產生很多的大模型,而是產生很多的AI原生應用”。360創始人周鴻禕也在今年年初談及大模型發展趨勢時斷言,2024年將成為大模型應用場景之年,會出現“殺手級應用”。

從某種程度上說,這也意味著,大模型與C端使用者的距離會越來越近。

還是說回李彥宏,他曾在多個重要的公開場合表達了自己對AI應用發展的看重。

 

2023年12月,在極客公園創新大會2024上,百度李彥宏給出了他對於AI行業的思考,“卷AI原生應用才有價值,大模型的進展對絕大多數人都不是機會”。

11月,在深圳西麗湖論壇上,李彥宏表示,“AI原生時代,我們需要100萬量級的AI原生應用,但是不需要100個大模型”。

為什麼李彥宏要一再強調AI原生應用才是機會所在?

在大模型領域,OpenAI,Meta,微團等早早入局,搶佔先機,所以,現在已經不是“最好的時候”。除此之外,嚴苛的晶片管制和和高昂的訓練成本也是擺在各大廠面前一道不可逾越的鴻溝。

據悉,在晶片層,美國更新出口管制,英偉達A100/800、H100/800等AI晶片被限制銷售。退一萬步講,即便晶片不受限制,大模型訓練的天量投入,同樣令人望而卻步。硬體方面,一顆A100(80GB)晶片的售價高達1.5萬美元,H100的單價更是炒到了4萬美元,而訓練一個千億級引數的大模型,通常需要上萬顆A100的算力。

而與高昂投入相對應的,是充滿不確定的變現之路。以OpenAI為例,開發 ChatGPT和GPT-4虧損了約5.4億美元,僅維持執行ChatGPT,每天就要投入大約70萬美元。但在商業化方面,今年2月,Open AI推出AI聊天機器人訂閱服務,每月收費20美元;8月又釋出了企業版ChatGPT,面向B端和G端使用者。儘管OpenAI創始人聲稱公司平均每月收入超過一億美元,但實際盈利能力如何,並沒有確切答案。

頭部AI公司尚且如此,國內這些還在暗自發力,努力向上爬的大廠自不待言。


“做出如何厲害的大模型”並不是大廠們發展AI的終極追求,如何將技術實際落地,面向C端,打造出現象級應用才是要緊事。



來自 “ ITPUB部落格 ” ,連結:https://blog.itpub.net/70035178/viewspace-3006584/,如需轉載,請註明出處,否則將追究法律責任。

相關文章