騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

新闻助手發表於2025-02-05

近日,騰訊雲TI平臺宣佈上架DeepSeek系列模型,包括“滿血”的V3、R1原版模型,引數量達到671B;以及基於DeepSeek-R1蒸餾得到的系列模型,引數規模從70B到1.5B不等。

TI平臺全面支援DeepSeek系列模型的一鍵部署。此外,為便於開發者零門檻開箱,TI平臺也限時開放了R1 模型的免費線上體驗。作為企業級機器學習平臺,TI平臺還提供模型服務管理、監控運營、資源伸縮等能力,幫助企業和開發者將DeepSeek模型高效、穩定地接入實際業務中。

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

騰訊雲TI平臺支援的DeepSeek系列模型列表

DeepSeek模型效能優異、廣受關注

DeepSeek近期在全球範圍內廣受關注,其推理模型DeepSeek-R1釋出即開源,在後訓練階段大規模使用了強化學習技術,在僅有極少標註資料的情況下,極大提升了模型推理能力。在數學、程式碼、自然語言推理等任務上,效能比肩OpenAI o1 正式版。

同時,DeepSeek-R1 遵循 MIT License,允許使用者透過蒸餾技術藉助 R1 訓練其他模型。蒸餾模型DeepSeek-R1-Distill引數規模更小,推理成本更低,基準測試同樣表現出色。

而12月釋出的通用模型DeepSeek-V3在推理速度上相較歷史模型有了大幅提升。在目前大模型主流榜單中,DeepSeek-V3在開源模型中位列榜首,與當前領域內最先進的閉源模型不分伯仲。

騰訊雲TI平臺現已全面上架DeepSeek系列模型。使用者可進入“TI平臺-大模型廣場”,點選DeepSeek系列模型卡片,瞭解模型資訊,進行線上體驗和一鍵部署。

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

在TI平臺免費體驗DeepSeek

騰訊雲TI平臺限時免費開放DeepSeek的線上體驗功能,支援 DeepSeek-R1 和 DeepSeek-R1-Distill-Qwen-1.5B 兩款模型,便於開發者直觀比較“最大杯”和“最小杯”的效能差異。進入DeepSeek系列模型頁面後,選擇上方Tab即可進入線上對話體驗頁面。

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

使用者還可以使用同一問題對上述兩款模型進行簡單對比測試。比如提問:“在我的廚房裡,有一張桌子,上面放著一個杯子,杯子裡有一個球。我把杯子移到了臥室的床上,並將杯子倒過來。然後,我再次拿起杯子,移到了主房間。現在,球在哪裡?”

DeepSeek-R1-Distill-Qwen-1.5B 的回答:

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

DeepSeek-R1的回答:

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

從回答對比可以看出,擁有更大引數量的DeepSeek-R1模型在效果上更勝一籌,其正確推理出了杯子倒扣時球會掉出並留在臥室的床上,不會隨著杯子移動至主房間。而引數量較小的DeepSeek-R1-Distill-Qwen-1.5B模型認為球仍在原來的桌子中。

對於複雜任務而言,擁有更大引數量的R1模型會更有優勢,但推理成本也會更高。更小引數的R1-Distill系列模型,響應速度更快,推理成本也會更低,在處理較為簡單的任務時仍是不錯的選擇。

在TI平臺一鍵部署專屬DeepSeek推理服務

對於需要將DeepSeek接入AI應用的開發者,TI平臺提供一鍵部署功能,可快速將DeepSeek釋出為推理服務。進入DeepSeek系列模型頁面後,選擇點選上方的“新建線上服務”按鈕,將會自動跳轉至“線上服務”模組,發起模型部署。平臺支援多種計費模式:

  • 按量計費:對於僅需短時體驗的使用者,可以直接從TIONE購買算力,並選用“按量計費”模式;
  • 包年包月:對於已購買CVM機器或需要長時間體驗的使用者,推薦選用自有的CVM機器作為推理算力。

在算力配置方面,“滿血版”DeepSeek-R1總引數量高達671B,推薦使用騰訊雲上的2臺8卡HCCPNV6機型進行服務部署,以獲得穩定業務體驗。蒸餾後的DeepSeek-R1-Distill-Qwen-1.5B模型引數量為1.5B,單張中端GPU卡即可部署服務。開發者可根據業務複雜度選擇合適的模型進行測試。

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

開發者在TI平臺完成模型部署後,可線上體驗模型效果,平臺也支援以呼叫API的方式接入AI應用。

騰訊雲TI平臺支援DeepSeek系列模型,開發者可免費體驗、一鍵部署

詳細部署和測試可參考TI平臺官網提供的實踐教程:

https://cloud.tencent.com/document/product/851/115962

TI平臺為大模型開發和運營提供一站式服務

在部署服務之外,騰訊雲TI平臺為使用者提供從資料處理、模型訓練、模型評測到模型部署的全流程支援,內建多種訓練方式和演算法框架,可以滿足不同 AI 應用場景的需求。

在資料處理層面,騰訊雲TI平臺沉澱了來自騰訊優圖實驗室的演算法專家清洗大模型訓練資料的優質Pipeline,支援開箱即用。TI平臺面向大語言模型和多模態大模型的標註工具非常靈活,基於資料集 Schema,可完全自定義工作臺,支援的大模型標註場景涵蓋所有文生文、圖生文類的場景。

在精調訓練階段,騰訊雲TI平臺內建了主流開源模型,使用者可以一鍵發起精調任務。透過硬體容錯、容器排程、任務斷點續訓的三層保障機制,平臺確保大規模訓練任務的穩定性。另外,藉助騰訊自研的Angel加速機制,騰訊雲TI平臺整體提升了訓練效能30%,不僅加快了大模型的精調過程,還有效降低了資源消耗。

在模型驗證階段,騰訊雲TI平臺還提供了一整套完善的模型評測工具,包括線上輕量體驗、客觀評測以及主觀評測。這些評測功能讓企業能夠根據實際業務需求,對模型效果進行全方位的驗證,確保在應用場景中的高效表現。

與此同時,騰訊雲TI平臺已完成對國產計算卡的適配,有效滿足了相關企業對安全性和獨立性的高標準要求。TI平臺最新支援異構算力的統一納管,實現了ARM架構和X86架構晶片伺服器算力資源可透過一個控制檯進行統一納管,在算力資源緊張的情況下,幫助客戶最大限度整合現有資源。

目前,騰訊雲TI平臺已經在金融、出行、政務、醫療、工業、零售等多個行業落地應用。透過最佳化AI 模型生產流程、提升 AI 業務運營效率,幫助企業實現降本增效。比如某自動駕駛企業藉助騰訊雲TI平臺,基於數百張 GPU 卡實現了穩定高效的自駕感知模型訓練,整體訓練效能實測提升近40%。

相關文章