近日,DeepSeek-R1、DeepSeek-V3 大模型的開源引發全球震動,經過連日攻堅,2 月 1 日,矽基流動、華為雲團隊宣佈為國內使用者獻上春節禮物:大模型雲服務平臺 SiliconCloud 首發上線基於華為雲昇騰雲服務的 DeepSeek-V3、DeepSeek-R1。 矽基流動表示,無論是在昇騰上適配 DeepSeek-R1 & V3 雙模型,還是在此前上線其他模型的過程中,其工程團隊都得到了 DeepSeek 與華為雲的大力支援,在此向他們致以深深的謝意與崇高的敬意。據介紹,SiliconCloud 上線的兩款模型主要包括五大特點:
1. 基於華為雲昇騰雲服務,首發推出了 DeepSeek x 矽基流動 x 華為雲的 R1 & V3 模型推理服務。
2. 透過雙方聯合創新,在自研推理加速引擎加持下,矽基流動團隊基於華為雲昇騰雲服務部署的 DeepSeek 模型可獲得持平全球高階 GPU 部署模型的效果。 3. 提供穩定的生產級 DeepSeek-R1 & V3 推理服務。讓開發者能夠在大規模生產環境中穩定執行,並滿足業務商用部署需求。華為雲昇騰雲服務可提供澎湃、彈性、充足的算力。 4. 零部署門檻。讓開發者更加專注於應用開發,開發應用時可直接呼叫 SiliconCloud API,帶來更輕鬆易用的使用體驗。 5. 與 DeepSeek 官方優惠期價格保持一致,SiliconCloud 上的 DeepSeek-V3 的優惠期價格(截止 2 月 8 日 24:00)為 ¥1 / M tokens(輸入)& ¥2 / M tokens (輸出),DeepSeek-R1 的價格為 ¥4 / M tokens(輸入)& ¥16 / M tokens (輸出)。 線上體驗
DeepSeek-R1:r1.siliconflow.cn
DeepSeek-V3:v3.siliconflow.cnAPI 文件
docs.siliconflow.cn/api-reference
開發者朋友可以感受一下 SiliconCloud 上的 DeepSeek-R1 & V3 在國產晶片上加速後的效果。更快的輸出速度還在持續最佳化中。
想要直接在客戶端應用裡體驗 DeepSeek-R1 & V3 模型,人們可在本地安裝以下產品,接入 SiliconCloud 的 API 後(可自定義新增這兩款模型),即可體驗 DeepSeek-R1 & V3。 - 大模型客戶端應用:ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat
- 程式碼生成應用:Cursor、Windsurf、Cline
- AI 知識庫:Obsidian AI、FastGPT
更多場景與應用案例接入教程可參考:https://docs.siliconflow.cn/usercases/awesome-user-cases
作為一站式大模型雲服務平臺,SiliconCloud 致力於為開發者提供極速響應、價格親民、品類齊全、體驗絲滑的模型 API。
除了 DeepSeek-R1、DeepSeek-V3,SiliconCloud 已上架包括 Janus-Pro-7B、CosyVoice2、QVQ-72B-Preview、DeepSeek-VL2、DeepSeek-V2.5-1210、Llama-3.3-70B-Instruct、HunyuanVideo、fish-speech-1.5、Qwen2.5-7B/14B/32B/72B、FLUX.1、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、GLM-4-9B-Chat 在內的數十種開源大語言模型、圖片/影片生成模型、語音模型、程式碼/數學模型以及向量與重排序模型。平臺支援開發者自由對比、組合各種模態的大模型,可為生成式 AI 應用選擇最佳實踐。 其中,Qwen2.5(7B)、Llama3.1(8B)等 20+ 大模型 API 免費使用,讓開發者與產品經理無需擔心研發階段和大規模推廣所帶來的算力成本,實現“Token 自由”。