🔥What?廢柴, 還在本地部署 DeepSeek 嗎?Are you kidding?

北京-宏哥發表於2025-02-18

前言

DeepSeek 推出更強大的推理模型 DeepSeek R1 後一發不可收拾,迅速火遍全球,使用者暴增,但巨大的流量以及一些不可控因素,DeepSeek 官網變得極不穩定,經常出現 “網路繁忙”。

最近,各大廠商包括阿里在內的各種大模型應用紛紛接入 DeepSeek,一方面為自己的使用者提供更加極致的體驗,另一方面也為 “Deepseek 難民” 提供了又快又穩的新通道。

就在近日,國內知名的廠商阿里雲宣佈接入 DeepSeek-R1,具體版本是 “DeepSeek R1 671B”,這可是 DeepSeek-R1 的聯網滿血版本,雙核驅動效果 1+1>2,體驗上比原版更勝一籌。四種方案讓你零門檻,即刻擁有 DeepSeek-R1 滿血版。趁熱乎感覺挑選一個適合自己的方案來嚐嚐鮮吧!

產品介紹 DeepSeek 是熱門的推理模型,能在少量標註資料下顯著提升推理能力,尤其擅長數學、程式碼和自然語言等複雜任務。 本方案涵蓋雲上呼叫滿血版 DeepSeek 的 API 及部署各尺寸模型的方式,無需編碼,最快 5 分鐘、最低 0 元即可部署實現。 解決方案連結: https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616

1.一睹為快(四種方案)

先跟隨宏哥一起來看看有那四種方案,如下圖所示:

透過上圖我們都大致瞭解了,有這四種解決方案。那接下來跟隨宏哥的腳步來逐個體驗一下吧!

2.二嘗為鮮

2.1 方案一:基於百鍊 API 呼叫滿血版(開箱即用)

2.1.1 準備賬號

  1. 如果您還沒有阿里雲賬號,請訪問阿里雲賬號註冊頁面,根據頁面提示完成註冊。
  2. 如果是首次使用阿里雲百鍊,請先開通百鍊模型服務,登入阿里雲百鍊大模型服務平臺,根據下圖提示進行開通,進行備用,如下圖所示:

如果頂部顯示如下訊息,您需要開通百鍊的模型服務,以獲得免費額度。

image

百鍊平臺透過 API 呼叫 DeepSeek 系列模型的方法 。其中 deepseek-r1 與 deepseek-v3 分別有 100 萬的免費 Token,部分蒸餾模型限時免費體驗。

這裡只推薦使用 deepseek-r1 與 deepseek-v3,其他效果略差。有人會問,你都沒有試用了,怎麼知道呢?呵呵,看價格啊,就知道了。如下圖所示:

2.1.2 獲取百鍊 API-KEY

  1. 登入阿里雲百鍊大模型服務平臺
  2. 滑鼠懸停於頁面右上角的image圖示上,在下拉選單中單擊API-KEY。如下圖所示: 6EB46A~1
  3. 在左側導航欄,選擇全部 API-KEY 或我的 API-KEY,然後建立或檢視 API-KEY,最後複製 API-KEY 以便在下一步驟中使用。

2.1.3 使用 Chatbox 客戶端配置 百鍊 API 進行對話

  1. 訪問 Chatbox 下載地址下載並安裝客戶端,本方案以 macOS 為例,如下圖所示: image
  2. 執行並配置百鍊 API ,單擊設定,如下圖所示: image
  3. 在彈出的看板中按照如下表格進行配置,如下圖所示:

| 專案 | 說明 | 示例值 |
| ---------------- | ------------------------------------------------------------------------------- | --------------------------------------------------------- |
| 模型提供方 | 下拉選擇模型提供方。 | 新增自定義提供方 |
| 名稱 | 填寫定義模型提供方名稱。 | 百鍊 API |
| API 域名 | 填寫模型服務呼叫地址。 | https://dashscope.aliyuncs.com/compatible-mode/v1 |
| API 路徑 | 填寫模型服務呼叫路徑。 | /chat/completions |
| API 金鑰 | 填寫模型服務呼叫 API 金鑰。 | 填寫 上一步驟獲取的百鍊 API-KEY |
| 模型 | 填寫呼叫的模型(本方案以 deepseek-r1 模型為例,可自行配置其它模型進行體驗)。 | deepseek-r1 |

  1. 最終配置如下圖所示,然後單擊儲存,如下圖所示:

image

  1. 在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應,如下圖所示: image

到此,第一種方案就已經體驗完成,是不是很簡單,不到五分鐘就完事了。

2.2 方案二:基於人工智慧平臺 PAI 部署

2.2.1 準備賬號

  1. 如果您還沒有阿里雲賬號,請訪問阿里雲賬號註冊頁面,根據頁面提示完成註冊。

2.2.2 部署 DeepSeek-R1 模型

Model Gallery 整合了眾多 AI 開源社群中優質的預訓練模型,方便使用者快速選擇和應用所需模型。在 Model Gallery 中選中合適的模型並點選部署,系統將觸發 PAI-EAS 的部署流程。PAI-EAS 支援將模型服務部署在公共資源組或專屬資源組,實現基於異構硬體(如 CPU 和 GPU )的模型載入和資料請求的實時響應。

  1. 登入PAI 控制檯,首次登入需要開通服務,選擇暫不繫結 OSS Bucket 至 PAI 預設工作空間,然後點選一鍵開通按鈕,如下圖所示: image
  2. 開通成功後,點選進入控制檯按鈕,如下圖所示: image
  3. 在工作空間頁面的左側導航欄選擇 Model Gallery,如下圖所示: image
  4. 在搜尋框中輸入DeepSeek-R1,在搜尋結果中選擇DeepSeek-R1-Distill-Qwen-7B,如下圖所示: image
  5. 點選DeepSeek-R1-Distill-Qwen-7B 進入模型詳情頁,然後點選右上角部署按鈕,如下圖所示: image
  6. 在彈出的部署皮膚中,部署方式選擇加速部署,加速方式選擇vLLM,資源規格選擇推薦使用 GPU:ml.gu7i.c8m30.1-gu30,如下圖所示: image

說明:如果當前地域的資源不足,您還可以選擇 V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)型別的資源規格

  1. 其餘配置項保持預設不變,點選左下角部署按鈕。彈窗提示計費提醒,點選確定按鈕,如下圖所示: image
  2. 部署完成後,如下圖所示: image
  3. 單擊檢視呼叫資訊,在彈出的看板中選擇公網地址呼叫,複製儲存訪問地址和 Token ,如下圖所示: image

2.2.3 使用 Chatbox 客戶端配置 vLLM API 進行對話

  1. 訪問 Chatbox 下載地址下載並安裝客戶端,本方案以 macOS 為例,如下圖所示: image
  2. 執行並配置 vLLM API ,單擊設定,如下圖所示: image
  3. 在彈出的看板中按照如下表格進行配置,如下圖所示:

| 專案 | 說明 | 示例值 |
| ---------------- | ----------------------------- | ---------------------------------- |
| 模型提供方 | 下拉選擇模型提供方。 | 新增自定義提供方 |
| 名稱 | 填寫定義模型提供方名稱。 | PAI DeepSeek-R1 |
| API 域名 | 填寫模型服務呼叫地址。 | 前面步驟獲取的呼叫資訊,訪問地址 |
| API 路徑 | 填寫 API 路徑。 | /v1/chat/completions |
| API 金鑰 | 填寫模型服務呼叫 API 金鑰。 | 前面步驟獲取的呼叫資訊,Token |
| 模型 | 填寫呼叫的模型。 | DeepSeek-R1-Distill-Qwen-7B |

  1. 最終配置如下圖所示,然後單擊儲存,如下圖所示:

image

  1. 在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應,如下圖所示: image

2.2.4PAI-EAS 管理模型服務

  1. 點選PAI 控制檯左側導航欄中的模型線上服務 (EAS) 可以看到當前部署的服務,如下圖所示: image
  2. 點選服務名稱,進入服務詳情頁。透過 PAI-EAS 可以全面管理模型服務,包括但不限於檢視服務狀態、線上除錯服務、擴縮容例項,以及實時監控服務效能。 image

2.2.5 清理資源(牢記)

若不用於生產環境,建議在體驗後按提示清理資源,避免繼續產生費用。

  1. 刪除 1 個 PAI-EAS 模型服務:點選PAI 控制檯左側導航欄中的模型線上服務 (EAS)。找到目標服務,單擊右側操作列的刪除,如下圖所示: image

2.3 基於函式計算 FC 一鍵部署

2.3.1 準備賬號

  1. 如果您還沒有阿里雲賬號,請訪問阿里雲賬號註冊頁面,根據頁面提示完成註冊。

2.3.2 開通函式計算服務

  1. 訪問函式計算首頁
  2. 單擊管理控制檯,然後單擊立即購買即可自動開通服務,進入函式計算控制檯說明
  • 建議您使用阿里雲賬號開通服務,RAM 使用者使用服務。
  • 如果您之前已開透過函式計算服務,頁面將直接跳轉至函式計算控制檯
    1. 可選:首次登入使用者,介面彈出推薦您建立 AliyunFcDefaultRole 預設角色對話方塊,單擊建立,頁面跳轉至角色快捷建立頁面,為您的賬號建立預設角色AliyunFCDefaultRole。

2.3.3 部署 DeepSeek-R1 模型

  1. 請點選前往部署開啟我們提供的雲原生應用開發平臺 CAP 專案模板,本方案地域以華北 2(北京)為例,其他引數選擇預設配置,直接單擊部署專案,最後在彈出皮膚中單擊確認部署,部署預計等待 10~12 分鐘。如下圖所示:
  2. 首次使用雲原生應用開放平臺 CAP 會自動跳轉到訪問控制快速授權頁面,滾動到瀏覽器底部單擊確認授權,等待授權結束後單擊返回控制檯。
  3. 部署完成後,類似下圖所示: image

2.3.4 訪問示例應用

  1. 應用部署完成之後按照下圖找到訪問地址,如下圖所示: image
  2. 點選訪問地址,即可開啟示例應用,如下圖所示: image

2.3.5 與模型對話

1.在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應,如下圖所示:

image

2.3.6 修改 Ollama 模型服務配置(可選)

1.按照下圖所示,透過修改模型服務預留例項數的配置,來實現例項伸縮,如下圖所示:

image

2.3.7 使用 Chatbox 客戶端配置 Ollama API 進行對話(可選)

  1. 獲取 API 接入地址,按照下圖所示,複製訪問地址。 image
  2. 訪問 Chatbox 下載地址下載並安裝客戶端,本方案以 macOS 為例,如下圖所示: image
  3. 執行並配置 Ollama API ,單擊設定。 image
  4. 下拉選擇模型提供方Ollama API,填寫 API 域名(步驟 1 中獲取的訪問地址),下拉選擇模型cap-deepseek-r1:latest,最後單擊儲存,如下圖所示:

image

  1. 在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應,如下圖所示: image

2.3.8 清理資源(牢記)

在本方案中,您建立了 1 個雲原生應用開發平臺 CAP 專案,測試完方案後,您可以參考以下規則處理對應產品的例項,避免繼續產生費用:

  1. 刪除雲原生應用開發平臺 CAP 專案: 登入雲原生應用開發平臺 CAP 控制檯,在左側導航欄,選擇專案,找到部署的目標專案,在操作列單擊刪除,然後根據頁面提示刪除專案。 image

2.4 基於 GPU 雲伺服器部署

2.4.1 準備賬號

  1. 如果您還沒有阿里雲賬號,請訪問阿里雲賬號註冊頁面,根據頁面提示完成註冊。

2.4.2 建立專有網路 VPC 和交換機

您需要建立專有網路 VPC 和交換機,為雲伺服器 ECS 例項構建雲上的私有網路。

  1. 登入專有網路管理控制檯
  2. 在頂部選單欄,選擇華東 1(杭州)地域。
  3. 在左側導航欄,單擊專有網路。
  4. 專有網路頁面,單擊建立專有網路。
  5. 建立專有網路頁面,配置 1 個專有網路和 1 臺交換機。配置交換機時,請確保交換機所屬的可用區的 ECS 處於可用狀態。 | 專案 | 說明 | 示例值 | | ------------ | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------- | | VPC 名稱 | 建議您在部署過程中新建一個 VPC 作為本方案的專有網路。部署過程中填寫 VPC 名稱即可建立對應名稱的 VPC。長度為 2~128 個字元,以英文大小寫字母或中文開頭,可包含數字、下劃線()和連字元(-)。 | VPC_HZ | | IPv4 網段 | 在建立 VPC 時,您必須按照無類域間路由塊(CIDR block)的格式為您的專有網路劃分私網網段。阿里雲 VPC 支援的網段資訊請參見專有網路組成部分。 | 192.168.0.0/16 | | 交換機名稱 | 建議您在部署過程中在新建的 VPC 內建立虛擬交換機。部署過程中填寫交換機名稱即可建立對應名稱的虛擬交換機。長度為 2~128 個字元,以英文大小寫字母或中文開頭,可包含數字、下劃線()和連字元(-)。 | vsw | | 可用區 | 建議選擇排序靠後的,一般此類可用區較新。新可用區資源更充沛,新規格也會在新的可用區優先上線。 | 杭州 可用區 J |

2.4.3 建立安全組

您已經建立了專有網路 VPC 和交換機。接下來您需要建立 1 個安全組,用於限制該專有網路 VPC 下交換機的網路流入和流出。

  1. 登入ECS 管理控制檯
  2. 在左側導航欄,選擇網路與安全>安全組。
  3. 在頂部選單欄,選擇華東 1(杭州)地域。
  4. 安全組頁面,單擊建立安全組。
  5. 建立安全組頁面,建立 1 個安全組。 | 專案 | 說明 | 示例值 | | ------------ | ------------------------------------------------------------------------------ | ---------------------------------- | | 名稱 | 設定安全組的名稱。 | sg | | 網路 | 選擇之前規劃的專有網路 VPC。 | VPC_HZ | | 安全組型別 | 本方案用於為個人使用者或組織的基礎場景提供網路訪問控制,建議您選擇普通安全組。 | 普通安全組 | | 入方向 | 本方案需要確保 22、8000、8080 埠號開啟。 | 2280008080 |

2.4.4 建立 GPU 雲伺服器

您已經建立好專有網路 VPC 和交換機等資源。接下來您需要建立 1 臺 GPU 雲伺服器例項,用於部署應用程式。

  1. 登入ECS 管理控制檯
  2. 在左側導航欄,選擇例項與映象 > 例項。
  3. 在頂部選單欄,選擇華東 1(杭州)地域。
  4. 例項頁面,單擊建立例項。
  5. 下表中未說明的引數,在本方案中可使用預設值。 | 專案 | 說明 | 示例值 | | ------------------------------------------------------------------------------------------------------------ | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------- | | 付費型別 | 付費型別影響例項的計費和收費規則。ECS 計費的詳細資訊請參見計費方式概述。 | 按量付費 | | 地域 | 例項所在地域 | 華東 1(杭州) | | 網路及可用區 | 選擇剛剛建立的專有網路 VPC 和交換機。 | VPC_HZ、vsw | | 例項 | ECS 的例項規格及核心、vCPU 數量。關於 ECS 選型的最佳實踐請參見例項規格選型指導。說明建議選擇配備 24GB 及以上 GPU 視訊記憶體的例項,例如 ecs.gn7i-c16g1.4xlarge、ecs.gn7i-c8g1.2xlarge。 | ecs.gn7i-c32g1.8xlarge | | 映象 | ECS 的 “裝機盤”,為 ECS 例項提供作業系統、預裝軟體等。 | 在公共映象中選擇Alibaba Cloud Linux | | 映象版本 | 映象的版本。 | Alibaba Cloud Linux 3.2104 LTS 64 位 | | 安裝 GPU 驅動 image | 勾選安裝 GPU 驅動,在下拉選單中選擇CUDA 版本 12.4.1 / Driver 版本 550.127.08 / CUDNN 版本 9.2.0.82 | | 系統盤型別 | 硬碟型別。 | ESSD 雲盤 | | 系統盤容量 | 硬碟容量。 | 100 GiB | | 公網 IP | 訪問公網並對外提供網路服務。 | 選中分配公網 IPv4 地址 | | 頻寬計費方式 | 由於本方案為解決方案示例,因此選擇按使用流量,以節省流量成本。 | 按使用流量(CDT) | | 頻寬值 | 本方案以 10 Mbps 為例。 | 10 Mbps | | 安全組 | 使用之前建立的安全組。選擇已有安全組。 | sg | | 管理設定 | 選擇設定自定義密碼,方便後續登入機器安裝服務環境。 | 自定義密碼 |

2.4.5 登入伺服器

  1. 登入 ECS 管理控制檯
  2. 在左側導航欄,選擇例項與映象>例項。
  3. 在頂部選單欄,選擇華東 1(杭州)地域。
  4. 部署示例應用程式。
    1. 例項頁面,找到前面步驟中建立的 ECS 例項,檢視IP 地址列,記錄公網 IP ,然後在其右側操作列,單擊遠端連線。
    2. 遠端連線對話方塊的透過 Workbench 遠端連線區域,單擊立即登入,然後根據頁面提示登入。
  5. 輸入密碼並點選確定按鈕,透過 Workbench 遠端連線至 ECS 控制檯。
  6. 如圖所示 GPU 驅動尚未完成安裝,請等待 10-20 分鐘,安裝完成後例項將自動重啟,如下圖所示: image
  7. 驅動安裝完成如下圖所示,請重新整理頁面重新連線至 ECS 控制檯,如下圖所示: image

2.4.6 部署模型

  1. 執行以下命令等待部署完成,如下圖所示:

/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
  1. 如下圖所示,說明模型部署完成,複製儲存好 vLLM API TOKEN ,如下圖所示: image

2.4.7 訪問示例應用

在瀏覽器中訪問http://<ECS公網IP>:8080,訪問 Open WebUI,如下圖所示:

說明:請將 更改為應用部署步驟記錄的公網 IP。

image

2.4.8 與模型對話

在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應,如下圖所示:

image

2.4.9 使用 Chatbox 客戶端配置 vLLM API 進行對話(可選)

  1. 訪問 Chatbox 下載地址下載並安裝客戶端,本方案以 macOS 為例,如下圖所示: image
  2. 執行並配置 vLLM API ,單擊設定,如下圖所示: image
  3. 在彈出的看板中按照如下表格進行配置。
    | 專案 | 說明 | 示例值 |
    | ---------------- | ----------------------------- | ------------------------------- |
    | 模型提供方 | 下拉選擇模型提供方。 | 新增自定義提供方 |
    | 名稱 | 填寫定義模型提供方名稱。 | vLLM API |
    | API 域名 | 填寫模型服務呼叫地址。 | http://:8000 |
    | API 路徑 | 填寫 API 路徑。 | /v1/chat/completions |
    | API 金鑰 | 填寫模型服務呼叫 API 金鑰。 | 前面步驟獲取的呼叫資訊,Token |
    | 模型 | 填寫呼叫的模型。 | DeepSeek-R1-Distill-Qwen-7B |

  4. 最終配置如下圖所示,然後單擊儲存,如下圖所示:
    image

  5. 在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應。
    image

2.4.10 清理資源(牢記)

若不用於生產環境,建議在體驗後按提示清理資源,避免繼續產生費用。

  1. 釋放 1 臺 GPU 雲伺服器例項:登入ECS 控制檯,在例項頁面,找到目標例項,然後在操作列選擇216更多-豎向..png>釋放,根據介面提示釋放例項。
  2. 刪除 1 個安全組:登入ECS 控制檯,在安全組頁面,選擇目標安全組,然後在操作列單擊刪除。
  3. 釋放 1 臺交換機:登入專有網路控制檯,在交換機頁面,找到目標交換機,然後在操作列單擊刪除,按照介面提示釋放例項。
  4. 釋放 1 個專有網路 VPC:登入專有網路控制檯,在專有網路頁面,找到目標 VPC,然後在操作列單擊刪除,按照介面提示釋放例項。

以上是我根據官方文件實踐的過程和部分截圖,總體感覺還行。

3.DeepSeek 模型部署解決方案評測報告

3.1 部署文件準確性檢查

在按照【零門檻、輕鬆部署您的專屬 DeepSeek 模型】解決方案的部署文件進行操作時,步驟指引準確,邏輯清晰。在函式計算、模型線上服務以及百鍊模型服務的開透過程中,未遇到報錯或異常,整體流程順暢。

3.2 引導與文件幫助評價

部署過程中,文件提供了詳盡的步驟說明和截圖指引,對於初次使用者來說非常友好。然而,在部分高階配置選項的說明上略顯簡略,建議增加更多例項和詳細解釋,以幫助使用者更好地理解並做出選擇。建議細化一些關鍵性步驟,要考慮照顧大部分小白和初入門的工程師,畢竟人人都不是大佬。

3.3 方案理解與優勢認知

部署完成後,我對 DeepSeek 的多種使用方式有了較為深入的理解。方案描述清晰,突出了 DeepSeek 在少量標註資料下顯著提升推理能力的優勢,尤其在數學、程式碼和自然語言等複雜任務上的表現。但在某些技術細節上,如模型調優和效能監控方面,建議增加更多說明。

3.4 最適合的使用方式推薦

在體驗過程中,我認為透過 API 呼叫 DeepSeek 模型的方式最適合我的需求。這種方式無需關心底層模型部署和運維,只需關注業務邏輯和資料處理,大大提高了開發效率。同時,API 呼叫方式靈活,易於整合到現有系統中。

3.5 方案滿足度與採用意願

本解決方案提供的 DeepSeek 模型使用方式基本滿足了我的實際需求。透過雲上呼叫和部署,降低了模型應用的門檻,提高了開發效率。我願意採用本方案來使用 DeepSeek 模型,並期待在未來能夠提供更多高階功能和最佳化選項,以滿足不斷變化的業務需求。

綜上所述,DeepSeek 模型部署解決方案在部署流程、文件引導、方案理解和實際應用等方面均表現出色,值得推薦。

相關文章