淘寶賣DeepSeek安裝包一月賺數十萬???我們免費教你本地部署DeepSeek-R1

机器之心發表於2025-02-12
當看到這條訊息時,機器之心編輯部陷入了集體沉默。作為一個免費開源的模型,DeepSeek 竟能讓倒賣商如此大賺特賺,也著實讓人震驚。而這也從側面佐證了 DeepSeek 模型引發的本地部署熱潮是多麼洶湧。
圖片
圖源:微博 @揚子晚報

開啟淘寶和拼多多,搜尋 DeepSeek,我們能看到電子貨架上擺滿了琳琅滿目的本可免費獲得的資源,其中既有安裝包,也有提示詞包與教程,甚至就連清華大學剛剛釋出的《DeepSeek 從入門到精通》也被許多賣家明碼標價出售 —— 但實際上你只需要隨便找個搜尋引擎搜尋一下,你就能找到大量可免費下載該教程的連結。
圖片
價錢如何呢?根據我們的粗略觀察,一般打包出售「安裝包 + 教程 + 提示詞」的價格通常在 10-30 元之間,商家一般還會提供一定的客服服務。其中不少都已經賣出了上百份,更有少數幾個已經達成了上千人付款的成就。離譜的是,一個定價 100 元的軟體和教程包也有 22 人付款。
圖片
真是不得不讓人感嘆,資訊差的錢是真好賺。
圖片
轉自網路

今天這篇文章我們將教你如何在本地部署 DeepSeek,並且完全不用花一分錢。但首先,我們先簡單瞭解下為什麼要本地部署。

為什麼要本地部署 DeepSeek-R1?

DeepSeek-R1,雖然可能已不是當前最強大的推理模型,但絕對依然還是當前最熱門的推理模型。也因此,如果使用官網或其它託管商的服務,我們常常會遭遇如下窘境:
圖片
而本地部署模型可以有效杜絕這種情況。簡單來說,本地部署就是在你自己的本地裝置上安裝 AI 模型,而不依賴雲端 API 或線上服務。常見的本地部署方式有如下幾種:

  • 輕量級本地推理:在個人電腦或移動端執行(如 Llama.cpp、Whisper、GGUF 格式模型)。
  • 伺服器 / 工作站部署:使用高效能 GPU 或 TPU(如英偉達 RTX 4090、A100)執行大模型。
  • 私有云 / 內網伺服器:在企業內部伺服器上部署(如使用 TensorRT、ONNX Runtime、vLLM)。
  • 邊緣裝置:在嵌入式裝置或 IoT 裝置上執行 AI(如 Jetson Nano、樹莓派)。

而本地部署也存在自己的應用場景,比如:

  • 企業內部 AI(如私有聊天機器人、文件分析);
  • 科研計算(如生物醫藥、物理模擬);
  • 離線 AI 功能(如語音識別、OCR、影像處理);
  • 安全審計 & 監控(如法律、金融合規分析)。

本文將主要關注輕量級本地推理,這也是適用於我們大多數個人使用者的部署方式。

本地部署的好處

除了從根本上解決「伺服器繁忙」問題,本地部署還有其它諸多好處,包括:

  1. 資料隱私與安全性:在本地部署 AI 模型時,就無需將自己的關鍵資料上傳到雲端,從而可以有效防止資料洩露,這對金融、醫療、法律等行業而言尤為關鍵。另外,本地部署也能有效符合企業或地區的資料合規要求(如中國的《資料安全法》、歐盟的 GDPR 等)。
  2. 低延遲 & 高實時效能:由於本地部署時所有計算都發生在本地,無需網路請求,因此推理速度完全取決於使用者自己的裝置計算效能。但也因此,只要本地裝置效能足夠,使用者就能享受到非常好的實時效能,也因此本地部署非常適合實時性非常關鍵的應用(如語音識別、自動駕駛、工業檢測)。
  3. 更低的長期成本:本地部署自然就無需 API 訂閱費用,可實現一次部署長期使用。同時,如果使用者對模型效能要求不高,還能透過部署輕量化模型(如 INT 8 或 4-bit 量化)來控制硬體成本。
  4. 可以離線使用:無需網路也能用上 AI 模型,適用於邊緣計算、離線辦公、遠端環境等。並且,由於斷網也能執行 AI 應用,因此可以保證使用者的關鍵業務不中斷。
  5. 可定製 & 可控性強:可以微調、最佳化模型,更適配業務需求,舉個例子,DeepSeek-R1 就被微調和蒸餾成了許多不同的版本,包括無限制版本 deepseek-r1-abliterated 等等。另外,本地部署不受第三方政策變更影響,可控性強,可避免 API 調價或訪問限制。

本地部署的缺點

本地部署好處多多,但我們也不能忽視其缺點,首當其衝的便是大模型的算力需求。

  1. 硬體成本高:個人使用者的本地裝置通常難以執行高引數量的模型,而引數量較低的模型的效能通常又更差,因此這方面有一個需要考慮的權衡。如果使用者想要執行高效能模型,那就必須在硬體上投入更多成本。
  2. 難以處理大規模任務:當使用者的任務需要大規模處理資料時,往往需要伺服器規模的硬體才能有效完成。
  3. 有一定的部署門檻:不同於使用雲服務 —— 只需開啟網頁端或配置 API 即可使用,本地部署存在一定的技術門檻。如果使用者還有進一步的本地微調需求,部署難度還會更大。不過幸運的是,這個門檻正越來越低。
  4. 需要一定的維護成本:使用者需要投入心力和時間解決因為模型和工具升級帶來的環境配置問題。

究竟是進行本地部署還是使用線上模型,還需要使用者根據自己的實際情況定奪。下面簡單總結了適合與不適合本地部署的場景:

  • 適合本地部署:高隱私、低延遲、長期使用(如企業 AI 助手、法律分析)。
  • 不適合本地部署:短期試驗、高算力需求、依賴大模型(如 70B+ 引數級別)。

如何本地部署 DeepSeek-R1?

本地部署 DeepSeek-R1 的方法其實有很多,這裡我們簡單介紹兩種:一是基於 Ollama 實現本地部署,二是使用 LM Studio 的零程式碼部署方法。

基於 Ollama 部署 DeepSeek-R1

下面我們將基於 Ollama 介紹如何在你自己的裝置上部署你自己的 DeepSeek-R1。

Ollama 是目前最常使用的本地部署和執行語言模型的框架,其非常輕量,而且具有很好的可擴充套件性。從名字也能看出來,Ollama 是 Meta 釋出 Llama 系列模型之後誕生的。但這個專案是社群驅動的,與 Meta 以及 Llama 系列模型的開發沒有直接關係。
圖片
Ollama 專案誕生之後發展非常迅速,不管是支援的模型量還是支援其的各種生態系統都在迅速發展。
圖片
Ollama 支援的部分模型和生態

使用 Ollama 的第一步非常簡單,下載並安裝 Ollama,訪問以下地址,下載適合你作業系統的版本即可。

下載地址:https://ollama.com/download

有了 Ollama,還需要為你的裝置配置 AI 模型。這裡以 DeepSeek-R1 為例進行演示。首先進入 Ollama 官網檢視支援的模型及相應的版本:https://ollama.com/search 這裡我們可以看到 DeepSeek-R1 現有 1.5B 到 671B 共 7 個不同規模的共 29 個不同版本,其中包括一些基於開源模型 Llama 和 Qwen 進行微調、蒸餾或量化處理後得到的模型。
圖片
具體該選擇哪個版本,我們先得了解自己的硬體配置情況。dev.to 開發者社群 Avnish 寫了一篇文章,簡單總結了 DeepSeek-R1 不同規模版本的硬體需求,可作參考:
圖片
圖源:https://dev.to/askyt/deepseek-r1-architecture-training-local-deployment-and-hardware-requirements-3mf8

這裡我們以 8B 版本為例進行演示:開啟你裝置上的終端工具,執行
ollama run deepseek-r1:8b

接下來就是等待模型下載完成。(Ollama 現在也支援直接從 Hugging Face 拉取模型,命令是 ollama run hf.co/{使用者名稱}/{庫}:{量化版本},比如 ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0。)
圖片
模型下載完成後,你就可以直接在這個終端中與下載好的 8B 版 DeepSeek-R1 聊天了。
圖片
但是,對普通使用者來說,這種對話方式非常不直觀,也不方便。因此我們還需要配置一個好用的前端。而前端的選擇可就多了。我們即可以使用能在瀏覽器中提供類似 ChatGPT 體驗的 Open WebUI,也可以選擇 Chatbox 等前端工具,你也可以在這裡尋找你想要的前端:https://github.com/ollama/ollama

1. 如果你想使用 Open WebUI,只需在你的終端以此執行以下兩行程式碼即可:
安裝 Open WebUI:
pip install open-webui

執行 Open WebUI:
open-webui serve

接下來,只需訪問 http://localhost:8080,就能在你的瀏覽器中獲得類似 ChatGPT 的體驗。

從 Open WebUI 的模型列表中可以看到,本機上的 Ollama 已經配置了多個模型,包括 DeepSeek-R1 7B 和 8B 版本以及 Llama 3.1 8B、Llama 3.2 3B、Phi 4、Qwen 2.5 Coder 等其它一些模型。選擇其中的 DeepSeek-R1 8B 試試看效果:
圖片
2. 如果你更偏好在一個單獨的應用軟體中使用 DeepSeek-R1,可以考慮 Chatbox 等工具。配置方法也很簡單,首先下載安裝:https://chatboxai.app/zh

安裝後啟動該應用程式,進入「設定」,在「模型提供方」中選擇 OLLAMA API,接著在下面的模型欄選擇你想使用的模型,並設定上下文的訊息數量上限以及 Temperature 等相關引數即可(當然也可不必調整)。
圖片
接下來,你可以在 Chatbox 中與你部署的本地 DeepSeek-R1 暢聊了。不過遺憾的是,DeepSeek-R1 7B 沒能正確地完成我們描述的任務。這也佐證了前文的觀點,即個人使用者通常只能在自己的本地裝置上執行效能相對較差的模型。不過可以預見,未來隨著硬體的進一步發展,個人本地使用大引數量模型的門檻還會進一步降低 —— 而且這個未來恐怕也不會太遠。
圖片
當然,不管是 Open WebUI 還是 Chatbox,也都支援透過 API 接入 DeepSeek 的各個模型以及 ChatGPT、Claude 以及 Gemini 等專有模型。你完全可以將它們作為使用 AI 的日常前端。

另外,我們也可以將 Ollama 中配置的模型引入到我們的其它工具中,比如 Obsidian 和思源筆記等筆記應用。感興趣的讀者可以參看這篇略有過時的文章(Obsdian 上已有更好用的 AI 外掛):《最強筆記軟體 Obsidian 中也能使用 LLM,讓它成為你的智慧第二大腦》。

使用 LM Studion 零程式碼部署 DeepSeek-R1

雖然不多,但在配置 Ollama 和相關模型時還是會用到終端和一點程式碼。如果你依然覺得麻煩 / 困難,還可以使用 LM Studio 實現零程式碼部署 DeepSeek-R1。

同樣,首先去官網下載符合你作業系統的程式:https://lmstudio.ai

安裝完成後啟動,在 My Models 選項中先為你的模型設定一個資料夾:
圖片
接下來,只需去 Hugging Face 下載你想使用的語言模型,並按照一定的目錄結構將其放入到上面設定的資料夾中即可(我們也可以使用 LM Studio 自帶的搜尋功能,但我們實測的效果並不好)。注意,這裡我們需要的是 .gguf 格式的模型檔案,比如 Unsloth 提供的版本:https://huggingface.co/collections/unsloth/deepseek-r1-all-versions-678e1c48f5d2fce87892ace5

考慮到我們的實際硬體,我們這裡使用基於 Qwen 模型微調得到的 DeepSeek-R1 蒸餾版(14B 引數量)並選擇 4-bit 量化後的版本:DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf

下載完成後,按照一定的目錄結構將其放入我們之前設定的資料夾中:模型資料夾 /unsloth/DeepSeek-R1-Distill-Qwen-14B-GGUF/DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf

接下來,只需開啟 LM Studio,在應用上方位置選擇要載入的模型,然後你就可以與你的本地模型對話了。圖片
使用 LM Studio 的最大優勢就是完全無需操作終端,也不涉及任何程式碼 —— 只需會安裝軟體和配置資料夾即可。可說是對使用者超級友好了。

結語

當然,以上教程只是在最基礎的層面上實現了 DeepSeek-R1 的本地部署。如果你想將這個熱門模型進一步整合進自己的本地工作流程中,還需要進一步的配置 —— 從基礎的設定系統提示詞到更高階的模型微調定製、整合 RAG、搜尋功能、多模態能力、工具呼叫能力等等。

同時,隨著專門針對 AI 開發的硬體以及小模型相關技術的發展,相信未來本地部署大模型的門檻還會進一步降低。

看完此文,你會自己動手試試部署自己的 DeepSeek-R1 嗎?

相關文章