-
首先要確保wsl2 版的 cuda 環境已經安裝
-
[非必須]如果已安裝了環境但是
nvidia-smi
找不到,可能是未加入環境變數,請將它的路徑/usr/lib/wsl/lib
加入 PATH -
ollama 在
/usr/bin/
找不到 nvidia-smi 位置,所以會有如上警告,所以需要創個連結指向:- 方法一:
sudo ln -s $(which nvidia-smi) /usr/bin/
- 方法二:
sudo ln -s /usr/lib/wsl/lib/nvidia-smi /usr/bin/
參考:https://github.com/ollama/ollama/issues/1460#issuecomment-1862181745
- 方法一:
-
然後解除安裝重灌就可以了(我是這樣解決的)
解決安裝 ollama 在 wsl2 中報 WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.問題
相關文章
- ollama-webui 安裝WebUI
- ollama AMD rx6750 gre 指南
- wsl docker裡執行ollama並使用nvidia gpu的一些記錄DockerGPU
- Ollama本地部署Qwen2.5 14B(使用docker實現Nvidia GPU支援)DockerGPU
- Ollama
- 在Ubuntu 20.04中安裝Nvidia V100 GPU驅動UbuntuGPU
- Ollama 可以在 Windows 上執行了Windows
- 執行 `ollama serve` 埠11434被佔用問題
- 在 wsl2 中安裝redisRedis
- 安裝vue/cli報錯問題解決Vue
- K8s GPU 資源管理探索:在 KubeSphere 上部署 AI 大模型 OllamaK8SGPUAI大模型
- Centos 7.8 中安裝Nvidia A100 GPU驅動CentOSGPU
- Ollama實現開源大模型本地化安裝部署大模型
- ollama 初體驗
- mac本地搭建ollamaMac
- Linux下Ollama命令Linux
- win10安裝wsl2及nvidia-docker遇到的一些個問題Win10Docker
- 部署AI平臺-OllamaAI
- Windows下ElasticSearch安裝中的問題解決WindowsElasticsearch
- nvidia驅動安裝過程中報已有nouveau驅動錯誤解決
- Git:warning: CALF wilL be replaced by LF in xxxx 問題解決Git
- redis安裝及問題解決Redis
- Spring AI 與 Ollama 在本地執行案例原始碼SpringAI原始碼
- 【WSL2】在 Windows 10 中安裝 WSL2 的 Linux 子系統WindowsLinux
- IPython的安裝及問題解決Python
- django安裝xadmin及問題解決Django
- RAG Project with Ollama and LangChain via Gradio InterfaceProjectLangChain
- 使用ollama玩轉本地大模型大模型
- ollama 最快方式部署管理大模型大模型
- MoneyPrinterPlus全面支援本地Ollama大模型大模型
- [Vue3] 實現 Ollama WebUIVueWebUI
- Spring AI + ollama 本地搭建聊天 AISpringAI
- 解決pytorch-gpu 安裝失敗方案PyTorchGPU
- docker run命令指定GPU多個顯示卡不生效的問題解決和程式碼示例DockerGPU
- Parallels Tools 無法安裝問題解決Parallel
- windows 安裝 MongoDB 卡主問題解決WindowsMongoDB
- 在WSL2的Ubuntu中安裝和使用Docker/PodmanUbuntuDocker
- PhpCms安裝報錯怎麼辦?PHPCMS安裝使用常見問題解決辦法PHP