使用ONNX來部署mmdetection中的模型
安裝ONNX
github: https://github.com/onnx/onnx
conda install -c conda-forge protobuf numpy
sudo apt-get install protobuf-compiler libprotoc-dev
pip install onnx
pip install pytest==2.8 nbval
一開始我使用pip install pytest nbval,然後報出瞭如下的錯誤,
然後我通過這句提示nbval 0.9.6 requires pytest>=2.8, but you'll have pytest 0.0.0 which is incompatible.就制定了一下pytest的版本,然後重新輸入了一下命令就安裝成功了。
然後我輸入pytest進行安裝是否成功的驗證,提示說我沒有安裝,根據後面的提示我輸入了以下命令再輸入pytest就行了:
sudo apt install python-logilab-common
比如我進入到一個專案的資料夾下輸入pytest,輸出類似下面的這些就表明安裝成功了。
相關文章
- TensorRT c++部署onnx模型C++模型
- ONNX模型分析與使用模型
- pytorch模型(.pt)轉onnx模型(.onnx)的方法PyTorch模型
- ONNX模型轉Openvino部署踩坑記錄模型
- 在樹莓派上部署yolo模型推理並使用onnx加速樹莓派YOLO模型
- c# onnx模型部署:TensorRT、OpenVino、ONNXRuntime、OpenCV dnnC#模型OpenCVDNN
- 【推理引擎】ONNX 模型解析模型
- onnx模型轉openvino報錯nGraph does not support the following ONNX operations: If模型
- anaconda中安裝mmdetection
- 使用 C# 和 ONNX 來玩轉Phi-3 SLMC#
- MNN模型輸出與ONNX模型輸出對不上模型
- onnx模型視覺化以及pytorch運算元與onnx節點對應關係模型視覺化PyTorch
- python BGE 模型轉換為onnx給java呼叫Python模型Java
- mmdetection3d的教程3D
- Mmdetection dataset pipline
- Laravel 中模型事件 Observer 的使用Laravel模型事件Server
- 如何使用flask將模型部署為服務Flask模型
- 使用Triton部署chatglm2-6b模型模型
- 使用open webui+ollama部署本地大模型WebUI大模型
- 本地部署FastGPT使用線上大語言模型ASTGPT模型
- 使用Infinity部署Embedding和Reranking模型模型
- 使用 Kubernetes 來部署你的 Laravel 程式Laravel
- Optimum + ONNX Runtime: 更容易、更快地訓練你的 Hugging Face 模型Hugging Face模型
- mmdetection原始碼剖析(1)--NMS原始碼
- 使用pmml實現跨平臺部署機器學習模型機器學習模型
- 小白Windows下透過Ollama部署使用本地模型Windows模型
- 如何快速使用 Heroku 來部署你的 Laravel 應用Laravel
- 使用KeepAlived來實現高可用的DR模型模型
- 開源一年多的模型交換格式ONNX,已經一統框架江湖了?模型框架
- 視覺感知未來,高德資料採集模型部署實踐!視覺模型
- ?踩坑指南——onnx系列
- 用於ONNX的TensorRT後端後端
- Keras速查_CPU和GPU的mnist預測訓練_模型匯出_模型匯入再預測_匯出onnx並預測KerasGPU模型
- onnxruntime模型部署流程模型
- 教程帖:使用TensorFlow服務和Flask部署Keras模型!FlaskKeras模型
- 使用pmml跨平臺部署機器學習模型Demo——房價預測機器學習模型
- 使用Nginx將大模型Web應用部署到公網Nginx大模型Web
- 相簿 或者多圖在文件模型中的使用模型