使用ONNX來部署mmdetection中的模型
安裝ONNX
github: https://github.com/onnx/onnx
conda install -c conda-forge protobuf numpy
sudo apt-get install protobuf-compiler libprotoc-dev
pip install onnx
pip install pytest==2.8 nbval
一開始我使用pip install pytest nbval,然後報出瞭如下的錯誤,
然後我通過這句提示nbval 0.9.6 requires pytest>=2.8, but you'll have pytest 0.0.0 which is incompatible.就制定了一下pytest的版本,然後重新輸入了一下命令就安裝成功了。
然後我輸入pytest進行安裝是否成功的驗證,提示說我沒有安裝,根據後面的提示我輸入了以下命令再輸入pytest就行了:
sudo apt install python-logilab-common
比如我進入到一個專案的資料夾下輸入pytest,輸出類似下面的這些就表明安裝成功了。
相關文章
- TensorRT c++部署onnx模型C++模型
- pytorch模型(.pt)轉onnx模型(.onnx)的方法PyTorch模型
- ONNX模型分析與使用模型
- 在樹莓派上部署yolo模型推理並使用onnx加速樹莓派YOLO模型
- ONNX模型轉Openvino部署踩坑記錄模型
- c# onnx模型部署:TensorRT、OpenVino、ONNXRuntime、OpenCV dnnC#模型OpenCVDNN
- 【推理引擎】ONNX 模型解析模型
- onnx模型轉openvino報錯nGraph does not support the following ONNX operations: If模型
- anaconda中安裝mmdetection
- 使用 C# 和 ONNX 來玩轉Phi-3 SLMC#
- MNN模型輸出與ONNX模型輸出對不上模型
- onnx模型視覺化以及pytorch運算元與onnx節點對應關係模型視覺化PyTorch
- python BGE 模型轉換為onnx給java呼叫Python模型Java
- Mmdetection dataset pipline
- 使用Infinity部署Embedding和Reranking模型模型
- mmdetection3d的教程3D
- 使用 Kubernetes 來部署你的 Laravel 程式Laravel
- Optimum + ONNX Runtime: 更容易、更快地訓練你的 Hugging Face 模型Hugging Face模型
- 使用Triton部署chatglm2-6b模型模型
- 使用open webui+ollama部署本地大模型WebUI大模型
- 如何使用flask將模型部署為服務Flask模型
- Laravel 中模型事件 Observer 的使用Laravel模型事件Server
- 使用KeepAlived來實現高可用的DR模型模型
- 本地部署FastGPT使用線上大語言模型ASTGPT模型
- 小白Windows下透過Ollama部署使用本地模型Windows模型
- mmdetection原始碼剖析(1)--NMS原始碼
- 用於ONNX的TensorRT後端後端
- label studio 結合 MMDetection 實現資料集自動標記、模型迭代訓練的閉環模型
- 教程帖:使用TensorFlow服務和Flask部署Keras模型!FlaskKeras模型
- onnxruntime模型部署流程模型
- 使用Nginx將大模型Web應用部署到公網Nginx大模型Web
- 開源一年多的模型交換格式ONNX,已經一統框架江湖了?模型框架
- Mxnet速查_CPU和GPU的mnist預測訓練_模型匯出_模型匯入再預測_匯出onnx並預測GPU模型
- Keras速查_CPU和GPU的mnist預測訓練_模型匯出_模型匯入再預測_匯出onnx並預測KerasGPU模型
- 【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實現YOLOv5實時物體識別YOLOView
- ?踩坑指南——onnx系列
- 相簿 或者多圖在文件模型中的使用模型
- 記一次C#使用Onnx深度學習下呼叫Cuda的方法C#深度學習