使用滴滴雲彈性推理服務部署 Inception-v3 模型
近期推出了彈性推理服務 EIS(Elastic Inference Service)。藉助滴滴雲 EIS 可快速將在主流深度學習框架上訓練的模型釋出為線上推理服務,效能較 TensorFlow Serving 有明顯的提高。
相比較傳統的推理服務釋出模式, 彈性推理服務 EIS 具有如下特點:
- 易用 :無需考慮基礎架構,僅需關注模型和推理服務。
- 高可用 :滴滴雲彈性推理服務自帶高可用保障和容錯機制。
- 易管理 :模型的升級等可一鍵完成。
- SLA 保障 :根據購買的例項規格提供 QPS 保障。
本教程透過一個 Inception-v3 模型的例子說明如何在滴滴雲彈性推理服務 EIS 上部署模型,進而使用該模型執行線上推理任務。本教程包括如下步驟:
- 準備模型檔案
- 把模型檔案上傳到滴滴雲物件儲存服務 S3
- 把模型檔案從 S3 匯入到EIS模型空間
- 建立推理服務
- 執行推理任務
準備模型檔案
彈性推理服務 EIS 目前支援 TensorFlow、Pytorch、Caffe、Caffe2 等主流深度學習框架。
在上傳模型檔案之前,請將模型檔案壓縮成 tar、tar.gz、tar.bz2、tgz、zip 中的任意一種壓縮格式。
模型檔案目錄格式如下圖所示:
上傳模型檔案
模型檔案準備好之後需要上傳到滴滴雲物件儲存服務 S3上。如何使用滴滴雲物件儲存服務 S3 請參見:< >
本教程使用的 inception.tar 檔案上傳後如下圖所示:
匯入模型檔案
模型檔案上傳到滴滴雲物件儲存 S3 之後,需匯入到滴滴雲彈性推理服務 EIS 的模型空間。
使用者可管理模型空間內的深度學習模型,一個模型可對應多個不同版本的模型檔案。匯入模型檔案時,先建立一個模型,然後匯入模型檔案。
登入滴滴雲控制檯,在上方導航欄點選“機器學習”,進入機器學習產品線。在二級導航欄點選“模型空間”,管理深度學習模型。
在模型空間頁面,點選“建立模型”按鈕,在如下彈出的對話方塊中輸入相關引數:
模型檔案建立之後,在“我的模型”模組可管理模型:
點選模型模型名稱指向的連結,進入模型詳情頁面:
點選“上傳檔案”,將滴滴雲 S3 上的 Inception-v3 模型檔案匯入模型空間:
匯入成功後如下圖所示:
建立推理服務
模型檔案就緒之後,就可以建立 Inception-v3 模型的推理服務了。
在滴滴雲機器學習產品線模組,點選“彈性推理”,進入彈性推理頁面,點選“建立推理服務”按鈕:
選擇剛剛上傳的模型檔案和對應的配置規格,點選“立即建立”按鈕即可完成彈性推理服務的建立。
檢查彈性推理服務的建立進度和狀態,推理服務狀態變為“可用”之後,就完成了 Inception-v3 模型推理服務的線上釋出。
執行推理任務
當 Inception-v3 模型推理服務狀態為“可用”時,可透過推理服務釋放的 API 執行推理任務。
inference-client 是滴滴雲推理服務的 HTTP 客戶端示例程式碼,目前支援 C++、Golang、Java、Python 等程式語言。這裡以 Python Client Demo 為例,Python 資料夾裡提供了一個咖菲貓的圖片。
Inference Client GitHub 地址:
首先安裝依賴環境,依賴的軟體包在 requirements.txt 中有定義。
sudo pip install -r requirements.txt
下載下來 Demo 程式碼,編輯 inception.py。
修改 model spec 和 Token,其中 Token 為我們建立的 API Token,可以在這裡 建立。
接下來獲取推理服務的 URL,在我的推理服務頁面複製 URL 連結。
執行如下命令:
python inception . py < https : //e18e555c.eis.didiyunapi.com/v1/model/predict>
結果如下:
示例圖片識別為” taby cat”,推理服務執行成功!
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31559758/viewspace-2638392/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 如何使用flask將模型部署為服務Flask模型
- 華為雲彈性雲伺服器ECS搭建FTP服務實踐伺服器FTP
- 滴滴雲部署 ZooKeeper + KafkaKafka
- 在滴滴雲 VPC 內搭建內網 DNS 服務內網DNS
- 教程帖:使用TensorFlow服務和Flask部署Keras模型!FlaskKeras模型
- 如何在滴滴雲 DC2 上搭建 MySQL 服務MySql
- 滴滴雲部署Hadoop3.1.1Hadoop
- 邊緣計算服務,kubeedge+kserver搭建,【AI模型推理】ServerAI模型
- 部署小說api服務到騰訊雲API
- 在樹莓派上部署yolo模型推理並使用onnx加速樹莓派YOLO模型
- 滴滴雲微信小程式部署指導微信小程式
- Google 雲服務搭建 git服務,實現Hexo自動部署GoGitHexo
- 滴滴推理引擎IFX:千萬規模裝置下AI部署實踐AI
- 美團視覺GPU推理服務部署架構最佳化實踐視覺GPU架構
- 使用Dockerfile部署nodejs服務DockerNodeJS
- 如何使用華為雲服務一鍵構建部署釋出前端和Node.js服務前端Node.js
- 基於滴滴雲的棋牌遊戲服務端架構設計遊戲服務端架構
- 在騰訊雲容器服務 TKE 中利用 HPA 實現業務的彈性伸縮
- 大模型推理指南:使用 vLLM 實現高效推理大模型
- 基於滴滴雲部署 Elasticsearch + Kibana + FluentdElasticsearch
- 阿里雲伺服器部署Mongodb服務阿里伺服器MongoDB
- 彈性盒模型Flex指南模型Flex
- 騰訊雲專訪滴滴CTO張博:生死戰役,大資料、雲服務助跑大資料
- IoT雲服務連線性的方式
- 使用nacos原始碼部署nacos服務原始碼
- 使用OpenApi彈性管理雲伺服器ECSAPI伺服器
- Kubernetes 服務部署最佳實踐(二) ——如何提高服務可用性
- Linux雲服務部署Spring boot專案LinuxSpring Boot
- 在滴滴雲快速搭建自己的簡易服務叢集[入門版]
- 微服務Consul系列之服務部署、搭建、使用微服務
- 彈性盒模型,flex佈局模型Flex
- NFS服務部署NFS
- 滴滴資料通道服務演進之路
- Kubernetes 節點彈性擴充套件實踐元件 Amazon Karpenter:部署 GPU 推理應用套件元件GPU
- 阿里雲官方對於彈性網路卡使用阿里
- Serverless:基於個性化服務畫像的彈性伸縮實踐Server
- 機器學習模型python線上服務部署的兩種例項機器學習模型Python
- 直播預告 | 容器服務 ACK 彈性預測最佳實踐