我的模型需要線上部署了,想直接使用 onnx,而不是 pytorch,所以我需要把程式碼中關於 pytorch 的都刪除了,比如下面這段程式碼,怎麼使用其他庫替代?
from torchvision import transforms
preprocess = transforms.Compose([
transforms.Resize(224),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
下面是 ChatGPT 給我的答案:
可以使用 Pillow 和 numpy 庫替代 torchvision 和 torch 中的操作,示例程式碼如下:
from PIL import Image
import numpy as np
def preprocess(image_path):
image = Image.open(image_path)
image = image.resize((224, 224))
image = np.array(image)
image = image.transpose((2, 0, 1))
image = image.astype(np.float32)
image /= 255.0
mean = np.array([0.485, 0.456, 0.406]).reshape((3, 1, 1))
std = np.array([0.229, 0.224, 0.225]).reshape((3, 1, 1))
image = (image - mean) / std
return image
這個函式將接受影像檔案路徑作為輸入並返回預處理後的影像。
但是我測速發現,chatGPT 給的這段程式碼速度慢了50%
╰─➤ time python pre001.py
python pre001.py 10.29s user 0.98s system 118% cpu 9.502 total
╰─➤ time python pre002.py
python pre002.py 15.91s user 0.99s system 111% cpu 15.185 total
可以看到新版的比原版的慢 50%,所以這個思路失敗了
關於這兩個方式是否能夠利用多核 CPU,我發現都是不行的