一、安裝環境:windows10,anaconda3,python3.6
由於框架maskrcnn需要json資料集,在沒安裝labelme環境和跑深度學習之前,我安裝的是anaconda3,其中pyhton是3.7版本的,經網上查閱資料,經過一番查詢資料,發現,原來在2019年,TensorFlow還不支援python3.7,所以,迫於無奈,我只能乖乖把python的版本退回到3.6版本,具體步驟也很簡單。就是開啟anaconda prompt ,然後輸入conda install python=3.6,然後等待提示(y/n),輸入y,等待十幾分鍾,就會提示done,這樣的話,就表示python3.7已經退回到python3.6了。(經過嘗試這種方法在我這裡沒有行得通,可能跟網速有關,又嘗試了另一種方法,有興趣的可以嘗試一下。)索性就把labelme安裝到3.6中了。
二、安裝過程:
1、管理員身份開啟 anaconda prompt
2、輸入命令:conda create --name=labelme python=3.6
3、輸入命令:activate labelme
4、輸入命令:pip install pyqt5,pip install pyside2(自己剛開始沒有安裝pyside2,執行 \anaconda安裝目錄\envs\labelme\Scripts\label_json_to_dataset.exe 會出現module "pyside"缺失錯誤)
5、輸入命令:pip install labelme(由於網路原因或者庫的地址,經常執行一半出現錯誤,不要氣餒,多執行幾次)
6、輸入命令:labelme 即可開啟labelme。如下:
安裝完成後,需要使用再次啟動labelme。則需要重新開啟anaconda prompt,輸入activate labelme,進入labelme環境。再輸 入命令: labelme 即可
三、用labelme標註完圖片後,會生成json檔案
以小貓為例:點選儲存會在自己的圖片目錄下生成json檔案
點點
生成的json檔案並不能直接用,我們需要對他進行批處理才能成為maskrcnn需要的資料集,批量轉化如下:
abelme標註工具再轉化.json檔案有一個缺陷,一次只能轉換一個.json檔案,然而深度學習的專案通常需要大量的資料,那麼轉換.json檔案就是一個比較耗時的工作;因此,對labelme做出了改進,可以實現批量轉換.json檔案。
在安裝Anaconda中找到json_to_dataset.py檔案如果未找到可以在計算機中搜尋,將該檔案程式碼修改為以下程式碼:
import argparse import base64 import json import os import os.path as osp import warnings import PIL.Image import yaml from labelme import utils def main(): warnings.warn("This script is aimed to demonstrate how to convert the\n" "JSON file to a single image dataset, and not to handle\n" "multiple JSON files to generate a real-use dataset.") parser = argparse.ArgumentParser() parser.add_argument('json_file') parser.add_argument('-o', '--out', default=None) args = parser.parse_args() json_file = args.json_file alist = os.listdir(json_file) for i in range(0,len(alist)): path = os.path.join(json_file,alist[i]) data = json.load(open(path)) out_dir = osp.basename(path).replace('.', '_') out_dir = osp.join(osp.dirname(path), out_dir) if not osp.exists(out_dir): os.mkdir(out_dir) if data['imageData']: imageData = data['imageData'] else: imagePath = os.path.join(os.path.dirname(path), data['imagePath']) with open(imagePath, 'rb') as f: imageData = f.read() imageData = base64.b64encode(imageData).decode('utf-8') img = utils.img_b64_to_arr(imageData) label_name_to_value = {'_background_': 0} for shape in data['shapes']: label_name = shape['label'] if label_name in label_name_to_value: label_value = label_name_to_value[label_name] else: label_value = len(label_name_to_value) label_name_to_value[label_name] = label_value # label_values must be dense label_values, label_names = [], [] for ln, lv in sorted(label_name_to_value.items(), key=lambda x: x[1]): label_values.append(lv) label_names.append(ln) assert label_values == list(range(len(label_values))) lbl = utils.shapes_to_label(img.shape, data['shapes'], label_name_to_value) captions = ['{}: {}'.format(lv, ln) for ln, lv in label_name_to_value.items()] lbl_viz = utils.draw_label(lbl, img, captions) PIL.Image.fromarray(img).save(osp.join(out_dir, 'img.png')) utils.lblsave(osp.join(out_dir, 'label.png'), lbl) PIL.Image.fromarray(lbl_viz).save(osp.join(out_dir, 'label_viz.png')) with open(osp.join(out_dir, 'label_names.txt'), 'w') as f: for lbl_name in label_names: f.write(lbl_name + '\n') warnings.warn('info.yaml is being replaced by label_names.txt') info = dict(label_names=label_names) with open(osp.join(out_dir, 'info.yaml'), 'w') as f: yaml.safe_dump(info, f, default_flow_style=False) print('Saved to: %s' % out_dir) if __name__ == '__main__': main()
操作命令如下圖:
生成效果如下:每張圖片生成五個檔案 ,這就是我們所需要的