目標檢測---教你利用yolov5訓練自己的目標檢測模型
if __name__ == '__main__':
"""
opt 模型主要引數解析:
--weights :初始化的權重檔案的路徑地址
--cfg :模型 yaml 檔案的路徑地址
--data :資料 yaml 檔案的路徑地址
--hyp :超引數檔案路徑地址
--epochs :訓練輪次
--batch-size :喂入批次檔案的多少
--img-size :輸入圖片尺寸
--rect: 是否採用矩形訓練,預設 False
--resume: 接著打斷訓練上次的結果接著訓練
--nosave: 不儲存模型,預設 False
--notest: 不進行 test ,預設 False
--noautoanchor: 不自動調整 anchor ,預設 False
--evolve: 是否進行超引數進化,預設 False
--bucket: 谷歌雲盤 bucket ,一般不會用到
--cache-images: 是否提前快取圖片到記憶體,以加快訓練速度,預設 False
--image-weights :使用加權影像選擇進行訓練
--device: 訓練的裝置, cpu ; 0( 表示一個 gpu 裝置 cuda:0) ; 0,1,2,3( 多個 gpu 裝置 )
--multi-scale: 是否進行多尺度訓練,預設 False
--single-cls: 資料集是否只有一個類別,預設 False
--adam: 是否使用 adam 最佳化器
--sync-bn: 是否使用跨卡同步 BN, 在 DDP 模式使用
--local_rank : DDP 引數,請勿修改
--workers :外匯跟單gendan5.com最大工作核心數
--project: 訓練模型的儲存位置
--name :模型儲存的目錄名稱
--exist-ok :模型目錄是否存在,不存在就建立
"""
parser = argparse.ArgumentParser()
parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
parser.add_argument('--cfg', type=str, default='', help='model.yaml path')
parser.add_argument('--data', type=str, default='data/coco128.yaml', help='data.yaml path')
parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
parser.add_argument('--epochs', type=int, default=300)
parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs')
parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
parser.add_argument('--rect', action='store_true', help='rectangular training')
parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
parser.add_argument('--notest', action='store_true', help='only test final epoch')
parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
parser.add_argument('--workers', type=int, default=8, help='maximum number of dataloader workers')
parser.add_argument('--project', default='runs/train', help='save to project/name')
parser.add_argument('--entity', default=None, help='W&B entity')
parser.add_argument('--name', default='exp', help='save to project/name')
parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
parser.add_argument('--quad', action='store_true', help='quad dataloader')
parser.add_argument('--linear-lr', action='store_true', help='linear LR')
parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
parser.add_argument('--upload_dataset', action='store_true', help='Upload dataset as W&B artifact table')
parser.add_argument('--bbox_interval', type=int, default=-1, help='Set bounding-box image logging interval for W&B')
parser.add_argument('--save_period', type=int, default=-1, help='Log model after every "save_period" epoch')
parser.add_argument('--artifact_alias', type=str, default="latest", help='version of dataset artifact to be used')
opt = parser.parse_args()
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946337/viewspace-2900546/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Yolov5——訓練目標檢測模型YOLO模型
- 訓練一個目標檢測模型模型
- 目標檢測 YOLO v3 訓練 人臉檢測模型YOLO模型
- 目標檢測
- 九、目標檢測
- YOLOv5模型訓練及檢測YOLO模型
- 0-目標檢測模型的基礎模型
- 目標檢測面面觀
- 目標檢測之SSD
- 目標檢測綜述
- 28-目標檢測
- 目標檢測:二維碼檢測方案
- 目標檢測入門系列手冊二:RCNN訓練教程CNN
- 目標檢測入門系列手冊五:YOLO訓練教程YOLO
- 目標檢測入門系列手冊六:SSD訓練教程
- 目標檢測模型的評價標準-AP與mAP模型
- 52 個深度學習目標檢測模型深度學習模型
- SSD 目標檢測 Keras 版Keras
- 目標檢測發展方向
- 目標檢測之YOLO系列YOLO
- 【目標檢測】R-CNNCNN
- 最新Anchor-Free目標檢測模型—FoveaBox模型
- 深度學習之目標檢測與目標識別深度學習
- 目標檢測相關論文
- 【目標檢測】Bounding Box Regression
- 深度學習之目標檢測深度學習
- 目標檢測:Segmentation is All You Need ?Segmentation
- 目標檢測資料集分析
- 2018目標檢測
- 目標檢測(Object Detection)總覽Object
- 目標檢測之RetinaNetNaN
- Object Detection(目標檢測神文)Object
- R2CNN模型——用於文字目標檢測的模型CNN模型
- 目標檢測 YOLO v3 驗證 COCO 模型YOLO模型
- 目標檢測入門系列手冊三:Fast R-CNN 訓練教程ASTCNN
- 目標檢測入門系列手冊四:Faster R-CNN 訓練教程ASTCNN
- [AI開發]目標檢測之素材標註AI
- 做目標檢測,這一篇就夠了!2019最全目標檢測指南