pytorch dataloader和batch_size大小的理解
pytorch中dataloader的大小將根據batch_size的大小自動調整。如果訓練資料集有1000個樣本,並且batch_size的大小為10,則dataloader的長度就是100。
需要注意的是,如果dataset的大小並不能被batch_size整除,則dataloader中最後一個batch可能比實際的batch_size要小。例如,對於1001個樣本,batch_size的大小是10,train_loader的長度len(train_loader)=101,最後一個batch將僅含一個樣本。可以通過設定dataloader的drop_last屬性為True來避免這種情況。
Pytorch的Dataset提供了得到dataset中單個樣本的介面,即通過使用index下標來獲得單個樣本資料。Dataloader用來提供batch個樣本供模型訓練
class MyDataset(Dataset):
def __init__(self, size):
self.x = torch.randn(size, 1)
def __getitem__(self, index):
return self.x[index]
def __len__(self):
return len(self.x)
dataset = MyDataset(1001)
data_loader = DataLoader(dataset,
batch_size=10)
len(data_loader)
for batch_idx, data in enumerate(data_loader):
print 'batch idx{}, batch len {}'.format(
batch_idx, len(data))
data_loader = DataLoader(dataset,
batch_size=10,
drop_last=True)
len(data_loader)
for batch_idx, data in enumerate(data_loader):
print 'batch idx{}, batch len {}'.format(
batch_idx, len(data))
相關文章
- Pytorch - DataloaderPyTorch
- Pytorch入門-dataloaderPyTorch
- 【小白學PyTorch】3 淺談Dataset和DataloaderPyTorch
- Pytorch入門上 —— Dataset、Tensorboard、Transforms、DataloaderPyTorchORBORM
- [原始碼解析] PyTorch 分散式(2) --- 資料載入之DataLoader原始碼PyTorch分散式
- pytorch中forward的理解PyTorchForward
- pytorch dataloader num_workers引數設定導致訓練阻塞PyTorch
- Torch 中Dataset 和Dataloader 的資料變換
- pytorch resnet50 模型轉成 onnx 的程式碼樣例,batch_size 是動態可調節的PyTorch模型BAT
- 直播小程式原始碼,pytorch同時讓兩個dataloader打亂的順序是相同原始碼PyTorch
- Js位置與大小(1)——正確理解和運用與尺寸大小相關的DOM屬性JS
- Pytorch中stack()方法的總結及理解PyTorch
- PYTORCH中的學習率怎麼理解PyTorch
- 記憶體大小與效能的理解記憶體
- 用 Pytorch 理解卷積網路PyTorch卷積
- pytorch中nn.Embedding理解PyTorch
- oracle smallfile 大小和塊大小關係Oracle
- 深度學習入門筆記——DataLoader的使用深度學習筆記
- DB2頁大小、表大小和表空間大小限制DB2
- 小白學PyTorch 動態圖與靜態圖的淺顯理解PyTorch
- 01_pytorch和tensorflow的區別PyTorch
- 機器學習中的世代、迭代和批大小機器學習
- 理解pytorch幾個高階選擇函式(如gather)PyTorch函式
- Pytorch卷積層原理和示例PyTorch卷積
- 修改SVG圖片的大小和顏色SVG
- 瀏覽器的視窗位置和大小瀏覽器
- promise的理解和使用Promise
- DPC和ISR的理解
- Exception和Error的理解ExceptionError
- SPU和SKU的理解
- NSProxy的理解和使用
- javascript 中{}和[] 的理解JavaScript
- Git的理解和使用Git
- 查詢SGA和PGA大小
- Pytorch的模型加速方法:Dataparallel (DP) 和 DataparallelDistributedparallel (DDP)PyTorch模型Parallel
- torch.utils.data.DataLoader與迭代器轉換
- PyTorch和CUDA版本對應關係PyTorch
- 字串大小寫轉換和字串的比較字串