4-線性迴歸

不是孩子了發表於2024-08-23

python中*運算子的使用
用於將可迭代物件(如列表或元組)的元素解壓縮為單獨的引數

當我們從Dataloader取出來的時候,又會將壓縮為的單獨引數分開

import torch
from torch.utils import data

# 準備資料
true_w = torch.tensor([2, -3.4])
true_b = 4.2

def synthetic_data(w, b, num_examples):
    x = torch.normal(0, 1, size=(num_examples, 2))
    y = torch.matmul(x, w) + b
    y += torch.normal(0, 1, size = y.shape)
    return x, y.reshape((-1, 1))

features, labels = synthetic_data(true_w, true_b, 1000)

# 獲取資料
def load_data(data_arrays, batch_size, is_train = True):
    dataset = data.TensorDataset(*data_arrays) # 使用data.TensorDataset函式將輸入的data_arrays中的張量組合成一個資料集
    return data.DataLoader(dataset, batch_size, shuffle=is_train) # 使用data.DataLoader函式將資料集包裝成一個資料載入器

data_iter = load_data((features, labels), 10)

# 構造模型
net = torch.nn.Sequential(torch.nn.Linear(2, 1)) # 輸入特徵形狀  輸出特徵形狀
net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)

# 定義損失函式和最佳化器
loss = torch.nn.MSELoss()
optimizer = torch.optim.SGD(net.parameters(), lr=0.01)

# 訓練
epochs = 10
for epoch in range(epochs):
    for X, Y in data_iter:
        l = loss(net(X), Y)
        optimizer.zero_grad()

        l.backward()
        optimizer.step()

    l = loss(net(features), labels)
    print('epoch:{},  loss:{}'.format(epoch+1, l.item()))



相關文章