pytochを使ってリニア回帰を実現
本論文の例では、pytochの線形回帰を実現する具体的なコードを共有します。
線形回帰は、モデルを定義し、損失関数を選択し、最適化関数を選択し、 トレーニングデータ、テスト
ASGD最適化器画像を使う:
Adagrad最適化器の画像を使用します。
Adamax最適化器画像を使用します。
以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。
線形回帰は、モデルを定義し、損失関数を選択し、最適化関数を選択し、 トレーニングデータ、テスト
import torch
import matplotlib.pyplot as plt
#
x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]])
y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]])
#
class LinearModel(torch.nn.Module):
def __init__(self):
super(LinearModel, self).__init__()
self.linear= torch.nn.Linear(1,1) # , ,
def forward(self, x):
y_pred= self.linear(x)
return y_pred
model= LinearModel()
#
criterion= torch.nn.MSELoss(size_average= False)
# SGD
# ,SGD ASGD ,
optimizer= torch.optim.SGD(model.parameters(),lr=0.01)
# ASGD
# optimizer= torch.optim.ASGD(model.parameters(),lr=0.01)
# optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01)
# optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01)
# optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01)
#
epoch_list=[]
loss_list=[]
for epoch in range(100):
y_pred= model(x_data)
loss= criterion(y_pred, y_data)
epoch_list.append(epoch)
loss_list.append(loss.item())
print(epoch, loss.item())
optimizer.zero_grad() #
loss.backward() #
optimizer.step() #
print("w= ", model.linear.weight.item())
print("b= ",model.linear.bias.item())
x_test= torch.Tensor([[7.0]])
y_test= model(x_test)
print("y_pred= ",y_test.data)
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss_val")
plt.show()
SGD最適化器画像を使う: ASGD最適化器画像を使う:
Adagrad最適化器の画像を使用します。
Adamax最適化器画像を使用します。
以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。