Chainerを使った多層パーセプトロン:関数フィッティング
Chainerの勉強を目的に、人工知能に関する断創録_多層パーセプトロンによる関数近似に記載の事柄をChainerを用いて実装してみました。
fitting_with_MLP.py
import numpy as np
import matplotlib.pyplot as plt
import chainer
from chainer import cuda, Function, gradient_check, Variable, optimizers, serializers, utils
from chainer import Link, Chain, ChainList
import chainer.functions as F
import chainer.links as L
class MyChain(Chain):
def __init__(self):
super(MyChain, self).__init__(
l1 = L.Linear(1, 10),
l2 = L.Linear(10, 1),
)
def __call__(self, x):
h = F.sigmoid(self.l1(x))
out = self.l2(h)
return out
class MyModel_fitting(Chain):
def __init__(self, predictor):
super(MyModel_fitting, self).__init__(predictor=predictor)
def __call__(self, x, t):
y = self.predictor(x)
loss = F.mean_squared_error(y,t)*0.5
# loss = (y-t)*(y-t)*0.5
return loss
def predict(self, x):
y = self.predictor(x)
return y
if __name__ == "__main__":
#---Loading training data---#
train_x = np.linspace(0.0, 1.0, num=1000, dtype=np.float32)
train_y = train_x*train_x
n_epoch = 1000
n_batch = 100
model = MyModel_fitting(MyChain())
# serializers.load_hdf5('MyChain.model', model)
optimizer = optimizers.Adam()
optimizer.setup(model)
for epoch in range(n_epoch):
print 'epoch : ', epoch
indexes = np.random.permutation(np.size(train_x))
for i in range(n_batch):
model.zerograds()
x = Variable(np.array([[train_x[indexes[i]]]], dtype=np.float32))
t = Variable(np.array([[train_y[indexes[i]]]], dtype=np.float32))
loss = model(x, t)
loss.backward()
optimizer.update()
print 'loss : ', loss.data
learned_y = np.zeros_like(train_y)
for i in range(np.size(learned_y)):
x = Variable(np.array([[train_x[i]]], dtype=np.float32))
learned_y[i] = model.predict(x).data[0,0]
plt.plot(train_x, train_y, 'o')
plt.plot(train_x, learned_y)
plt.show()
serializers.save_hdf5('MyChain.model', model)
誤差関数として二乗誤差を返すことで、回帰問題を解いています。
今回も注意点は、Variableへの値の渡し方です。
Chainerはミニバッチ学習を前提とした実装となっているそうで、[[入力ベクトル1],[入力ベクトル2],・・・]と入れることでミニバッチ学習が行われます。
オンライン学習を行う場合は、[[入力ベクトル1]]のように、括弧をひとつ多くつける必要があります。
Author And Source
この問題について(Chainerを使った多層パーセプトロン:関数フィッティング), 我々は、より多くの情報をここで見つけました https://qiita.com/nga_m0m0/items/4191c0f847d1c749fd84著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .