week04_01

2917 ワード

今日は何を勉強しましたか。


いろいろなことを学びましたが、主に線形回帰を集中的に学び、ケグというサイトもcorapであることも知りました.

一番印象に残っているのは何ですか?


前述したように,主に線形回帰を学習し,線形回帰を行うための多様な方法を試みた.
線形回帰アルゴリズム英語はLinear Regressiondアルゴリズムです.

これは給料と勤務年数を示しています...
通常、この方式はy=mx+bで表される.
勾配mはスライスbに基づいて線の形状を決定し,xを加えるとyを求めることができる.
線形回帰の目的は低mとbを得ることである.
線形回転で誤差損失が発生すると失われます.

aと対角線の誤差?もちろんいくつかの違いがありますが、これは誤差です.
Aは3 B=1を失った.
通常は正負数の区別がなく,明らかに生じる誤差の二乗である.
損失を求める.これを平均二乗誤差平均二乗誤差MSEと呼ぶ
今は実際にやるべきだ.もちろん初めてなので、何なのか理解するために工夫を凝らしました.
最初はTensurflowで線形回帰をしました.これはよく雑談に使う方法ではないそうです.理由は,繰り返し出現する構造のみが出現して作成されたサイトでも1バージョンは推奨されないからである.それからどうやってKERACEをしますか?作ってみます.最新の方法とトレンドです
import numpy as np
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.optimizers import Adam, SGD

x_data = np.array([[1], [2], [3]])
y_data = np.array([[10], [20], [30]])

model = Sequential([
  Dense(1)
])

model.compile(loss='mean_squared_error', optimizer=SGD(lr=0.1))

model.fit(x_data, y_data, epochs=100) # epochs 복수형으로 쓰기!
一番簡単な構造にしてみます.方式はケラスの方式で、もちろん初めて教えてくれた方式でやったとも言えます.
epochs=100は100回回るという意味で、繰り返すほどロスの値は少なくなります
成功した.
Epoch 93/100
3/3 [==============================] - 0s 577us/sample - loss: 0.0242
Epoch 94/100
3/3 [==============================] - 0s 727us/sample - loss: 0.0230
Epoch 95/100
3/3 [==============================] - 0s 633us/sample - loss: 0.0219
Epoch 96/100
3/3 [==============================] - 0s 637us/sample - loss: 0.0209
Epoch 97/100
3/3 [==============================] - 0s 643us/sample - loss: 0.0199
Epoch 98/100
3/3 [==============================] - 0s 658us/sample - loss: 0.0189
Epoch 99/100
3/3 [==============================] - 0s 964us/sample - loss: 0.0180
Epoch 100/100
3/3 [==============================] - 0s 621us/sample - loss: 0.0172
長すぎたので後ろで7個くらいしか見ていませんでした.
ロスの価格は徐々に減少し、これは成功した.誤差を0にすることはできませんが、誤差値を0に近づけるのが理想です.方向だよ現実もそうだよ

課題


課題は勤続年数に応じて年俸をもらうことです.この時、私はケグというものでデータを受信して試しました.

結果は良く,我々が求めた値は予測値とほぼ一致した.(赤は予測値)
一般的には、年齢とともに年俸も上昇します.
model = Sequential([
Dense(1)
])
model.compile(lost="mean squad error",optimizer=SGD(lr=0.01)#なぜ0.01なのか?
model.fit(
x_train,
y_train,
validation_data=(x_val, y_val),
epochs=100
)
これが最後の一言です.もちろん、課題も実習とあまり差がないので、ある程度熟知してから勉強して、それぞれの文法を見つけました.一番下の部分は最初からよくわかりませんまず、opmizerを変えてみて、助けてみたいと思いますが、なぜそう言うのか、このオプティマイザにはいろいろな種類があります.
異なるステップ方向、異なるステップサイズ、その種類も多種多様で、織りなす.もちろん、この文章を书く时、まだ探し当てていないで、まだ勉强していないで、ハハハ、ハハハ、今日勉强して、明日文章を书く时、私は更に一回アップロードします!