TIL 211004
5260 ワード
1.ニューラルネットワークDeep Learning(2.3.9)
:アルゴリズムの1つ->深度学習
1.ニューラルネットワークモデル
:複数のステップで意思決定を作成する
->MLPで重み付け和(y hat)を複数回繰り返し作成する
らせんまたはスーパーコモン接線の適用(非線形関数)
★我々が決定する重要なパラメータ:隠匿層の単位数
->多くの隠蔽層からなる大規模なニューラルネットワーク=深さ学習!
2.ニューラルネットワークの調整
from sklearn.neural_network import MLPClassifier
特長
->hidden layer size=[,]非表示レイヤをカッコ内のカンマで区切る(?)
#훈련 세트 평균 계산
mean_on_train = X_train.mean(axis=0)
#훈련 세트 표준 편차 계산
std_on_train = X_train.std(axis=0)
#표준정규분포로 만들기
X_train_scaled = (X_train - mean_on_train) / std_on_train
#테스트 세트도 표준정규분포로 만들기
X_test_scaled = (X_test - mean_on_train) / std_on_train
mlp = MLPClassifier(random = 0)
# 반복횟수가 100이 기본값이기 때문에 max_iter 매개변수를 이용해 늘려줘야 함
# 안 그럼 오류!
mlp.fit(X_train_scaled, y_train)
print("훈련 세트 정확도: {:.3f}".format(mlp.score(X_train_scaled, y_train)))
print("테스트 세트 정확도: {:.3f}".format(mlp.score(X_test_scaled, y_test)))
モデルの複雑さはメリットとデメリット
注意
複雑度推定
- decision_function
(ほとんどの分類クラスでは1つまたは2つの関数が提供されています)
2.決定関数(2.4.1)
:バイナリ分類でdecision functionが返す値のサイズは(n samples,)
->各例は実数値を返します
本当に歴代級では理解できません^^...この値は何を意味しますか?
決定関数を単独で学ぶしかない.
3.予測確率(2.4.2)
:predicate probaの出力はクラスごとの確率->decision functionの出力よりも理解しやすい(ああ!)
:predicate probaの出力はクラスごとの確率->decision functionの出力よりも理解しやすい(ああ!)
戻り値=(n samples,2)
->確率です.したがってpredic probaの出力は常に0と1の値(確率の和=1)
の最後の部分
补习勉强は终わりました~!ニューラルネットワークで聞いたことのある単語(多発式など...)本がたくさんあったので勉強が面白かったのですが、その後新しい関所が待っていてくれました^^...分類予測の不確実性推定......近い将来、私はあなたを征服しに来ます!!
Reference
この問題について(TIL 211004), 我々は、より多くの情報をここで見つけました
https://velog.io/@drizzle0171/TIL-211004
テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol
Reference
この問題について(TIL 211004), 我々は、より多くの情報をここで見つけました https://velog.io/@drizzle0171/TIL-211004テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol