ろんりかいふく


Contents
1.信号関数
2.バイナリ論理損失関数
3.ソフトMax関数
Wekiは,Logistic回帰が従属変数と独立変数との関係を示す.
モデルを予測するための特定の関数として表示されます.
また,Logistic回帰はバイナリ分類の代表的アルゴリズムである.
#01-信号関数
信号関数(論理関数とも呼ばれる)の値域の範囲は、
0~1.信号関数のグラフィックの概要は次のとおりです.

論理回帰は信号関数を使用する.
論理回帰は線形回帰と同様に線形方程式を学習する.
次いで、線形方程式のy値を信号のx値に代入する.
最終的な確率.
したがって、信号関数の式は次のようになります.
H(X)=11+e−(Wx+b)=sigmod(Wx+b)=σ(Wx+b)H(X) =\frac{1}{1+e^-(Wx+b)} = sigmod(Wx+b) =\sigma(Wx+b)H(X)=1+e−(Wx+b)1​=sigmod(Wx+b)=σ(Wx+b)
上記信号関数の概略はW=1,b=0とする.
WとBの値が変わると、信号関数の概略も変わる.
Wの値が大きいほど,グラフィックの傾きが大きくなり,関数はbの値の変化に伴って移動する.
#02-バイナリ論理損失関数
論理回帰も線形回帰と同様の傾斜降下法を用いた.
重み付けWの値を求めますが、費用関数の平均二乗誤差は使いません.
信号関数において費用関数を平均二乗誤差としてグラフィックを描画すると、
次のようなアウトラインが描画されます.

傾斜降下を行うと、上記の図形の開口部が描画されます.
ローカルの最小停止の問題が発生する可能性があります.
上記の問題により,Logistic回帰はバイナリLogistic損失関数を用いた.
論理損失関数はバイナリクロスエントロピー損失関数とも呼ばれる.
バイナリ損失関数は次のとおりです.
if y=1y = 1y=1 -> −log⁡(H(x))-\log(H(x))−log(H(x))
if y=0y = 0y=0 -> −log⁡(1−H(x))-\log(1-H(x))−log(1−H(x))
したがって、最終的なバイナリ損失関数は次のようになります.
J(W)=−1n∑i=1n[y(i)logH(x(i))+(1−y(i))log(1−H(x(i)))]J(W) = -\frac{1}{n}\sum_{i=1}^{n} [y^{(i)}logH(x^{(i)}) + (1-y^{(i)})log(1-H(x^{(i)}))]J(W)=−n1​∑i=1n​[y(i)logH(x(i))+(1−y(i))log(1−H(x(i)))]
y(i)y^{(i)}y(i)は論理回帰分類の結果値(0または1)である.
H(x(i)H(x^(i)})H(x(i))は、論理回帰の予測値(0-1の確率)である.
#03-ソフトMax関数
Logistic回帰はバイナリ分類に信号関数を用いた.
多重分類では、信号関数ではなくソフトMax関数が使用されます.
ソフトMax関数の式は次のとおりです.

ezie^{z{i}eziは論理回帰学習の第IIIクラス式の結果値である.
ezie^{z{i}eziの平均値はソフトMax関数の結果である.