Lec-05 Logistic Regression
Classification - Binary Classification
:テスト-失敗/失敗
:スパム-Yes/No
:顔-REal/Fake
:機械学習を行うためには,0と1の2つの値に分けて分類しなければならない.
Logistic>データは2つのケースに分けられます
:ex)靴サイズ、会社員数
Linear>データは連続的で、新しいデータがあっても
:ex)時間、体重、身長
ex) Study Hours <-> Pass/Fail
:学習時間が長ければ長いほど合格率が高くなる
:Logistic FunctionはPass(1)とFail(0)を表すのに最適です
: g(z) function
:sigmoid関数により1と0の線形回帰の実数値を得ることができる
上図に示すように、決定境界基準に基づいて2種類に分けることができる.
すべての人のために準備した第2四半期-Tensorflow
:テスト-失敗/失敗
:スパム-Yes/No
:顔-REal/Fake
:機械学習を行うためには,0と1の2つの値に分けて分類しなければならない.
x_train = [[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]]
y_train = [[0], [0], [0], [1], [1], [1]] # One Hot
Logistic vs LinearLogistic>データは2つのケースに分けられます
:ex)靴サイズ、会社員数
Linear>データは連続的で、新しいデータがあっても
:ex)時間、体重、身長
Logistic_Y = [[0], [0], [0], [1], [1], [1]] # One Hot
Linear_Y = [828.659973, 833.450012, 819.23999, 828.349976, 831.659973] # Numeric
Hypothesis Representationex) Study Hours <-> Pass/Fail
:学習時間が長ければ長いほど合格率が高くなる
:Logistic FunctionはPass(1)とFail(0)を表すのに最適です
hypothesis = tf.matmul(X, 0) + b # linear 0 is an [1xn+1] matrix / 0 are parameters
Sigmoid(Logistic) function: g(z) function
:sigmoid関数により1と0の線形回帰の実数値を得ることができる
hypothesis = tf.sigmoid(z) # z=tf.matmul(X, 0) + b
hypothesis = tf.div(1., 1. + tf.exp(z))
Decision Boundary上図に示すように、決定境界基準に基づいて2種類に分けることができる.
すべての人のために準備した第2四半期-Tensorflow
Reference
この問題について(Lec-05 Logistic Regression), 我々は、より多くの情報をここで見つけました https://velog.io/@lybin10/Logistic-Regressionテキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol