[データ科学]開発日記4日目


4日目学習ノート
*Warm up:
-1.微分は人工知能の最適化に不可欠な要素である
:実際の値を正確に予測するために、誤差値(実際の値-予測値)が0に近いほど正確になります.これを行うには,誤差関数が最小化されるa,b値を見つけなければならない.すなわち,f(a,b)=誤差因子関数を微分することで,誤差関数導関数が0の部分を見つけることができ,a,bを求める.
−2傾斜降下法は,現実にはパラメータが多いため,誤差関数が最小のa,b値を見つけることができる最適化アルゴリズムの一つである.a,b傾斜度低下方向にアルゴリズムを行う方法.グラデーションが0になるまでa、bの値を繰り返し更新します.適切な学習率を身につけてこそ、所望の結果を達成することができる.
-3. 편미분 = 변수1개만을 타겟잡아 미분하고 그 외 나머지 변수는 전부 상수 처리시키는 방법

-4. 합성함수 = 양파까기 , Deep learning 의 핵심개념중 하나인 Backward Propagation 을 이해하는데 중요한 개념
  • 傾斜降下法原理:
  • モデル予測値と実際の値との差(エラー関数)が最小のモデルに最適なa,bパラメータを選択する場合,微分係数がゼロの場所を見つければ,実際に遭遇するデータには多くのパラメータがある.したがって,任意のa,bを選択した後も更新を続け,傾斜が徐々に0に収束する原理である.学習率が低すぎると収束に要する時間が長すぎたり、逆に学習率が高すぎると最小の傾斜極小値を逃してしまうので、適切な学習率を選択しましょう.
    Gradient decent