Tensorflow > link > Gentlest Introduction to Tensorflow Part 2 > Stochastic/Mini-batch/Batch Gradient Descent
1143 ワード
SoonHin Khorさんによる関数近似のTensorflow Tutorial。
Gentlest Introduction to Tensorflow: Part 2
https://www.youtube.com/watch?v=Trc52FvMLEg&list=PL_MJualihC5A3REXN1CnuIlImC_o9YqnH&index=34
14:00頃から3つのGradient Descentについて説明。
- Stochastic Gradient Descent
- Mini-batch Gradient Descent
- Batch Gradient Descent
Stochasticは対語に「Deterministic」という用語がある。
Deterministicは「決定論的」。100回、同じ条件で実行すると100個の同じ結果を得る。
Stochasticは「確率論的」。100回、同じ条件で実行しても100個が同じ結果とは限らない。
Geometrical opticsなどのraytracingコーディングを試行した時に出てきた。raytracingのコードはもう忘却の彼方であるが。
以下の3つの違いはビデオを見ると正確だが以下の感じ(間違っているかもしれない)
- Stochastic Gradient Descent
- ランダムに選択したデータで学習
- Mini-batch Gradient Descent
- ある範囲のデータ(Mini-batch)で学習
- 入力と出力の位置により異なるMini-batchを使う
- Batch Gradient Descent
- すべてのデータ(Batch)で学習
Author And Source
この問題について(Tensorflow > link > Gentlest Introduction to Tensorflow Part 2 > Stochastic/Mini-batch/Batch Gradient Descent), 我々は、より多くの情報をここで見つけました https://qiita.com/7of9/items/4080c7aac0cdc42085c7著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .