TensorFlow > cross_entropyの定義 > tf.reduce_sum()の使い方の違い > インデックス1の総和の平均 / すべての総和
1115 ワード
http://blog.brainpad.co.jp/entry/2016/02/12/163100
と
https://www.tensorflow.org/versions/r0.11/tutorials/mnist/beginners/index.html
にてTensorFlowを勉強中。
braindPadさんのコードとtensorflow.orgのコードでreduce_sum()の使い方が若干違っている。
atBrainPad
# 誤差関数の交差エントロピー誤差関数を用意
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
tensorflow.org
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
後者の方ではインデックス1で総和をとった値のリストから平均を取る。
前者の方ではすべての値の総和を取る。
この違いが結果にどう影響するかは未消化。
Author And Source
この問題について(TensorFlow > cross_entropyの定義 > tf.reduce_sum()の使い方の違い > インデックス1の総和の平均 / すべての総和), 我々は、より多くの情報をここで見つけました https://qiita.com/7of9/items/ec86c46679a1c3dc5d29著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .