The anoに基づく深度学習(Deep Learning)フレームKeras学習エッセイ-04-目標関数
元の住所:http://blog.csdn.net/niuwei22007/article/details/49132133もっと多くの記事を見ることができます.
Objective(ターゲット関数)とは、よく言われる対価関数または損失関数です.モデルを訓練するために必要なもう一つのパラメータです.比較的によく使われるのは平均二乗誤差と論理回帰です.前は最適化器です.
一、ターゲット関数の使い方 y_true:実際のラベルです.タイプはThe ano tensor です. y_pred:予測結果.タイプはy_とtrueとshopのThe anotensor 実は考えてみると簡単です.損失関数の役割は予測結果と実際値の差を返すことです.その後、最適化器は、差に応じてパラメータを調整する.損失関数の違いは、この差に対する度数の違いです.ここではKerasが目標関数に対して実現したソースコードです.
二、Keras内蔵のターゲット関数 mean_スクウェアドerror / mse平均二乗誤差は、通常の目標関数であり、数式は((yupled-yuutrue)^2).mean(axis=-1)であり、予測値と実際値の差の二乗を加算して平均値を求める. mean_absoute_error / maeの絶対値は均等で、公式は(upled-yuutrue|).mean(axis=-1)とは予測値と実際値の差の絶対値を加算します. mean_absoute_percentage_error / mapeの公式は、(|(yuppred)/clip((|y true 124;)、epsilon、infinite)、mean(axis=-1)*100、maeとの違いは、累積したのは(予測値と実際の値の差)で割って、filoniteの間にある. meanquaredulogarethmicuerror / msle公式は、(log(clip)+1)-log(clip(yi rue,epsilon,infinite)^2.mean(axis=-1)であり、これはlogs対数を加えて、epsilonとfiniteの間の予測値を除いて、平均して、2.6 mean(axis=-1)です. squareduhinge公式は、(max(1−yupled、0)^2.mean(axis=-1)をとり、1を減算して予測値と実際値との積を差し引いた結果と0比の大きい値の平方の累積平均を返します. hinge公式は、(max(1−yupled,0).mean(axis=-1)をとり、予測値と実際値との積を1から減算した結果と0よりも大きな値の積算平均を返します. binary ucrosentropy:よく言われる論理回帰. categorical ucrontropy:多分類の論理回帰注意:using this ojective requires that your labels ara arrays oshape (nbrampples,nbrasses). 参考資料:公式教程
Objective(ターゲット関数)とは、よく言われる対価関数または損失関数です.モデルを訓練するために必要なもう一つのパラメータです.比較的によく使われるのは平均二乗誤差と論理回帰です.前は最適化器です.
一、ターゲット関数の使い方
model.compile(loss='mean_squared_error', optimizer='sgd')
このコードはもう何回も見ました.関数名を伝えることができます.各ブロックのデータのためにスカラーを返すThano smbonic functionも伝えられます.また、この関数のパラメータは以下の形式である.二、Keras内蔵のターゲット関数