The anoに基づく深度学習(Deep Learning)フレームKeras学習エッセイ-04-目標関数


元の住所:http://blog.csdn.net/niuwei22007/article/details/49132133もっと多くの記事を見ることができます.
Objective(ターゲット関数)とは、よく言われる対価関数または損失関数です.モデルを訓練するために必要なもう一つのパラメータです.比較的によく使われるのは平均二乗誤差と論理回帰です.前は最適化器です.
        一、ターゲット関数の使い方
model.compile(loss='mean_squared_error', optimizer='sgd')
        このコードはもう何回も見ました.関数名を伝えることができます.各ブロックのデータのためにスカラーを返すThano smbonic functionも伝えられます.また、この関数のパラメータは以下の形式である.
  • y_true:実際のラベルです.タイプはThe ano tensor
  • です.
  • y_pred:予測結果.タイプはy_とtrueとshopのThe anotensor
  •         実は考えてみると簡単です.損失関数の役割は予測結果と実際値の差を返すことです.その後、最適化器は、差に応じてパラメータを調整する.損失関数の違いは、この差に対する度数の違いです.ここではKerasが目標関数に対して実現したソースコードです.
            
            二、Keras内蔵のターゲット関数
  • mean_スクウェアドerror / mse平均二乗誤差は、通常の目標関数であり、数式は((yupled-yuutrue)^2).mean(axis=-1)であり、予測値と実際値の差の二乗を加算して平均値を求める.
  • mean_absoute_error / maeの絶対値は均等で、公式は(upled-yuutrue|).mean(axis=-1)とは予測値と実際値の差の絶対値を加算します.
  • mean_absoute_percentage_error / mapeの公式は、(|(yuppred)/clip((|y true 124;)、epsilon、infinite)、mean(axis=-1)*100、maeとの違いは、累積したのは(予測値と実際の値の差)で割って、filoniteの間にある.
  • meanquaredulogarethmicuerror / msle公式は、(log(clip)+1)-log(clip(yi rue,epsilon,infinite)^2.mean(axis=-1)であり、これはlogs対数を加えて、epsilonとfiniteの間の予測値を除いて、平均して、2.6 mean(axis=-1)です.
  • squareduhinge公式は、(max(1−yupled、0)^2.mean(axis=-1)をとり、1を減算して予測値と実際値との積を差し引いた結果と0比の大きい値の平方の累積平均を返します.
  • hinge公式は、(max(1−yupled,0).mean(axis=-1)をとり、予測値と実際値との積を1から減算した結果と0よりも大きな値の積算平均を返します.
  • binary ucrosentropy:よく言われる論理回帰.
  • categorical ucrontropy:多分類の論理回帰注意:using this ojective requires that your labels ara arrays oshape (nbrampples,nbrasses).
  •         参考資料:
  • 公式教程