pytoch方法テスト――活性化関数(ReLU)詳細
テストコード:
処理前の画像を入力:
以上のpytouch方法のテスト――活性化関数(ReLU)の詳細は、小編集が皆さんに共有している内容です。参考にしていただければと思います。どうぞよろしくお願いします。
import torch
import torch.nn as nn
#inplace True, , ,
m = nn.ReLU(inplace=True)
input = torch.randn(7)
print(" :")
print(input)
output = m(input)
print("ReLU :")
print(output)
print(" :")
print(output.size())
print(" :")
print(input)
出力:処理前の画像を入力:
tensor([ 1.4940, 1.0278, -1.9883, -0.1871, 0.4612, 0.0297, 2.4300])
ReLU出力:
tensor([ 1.4940, 1.0278, 0.0000, 0.0000, 0.4612, 0.0297, 2.4300])
出力のスケール:
torch.Size([7])
入力処理後の画像:
tensor([ 1.4940, 1.0278, 0.0000, 0.0000, 0.4612, 0.0297, 2.4300])
結論:
nn.ReLU(inplace=True)
inplaceはTrueです。入力されたデータは変更されます。そうでないと元の入力は変更されません。新しい出力のみが生成されます。以上のpytouch方法のテスト――活性化関数(ReLU)の詳細は、小編集が皆さんに共有している内容です。参考にしていただければと思います。どうぞよろしくお願いします。