pytoch方法テスト――活性化関数(ReLU)詳細


テストコード:

import torch
import torch.nn as nn

#inplace True,          ,         ,        
m = nn.ReLU(inplace=True)
input = torch.randn(7)

print("       :")
print(input)

output = m(input)

print("ReLU  :")
print(output)
print("     :")
print(output.size())

print("       :")
print(input)
出力:
処理前の画像を入力:

tensor([ 1.4940, 1.0278, -1.9883, -0.1871, 0.4612, 0.0297, 2.4300])
ReLU出力:

tensor([ 1.4940, 1.0278, 0.0000, 0.0000, 0.4612, 0.0297, 2.4300])
出力のスケール:

torch.Size([7])
入力処理後の画像:

tensor([ 1.4940, 1.0278, 0.0000, 0.0000, 0.4612, 0.0297, 2.4300])
結論:

nn.ReLU(inplace=True)
inplaceはTrueです。入力されたデータは変更されます。そうでないと元の入力は変更されません。新しい出力のみが生成されます。
以上のpytouch方法のテスト――活性化関数(ReLU)の詳細は、小編集が皆さんに共有している内容です。参考にしていただければと思います。どうぞよろしくお願いします。