Pytouchでtouch.maxとF.softmax関数の次元解釈を話します。
toch.max関数とF.Ssoftmax関数を利用する時、どのような次元を設定するべきかについて、いつも少しぼんやりしています。
まず二次元tensorの関数の例を見ます。
関数ソフトマックスが出力するのは与えられた行列の確率分布です。
b出力は、dim=0次元での確率分布、b[0][5]、[6]+b[1][5]、[6]+b[2]、[5]=1
なぜこの問題について話しますか?私は仕事中に意味分割予測出力特徴図の個数が16で、いわゆる16分類問題に遭遇したからです。
各チャンネルの画素の値の大きさは、画素がチャンネルに属する種類の大きさを表しているので、一枚の図に異なる色で表示するためには、toch.nn.Softmaxの使用を学ばなければならない。
まず簡単な例を見て、(3、4、4)と出力すれば、4 x 4の特徴図が3枚あります。
Softmax関数は、元の特徴マップの各ピクセルの値を対応次元(ここでdim=0、つまり第一次元)で計算し、それを0~1の間に処理し、サイズを一定にしていることを見ました。
print(toch.max(img,0)
出力:
上の流れがよく分かりましたので、簡単に処理します。
具体的なケースを見て、ここでアウトプットのサイズは16 x 416 x 416.
以上のこの簡単な話pytouchの中でtouch.maxとF.softmax関数の次元の説明は小さい編纂がみんなのすべての内容に分かち合うので、みんなに1つの参考をあげることができることを望んで、みんながよけいに私達を支持することをも望みます。
まず二次元tensorの関数の例を見ます。
import torch
import torch.nn.functional as F
input = torch.randn(3,4)
print(input)
tensor([[-0.5526, -0.0194, 2.1469, -0.2567],
[-0.3337, -0.9229, 0.0376, -0.0801],
[ 1.4721, 0.1181, -2.6214, 1.7721]])
b = F.softmax(input,dim=0) # SoftMax, 1
print(b)
tensor([[0.1018, 0.3918, 0.8851, 0.1021],
[0.1268, 0.1587, 0.1074, 0.1218],
[0.7714, 0.4495, 0.0075, 0.7762]])
c = F.softmax(input,dim=1) # SoftMax, 1
print(c)
tensor([[0.0529, 0.0901, 0.7860, 0.0710],
[0.2329, 0.1292, 0.3377, 0.3002],
[0.3810, 0.0984, 0.0064, 0.5143]])
d = torch.max(input,dim=0) # max,
print(d)
torch.return_types.max(
values=tensor([1.4721, 0.1181, 2.1469, 1.7721]),
indices=tensor([2, 2, 0, 2]))
e = torch.max(input,dim=1) # max,
print(e)
torch.return_types.max(
values=tensor([2.1469, 0.0376, 1.7721]),
indices=tensor([2, 2, 3]))
三次元tensorを見て、例を説明します。関数ソフトマックスが出力するのは与えられた行列の確率分布です。
b出力は、dim=0次元での確率分布、b[0][5]、[6]+b[1][5]、[6]+b[2]、[5]=1
a=torch.rand(3,16,20)
b=F.softmax(a,dim=0)
c=F.softmax(a,dim=1)
d=F.softmax(a,dim=2)
In [1]: import torch as t
In [2]: import torch.nn.functional as F
In [4]: a=t.Tensor(3,4,5)
In [5]: b=F.softmax(a,dim=0)
In [6]: c=F.softmax(a,dim=1)
In [7]: d=F.softmax(a,dim=2)
In [8]: a
Out[8]:
tensor([[[-0.1581, 0.0000, 0.0000, 0.0000, -0.0344],
[ 0.0000, -0.0344, 0.0000, -0.0344, 0.0000],
[-0.0344, 0.0000, -0.0344, 0.0000, -0.0344],
[ 0.0000, -0.0344, 0.0000, -0.0344, 0.0000]],
[[-0.0344, 0.0000, -0.0344, 0.0000, -0.0344],
[ 0.0000, -0.0344, 0.0000, -0.0344, 0.0000],
[-0.0344, 0.0000, -0.0344, 0.0000, -0.0344],
[ 0.0000, -0.0344, 0.0000, -0.0344, 0.0000]],
[[-0.0344, 0.0000, -0.0344, 0.0000, -0.0344],
[ 0.0000, -0.0344, 0.0000, -0.0344, 0.0000],
[-0.0344, 0.0000, -0.0344, 0.0000, -0.0344],
[ 0.0000, -0.0344, 0.0000, -0.0344, 0.0000]]])
In [9]: b
Out[9]:
tensor([[[0.3064, 0.3333, 0.3410, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333]],
[[0.3468, 0.3333, 0.3295, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333]],
[[0.3468, 0.3333, 0.3295, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333],
[0.3333, 0.3333, 0.3333, 0.3333, 0.3333]]])
In [10]: b.sum()
Out[10]: tensor(20.0000)
In [11]: b[0][0][0]+b[1][0][0]+b[2][0][0]
Out[11]: tensor(1.0000)
In [12]: c.sum()
Out[12]: tensor(15.)
In [13]: c
Out[13]:
tensor([[[0.2235, 0.2543, 0.2521, 0.2543, 0.2457],
[0.2618, 0.2457, 0.2521, 0.2457, 0.2543],
[0.2529, 0.2543, 0.2436, 0.2543, 0.2457],
[0.2618, 0.2457, 0.2521, 0.2457, 0.2543]],
[[0.2457, 0.2543, 0.2457, 0.2543, 0.2457],
[0.2543, 0.2457, 0.2543, 0.2457, 0.2543],
[0.2457, 0.2543, 0.2457, 0.2543, 0.2457],
[0.2543, 0.2457, 0.2543, 0.2457, 0.2543]],
[[0.2457, 0.2543, 0.2457, 0.2543, 0.2457],
[0.2543, 0.2457, 0.2543, 0.2457, 0.2543],
[0.2457, 0.2543, 0.2457, 0.2543, 0.2457],
[0.2543, 0.2457, 0.2543, 0.2457, 0.2543]]])
In [14]: n=t.rand(3,4)
In [15]: n
Out[15]:
tensor([[0.2769, 0.3475, 0.8914, 0.6845],
[0.9251, 0.3976, 0.8690, 0.4510],
[0.8249, 0.1157, 0.3075, 0.3799]])
In [16]: m=t.argmax(n,dim=0)
In [17]: m
Out[17]: tensor([1, 1, 0, 0])
In [18]: p=t.argmax(n,dim=1)
In [19]: p
Out[19]: tensor([2, 0, 0])
In [20]: d.sum()
Out[20]: tensor(12.0000)
In [22]: d
Out[22]:
tensor([[[0.1771, 0.2075, 0.2075, 0.2075, 0.2005],
[0.2027, 0.1959, 0.2027, 0.1959, 0.2027],
[0.1972, 0.2041, 0.1972, 0.2041, 0.1972],
[0.2027, 0.1959, 0.2027, 0.1959, 0.2027]],
[[0.1972, 0.2041, 0.1972, 0.2041, 0.1972],
[0.2027, 0.1959, 0.2027, 0.1959, 0.2027],
[0.1972, 0.2041, 0.1972, 0.2041, 0.1972],
[0.2027, 0.1959, 0.2027, 0.1959, 0.2027]],
[[0.1972, 0.2041, 0.1972, 0.2041, 0.1972],
[0.2027, 0.1959, 0.2027, 0.1959, 0.2027],
[0.1972, 0.2041, 0.1972, 0.2041, 0.1972],
[0.2027, 0.1959, 0.2027, 0.1959, 0.2027]]])
In [23]: d[0][0].sum()
Out[23]: tensor(1.)
追加知識:多分類問題toch.nn.Softmaxの使用なぜこの問題について話しますか?私は仕事中に意味分割予測出力特徴図の個数が16で、いわゆる16分類問題に遭遇したからです。
各チャンネルの画素の値の大きさは、画素がチャンネルに属する種類の大きさを表しているので、一枚の図に異なる色で表示するためには、toch.nn.Softmaxの使用を学ばなければならない。
まず簡単な例を見て、(3、4、4)と出力すれば、4 x 4の特徴図が3枚あります。
import torch
img = torch.rand((3,4,4))
print(img)
出力:
tensor([[[0.0413, 0.8728, 0.8926, 0.0693],
[0.4072, 0.0302, 0.9248, 0.6676],
[0.4699, 0.9197, 0.3333, 0.4809],
[0.3877, 0.7673, 0.6132, 0.5203]],
[[0.4940, 0.7996, 0.5513, 0.8016],
[0.1157, 0.8323, 0.9944, 0.2127],
[0.3055, 0.4343, 0.8123, 0.3184],
[0.8246, 0.6731, 0.3229, 0.1730]],
[[0.0661, 0.1905, 0.4490, 0.7484],
[0.4013, 0.1468, 0.2145, 0.8838],
[0.0083, 0.5029, 0.0141, 0.8998],
[0.8673, 0.2308, 0.8808, 0.0532]]])
全部で三つの特徴図を見ることができます。それぞれの特徴図に対応する値が大きいほど、この特徴図に属する対応クラスの確率が大きいと説明しています。
import torch.nn as nn
sogtmax = nn.Softmax(dim=0)
img = sogtmax(img)
print(img)
出力:
tensor([[[0.2780, 0.4107, 0.4251, 0.1979],
[0.3648, 0.2297, 0.3901, 0.3477],
[0.4035, 0.4396, 0.2993, 0.2967],
[0.2402, 0.4008, 0.3273, 0.4285]],
[[0.4371, 0.3817, 0.3022, 0.4117],
[0.2726, 0.5122, 0.4182, 0.2206],
[0.3423, 0.2706, 0.4832, 0.2522],
[0.3718, 0.3648, 0.2449, 0.3028]],
[[0.2849, 0.2076, 0.2728, 0.3904],
[0.3627, 0.2581, 0.1917, 0.4317],
[0.2543, 0.2898, 0.2175, 0.4511],
[0.3880, 0.2344, 0.4278, 0.2686]]])
上記のコードは、特徴マップごとに対応する位置のピクセル値をSoftmax関数処理し、図中に赤い位置を加算し、=1を加算し、同じ理屈で青の位置を加算します。Softmax関数は、元の特徴マップの各ピクセルの値を対応次元(ここでdim=0、つまり第一次元)で計算し、それを0~1の間に処理し、サイズを一定にしていることを見ました。
print(toch.max(img,0)
出力:
torch.return_types.max(
values=tensor([[0.4371, 0.4107, 0.4251, 0.4117],
[0.3648, 0.5122, 0.4182, 0.4317],
[0.4035, 0.4396, 0.4832, 0.4511],
[0.3880, 0.4008, 0.4278, 0.4285]]),
indices=tensor([[1, 0, 0, 1],
[0, 1, 1, 2],
[0, 0, 1, 2],
[2, 0, 2, 0]]))
ここで3 x 4 x 4は1 x 4 x 4になり、対応する位置の値は画素が各チャネルの最大値に対応し、indicesは対応する分類であることがわかる。上の流れがよく分かりましたので、簡単に処理します。
具体的なケースを見て、ここでアウトプットのサイズは16 x 416 x 416.
output = torch.tensor(output)
sm = nn.Softmax(dim=0)
output = sm(output)
mask = torch.max(output,0).indices.numpy()
# RGB ,
rgb_img = np.zeros((output.shape[1], output.shape[2], 3))
for i in range(len(mask)):
for j in range(len(mask[0])):
if mask[i][j] == 0:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 255
rgb_img[i][j][2] = 255
if mask[i][j] == 1:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 180
rgb_img[i][j][2] = 0
if mask[i][j] == 2:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 180
rgb_img[i][j][2] = 180
if mask[i][j] == 3:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 180
rgb_img[i][j][2] = 255
if mask[i][j] == 4:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 255
rgb_img[i][j][2] = 180
if mask[i][j] == 5:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 255
rgb_img[i][j][2] = 0
if mask[i][j] == 6:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 180
if mask[i][j] == 7:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 255
if mask[i][j] == 8:
rgb_img[i][j][0] = 255
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 0
if mask[i][j] == 9:
rgb_img[i][j][0] = 180
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 0
if mask[i][j] == 10:
rgb_img[i][j][0] = 180
rgb_img[i][j][1] = 255
rgb_img[i][j][2] = 255
if mask[i][j] == 11:
rgb_img[i][j][0] = 180
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 180
if mask[i][j] == 12:
rgb_img[i][j][0] = 180
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 255
if mask[i][j] == 13:
rgb_img[i][j][0] = 180
rgb_img[i][j][1] = 255
rgb_img[i][j][2] = 180
if mask[i][j] == 14:
rgb_img[i][j][0] = 0
rgb_img[i][j][1] = 180
rgb_img[i][j][2] = 255
if mask[i][j] == 15:
rgb_img[i][j][0] = 0
rgb_img[i][j][1] = 0
rgb_img[i][j][2] = 0
cv2.imwrite('output.jpg', rgb_img)
最後に保存された図は次の通りです。以上のこの簡単な話pytouchの中でtouch.maxとF.softmax関数の次元の説明は小さい編纂がみんなのすべての内容に分かち合うので、みんなに1つの参考をあげることができることを望んで、みんながよけいに私達を支持することをも望みます。