kerasの活性化関数
概要
kerasの活性化関数をグラフにしてみた。
写真
サンプルコード
import matplotlib.pyplot as plt
import numpy as np
from tensorflow.contrib.keras.python import keras
from tensorflow.contrib.keras.python.keras import backend as K
def tanh(x):
a = np.asarray([x])
a = K.variable(a)
result = (K.get_value(K.tanh(a)))
return result[0]
def relu(x):
a = np.asarray([x])
a = K.variable(a)
result = (K.get_value(K.relu(a)))
return result[0]
def sigmoid(x):
a = np.asarray([x])
a = K.variable(a)
result = (K.get_value(K.sigmoid(a)))
return result[0]
def linear(x):
return keras.activations.linear(x)
x = np.linspace(-1.0, 1.0, 100)
plt.plot(x, tanh(x), label = "tanh")
plt.plot(x, relu(x), label = "relu")
plt.plot(x, sigmoid(x), label = "sigmoid")
plt.plot(x, linear(x), label = "linear")
plt.legend()
plt.savefig("acti4.png")
plt.show()
import matplotlib.pyplot as plt
import numpy as np
from tensorflow.contrib.keras.python import keras
from tensorflow.contrib.keras.python.keras import backend as K
def tanh(x):
a = np.asarray([x])
a = K.variable(a)
result = (K.get_value(K.tanh(a)))
return result[0]
def relu(x):
a = np.asarray([x])
a = K.variable(a)
result = (K.get_value(K.relu(a)))
return result[0]
def sigmoid(x):
a = np.asarray([x])
a = K.variable(a)
result = (K.get_value(K.sigmoid(a)))
return result[0]
def linear(x):
return keras.activations.linear(x)
x = np.linspace(-1.0, 1.0, 100)
plt.plot(x, tanh(x), label = "tanh")
plt.plot(x, relu(x), label = "relu")
plt.plot(x, sigmoid(x), label = "sigmoid")
plt.plot(x, linear(x), label = "linear")
plt.legend()
plt.savefig("acti4.png")
plt.show()
以上。
Author And Source
この問題について(kerasの活性化関数), 我々は、より多くの情報をここで見つけました https://qiita.com/ohisama@github/items/f77642418ac6828f1fac著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .