kersasはmodelの中のある階のあるTensorの出力次元教程を獲得します。
ある階層のtensorの出力次元を獲得しました。
コードは以下の通りです。
以上のこのkersはmodelの中のある階のTensorの出力次元教程を獲得しました。つまり、小編纂は皆さんに提供した内容を全部共有しました。参考にしてもらいたいです。どうぞよろしくお願いします。
コードは以下の通りです。
from keras import backend as K
@wraps(Conv2D)
def my_conv(*args,**kwargs):
new_kwargs={'kernel_regularizer':l2(5e-6)}
new_kwargs['padding']='valid' #'same'
new_kwargs['strides']=(2,2) if kwargs.get('strides')==(2,2) else (1,1)
# new_kwargs['kernel_initializer']=keras.initializers.glorot_uniform(seed=0)
new_kwargs.update(kwargs)
return Conv2D(*args,**new_kwargs)
def conv(x,**kwargs):
x=my_conv(**kwargs)(x)
x=BatchNormalization(axis=-1)(x)
x=LeakyReLU(alpha=0.05)(x)
return x
def inception_resnet_a(x_input):
x_short=x_input
s1=conv(x_input,filters=32,kernel_size=(1,1))
s2=conv(x_input,filters=32,kernel_size=(1,1))
s2=conv(s2,filters=32,kernel_size=(3,3),padding='same')
s3=conv(x_input,filters=32,kernel_size=(1,1))
s3=conv(s3,filters=48,kernel_size=(3,3),padding='same')
s3=conv(s3,filters=64,kernel_size=(3,3),padding='same')
x=keras.layers.concatenate([s1,s2,s3])
x=conv(x,filters=384,kernel_size=(1,1))
x=layers.Add()([x_short,x])
x=LeakyReLU(alpha=0.05)(x)
print(K.int_shape(x))
K.int_を使用するshape(tensor_)name)に対応した次元が得られます。以上のこのkersはmodelの中のある階のTensorの出力次元教程を獲得しました。つまり、小編纂は皆さんに提供した内容を全部共有しました。参考にしてもらいたいです。どうぞよろしくお願いします。