中国大学MOOC-人工知能実践:Tensorflowノート-カリキュラムノートChapter 8ボリュームネットワーク実践
22799 ワード
このブログは中国大学MOOC-人工知能実践:Tensorflowノート課程を学ぶ際の個人ノート記録です.具体的な授業状況はリンクをクリックして見ることができます.△ここは中国の大学MOOCを推して、とても良い学習プラットフォームで、品質が高くて、種類がそろっていて、勉強したいなら役に立ちます.
よく使われる関数
tf.placeholderは、実際の訓練サンプル/テスト/真実特徴/処理対象特徴を伝達するために使用され、ビットのみを占め、初期値を与える必要はなく、sessを用いる.runのfeed_dictパラメータは辞書形式でデータを供給する
np.save()#配列をバイナリ形式でディスクに書き込み、拡張名を.npy np.load()#配列をバイナリ形式でディスクを読み出し、
.item()#遍歴(キー値ペア)例:data_dict = np.load(vgg16.npy, encoding = ‘latin1’).item()#vgg 16を読む.npyファイル、その内キー値ペアを遍歴し、モデルパラメータをdata_に割り当てるエクスポートdict.
a.get_shape()
tf.nn.bias_add(乗和,bias):biasを乗和に加える.tf.reshape(tensor, shape):
np.Argsort(リスト):リストを小さいものから大きいものに並べ替え、インデックス値OSモジュールosを返す.getcwd():現在の作業ディレクトリを返します.os.path.join(path 1[,path 2[,......]]):戻り値:複数のパスを組み合わせて戻ります.注意:最初の絶対パスの前のパラメータは無視されます.
tf.split(dimension,num_split,input):dimension:テンソルのどの次元を入力し、0であれば0次元をカットします.num_split:切断の数は、2であれば入力テンソルが2部に切られ、1部ごとにリストされます.
tf.concat(concat_dim,values):ある次元に沿ってtensorを連結します.
fig = plt.figure(「図名」):図オブジェクトをインスタンス化します.ax = fig.add_subplot(mn k):キャンバスをm行n列に分割し、画像を左から右へ上から下へk番目のブロックに描く.
ax.bar(barの個数、barの値、各barの名前、barの幅、barの色):ヒストグラムを描画します.barの個数,barの値,各barの名前,barの幅,barの色を与える.
ax.set_ylabel("):y軸の名前を指定します.
ax.set_title("):サブマップの名前を指定します.
ax.text(x,y,string,fontsize=15,verticalalignment="top",horizontalalignment="right"):x,y:座標軸上の値を表します.string:説明文字を表します.fontsize:フォントサイズを表します.verticalalignment:垂直整列方式、パラメータ:[‘center’|‘top’|‘bottom’|‘baseline’]horizontalalignment:水平整列方式、パラメータ:[‘center’|‘right’|‘left’]
plt.show():描きます.
axo=imshow(図):サブ図を描きます.
このレッスンで使用するコードファイルは全部で5つのaapがあります.py:画像認識vgg 16を実現するアプリケーション.py:モデルパラメータを読みutilsを構築する.py:画像を読み込み、確率でNclassesを表示します.py:lables辞書を含む
app.py
vgg16.py
utils.py
Chapter 8ボリュームネットワーク実践
8.1既存のボリュームニューラルネットワークの再現
よく使われる関数
x = tf.placeholder(tf.float32, shape=[BATCH_SIZE, IMAGE_PIXELS])
# example
x = tf.placeholder(tf.float32, shape=[1,224,224,3])
# [1,224,224,3] ,224*224 ,3
tf.placeholderは、実際の訓練サンプル/テスト/真実特徴/処理対象特徴を伝達するために使用され、ビットのみを占め、初期値を与える必要はなく、sessを用いる.runのfeed_dictパラメータは辞書形式でデータを供給する
sess.run( ,feed_dict{x:})
np.save()#配列をバイナリ形式でディスクに書き込み、拡張名を.npy np.load()#配列をバイナリ形式でディスクを読み出し、
np.save(" .npy", )
= np.load(" .npy", encoding="").item()
# encoding , 'latin1','ASCII','bytes', "ASCII"
#
B = np.load('A.npy')
.item()#遍歴(キー値ペア)例:data_dict = np.load(vgg16.npy, encoding = ‘latin1’).item()#vgg 16を読む.npyファイル、その内キー値ペアを遍歴し、モデルパラメータをdata_に割り当てるエクスポートdict.
# tf.shape(a) # a
x = tf.constant([[1,2,3],[4,5,6]]) #tensor
y = [[1,2,3],[4,5,6]] # list
z = np.arange(24).reshape([2,3,4]) # array
sess.run(tf.shape(x)) #[2,3]
sess.run(tf.shape(y)) #[2,3]
sess.run(tf.shape(z)) #[2,3,4]
a.get_shape()
x_shape=x.get_shape() # TensorShape([Dimension(2),
Dimension(3)]), sess.run(), tensor string,
x_shape=x.get_shape().as_list() # as_list() , x_shape=[2 3]
y_shape=y.get_shape() # AttributeError: 'list' object hasno attribute 'get_shape'
z_shape=z.get_shape() # AttributeError: 'numpy.ndarray'object has no attribute 'get_shape'
tf.nn.bias_add(乗和,bias):biasを乗和に加える.tf.reshape(tensor, shape):
# tensor
tensor ‘t’ is [1, 2, 3, 4, 5, 6, 7, 8, 9]
tensor ‘t’ has shape [9]
reshape(t, [3, 3]) ==>
[[1, 2, 3],
[4, 5, 6],
[7, 8, 9]]
# shape [-1],
# -1 9:
reshape(t, [2, -1]) ==>
[[1, 1, 1, 2, 2, 2, 3, 3, 3],
[4, 4, 4, 5, 5, 5, 6, 6, 6]]
np.Argsort(リスト):リストを小さいものから大きいものに並べ替え、インデックス値OSモジュールosを返す.getcwd():現在の作業ディレクトリを返します.os.path.join(path 1[,path 2[,......]]):戻り値:複数のパスを組み合わせて戻ります.注意:最初の絶対パスの前のパラメータは無視されます.
import os
vgg16_path = os.path.join(os.getcwd(),"vgg16.npy")
tf.split(dimension,num_split,input):dimension:テンソルのどの次元を入力し、0であれば0次元をカットします.num_split:切断の数は、2であれば入力テンソルが2部に切られ、1部ごとにリストされます.
import tensorflow as tf;
import numpy as np;
A = [[1,2,3],[4,5,6]]
x = tf.split(1, 3, A)
with tf.Session() as sess:
c = sess.run(x)
for ele in c:
print ele
##########################
:
[[1]
[4]]
[[2]
[5]]
[[3]
[6]]
tf.concat(concat_dim,values):ある次元に沿ってtensorを連結します.
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat(0, [t1, t2]) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11,12]]
tf.concat(1, [t1, t2]) ==> [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]]
# tensor , :
tf.concat(axis, [tf.expand_dims(t, axis) for t in tensors])
# tf.pack(tensors, axis=axis)
fig = plt.figure(「図名」):図オブジェクトをインスタンス化します.ax = fig.add_subplot(mn k):キャンバスをm行n列に分割し、画像を左から右へ上から下へk番目のブロックに描く.
#
import matplotlib.pyplot as plt
from numpy import *
#
fig = plt.figure()
ax = fig.add_subplot(3 4 9)
ax.plot(x,y)
plt.show()
ax.bar(barの個数、barの値、各barの名前、barの幅、barの色):ヒストグラムを描画します.barの個数,barの値,各barの名前,barの幅,barの色を与える.
ax.set_ylabel("):y軸の名前を指定します.
ax.set_title("):サブマップの名前を指定します.
ax.text(x,y,string,fontsize=15,verticalalignment="top",horizontalalignment="right"):x,y:座標軸上の値を表します.string:説明文字を表します.fontsize:フォントサイズを表します.verticalalignment:垂直整列方式、パラメータ:[‘center’|‘top’|‘bottom’|‘baseline’]horizontalalignment:水平整列方式、パラメータ:[‘center’|‘right’|‘left’]
plt.show():描きます.
axo=imshow(図):サブ図を描きます.
このレッスンで使用するコードファイルは全部で5つのaapがあります.py:画像認識vgg 16を実現するアプリケーション.py:モデルパラメータを読みutilsを構築する.py:画像を読み込み、確率でNclassesを表示します.py:lables辞書を含む
app.py
#coding:utf-8
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
import vgg16
import utils
from Nclasses import labels
img_path = raw_input('Input the path and image name:')
img_ready = utils.load_image(img_path)
fig=plt.figure(u"Top-5 ")
with tf.Session() as sess:
images = tf.placeholder(tf.float32, [1, 224, 224, 3])
vgg = vgg16.Vgg16()
vgg.forward(images)
probability = sess.run(vgg.prob, feed_dict={images:img_ready})
top5 = np.argsort(probability[0])[-1:-6:-1]
print "top5:",top5
values = []
bar_label = []
for n, i in enumerate(top5):
print "n:",n
print "i:",i
values.append(probability[0][i])
bar_label.append(labels[i])
print i, ":", labels[i], "----", utils.percent(probability[0][i])
ax = fig.add_subplot(111)
ax.bar(range(len(values)), values, tick_label=bar_label, width=0.5, fc='g')
ax.set_ylabel(u'probabilityit')
ax.set_title(u'Top-5')
for a,b in zip(range(len(values)), values):
ax.text(a, b+0.0005, utils.percent(b), ha='center', va = 'bottom', fontsize=7)
plt.show()
vgg16.py
#!/usr/bin/python
#coding:utf-8
import inspect
import os
import numpy as np
import tensorflow as tf
import time
import matplotlib.pyplot as plt
VGG_MEAN = [103.939, 116.779, 123.68]
class Vgg16():
def __init__(self, vgg16_path=None):
if vgg16_path is None:
vgg16_path = os.path.join(os.getcwd(), "vgg16.npy")
self.data_dict = np.load(vgg16_path, encoding='latin1').item()
def forward(self, images):
print("build model started")
start_time = time.time()
rgb_scaled = images * 255.0
red, green, blue = tf.split(rgb_scaled,3,3)
bgr = tf.concat([
blue - VGG_MEAN[0],
green - VGG_MEAN[1],
red - VGG_MEAN[2]],3)
self.conv1_1 = self.conv_layer(bgr, "conv1_1")
self.conv1_2 = self.conv_layer(self.conv1_1, "conv1_2")
self.pool1 = self.max_pool_2x2(self.conv1_2, "pool1")
self.conv2_1 = self.conv_layer(self.pool1, "conv2_1")
self.conv2_2 = self.conv_layer(self.conv2_1, "conv2_2")
self.pool2 = self.max_pool_2x2(self.conv2_2, "pool2")
self.conv3_1 = self.conv_layer(self.pool2, "conv3_1")
self.conv3_2 = self.conv_layer(self.conv3_1, "conv3_2")
self.conv3_3 = self.conv_layer(self.conv3_2, "conv3_3")
self.pool3 = self.max_pool_2x2(self.conv3_3, "pool3")
self.conv4_1 = self.conv_layer(self.pool3, "conv4_1")
self.conv4_2 = self.conv_layer(self.conv4_1, "conv4_2")
self.conv4_3 = self.conv_layer(self.conv4_2, "conv4_3")
self.pool4 = self.max_pool_2x2(self.conv4_3, "pool4")
self.conv5_1 = self.conv_layer(self.pool4, "conv5_1")
self.conv5_2 = self.conv_layer(self.conv5_1, "conv5_2")
self.conv5_3 = self.conv_layer(self.conv5_2, "conv5_3")
self.pool5 = self.max_pool_2x2(self.conv5_3, "pool5")
self.fc6 = self.fc_layer(self.pool5, "fc6")
self.relu6 = tf.nn.relu(self.fc6)
self.fc7 = self.fc_layer(self.relu6, "fc7")
self.relu7 = tf.nn.relu(self.fc7)
self.fc8 = self.fc_layer(self.relu7, "fc8")
self.prob = tf.nn.softmax(self.fc8, name="prob")
end_time = time.time()
print(("time consuming: %f" % (end_time-start_time)))
self.data_dict = None
def conv_layer(self, x, name):
with tf.variable_scope(name):
w = self.get_conv_filter(name)
conv = tf.nn.conv2d(x, w, [1, 1, 1, 1], padding='SAME')
conv_biases = self.get_bias(name)
result = tf.nn.relu(tf.nn.bias_add(conv, conv_biases))
return result
def get_conv_filter(self, name):
return tf.constant(self.data_dict[name][0], name="filter")
def get_bias(self, name):
return tf.constant(self.data_dict[name][1], name="biases")
def max_pool_2x2(self, x, name):
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME', name=name)
def fc_layer(self, x, name):
with tf.variable_scope(name):
shape = x.get_shape().as_list()
dim = 1
for i in shape[1:]:
dim *= i
x = tf.reshape(x, [-1, dim])
w = self.get_fc_weight(name)
b = self.get_bias(name)
result = tf.nn.bias_add(tf.matmul(x, w), b)
return result
def get_fc_weight(self, name):
return tf.constant(self.data_dict[name][0], name="weights")
utils.py
#!/usr/bin/python
#coding:utf-8
from skimage import io, transform
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
from pylab import mpl
mpl.rcParams['font.sans-serif']=['SimHei'] #
mpl.rcParams['axes.unicode_minus']=False #
def load_image(path):
fig = plt.figure("Centre and Resize")
img = io.imread(path)
img = img / 255.0
ax0 = fig.add_subplot(131)
ax0.set_xlabel(u'Original Picture')
ax0.imshow(img)
short_edge = min(img.shape[:2])
y = (img.shape[0] - short_edge) / 2
x = (img.shape[1] - short_edge) / 2
crop_img = img[y:y+short_edge, x:x+short_edge]
ax1 = fig.add_subplot(132)
ax1.set_xlabel(u"Centre Picture")
ax1.imshow(crop_img)
re_img = transform.resize(crop_img, (224, 224))
ax2 = fig.add_subplot(133)
ax2.set_xlabel(u"Resize Picture")
ax2.imshow(re_img)
img_ready = re_img.reshape((1, 224, 224, 3))
return img_ready
def percent(value):
return '%.2f%%' % (value * 100)