深さ学習基礎0401
25850 ワード
Preview
<チャレンジ>
XORを使用したフル加算、ハーフ加算
Pythonを実践中にエラーが発生しました
解凍エラー
以前に受け取ったディレクトリから圧縮されたPythoncacheファイル、pickleファイルなどをすべて削除する必要があります.
キムチは?
安全にダウンロードされていないファイルにPythonをインポートしようとしたため、エラーが発生しました.
来週の水曜日(4/6)のレッスンは緑江です!~from re import T
import sys, os
sys.path.append(os.pardir) # path는 현재 디렉토리(working directory)이어야 함
import numpy as np
import pickle # 파이썬 라이브러리 pickle 사용:
from dataset.mnist import load_mnist
from common.functions import sigmoid, softmax
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i])
p = np.argmax(y)
if p == t[i]:
accuracy_cnt += 1
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))
predicateという名前の関数は10000回実行されます.
バッチ処理
配置:あるものをパッケージ化して処理します.
ネットワーク接続がない場合は、銀行の入出金時にローカルコンピュータで計算し、中央サーバに配置します.
実現したニューラルネットワーク重み付け処理の結果# 배치처리
x, _ = get_data()
network = init_network()
W1, W2, W3 = network['W1'], network['W2'], network['W3']
print(x.shape)
print(x[0].shape)
print(W1.shape)
print(W2.shape)
print(W3.shape)
一度に100個処理すると計算速度が速くなります
実際の計算量は変わりませんが、gpu(アクセラレータ)を使用すると、データを最適化して実行できます(より効率的です).
=>1枚1枚のメモリアクセス時間は、計算時間よりも長くなります.
バッチ処理の効率が向上します.# 배치를 통한 신경망 추론 처리
x, t = get_data()
network = init_network()
batch_size = 100 # 배치 크기
Accuracy_cnt = 0
for i in range(0, len(x), batch_size):
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1)
accuracy_cnt += np.sum(p == t[i: i+batch_size])
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))
完全なコードfrom re import T
import sys, os
sys.path.append(os.pardir) # path는 현재 디렉토리(working directory)이어야 함
import numpy as np
import pickle # 파이썬 라이브러리 pickle 사용:
from dataset.mnist import load_mnist
from common.functions import sigmoid, softmax
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i])
p = np.argmax(y)
if p == t[i]:
accuracy_cnt += 1
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))
# 배치처리
x, _ = get_data()
network = init_network()
W1, W2, W3 = network['W1'], network['W2'], network['W3']
print(x.shape)
print(x[0].shape)
print(W1.shape)
print(W2.shape)
print(W3.shape)
# 배치를 통한 신경망 추론 처리
x, t = get_data()
network = init_network()
batch_size = 100 # 배치 크기
Accuracy_cnt = 0
for i in range(0, len(x), batch_size):
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1)
accuracy_cnt += np.sum(p == t[i: i+batch_size])
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))```
Reference
この問題について(深さ学習基礎0401), 我々は、より多くの情報をここで見つけました
https://velog.io/@allzeroyou/딥러닝기초0401
テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol
from re import T
import sys, os
sys.path.append(os.pardir) # path는 현재 디렉토리(working directory)이어야 함
import numpy as np
import pickle # 파이썬 라이브러리 pickle 사용:
from dataset.mnist import load_mnist
from common.functions import sigmoid, softmax
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i])
p = np.argmax(y)
if p == t[i]:
accuracy_cnt += 1
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))
配置:あるものをパッケージ化して処理します.
ネットワーク接続がない場合は、銀行の入出金時にローカルコンピュータで計算し、中央サーバに配置します.
実現したニューラルネットワーク重み付け処理の結果
# 배치처리
x, _ = get_data()
network = init_network()
W1, W2, W3 = network['W1'], network['W2'], network['W3']
print(x.shape)
print(x[0].shape)
print(W1.shape)
print(W2.shape)
print(W3.shape)
一度に100個処理すると計算速度が速くなります実際の計算量は変わりませんが、gpu(アクセラレータ)を使用すると、データを最適化して実行できます(より効率的です).
=>1枚1枚のメモリアクセス時間は、計算時間よりも長くなります.
バッチ処理の効率が向上します.
# 배치를 통한 신경망 추론 처리
x, t = get_data()
network = init_network()
batch_size = 100 # 배치 크기
Accuracy_cnt = 0
for i in range(0, len(x), batch_size):
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1)
accuracy_cnt += np.sum(p == t[i: i+batch_size])
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))
完全なコードfrom re import T
import sys, os
sys.path.append(os.pardir) # path는 현재 디렉토리(working directory)이어야 함
import numpy as np
import pickle # 파이썬 라이브러리 pickle 사용:
from dataset.mnist import load_mnist
from common.functions import sigmoid, softmax
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i])
p = np.argmax(y)
if p == t[i]:
accuracy_cnt += 1
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))
# 배치처리
x, _ = get_data()
network = init_network()
W1, W2, W3 = network['W1'], network['W2'], network['W3']
print(x.shape)
print(x[0].shape)
print(W1.shape)
print(W2.shape)
print(W3.shape)
# 배치를 통한 신경망 추론 처리
x, t = get_data()
network = init_network()
batch_size = 100 # 배치 크기
Accuracy_cnt = 0
for i in range(0, len(x), batch_size):
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1)
accuracy_cnt += np.sum(p == t[i: i+batch_size])
print("Accuracy: "+str(float(accuracy_cnt)/len(x)))```
Reference
この問題について(深さ学習基礎0401), 我々は、より多くの情報をここで見つけました https://velog.io/@allzeroyou/딥러닝기초0401テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol