pythonはマルチスレッドを使ってバッファーバッファを作成します。
この数日間顔認識を勉強している時、運行には問題がないですが、一つの問題を意識しました。
画像を転送する場合、GPUの利用率は0です。
つまり、画像の伝送速度とGPUの処理速度がうまくつながらないということです。
そこで、マルチスレッドを使ってバッファーキャッシュを開発するつもりです。
実現の構想は次の通りである。
Bufferクラスを定義して、そのコンストラクションの中にバffer空間を作成します。ここではlistタイプを使用したほうがいいです。
また、スレッドロックロックロックを定義する必要があります。
二つの方法が必要ですから、私達は二つのロックを定義します。
実装コードは以下の通りです。
締め括りをつける
ここでは、pythonがマルチスレッドを使ってバッファーバッファを作成する記事について紹介します。pythonマルチスレッドバッファーバッファの内容については、以前の記事を検索したり、以下の関連記事を見たりしてください。これからもよろしくお願いします。
画像を転送する場合、GPUの利用率は0です。
つまり、画像の伝送速度とGPUの処理速度がうまくつながらないということです。
そこで、マルチスレッドを使ってバッファーキャッシュを開発するつもりです。
実現の構想は次の通りである。
Bufferクラスを定義して、そのコンストラクションの中にバffer空間を作成します。ここではlistタイプを使用したほうがいいです。
また、スレッドロックロックロックを定義する必要があります。
二つの方法が必要ですから、私達は二つのロックを定義します。
実装コードは以下の通りです。
#-*-coding:utf-8-*-
import threading
class Buffer:
def __init__(self,size):
self.size = size
self.buffer = []
self.lock = threading.Lock()
self.has_data = threading.Condition(self.lock) # small sock depand on big sock
self.has_pos = threading.Condition(self.lock)
def get_size(self):
return self.size
def get(self):
with self.has_data:
while len(self.buffer) == 0:
print("I can't go out has_data")
self.has_data.wait()
print("I can go out has_data")
result = self.buffer[0]
del self.buffer[0]
self.has_pos.notify_all()
return result
def put(self, data):
with self.has_pos:
#print(self.count)
while len(self.buffer)>=self.size:
print("I can't go out has_pos")
self.has_pos.wait()
print("I can go out has_pos")
# If the length of data bigger than buffer's will wait
self.buffer.append(data)
# some thread is wait data ,so data need release
self.has_data.notify_all()
if __name__ == "__main__":
buffer = Buffer(3)
def get():
for _ in range(10000):
print(buffer.get())
def put():
a = [[1,2,3,4,5,6,7,8,9],[1,2,3,4,5,6,7,8,9],[1,2,3,4,5,6,7,8,9]]
for _ in range(10000):
buffer.put(a)
th1 = threading.Thread(target=put)
th2 = threading.Thread(target=get)
th1.start()
th2.start()
th1.join()
th2.join()
締め括りをつける
ここでは、pythonがマルチスレッドを使ってバッファーバッファを作成する記事について紹介します。pythonマルチスレッドバッファーバッファの内容については、以前の記事を検索したり、以下の関連記事を見たりしてください。これからもよろしくお願いします。