【TensorFlow】指定されたGPUを使用
2889 ワード
既存のモデルトレーニングでは、一般configファイルが使用するGPUを指定します.
しかし、一部のプログラムでは、コードが書かれている可能性があり、GPUが指定されていても、すべての空きGPUが使用されている場合があります.
実際には、マシンに複数のGPUがある場合、TensorFlowはデフォルトで使用可能なすべてのディスプレイメモリを占めていますが、複数のプロジェクトを実行する必要がある場合は、特定のGPUを使用することを望んでいます.
以下は、指定が無効な場合の万能強制指定方法です.
1.起動ファイルの先頭に次のコードを追加します. TensorFlowであるGPU の使用を指定
TensorFlowで指定されたGPU
TensorFlowでGPU を無効にする
2.起動時のコマンドに次のものを追加します.コマンド前にCUDA_を追加VISIBLE_DEVICES
3.configファイルに使用するGPUが指定されている場合LIST(TRAIN.GPU_LIST = '1'):起動ファイルにCUDA_を追加VISIBLE_DEVICES
転載先:https://www.cnblogs.com/wlhr62/p/10763857.html
しかし、一部のプログラムでは、コードが書かれている可能性があり、GPUが指定されていても、すべての空きGPUが使用されている場合があります.
実際には、マシンに複数のGPUがある場合、TensorFlowはデフォルトで使用可能なすべてのディスプレイメモリを占めていますが、複数のプロジェクトを実行する必要がある場合は、特定のGPUを使用することを望んでいます.
以下は、指定が無効な場合の万能強制指定方法です.
1.起動ファイルの先頭に次のコードを追加します.
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "1" # 0 , 2 GPU
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "0, 1" # 0 1 GPU, 1 2 GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "-1"
2.起動時のコマンドに次のものを追加します.
CUDA_VISIBLE_DEVICES=0 python train.py
3.configファイルに使用するGPUが指定されている場合LIST(TRAIN.GPU_LIST = '1'):
import os
os.environ['CUDA_VISIBLE_DEVICES'] = cfg.TRAIN.GPU_LIST
転載先:https://www.cnblogs.com/wlhr62/p/10763857.html