【TensorFlow】指定されたGPUを使用

2889 ワード

既存のモデルトレーニングでは、一般configファイルが使用するGPUを指定します.
しかし、一部のプログラムでは、コードが書かれている可能性があり、GPUが指定されていても、すべての空きGPUが使用されている場合があります.
実際には、マシンに複数のGPUがある場合、TensorFlowはデフォルトで使用可能なすべてのディスプレイメモリを占めていますが、複数のプロジェクトを実行する必要がある場合は、特定のGPUを使用することを望んでいます.
以下は、指定が無効な場合の万能強制指定方法です.
 
1.起動ファイルの先頭に次のコードを追加します.
  • TensorFlowであるGPU
  • の使用を指定

    import
    os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"] = "1" # 0 , 2 GPU


     
  • TensorFlowで指定されたGPU

  • import
    os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"] = "0, 1" # 0 1 GPU, 1 2 GPU


     
  • TensorFlowでGPU
  • を無効にする

    import
    os os.environ["CUDA_VISIBLE_DEVICES"] = "-1"


     
    2.起動時のコマンドに次のものを追加します.
  • コマンド前にCUDA_を追加VISIBLE_DEVICES

  • CUDA_VISIBLE_DEVICES=0 python train.py


     
    3.configファイルに使用するGPUが指定されている場合LIST(TRAIN.GPU_LIST = '1'):
  • 起動ファイルにCUDA_を追加VISIBLE_DEVICES
  • import os
    
    os.environ['CUDA_VISIBLE_DEVICES'] = cfg.TRAIN.GPU_LIST

     
    転載先:https://www.cnblogs.com/wlhr62/p/10763857.html