実験室サーバを使うGPUとTensorFlowコードについて
2467 ワード
接続サーバ
Windows-XShell XFtp SSH SSHにより実験室のサーバ と接続する. SSH接続を使うともう慣れなくなりました.githubとOS授業設定はよく使います. は現在192.168.7.169を使って を使っています.使用工具XShellとXFtp は、XShell接続サーバおよび動作を使用して、サーバの各ノードにUbuntu 16.04 LTSオペレーティングシステム をインストールしている. XFtp管理ファイル を使用する.参照資料:Xshell+Xftp SSHトンネルエージェントXshellはSSH鍵、SSHエージェントを介してLinuxサーバに接続されています.詳細は です.
Mac OS-Terminal Cyberrduck
実験室の工位の上のコンピュータがMacなため、再び1波を熟知することしかできませんでした.は、Terminalを用いてSSH遠隔接続 を確立する.は、Cyberrduckを使用してSFtp接続管理ファイルを確立する(filezaraを考慮する) .参考資料:Macの下ではSSHでリモートLinuxサーバ(Cyberrduckダウンロードを含む)Macの下では、端末SSH機能 を使用しています.
環境を構築する-virtulenv仮想環境を確立し、パッケージをインストールする環境: 清华镜像を使う 一時使用 はデフォルト に設定されています.参考資料:清華pype鏡像使用支援virtualnv紹介及びPython開発必須神器の一つ:virtual nvvirtualnv-廖雪峰の公式サイト TensorFlowコードをGPUに走らせます. GPUの占有問題TensorFlowは、視線に見えるすべてのGPUリソースを占めるかもしれない gpuの占有状況を確認する: pythonコードに加入する: 固定のgpuを使用してコードを実行する場合 を設定します. TensorFlowが提供する2つのGPUリソースを制御する方法: 運行中に動的に現存を申請します.必要なだけ申請してください. . GPUの使用率を制限する TensorFlowコードは、現在コードの各部分が手動で割り当てられている時にGPUかCPUかを考慮していないので、 を割り当てさせました.参考資料:tenssorflow設定gpuおよびgpu現存使用TensorFlow使用GPUtenssorflow GPU小テスト 転載先:https://www.cnblogs.com/cookielbsc/p/9780682.html
Windows-XShell XFtp SSH
Mac OS-Terminal Cyberrduck
実験室の工位の上のコンピュータがMacなため、再び1波を熟知することしかできませんでした.
環境を構築する-virtulenv
virtualenv xxx_py
virtualenv -p python3 xxx_py
入環境:source xxx_py/bin/activate
退出:deactivate
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple some-package
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
gpustat
os.environ['CUDA_VISIBLE_DEVICES'] = '0' os.environ['CUDA_VISIBLE_DEVICES'] = '0,1'
CUDA_VISIBLE_DEVICES=1 Only device 1 will be seen CUDA_VISIBLE_DEVICES=0,1 Devices 0 and 1 will be visible CUDA_VISIBLE_DEVICES=”0,1” Same as above, quotation marks are optional CUDA_VISIBLE_DEVICES=0,2,3 Devices 0, 2, 3 will be visible; device 1 is masked
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)
CUDA_VISIBLE_DEVICES=0 python3 main.py
ですべてのネットワーク構造を包んでから、with tf.device(self.device):
でTensorFlow自身に