手っ取り早くGPUの使用状況を確認する
nvidia-smi -l 5
でGPUの使用状況を継続的に確認することができますが、これだと1ステップあたりの行数が多くて時系列での傾向を把握するのが難しいです。
その際に--query-gpu
オプションを使うことで結果が見やすくなります。
$ nvidia-smi --query-gpu=timestamp,memory.used --format=csv -l 5
timestamp, memory.used [MiB]
2020/05/31 14:20:46.035, 0 MiB
2020/05/31 14:20:51.036, 0 MiB
2020/05/31 14:20:56.037, 0 MiB
2020/05/31 14:21:01.038, 0 MiB
2020/05/31 14:21:06.038, 1472 MiB
2020/05/31 14:21:11.039, 1472 MiB
2020/05/31 14:21:16.040, 2270 MiB
2020/05/31 14:21:21.040, 2270 MiB
2020/05/31 14:21:26.041, 2270 MiB
2020/05/31 14:21:31.042, 2270 MiB
2020/05/31 14:21:36.042, 2270 MiB
2020/05/31 14:21:41.043, 2270 MiB
2020/05/31 14:21:46.044, 2270 MiB
2020/05/31 14:21:51.044, 2270 MiB
2020/05/31 14:21:56.045, 2270 MiB
2020/05/31 14:22:01.046, 0 MiB
2020/05/31 14:22:06.046, 0 MiB
タイムスタンプが付けられるのは地味に便利。どのタイミングでGPUメモリが使われているのかわかりやすいです。
Author And Source
この問題について(手っ取り早くGPUの使用状況を確認する), 我々は、より多くの情報をここで見つけました https://qiita.com/bassbone/items/893070a817afb44dd248著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .