vid 2 vidコードデバッグ+トレーニング+テスト(debug+train+test)(3)自分のデータセットでトレーニング


あまり話さないで、コードをつけてください.
# train on 256_g1

$ python train.py --name _256_g1 --input_nc 3 --loadSize 256 --n_downsample_G 2 --num_D 1 --max_frames_per_gpu 4 --n_frames_total 15 --dataroot datasets// --save_epoch_freq 10 --gpu_ids=2

# train on 512_g1

$ python train.py --name _512_g1 --input_nc 3 --loadSize 512 --n_scales_spatial 2  --n_downsample_G 2 --max_frames_per_gpu 1 --n_frames_total 4 --niter_step 2 --niter_fix_global 8 --niter_decay 5 --load_pretrain checkpoints/_256_g1 --dataroot datasets// --save_epoch_freq 10 --gpu_ids 2

# train on 1024_g1

$ python train.py --name _1024_g1 --input_nc 3 --loadSize 896 --n_scales_spatial 3 --n_frames_D 2 --n_downsample_G 2 --num_D 3 --max_frames_per_gpu 1 --n_frames_total 4 --niter_step 2 --niter_fix_global 8 --niter_decay 5 --load_pretrain checkpoints/_512_g1 --lr 0.0001 --dataroot datasets// --save_epoch_freq 8 --gpu_ids 2

# test

# test on 512_g1
$ python test.py --name _512_g1 --input_nc 3 --loadSize 512 --n_scales_spatial 2 --n_downsample_G 2  --gpu_ids=3 --dataroot datasets// --no_first_img

# test on 1024_g1
$ python test.py --name _1024_g1 --input_nc 3 --loadSize 1024 --n_scales_spatial 3 --n_downsample_G 2  --gpu_ids 2 --dataroot datasets// --no_first_img

コメント:
1)我々は単一GPUで行った訓練である.
2)コマンドは順番に実行する必要がある.
3)データセットの準備はstreetのフォーマットを参照する.
4)トレーニング1024の場合、カードが11 Gの場合、2回目のトレーニングパラメータの更新時にメモリがオーバーフローする可能性があるが、「save_epoch_freq」を設定すれば少なくとも1回保持できるように小さくすればよい(ただし、トレーニング結果は保証できない).
5)内はこの部分をカスタマイズする必要があることを示し、終わったら括弧を付ける必要はありません.
""" Dataset   """
"""
datasets/my_dataset_name
    ├── train_A
    │   ├── seq_000000 
    │   ├── seq_000001
    │   └── ...
    │   
    ├── train_B
    │   ├── seq_000000 
    │   ├── seq_000001
    │   └── ...
    │
    ├── test_A
    │   ├── seq_000000 
    │   ├── seq_000001
    │   └── ...
    │   
    └── test_B
        ├── seq_000000 
        ├── seq_000001
        └── ...
"""

これでvid 2 vidの研究は一段落し、次の段階の研究は比較実験を行うことができます!
ご無事をお祈りします.