AWSのGPU環境でスタイル変換を試してみた
4367 ワード
■ 検証環境(AWS)
- リージョン:米国東部(バージニア北部):
- AMI:Deep Learning AMI (Ubuntu) Version 23.0 - ami-0bc213dc857866046
- インスタンス:p2.xlarge(NVIDIA K80 GPU)
- ストレージ:100 GB(汎用SSD(gp2))
■ 環境設定
- Deep Learning AMIには深層学習フレームワーク等が事前にインストールされているため,ユーザによる設定は不要
- ⇒フレームワークを選択することで使用可能になる
- 今回はTensorFlow(python2系)を利用
$ source activate tensorflow_p27
■ スタイル変換の動作検証
〇STEP.1 モデル作成
- 不足パッケージの導入
$ pip install moviepy
- ソースコードのダウンロード
$ git clone https://github.com/lengstrom/fast-style-transfer.git
$ cd fast-style-transfer/
- 学習用イメージのダウンロード
- data/train2014に保存される
$ ./setup.sh
- モデル作成
- styleはexampleフォルダ内のthe_scream.jpgを使用
- 計算時間は7時間程度
$ python style.py --style example/style/the_scream.jpg \
--train-path data/train2014 \
--checkpoint-dir checkpoint/ \
--test examples/content/chicago.jpg \
--test-dir examples/content
- 出力ファイル:
- checkpoint
- fns.ckpt.index
- fns.ckpt.meta
- fns.ckpt.data-00000-of-00001
〇 STEP.2 スタイル変換
- STEP.1で計算したモデルを使用して変換処理を実施
$ python evaluate.py --checkpoint-dir checkpoint --in-path input.jpg --out-path output.jpg
- 動画を変換する場合は以下を実施
$ python transform_video.py --checkpoint-dir checkpoint --in-path input.mp4 --out-path output.mp4
- 学習済みモデルは以下から取得することもできる
- 計算時間は数秒程度
- 変換処理は非GPU環境でも実施可能
■ スタイル変換結果
- Deep Learning AMIには深層学習フレームワーク等が事前にインストールされているため,ユーザによる設定は不要
- ⇒フレームワークを選択することで使用可能になる
- 今回はTensorFlow(python2系)を利用
$ source activate tensorflow_p27
■ スタイル変換の動作検証
〇STEP.1 モデル作成
- 不足パッケージの導入
$ pip install moviepy
- ソースコードのダウンロード
$ git clone https://github.com/lengstrom/fast-style-transfer.git
$ cd fast-style-transfer/
- 学習用イメージのダウンロード
- data/train2014に保存される
$ ./setup.sh
- モデル作成
- styleはexampleフォルダ内のthe_scream.jpgを使用
- 計算時間は7時間程度
$ python style.py --style example/style/the_scream.jpg \
--train-path data/train2014 \
--checkpoint-dir checkpoint/ \
--test examples/content/chicago.jpg \
--test-dir examples/content
- 出力ファイル:
- checkpoint
- fns.ckpt.index
- fns.ckpt.meta
- fns.ckpt.data-00000-of-00001
〇 STEP.2 スタイル変換
- STEP.1で計算したモデルを使用して変換処理を実施
$ python evaluate.py --checkpoint-dir checkpoint --in-path input.jpg --out-path output.jpg
- 動画を変換する場合は以下を実施
$ python transform_video.py --checkpoint-dir checkpoint --in-path input.mp4 --out-path output.mp4
- 学習済みモデルは以下から取得することもできる
- 計算時間は数秒程度
- 変換処理は非GPU環境でも実施可能
■ スタイル変換結果
$ pip install moviepy
$ git clone https://github.com/lengstrom/fast-style-transfer.git
$ cd fast-style-transfer/
- data/train2014に保存される
$ ./setup.sh
- styleはexampleフォルダ内のthe_scream.jpgを使用
- 計算時間は7時間程度
$ python style.py --style example/style/the_scream.jpg \
--train-path data/train2014 \
--checkpoint-dir checkpoint/ \
--test examples/content/chicago.jpg \
--test-dir examples/content
- checkpoint
- fns.ckpt.index
- fns.ckpt.meta
- fns.ckpt.data-00000-of-00001
$ python evaluate.py --checkpoint-dir checkpoint --in-path input.jpg --out-path output.jpg
$ python transform_video.py --checkpoint-dir checkpoint --in-path input.mp4 --out-path output.mp4
- 変換処理は非GPU環境でも実施可能
Author And Source
この問題について(AWSのGPU環境でスタイル変換を試してみた), 我々は、より多くの情報をここで見つけました https://qiita.com/m0ch1m0ch1/items/39687c1ab9cc8706756f著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .