Jetson NanoでCustomVisionのモデルを動かしたかった
はじめに
上記の参考サイトに従ってCustomVisionのモデルをJetsonNanoで動かしていきます。自分用の記録です。
現状動いていません。解決方法を教えていただけると幸いです。
(2020/11/5) Nvidiaが提供するコンテナのカタログを見ていたらTensorflowが入ってるDockerイメージがありましたのでそれを利用することでできました。その記事はこちらです。
本記事はJetsonNanoのセットアップの自分用メモとして残しておきます。
用意するもの
- Jetson Nano
- PC
- マイクロSDカード
- マイクロSD変換アダプター
- Micro-USB充電器
- CustomVisionのモデル
- USBキーボード
- マウス
- HDMIケーブル
- モニター
Jetson Nanoのセットアップ
OSのインストール
まずOSをインストールします。OSのインストールは公式の通りにやっていきます。
はじめにSDカードをフォーマットします。以下のサイトからSD Card Formatterをダウンロードしてきて、PCにインストールします。
https://www.sdcard.org/jp/downloads/formatter/eula_windows/index.html
インストールしたら起動してマイクロSDカードをPCに接続、フォーマットします。
次にOSイメージをマイクロSDカードに焼きます。以下のサイトからbalenaEtcherをダウンロードしてインストールします。
https://www.balena.io/etcher/
OSのイメージは以下からダウンロードしておきます。5.9GBもあるのでダウンロードに時間がかかりました。
https://developer.nvidia.com/jetson-nano-sd-card-image
Etcherを起動してOSのイメージを選択してマイクロSDカードに焼きます。これでOSのインストールは完了です。
マイクロSDをJetson Nanoにさして電源をつけると、言語、キーボード配列、タイムゾーン、ユーザの作成などがあります。それらを完了したら次に進みます。
CustomVision用にConfig編集
Jetson NanoでConfigをいじる必要があるみたいです。sshで接続するか、直接コンソールをたたいて参考サイトにあるコマンドを実行していきます。
sudo systemctl set-default multi-user.target
sudo nvpmodel -m 0
↑ UIを使わないようにして、Nanoをスピードアップするためにハイパワーモードにするみたいです。次に、DockerのランタイムをデフォルトでNvidiaのランタイムにするためにviなどで/etc/docker/daemon.json
を以下のように編集します。
{
"default-runtime": "nvidia",
"runtimes": {
"nvidia": {
"path": "nvidia-container-runtime",
"runtimeArgs": []
}
}
}
次にパッケージを最新のバージョンにアップデートします。
sudo apt-get update
sudo apt-get dist-upgrade
sudo
なしでDockerを使うためにDockerのグループにユーザを追加します。
sudo groupadd docker
sudo usermod -aG docker $USER
newgrp docker
再起動します。
sudo reboot
最後にGPUのテストをします。以下のコマンドを実行して最後の行にResult = PASS
と表示されたらセットアップは完了です。それ以外の場合は、画面の指示に従ってDockerでGPUサポートを有効にしてみてとのことです。
docker run -it jitteam/devicequery ./deviceQuery
CustomVisionのモデルのダウンロード
CustomVisionからJetson Nanoにモデルをダウンロードします。PerformanceタブでダウンロードするIterationを選択し、Exportします。プラットフォームはDockerfileを選択します。
versionはLinuxを選択し、Exportします。Exportが終わったら、ダウンロードボタンを右クリックでリンクをコピーしてどこかに保存しておきます。
CustomVisionのコンテナを実行する
CustomVisionのモデルをダウンロードします。ダブルクオートを忘れないように。url部分を先ほど保存したリンクにすることで先ほどのモデルをダウンロードできます。
wget -O customvision.zip "https://github.com/hnky/blog/raw/master/downloads/HomerOrMarge.DockerFile.Linux.zip"
展開します。
unzip customvision.zip -d customvision
Dockerfileを編集する必要があるみたいです。以下のように編集します。sshで接続してviで編集、:%d
で一括削除、コピーして右クリックペーストで行けます。
cd customvision
nano Dockerfile
FROM nvcr.io/nvidia/l4t-base:r32.2
RUN apt-get update -y
RUN apt-get install python3-pip -y
RUN pip3 install -U pip
RUN DEBIAN_FRONTEND=noninteractive apt-get install libhdf5-serial-dev hdf5-tools libhdf5-dev zlib1g-dev zip libjpeg8-dev -y
RUN DEBIAN_FRONTEND=noninteractive apt-get install python3 python3-dev python-dev build-essential libssl-dev libffi-dev libxml2-dev libxslt1-dev zlib1g-dev -y
RUN DEBIAN_FRONTEND=noninteractive apt-get install -y python3-opencv
RUN pip3 install --pre tensorflow-gpu==2.0.0 --extra-index-url https://developer.download.nvidia.com/compute/redist/jp/v42
RUN pip3 install flask pillow
COPY app /app
# Expose the port
EXPOSE 80
# Set the working directory
WORKDIR /app
# Run the flask server for the endpoints
CMD python3 -u app.py
編集したらビルドします。時間がかかります。
docker build . -t mycustomvision
ビルドが終わったらコンテナを起動します。
docker run -p 127.0.0.1:80:80 -d mycustomvision
なぜか推論できない...。app.pyがエラーで止まってるみたいです。以下でエラーの内容が確認できます。
docker logs <container name>
本来うまくいっていたなら画像をPOSTすることで推論してくれるみたいです。以下のようにテストができるはずです。
curl -X POST http://127.0.0.1/url -d '{ "url": "https://github.com/hnky/blog/raw/master/downloads/marge.jpg" }'
感想
TensorFlowやKeras、dockerのl4t-baseイメージを変更してやってみてもうまくいきません。どうして、、、
間違い等ありましたらご指摘いただけると助かります。
Author And Source
この問題について(Jetson NanoでCustomVisionのモデルを動かしたかった), 我々は、より多くの情報をここで見つけました https://qiita.com/yosiiii/items/7ac2d64ce2fd28c43754著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .