最新deep learningを用いて、一枚全身画像から人を復元してみた👬
Advent Calendar 2019
こちらはestie Advent Calendar 2019 19日目の記事になります。
是非、他の記事もご覧ください。 https://qiita.com/advent-calendar/2019/estie
はじめに
こんにちは、私はestieでAIアルゴリズム開発をしているなつめです。
普段は学生としてコンピュータビジョン系の研究を行なっています。
本記事では、estieの業務と直接は関係ありませんが、折角の機会なので私の研究していたdeep learning技術である「一枚の画像から人の三次元形状復元」について紹介していきます。
三次元復元の研究目的・背景
近年、ARやVRなどの没入型の映像体験が流行しています。
それらの映像に必要なCDCGコンテンツを製作するためには、現実世界の三次元物体をデジタル化する必要があります。
特に、着衣人物の3DCG化の場合は、何十台ものカメラを用いた緻密なスキャン装置や、複雑かつ長時間の撮影作業が必要となります。
そこで、一枚の画像から深層学習を用いて着衣人物の全身を3DCG化をしようというのが、大きな目的です。
今回やったこと
実際に、iPhoneで撮影した着衣人物の画像一枚から、PIFuと呼ばれる手法を使って人の三次元形状復元を行いました。
さらに、復元した形状を使って、何ができるかといことを紹介して行こうと思います。
実際に今回行ったことは以下の二つです。
1. 復元した三次元モデルを動かす
2. 三次元プリンティングする
PIFuと呼ばれる三次元復元手法
この研究は私がICCV2019という国際会議で発表した内容で、Deep Learningを用いて学習することで二次元画像から三次元形状を復元するといった研究です。
論文中の結果がこちらです。inputの列が入力画像、reconstructed geometoryの三列が復元された形状、textured reconsturctionの三列が復元された形状と色情報を示した図です。
このように、一枚の画像からは見えていない背面を含んだ全身の形状や色情報を復元することが可能です。
何でできるの??
ネットワークの構造とは説明しませんが、簡単に言うと、
正解データの三次元データと画像のペアを用意して、画像から三次元データを出力するように学習します。
実際には、三次元スキャンを用いて人の三次元形状データを取得します。
次に、得られた三次元形状データから、レンダリングという三次元データから映像を作成する技術を用いて、大量の二次元の画像を作成することで、正解のペアを用意することができます。
実際に復元してみた
PIFuで復元するためには、入力画像から人領域を抽出する必要があります。
今回は、remove.bgというサイトを使いました。
様々な画像に対して、前景領域を綺麗に切り抜くことができるのでおすすめです。
入力画像がこちら。
切り抜かれた画像がこちら。
すごい。。。。
そして、切り抜かれた画像からMaskを抽出します。
import cv2
img = cv2.imread(img_path, -1)
mask = np.where(img[:,:, -1]==255, 255 ,0)
cv2.imwrite(mask_path, mask)
そして、PIFuを使って復元!!!
ちゃんと顔の反対側が髪であることを、ネットワークが理解している様です。
姿勢に関しては、本来右足と左足は横並びになっているのですが、復元結果だと若干左足が後ろになっています。
二次元画像から三次元の難しいところは、まさにここの部分で、奥行きの情報が失われてしまっているので、ポーズが必ずしも元画像と一致しない問題点があります。
実際に、私たちが入力画像を見てみても、左足が後ろ側にあるように見える気がします(錯覚?)。
動かしてみた
次は、復元した三次元モデルを動かしてみたいと思います。
復元した三次元モデルを動かすためには、リグと呼ばれる関節のようなものを割り当てる必要があります。
その関節を動かすことで、三次元モデルにアニメーションをつけるという感じです。
今回は、Pinocchioという、Siggraph2007で発表された技術を用いました。
コードは、openFrameWorksのaddonで公開されているものを用いました。
https://github.com/kashimAstro/ofxAutoRiggingModel
こちらの復元結果を入力にしました。
動かしてみた結果がこちら!
ちゃんと動いていますね。
パーカの布のたるみの部分をもう少しリアルに表現できるとさらに良さそうですね。
この技術があれば、画像中の人を好きなポーズにさせることができます!!👫👫👫
ゲームをするときに、自分をアバターにして遊ぶことも夢ではないですね!!
3Dプリントしてみた
三次元復元されたモデルは、3Dプリントして実世界に持ってるくることもできます。
今回は、DMM makeさんで三次元プリンティングをしていただきました。
短納期エクスプレスサービスを利用したので、一体当たり5,500円ほどで印刷できました。
実際に印刷するためには、DMM makeさんの対応しているフォーマットに直す必要があります。
具体的には復元されたobjは頂点ごとにtextureが割り振られているのですが、textureはuv画像として保存する必要があるので変換していきます。Meshlabを用いて変換を行いました。
1. メニューのFile→Import Meshでobjを読み込みます
2. メニューのFilters→Texture→Parametrization: Trivial Per-Triangle
3. メニューのFilters→Texture→Transfer Vertex Attributes to Texture
4. メニューのFile→Export Mesh As
変換したobj, mtl, uvmapをzipにして、フォームから送信するだけで、3Dプリントして発送されます。
プリント結果がこちらです!黒いノイズがのってしまったのですが、形状的には人らしいなと感じました。
もしかしたら、メッシュをもっとクリーンなものにしてからプリントする必要があったのかもしれません。
余談ですが、数日後顔が取れてしまいました。
フィギュアですが予想以上に不気味でした笑
まとめ
ということで、今回は最新技術の紹介として、一枚画像から人の全身を三次元復元して遊んでみるという内容でした!
今後もっと復元精度が良くなっていけば、映像作成やゲーム等に使えそうですね!!
estieは本郷AIに選出されたりと、AIアルゴリズムに力を入れているベンチャー企業です。
新しい技術にアンテナを張っているエンジニア、フルスタックのエンジニアを常に募集しています!
私のようにAI研究をするメンバーもいますので、興味ある方はぜひお待ちしております😁
https://www.wantedly.com/companies/company_6314859/projects
estie -> https://www.estie.jp
estiepro -> https://pro.estie.jp
会社サイト -> https://www.estie.co.jp
参考文献
- Saito, S., Huang, Z., Natsume, R., Morishima, S., Kanazawa, A., & Li, H. (2019). PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization. arXiv preprint arXiv:1905.05172.
Author And Source
この問題について(最新deep learningを用いて、一枚全身画像から人を復元してみた👬), 我々は、より多くの情報をここで見つけました https://qiita.com/ryotanatsume/items/02d01cb9a30937022a68著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .