InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets のメモ
1005 ワード
- Xi Chen, Yan Duan, Rein Houthooft, John Schulman, Ilya Sutskever, Pieter Abbeel
InfoGAN 画像とlatent codeの間の情報量を最大化することでunsupervised で学習する?
MNISTとSVHN。CelebAを使っている。
GANがベース。通常のノイズを2つの部分zとcにわける。cに重要な情報が乗ることを期待。
I(c; G(z,c)) を最大化する。I(X;Y) は XとYの間の相互情報量を意味する。つまりYによるXに関する情報量
直感的には、zを無視するようになるだけのような気がするけど。。
実装としては、discriminator ネットワークの最終段の手前で別の口を出して、そこでcを予想させる。
{c,z} -> G -> x -+-> D -> T/F
+-> Q -> c
こんな感じか。
Author And Source
この問題について(InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets のメモ), 我々は、より多くの情報をここで見つけました https://qiita.com/hidemotoNakada/items/73df844da599d22f0d87著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .