初めてのディープラーニング:DCGANを使って好きな画像を生成してみる
前回DCGAN(チュートリアル)の写経ブログをしたので、今回は好きな画像に対してDCGANの写経ブログ
本ブログのコードは、
https://github.com/HijikiTaro/GEN-IMAGE
に載せています。
目的
ディープラーニングの知識が乏しい自分でも写経をすれば、DCGANで好きな画像を生成できる説の検証
実際は試しにやってみようぐらいの気持ちでやってみた・・・
「DCGAN」については、前回のブログを参照。
実装
実装環境
- Google Colaboratory
Webブラウザのみで環境構築でき、無料でGPU利用できるので使用。
実装
今回は下記ブログを参考に。
コードを写経してみる。
・・・だけでは、上手くいかない。
上手くいかない箇所としては、
生成するための画像を学習させる部分。
具体的には、
画像サイズを128×128にリサイズして、
GANを実行しないといけない部分。
上記でつまづいた理由として、
そもそも画像サイズが影響することがわかっていなかったため、
拾ってきた画像を放り込めばできるでしょ、と思ってしまっていた。
あとで考えれば、画像サイズを意識することは至極当然という・・・
リサイズさえ行えば、GANのコードに関しては、
写経そのもので実行することができた。
つまり、実行するところまでは説立証。
では、結果として生成された画像は
と、
徐々にスライム感がでてはいるが、まだ完成形には程遠い結果となった。
これは、学習画像の精度と学習不足が原因な気がする。
また、iterationも200000回を想定しているが、なぜか最後まで実施できず、
中途半端な71000回で終わっているのも要因・・・
ということで、写経すれば知識がなくても生成できる説は、説立証。
ただし、生成された画像のクオリティに関しては、説・・・。
今後の課題
- より完成形の画像を生成するには?
- iterationを最後まで回すには?
- モデル構造を変えて実施するとどうなる?