--年--月--日 (--) | Edit |
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。
2017年02月18日 (土) | Edit |
記者が試したディープラーニング、当然だが甘くはない
http://itpro.nikkeibp.co.jp/atcl/watcher/14/334361/020900776/
とりあえず単純にLSTMをニューロンとして6個並べた層を中間層としたニューラルネットワークを定義して、時間単位のデータを学習させたところ、予測としては不十分ながら多少は傾向が見える(図1)。 意外にいけるかもしれない。そこで調子に乗って、中間層のニューロンの数を倍増させたところ、今度は学習範囲にオーバーフィッティング(過学習)した結果となった(図2)。むしろ状況としては後退である。ど素人の見立てなので正しいかどうかは不明だが、オーバーフィッティングならば、学習データ数を増やせば解決するかもしれない。5倍にデータ量を増やしてみたが、あまり状況は改善しなかった。その後学習データの数を増やしたり、数値予測から傾向予測に変えるために、学習データを変えたりモデルを変えたりいくつか試したが、結果は却って後退しまくりとなった。ついにはまったく収束する気配のない様子である(図3)。要するに、適切な予測モデルを作成できず、あえなく撃沈した
まぁ、ちゃちゃっとプログラムしてポンとできるものではないですよね、当然ながら。でも適当な手引書があったらやってみたい気もします。PythonがAIのディファクトスタンダード言語になった感がありますね。

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。