慶応大学矢上キャンパス2018/11/22〜23
https://www.ai-gakkai.or.jp/sigconf/
以下、ごくわずかな情報に過ぎませんが、ご参考になる点があれば幸いです。
私が聴講したのは、以下の招待講演1件だけです。他には何も参加しませんでした。
このような学会で、招待講演となれば、ずばり、これしかないでしょう!というタイトルでした。
岡野原 大輔 氏「深層学習の現在とこれから」
株式会社Preferred Networks 代表取締役副社長
(以下、当方の浅学ゆえに、不正確さや誤解が含まれているかも知れません。その前提でご覧いただければありがたいです。)
- B2Fのマルチメディアルーム(恐らく数百席以上の座席)は超満員で立ち見もいた。
- ディープラーニングの構成などに関する基本的な解説があった。
- Preferred Networks社の開発した、あるいは関わった応用例が紹介された。
- 小生(この記事の執筆者)は、10月のCEATEC Japan 2018の会場で、ファナックの「バラ積み(picking)ロボット」とトヨタのロボットを使った「お片付けロボット」を見学した。それは、当社で開発したディープラーニングによるものだった。
- 技術的な目標としては、次の3段階が考えられるという。Step1:自社でデモを作って見学してもらう、Step2:CEATECのような大規模な会場で4日間連続運転で公開してデモする、Step3:実用に供する。多くは、まだStep2どまりだという。
- Deep Learningが高度な画像認識などで驚異的な認識性能を示す場合が増えているが、実は、なぜこれだけ優れた結果がだせるのかは、未解明の部分が多いとのこと。
- 当社では自動運転技術にも取り組んでいる。交差点で「ぶつからない車」のデモで有名になったものも手がけた。その際、教えていないある行動、すなわち、人間が思い付かなかった行動で衝突を避けた車が出現した。それは、実社会では御法度の、「交差点内でバックして避けた」であった。これを見ると、本当に自然に創発がなされたように感じられる。しかし、自動運転ではそのような危険性も孕んでいる。
- 実用レベルのDeep Learningでは、典型例として、ひとつの学習あたり170万枚の画像を用意、NVIDIAの高性能GPU 512台を使って30時間などという膨大なコストをかけている。
- 人間は、そんなに膨大なエネルギーを必要とせずに認識できているように思われる。DNAに織り込まれているものが効いているのか。例えば、幼児に(絵本で)象のイラストを1枚見せて教えた後に、動物園につれて行くと、すぐに、初めてみた象を指さして「ゾウさん」などと言う。
- 今後のDeep Learningに求められるもののひとつに、「メタ学習」がある。例えば、ある種のものの認識に要した学習法(ネットワーク構造と重みの他、多数のハイパーパラメータに関する)があり、また別のものの認識のための学習法がある。そのような「学習の仕方」を学習することである。それによって、少ないデータから適切に学習を進められる途を得る。
0 件のコメント:
コメントを投稿