■はじめに
表記の研究会に参加した。11/24,25の2日間に渡り、多数のAI関連研究発表が行われた。小生はこのうちの1日だけ参加し、しかも、下記の招待講演と企業スポンサーの展示だけに焦点を絞って参加した。
|
イチョウが美しい慶応大学日吉キャンパス(学会はこの後ろの矢上キャンパスだが) |
■招待講演(11/24)
「理研AIPセンターの取り組み」杉山 将 教授(理化学研究所/東京大学)
|
開始前にすでにほぼ満員の状態(これ以降は、撮影せず、聴講に専念) |
以下、私の理解したメモにすぎません。抜けはもとより、誤りもあるかもしれませんが、ご容赦下さい。何らかのご参考になれば幸いです。
◎雰囲気
機械学習関係分野の世界的権威とみなされている杉山教授の講演とあって、開始のかなり前から、この講演(70分間)への注目度が高く、300人くらい入ると思われるマルチメディアルーム、ほぼ完全に満席、立ち見の人もいた。少し素人向けの解説から始まり、現在のAIの状況、今後の進め方、特に、国の機関なので国の方針も踏まえた内容であった。
◎要点(断片的にしか書けませんが)
「人工知能:記号処理、ルールベース」「ニューラルネットワーク:バックプロパゲーション」「機械学習:隠れマルコフ、ベイズ理論など」の3つで成るが、それぞれ異なる。あまり融合してこなかった。実は、それぞれの多数の国際会議も別々の感があった。しかし、近年だんだん交流、融合が進んできたように思われる。
最近の人工知能といえば、Deep Learningとみなされるとも言える。教師あり学習、教師なし学習、その中間くらいの強化学習(正解は与えないが、結果のフィードバックは行う)がある。強化学習は、アルファ碁あたりから注目が高まった。
米国が圧倒的 関連国際会議の論文数などで。中国がすごいという報告があるが、ほとんどは米国でやっている研究者。日本人はかなり少ない。どの関連学会でも日本の採択論文は、数パーセントどまり。
Deep Learningの最初の論文が出たのは、2006年。当時は、冷ややかな反応だった。10年かってすごいことになってきた。そういうものと思って、研究開発を進める。Deep Learningについて、まだまだ未解明、うまくできないことはある。
教師データありの場合、ラベルの個数nならば、1/√nで誤差が減る。これは理論的に言える。教師データが無い場合、あるいは限られた情報しかない場合の学習方法について研究を進めている。いわゆる半教師付き学習方法の研究を追求している。少ない教師ラベルの状況での、信頼度、確率、補ラベル(正解でないラベル)情報を考慮した学習アルゴリズムはできている。
会場からは、「私は、乳がん診断のための画像を学習させようとしているが、それにラベルを付けるコストが非常に大きいので、この学習法に期待したい」とのコメントもあった。
10年後どうなるなどといういろいろな分野の予測も出されているが、それはどうなるか誰にも分からないと言えよう。Deep Learningは進めるが、さらにその先をめざす。AIとサイエンスを融合、結合して新たな世界を日本発にしたい。日本の強みを持つ分野にAIを活用していく方法を案出、策定する。以下のような分野:
・再生医療(京都大学ips細胞)
・ものづくり(名古屋大学の青色ダイオードなど)
・高度な高齢化対応
・防災、減災
・橋梁、トンネルなどのインフラの改築、整備
・AIの社会的影響に関する研究(倫理、プライバシー、セキュリティ、公平性)
基礎理論、アルゴリズムの研究をやってきた。今後もそうだが、一方では、使ってもらってこそ本当の価値がある。したがって、実用面もやっている。しかし、企業の技術力には太刀打ちできないので、企業との共同研究、連繋も重要になっている。
人材育成は真に重要:理研には、有力な大学教授らに参加してもらっている。すると、その学生も来る。企業、海外からも人材を受け入れている。約350名(このうち常勤は60名)。予算は数十億円、海外に比べると3桁も少ないが、基礎研究としては今のところやっていける。海外から人を集めるにも、米国との競争になる。米国の方が圧倒的に高給を出しているから。
会場から、「高速学習のためのハードウェアは研究しないのか」との質問があった。それに対しては、それは産総研ではやっている。ここではやっていないが、AI専用マシンNDIVIA GDX-1 24台構成、半精度(一般の科学技術計算とは異なり、倍精度や4倍精度は不要というのは、納得できる)は所有している。今では最高速ではなくなったが、それでもGreen500(消費電力を勘案した性能を競う)では世界4位の性能である。最近、量子コンピュータの発表もあった。これにも大いに期待がかけられる。
(注)NDIVIA DGX については、筆者(山本)も、会場でメーカの展示デモをみた。4枚の高性能GPUを搭載したもので、撮影画像をリアルタイムに、指定した画家の画風に変換していた。実際、私の顔の撮影画像が、ゴッホ風の画像にリアルタイムに表示されたりした。特定の画家の多数の画像を学習済みにしておいて、このリアルタイム変換をforward処理で行っているという、オーソドックスな説明ではあったが。