2018年9月28日金曜日

稲刈り直前のたんぼの小さなカエル

 すっかり少なくなってしまった近所の田んぼを散歩。稲刈りがだいぶ進んでいます。しかし、まだ稲穂がたわわに実ったままのところもあります。その稲穂の間に、とても小さな(全長が稲穂の米粒3個くらいの)カエルを見つけました。なにかほのぼのとした気持ちにさせてくれます。

全長が稲穂の米粒3個くらいの小さなカエルを見つけた

 この写真を例によって、スマホのアプリ(Microsoft Visual Recognition呼び出し)にかけてみました。見事な認識結果でした!稲の葉や稲穂もたくさん写っているのに、葉の色に似たこんな小さなカエルを見つけています。a green frog on a leafという認識は、これを見た人間の認識と変わらないように思います。恐らく、ほとんどの人は、この写真をみた場合、稲穂や葉っぱに目を向けるのではなく、「わあー、小さなカエル!」と驚きを持って見るはずですね。



2018年9月22日土曜日

北海道の大地震の被害とITによる支援

 北海道の大地震(2018-9-6発生)では、懸命な救助、救援活動も届かず、土砂崩れなどで多くの方々が亡くなった。心より哀悼の意を表します。また、大規模停電や液状化などで非常に大きな災害を受けられた方々にもお見舞い申し上げます。

 このような状況では、地図情報提供(デジタルマップを含む)、ドローンによる映像分析、情報通信の確保などは特に重要と思われます。これらのITは、今回ももちろん相当に利用された訳ですが、今後さらに、即応性や幅広いニーズへの適応性などの面で一層の改善、進展が望まれると思います。

 札幌市清田区にある大きな市営霊園である里塚霊園(約2万6千区画)のお墓の約20%が、この地震のために倒壊したり、倒れかかっているとの情報がありました。(個人的な事項ではありますが)私の家のお墓もこの一区画にあります。しばらく、行っていないので、心配でした。

 札幌市では、個々の区画の墓石の状況を調査して、市のホームページに掲載しています。これはありがたい行政サービスです。そこには、被害の確認された区画番号とマップが載っていました。それだけだと、場所の具体的なイメージを持てませんでした。そこで、さらに、下図のようなGooge Maps(Google Earth)をズームアップして照合した結果、私の家の墓の区画位置を具体的に突き止めることができました。幸い、被害が確認されたリストには載っていませんでした。

札幌市清田区の里塚霊園(約26,000区画)Google Maps
一例:区画番号図面があれば、Google Mapsを拡大して照合できる
(この画像は大震災の前のもので、特定のお墓を写したものではありません

 お墓は、通常は穏やかな場所ですから、Google Mapsを更新する必要性は低いわけですが、このような大災害が発生した場合は、局所的にドローンを飛ばして、マップ映像を提供してもらえたら非常にありがたいと思いました。より進んでは、ドローン運営会社が、一般市民に対してオンデマンドで映像を提供してくれるサービスがあるといいと思ったりします。プライバシーや関連法令が立ちはだかっているのかも知れませんが。

2018年9月17日月曜日

Javaは無かったが、特異値分解はあった

 現在では、分からない用語やあやふやな事項を調べるのに、webは欠かせません。手っ取り早く、Wikiペディアを利用する人も多いようです。しかし、今から20年〜30年前は、紙の書籍や辞典が重要な位置を占めていました。(今でもその事は失われていないと思います。)情報科学の分野では、当時の日本の研究者の英知を結集して編纂された岩波の情報科学事典(1990年)が有名でした。

1990年5月発行(全1171頁、今では珍しいしおり紐2本付き、定価7000円)
 今やAI(人工知能)の全盛期。しかし、それはこの辞典に載っているような知識や技術の上に築かれているにちがいない。最近、Deep Learningのうちの自然言語処理を学んでいて、単語に関する共起行列、PPMI行列がでてきた。その次元削減のために行列の特異値分解(Singular Value Decomposition)が重要な役割を果たしている、と。この特異値分解、大学で学んだはずだが、その後ご無沙汰していて、今となっては曖昧な記憶しか残っていない。そこで、それをこの辞典で引いてみました。情報科学の重要な事項として記載されていたその内容は、簡潔で的確であり、(とりあえず)自分を納得させました。具体的な計算法などは、必要に応じて、さらに別の数学書で調べればよいのです。(どの環境でも特異値分解ライブラリは用意されているので、その必要はないかも知れないが。)

 ところで、1990年と言えば、まだJava言語は世の中にでていなかった。Java 1.0のリリースは1996年のはずですから。念のため、この辞書を引いてみましたが、やはり何も出ていません。実用プログラム言語の「用語の木」のノードには、Fortran、Cobol、Algol60、Algol68、PL/1、Pascal、C、C++、Lisp、Prolog、Smalltalk等々の懐かしい言語ばかりが並んでいました。

 情報科学の進歩は著しい。もしも、この辞書の改訂版が出るとすれば、Javaも当然、掲載されるでしょう。「特異値分解」も脱落することは無いだろう。その他の普遍的な知識や技術も同様に永遠であろう。ただし、その後の新興技術の進展は質的にも量的にも半端じゃないので、辞典の改訂には想像を絶するエネルギーを要するであろう。

2018年9月11日火曜日

英文記事も増やしていきたい

ブログを書いていると、やはり、どのくらい読んでいただいているか気になります。そして、時としてコメントを戴いたりするととても嬉しいです。誰に向けて記事を書いているのかというと、一定の想定もありますが、そうでない場合も多いです。自分の感心事と自分の知識を整理する機会として利用している、といったところでしょうか。

ところで、Deep Learningや先進的なプログラミング関連の話題は英語で入手することが多いです。ですから、これらに関しては、私としても(拙いものながら)英文の記事を増やすことを心がけています。その方がより広い読者を得られるはずだからです。以前よりは、英文記事を増やしました。その効果は確かにありました。

外国からのアクセスがだいぶ増えてきました。下記は、このブログへの最近の1週間(2018/09/04〜2018/09/11)のアクセス(ページビュー回数)状況です。(今週は偶然、特別に増えたのかも知れませんが)米国や欧州からもアクセスが増えてきたようです。少し前に書いた記事に対してもアクセスが増える場合があります。最近では、micro:bit、AI、App Inventor関係の記事を読んで戴いているようです。

今後、さらに適切な題材を考え、より正確で明快な英文になるようにブラッシュアップして掲載していきたいと思います。

本ブログへのアクセス状況(直近の1週間分)

2018年9月10日月曜日

Rainbow in the sky, that's right !

I saw a rainbow after a long absence. On this day when the rain stopped, a rainbow appeared, drawing a large arc near my house. Rainbow will be taken as a good sign in any country. It will not be a bad sign at least.

A picture taken with a smartphone camera

Anyway, I took a photo with a smartphone, but the whole sky is cloudy and the rainbow is not so clearly visible. It is as the picture above. If you would like to add a title to this picture, how would you describe it? Perhaps it will be "a rainbow in the sky" etc.


Then, how about image recognition by modern artificial intelligence? The result of recognizing this picture by calling Microsoft's Image Recognition via a smartphone is shown below. This application was created using Thunkable (Thunkable Classic for Android). The result is very brilliant. This recognizer should recognize images in Deep Learning's CNN (Convolutional Neural Networks) and then generate captions using LSTM (Long-Short Term Memory).

Recognized by a smartphone app as "a rainbow in the sky" 

Next, I tried using another image recognizer, the IBM Watson services. This is not a smartphone application, but I ordered from the command line as follows. Recognition results obtained as text (Json format) are as follows. In this case, classification of the image is done, and caption is not granted in particular, but "rainbow" is correctly recognized like Macrosoft.


Recognition result from IBM Watson Services

Commands for IBM Watson Services


2018年9月4日火曜日

KAIT International Symposium 2018(AIセッション)

 神奈川工科大学で開催されたKAIT International Symposium 2018に参加しました。9月4日〜5日の2日間開催されました。私が参加したのは、1日目午後のArtificial Intelligenceのセッションだけでしたが、ここでは、4件の招待講演がありました。いずれも、情報工学関係で本学と教育研究で交流のある大学(Electronics Engineering Polytechnic Institute of SurabayaKeio University、University of Victoria、Chulalongkorn University)の研究者によるものでした。

http://dolphin.mkm.ic.kanagawa-it.ac.jp/kait_intl_sympo/2018/kait-intl-symposium2018-program-20180827.pdf

 広くAIにも深く関係するコンセプチュアルな(概念的な)発表から、具体的な知能工学による開発システムの発表まであり、充実した2時間を過ごすことができました。メールやブログのやりとりだけではなく、対面しての研究者どうしの交流は価値があると改めて感じました。質疑応答も活発でよかったと思います。(あまりパッとしませんが)私も一つだけ質問することができました。

Prof. Kosuke Takano(鷹野先生)によるAIセッション開催のごあいさつ

 参加者には、金沢の伝統工芸(金箔加工)にちなんだ小さな記念品(Gold Foil Craftrwork)が配られました。とても粋なものであり喜ばれたと思います。

参加記念品:Gold Foil Craftwork

2018年9月3日月曜日

山内俊明先生が国際会議EECSS2018でBest Paper Awardを受賞

 神奈川工科大学 情報メデイア学科の山内俊明先生が、下記の国際会議で発表した論文でBest Paper Awardを受賞されたとのことです。たいへんおめでとうございます!


 本会議のwebサイトのCongress Highlightsという以下のページにそのお名前と論文タイトルが記載されています。その論文(Extended Abstract)もpdf形式でダウンロードできるようになっています。その中の、Pictures of the pyramid viewed from four directionsという、金魚が四角錐の中に3D表示されている図があります。この独自の表示手法が高く評価されたものと推察致します。
https://www.eecss.org/highlights


2018年9月2日日曜日

小学生によるセミの抜け殻を題材にした研究:Deep Learningも活用できればいいのだが

 昨日のNHKテレビによれば、京都の北山隼君(小学3年生)が夏休みの自由研究で、多数のセミの抜け殻を収集していて、そのうちの15%が、恐らくこの猛暑のために羽化できずに死んだことを明らかにしたという。北山君が集めたセミの抜け殻はすでに数千個に達するそうである。

セミの抜け殻の例
https://ja.wikipedia.org/wiki/セミ

 私が 感じたのは、数千個もセミの抜け殻があるとすれば、これはDeep Learningによる画像認識(画像識別)の対象として非常に適しているのではないか!ということでした。非常に貴重な実データなのである!日本のセミは、ニイニイゼミ、クマゼミ、ツクツクホウシなど数種類のはずであるので、雄雌の区別をするとしても、数千個の抜け殻を、10種類程度に分類することになるからである。(実際には5,000個もあるそうなので、500個を学習データにして学習させ、残り4,500個をテスト(評価)データとして分類する。)

 先の記事では、数種類のコインの分類を、(コーディング無しで)分類することをやってみた。そのために、Machine Learning for Kidsというwebサイトを使った。もしも、学校の先生がこれを利用して適切に指導できれば、小学生でもDeep Learningの世界に触れて、さらに素晴らしい自由研究につなげられるのではなかろうか。

 北山君は、NHKの取材記者の求めに応じて、抜け殻を手にとって裏返し、「これは、クマゼミの雄」などと応えていた。抜け殻のお尻の微妙な形の違いで雄雌が分かるという。Deep Learningではそのような特徴は人間が与えなくてもよい。北山君の判定とDeep Learningの認識にどのような差が出るかも興味がありますね。

 まもなく、小学校ではプログラミングが必修になるという。必ずしも直接的にプログラミングにタッチしない場合でも、このようなITと理科を結びつけることが重要になってくるように思われる。