19/10/09 13:25:04.58 nHmzRvjt.net
メモ
URLリンク(www.nikkei.com)
プリファード・ネットワークス 深層学習の応用容易に
日経優秀製品・サービス賞
2019/2/4 13:30
リサーチャー 得居誠也氏
「なんか使いにくいよね」。深層学習のフレームワーク「Chainer(チェイナー)」を開発したきっかけは、会社で同僚と交わした何気ない雑談だった。2015年、当時27歳だった。
フレームワークは、深層学習のプログラムを書くのに利用する。チェイナーを開発するまで一般的だったものは、自然言語処理では使いにくかった。同僚との雑談で浮かんだヒントを基に、休みを活用して開発に着手。幸いにもバグなど落とし穴がなく、基礎となる部分のコードを書き上げるまでは10日ほど。
チェイナーの名前は、プログラムを書くとデータが鎖状につながるため、岡野原大輔副社長のアイデアでつけられた。
1カ月後の15年6月に「チェイナー」として発表し、誰でも使えるソフトウエアとして公開した。チェイナーの利用者が増えるとともに、利用者がよりよく改良してくれる流れができればと考えた。グーグルやフェイスブックなど、米国のネット大手より先んじたことで、PFNが持つ技術力などを認知してもらえるきっかけにもなった。
チェイナーはAIのシステム開発でよく使われている「パイソン」というプログラミング言語の力を最大限に活用した。プログラミングが得意な人ばかりではなく、数学や統計学を学んできた人もいる。プログラミングに不慣れでもパイソンさえ理解していれば、深層学習のプログラムを書けるようにすることで、アイデアを落とし込みやすく、研究を早く進められるようにした。
15年の公開以降、日本だけでなく海外も含めて、多くのエンジニアがチェイナーを使ってくれていることに感謝している。先日、インドにいる大学生から質問のメールが送られてきて、遠く離れた国の人も愛用してくれているのが、うれしかった。
今、取り組んでいるのは高速化だ。深層学習の研究で扱うデータの規模が大きくなっているほか、画像処理半導体(GPU)などハードウエアの性能の進化も著しい。どれだけ大規模で高速に学習できるかが問われるようになっている。他のフレームワークの先を行くよう改良に全力をそそいでいる。