17/10/12 06:24:39.19 HLCsXLyQ.net
産総研がタオルたたむロボット、「強化学習より短時間で学習」
URLリンク(techon.nikkeibp.co.jp)
産業技術総合研究所は、研究用双腕ロボット「Nextage Open」がタオルをたたむ動作をデモした(図1)。
取り扱いの難しい柔らかい布を、置き場所や色が変わってもきちんと認識して扱えるのが特徴である。
ロボットに動きを学習させるために、独自の教師あり学習手法を開発した。
具体的には、ロボットのカメラの映像をヘッドマウントディスプレー経由で人が見て、3次元(3D)マウスでロボットの手を操作してタスク(タオルをたたむ、など)を実行することで、教師データを作成する。
今回のデモの動きは、この操作で作成した27の教師ありデータで、学習させることができたという。
最近になって、ロボットの制御に深層学習を応用した強化学習を用いる研究が進んでいるが(関連記事)、適切な動作を学ばせるまでに相当数の試行錯誤を繰り返す必要がある。
今回の手法を使うと、こうした試行錯誤を大幅に減らせるという。
動作の学習きは、2種類のニューラルネットを用いる(図2)。
1つは画像から特徴量を検出するためのオートエンコーダ(DCAE:Deep Convolutional Auto-Encoder)で、64×64画素のRGB画像を10次元程度の特徴量に変換。
これを、MTRNN(Multiple Timescales Recurrent Neural Network)と呼ぶRNNの一種に入力すると、次の時間ステップに実行すべき動作を出力する。
ロボットの動作は、関節の角度やグリッパの動きなどの合計14のパラメータで記述する。
学習時には人による遠隔操作の指示も入力し、出力が人の操作に近づくように学習させる。
制御用のニューラルネット(上記のMTRNN)には、例えばロボットにシャツをたたむ動作をさせる場合に、「右からたたむ」「左からたたむ」といった指示を与えるための入力も用意した(図2の上の図にある「操作方向」)。
今後は「同じネットワークで複数のタスクを実行できるようにしていきたい」(同ロボットの学習システムの開発を手掛ける早稲田大学 基幹理工学研究科 表現工学専攻 尾形哲也研究室 博士後期課程の中條亨一氏)という。