【ロボット工学】 善悪を判断するロボット、米海軍が開発支援 [WIRED]at SCIENCEPLUS
【ロボット工学】 善悪を判断するロボット、米海軍が開発支援 [WIRED] - 暇つぶし2ch1:TwilightSparkle ★@転載禁止
14/05/20 19:02:15.23
 「善悪の判断」を行い、それに伴った行動がとれる自律型ロボットの研究開発に、米海軍が資金援助を行っている。

タフツ大学とブラウン大学、ならびにレンセラー工科大学からなる学際的研究チームは、「善悪の判断」を行い、それに伴っ
た行動をとることができる自律型ロボットの研究に取り組んでいる。この研究は、米海軍海事技術本部(ONR:Office of
Naval Research)から支援を受けているものだ。

プロジェクトの責任者を務める、タフツ大学ヒューマン・ロボット・インタラクション研究所のマティアス・シューツ所長は、人間
独自の特性と考えられている「善悪の判断」は、ほとんどの人々が想像しているほど複雑ではないかもしれないと考えている。

「倫理的な能力とは、大雑把にいえば、法や、人々が賛同する可能性が高い社会的な慣習について、学習し、それに従って
思考や行動を行い、それについて話せる能力だと考えられる」とシューツ氏は述べる。「問題は、機械や人工システムがこう
した能力をエミュレートし、実行することができるかどうかだ」

例えば、おそらくは近い将来に多数登場するであろう医療ロボットに対して、重傷を負った兵士を最寄りの野戦病院に移送
するよう命令したとする。この医療ロボットは移送中に、脚を骨折した別の海兵隊員に出会った。医療ロボットは、立ち止ま
って手当を施すべきなのだろうか? それとも与えられた任務を遂行し続けるべきなのだろうか?

あるいは、命を救うためには、負傷者に非常な痛みを与える応急処置が必要だとする。ロボットは、命を救うために人間に
苦痛を与えることを善だと考えるべきなのだろうか?

こうした仮定の質問に答えるためには、研究チームは、共感の本質に関するさらに多くの問いかけを行って、人間の倫理的
能力を構成している本質的な要素を特定する必要がある。人の感情を生み出す根源がわかれば、人間のような倫理的判
断が行える人工知能をモデル化する枠組みに取り組めるだろう。

「われわれは、既存の自律型ロボットの実証されたアーキテクチャーに、独自のアルゴリズムと計算メカニズムを統合するつ
もりだ。拡張されたアーキテクチャーは、ロボットが倫理的判断に基づいて、計画された行動をダイナミックに上書きできるよ
うな、柔軟なものになる」とシューツ氏は語る。

一方、シューツ氏と協力して研究を行っている、レンセラー工科大学認知科学部のセルマー・ブリングジョード部長は、人間
の倫理は何を意味するのかについて、確立した定義はない(日本語版記事)と指摘し、これは研究チームが取り組むべき難
題だと語る。

※記事の一部を引用しました。全文及び参考画像等は下記リンク先で御覧ください。
wired_jp 2014.5.19 MON URLリンク(wired.jp)

◆◆◆スレッド作成依頼スレ★861◆◆
スレリンク(newsplus板:762番)


レスを読む
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch