11/05/13 02:39:03.72
与えられた指令通りの事をするのがプログラムできる範疇の
A.I.すなわち弱いAIになるんだろ?
例えばメイドロボでもつくるとする。日常のことが何でもできるように
プログラムしておいたとする。
でも、そいつは絶対にいつかダメになるんだ。
新しい電化製品が出たらもう使えなくなっちゃうから。
すなわち、プログラムしたこと以上のことを学び取らなければならない。
与えられた命令以外の行動を取らなきゃいけない。
そういうのってある種自主自立なわけで。すなわち、ある意味強さがなければ
製品としての人工知能は成立しないんじゃねぇのかな