14/05/13 17:06:07.36 6CacuyBD0
>>250
人工知能=ブラックボックス は、もし間違っていても
人間はそれが下す判断を盲目的に信じやすい、ということが問題なんだよね。
カーナビ1つでもそう。
あれも間違ってくれたりするんだけど 隣にいる嫁は俺の修正判断より「機械は正しい」として
カーナビを”補助する”運転者=俺を悪いとしてしまう。
この前も行きでカーナビが犯した過ちを 帰り道に修正点など教えて説明してやったら
「システムによる判断の盲信」に気づいていた風だった。
ロボットはシステム。システムは設計品質や設計時の設計によって結論内容と質が変わる。
そこには当然、良し悪しがある。「正しい」「適切」とは限らない。