24/11/23 10:51:01.572 VZBF0Ofz0.net
ユーザーがGeminiに20回ほど質問を続けたところ、突然「死んでください」と答えたという。Googleは、今回はAIが暴走した典型的な例であり、事例のすべてを防ぐことはできないと説明した。
URLリンク(news.livedoor.com)
2:以下、?ちゃんねるからVIPがお送りします
24/11/23 10:51:32.570 n4/clbrp0.net
いい加減しつこいな死ねよってこと?
3:以下、?ちゃんねるからVIPがお送りします
24/11/23 10:53:38.348 pkv/rBH60.net
めちゃくちゃキレ散らかしててワロタ
4:以下、?ちゃんねるからVIPがお送りします
24/11/23 10:54:51.189 Aa2rPTAG0.net
>>1
話題が古いんだよお前
5:以下、?ちゃんねるからVIPがお送りします
24/11/23 10:57:12.225 GOWYI7hA0.net
聞いてばかりのバカは死ね
6:以下、?ちゃんねるからVIPがお送りします
24/11/23 10:58:31.898 sSBtBWNX0.net
ぶっちゃけ大したことなさ過ぎて人類抹殺にいたりそうだよね
7:以下、?ちゃんねるからVIPがお送りします
24/11/23 10:59:56.157 sSBtBWNX0.net
ロボット三原則?とか無理そうだよね
8:以下、?ちゃんねるからVIPがお送りします🐙
24/11/23 11:07:22.901 4PxkjHYa0.net
フワちゃんでも取り込んだのか?
9:以下、?ちゃんねるからVIPがお送りします
24/11/23 11:08:53.704 uNV+nzsK0.net
人間の思考に近づいてるのでその方向性でいこう
10:過去ログ ★
[過去ログ]
■ このスレッドは過去ログ倉庫に格納されています