20/02/14 15:07:53 d/V6KFZA9.net
子どもの「自画撮り」被害防ぐスマホ発売へ AIが撮影を中断
SNSで知り合った相手にだまされるなどして、子どもたちがスマートフォンで自分の裸を撮影し、画像を送ってしまういわゆる「自画撮り」の被害を防ぐ機能を備えたスマホが発売されることになりました。
格安スマホブランドのトーンモバイルが発表した新しいスマートフォンは、カメラに、ポルノ画像などの不適切な画像を判別できるAI=人工知能が搭載されています。
カメラで自分の裸などを撮影しようとすると「不適切な内容のため撮影できません」というメッセージが表示されて撮影が中断し、画像や動画の保存もできなくなります。
また設定によって、子どもが、いつ、どこでどのような不適切な画像を撮影しようとしたかという通知を親がスマホで受け取ることもできるということです。
警察庁によりますと、おととし、児童ポルノの被害にあった18歳未満の子どもは1200人あまりにのぼり、最も多いおよそ4割が「自画撮り」の被害だったということです。
トーンモバイルの石田宏樹代表は「被害の増加を背景に子どもにスマホを持たせたくないという親も増えているというが、こうした機能を強化することで安心して使ってもらえるようにしたい」と話しています。
NHK NEWS WEB 2020年2月14日 15時03分
URLリンク(www3.nhk.or.jp)
173:名無しさん@1周年
20/02/15 22:18:21.87 UorE0S5S0.net
これってGoogleが昔からやってるやん
子供や女の裸の画像をGoogleサーバーに保存すると
データ消されるのは昔からw
174:名無しさん@1周年
20/02/15 22:31:08 BEqaUtol0.net
この機能をTVで実演してたけど撮影対象が大人だったんだよな
子供の割れ目でもアウトにできるってところを見せてくれよ
175:名無しさん@1周年
20/02/15 22:32:50 AgEBKsVm0.net
>>14
そしてネットにウップされるのですね