【児ポ】子どもの「自撮り被害」防ぐスマホ発売へ AIが不適切な画像を判別して撮影を中断at NEWSPLUS
【児ポ】子どもの「自撮り被害」防ぐスマホ発売へ AIが不適切な画像を判別して撮影を中断 - 暇つぶし2ch1:すらいむ ★
20/02/14 15:07:53 d/V6KFZA9.net
子どもの「自画撮り」被害防ぐスマホ発売へ AIが撮影を中断

 SNSで知り合った相手にだまされるなどして、子どもたちがスマートフォンで自分の裸を撮影し、画像を送ってしまういわゆる「自画撮り」の被害を防ぐ機能を備えたスマホが発売されることになりました。

 格安スマホブランドのトーンモバイルが発表した新しいスマートフォンは、カメラに、ポルノ画像などの不適切な画像を判別できるAI=人工知能が搭載されています。

 カメラで自分の裸などを撮影しようとすると「不適切な内容のため撮影できません」というメッセージが表示されて撮影が中断し、画像や動画の保存もできなくなります。

 また設定によって、子どもが、いつ、どこでどのような不適切な画像を撮影しようとしたかという通知を親がスマホで受け取ることもできるということです。

 警察庁によりますと、おととし、児童ポルノの被害にあった18歳未満の子どもは1200人あまりにのぼり、最も多いおよそ4割が「自画撮り」の被害だったということです。

 トーンモバイルの石田宏樹代表は「被害の増加を背景に子どもにスマホを持たせたくないという親も増えているというが、こうした機能を強化することで安心して使ってもらえるようにしたい」と話しています。

NHK NEWS WEB 2020年2月14日 15時03分
URLリンク(www3.nhk.or.jp)


次ページ
続きを表示
1を表示
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch