24/08/18 03:04:14.45 Pq7cs19s.net
OpenAIがChatGPTの不気味なほど人間らしい音声インターフェースを展開し始めたのは7月下旬のことだ。OpenAIが8月8日に公開した安全性に関する調査結果は、一部のユーザーが人間らしくなった音声をもつチャットボットに愛着をもつ可能性があることを認めている。
この警告は、GPT-4oの「システムカード」に含まれていたものだ。システムカードとは、同社がモデルに関連するリスクと考えるもの、および安全性テストにまつわる詳細と潜在的なリスクを軽減するための同社の取り組みを記した技術文書のことである。
OpenAIは、人工知能(AI)の長期的なリスクの調査に取り組んでいた複数の社員が退職してからの数カ月間、世間から厳しい目を向けられてきた。その後も元社員らは、OpenAIはリスクを軽視し、AIの商業化を急いで反対意見を抑圧していると主張していた。自社の安全性にまつわる管理体制の詳細を公開することは、世間からの批判を軽減し、同社が問題に真剣に取り組んでいることを示すのに役立つかもしれない。
システムカードの中身
新しいシステムカードには、GPT-4oによる社会的偏見の増幅から偽情報の拡散、化学兵器や生物兵器の開発に寄与する可能性まで多岐に渡るリスクに関する調査結果がまとめられている。また、AIモデルが制御から逸脱した行動をとったり、ユーザーを欺いたり、破滅的な結果をもたらす計画を立てたりしないことを確認するためのテストの詳細も明らかにされている。
外部の一部の専門家はOpenAIの透明性を称賛するものの、さらなる対応が必要だと指摘している。
AIツールをホスティングするHugging Faceの応用政策研究者のルーシー・エイミー・カフィーは、OpenAIが公開したGPT-4oのシステムカードには、モデルの訓練データやそのデータの所有者に関する詳細な情報が含まれていないと指摘する。「文章や画像、音声など、複数の形態にまたがる大規模なデータセットを作成する上での“同意”の問題を解決する必要があります」と言う。
ユーザーが実際にツールを使用したときに生じるリスクは変化しうると話す専門家もいる。「OpenAIの社内調査は、あくまでAIの安全性を確保するための最初のステップであるべきです」と、マサチューセッツ工科大学(MIT)の教授でAIのリスク評価を研究しているニール・トンプソンは言う。「多くのリスクはAIが実世界で使用されて、初めて現れてきます。新しいモデルが登場するたびにそうしたリスクを一覧化し、評価することが重要です」
新機能が増える度にリスクは変わる
新しいシステムカードは、OpenAIの音声インターフェースをはじめとする強力な新機能の開発に伴い、AIのリスクがいかに急速に進化しているかを強調している。同社が音声モードを発表したのは5月のことだ。この音声モードは素早く応答し、自然なやりとりのなかで起きる会話の中断にも対応できることを示した。それと同時に、多くのユーザーはデモでのAIの話し方が非常になれなれしいように感じた。また、デモの公開後、俳優のスカーレット・ヨハンソンは彼女の話し方を模倣したとして同社を批判している。
以下ソース
URLリンク(wired.jp)