09/09/02 09:50:01 0
誰でも無料で利用できる百科事典『Wikipedia』では、260ヵ国語で1200万ページにわたって
提供される情報を、毎月6000万人を超える人々が使っている。しかしその人気とは裏腹に、
Wikipediaは信頼できないとする批判を長い間受け続けてきた。
インターネットに接続できる人なら誰でも寄稿できるため、このサイトは破壊行為や偏見、
誤った情報などの被害を受けやすい。しかも編集は匿名で行なわれるため、信用できる情報と、
破壊目的で作成された偽の内容とを見分けるのは容易ではない。
しかしこの秋からは、Wikipediaで見つけた情報を信じてもよいとする新しい理由ができる
可能性がある。『WikiTrust』と呼ばれるオプション機能により、執筆者の信頼度とページでの
掲載期間の長さに基づいて、Wikipediaのテキストが色分けされるようになるからだ。
カリフォルニア大学サンタクルーズ校のWiki Labの研究者たちが開発したプログラム
『WikiTrust』は、これまでの寄稿がどのくらい長く継続しているかに基づいて執筆者の評判を
計算するアルゴリズムを使って、新たに編集された文章を色分けする。
基になる概念はシンプルだ。情報がページに長く残されているほど、その情報が正確である
可能性が高いというわけだ。
疑わしい筋からの文章には、最初は明るいオレンジ色の背景が付き、信頼できる執筆者の
文章には薄い色が付く。この文章を読む人や編集する人が多くなるほど、その文章は徐々に
「信頼」を得るようになり、オレンジ色から白に変わっていく仕組みだ。この機能は、
Wikipediaに登録したユーザーが、オプションで利用することができる予定だ。
『Amazon.com』やオークションサイト『eBay』ではすでにユーザー評価によるシステムを
取り入れており、Wikipediaに関してもこの方向の提案があったが、Wiki Labの所長で
WikiTrustプロジェクトを率いるLuca de Alfaro氏は、この方式はWikipediaの
コラボレーティブな雰囲気を壊す可能性があると考えた。さらに、エディターたちの作業が
増えることも避けたいと考えた。
「全員が全員に対して評価できるような仕組みを考えたいと思った」
(一部省略)
>>2へつづく
ソース:wiredvision
URLリンク(wiredvision.jp)