米Facebookは現地時間2016年12月15日、試験運用中の虚偽ニュース対策について説明した。ユーザーによる報告や外部組織の協力により虚偽コンテンツを判断し、偽情報の蔓延を防止する。

 Facebookは、同サービス内で拡散された米大統領選関連の虚偽ニュースが選挙結果に影響を与えたとの批判を受け、Mark Zuckerberg最高経営責任者(CEO)が11月に、検討している対策の概要を明らかにしていた(関連記事:Facebook上の虚偽情報問題、Zuckerberg CEOが対策を説明)。

 同社は「我々は自らが真実を決定する者になるべきではないと考えているため、この問題には慎重に接している」とし、虚偽ニュースの中でも「最悪中の最悪」と同社がみなすコンテンツの排除に力を入れるとしている。

 対策の主な取り組みとして、ユーザーが虚偽ニュースを報告する手段を簡素化する。投稿記事の右上にある下向き矢印をクリックすると表示される「投稿を報告」の選択肢に「It's fake news story(これは虚偽ニュースです)」という項目を追加し、わずかな手順で報告できるようにする。当該ニュースは報告したユーザーのニュースフィードから削除される。

「投稿を報告」の選択肢に「It's fake news story(これは虚偽ニュースです)」を追加
(出所:Facebook)
[画像のクリックで拡大表示]

 また、Facebookコミュニティからの報告などにより虚偽だと疑われるコンテンツを社外の組織に検証してもらう。その組織が偽情報だと判断すれば、疑わしいコンテンツとして目印を付ける。目印が付いたコンテンツはニュースフィードでの表示順位が下がり、ユーザーが共有しようとすると、虚偽だと思われる理由説明を表示して警告する。

目印が付いた投稿を共有しようとすると表示される警告の例
(出所:Facebook)
[画像のクリックで拡大表示]

 さらに、ユーザーによる共有が著しく少ない記事は、ユーザーを何らかの方法で混乱させていると考え、これをランキングの指標として試験的に取り入れる。

 そのほかFacebookは、スパム業者が広く名の知られたニュース媒体を装い、デマを投稿して自身のサイトにユーザーを誘導し、広告料の獲得していることから、なりすましドメインの防止やパブリッシャーサイトのポリシー強化などにも取り組む。

 虚偽ニュース対策の試験運用はまず米国で実施し、テストを重ねたのち、他の国にも拡大する計画という(米TechCrunchの報道)。

[発表資料へ]