メタ(Meta)のマーク・ザッカーバーグ最高経営責任者(CEO)は1月、コンテンツ・モデレーション(監視)の取り組みを縮小し、米国における第三者によるファクトチェックを廃止すると発表した。ザッカーバーグCEOがメディアや政府の圧力に対応するために始めたものだと主張する保護策の縮小である。その代わりに、X(旧ツイッター)が「コミュニティノート(Community Notes)」と呼ぶ、より「民主的」な手法を採用する。
この動きは大きな懸念を呼んでいるが、それも当然だろう。メタは、授乳中の女性の画像を過剰に監視したことや、ミャンマーでのヘイトスピーチを過小に評価し、イスラム教少数民族ロヒンギャの大量虐殺を助長したことなど、モデレーションに関するさまざまな問題で物議を醸してきた。一方、専門職によるファクト・チェックが廃止されることで、偽情報やヘイトが歯止めなく拡散する恐れがある。
ソーシャルメディア大手各社が中央集権的管理の取り組みが必要だと気づくずっと前から、インターネット上ではボランティアの参加を募ることでモデレーションが始まっていた。そして、ボランティアによるモデレーションは、特定のコミュニティの要望に応じた独自の規制を策定できるようにすることで、成功する可能性がある。しかし、メタが大きく関わって管理しなければ、システムはメタのプラットフォームで行き交うコンテンツの量とスピードに対応できない。実際、米国人の21%が利用しているXで、そのような手法がどの程度有効なのか、いまだ結論は出ていない(ピュー研究所=Pew Researchによると、メタの方が圧倒的に人気のあるプラットフォームであり、フェイスブックだけでも米国人の70%が利用しているという)。
2021年に「バードウォッチ」としてスタートしたコミュニティノートは、Xのコミュニティ主導のモデレーション・システムであり、プログラムに登録したユーザーが投稿に対して注釈を追加することを可能にしている。常連ユーザーに公式のファクトチェックを代行させることは比較的新しい取り組みで、その成果は今のところまちまちである。たとえば、研究者たちは、参加者が政治的に同意できないコンテンツに対して異議を唱える可能性が高いこと、あるコンテンツを虚偽の情報と認定してもユーザーは離れないことを見出しているが、その一方でコミュニティノートはおおよそ正確であり、誤解を招く投稿の拡散を抑えるのに役立つことも明らかにしている。
私はコミュニティのモデレーションについて研究しているモデレーターである。モデレーションをボランティアに委ねることの限界と、それを成功させるためにメタがすべきことについて、私が学んだことを以下に記す。
1.このシステムは虚偽を見逃し、憎悪に満ちたコンテンツを増幅させる可能性がある
このスタイルのモデレーションでは、多くの人が知っていることに関する投稿でない限り、すぐに警告を付けられなかったり、そもそも警告を一切付けられなかったりするという現実的なリスクがある。タマゴテングタケの写真に「おいしい」というキャプションがついた投稿が、コミュニティノート形式のモデレーションで、どのように対処されるかを考えてみよう。菌類学の専門家がその投稿に遭遇しなかったり、広く拡散された後になってようやく目にしたりような場合、「毒があるので食べないで」という警告は、少なくとも手遅れになるまで立てられないかもしれない。より難解なテーマの分野はモデレートが行き届かないだろう。こうなると、(毒キノコを食べてしまうかもしれない)個人と(偽情報が拡散された場合の)社会の両方に深刻な影響を与える可能性がある。
重要なのは、Xのコミュニティノートは、最初に追加された時点ではユーザーに …