誰もが皆、ネットで自分の意見を言えるようになりたいと思っている。友人に話を聞いてもらったり、意見の異なる人と話したり、言い返したりできるようになりたいのだ。同時に、不適切な話や一線を越えた話には関わりたくないとも思っている。テック企業はこの難問に取り組むため、連邦法によって保護されている権利である言論の自由のための基準を設定している。テック企業はモデレーターを雇って社内で個々のコンテンツを精査し、事前に設定している自社プラットフォームの規則に違反する投稿があれば削除する。
しかし、このアプローチには明らかに問題がある。嫌がらせや、公衆衛生などの話題に関する誤情報、正当な選挙に関する虚偽の説明が横行しているのを見れば明白だ。しかし、コンテンツ・モデレーションが完璧に実施されたとしても、それらがモデレーションの問題として扱われている限り、実際にはそうではない多くの問題がしばしば見逃されてしまうだろう。ソーシャルメディア企業を潜在的な社会機構の汚染者として捉え、そのような企業の選択が人々に与える影響を直接測定して軽減する。そうした新しい戦略が必要だ。つまり、おそらく米国環境保護庁(EPA)や米国食品医薬局(FDA)と似たようなソーシャルメディア版の機関を通じて、プラットフォームから生じる社会的な害を特定して評価する、政策のフレームワークを確立するということだ。害がなかなか減らないようであれば、その機関に政策を行使する権限を与えることも考えられる。しかし、コンテンツ・モデレーションの限界を超えるには、明確なエビデンスによって作られる規制が必要であり、解決しようとする問題に対して確実な影響を与えなければならないだろう。
プログラムによる自動的なものであれ、人的なものであれ、モデレーションは人々が「深刻な」害と呼ぶもの、つまり個々のコンテンツに直接起因する害に対して機能する可能性がある。しかし、先に挙げた新しいアプローチが必要なのは、「構造的な」問題が多数存在するからだ。差別、メンタルヘルスの悪化、市民の信頼低下などは、個々のコンテンツの問題ではなく、プラットフォームで運営されているプロダクト(ユーザーへのサービスや広告など)全体による問題として広く捉えるべきだからだ。この種の構造的な問題を明らかにした著名な例は、当時のフェイスブック(現メタ)が2012年に実施した「感情の伝染」実験だ。この実験は、ユーザーが接触したプラットフォーム内の意図的に改編されたプロダクト(この実験の場合はニュース・フィード)に応じて、ユーザーの感情(プラットフォーム上の行動で測定された気分)が明らかに変化したことが示された(日本版注:同実験では、ニュース・フィードにネガティブな印象の投稿を多く表示するように調整すると、ユーザーの投稿でもネガティブな内容が増えるとの結果が出た)。
この実験の結果が公表された後、実験を明示しなかったことなどから世間から猛反発を受け、フェイスブックはこの種の意図的な実験を止めた。しかし、フェイスブックが実験的な影響の測定をしなくなったからといって、プロダクトの決定や既存プロダクトの更新による(社会への)影響がなくなるというわけではない。
構造的な問題は、どのようなプロダクトをプラットフォーム上で展開したかという直接的な結果なのだ。フェイスブック、ユーチューブ、ティックトック(TikTok)といったテック企業のプロダクト・マネージャーは、ユーザーが自社プラットフォーム上で過ごす時間とエンゲージメントを最大化することに注力するよう求められている。そして、ユーザー …