フェイスブックが掲げる「AI検閲」が難しい3つの理由
フェイスブックに蔓延するヘイトスピーチやフェイクニュースなどの不適切なコンテンツを検知して削除するのに、マーク・ザッカーバーグCEOは人工知能(AI)を使うことに楽観的だ。しかし、現実的には非常に困難だろう。 by Will Knight2018.05.09
フェイスブックのマーク・ザッカーバーグCEO(最高経営責任者)は4月に、同社のプラットフォームに蔓延するヘイトスピーチを検知するために、人工知能(AI)はますます重要になるだろうと連邦議会で語った。「5年から10年の間にAIツールを導入して、さまざまなタイプのコンテンツで言語ニュアンスをより正確に捉えられるようになると楽観的に考えています」。ケンブリッジ・アナリティカ(Cambridge Analytica)の数百万ユーザーの個人データ不正利用事件の証言で召喚されたときにこう言った。
フェイスブックはすでに1万5000人のモデレーターを雇って、不快なコンテンツを検査し、削除している。2018年末までにさらに5000人を雇う計画であるとザッカーバーグCEOは言っている。しかし、現時点では、モデレーターたちはフェイスブックのユーザーが通報した投稿に対応しているだけだ。不快に思われる可能性のある素材を特定するのにAIを使えば、作業がより速く、削除もより簡単になるかもしれない。だが、容易なことではなさそうだ。それは次の3つの理由による。
1. 言葉は簡単だが、意味は難しい
言語はAIの大きな課題として残されている。コンピューターがキーワードやキーフレーズを捉え …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」