フェイスブックが掲げる「AI検閲」が難しい3つの理由
フェイスブックに蔓延するヘイトスピーチやフェイクニュースなどの不適切なコンテンツを検知して削除するのに、マーク・ザッカーバーグCEOは人工知能(AI)を使うことに楽観的だ。しかし、現実的には非常に困難だろう。 by Will Knight2018.05.09
フェイスブックのマーク・ザッカーバーグCEO(最高経営責任者)は4月に、同社のプラットフォームに蔓延するヘイトスピーチを検知するために、人工知能(AI)はますます重要になるだろうと連邦議会で語った。「5年から10年の間にAIツールを導入して、さまざまなタイプのコンテンツで言語ニュアンスをより正確に捉えられるようになると楽観的に考えています」。ケンブリッジ・アナリティカ(Cambridge Analytica)の数百万ユーザーの個人データ不正利用事件の証言で召喚されたときにこう言った。
フェイスブックはすでに1万5000人のモデレーターを雇って、不快なコンテンツを検査し、削除している。2018年末までにさらに5000人を雇う計画であるとザッカーバーグCEOは言っている。しかし、現時点では、モデレーターたちはフェイスブックのユーザーが通報した投稿に対応しているだけだ。不快に思われる可能性のある素材を特定するのにAIを使えば、作業がより速く、削除もより簡単になるかもしれない。だが、容易なことではなさそうだ。それは次の3つの理由による。
1. 言葉は簡単だが、意味は難しい
言語はAIの大きな課題として残されている。コンピューターがキーワードやキーフレーズを捉え …
- 人気の記事ランキング
-
- AI crawler wars threaten to make the web more closed for everyone 失われるWebの多様性——AIクローラー戦争が始まった
- Promotion Innovators Under 35 Japan × CROSS U 好評につき第2弾!研究者のキャリアを考える無料イベント【3/14】
- From COBOL to chaos: Elon Musk, DOGE, and the Evil Housekeeper Problem 米「DOGE暴走」、政府システムの脆弱性浮き彫りに
- What a major battery fire means for the future of energy storage 米大規模バッテリー火災、高まる安全性への懸念
- A new Microsoft chip could lead to more stable quantum computers マイクロソフト、初の「トポロジカル量子チップ」 安定性に強み