フェイスブックが掲げる「AI検閲」が難しい3つの理由
フェイスブックに蔓延するヘイトスピーチやフェイクニュースなどの不適切なコンテンツを検知して削除するのに、マーク・ザッカーバーグCEOは人工知能(AI)を使うことに楽観的だ。しかし、現実的には非常に困難だろう。 by Will Knight2018.05.09
フェイスブックのマーク・ザッカーバーグCEO(最高経営責任者)は4月に、同社のプラットフォームに蔓延するヘイトスピーチを検知するために、人工知能(AI)はますます重要になるだろうと連邦議会で語った。「5年から10年の間にAIツールを導入して、さまざまなタイプのコンテンツで言語ニュアンスをより正確に捉えられるようになると楽観的に考えています」。ケンブリッジ・アナリティカ(Cambridge Analytica)の数百万ユーザーの個人データ不正利用事件の証言で召喚されたときにこう言った。
フェイスブックはすでに1万5000人のモデレーターを雇って、不快なコンテンツを検査し、削除している。2018年末までにさらに5000人を雇う計画であるとザッカーバーグCEOは言っている。しかし、現時点では、モデレーターたちはフェイスブックのユーザーが通報した投稿に対応しているだけだ。不快に思われる可能性のある素材を特定するのにAIを使えば、作業がより速く、削除もより簡単になるかもしれない。だが、容易なことではなさそうだ。それは次の3つの理由による。
1. 言葉は簡単だが、意味は難しい
言語はAIの大きな課題として残されている。コンピューターがキーワードやキーフレーズを捉え …
- 人気の記事ランキング
-
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- Meet the researchers testing the “Armageddon” approach to asteroid defense 惑星防衛の最終戦略 科学者たちが探る 「核爆発」研究の舞台裏
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路