人工知能(AI)をフェイクニュース問題の解決に活用すると議会で約束したフェイスブックのマーク・ザッカーバーグ最高経営責任者(CEO)は、その方法について多くを語らなかった。だが新たな研究によって、問題の解決に一歩近づくことができそうだ。
マサチューセッツ工科大学(MIT)、カタール・コンピューティング研究所(QCRI)、ブルガリアのソフィア大学の研究グループは、報道各社の信頼性を予測する方法を研究している。研究では900以上の変数を試しており、この分野ではおそらく史上最大規模の実験となる。研究成果は10月下旬の学会で発表される予定だ。
研究チームは、もっとも精度の高い組み合わせを見つけるために、さまざまな変数の組み合わせで機械学習モデルを訓練した。もっともよい機械学習モデルでは、ニュース・メディアの「事実性」を「低」「中」「高」の3段階に65%の精度で判定できた。
すばらしい成果というにはほど遠い結果だ。だがこの実験は、機械にファクトチェックをゆだねるには何が求められるのか、という重要な問題を明らかにした。研究に参加したQCRIのプレスラフ・ナコフ上級研究員は、この方法によって「フェイクニュース・ソースを自動的に見つけられるようになる」との楽観的な見通しを持っているという。
とはいえ、その実現が簡単だというわけではない。
狂気へのメソッド
2016年の米大統領選挙以来、フェイクニュースに関する研究は爆発的に増加した。主なアプローチは、個別の主張に関するファクトチェック、ねつ造記事の検知、荒らしの追跡、ニュース・ソースの信頼性測定の4つだ。ナコフ上級研究員ら研究グループはこのうち、誤った情報の起源にもっとも近い、ニュース・ソースの信頼性測定に焦点を絞った。ニュース・ソースの信頼性測定はもっとも研究が進んでいない分野でもある。
ニュース・ソースの信頼性を測るためのこれまでの研究では、記事がすでにチェック済みの事実といくつ …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」