人工知能(AI)をフェイクニュース問題の解決に活用すると議会で約束したフェイスブックのマーク・ザッカーバーグ最高経営責任者(CEO)は、その方法について多くを語らなかった。だが新たな研究によって、問題の解決に一歩近づくことができそうだ。
マサチューセッツ工科大学(MIT)、カタール・コンピューティング研究所(QCRI)、ブルガリアのソフィア大学の研究グループは、報道各社の信頼性を予測する方法を研究している。研究では900以上の変数を試しており、この分野ではおそらく史上最大規模の実験となる。研究成果は10月下旬の学会で発表される予定だ。
研究チームは、もっとも精度の高い組み合わせを見つけるために、さまざまな変数の組み合わせで機械学習モデルを訓練した。もっともよい機械学習モデルでは、ニュース・メディアの「事実性」を「低」「中」「高」の3段階に65%の精度で判定できた。
すばらしい成果というにはほど遠い結果だ。だがこの実験は、機械にファクトチェックをゆだねるには何が求められるのか、という重要な問題を明らかにした。研究に参加したQCRIのプレスラフ・ナコフ上級研究員は、この方法によって「フェイクニュース・ソースを自動的に見つけられるようになる」との楽観的な見通しを持っているという。
とはいえ、その実現が簡単だというわけではない。
狂気へのメソッド
2016年の米大統領選挙以来、フェイクニュースに関する研究は爆発的に増加した。主なアプローチは、個別の主張に関するファクトチェック、ねつ造記事の検知、荒らしの追跡、ニュース・ソースの信頼性測定の4つだ。ナコフ上級研究員ら研究グループはこのうち、誤った情報の起源にもっとも近い、ニュース・ソースの信頼性測定に焦点を絞った。ニュース・ソースの信頼性測定はもっとも研究が進んでいない分野でもある。
ニュース・ソースの信頼性を測るためのこれまでの研究では、記事がすでにチェック済みの事実といくつ …
- 人気の記事ランキング
-
- Why handing over total control to AI agents would be a huge mistake 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
- An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
- OpenAI has released its first research into how using ChatGPT affects people’s emotional wellbeing チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
- How to have a child in the digital age 「あなたはもうママですね」 ネット・デジタルが約束する 「完璧な出産」の幻想