インターネットによって、陰謀論に遭遇したり、それを拡散したりすることはかつてないほど簡単になった。陰謀論には、無害なものもあれば、不和の種をまき、不必要な死を招くような、深刻な被害をもたらすものもある。
マサチューセッツ工科大学(MIT)スローン経営大学院とコーネル大学による最新の研究で、人工知能(AI)チャットボットが、誤った陰謀論に対抗する新たな手段となる可能性が示された。陰謀論について大規模言語モデル(LLM)とチャットすると、陰謀論に対する確信度が約20%減少することが分かったのだ。自分の信念が自身のアイデンティティにとって重要であると主張する参加者においても結果は同様だった。研究内容は2024年9月13日付でサイエンス(Science)に掲載された。
サイコロジー・オブ・テクノロジー・インスティテュート(Psychology of Technology Institute)の博士研究員で、AIの社会への影響を研究しているユンハオ(ジェリー)・チャンは「この研究結果は、根拠のない理論を信奉する人々とどのように関わり、教育していくかという点で、重要な一歩となるでしょう」と述べている。
「大規模言語モデルの助けを借りれば、問題を解決できるとは言いませんが、少なくとも問題を軽減できることをこの研究は示しています。社会をより良くする方法を指摘しているのです」。
今回の研究の筆頭著者であるMITスローンのトーマス・コステロ博士は、陰謀論者の心を変えることができると証明された介入策はほとんどないと言う。難しい理由の一つは、人はそれぞれ理論の異なる部分に強い関心を示す傾向があることだ。つまり、特定の実証的エビデンスを提示した場合、ある信者に効果があっても、別の信者にも効果がある保証はないということだ。
そ …