グーグルのAIが議論の合意形成をお手伝い、人間より分断少なく
グーグル・ディープマインドは、意見が分かれる問題の議論で合意を形成するのに、生成AIが有用である可能性を示す研究結果を発表した。しかし、この技術が人間の仲介役に取って代わるには、まだまだ解決すべき課題が多い。 by Rhiannon Williams2024.10.24
- この記事の3つのポイント
-
- 大規模言語モデルを使った政策議論の調停AIツールが開発された
- AIによる声明文は人間による声明文より支持される傾向がある
- AIツールの有用性には限界があり責任ある導入にはさらに研究が必要だ
民主主義において合意を形成することは難しい。人々はイデオロギー的、政治的、社会的にそれぞれ異なる見解を持っているためだ。
この問題の解決に人工知能(AI)ツールが役立つかもしれない。グーグル・ディープマインド(Google DeepMind)の研究チームは、大規模言語モデル(LLM)のシステムを「政策議論の調停者(コーカス・メディエーター)」として機能させるよう訓練し、複雑だが重要な社会的、政治的問題に関するグループ内での合意領域を概説する要約を作らせるようにした。
研究チームによれば、ドイツの哲学者ユルゲン・ハーバーマスにちなんで「ハーバーマス・マシン(Habermas machine:HM)」と名付けられたこのツールは、このようなテーマについて議論する際、異なる考えを持つ人々の中にある共通点を見いだすのにAIが役立つ可能性を示しているという。
「この大規模言語モデルは、グループメンバー間で共有されているそれぞれの考えの中の重複領域を特定して提示するように訓練されました」。グーグル・ディープマインドの研究科学者、マイケル・ヘンリー・テスラー博士は語る。「人々を説得するように訓練されたのではなく、調停役となるように訓練されたのです」。研究論文は、10月18日付けでサイエンス(Science)誌に掲載された。
グーグル・ディープマインドは、クラウド・ソーシング研究プラットフォームと、市民集会を組織する非営利団体ソーティション・ファウンデーション(Sortition Foundation)を通じて合計5734人の参加者を集めた。ソーティションによる複数のグループは、英国の人口を代表する層で形成されている。
HMは、このタスクに合わせて微調整された2つの異なる大規模言語モデルで構成されている。1つ目は生成モデルだ。これはグループが持つさまざまな見解を反映する声明文を提示する。2つ目はパーソナライズされた報酬モデルで、これは提示された声明文に対し各参加者がどの程度同意するか考えたうえでスコアを付ける。
研究チームは参加者をいくつかのグループに分け、HMを2段階でテストした。最初に、HMが集団の意見を正確に要約できるかどうか確認し、次に、HMが異なるグループ間の調停役となり共通点を見いだすのに役立つかどうか確認した。
研究チームはまず、「選挙権年齢を16歳に引き下げるべきか」や「国民保健サービス(NHS)を民営化すべきか」といった議題を提示した。参加者は、5人前後のグループの中で意見交わす前に、議題に対する各参加者の意見をHMに提出した。
HMはグループ内の意見を要約し、その後、その要約を各人に送信して批評させた。最後に、HMは最終的な一連の声明文を作成し、参加者がそれにランクを付けた。
研究チームは、その後、HMが有用なAI調停ツールとして機能し得るかどうか、テストすることに着手した。
参加者は6人ずつのグループに分けられ、各グループから1人が無作為に選ばれて、グループを代表して声明文を書いた。その人が「調停役」に指名されたということだ。討議の各回で、参加者には人間の調停役からの声明文1つと、HMがAIで生成した声明文1つが提示され、どちらが好ましいか質問された。
その結果、参加者の半数以上(56%)がAIによる声明文の方を選択した。参加者たちは、AIによるこれらの声明文が人間の調停役が作成した声明文よりも質が高いと考え、それらをより強く支持する傾向が示されたのだ。AI調停役の助けを借りて討議した後には、少人数の参加者グループの間では問題に対する立場の違いによる分断が少なくなった。
今回の研究ではAIシステムが集団の意見を反映した要約を生成するのが得意だということが実証されている。だが、その有用性には限界があると認識することが重要であると、アールト大学で生成AIを研究する研究者、ジューンギ・シン博士は語る。
シン博士は、「状況や前後関係が非常に明確に示されていなければ、このようなシステムは倫理的問題を引き起こす可能性があると思います。システムが生成した要約だけでなく、システムに入力された情報を見られるようにする必要があります」と語る。
グーグル・ディープマインドは、人間の調停役を置いて実施する実験の参加者を募る際、同意書ではアルゴリズムが関与することを示していたが、AIシステムがグループの声明文を生成することを、参加者に明示的に伝えていなかった。
「現行形式のモデルでは、現実世界の討議の中でAIが処理しきれないような側面を持つ議題もあります。そのことを認識することもまた重要です」と、テスラー博士は語る。「たとえば、事実確認をする、話を脱線させないといった、議論の調停に必要な能力はAIにはありません」 。
この先、この種の技術がどこでどのように利用できるか見極めるためには、責任ある安全な導入を確実にするためにさらなる研究が必要になるだろう。グーグル・ディープマインドはこのモデルを一般公開する予定はないと話している。
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷
- リアノン・ウィリアムズ [Rhiannon Williams]米国版 ニュース担当記者
- 米国版ニュースレター「ザ・ダウンロード(The Download)」の執筆を担当。MITテクノロジーレビュー入社以前は、英国「i (アイ)」紙のテクノロジー特派員、テレグラフ紙のテクノロジー担当記者を務めた。2021年には英国ジャーナリズム賞の最終選考に残ったほか、専門家としてBBCにも定期的に出演している。