AIとの2時間の会話で「そっくりさん」、スタンフォードら新技術
あなたの性格、価値観、行動パターンを再現する「デジタルの分身」。スタンフォード大学などの研究チームは、AIとの2時間の対話だけで、その人らしさを85%の精度で複製できる技術を開発した。 by James O'Donnell2024.11.22
- この記事の3つのポイント
-
- AIが2時間の会話形式インタビューで人間を模倣する技術が開発された
- 1000人の参加者を募集し各参加者のエージェント・レプリカを作成して検証
- 現実では難しい社会科学研究などが可能になる一方、悪用の危険性も指摘
人工知能(AI)モデルを相手に、2時間にわたる会話形式のインタビューを受けることを想像してほしい。親しみやすい声が誘導しながら、幼少期の思い出や成長期の経験、キャリア、さらには移民政策に関する考え方まで、さまざまな話題について話を進めることができる。その後間もなく、驚くほど正確に自身の価値観や好みを反映する「デジタル・レプリカ」が完成する。
スタンフォード大学やグーグル・ディープマインドの研究者を含む共同研究チームが発表した新しい論文によれば、すでにそれが可能になっている。論文はプレプリントサイトのアーカイブ(arXiv)で公開されており、まだ査読はされていない。
スタンフォード大学のコンピューター科学博士課程の学生であるジュン・ソン・パクが率いる研究チームは、年齢、ジェンダー、人種、地域、教育、政治的思想が多様な1000人を研究参加者として募集した。参加者には最大100ドルの報酬が支払われた。インタビューを基に、研究チームは各参加者を模倣するエージェント・レプリカを作成した。その模倣の精度をテストするために、参加者は性格テスト、社会調査、論理ゲームを2週間間隔で2回実施し、その後エージェントが同じ演習に取り組んだ。その結果、エージェントと人間の回答の間に85%の類似性が確認された。
「最終的には、小さな『自分』たちが複数存在し、実際に自分が下したであろう決断を下せるようになることが、究極の未来だと考えています」とパクは述べている。
この論文では、これらのレプリカを「シミュレーション・エージェント」と呼んでいる。この技術の目的は、社会科学やその他の分野の研究者が、現実の人間を対象に実施するには高額な費用がかかり、非現実的であったり、倫理的な問題がある研究を容易に実施できるようにすることにある。本物の人間のように振る舞うAIモデルを構築できれば、ソーシャルメディアにおける誤情報対策の有効性から、交通渋滞の原因となる行動の特定に至るまで、さまざまな問題の検証に役立つと考えられる。
このようなシミュレーション・エージェントは、現在の主要AI企業が研究を主導するエージェントとは性質が異なる。これら …
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷