人工知能(AI)モデルを相手に、2時間にわたる会話形式のインタビューを受けることを想像してほしい。親しみやすい声が誘導しながら、幼少期の思い出や成長期の経験、キャリア、さらには移民政策に関する考え方まで、さまざまな話題について話を進めることができる。その後間もなく、驚くほど正確に自身の価値観や好みを反映する「デジタル・レプリカ」が完成する。スタンフォード大学やグーグル・ディープマインドの研究者を含む共同研究チームが発表した新しい論文によれば、すでにそれが可能になっている。論文はプレプリントサイトのアーカイブ(arXiv)で公開されており、まだ査読はされていない。スタンフォード大学のコンピューター科学博士課程の学生であるジュン・サン・パークが率いる研究チームは、年齢、ジェンダー、人種、地域、教育、政治的思想が多様な1000人を研究参加者として募集した。参加者には最大100ドルの報酬が支払われた。インタビューを基に、研究チームは各参加者を模倣するエージェント・レプリカを作成した。その模倣の精度をテストするために、参加者は性格テスト、社会調査、論理ゲームを2週間間隔で2回実施し、その後エージェントが同じ演習に取り組んだ。その結果、エージェントと人間の回答の間に85%の類似性が確認された。「最終的には、小さな『自分』たちが複数存在し、実際に自分が下したであろう決断を下せるようになることが、究極の未来だと考えています」とパークは述べている。この論文では、これらのレプリカを「シミュレーション・エージェント」と呼んでいる。この技術の目的は、社会科学やその他の分野の研究者が、現実の人間を対象に実施するには高額な費用がかかり、非現実的であったり、倫理的な問題がある研究を容易に実施できるようにすることにある。本物の人間のように振る舞うAIモデルを構築できれば、ソーシャルメディアにおける誤情報対策の有効性から、交通渋滞の原因となる行動の特定に至るまで、さまざまな問題の検証に役立つと考えられる。このようなシミュレーション・エージェントは、現在の主要AI企業が研究を主導するエージェントとは性質が異なる。これらは「 …