AIとの2時間の会話で「そっくりさん」、スタンフォードら新技術

AI can now create a replica of your personality AIとの2時間の会話で「そっくりさん」、スタンフォードら新技術

あなたの性格、価値観、行動パターンを再現する「デジタルの分身」。スタンフォード大学などの研究チームは、AIとの2時間の対話だけで、その人らしさを85%の精度で複製できる技術を開発した。 by James O'Donnell2024.11.22

人工知能(AI)モデルを相手に、2時間にわたる会話形式のインタビューを受けることを想像してほしい。親しみやすい声が誘導しながら、幼少期の思い出や成長期の経験、キャリア、さらには移民政策に関する考え方まで、さまざまな話題について話を進めることができる。その後間もなく、驚くほど正確に自身の価値観や好みを反映する「デジタル・レプリカ」が完成する。

スタンフォード大学やグーグル・ディープマインドの研究者を含む共同研究チームが発表した新しい論文によれば、すでにそれが可能になっている。論文はプレプリントサイトのアーカイブ(arXiv)で公開されており、まだ査読はされていない。

スタンフォード大学のコンピューター科学博士課程の学生であるジュン・ソン・パクが率いる研究チームは、年齢、ジェンダー、人種、地域、教育、政治的思想が多様な1000人を研究参加者として募集した。参加者には最大100ドルの報酬が支払われた。インタビューを基に、研究チームは各参加者を模倣するエージェント・レプリカを作成した。その模倣の精度をテストするために、参加者は性格テスト、社会調査、論理ゲームを2週間間隔で2回実施し、その後エージェントが同じ演習に取り組んだ。その結果、エージェントと人間の回答の間に85%の類似性が確認された。

「最終的には、小さな『自分』たちが複数存在し、実際に自分が下したであろう決断を下せるようになることが、究極の未来だと考えています」とパクは述べている。

この論文では、これらのレプリカを「シミュレーション・エージェント」と呼んでいる。この技術の目的は、社会科学やその他の分野の研究者が、現実の人間を対象に実施するには高額な費用がかかり、非現実的であったり、倫理的な問題がある研究を容易に実施できるようにすることにある。本物の人間のように振る舞うAIモデルを構築できれば、ソーシャルメディアにおける誤情報対策の有効性から、交通渋滞の原因となる行動の特定に至るまで、さまざまな問題の検証に役立つと考えられる。

このようなシミュレーション・エージェントは、現在の主要AI企業が研究を主導するエージェントとは性質が異なる。これら …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。