AIエージェント登場前夜、いま考えるべき倫理的問題点とは?

We need to start wrestling with the ethics of AI agents AIエージェント登場前夜、いま考えるべき倫理的問題点とは?

人間のようにふるまって、さまざまなタスクを自律的に実行するAIエージェントが、遠くない将来、登場しそうだ。それに備え、今から検討しておくべき倫理的問題点とは? by James O'Donnell2024.12.03

この記事は米国版ニュースレターを一部再編集したものです。

生成Aモデルは、私たちと会話したり、私たちのために画像や動画や音楽を作成したりするのは驚くほど上手になった。だが、私たちのために何かを「する」ことはそれほど得意ではない。

AI(人工知能)エージェントによって、その状況が変わると期待されている。AIエージェントは、スクリプトと目的を持ったAIモデルだと考えることができ、以下に示す2つのタイプのうちどちらかの形で提供されることが多い。

1つは、ツールベース・エージェントと呼ばれるものだ。(コーディングではなく)自然な人間の言語を使って指導することにより、私たちのためにデジタル・タスクを完了させられる。アンソロピック(Anthropic)は、10月にこのタイプのエージェントをリリースした。主要なAIモデル・メーカーからのリリースとしては初となるこのエージェントは、「このフォームに記入しなさい」といった指示をコンピューター上での動作に翻訳し、カーソルを動かしてWebブラウザーを開き、関連するページを見て回ってデータを見つけ、そのデータを使ってフォームに入力する。セールスフォース(Salesforce)も独自のエージェントをリリースしており、オープンAI(OpenAI)は来年1月にリリースを予定していると報じられている。

もう1つのタイプのエージェントは、シミュレーション・エージェントと呼ばれるものだ。こちらは、人間に似せて振る舞うように設計されたAIモデルと考えることができる。このようなエージェントの作成に最初に取り組んだのは、社会科学の研究者たちだった。実際の人間を被験者とするには高いコストがかかったり、現実的でなかったり、倫理的に問題があったりする研究を実施するために、代わりにAIを使って被験者をシミュレートしたのだ。こうした動きは、スタンフォード大学の博士課程に在籍するジュン・ソン・パクらが2023年に発表し、よく引用される論文『Generative Agents: Interactive Simulacra of Human Behavior(生成エージェント:人間の行動様式の双方向的シミュラクラ)』によって勢いを増した。

パクらの研究チームは先日、アーカイブ(arXiv)に新たな論文『Generative Agent Simulations of 1,000 People(1000人の人々の生成エージェント・シミュレーション)』を発表した。この研究では、1000人の人々に、AIとの2時間のインタビューに参加してもらった。それから間もなくして、研究チームは、各参加者の価値観や嗜好を驚くほど正確に再現するシミュレーション・エージェントを作り出すことができた。

ここには実際に2つの重要な進展がある。まず、主要なAI企業が、もはや見事な生成AIツールを構築するだけでは十分ではないと考えていることは明らかだ。今や、人々のために何かを成し遂げることができるエージェントを構築する必要がある。次に、そのようなAIエージェントに実際の人間の行動、態度、性格を模倣させることが、かつてないほど容易になっている。シミュレーション・エージェントとツールベース・エージェントという、かつては2つの異なるタイプのエージェントだったものが、間もなく1つになる可能性がある。それは、あなたの人格を模倣するだけでなく、あなたの代わりに行動することもできるAIモデルである。

そのようなAIモデルに関する研究が、現在進行中である。タバス(Tavus)などの企業は、ユーザーが自分自身の「デジタル・ツイン(デジタルの双子)」を作成するのを支援することに、懸命に取り組んでいる。同社のハッサーン・ラザ最高経営責任者(CEO)の考えはさらに進んだもので、セラピストや医師、教師の形態をとることができるAIエージェントを作り出すことを思い描いている。

そのようなツールが安価で簡単に作れるようになれば、新たに多くの倫理的な懸念が浮上するだろうが、特に2つの懸念が突出している。1つ目は、そのようなエージェントがさらに個人的で、さらに有害なディープフェイクを作成する可能性があることだ。すでに画像生成ツールによって、ある人物の1枚の画像を使って合意のないポルノが簡単に作り出せるようになっている。誰かの声や嗜好、性格も簡単に再現できるようになれば、この危機はさらに深まることになるだろう。パクの話によれば、彼の研究チームは最新の研究プロジェクトで1年以上を費やしてこのような倫理問題に取り組み、スタンフォード大学の倫理委員会と多くの話し合いを重ね、参加者が自分のデータや寄与した記録を取り消す方法に関する方針案を作成したという。

2つ目は、私たちはエージェントと話しているのか、それとも人間と話しているのかを知るべきかという、根本的な問題である。あなたがAIとの面接を終え、自分の声のサンプルを提出して、あなたのような声で反応するエージェントを作ったとしよう。友人や同僚たちは、あなたではなくそのエージェントと話しているときにそのことを知る権利があるだろうか? 他の視点から言えば、もしあなたが携帯電話会社や診療所に電話をかけ、ほがらかなカスタマーサービス・エージェントがその電話に出たとしたら、あなたは自分がAIと話しているのかどうか知る権利があるだろうか?

このような未来は遠い先のことのように感じるが、そうではない。その未来まで到達したときには、さらに緊急性が高く、より核心に迫る倫理的問いを投げかけなければならなくなる可能性がある。それまでの間、AIエージェントに関するこちらの記事を読み、AIのインタビュアーが2時間であなたのことをどれだけよく把握できるようになる可能性があるか、じっくりと考えてみよう。


AI関連のその他のニュース