オープンAI(OpenAI)によると、毎週4億人以上がチャットGPT(ChatGPT)を利用している。チャットGPTとのやり取りは私たちにどのような影響を与えるだろうか? より孤独感を感じるようになるのだろうか? それとも孤独感が薄れるのだろうか? これらは、オープンAIがMITメディアラボと共同で取り組む一組の新たな研究における疑問の一部である。
研究では、チャットGPTと感情的に関わり合うユーザーはごく一部の少数派であることがわかった。「レプリカ(Replika)」「キャラクター・ドットAI(Character.AI)」とは異なり、チャットGPTが人工知能(AI)コンパニオン・アプリとして売り出されていないことを考えれば、この結果は驚くべきことではない。そう語るのは、キングス・カレッジ・ロンドンでAIと社会について研究するケイト・デブリン教授である(同教授はこの研究に関わっていない)。「チャットGPTは生産性向上ツールとして設定されています。しかしそれでも、チャットGPTをコンパニオン・アプリのように使っている人がいることがわかっています」。実際、そのような使い方をしている人は長時間にわたってチャットGPTとやり取りする傾向があり、1日平均で30分ほど費やしている人もいる。
「論文執筆者らは研究の限界を極めて明確に認めていますが、今回の研究を成し遂げたことには興奮します」とデブリン教授は話す。「このレベルのデータにアクセスできるのはすばらしいことです」 。
オープンAIの研究チームは、チャットGPTを使うときの男女の反応に興味深い違いがあることを発見した。チャットGPTを4週間使用した後、女性の研究参加者は、同じことをした男性の参加者よりも、人と交流する傾向がわずかに弱まった。一方、音声モードを使って自分自身と異なる性別でチャットGPTとやり取りした参加者は、実験終了時、他の参加者よりも有意に高いレベルの孤独感とチャットボットへの感情的依存を報告した。オープンAIは2つの研究をどちらも査読付き学術誌に投稿する予定だ。
大規模言語モデル(LLM)で動作するチャットボットはまだ初期段階のテクノロジーであり、私たちに与える感情的影響を研究するのは難しい。オープンAIとMITによるいくつかの新たな研究を含め、この分野における既存の研究の多くは、必ずしも正確または信頼できるとは限らない自己申告のデータに頼っている。とはいえ、今回の最新の研究は、チャットボットとの会話がいかに感情的な説得力を持ち得るかということに関して、科学者たちがこれまでに発見してきたことと一致している。たとえば、2023年にMITメディアラボの研究チームは、チャットボットがユーザーのメッセージの感情的な意識を反映する傾向があることを発見した。このことは、ユーザーが幸せそうに振る舞えば振る舞うほどAIも幸せそうな様子を見せ、その逆に悲しそうであればAIも悲しそうな様子を見せるという、一種のフィードバックループがある可能性を示している。
オープンAIとMITメディアラボは今回の研究を実施するにあたって、2つの方法を用いた。まず、4000万回近いチャットGPTとのやり取りから実際のデータを収集し、分析をした。そして、やりとりをした4076人のユーザーに、それがどのように感じたかを尋ねた。次に、MITメディアラボは、約1000人を募集して4週間の試験に参加してもらった。この試験はより掘り下げたもので、参加者たちが毎日最低5分間、チャットGPTとやり取りする様子を詳しく調べた。試験終了時、参加者には調査票に回答してもらい、チャットボットに対する認識、主観的な孤独感、ソーシャル・エンゲージメントのレベル、チャットボットへの感情的依存度、チャットボットの使用に問題があると感じるかどうかが測定された。その結果、チャットGPTをより信頼し、「絆」を深めている参加者は、他の参加者よりも孤独感を感じており、より依存する傾向があることがわかった。
この研究は、チャットGPTが私たちに与える影響についてさらに深い洞察を得るための重要な第一歩であり、AIプラットフォームがより安全で健全な相互作用を可能にするのに役立つ可能性があると、プロジェクトに携わったオープンAIの安全性研究者ジェイソン・ファンは言う。
「私たちがこの研究で取り組んでいることの多くは予備的なものです。しかし、どのようなことを測定できるのか、専門家たちと議論を開始し、ユーザーへの長期的な影響について考え始めようとしています」(ファン)。
今回の研究は歓迎すべきものだが、人間が感情レベルでテクノロジーと関わっているとき、そして関わっていないときを識別するのはまだ難しいと、デブリン教授は指摘する。研究参加者たちは研究者が記録しなかった感情を経験していた可能性があるという。
「研究チームが測定しようとしたことに関して言えば、人々がチャットGPTを感情的な方法で利用しているとは必ずしも限りません。しかし、テクノロジーとの相互作用において自分が人間であることを切り離すことはできません」。デブリン教授は話す。「私たちは自ら作り出した感情分類手法を使って特定の感情を探しています。しかし、それがある人の人生にとって実際に何を意味するのか推定するのは、本当に難しいことです」。