チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
AIチャットボットとのやり取りは、人間にどのような影響を与えるのだろうか。オープンAIとMITメディアラボは1000人の被験者を対象にして、チャットGPTとのやり取り後に感じた孤独感や感情的依存度を測定した結果を発表した。 by Rhiannon Williams2025.03.24
- この記事の3つのポイント
-
- チャットGPTが与える心理的影響についてオープンAIとMITが研究
- 一部ユーザーに感情的な影響を与え、長時間利用する人は孤独感が強い傾向
- 研究は予備的なもので相互作用の長期的な影響の研究はまだ難しい
オープンAI(OpenAI)によると、毎週4億人以上がチャットGPT(ChatGPT)を利用している。チャットGPTとのやり取りは私たちにどのような影響を与えるだろうか? より孤独感を感じるようになるのだろうか? それとも孤独感が薄れるのだろうか? これらは、オープンAIがMITメディアラボと共同で取り組む一組の新たな研究における疑問の一部である。
研究では、チャットGPTと感情的に関わり合うユーザーはごく一部の少数派であることがわかった。「レプリカ(Replika)」「キャラクター・ドットAI(Character.AI)」とは異なり、チャットGPTが人工知能(AI)コンパニオン・アプリとして売り出されていないことを考えれば、この結果は驚くべきことではない。そう語るのは、キングス・カレッジ・ロンドンでAIと社会について研究するケイト・デブリン教授である(同教授はこの研究に関わっていない)。「チャットGPTは生産性向上ツールとして設定されています。しかしそれでも、チャットGPTをコンパニオン・アプリのように使っている人がいることがわかっています」。実際、そのような使い方をしている人は長時間にわたってチャットGPTとやり取りする傾向があり、1日平均で30分ほど費やしている人もいる。
「論文執筆者らは研究の限界を極めて明確に認めていますが、今回の研究を成し遂げたことには興奮します」とデブリン教授は話す。「このレベルのデータにアクセスできるのはすばらしいことです」 。
オープンAIの研究チームは、チャットGPTを使うときの男女の反応に興味深い違いがあることを発見した。チャットGPTを4週間使用した後、女性の研究参加者は、同じことをした男性の参加者よりも、人と交流する傾向がわずかに弱まった。一方、音声モードを使って自分自身と異なる性別でチャットGPTとやり取りした参加者は、実験終了時、他の参加者よりも有意に高いレベルの孤独感とチャットボットへの感情的依存を報告した。オープンAIは2つの研究をどちらも査読付き学術誌に投稿する予定だ。
大規模言語モデル(LLM)で動作するチャットボットはまだ初期段階のテクノロジーであり、私たちに与える感情的影響を研究するのは難しい。オープンAIとMITによるいくつかの新たな研究を含め、この分野における既存の研究の多くは、必ずしも正確または信頼できるとは限らない自己申告のデータに頼っている。とはいえ、今回の最新の研究は、チャットボットとの会話がいかに感情的な説得力を持ち得るかということに関して、科学者たちがこれまでに発見してきたことと一致している。たとえば、2023年にMITメディアラボの研究チームは、チャットボットがユーザーのメッセージの感情的な意識を反映する傾向があることを発見した。このことは、ユーザーが幸せそうに振る舞えば振る舞うほどAIも幸せそうな様子を見せ、その逆に悲しそうであればAIも悲しそうな様子を見せるという、一種のフィードバックループがある可能性を示している。
オープンAIとMITメディアラボは今回の研究を実施するにあたって、2つの方法を用いた。まず、4000万回近いチャットGPTとのやり取りから実際のデータを収集し、分析をした。そして、やりとりをした4076人のユーザーに、それがどのように感じたかを尋ねた。次に、MITメディアラボは、約1000人を募集して4週間の試験に参加してもらった。この試験はより掘り下げたもので、参加者たちが毎日最低5分間、チャットGPTとやり取りする様子を詳しく調べた。試験終了時、参加者には調査票に回答してもらい、チャットボットに対する認識、主観的な孤独感、ソーシャル・エンゲージメントのレベル、チャットボットへの感情的依存度、チャットボットの使用に問題があると感じるかどうかが測定された。その結果、チャットGPTをより信頼し、「絆」を深めている参加者は、他の参加者よりも孤独感を感じており、より依存する傾向があることがわかった。
この研究は、チャットGPTが私たちに与える影響についてさらに深い洞察を得るための重要な第一歩であり、AIプラットフォームがより安全で健全な相互作用を可能にするのに役立つ可能性があると、プロジェクトに携わったオープンAIの安全性研究者ジェイソン・ファンは言う。
「私たちがこの研究で取り組んでいることの多くは予備的なものです。しかし、どのようなことを測定できるのか、専門家たちと議論を開始し、ユーザーへの長期的な影響について考え始めようとしています」(ファン)。
今回の研究は歓迎すべきものだが、人間が感情レベルでテクノロジーと関わっているとき、そして関わっていないときを識別するのはまだ難しいと、デブリン教授は指摘する。研究参加者たちは研究者が記録しなかった感情を経験していた可能性があるという。
「研究チームが測定しようとしたことに関して言えば、人々がチャットGPTを感情的な方法で利用しているとは必ずしも限りません。しかし、テクノロジーとの相互作用において自分が人間であることを切り離すことはできません」。デブリン教授は話す。「私たちは自ら作り出した感情分類手法を使って特定の感情を探しています。しかし、それがある人の人生にとって実際に何を意味するのか推定するのは、本当に難しいことです」。
- 人気の記事ランキング
-
- An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
- AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
- This startup just hit a big milestone for green steel production グリーン鉄鋼、商業化へ前進 ボストン・メタルが1トンの製造に成功
- This artificial leaf makes hydrocarbons out of carbon dioxide 人工光合成が次段階へ、新型人工葉が炭化水素合成に成功

- リアノン・ウィリアムズ [Rhiannon Williams]米国版 ニュース担当記者
- 米国版ニュースレター「ザ・ダウンロード(The Download)」の執筆を担当。MITテクノロジーレビュー入社以前は、英国「i (アイ)」紙のテクノロジー特派員、テレグラフ紙のテクノロジー担当記者を務めた。2021年には英国ジャーナリズム賞の最終選考に残ったほか、専門家としてBBCにも定期的に出演している。