AIは失った友情の復活に使えるか? 記者が悩みを相談してみた

Would you trust AI to mediate an argument? AIは失った友情の復活に使えるか? 記者が悩みを相談してみた

チャットボットは、議論の調停役を果たすことで私たちが複雑な社会的状況をうまく切り抜けるのに役立つという証拠が増えてきている。友人との対立をどう対処すべきか?記者も相談してみた。 by Melissa Heikkilä2024.10.28

この記事は米国版ニュースレターを一部再編集したものです。

私はこのところ、悲しみに打ちひしがれている。とても親しい友人が最近、私との連絡を絶ってしまったのだ。理由はよくわからない。状況を修復しようとしたが、裏目に出てしまった。こういう状況は傷つくし、混乱する。だから、人々がこのような状況の解決に役立てようとして人工知能(AI)チャットボットに頼ることが徐々に増えているのも、不思議ではない。そして、朗報もある。実際にAIによって助けられるかもしれないのだ。

グーグル・ディープマインド(Google DeepMind)の研究チームは最近、複雑だが重要な社会問題や政治問題について人々が合意に達するのを手助けできるように、大規模言語モデルのシステムの1つを訓練した。このAIモデルは、人々の考えが重なる部分を特定し、提示するように訓練された。このAI調停者の助けを借りることで、少人数のグループを構成する研究参加者たちは、さまざまな問題に対して見解が分かれることが少なくなった。  詳しくは、こちらの記事で読むことができる

AIチャットボットの最適な使い道の1つは、ブレインストーミングである。 私は過去に、サービスに関する苦情や料金の交渉など、気まずい状況のために、AIチャットボットを利用して堂々としたメールや説得力のあるメールの草案を作成し、うまくいったことがある。グーグル・ディープマインドの最新の研究は、私たちが他人の視点から物事を見るのにも、AIチャットボットが役立つかもしれない可能性を示している。では、友人との関係を修復するのにAIを使ってみるのはどうだろうか。

私はチャットGPT(ChatGPT)に、自分の立場から今回の対立を説明し、どうすべきかアドバイスを求めた。その返答は非常に肯定的なものだった。私がこの問題に対処した方法を、AIチャットボットが支持してくれたからだ。返ってきたアドバイスは、私がとにかくやろうと考えていたことに沿うものだった。ボットとチャットして具体的な状況に対処する方法についてより多くのアイデアを得ることは、有益であることがわかった。しかし最終的には、不満が残った。というのも、そのアドバイスはまだかなり一般的で漠然としており(「冷静になって一線を引きなさい」や「自分の気持ちを伝えなさい」など)、セラピストなら提供してくれるであろう洞察のようなものは含まれていなかったからだ。

そしてもう1つ問題がある。すべての議論には2つの側面が存在する。 私は新しいチャットを開始し、私が考える友人の立場から今回の問題を説明した。チャットボットは、私にしてくれたのと同じように、友人の決断を支持し、肯定した。一方では、この演習は友人の視点から物事を見るのに役立った。結局のところ、私はただ議論に勝とうとしたのではなく、相手に共感しようとしていたのだ。しかしもう一方では、自分が聞きたいことを言ってくれるチャットボットのアドバイスに頼りすぎると、自分の意見にさらに固執することになる可能性があり、相手の視点から物事を見ることが妨げられてしまう状況も十分に考えられる。

これは重要なことを思い出す良いきっかけとなった。AIチャットボットはセラピストでもなければ、友人でもない。AIチャットボットは、訓練に使われたインターネット上の膨大な量の文章をオウム返しすることはできても、悲しみ、戸惑い、喜びといった感情がどのようなものかは理解していない。だからこそ私は、本当に重要なことのためにAIチャットボットを使うときは慎重になり、チャットボットの言うことを額面通りに受け取らないようにするつもりだ。

AIチャットボットは、双方が進んで互いの話を誠実に聞き、相手の考え方を考慮するような現実の会話には、決して取って代わることができない。だから私は、AIの助けを借りたセラピー的な会話を見限り、もう一度友人に連絡を取ることにした。うまくいくように祈ってほしい。


ユーザーの名前で回答が変わる? チャットGPTのバイアスが明らかに

チャットGPTは、あなたがローリーでも、ルークでも、あるいはラションダでも、同じように扱うのだろうか。ほぼ同じだが、まったく同じではない。オープンAIがチャットGPTとの会話を何百万件も分析したところ、この人気を博したチャットボットがユーザーの名前に基づいてジェンダーや人種に関する有害なステレオタイプ(固定概念)を生み出すことが、平均して1000件の回答につき1件ほど、最悪の場合は100件につき1件もあることが分かった。

 AIにおけるバイアスは大きな問題である。倫理学者たちは長い間、たとえば企業がAIモデルを使って履歴書やローンの申込を審査する際のバイアスの影響を研究してきた。しかし、チャットボットの台頭によって個人がモデルと直接対話できるようになり、この問題に新たな展開をもたらしている。 詳しくはこちらの記事を読んでほしい

AI関連のその他のニュース