非営利組織のトレバー・プロジェクト(Trevor Project)でボランティアをするカウンセラーは、自殺を考えている可能性のあるLGBTQの若者との最初の会話に向けて準備をしなければならない。そこでまず、カウンセラーたちは練習をする。その手法の1つとして例えば、ちょっと落ち込み、ふさぎ込んでいるノースカロライナ州出身の16歳の「ライリー」という架空の人物と話すというものがある。チームの1人がライリーの役割を演じることで、研修生は事態を深く追求できる。つまり、ライリーが家族にカミングアウトすることを心配していること、最近友達に話したが上手くいかなかったこと、そして今現在でないにせよ、これまでに自殺を考えたことがあるといった事実を把握できるのだ。
ところで現在、「ライリー」は実はトレバー・プロジェクトのスタッフが演じているわけではない。人工知能(AI)が演じているのだ。
AI版ライリーは、カウンセラーとプロジェクトのスタッフとの数千に及ぶ過去の役割練習の対話記録で訓練されている。そして、生身の人間が演じていたライリーと同様に、研修生がLGBTQの若者を助けるための最善の方法について学んだことを試せる状況を提示し、心を開くようにうまく誘導される必要がある。
カウンセラーは、ライリーにカミングアウトするように強要する必要はない。ライリーが持つ心情の正当性を確認し、必要であれば安全を確保するためのプランを立てる手助けすることが目標だ。
危機に対応するホットラインとチャットサービスの存在は、当事者に基本的な保証を約束する。手を差しのべ、助けになる生身の人とのつながりを提供する。しかし、そのニーズが、最も信頼あるサービスであるトレバー・プロジェクトの処理能力さえ上回ってしまうことがある。同プロジェクトは、米国で毎年180万人ものLGBTQの若者が真剣に自殺を検討していると考えている。チャットベースの同プロジェクトのサービスに在籍する600人というカウンセラーの人数では、そのニーズに対応しきれないのだ。そこでトレバー・プロジェクトは、他の多くのメンタルヘルス機関同様に、需要に対応するためにAIを活用したツールに目を向けた。これは大いに理に適った進歩であるが、傷つきやすい人々の生命が危機に際している状況で、現在のAIテクノロジーがどの程度のことができるのかという疑問も同時に提起している。
リスクを冒して、評価をする
トレバー・プロジェクトは、AIに対する期待と疑問のバランスを理解していると考えており、ライリーがしていないことについて強調する。
「我々は、カウンセラーの代わりとなったり、危機に瀕する可能性のある人間と直接対話をしたりするAIシステムの開発に着手したことはありませんし、そのような予定もありません」と話すのは、トレバー・プロジェクトのAIと工学部門の責任者であるダン・フィッシャーだ。人と人とのつながりはすべてのメンタルヘルス・サービスにとって重要だが、同プロジェクトに携わる人々にとって特に大切なのかもしれない。トレバー・プロジェクトが2019年に実施した独自の調査によると、人生で少なくとも一度は大人の助けを受け入れたLGBTQの若者は、前年に自殺しようとしたことがあると答えた割合が40%少なかった。
トレバー・プロジェクトのAIを活用した訓練用役割練習は「危機 …
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷