カネにならない生成AIブーム、LLMはどう使われているか?

Here’s how people are actually using AI カネにならない生成AIブーム、LLMはどう使われているか?

チャットGPTをはじめとする生成AIは、登場した当初、組織の生産性と利益を急増させる超知的なツールと言われていた。だが、実際にはそうなってはおらず、奇妙なことが起こり始めている。 by Melissa Heikkilä2024.08.22

この記事は米国版ニュースレターを一部再編集したものです。

2022年後半に「チャットGPT(ChatGPT)」によって生成AIブームが始まった。そのとき、私たちが売り込まれたのは、すべてを知っており、仕事の退屈な部分を置き換えることができ、生産性と経済的利益を急増させる超知的なAIツールのビジョンだった。

それから2年が経ち、生産性の向上はほとんど具現化されていない。そして、奇妙で少し予想外のことが起こっている。人々が人工知能(AI)システムと関係を築き始めたのだ。私たちはAIに話しかけ、「お願い」とか「ありがとう」とか言い、AIを友人、恋人、指導者、セラピスト、教師として生活に招き入れるようになった。

今、現実世界では、巨大な実験が展開されている。そのようなAIコンパニオン(AIの仲間)が私たち個人、あるいは社会全体にどのような影響を与えるかはまだ不透明であると、MITメディアラボおよびハーバード大学ロースクールの博士号候補者であるロバート・マハリと、MITメディアラボの研究員であるパット・パタラヌタポーンは主張する。2人によれば、私たちは「中毒性知能」、つまり私たちを夢中にさせるためのダーク・パターンが組み込まれたAIコンパニオンに備える必要があるという。2人の記事はここで読むことができる。マハリとパタラヌタポーンは、私たちの頭の中に深く入り込むAIチャットボットに関連するリスクのいくつかを防ぐため、スマートな規制を役立てる方法に注目している。

AIコンパニオンと絆を結ぶという考えは、もはや単なる仮説ではない。オープンAI(OpenAI)の「GPT-4o」のような、さらに感情を感じさせる声を持つチャットボットは、私たちをより深く引き付けることになりそうだ。安全性テストの最中にオープンAIは、ユーザーが「私たちが一緒に過ごすのもこれで最後だね」といったような言葉を使うことを観察した。これは、ユーザーがAIモデルと絆を結んだことを示している。オープンAI自身も、感情的な依存は、新しい音声対応チャットボットによって高まる可能性があるリスクの1つであることを認めている。

テキストだけのやりとりに限定されているときでも、私たちがAIとより深いレベルでつながっていることを示す証拠は、すでに存在する。チャットGPTの100万件の対話ログを分析した研究者グループの一員だったマハリは、2番目に人気があるAIの用途は性的ロールプレイングだったことを発見した。それはさておき、チャットボットの使用事例として圧倒的に人気なのは、クリエイティブな文章の作成だった。また、ブレーンストーミングやプランニングに役立てたり、何かに関する説明や一般的な情報を求めたりすることにも好んで使われた。

そのような種類の創造的で楽しいタスクは、AIチャットボットの優れた使い方である。AI言語モデルは、文の中で次に来る可能性が高い単語を予測することによって機能する。AIは自信に満ちた嘘つきで、しばしば嘘を事実として提示したり、作り話をしたり、幻覚(ハルシネーション)を見せたりする。AIを使う主な目的が作り話のようなものであれば、これはそれほど重要な問題ではない。6月に本誌のリアノン・ウィリアムズ記者は、コメディアンが最初のドラフト原稿を生成するのにAI言語モデルが役立つのを発見したことについて、記事を書いた。そのネタに人間独自の創意工夫を加えることで、面白くするのである。

しかし、そのような使用事例は、必ずしも経済的な意味で生産的なものではない。投資家たちがAI企業に何十億ドルもの資金を注いだ際、念頭にあったのは、スマットボット(わいせつなコンテンツを生成するボット)ではないことは確かである。また、AIのキラーアプリがまだ存在しないという事実も合わせ、最近のウォール街でAIに関して強気な見方が大幅に薄れているのも不思議ではない。

「生産的」であると考えられ、それゆえに最も大々的に宣伝されてきた使用事例は、AIの採用においてあまり成功しなかった。コード生成、ニュース、オンライン検索など、物事を正しく理解することが重要な使用事例の一部では、幻覚が問題になり始めている。チャットボットの最も恥ずべき失敗のいくつかは、人々がAIチャットボットを過度に信頼し始めたり、事実の情報源とみなしたりしたときに起こっている。たとえば今年これまでに、オンライン検索の結果を要約するグーグルのAIオーバービュー機能は、人々に石を食べたり、ピザに接着剤を加えたりすることを提案した。

それはまさに、AIの誇大宣伝の問題である。誇大な宣伝は私たちにあまりにも高い期待を抱かせる。そして文字通り信じられないような約束が果たされないと、私たちは失望し、幻滅する。また、AIは、私たちをだまし、即座に変化をもたらすほど十分に成熟したテクノロジーであるかのように思わせる。しかし現実には、私たちがその真の恩恵を享受するまでには、まだ何年もかかるかもしれない。


AIの「ゴッドファーザー」が参加するAIの安全性向上プロジェクト

現代のAIのゴッドファーザーの1人とみなされているチューリング賞受賞者のヨシュア・ベンジオが、AIシステムに安全性メカニズムを組み込むことを目的とし、英国政府が資金提供するプロジェクトに協力している。「セーフガーデッドAI」と呼ばれるこのプロジェクトは、重要な領域で利用されるAIシステムの安全性を確認できるAIシステムの構築を目指している。ベンジオは科学ディレクターとして参加し、重要な知見と科学的助言を提供する

セーフガーデッドAIの目標は、現実世界への影響を定量的に保証する、リスク・スコアのような尺度を提供するAIシステムの構築だという。プロジェクトは、現実世界を実質的にシミュレートした科学的世界モデルと数学的証明を組み合わせることで、AIの安全性を保証する仕組みを構築することを目指している。証明にはAIによる処理内容の説明が付く予定だ。また、AIモデルによる安全性チェックの正当性は、人間が検証することになるだろう。詳しくはこちらの記事を読んでほしい

AI関連のその他のニュース