「ピザに接着剤がおすすめ」
グーグルの検索AIは
なぜ珍回答を返すのか
グーグルの新たなAI検索機能が、誤った情報を表示するケースがソーシャルメディアで指摘されて話題となっている。検索拡張生成(RAG)と呼ばれる手法で幻覚を回避しているはずだが、なぜ問題は起きたのか。 by Rhiannon Williams2024.06.03
グーグルは5月に人工知能(AI)を搭載した検索機能の展開を発表した際、「グーグルがあなたのためにググってくれる」と約束した。この新機能「AIオーバービューズ(AI Overviews)」は、重要な情報やリンクが強調された簡潔な要約をAIが生成し、検索結果の上に表示してくれるというものだ。
残念ながら、AIシステムは本質的に信頼できない。米国でAI Overviewsがリリースされてから数日も経たないうちに、ユーザーたちは、よく言っても奇妙としか思えない回答の事例を共有していた。AI Overviewsはユーザーに対し、ピザに接着剤を付け足すことや、1日に最低1つは小さな岩を食べることを提案した。また、アンドリュー・ジョンソン元米大統領が(1875年に死亡したにもかかわらず)1947年から2012年の間に大学の学位を取得したことを示唆した。
5月30日にグーグルの検索部門責任者であるリズ・リードは、誤った回答の生成が起こりにくくするため、システムの技術的な改善を進めていることを発表した。たとえば、無意味なクエリを検出するメカニズムを改善しているという。また、風刺的なコンテンツやユーモア目的のコンテンツ、およびユーザーが生成したコンテンツを回答に含めることにも制限を加えている。誤解を招くアドバイスにつながる可能性があるためだ。
しかし、AI Overviewsはなぜ、信頼性に欠け、危険な可能性もある情報を返しているのだろうか?そして、それを修正できるとすれば、どんなことが可能だろうか?
AI Overviewsはどのように機能しているのか?
AIを搭載した検索エンジンが物事を誤る理由を理解するためには、それらがどのように最適化されて機能しているかということに注目する必要がある。AI Overviewsには、グーグルの大規模言語モデル(LLM)「ジェミニ(Gemini)」ファミリーのうちの1つで、グーグル検索用にカスタマイズされた新たな生成AIモデルが使用されていることがわかっている。このモデルは、グーグルの中核的なWebランキングシステムと統合され、Webサイトのインデックスから関連する結果を引き出してくるように設計されている。
ほとんどのLLMは単純に、ひと続きの文章の中の次の単語(またはトークン)を予測するだけである。そのため、流暢に見える反面、作り話をしがちである。それらのLLMは頼るべき根拠となる真実を持たないが、その代わりに、それぞれの単語を純粋に統計的な計算に基づいて選択する。それがハルシネーション(幻覚)につながる。AI OverviewsのGeminiモデルは、検索拡張生成(RAG:retrieval-augmented generation)と呼ばれる手法を使うことでこの問題を回避している可能性が高いと、オンライン検索を専門とするワシントン大学のチラグ・シャー教授は言う。RAGは、LLMが訓練を受けたデータ以外の特定の情報源、たとえば特定のWebページをチェックすることを可能にする。
ユーザーがクエリを入力すると、それがシステムの情報源を構成するドキュメントと照合され、回答が生成される。システムは元のクエリとWebページの特定部分を照合できるため、その答えをどこから引っ張ってきたのか示せる。 …
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷