「ピザに接着剤がおすすめ」
グーグルの検索AIは
なぜ珍回答を返すのか
グーグルの新たなAI検索機能が、誤った情報を表示するケースがソーシャルメディアで指摘されて話題となっている。検索拡張生成(RAG)と呼ばれる手法で幻覚を回避しているはずだが、なぜ問題は起きたのか。 by Rhiannon Williams2024.06.03
グーグルは5月に人工知能(AI)を搭載した検索機能の展開を発表した際、「グーグルがあなたのためにググってくれる」と約束した。この新機能「AIオーバービューズ(AI Overviews)」は、重要な情報やリンクが強調された簡潔な要約をAIが生成し、検索結果の上に表示してくれるというものだ。
残念ながら、AIシステムは本質的に信頼できない。米国でAI Overviewsがリリースされてから数日も経たないうちに、ユーザーたちは、よく言っても奇妙としか思えない回答の事例を共有していた。AI Overviewsはユーザーに対し、ピザに接着剤を付け足すことや、1日に最低1つは小さな岩を食べることを提案した。また、アンドリュー・ジョンソン元米大統領が(1875年に死亡したにもかかわらず)1947年から2012年の間に大学の学位を取得したことを示唆した。
5月30日にグーグルの検索部門責任者であるリズ・リードは、誤った回答の生成が起こりにくくするため、システムの技術的な改善を進めていることを発表した。たとえば、無意味なクエリを検出するメカニズムを改善しているという。また、風刺的なコンテンツやユーモア目的のコンテンツ、およびユーザーが生成したコンテンツを回答に含めることにも制限を加えている。誤解を招くアドバイスにつながる可能性があるためだ。
しかし、AI Overviewsはなぜ、信頼性に欠け、危険な可能性もある情報を返しているのだろうか?そして、それを修正できるとすれば、どんなことが可能だろうか?
AI Overviewsはどのように機能しているのか?
AIを搭載した検索エンジンが物事を誤る理由を理解するためには、それらがどのように最適化されて機能しているかということに注目する必要がある。AI Overviewsには、グーグルの大規模言語モデル(LLM)「ジェミニ(Gemini)」ファミリーのうちの1つで、グーグル検索用にカスタマイズされた新たな生成AIモデルが使用されていることがわかっている。このモデルは、グーグルの中核的なWebランキングシステムと統合され、Webサイトのインデックスから関連する結果を引き出してくるように設計されている。
ほとんどのLLMは単純に、ひと続きの文章の中の次の単語(またはトークン)を予測するだけである。そのため、流暢に見える反面、作り話をしがちである。それらのLLMは頼るべき根拠となる真実を持たないが、その代わりに、それぞれの単語を純粋に統計的な計算に基づいて選択する。それがハルシネーション(幻覚)につながる。AI OverviewsのGeminiモデルは、検索拡張生成(RAG:retrieval-augmented generation)と呼ばれる手法を使うことでこの問題を回避している可能性が高いと、オンライン検索を専門とするワシントン大学のチラグ・シャー教授は言う。RAGは、LLMが訓練を受けたデータ以外の特定の情報源、たとえば特定のWebページをチェックすることを可能にする。
ユーザーがクエリを入力すると、それがシステムの情報源を構成するドキュメントと照合され、回答が生成される。システムは元のクエリとWebページの特定部分を照合できるため、その答えをどこから引っ張ってきたのか示せる。 …
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール