オープンAI(OpenAI)が2022年11月に公開したAIチャットボット「ChatGPT(チャットGPT)」は、多様な質問に自然な文章で答えられることから大きな反響を呼び、瞬く間に人気を集めた。その後、マイクロソフトやグーグルも相次いで類似サービスを開始し、AIは急速に私たちの身近な存在となった。
しかし、これらのAIチャットボットの基盤となる大規模言語モデル(LLM)には課題がある。誤った情報を含む回答や、まったくの作り話を返す「幻覚(Hallucination)」という問題だ。さらに、回答の根拠を示せないことや、学習後の新しい情報を反映できないといった制限もある。そのため、高い信頼性や最新の情報が求められる場面では、LLMの使用が難しい。
この問題を解決する手法として注目されているのが、「検索拡張生成(Retrieval-Augmented Generation:RAG、ラグと発音)」である。従来のLLMが主にネット上で収集した膨大なデータで事前に学習するのに対し、RAGはユーザーからの質問に応じて大規模データベースをリアルタイムで検索し、その結果を回答生成に活用する。これにより、LLMに追加学習をさせることなく、最新情報を取り入れた回答が可能になる。また、回答の根拠も示せるようになる。
ワシントン大学大学院の浅井明里(Akari Asai)は、2019年からRAGの研究に取り組んできた先駆者の一人だ。ChatGPTが注目を集める以前から、知識検索と大規模モデルの組み合わせに着目し、20本以上の査読付き論文を発表してきた。特に、RAGが幻覚の削減に効果的であることを世界で初めて示した2023年の論文は大きな反響を呼んだ。この研究では、1万4000問の幅広い質問セットを用いて、10種類のモデルと4つの拡張手法の回答の正確性を比較。その結果、モデルの規模を大きくするよりも、RAGなどの拡張手法の方が優れた性能を発揮することが明らかになった。
2024年には、RAGを進化させた「Self-RAG(セルフラグ)」も提案している。Self-RAGは、質問内容に応じて検索の必要性を判断し、不適切な回答の生成を抑制する新手法だ。機械学習分野の最難関国際会議ICLR 2024で上位0.9%の評価を受け、LlamaIndex(ラマインデックス)やLangChain(ラングチェイン)などの主要なLLMライブラリーでも採用されるなど、多くの企業や研究者から注目されている。
浅井は、「専門家が信頼して、重要な仕事の自動化を任せられるLLM」の構築を目標に掲げる。医療や科学など、高い信頼性が求められる分野でのLLM活用を見据え、基礎研究と社会実装の両面から取り組みを続けている。
(笹田 仁)
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」