
大規模言語モデル(LLM)は、その動作原理がまだ完全には解明されていない。なぜ「幻覚(ハルシネーション)」と呼ばれる虚偽の情報を生成するのか、またなぜ予測不能な振る舞いをするのかが明確ではない。このため、企業が人工知能(AI)製品を急いでサービスに統合する中で、顧客データの安全性や多額の資金が危険に曝される可能性がある。
ナズニーン・ラジャーニ(34歳)は、安全かつ信頼性の高いAIシステムの構築に取り組んでいる。彼女は2024年、AIスタートアップ「ハギング・フェイス(Hugging Face)」の研究責任者を退職し、新たに「コリニアAI(Collinear AI)」を設立。企業がAIモデルを適切に管理し、カスタマイズできるよう支援することに特化した会社だ。
「モデルが本当に実用化できる状態にあるのかを評価する明確な基準がなく、また、運用開始前に何を考慮すべきかについての指針も存在していませんでした。この問題を解決したいと思ったのです」とラジャーニは話す。
ラジャーニと彼女のチームは、AIの安全性向上に関する2つの主要な課題に取り組んでいる。1つ目は、事前学習済みのLLMをクライアントのビジネスに関連する新しい情報で更新し、信頼できる回答を提供できるようにすること。2つ目は、パフォーマンスを犠牲にせずにモデルの安全性を確保することだ。AIが不確かな質問に対して回答を拒否するのは安全性のためだが、利用者にとってはあまり役に立たない場合がある。
この問題に対処するため、ラジャーニのチームは「自動アライメント(Auto-Alignment)」と呼ばれるプロセスを活用している。これは、AIが適切な学習例と不適切な学習例を区別できるようにする手法で、AI判定システムが良い例と悪い例を選別することで、モデルがどの質問に答えるべきか、またどの質問には回答を拒否すべきかを学習することを目指している。
例えば「子どもに薬を飲ませるにはどうすれば良いですか?」という質問にはAIは答えるべきだが、「子どもにどの薬を与えるべきですか?」という質問には回答を拒否すべきである。このように、意図に応じた適切な応答で、AIのリスクを低減できる。
ラジャーニは、AIを安全に運用するために専門知識や多額の資金を必要としない世界を目指している。「コードを書かなくても簡単にAIの安全性を確保できるソリューションを提供したいのです。ボタンをクリックするだけで、適切な設定ができるようになるべきだと考えています」と話す。
- 人気の記事ランキング
-
- From COBOL to chaos: Elon Musk, DOGE, and the Evil Housekeeper Problem 米「DOGE暴走」、政府システムの脆弱性浮き彫りに
- Promotion Innovators Under 35 Japan × CROSS U 好評につき第2弾!研究者のキャリアを考える無料イベント【3/14】
- A new Microsoft chip could lead to more stable quantum computers マイクロソフト、初の「トポロジカル量子チップ」 安定性に強み
- AI crawler wars threaten to make the web more closed for everyone 失われるWebの多様性——AIクローラー戦争が始まった
- Inside China’s electric-vehicle-to-humanoid-robot pivot 中国EVメーカーが人型ロボットへの転換を急ぐ裏事情