グーグルが生成AIに本腰、製品投入でMS/オープンAIに対抗
グーグルが生成AIを組み込んだ新製品をグーグルI/Oで多数発表した。これまで慎重な姿勢を示していたが、新製品でマイクロソフトやオープンAIに対抗する。 by Melissa Heikkilä2023.05.12
グーグルが、新しい強力な人工知能(AI)ツールを膨大な既存製品に組み込み、さらにコーディング支援などの新製品を多数リリースする。5月10日に開催された恒例の年次カンファレンス「グーグルI/O」で発表した。
グーグルの最新のAI言語モデル「PaLM 2(パーム2)」が、マップ、ドキュメント、Gメールl、スプレッドシート、チャットボットの「バード(Bard)」など、25を超える製品に統合され、数十億人ものユーザーが利用できるようになる。例えば、グーグル・ドキュメントのテキストボックスに「職務記述書を書いて」などとリクエストを入力するだけで、カスタマイズ可能なテンプレート文が生成される。
安全性とレピュテーションリスクを理由として、グーグルはAI搭載製品の立ち上げで競合他社の後れを取ってきた。だが、マイクロソフトやオープンAI(OpenAI)といった競合他社との競争が激化する中、立ち上げ以外の選択肢はなくなっていると、とワシントン大学のチラグ・シャー教授(コンピューター科学)は説明する。
AI言語モデルには数多くの欠陥があり、その欠陥を解消する方法が明らかになっていないことを考えれば、ハイリスクな戦略だ。専門家は、AI言語モデルを製品に組み込むことが裏目に出て、強硬姿勢を打ち出しつつある規制当局と衝突する恐れがあると指摘する。
グーグルは同時に、チャットGPT(ChatGPT)の競合で、従来は米国と英国の一部のグループに限られていたバードへのアクセスを、世界180カ国以上の一般ユーザーに開放する。グーグルによると、バードは「まもなく」、言葉だけでなく画像で指示を出したり、画像を伴う応答を受け付けたりできるようになるという。また、グーグルは、コードを生成してデバッグできるAIツールも発表している。
グーグルは、テキスト翻訳や音声認識などの製品において長らくAIテクノロジーを利用してきた。だが、最新の潮流を踏まえ、多種多様な製品にAIテクノロジーを組み込む取り組みしては過去最大規模のものだ。
「AI言語モデルの機能は向上しています。既存の製品に組み込むことができる場所がどんどん増えています。また、現実に、大胆かつ責任あるやり方でユーザーに価値をもたらすチャンスも見出しています」。グーグル・ディープマインド(Google DeepMind=グーグルのAI部門とディープマインドを統合した新会社)のズビン・ガラマニ副社長は本誌の取材にこうコメントした。
「グーグルはまさに今、AIを人々の手に委ねることの力を実感しています」。
ガラマニ副社長は、これらのツールが当たり前の日常の一部になるぐらい、ユーザーに使い慣れてもらいたいという。
ワンストップ・ショップ
グーグルの発表は、マイクロソフトやオープンAI、メタ(Meta)などのライバルや、スタビリティAI(Stability.AI)をはじめとするオープンソースのグループが、文章を要約したり、人間の質問に流暢に答えたり、プロンプト(指示文)から画像や動画を生成したりする驚異的なAIツールをこぞってローンチしている最中になされた。
グーグルは、AIを搭載した製品群と機能のアップデートによって、個人のみならず、モデルやコーディング支援、企業向けソフトウェアのアクセスへの支出をいとわないスタートアップ、開発者、企業もターゲットにしている、とシャー教授は説明する。
「グーグルにとって、そのようなワンストップ・ショップであることがとても重要なのです」。
グーグルは、AI言語技術をコーディングのアシスタントとして活用できる新機能とモデルを発表した。コードを生成して完成させられるほか、チャットボットと会話しながらデバッグやコードに関する疑問の回答も得られる。
問題は、グーグルが製品に組み込んでいるような大規模言語モデルが、事実をでっち上げる傾向があることだ。グーグルは、バードを米国と英国で試験的に公開すると発表した際に、それを身をもって体験している。バードが誤情報を表示し、同社の株価が一時数十億ドル規模で下落する事態に陥った。
AIスタートアップのハギング・フェイス(Hugging Face)の研究科学者であるサーシャ・ルッチョーニによると、グーグルは、斬新で刺激的なAI製品をリリースすることと、そのテクノロジーを再現可能にして外部の研究者が安全性にかかわる監査とテストを進められるように科学的な研究を行うこととのトレードオフに直面しているという。
これまでグーグルは、他社よりもオープンなアプローチをとっており、2018年にはバート(BERT)のような言語モデルをオープンソース化している。「しかし、市場とオープンAIからのプレッシャーで、グーグルは一気にやり方を変えようとしています」(ルッチョーニ)。
ルッチョーニによると、コード生成におけるリスクは、AIが取り込んでしまったエラーに気づけるくらいのプログラミングのスキルをユーザーが持っていないことだという。バグだらけのコードによって、ソフトウェアが破壊される結果になりかねない。また、AI言語モデルが現実世界の生活についてアドバイスをし始めると、事態が悪化する危険性もある、とルッチョーニは付け加える。
グーグル・ディープマインドのガラマニ副社長でさえ、企業は、これらのツールの使用の目的を慎重に検討する必要がある、ツールをやみくもに信頼せず、結果を徹底的にチェックしてほしいと注意を促している。
「これらのモデルはかなり強力です。もし、欠陥を含んだものが生成するなら、生成された出力をそのまま業務上不可欠なソフトウェアに組み込んでいいのかどうか、考慮する必要があります」とガラマニ副社長は述べる。
しかし、AI言語モデルには、最先端のテクノロジーに精通した人たちでさえ、まだ理解の端緒すらつかめていないリスクがある。AI生成のテキスト、さらには画像を検出することは困難だ。そのため、これらのツールがデマの拡散や大規模な詐欺に使われる可能性もある。
この種のモデルは「脱獄(ジェイルブレイク)」によって、人に不正行為を指示したりするといった、自らのポリシーに違反させることができる。Webを閲覧するプロダクトに搭載されるとハッカーの攻撃に対して脆弱になるし、しかもその問題の対処方法は定まっていない。
グーグルは、モデルの安全性を高めるために常にテストし、ユーザーが有害なコンテンツを生成するのを防ぐ制御機構を組み込んでいるとガラマニ副社長は説明する。しかし同時に、その脆弱性のみならず、チャットボットがもっともらしいウソを生成する「幻覚(hallucination)」の問題もまだ解決していないことを認めた。
ハードローンチ
生成AIへの全力投球は、グーグルにとって裏目に出る可能性がある。テック企業は現在、規制当局のAIプロダクトに対する厳しい監視の目にさらされている。欧州連合(EU)は、初のAI規制法であるAI法(AI Act)の制定に向けて最終調整中だ。一方、米国では先日、ホワイトハウスがグーグル、マイクロソフト、オープンAIのリーダーを召喚し、「責任あるAI」の開発の必要性について議論した。米国連邦取引委員会(FTC)などの米国連邦機関は、AIがもたらす害に警戒を強めているというシグナルを発している。
シャー教授によると、AIをめぐる懸念が現実になった場合、それは規制当局や議員に、実際にグーグルの責任を追及する根拠を与えることになるかもしれない。
だが、企業向けソフトウェア市場の支配権を守るための闘いでライバルに負ける余裕はグーグルにはないはずだとシャー教授は言う。「これは彼らが作り出した戦争です」。そして、少なくとも今は、「彼らが突き進むのを止める理由はまずありません」。
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。