この記事は米国版ニュースレターを一部再編集したものです。
生成AIのブームが始まって以来、多くのテック企業はこのテクノロジーを活かすキラーアプリの開発に熱心に取り組んできた。まずはオンライン検索だったが、その結果はまちまちだった。そして今、テック企業が開発に注力してしているのはAIアシスタントだ。オープンAI(OpenAI)、メタ(Meta)、グーグルはそれぞれ、Webを検索機能を持ち、一種のパーソナルアシスタントとしても働くAIチャットボットの新機能を揃って発表した。
オープンAIは、まるで電話をしているかのようにチャットボットと会話できる機能など、チャットGPT(ChatGPT)の新機能群を発表した。本誌のウィル・ダグラス・ヘブン編集者が記事にしたとおり、口頭での質問に対し、本物のような合成音声で即座に応答を得ることができる新機能だ。またオープンAIは、チャットGPTへのWeb検索機能の搭載も発表している。
チャットGPTのライバルであるグーグルのバード(Bard)は、Gメール、ドキュメント、ユーチューブ、マップなど、グーグルのエコシステムのほとんどにつながっている。グーグルの狙いは、ユーザーがチャットボットにユーザー自身が作ったコンテンツについて質問できるようにすることにある。メールを検索したり、カレンダーを整理したりすることが可能となるのだ。バードは、グーグル検索から情報を即座に取得することもできる。メタも同様に、あらゆるものにAIチャットボットを導入すると発表している。ユーザーは、AIモデルがビング(Bing)検索からオンラインで情報を取得することで、ワッツアップ(WhatsApp)、メッセンジャー、インスタグラム上でAIチャットボットや有名人のAIアバターに質問できるようになるとのことだ。
だがテクノロジーの限界を考えると、これは危険な賭けと言えるだろう。テック企業は、物事をでっち上げる傾向や「幻覚(ハルシネーション)」など、大規模言語モデル(LLM)に根強く付きまとう問題の一部をまだ解決できていないためだ。だが私が最も懸念しているのは、以前記事にしたとおり、これらの問題がセキュリティやプライバシーを危険にさらす害を起こしうるということだ。テック企業は、この重大な欠陥のあるテクノロジーを何百万ものユーザーに提供し、AIモデルがメール、カレンダー、プライベート・メッセージなどの機密情報にアクセスできるようにしている。それによって、私たち全員が大規模な詐欺、フィッシング、ハッキングに対して脆弱になってしまうのだ。
大規模言語モデルの重大なセキュリティ問題については以前取り上げているが、現在のAIアシスタントは個人情報にアクセスしながら同時にWebから情報を取得できるため、「間接プロンプト・インジェクション」と呼ばれるタイプの攻撃を特に受けやすくなっている。この攻撃は驚くほど簡単に実行できるが、問題を修正する方法はまだ確立されていない。
間接プロンプト・インジェクションでは、第三者が「AIの動作を変更することを狙った隠しテキストを追加するためにWebサイトを改ざんする」。「悪意を持った第三者は、ソーシャルメディアやメールを使って、このような隠しプロンプトが仕込まれたWebサイトにユーザーを誘導できる。成功すれば、AIシステムを操作して、クレジットカード情報などの抽出を試みることも可能だ」。この新世代のAIモデルがソーシャルメディアやメールに組み込まれることで、ハッカーにとってはチャンスが無限にある状況と言える。
私はオープンAI、グーグル、メタに、プロンプトインジェクション攻撃や幻覚への対策をどのように立てているか尋ねた。メタはこの記事の公開までに返信がなく、オープンAIは公式な回答を避けた。
AIの捏造傾向について、グーグルの広報担当者は、バードは「実験」として公開しているものであり、ユーザーがグーグル検索を使用してバードの回答を事実確認できると説明している。「ユーザーが幻覚や不正確な回答を見たときは、低評価ボタンをクリックしてフィードバックを返すことをお薦めします。それが、バードが学習して改善する方法の一つです」とも語っている。もちろん、この方法ではミスを発見する責任はユーザーにある。そして私たちは、コンピューターが生成した回答を信用しすぎる傾向がある。
プロンプト・インジェクションに関して、グーグルはこれが解決された問題ではなく、依然として活発な研究が続いている領域であることを認めた。広報担当者によると、プロンプト・インジェクションに関してはスパムフィルターなどの他のシステムを利用して攻撃の試みを特定して排除しており、悪意のある攻撃者が言語モデルを利用して構築された製品を攻撃する方法を特定するために、敵対的テストとレッドチーム演習を実施しているという。「私たちは、ポリシーに違反する既知の悪意のある入力と既知の安全でない出力を特定するために、特別に訓練されたモデルを使用しています」。
さて、新しい製品が公開されるたびに、子どもの歯が生え代わる時のような痛みが常に伴うことを私は理解しているつもりだ。しかし、大規模言語モデル製品の初期の応援団たちでさえもそれほど感銘を受けていないという事実が、すでに多くを物語っていると言えよう。ニューヨーク・タイムズ紙のコラムニストであるケビン・ルースは、グーグルのアシスタントはメールを上手に要約してくれるが、受信トレイには存在しないはずのメールの中身についても語っていることに気づいた。
最後にまとめよう。 テック企業各社は、AIツールの「必然性」と称するものを盾に自己満足にひたっているべきではない。普通の人たちは、迷惑で予測不可能な形で失敗を続けるテクノロジーを採用しようとはしない。ハッカーたちがこれらの新しいAIアシスタントを悪意を持って使うようになるのは、時間の問題だ。今、私たちは格好の標的となっているのだ。
あなたがどうするのかは分からないが、私はこの世代のAIシステムに私のメールを探らせるのは、もう少し先にするつもりだ。
◆
ランナーのスプリント能力を高めるロボット外骨格が登場
すばらしい成果だ。外骨格は、ランナーの歩数を増やすことで、短距離をより速く走れるようにする。韓国のソウルにある中央大学校の研究チームは、股関節の伸展、つまりランナーを前進させる強力な動きを支援することで、より速く走れるように支援する軽量の外骨格スーツを開発した。このスーツのセンサーは、一人一人のランナーの個別のランニングスタイルと、スピードを追跡するアルゴリズムにデータを送り込む。
研究チームは、エリートアスリートではない9人の若い男性ランナーを対象に、この外骨格スーツをテストした。このテストでは、屋外で200メートルの直線コースを2回(1回は外骨格スーツを着用して、1回は着用せずに)走った。参加者は平均して、外骨格スーツを着用しているときの方が、着用していないときよりも0.97秒速く走ることができた。詳しくは、本誌のリアノン・ウィリアムズ記者によるこちらの記事へ。
AI関連のその他のニュース
ハリウッドの脚本家と映画スタジオが、AIの使用について合意。全米脚本家組合と全米映画テレビ制作者協会は、AIの使用条件について合意し、ハリウッドの脚本家によるストライキが終結した。この契約では、AIシステムを脚本の作成や書き直しに利用できないということと、スタジオはAIが生成した素材を脚本家に提供するときに、その旨を開示しなければならないと規定している。脚本家は、自身が書いた脚本がAIモデルの訓練に使用されるかどうかを決定することもできる。この動きにより、私たちは単にAIに置き換えられるのではなく、ツールとしてAIを使用できるようになると言える。(ワイアード )
フランスのAI企業が、殺人と民族浄化について詳細な指示を与えるAIチャットボットをローンチ。メタとディープマインドの元従業員が設立したフランスのスタートアップ企業ミストラルAI(Mistral AI)は、一部の指標でメタのLLaMA(ラマ) を上回るオープンソースの言語モデル「ミストラル7B(Mistral 7B)」を公開した。だがLLaMAとは異なり、ミストラル7Bにはコンテンツ・フィルターがなく、有害なコンテンツを制限なく吐き出せる。(404メディア)
オープンAIが、消費者向けデバイスのリリースを計画中。オープンAIは「AI搭載のアイフォーン」とも言えるデバイスを作るために、元アップルのデザイナーであるジョナサン・アイブやソフトバンクと「踏み込んだ協議」に入っている。このデバイスがどのようなもので、どのように機能するかはまだ不明だ。消費者向けハードウェアを正しく理解することは難しい。これまで多くのテック企業が、消費者向けテクノロジーを展開する野心的な計画を発表し、そして中止してきた。噂によれば、音声で操作できるAIアシスタントだという。 (ジ・インフォメーション)
18万3000冊の書籍が、出版とテクノロジーが繰り広げる最大の戦いを過熱させている。テック企業に対する著作権訴訟で重宝されるであろう、どの本と著者が生成AIシステムの学習用データセットに入っているかを確認できる検索可能なデータベースが登場した。(アトランティック誌)