この記事は米国版ニュースレターを一部再編集したものです。
初めて実質現実(VR)ゴーグルを試したときのことを思い出した。最初の「オキュラス・リフト(Oculus Rift)」で、強烈だがお粗末な画像のVRジェットコースターを体験した後、気を失いかけた。とはいえ、もう10年前の話である。それ以来、VR体験はよりスムーズに、よりリアルになっている。 ところが、その見事なまでの没入感が問題となるかもしれない。ユーザーを、VRのサイバー攻撃に対してとりわけ脆弱にするのだ。
つい最近、シカゴ大学の研究者が発見した新たなセキュリティ上の脆弱性について記事を書いたばかりだ。クリストファー・ノーラン監督の映画「インセプション」にインスパイアされたこの攻撃は、メタの「クエスト(Quest)」VRシステムに悪意あるコードを注入するアプリをハッカーが作成し、ホーム画面とアプリのクローンを起動して、ユーザーの本物の画面と同じように見せることを可能にする。ひとたび内部に侵入した攻撃者は、ユーザーがVRゴーグルで実行するすべてのことを、見たり、記録したり、改変したりすることができ、音声、動き、ジェスチャー、キーボード操作、ブラウザー履歴、さらには他の人とのやりとりまでもリアルタイムで追跡できるようになる。新たな恐怖の扉が開いたのだ。
この研究結果はかなり衝撃的だといえる。ひとつには、研究に参加した無防備な被験者たちは、攻撃にまったく気づいていなかったからだ。 詳しくはこちらの記事をご覧いただきたい。
こうしたVRシステムがいかに脆弱で危険かを知るのは衝撃的なことである。特に、メタのクエストVRゴーグルは市場で最も人気のある製品で、何百万人もの人々が使用しているのだから。
しかし、おそらくもっと不安にさせるのは、こうした攻撃が気づかないうちに起こり、私たちの現実感を歪めてしまうことだ。これまでの研究で、人々がいかに早く拡張現実(AR)やVRの中のものを現実として扱い始めるかが示されてきたと、ワシントン大学のコンピュータサイエンス准教授であるフランジ・ローズナー准教授は言う。ローズナー准教授の専門はセキュリティとプライバシーだが、今回の研究のメンバーではない。非常に基本的なバーチャル環境でも、人々はあたかも本当にそこに物体が存在するかのように、その周りを歩きはじめる。
VRは人の脳を利用し、強化された誤報や欺き、その他の問題のあるコンテンツを提供し、生理的、無意識的に脳を欺く可能性がある、とローズナー准教授は言う。「没入感が実に強力なのです」 。
さらに、VRは比較的新しいテクノロジーであるため、人々はそれを使う際に、セキュリティ上の欠陥や罠についてあまり警戒していない。インセプション攻撃がどの程度気づかれないものかをテストするため、シカゴ大学の研究者たちはVR専門家27人をボランティアとして集め、攻撃を体験してもらった。参加者のひとりは、シカゴ大学のコンピューター科学の博士研究員、ジャスミン・ルーだった。ルー博士は2017年から定期的にVRシステムを使用し、研究し、仕事にも使ってきた。にもかかわらず、同博士をはじめ、ほぼすべての参加者は攻撃に気づかなかった。
「私が見た限り、読み込みに少し時間がかかった以外に何の違いもありませんでした。ほとんどの人は、システムの小さな不具合としか思わないでしょう」とルー博士は言う。
VRの使用に際して対処しなければならないであろう基本的な問題のひとつは、自分が見ているものを信用してよいかどうかだとローズナー准教授は言う。
ルー博士も同意見だ。私たちは、インターネット・ブラウザー上のどの情報が正しそうで、何がそうでなさそうかを見分けるよう訓練されてきたが、VR上の情報についてはそうではない、とルー博士は言う。人々はVR空間での攻撃がどんなものかを知らない。
これは、生成AI(ジェネレーティブAI)の台頭により、また、文章、音声、動画でもみられるようになってきた問題と関連している。現実と人工知能(AI)が生成したコンテンツを見分けることが、非常に困難なのだ。何が現実で何がそうでないかを見分けることがますます難しくなってゆく世界において、VRを別次元のものとして捉える必要性があることをインセプション攻撃は示している。
こうしたシステムを使用するユーザーの数が増え、より多くの製品が市場に出回るようになるにつれ、それらをもっと安全で信頼できるものにする方法を開発する責任が、テック企業に課せられている。
良いニュースもある。VRテクノロジーは市販されてはいるが、それほど広く使われているわけではない、とローズナー准教授は言う。今すぐ防御を強化し始めれば、まだ間に合う。
◆
オープンAIのスピンオフ、ロボットに人間と同じようにタスクを学習させるAIモデルを構築
2021年の夏、オープンAI(OpenAI)はひっそりとロボット工学チームを解散した。人工知能(AI)を使ってロボットの動き方や推論方法を訓練するのに必要なデータが不足しているため、研究の進歩が妨げられている、というのがその理由だった。
オープンAIの初期研究科学者3人は、2017年にオープンAIからスピンオフした「コバリアント(Covariant)」というスタートアップ企業でその問題を解決し、大規模言語モデルの推論スキルと高度なロボットの身体的器用さを組み合わせたシステムを開発したという。
「RFM-1」と呼ばれるこの新しいAIモデルは、クレイト&バレル(Crate & Barrel)やボンプリックス(Bonprix)などの顧客企業が、世界中の倉庫で使用しているコバリアントの商品ピッキング・ロボットから収集された数年分のデータと、インターネット上のテキストや動画に基づいて訓練された。
ユーザーがモデルに入力できるプロンプトは5種類ある。テキスト、画像、動画、ロボットの動き、測定だ。コバリアントは、このシステムが現実世界に導入されるにつれ、より機能的で効率的になることを期待している。 詳しくはジェームス・オドネル記者の記事を読んでほしい。
AI関連のその他のニュース
生成AI(ジェネレーティブAI)を使ってあなたのストーリーをマンガにすることが可能になった。いくつかの異なる生成モデルを、ボタンを押すだけで制御できる使いやすいパッケージにまとめた「ロア・マシーン(Lore Machine)」がワンクリックAIの到来を告げる。(MITテクノロジーレビュー)
グーグルの元エンジニアが、中国企業のためにAIの企業秘密を盗んだとして起訴された。より強力なAIシステムの開発競争は、汚いものになりつつある。ある中国人エンジニアが中国企業のために、グーグルのスーパーコンピューティング・データセンターに関する機密ファイルを、個人のグーグル・クラウド・アカウントにダウンロードした。(米司法省)
オープンAIの物語には、さらに多くのドラマがあった。この物語はまさに、次から次へと贈られるプレゼントのようだ。オープンAIは、イーロン・マスクと、オープンAIが世界への貢献という本来の使命に背いたと主張するマスクの訴訟に反撃した。マスクもオープンAIの商業化に熱心だったことを示す電子メールを公開したのだ。一方、サム・アルトマンは一時的な更迭を経てオープンAIの取締役に復帰したが、最高技術責任者(CTO)のミラ・ムラティが、アルトマンに対するクーデターにおいて当初の報道よりも大きな役割を果たしていたことが判明した。
マイクロソフトの内部告発者が、同社のAIツールが暴力的で性的な画像を生成し、著作権を無視していると警告した。マイクロソフトで働くエンジニアのシェーン・ジョーンズによると、同社の「コーパイロット・デザイナー(Copilot Designer)」をテストしたところ、憂慮すべき不穏な結果が出たのだという。マイクロソフトはジョーンズの懸念を知りながらも、製品を市場から撤去しなかった、とジョーンズは言う。その後、ジョーンズが米国連邦取引委員会(FTC)にこうした懸念を説明する手紙を送ると、それ以来、マイクロソフトは有害なコンテンツを生成するいくつかの用語をブロックするようになった。(CNBC)
シリコンバレーがAI研究に携わる学者を買い占めようとしている。AI研究にかかる費用は泣きたくなるほど高額であり、莫大な給与支払い能力とコンピューティング・リソースを持つ巨大テック企業が、優秀な人材を学術界から流出させている。このようにしてテクノロジーが科学よりも商業利用を重視するようになることで、テクノロジーに深刻な影響が生じている。(ワシントンポスト紙)