激動の「生成」ブームに揺れた2023年のAIシーンを振り返る
2023年は人工知能(AI)分野を揺るがす大きな出来事が相次いだ1年となった。競争激化でテクノロジーが大きく進歩しただけでなく、欧米ではAIの規制に向かう大きな動きもあった。2023年の出来事を4つの視点から振り返る。 by Melissa Heikkilä2023.12.24
この記事は米国版ニュースレターを一部再編集したものです。
今年は長い目で見ても一二を争うほど、人工知能(AI)にとってすさまじい出来事が続く年となった。製品発表が絶え間なく続き、AI企業の役員室ではクーデターが起き、AIがもたらす破滅に関し激しいて政策論争が巻き起こり、次なる「大ヒット」を目指す競争も始まっている。一方、AI産業にもっと責任ある振る舞いをさせ、強大なプレイヤーたちの責任の所在を明確化させることを目的とした、具体的なツールや政策も登場した。その事実は、AIの未来に対する期待を大いに膨らませるものとなった。
2023年に得られた教訓を、以下に示そう。
1.生成AIは凄まじい勢いで研究室から旅立っていったが、その次なる目的地は不明である
2023年の幕開けとともに、巨大テック企業は生成AIに全力で取り組むようになった。オープンAI(OpenAI)のチャットGPT(ChatGPT)がとんでもない成功を収めたことで、あらゆる主要テック企業が似たような製品を投入したのだ。後に、2023年は「ほとんどのAIが誕生した年」と呼ばれるようになるかもしれない。メタの「ラマ2(LLaMA 2)」、グーグルのチャットボット「バード(Bard)」と新しい大規模言語モデルの「ジェミナイ(Gemini)」、バイドゥ(Baidu)の「アーニー・ボット(Ernie Bot:文心一言)、オープンAIの新しい大規模言語モデル「GPT-4」などが登場した。ほかにもいくつかのモデルが登場している。オープンソースを活用するフランス発の挑戦者、ミストラルAI(Mistral)によるものなどだ。
しかし当初の盛り上がりとは裏腹に、一夜にして成功を収めるようなAIアプリはまだ登場してない。マイクロソフトとグーグルは強力なAIを活用した検索エンジンを売り込んだが、キラー・アプリどころか失敗作扱いされることなった。言語モデルには、頻繁に物事をでっち上げる欠陥が存在していたためだ。これにより、恥ずかしい失敗がいくつか起きることとなった。マイクロソフトのビング(Bing)は人々の質問に対する回答として陰謀論を提示し、ニューヨーク・タイムズ紙の記者に対し、妻と離婚するよう提案したこともあった。グーグルのバードはマーケティング・キャンペーンで事実に反する回答を提示してしまい、グーグルの時価総額を1000億ドル吹き飛ばした。
今人々が血眼になって探しているのは、誰もが取り入れたがるような人気のAI製品だ。オープンAIもグーグルも、企業や開発者によるAIチャットボットのカスタマイズを許可し、さらにコーディングのスキルがなくても、AIを活用した独自のアプリを構築できるようにするという試みに挑んでいる。おそらく生成AIは、人々の仕事の生産性を上げるのに役立つ、パッとしないが便利なツールに組み込まれるという形に落ち着くだろう。おそらく(ひょっとすると音声機能を備えた)AIアシスタントとして、コーディングの支援もしてくれるだろう。2024年は、生成AIの真の価値を決める重要な年になるはずだ。
2.言語モデルが実際にどう機能するかはいろいろ学んだが、いまだに知っていることは少ない
テック企業が熱狂的なペースで大規模言語モデルを製品に落とし込んでいるとはいえ、言語モデルがどう機能するかについて、私たちが知らないことはまだ多い。言語モデルは物事をでっち上げる上、ジェンダーや人種に関してすさまじいバイアスを持つ。今年はさらに、言語モデルが生成する文章には言語モデルの種類によってそれぞれ異なる政治的バイアスがかかっていること、人々のプライベートな情報をハッキングする恐ろしいツールになり得ることが明らかになった。テキストから画像を生成するモデルは、著作権で保護された画像や現存の人物の肖像画を出力するよう指示できる上に、過激な画像を生成するようにだますことも容易にできてしまう。これらのモデルが抱える欠陥について、非常に多くの研究結果が出たことは良いことだ。こうした言語モデルがなぜ上述のような振る舞いを見せるのかを理解し、最終的にはモデルを修正するという目標に一歩近づくことができたからだ。
生成モデルは時として大きく予想外な振る舞いを見せるものだ。2023年は生成モデルに対し、開発者たちが期待した通りに振る舞うようにさせるための試みが多くあった。オープンAIの公開情報によれば、オープンAIは人間のフィードバックによる強化学習(RLHF:Reinforcement Learning from Human Feedback)と呼ばれる技術を使用している。これはユーザーからのフィードバックを活用し、チャットGPTがより望ましい回答を出力するように導く手助けをするものだという。アンソロピック(Anthropic)による研究では、どのようにすれば単純な自然言語による指示で巨大な言語モデルを導き、生成される結果をより無害なものにできるかが示されている。しかし残念ながら、こうした試みの多くは恒久的な修正ではなく、一時的な修正に終わってしまう。さらに、見当違いな取り組みに進んでしまうこともある。一見無害そうな用語、例えば「胎盤」などを画像生成AIのシステムで禁止することで、不快な画像の生成を避けようとする、といった話だ。テック企業がこうした回避策を取ろうとするのは、彼らも生成モデルがどうして現在のような生成物を生み出すのか、分かっていないからだ。
また、AIのカーボン・フットプリントの実情についても理解が進んだ。強力なAIモデルを使って画像を生成するには、スマートフォンを完全に充電するのと同じぐらいのエネルギーが必要になることを、AIスタートアップのハギング・フェイス(Hugging Face)とカーネギー・メロン大学の研究者が明らかにした。これまでは、生成AIが使用するエネルギーの正確な量は、未解明の部分だった。より多くの研究が進めば、AIの使用方法を持続可能な形へと変える後押しとなるかもしれない。
3.「AIによる破滅」という考えが主流となった
今年は、AIが人類存亡に関わるリスク(実存的リスク)となりうるという話がよく聞かれるようになった。何百人もの科学者や企業経営者、政治家などが声を上げてきた。深層学習の開拓者であるジェフリー・ヒントンやヨシュア・ベンジオ、トップクラスのAI企業を率いるサム・アルトマンやデミス・ハサビス、カリフォルニア州選出の連邦議会議員であるテッド・リエウや元エストニア大統領のケルスティ・カリユライドといった人物だ。
「実存的リスク」という言葉は、AIに関するミームの中で最もよく知られたものの1つとなった。いつの日か人類は人類よりもはるかに賢いAIを作り出してしまい、それによって深刻な結果がもたらされる可能性がある、というものだ。「実存的リスク」という考えは、シリコンバレーの多くの人々が支持しており、そのうちの1人がイリヤ・サツケバーだ。オープンAIの主任科学者であるサツケバーは、同社のサム・アルトマンCEOの追放騒動で(そして数日後に彼を復権させる際に)重要な役割を果たした。
しかし、誰もがこの考えに賛同しているわけではない。 メタでAIの研究開発を指揮しているヤン・ルカンとジョエル・ピノーは、「馬鹿馬鹿しい」考えであり、AIのリスクをめぐる議論は「おかしくなってしまった」と発言している。研究者のジョイ・ブオラムウィニなど、多くのAI界の著名人たちも、仮定に基づいたリスクを重視することは、現在AIが実際にもたらしている損害から目を背けることにつながると述べている。
いずれにせよ、AI技術がとてつもない被害をもたらす可能性があるという話に目が向けられるようになったことで、重要なAI政策をめぐる議論が活発化し、世界中の政治家を動かすきっかけとなった。
4.AIの西部開拓時代は終わった
チャットGPTのおかげで、2023年は米上院からG7に至るまで、あらゆる所であらゆる人々がAI政策と規制について話すようになった。12月初旬、欧州連合(EU)の政治家たちは2023年の締めくくりとして、AI法(AI Act)について合意した。最もリスクの高い類のAIをより責任ある形で開発するよう、拘束力のある規則と基準を導入するものだ。AI法はさらに、AIに関する特定の「許容できない」用途を禁止する。例えば公共空間において、警察が顔認識を使用することなどだ。
一方でホワイトハウスはAIに関する大統領令を導入しており、さらに主要なAI企業から自主的な貢献の約束を取り付けた。ホワイトハウスによる取り組みは、AIに関する透明性を高め、より多くの基準を導入し、政府機関に対し自分の分野に合ったAI規則を採用できるよう多大な権限を与えることを目標としている。
注目を集めた具体的な政策提案の1つに、ウォーターマーク(電子透かし)に関するものがある。AI生成コンテンツであるという標識を付けることを目的とする、コンピューターによって検出可能な透明なシグナルで、文書や画像の中に埋め込まれる。ウォーターマークは盗作を追跡したり、デマへの対策を後押しするために使用できる可能性があり、2023年の研究ではウォーターマークをAIが生成した文書や画像に適用することに成功している。
忙しくしているのは政治家だけではない。弁護士もだ。アーティストや作家は、AI企業が同意なく、また何の補償もなく知的財産をスクレイピングされたと主張しており、記録的な数の訴訟を起こした。反攻作戦が盛り上がる中、シカゴ大学の研究者が開発したのがアーティストに生成AIに対抗する手段をもたらしてくれる新型のデータ汚染ツール、ナイトシェード(Nightshade)だ。画像生成AIモデルに深刻なダメージを与えるよう、訓練データを汚染してくれるのだ。反抗の気運は盛り上がっている。私の予想では、来年はAI技術に関するパワーバランスを覆すための草の根運動が、より多く見られるようになるはずだ。
◆
ようやく明らかになったオープンAIのスーパーアライメント・チームの取り組み
オープンAIは、超知能(人間を上回る知能を持つ可能性があるとされる、仮説上のAI)の暴走を防ぐため社内イニシアチブとして設立されたスーパーアライメント・チームによる最初の成果を発表した。このチームは主任科学者のイリヤ・サツケバーが率いている。つい先月、オープンAIのCEOであるサム・アルトマンをクビにしようとしたものの、数日後に復権させることになった人物の一人だ。
オープンAIによる多くの発表とは異なり、今回のスーパー・アライメントチームによる発表は、画期的な躍進を告げるようなものではない。目立たない研究論文の中でスーパーアライメント・チームは、比較的性能が劣る大規模な言語モデルによって、より強力なモデルを監督させる技術について説明しており、人間が、人間よりも賢い機械を監督するようになることが起きる場合に、そのための手段を解明する小さな一歩になるかもしれないと提案している。 詳しくは、本誌のウィル・ダグラス・ヘブン編集者の記事を読んでほしい。
AI関連のその他のニュース
グーグル・ディープマインド、未解決の数学問題を解決するために、大規模言語モデルを使用。ネイチャー誌で発表された論文において、ディープマインドは、長年にわたり存在する科学的難問の解を発見するために大規模言語モデルが使われたのは初だと述べている。今までにない、検証可能かつ貴重な新情報が得られたとのことだ。 (MITテクノロジーレビュー)
ロボットに単純な家事のやり方を20分以内に教え込むことができる新システム。Dobb-Eと名付けられた新しいオープンソース・システムは、実際の家庭から収集されたデータを用いて訓練されている。Dobb-Eは、揚げ鍋の蓋の開け方や、ドアの閉め方、クッションの整え方など、さまざまなタスクをロボットに教える仕事を支援できる。 さらに、ロボット工学における最も重大な問題の1つ、訓練データの不足を克服する助けともなり得るのだ。 (MITテクノロジーレビュー)
チャットGPTは、インターネットを「配管」へと変えつつある。ポリティコ(Politico)とビジネス・インサイダー(Business Insider)を所有するドイツ大手メディア企業のアクセル・シュプリンガー(Axel Springer)は、オープンAIとの提携を発表した。これにより、オープンAIはアクセル・シュプリンガーのニュース記事を訓練データとして使えるようになり、アクセル・シュプリンガーはニュースの要約のためにチャットGPTを使えるようになる。この記事では、テック企業はますますオンライン・コンテンツの門番として振る舞うようになってきており、ジャーナリズムは単に「デジタルの蛇口のための配管になっている」と解説している。(アトランティック誌)
スタートアップ企業「ミストラルAI」に参加後、AI規制緩和を求めている元フランス高官。ミストラルAIの共同創業者であり、以前はフランスのデジタル大臣を務めていたセドリック・オに関する記事だ。フランスのAI関連ユニコーン企業であるミストラルAIに參加する前、彼は技術に対する厳格な規制を積極的に支持していた。しかしEU AI法における、ミストラルAIのモデルを規制することにつながる規則に対しては、反対のためのロビー活動を精力的に展開。規制回避に成功した。ミストラルAIのモデルはAI法が規制対象とするコンピューティングのしきい値を満たさず、さらにミストラルAIのオープンソース・モデルは透明性義務も免除されることになった。(ブルームバーグ)
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。