膨らんではしぼむ「AGI」論、いまや夕食時の話題に
知性を宿す機械

AGI is suddenly a dinner table topic 膨らんではしぼむ「AGI」論、いまや夕食時の話題に

「汎用AI」を巡る期待と失望のサイクルが続く中、その議論は専門家のコミュニティを超え、一般家庭の夕食時にも取り上げられるほど広がっている。ただ、その定義をはっきりさせることが重要だ。 by James O'Donnell2025.03.14

この記事は米国版ニュースレターを一部再編集したものです。

私たちがまだ手にしていない超強力なAIシステムである汎用AI(AGI:Artificial General Intelligence)という概念は、風船のようなものと考えることができる。その潜在的な影響力に関する楽観論(あるいは恐怖)のピーク時には誇大な宣伝で膨らませられ、現実が期待に応えられないとしぼませられることが繰り返される。今週、多くのニュースがそのAGI風船の中に吹き込まれた。それが何を意味するのか、お話ししよう(その過程で、少し無理に風船に例えすぎたかもしれない)。

まず、AGIの定義という厄介な問題を片付けよう。実際のところAGIという用語は、このテクノロジーを構築しようとしている研究者や企業によって非常に曖昧で不安定に定義されている。しかし一般には、認知的タスクにおいて人間を凌駕する未来のAIのことを指す。それがどの人間とどのタスクのことを言っているのかによって、AGIの実現可能性、安全性、そして労働市場、戦争、社会への影響を評価する上でのすべての違いが生まれる。だからこそ、AGIを定義することは、地味ではあるが学問的な仕事ではない。実際、ハギング・フェイス(Hugging Face)やグーグルなどの研究者たちが発表した新たな論文で説明されているように、極めて重要な仕事である。その定義がなされていない中でAGIのことを耳にしたときは、話し手がこの曖昧な用語のどの見解を意味して話しているのか、自問することをおすすめする(言葉の意味を明確にするよう求めることを恐れてはいけない)。

さて、ニュースの話に移ろう。まず、中国発の新しいAIモデル「マヌス(Manus)」が先週登場した。Webサイトの作成や分析の実行といった「エージェント的」なタスクを扱うために構築されたこのモデルは、宣伝用動画の中で「AGIを垣間見られる可能性がある」ものと説明されている。このモデルは現在、ファイバー(Fiverr)やアップワーク(Upwork)などのクラウドソーシング・プラットフォームで現実のタスクを処理している。また、AIプラットフォーム「ハギング・フェイス」の製品責任者はこのモデルを、「これまで試した中で最も感動的なAIツール」と呼んだ。

マヌスが実際にどれほどすばらしいものなのかは、まだ明確になっていない。しかし、このような背景(AGIに向けた足がかりとしてのエージェント的AIという考え方)を考えれば、AGIは、ニューヨーク・タイムズ紙のコラムニストであるエズラ・クラインが火曜日のポッドキャスト1回分をすべて使って取り上げるのにふさわしいテーマだった。またAGIがポッドキャストで取り上げられたということは、この考え方がAI業界を飛び出し、家庭の夕食時の会話という領域にまで急速に広がっていることも意味している。クラインはこのポッドキャスト番組に、バイデン政権時にAI担当特別顧問を務めたジョンズホプキンス大学のベン・ブキャナン助教授を招いた。

2人は、AGIが法執行や国家安全保障にとってどのような意味を持つことになるのか、なぜ米国政府は中国より先にAGIを開発しなければならないのかということなど、多くのことを議論した。しかし、最も激しく議論になったのは、このテクノロジーが労働市場に与える可能性のある影響についてだった。クラインは、もしAIが多くの認知的タスクで卓越した能力を示し始めているのであれば、人間による頭脳労働をアルゴリズムへと大規模に移行することが労働者たちにとってどのような意味を持つことになるのか、立法者たちは理解し始めた方がよいと述べた。クラインは、民主党がほとんどプランを持っていないと批判した。

この意見は、恐怖の風船を膨らませている、つまり、AGIの影響は差し迫った広範囲に及ぶものであることを示唆していると捉えられるかもしれない。直後にその風船に巨大な安全ピンで穴を開けたのが、ニューヨーク大学の名誉教授で、神経科学を専門とするゲイリー・マーカスだ。彼はAGIを批判していることで知られている。マーカス名誉教授は、クラインの番組で述べられた主張に対する反論を書いた。

マーカス名誉教授は、オープンAI(OpenAI)の新しい「GPT-4.5」の圧倒的な性能などの最近のニュースを採り上げ、AGIの登場は3年どころか、もっとはるか先の話になると指摘している。マーカス名誉教授によれば、数十年にわたる研究にもかかわらず技術的な問題の核心は依然として残っており、訓練や計算能力を拡張する取り組みは成果が先細りになっているという。現在主流となっている大規模言語モデルは、AGIにつながるものでさえないのかもしれない。マーカス名誉教授は、政治の領域ではAGIについて警鐘を鳴らす人々が増えることは必要とされていないと述べ、そのような言説は実際には公共の利益に資するよりも、AGIの開発に資金を費やしている企業の利益になると主張する。 むしろ私たちには、AGIの登場が差し迫っているという主張に疑問を呈する人々が増えることが必要なのだ。 とはいえ、マーカス名誉教授はAGIの可能性を疑っているわけではない。ただ、それが実現する時期を疑っているのである。

マーカス名誉教授がしぼませようとした直後、AGIの風船は再び膨らんだ。グーグルの元CEOであるエリック・シュミットと、スケールAIのCEOアレクサンドル・ワン、そして人工知能安全性センター(Center for AI Safety)のダン・ヘンドリクス所長という影響力のある3人が、「超知能戦略(Superintelligence Strategy)」というタイトルの論文を発表したのだ。

「超知能」とは、「ほぼすべての知的領域において世界最高の個人の専門家を決定的に凌駕する」AIを意味すると、ヘンドリクス所長はメールで教えてくれた。「安全性に最も関連する認知的タスクは、ハッキング、ウイルス学、自律型AI研究開発です。これらの分野は、AIが人間の専門知識を超えることで深刻なリスクが生じる可能性があります」。

3人はこの論文の中で、そのようなリスクを軽減するための計画を概説している。核兵器政策における「相互確証破壊(Mutual Assured Destruction)」という概念から着想を得た「相互確証AI故障(Mutual Assured AI Malfunction)」である。「権力の戦略的な独占を追求するどの国家も、敵対国から報復的な反応があることを予想できる」と、3人は論文に書いている。彼らは、半導体、およびウイルス学やサイバー攻撃の高度な能力を備えるオープンソースAIモデルは、ウランと同じように管理すべきであると提案する。この見解に従えば、AGIは、実現がいつになろうとも、原爆の登場以来見られなかったレベルのリスクをもたらすことになる。

私が最後に言及するニュースは、この風船を少しだけしぼませる。清華大学と中国人民大学の研究者たちが先週、AGIに関する独自の論文を発表した。彼らはAIモデルを評価するためのサバイバルゲームを考案した。このゲームでは、さまざまな多くのベンチマークテストで正答を得ることが試みられるが、そのための試行回数が制限されている。このゲームによって、AIモデルの適応能力と学習能力が測定できる。

非常に難しいテストである。このテストを完璧にクリアできる能力を持つAGIは非常に大規模なものになるだろうと、研究チームは推測している。パラメーターの数(より良い答えを出すために微調整できるAIモデルの“つまみ”の数)が、「全人類の脳のニューロンを合わせた数よりも5桁多く」なるだろうという。現在の半導体を使うとすれば、アップルの時価総額の4億倍のコストがかかることになる。

正直なところ、この推測の裏にある具体的な数字はあまり重要ではない。しかしこの論文は、AGIについて議論する際に簡単には無視できない、あることを強調している。このような超強力なシステムを構築するには、資金、半導体、貴金属、水、電気、人間の労働力など、実に計り知れない量の資源が必要になる可能性があるのだ。しかし、もしAGIが(定義が漠然としているにせよ)言われているほど強力なものであるならば、コストがどれほど莫大になろうとも見合う価値がある。

では、このニュースを受けて私たちはどのように考えることになるのだろうか? 今週、AGIの風船は少し大きくなり、企業や議員たちの間では、人工知能(AI)を国家安全保障や労働市場に影響を与える信じられないほど強力なものとして扱う傾向がますます支配的になっていると言っていいだろう。

その前提となっているのは、開発が休むことのないペースで続き、大規模言語モデルにおけるすべてのマイルストーン、そしてすべての新しいモデルの登場が、AGIのようなものへと向かう1つ1つの足がかりと見なせることだ。この前提を信じるなら、AGIの登場は避けられない。しかしその考え方は、AIの研究開発が直面してきた多くの障害に実際に対処するものでもなければ、ある用途に特化したAIがどのように汎用的な知能に移行していくのか説明するものでもない。それでも、AGIが登場する時期を十分な未来まで遠く延ばし続けて行けば、そのような一時的な障害は問題にならなくなるようだ。


「ディープシーク占い」が中国の若者の間でブームに

中国の伝統的な占い師は、人生のあらゆる種類の決断に直面する人々から助言を求められるが、高額な費用がかかることもある。人々はいま、人気AIモデル「ディープシーク(DeepSeek)」に導きを求め始め、AIが生成した見解を共有し、占いのプロンプトエンジニアリングを実験して、古代のスピリチュアルなテキストを再考している。

ディープシークによる占いの人気は、中国社会に不安と悲観論が蔓延する時期に生じている。失業率が高く、何百万人もの中国の若者は今、自分たちのことを「最後の世代」と呼んでいる。そして、非常に不透明な将来に直面し、結婚や子育てに消極的になっている。しかし、中国の非宗教的な政権が宗教的・スピリチュアルな探求を困難にしているため、そのような行為はよりプライベートな環境、つまりスマホやコンピューター上で展開されている。本誌のカイウェイ・チェン記者の記事全文を読んでほしい。

AI関連のその他のニュース