「人工知能」とは何か?
AIとは何か? そのシンプルな問いに対する答えは、いまだに論争の種となっている。大規模言語モデル/生成AIブームによって社会に浸透した今、AIの定義について合意する時期だ。70年前の誕生からの歴史を追いながら、ジェフリー・ヒントン、デミス・ハサビス、ムスタファ・スレイマン、イリヤ・サツケバーなど、多くの専門家と批判者との対話からまとめ上げた4万字超の議論をお届けする。 by Will Douglas Heaven2024.08.01
インターネット上でのいやがらせ、悪口、そして些細なこととは言えない、世界を変えるような意見の相違
人工知能(AI)はクールで、セクシーだ。社会の不平等を固定化し、雇用市場を根底から覆し、教育を破壊する。テーマパークの乗り物であり、魔法のトリックだ。AIは人類の最後の発明であり、道徳的な義務である。この10年の流行語であり、1955年以降、マーケティング用語になっている。AIは人間のようであり、エイリアンのようだ。超賢く、同時に非常に間抜けである。AIブームは経済を押し上げ、AIバブルは崩壊寸前である。AIは豊かさを増大させ、人類が宇宙で最大限に繁栄する力を与えるだろう。AIは私たち全員を殺すだろう。
みんないったい何を言っているんだ?
AIは現代の最も注目されているテクノロジーだ。しかし、それは何なのか? 愚問のように聞こえるが、これほど切迫した問題はない。簡潔に答えよう。AIとは、人間が実行する場合に知性を必要とすると考えられていることを、コンピューターに実行させる一連のテクノロジーの総称である。例えば、顔の認識、会話の理解、車の運転、文章の作成、質問への回答、絵の作成などを思い浮かべてほしい。しかし、その定義でさえ、多くのものを含んでいる。
そこが問題なのだ。機械が話し言葉を理解したり、文章を書いたりするとはどういうことなのか? そのような機械にどのような仕事をさせることができるのか? そして、私たちは機械をどの程度信頼してそのような仕事を任せるべきなのだろうか?
プロトタイプから製品へとAIの移行がますます加速する中、これらは私たち全員にとっての疑問となっている。しかし、ネタバレになってしまうが、私には答えがない。AIが何なのかもわからない。作っている人たちもAIが何なのか知らない。あまり理解していないのだ。「この種の質問は、誰もが意見を言えると感じられるほど重要なものです」。サンフランシスコを拠点とするAI研究機関であるアンソロピック(Anthropic)の主任科学者クリス・オラは言う。「加えて、あなたは自分の好きなだけ議論できますし、今のところあなたの主張を否定するエビデンスはないと思います」。
しかし、もし本当に深入りしても構わないのなら、なぜ誰も本当のことを知らないのか、なぜ誰もが意見の一致を見ない様子なのか、そしてなぜそれを気にするべきなのか、お話ししよう。
まずは、簡単なジョークから始めよう。
2022年のことだ。ポッドキャスト「ミステリーAIハイプシアター3000(Mystery AI Hype Theater 3000)」の第1話の途中で、短気な共同司会者のアレックス・ハンナとエミリー・ベンダーが、シリコンバレーでほとんど批判も受けずに無条件にもてはやされている人物に「最も鋭い針」で面白おかしく切り込みながら、馬鹿げた提案をした。2人の司会者は、グーグルのエンジニアリング担当副社長のブレイス・アグエラ・イ・アルカスがミディアム(Medium)に投稿した1万2500語の記事「Can machines learn how to behave?(機械は振る舞い方を学習できるのか)」を馬鹿にしながら、音読したのだ。アグエラ・イ・アルカス副社長は、AIは人間が概念(道徳的価値観のような概念)を理解するような方法に類似したやり方で概念を理解できると主張している。要するに、機械に振る舞い方を教えることができるということだ。
しかし、ハンナとベンダーは異なる意見だ。ハンナとベンダーはAIという言葉を「マシー・マス(mathy math)」と言い換えることにした。つまり、単なる大量の数学的演算という意味だ。
この無礼なフレーズは、引用された文章に見られる大げさで擬人化された表現を崩すためのものだ。アグエラ・イ・アルカス副社長が言いたいことと、社会学者で分散型AI研究所(Distributed AI Research Institute:DAIR)の研究所長であるアレックス・ハンナと、ワシントン大学の計算言語学者であるエミリー・ベンダー教授(インターネット上ではテック業界の誇大広告の批判者として有名)の受け止め方の間には大きな隔たりがある。
「AI、AIの創造者、そしてAIのユーザーは、どのように道徳的責任を負うべきなのでしょうか?」 アグエラ・イ・アルカス副社長は問う。
大量の数学的演算はどのように道徳的責任を負うべきなのか? と、ベンダー教授は問う。
「ここにはカテゴリー錯誤があります」とベンダー教授は言う。ハンナ所長とベンダー教授はアグエラ・イ・アルカス副社長の言うことを否定するだけにとどまらず、意味がないと主張する。「『AI』とか『AIたち』とか、あたかもこの世界の個人であるかのように言うのはやめてくれませんか?」
彼らは全く違うことについて議論しているように聞こえるかもしれない。だが、そうではない。両者とも、現在のAIブームを支えるテクノロジーである大規模言語モデル(LLM)について話しているのだ。ただ、AIについての議論の仕方がこれまで以上に二極化しているだけだ。オープンAI(OpenAI)のサム・アルトマンCEO(最高経営責任者)は先の5月に、「私には魔法のように感じる」とツイートして、同社の主力モデルであるGPT-4の最新アップデートを予告した。
数学と魔法の間には、大きな隔たりがある。
AIには信奉者たちがいて、テクノロジーが持つ今の力と将来の必然的に起こる向上を信仰のように信じている。汎用AI(AGI)は目前に迫っており、その背後には超知能が控えていると信奉者たちは言う。そして、そのような主張を神秘的なでたらめだと鼻で笑う異端者もいる。
グーグルのサンダー・ピチャイCEOやマイクロソフトのサティア・ナデラCEOのような巨大テック企業の「主任マーケター」から、イーロン・マスクやアルトマンCEOのような業界の「過激派」、ジェフリー・ヒントンのような有名コンピューター科学者などの「セレブ」に至るまで、話題性のある人気のナラティブ(物語)は大物プレイヤーたちによって形成されている。時には、このような推進者と破滅論者が一体となり、このテクノロジーはあまりにも優れていて良くないと私たちに訴えることもある。
AIの大げさな宣伝が膨れ上がるにつれ、信奉者たちの野心的でしばしば荒唐無稽な主張を叩き潰そうとする、声高なアンチ誇大広告派が台頭してきた。この路線をけん引するのは、ハンナ所長やベンダー教授をはじめとする研究者たちや、影響力のあるコンピューター科学者で元グーグル社員のティムニット・ゲブル、ニューヨーク大学の認知科学者ゲイリー・マーカス教授のような歯に衣を着せない業界批判者たちだ。いずれも、リプライ欄で、大勢のフォロワーが言い争っている。
要するに、AIはあらゆる人にとってあらゆることを意味するようになり、この分野をマニアの世界に分断しているのだ。異なる陣営が、ときに悪意を持って、互いに意見をぶつけ合っているように感じられることもある。
ひょっとするとあなたは、こうした議論は全く馬鹿げている、あるいはうんざりだと感じるかもしれない。しかし、これらのテクノロジーの力と複雑さを考えると(この技術はすでに保険料の支払い額や情報の調べ方、仕事のやり方などを決定するために使われている)、少なくとも、私たちが何について議論しているのか、そろそろ合意してもいい頃だろう。
私はAIの最先端にいる人たちとたくさんの議論してきたが、自分たちが構築しているものが何なのか、正確に答えてくれた人はいなかった(余談だが、この記事では米国と欧州におけるAIの議論に焦点を当てている。資金力があり、最先端のAI研究機関がこれらの地域にあることが主な理由だ。しかしもちろん、他の国々、特に中国など、AIに対する考え方がそれぞれ異なる国々でも重要な研究が実施されている)。開発のペースが速いということもある。しかし、科学は大きく開かれてもいる。今日の大規模な言語モデルは、驚くようなことができる。この分野では単に、機械の中で実際に何が起こっているのか、共通の土台を見つけることができないのだ。
大規模言語モデルは、文章を完成させるために訓練されている。だが、高校の数学の問題を解いたり、コンピューター・コードを書いたり、司法試験に合格したり、詩を作ったりと、もっと多くのことができるようだ。人がこうしたことをするとき、私たちはそれを知性の証とみなす。コンピューターの場合はどうだろう? 知能があるように見えるというだけでよいのだろうか?
こうした疑問は、私たちが「人工知能」と呼ぶもの、つまり、人々が実際には何十年も議論している用語の核心を突くものだ。しかし、AIをめぐる議論は、私たちの話し方や書き方をスリリングに、あるいはゾッとするほどリアルに模倣できる大規模言語モデルの台頭によって、より辛辣になっている。
私たちは人間のような振る舞いをする機械を作り上げたが、振る舞いの背後にある人間のような心を想像する習慣を捨てていない。このことは、AIにできることを過大評価することにつながり、直感的な反応を独善的な立場へと硬化させ、技術楽観論者と技術懐疑論者の間のより広い文化戦争を引き起こす。
このように不確実性による混乱の中で、この業界の多くの人々が育ったであろうSFから、未来についての考え方に影響を与えるはるかに有害なイデオロギーまで、文化的な負荷が大きくのしかかる。このようなめまいがするような混乱を考慮すれば、AIに関する議論は、もはや単なる学術的なものではなくなっている(恐らく、これまで一度も学術的なものであったことはないだろう)。AIは人々の情熱を燃え上がらせ、大の大人に互いを罵り合わせるのだ。
「今は知性的に健全な状態ではありません」。マーカス教授は議論についてこう語る。同教授は長年にわたり、深層学習の欠陥と限界を指摘してきた。深層学習は、AIを主流に押し上げた技術であり、大規模言語モデルから画像認識、自動運転車まであらゆるものを動かしている。2001年に出版された彼の著書『The Algebraic Mind(ジ・アルゲブライク・マインド)』(未邦訳)では、深層学習が構築されている基盤であるニューラル・ネットワークはそれ自体で推論することができないと論じている。今は省略するが、後でこの本に戻り、このような文章で「推論」などの言葉がどれほど重要かを見てみよう。
マーカス教授によれば、彼は昨年、自身が発明を手伝ったテクノロジーに対する実存的な恐怖を公表したジェフリー・ヒントンに、大規模言語モデルが実際にはどれほど優れているのかについて適切な議論をするように仕向けたという。「ヒントンは議論するつもりがないのです」と、マーカス教授は言う。「彼は私のことを間抜けだと言うのです」。
マーカス教授については、私も過去にヒントンと話したことがあるので、それは確かだ。「チャットGPT(ChatGPT)は明らかにマーカス教授よりニューラル・ネットワークを理解しています」と、ヒントンは昨年私に言っていた。
マーカス教授はまた、『深層学習は壁にぶつかっている』 というタイトルのエッセーを書いて怒りを買った。アルトマンCEOはそれに対してツイートで反論した。「二流の深層学習懐疑論者の自信はどこからくるのか、見せてほしい」。
同時に、マーカス教授は派手な主張をすることで一角の地位を築き、昨年、米上院のAI監視委員会でアルトマンCEOの隣に座って証言する機会を得た。
だからこそ、これらの戦いは、普通のインターネット上のいやがらせよりも問題なのだ。確かに、大きなエゴと莫大な金が絡んでいる。しかし、それ以上に問題なのは、業界のリーダーや自説を曲げない科学者が、国家元首や立法者に呼び出され、AIとは何か、何ができるのか(そして私たちはどれほど恐れるべきなのか)を説明するときである。このテクノロジーが、検索エンジンからワープロアプリ、携帯電話のアシスタントに至るまで、私たちが毎日使っているソフトウェアに組み込まれる際にも問題となるだ。AIはなくならない。私たちが何を売りつけられているのかを知らなければ、だまされるのは誰なのか?
「これほど激しい議論を巻き起こしたテクノロジーは、歴史上他に思い当たりません。それは、至るところに存在しているのか、それともどこにも存在しないのか、という議論です」。スティーブン・ケイヴとカンタ・ディハルは、異なる文化的信念がAIに関する人々の見方をいかに形成するのかを扱った2023年のエッセー集『Imagining AI(イマジニングAI)』(未邦訳)の中でこう書いている。「AIについて委員会を開けるということは、AIに神秘的な性質があることの証です」。
何よりもまず、AIとは数学やコンピューター科学だけでなく、世界観やSFの常套表現によって形作られたアイデア、理想である。AIについて語る際に何を意味するのかを理解すれば、多くのことが明確になるだろう。意見の一致は得られないかもしれないが、AIとは何かという共通認識があれば、AIのあるべき姿について話し合うための良い出発点となるだろう。
そもそも、皆が本当に争っているのは何なのか?
2022年の終わり、オープンAIがChatGPTをリリースした直後、このテクノロジーの奇妙さを何よりもよく表現した新しいミームがネット上で広まった。ほとんどのバージョンでは、触手と目玉だらけのラヴクラフトの怪物「ショゴス」が、ありのままの姿を隠すかのように、何の変哲もないスマイルマークの絵文字を掲げている。ChatGPTは、会話のやりとりにおいて人間らしく親しみやすい印象を与えるが、その外見の背後には計り知れない複雑さ、そして恐怖が潜んでいる。「それは、地下鉄の車両よりも広大な、形容しがたい恐ろしいものだった。原形質の泡の無定形の塊だった」と、H.P.ラヴクラフトは1936年の小説『狂気の山脈にて(原題:At the Mountains of Madness )』の中でショゴスについて書いている。
ポップカルチャーにおけるAIの最も有名な手本は長年にわたり『ターミネーター』であったと、ディハルは語る。しかし、オープンAIがChatGPTを無料でオンライン公開したことで、何百万人もの人々がこれまでにないものを直に体験した。 「AIは常に、あらゆるアイデアを包含する無限に拡張可能な、非常に漠然とした概念のようなものでした」とディハルは言う。しかし、ChatGPTはそれらのアイデアを具体化した。「突然、誰もが具体的に参照できるものを手に入れたのです」。AIとは何か?何百万もの人々にとって、その答えはChatGPTとなった。
AI業界は、笑顔で懸命に売り込んでいる。業界リーダーたちが表現する誇大広告を、テレビ番組『ザ・デイリー・ショー(Daily Show)』が最近どのように批判したか、見てみよう。
シリコンバレーのベンチャーキャピタルのトップ、マーク・アンドリーセンいわく、「これは生活をはるかに良くする可能性を秘めています。率直に言って、これは大きな変化です」。
オープンAIのサム・アルトマンCEOいわく、「ここでユートピア的なテクノロジーオタクのように思われるのは嫌ですが、AIがもたらす生活の質の向上は並外れています」。
グーグルのサンダー・ピチャイCEOいわく、「AIは人類が取り組んでいる最も深遠なテクノロジーです。火よりも根源的なものです」。
そして、司会者のジョン・スチュワート。「そうだな、火なんて消しちまえ、この野郎!」
https://www.youtube.com/watch?v=20TAkcy3aBY&t=221s
しかし、このミームが指摘するように、ChatGPTはフレンドリーな仮面を被っている。その裏には、GPT-4という怪物がいる。これは膨大なニューラル・ネットワークから構築された大規模言語モデルであり、そのネットワークには、私たちが1000回の人生をかけても読むことのできないほどの膨大な単語がインプットされている。数カ月間におよぶ、数千万ドルもの費用がかかる訓練期間中、これらのモデルは、何百万冊もの書籍やインターネット上のかなりの割合から取り出された文章の空欄を埋めるというタスクを与えられる。そしてこの作業を何度も何度も繰り返す。ある意味で、ChatGPTは情報を大量にインプットした自動入力補完マシンになるよう訓練されているのだ。その結果出来上がったものが、世界中の文章情報の大部分を統計的に表現し、どの単語が他の単語に最も続きやすいかを、何十億もの数値から導き出すモデルだ。
これは数学だ。膨大な量の数学的演算だ。誰もそれを否定しない。しかし、それは単なる数学なのか、それともこの複雑な数学は、人間の推論や概念形成に似たことができるアルゴリズムを符号化しているのだろうか?
この質問に「はい」と答える人々の多くは、汎用AI(AGI)と呼ばれるものの実現に近づいていると考えている。汎用AIとは、人間がこなすのと同じくらい幅広いタスクを実行できる、仮説上の未来テクノロジーのことだ。その中には、人間よりもはるかに優れたことができるSFテクノロジーである超知能に狙いを定めている人たちもいる。このような人たちは、AGIが世界を大きく変えると考えているが、それは何のためだろうか?これもまた、緊張を生む要因となっている。それは世界のあらゆる問題を解決するかもしれないし、あるいは破滅をもたらすかもしれない。
https://twitter.com/Abebab/status/1807440823723679759
今日、汎用AIは世界トップクラスの数々のAI研究機関のミッションステートメントに記載されている。しかし、この用語は2007年、当時、銀行の預金伝票の手書き文字を読み取るアプリケーションや、次に購入すべき本を推薦するアプリケーションで最も知られていたAI分野に活気を与えるためのニッチな試みとして考案された。そのアイデアは、人間のようなことができる、AIの本来のビジョンを取り戻すことだった(これについては後ほど詳しく説明する)。
この言葉は、この言葉を作り出したグーグル・ディープマインド(Google DeepMind )の共同創業者であるシェイン・レッグが昨年、「私には特に明確な定義はなかった」と私に語ったように、本当に単なる願望でしかなかった。
汎用AIはAIの中でも最も物議を醸す概念となった。汎用AIはAIだが、はるかに優れているという理由で、次の大きなトレンドになると持ち上げる声もあった。一方、この用語は曖昧すぎて意味がないと主張する者もいた。
「汎用AIはタブーでした」。イリヤ・サツケバーは、オープンAIの主任科学者を辞任する前、私に語った。
しかし、大規模言語モデル、特に ChatGPTで、状況は一変した。汎用AIはタブーからマーケティングの夢へと変わったのだ。
このことは、今を最も象徴する論争だと私が思うものにつながっている。つまり、議論の立場と利害関係を明確にするような議論だ。
機械の中に魔法を見る
2023年3月のオープンAIによる大規模言語モデルGPT-4の一般公開の数カ月前、同社はマイクロソフトとプレリリース版を共有した。マイクロソフトは、GPT-4 使って自社の検索エンジンであるビング(Bing)を改良したかったのだ。
当時、セバスチャン・ブベックは大規模言語モデルの限界を研究しており、その能力にやや懐疑的だった。特に、ワシントン州レドモンドにあるマイクロソフト・リサーチで生成AI研究担当副社長を務めるブベックは、この技術を中学校の数学の問題を解くのに使おうとして失敗していた。例えば、x – y = 0。xとyは何か?といった問題だ。 「私の考えでは、推論はボトルネックであり、障害物でした」とブベックは言う。「その障害を乗り越えるには、本当に根本的に異なることをする必要があると思いました」。
そしてブベック副社長はGPT-4を手に入れた。最初にしたことは、その数学の問題を試してみることだった。 「このモデルは完璧でした」とブベック副社長は言う。「2024年になった現在、GPT-4はもちろん、線形方程式を解くことができます。しかし当時は、これは狂気の沙汰でした。GPT-3にはそれができなかったのです」。
しかし、ブベック副社長が本当に心を入れ替えたのは、GPT-4に新しいことをさせるよう仕向けたときだった。
中学校の数学の問題は、インターネット上に溢れているため、GPT-4はそれらを単に記憶しているだけかもしれない。 「人間が書いたものすべてに目を通した可能性があるモデルを、どうやって調べるのでしょうか?」とブベック副社長は問いかける。 ブベック副社長の答えは、彼と彼の同僚たちが斬新だと考えるさまざまな問題でGPT-4を試すことだった。
マイクロソフト・リサーチの数学者ロネン・エルダンと一緒にいじりながら、ブベック副社長はGPT-4に、無限個の素数があることの数学的証明を詩で表現するよう指示した。
以下はGPT-4の回答の抜粋だ。「集合S の中で素数の集合Pに含まれない最小の数をpとすると、それを集合Pに追加できますよね? しかし、このプロセスは無限に繰り返すことができます。 したがって、私たちの集合Pも無限でなければなりません、同意していただけますよね」。
面白いではないか? しかし、ブベック副社長とエルダンは、それ以上の可能性があると考えた。「私たちはこのオフィスにいました」。ブベック副社長は、リモート取材の画面越しに、後ろの部屋を指さしながら言った。 「二人とも椅子から転げ落ちました。 信じられない光景でした。 とても独創的で、まるで違う世界のようでした」。
マイクロソフトのチームは、ワープロソフトのラテフ(Latex)で描かれたユニコーンの漫画画像に、角を追加するコードを生成するようGPT-4に指示した。ブベックは、このことから、このモデルが既存のラテフのコードを読み取り、それが何を表しているかを理解し、角をどこに配置すべきかを特定できることを示していると考えている。
「多くの例があるが、そのうちのいくつかは推論の決定的証拠です」とブベック副社長は言う。推論は、人間の知性の重要な構成要素である。
ブベック副社長、エルダン、そしてマイクロソフトの他の研究者たちはその研究成果を、『Sparks of artificial general intelligence(汎用AIのスパーク)』と題した論文で説明した。「私たちは、GPT-4の知能が、コンピュータ科学分野、そしてそれ以外でも真のパラダイムシフトが起きる兆しとなっていると信じています」。ブベック副社長が論文をオンラインで発表した時、彼はこうツイートした。「今こそ対峙する時だ。#AGIに火が付いた」。
このスパーク論文にはたちまち悪評が立ち、AI推進派にとっては試金石となった。グーグルの元研究部長であり、おそらく世界で最も人気のあるAIの教科書『エージェントアプローチ人工知能(原題:Artificial Intelligence: A Modern Approach)』(2008年、共立出版)の共著者でもあるピーター・ノーヴィグ、それにアグエラ・イ・アルカス副社長は、『Artificial General Intelligence Is Already Here(汎用AIはすでにここに存在する)』と題した論文を共同執筆した。ロサンゼルスにあるシンクタンク、バーグルエン研究所(Berggruen Institute)が支援する雑誌『ノエマ(Noema)』に掲載された彼らの論文は、スパーク論文を議論の出発点としている。「汎用AI(AGI)は人によってさまざまな意味合いを持つが、その最も重要な部分は、現在の高度なAIの大規模言語モデルによってすでに達成されている」と、彼らは綴る。「数十年後には、それがAGIの最初の真の事例として認識されるだろう」。
それ以来、大げさな宣伝は膨れ上がり続けている。当時、オープンAIで超知能に焦点を当てていた研究者のレオポルド・アッシェンブレナーは2023年、私にこう語った。「ここ数年のAIの進歩は、まさに驚くべき速さです。私たちはあらゆるベンチマークを次々と打ち破り、その進歩は勢いが衰えることなく続いています。しかし、それで終わるわけではありません。私たちは人間を超えたモデル、私たちよりもはるかに賢いモデルを手に入れることになるでしょう」。レオポルドは4月にオープンAIを解雇された。自身が開発していたテクノロジーのセキュリティ上の懸念を提起し、「一部の人の機嫌を損ねた」からだと主張している。その後、彼はシリコンバレーに投資ファンドを設立した。
6月、アッシェンブレナーは165ページにわたるマニフェストを発表し、AIが「2025年または2026年」には大学生の能力を上回り、10年後には「文字通り、超知能を手に入れるだろう」と主張した。しかし、業界関係者の多くはこうした主張をあざ笑っている。アッシェンブレナーが、ここ数年のAIの進歩の速さを踏まえ、AIが今後どれくらいの速さで進歩を続けると考えているかを示したチャートをツイートしたところ、テック投資家のクリスチャン・ケイルが、同じ論理で考えれば、生まれた時から2倍に成長した自分の赤ちゃんは、10歳になるまでに7兆5000億トンもの体重になるだろうと返信した。
「汎用AIのスパーク」が過剰な話題を呼ぶ代名詞となったのも当然だ。「彼らは調子に乗ってしまったんだと思います」。前出のマーカス教授はマイクロソフトのチームについて、こう語る。「興奮して『やったぞ! すごい発見だ! 驚くべきことだ!』となったのでしょう。科学界に検証してもらわなかったのです」。ベンダー教授はスパーク論文を「ファン・フィクション小説」と呼んでいる。
GPT-4の動作が汎用AIの兆候を示しているという主張は刺激的であるだけでなく、GPT-4を自社の製品で使用しているマイクロソフトは、このテクノロジーの能力の宣伝に明確な関心を持っている。「この文書は、研究を装ったマーケティングの誇大広告だ」。あるテック企業のCOO(最高執行責任者)はリンクトインにこう投稿した。
また、論文の手法には欠陥があると感じた者もいた。そのエビデンスは、オープンAIとマイクロソフト以外では入手できないバージョンのGPT-4とのやり取りから得られたものであるため、検証が難しい。公開バージョンには、モデルの機能を制限するガードレールがあるとブベック副社長は認める。そのため、他の研究者がブベック副社長らの実験を再現することは不可能だった。
ある研究グループは、GPT-4が画像生成にも使用できるコーディング言語「プロセシング(Processing)」を使ってユニコーンの例を再現しようとした。その結果、GPT-4の公開版では、見た目はそれなりのユニコーンは生成できるものの、画像を反転させたり90度回転させたりすることはできないことがわかった。些細な違いのように思えるかもしれないが、ユニコーンを描けることが汎用AIの証であると主張する場合は、このようなことが非常に重要になる。
ユニコーンを含め、スパーク論文の例で重要なのは、ブベック副社長とその同僚たちが、それらが創造的推論の真の事例であると信じていることだ。つまり、これらのタスクの例、あるいはそれに非常に似たタスクの例が、オープンAIがモデルを訓練するために収集した膨大なデータセットのどこにも含まれていないことを、チームは確信していたということだ。そうでなければ、結果は、GPT-4がすでに目にしたパターンを再現した事例として解釈されてしまう可能性がある。
ブベック副社長は、モデルに与えたタスクはインターネット上には存在しないものだけだったと主張している。Latexでユニコーンの漫画を描くのは、まさにそのようなタスクだったに違いない。しかし、インターネットは広大な場所だ。他の研究者がすぐに指摘したように、Latexで動物を描くことに特化したオンライン・フォーラムが実際に存在していた。「参考までに、私たちはこの件については把握しています」とブベック副社長はX上で返信した。「スパーク論文のすべてのクエリは、すべてインターネット上で徹底的に調べました」と答えた。
それでも、中傷は止まらなかった。カリフォルニア大学バークレー校のコンピューター科学者のベン・レクト教授は、「いかさまをやめるよう求めているのです …
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷