ブームに沸く生成AI、巨大テック企業の「総取り」を防げ

Generative AI risks concentrating Big Tech’s power. Here’s how to stop it ブームに沸く生成AI、巨大テック企業の「総取り」を防げ

生成AIは、権力をさらに巨大テック企業に集中させようとしている。スタートアップが開発した生成AIに必要なコンピューター資源、膨大なデータは、巨大テック企業によるものだ。 by Melissa Heikkilä2023.05.18

この記事は米国版ニュースレターを一部再編集したものです。

生成AI(ジェネレーティブAI)ブームは、規制当局が直ちに行動を起こさなければ、巨大テック企業への権力集中を進めていくことになる——。非営利研究機関のAIナウ研究所(AI Now Institute)が発表した最新の報告書の中心的な主張は、確かに筋が通っている。この主張は、大量のデータと、それを処理するのに十分なコンピューティング・パワーという、現在のAIブームが依存している2つのことを考えれば容易に理解できる。

2つのリソースは事実上、巨大テック企業が独占している。確かに、オープンAI(OpenAI)のチャットボット「チャットGPT(ChatGPT)」やスタビリティAI(Stability.AI)の画像生成AI「ステーブル・ディフュージョン(Stable Diffusion)」のような特に注目を集めているアプリケーションはスタートアップによって開発されている。しかし、そうしたスタートアップは巨大テック企業と取引したおかげで、巨大テック企業が持つ膨大なデータとコンピューティング・リソースを利用できるのだ。

AIナウ研究所のサラ・マイヤーズ・ウェスト常務理事は「いくつかの巨大テック企業は、AIを民主化するのではなく、AIによる権力強化を図る準備を整えています」と言う。

今のところ、巨大テック企業はAIに対する主導権を握っている。しかし、マイヤーズ・ウェスト常務理事は、実は今こそが重要な分岐点だと考えている。現在は、新たなテクノロジーにつきものであるハイプ・サイクル(成熟度、採用度、社会への適用度、安定度の循環)の始まりだ。そしてそれは、今後10年間におけるAIテクノロジーをより民主的かつ公正なものにするために、立法者や規制当局が行動を起こす二度とない機会なのだ。

今回のAIブームが以前のブームと異なるのは、AIが招く破滅的な事態について、人々の理解が深まっていることだ。そのうえ、世界中の規制当局は細心の注意を払っている。

中国は、より高い透明性と監視強化を求める生成AIに関する法案 を公表したばかりだ。欧州連合(EU)は、生成AIシステムの仕組みについてテック企業に透明性を求めるAI法を議論し、AIによる被害に対して責任を問う法案も検討している

米国は従来、テクノロジー分野の規制には消極的だった。しかし、それが変わりつつある。バイデン政権は、チャットGPTのようなAIモデルを監督する方法についてパブリック・コメントを募集している。監督方法は、例えば、テック企業に(AIの)監査や影響評価の策定を義務づけたり、リリース時までにAIシステムが満たすべき基準を設けることが挙げられる。コメント募集は、AI被害の抑制に向けてバイデン政権がとった最も具体的な行動の1つだ。

一方、米国連邦取引委員会(FTC)のリナ・カーン委員長も、巨大テック企業のデータとコンピューティング能力の優位性を指摘し、AI業界における競争の確保を約束している。FTCは、反トラスト法違反の調査という一種の脅しや、詐欺的なビジネス手法の取り締まりをちらつかせている。

FTCはこうした視点で、AI分野に焦点を合わせている。それを実現できたのは、マイヤーズ・ウエスト常務理事をはじめとするAIナウ研究所のメンバーの多くが、FTCに技術的な専門知識を提供するために、一時期FTCに在籍していたことも影響している。

マイヤーズ・ウエスト常務理事は、AI規制は白紙から始める必要はないことを出向先のFTCで学んだと話す。EUのAI法のような、施行までに何年もかかるAIに特化した規制を待つのではなく、規制当局は既存のデータ保護や公正な競争に関する法の執行を強化すべきなのだ。

今日のAIは大量のデータに大きく依存しているため、データ・ポリシーはAIポリシーにもなる、とマイヤーズ・ウエスト常務理事は話す。格好の例を挙げれば、チャットGPTは、欧州やカナダではデータ保護当局による精査に直面しており、イタリアではWeb上から個人情報を違法に収集し、不正に使用した疑いで遮断されている。

規制を求める声は、政府関係者だけで起きているわけではない。興味深いことに、何十年も規制と徹底的に争ってきたオープンAIを含むテック企業のほとんどが、今や規制を歓迎する姿勢を表明しているのだ。

AI規制のあり方は、いまだに広く議論されている。テック企業は規制の支持を表明しているものの、AIを搭載した製品の公開に関しては依然として「まずリリース、質問は後」という方針をとり続けている。テック企業は、画像や文章を生成するAIモデルを製品としてリリースすることを急いでいる。しかし、これらのモデルには、でたらめな生成有害なバイアスの拡散、著作権の侵害、セキュリティの脆弱性といった大きな欠陥がある。

AIナウ研究所の報告は、AI製品がリリースされた後でアルゴリズムを監査するといった、ホワイトハウスが取り組むAIに関する説明責任に関する提案は、AI被害を軽減するには不十分だと主張するものだ。企業に自社のモデルがリリースに適していると最初に証明させるには、より強力で迅速な対策が必要である、とマイヤーズ・ウェスト常務理事は述べている。

「企業に負担をかけない対策手法は、大いに慎重になるべきです。AI被害を撲滅する規制の中には、本質的に一般市民や規制当局に負担をかけるものが多くあるのですから」。

そして重要なのは、規制当局が迅速に行動を起こすことだ、とマイヤーズ・ウェスト常務理事は言う。

「(テック企業が)法制度に違反すれば、責任を取らせるべきです」。

歴史学者はAIの活用で過去をさらに理解する

すばらしい動きだ。何世紀もの間、カビ臭い書庫で放置され、内容が不明瞭になってしまった歴史的文書の研究に、歴史学者たちが、機械学習を活用し始めている。機械学習を用いて古文書を復元し、その過程で重要な発見をしているのだ。

歴史学者は、遠い過去を知るのに現代のコンピューター科学を応用することで、他の方法では不可能だった数世紀にまたがる広範なつながりを発見し、点と点を結ぶことができると話す。同時に、使用するコンピューター・プログラムは、歴史的記録に独特の歪みをもたらし、バイアスやまったくの虚偽が紛れ込む危険性もある。 詳細は、科学ジャーナリストのモイラ・ドノヴァン書いたこちらの記事で。

AI関連のその他のニュース

グーグル、自社検索エンジンの刷新進める AI分野で競合企業に対抗。マイクロソフトはAIを搭載した検索エンジン「ビング(Bing)」でまずまずの成功を収めている。一方で、危機感を抱いたグーグルは、大規模言語モデルを使った新しい検索エンジンの開発を進めており、既存の検索エンジンにAI機能を導入するアップグレードを図っている。グーグルは自社の新たな検索エンジンが、よりパーソナライズされた体験をユーザーに提供すると期待している。(ニューヨーク・タイムズ紙

イーロン・マスク、オープンAI対抗の新AI企業を設立。この数カ月、イーロン・マスクは自身の新AIベンチャー「XドットAI(X.AI)」のために研究者を獲得しようと試みている。マスクはオープンAIの共同創業者の1人だったが、サム・アルトマン最高経営責任者(CEO)との権力闘争の末、2018年に失脚し同社を去った。マスクはオープンAIのチャットボット「チャットGPT」が政治的に偏っていると批判したうえで、「真実を追求する」AIモデルの開発に意欲を示している。どういう意味なのか? 何のことやら、さっぱり分からない。(ウォール・ストリート・ジャーナル紙

倒産の危機に瀕するスタビリティAI。オープンソースの画像生成AIモデル「ステーブル・ディフュージョン」を開発したスタビリティAIは、さらにリアルな出力をするようにアップデートした新バージョンのモデルをリリースしたところだ。しかし、同社の事業は厄介な状況に置かれている。キャッシュ・フローが非常に悪く、収益を上げるのに苦戦しており、CEOは従業員の信頼を失っている。(セマフォー

世界最悪のAIプログラム。Chess.comのチェスボット「マーティン(Martin)」は、眉毛がふさふさで、髭が濃く、髪の生え際が少し後退している、タートルネックを着たブルガリア人として描かれている。しかも、チェスがからっきし駄目だ。他のAIボットは、驚くべきチェス力を発揮するようにプログラムされている。しかし、マーティンは人々に、たとえ間抜けなAIシステムであっても、驚かせたり、喜ばせたり、学ぶべきところがあるという事実に気づかせてくれる。(アトランティック