1年前の2023年7月21日、大手人工知能(AI)企業7社(アマゾン、アンソロピック(Anthropic)、グーグル、インフレクションAI(Inflection AI)、メタ、マイクロソフト、オープンAI(OpenAI))は、安全で信頼できるAIの開発方法に関してホワイトハウス(大統領府)と8つの自主的な取り組みで合意した。
合意には、AIシステムに関するテストや透明性の向上、潜在的な有害性やリスクに関する情報の共有といった内容が含まれていた。
取り組みから1年が経ち、MITテクノロジーレビューはこの合意に署名したAI企業各社に対し、これまでの詳細について質問を送付した。各社からの回答は、技術分野において大きな保留条件を含みながらも、いくつかの歓迎すべき進歩を遂げたことを示している。
これらの自主的な取り組みは、生成AI(ジェネレーティブAI)が最も盛り上がっている時期に実施された。このとき各社は独自のモデルをリリースし、競合他社のモデルよりも大規模で優秀なものにしようと競い合っていた。同時に、著作権やディープフェイクをめぐる争いなども浮上してきた。ジェフリー・ヒントンのような影響力のあるテック関係者の声高なロビー活動によって、AIが人類の存亡に関わる危機をもたらすかもしれないという懸念も提起された。突然、誰もが、AIを安全なものにする差し迫った必要性について語るようになり、あらゆる国の規制当局が何かしなければならないというプレッシャーにさらされた。
つい最近まで、AI開発は西部開拓時代のような無秩序状態だった。伝統的に米国はテック大手企業を規制することを嫌がり、企業自身の自主規制に頼ってきた。1年前の合意はその良い例である。その合意は米国のAI分野における最初の規範的ルールの一部であったが、いまだに自主的なものであって強制力はない。ホワイトハウスはその後、この合意を拡大して他のテック企業や政府部門にも適用する大統領令を発出した。
「1年が経ち、自社の製品に対するいくつかの良い実践は見られますが、全体的には、優れたガバナンスや権利の保護といった点では必要とされる水準に全く達していません」とMITテクノロジーレビューの要請に応じて各社の回答をレビューしたAIデジタル政策センター(Center for AI and Digital Policy)の代表兼研究部長であるメルヴェ・ヒコックは言う。それらの企業の多くは自社の製品について、人間の知能や能力に取って代わることができるといった根拠のない主張を押し付け続けていると同代表は付け加える。
テック企業各社の回答から浮かび上がった傾向の1つは、各社が技術的な修正、例えば、レッドチーム演習(人間のチームによるAIモデルの欠陥の精査)や、AIが生成したコンテンツへの電子透かしの挿入の追求といったより多くの取り組みをしていることである。
しかし、合意によって何が変わったのか、そして各社が何らかの方法で対策を実施したのかどうかははっきりしないと、MITテクノロジーレビューの要請に応じて回答をレビューしたスタンフォード大学基盤モデル研究センター(Stanford Center for Research on Foundation Models)の社会担当、リシ・ボマサニは言う。
AI分野において、1年という時間は長い。合意の署名以降、インフレクションAIの創業者ムスタファ・スレイマンは会社を去り、今はマイクロソフトでAI事業を率いている。合意に署名した7社のうち、インフレクションAIだけがコメントの求めに応じなかった。
「私たちは、先進的な企業各社が合意の履行に向けて前進を果たしていること、そして大統領令で求められていることも加えて進展していることに感謝しています」。ホワイトハウスのロビン・パターソン報道官はこう述べる。しかし、同報道官によれば、大統領は引き続き議会に対し、AIに関する超党派の法案を可決するように求めているという。
包括的な連邦法がない中で米国が今できる最善のことは、企業に対してそれらの自主的な取り組みを最後まで継続するように求めることだと、カリフォルニア大学バークレー校CITRIS政策研究所(CITRIS Policy Lab at UC Berkeley)のブランディ・ノンネック所長は言う。
しかし、「基本的にそれらの企業は自分たちを評価するための試験問題を書いているのは、いまだに企業自身である」ことを心に留めておく価値があるとノンネック所長は話す。「そのため私たちは、(中略)企業が本当に厳格な方法で自分自身を検証しているのかどうかということについて、注意深く考える必要があります」 。
以下は、AI企業がこの1年で果たした進歩に対する、私たちの評価である。
合意項目 1
各社はAIシステムのリリース前に、社内外でセキュリティ・テストの実施を約束している。一部は独立した専門家によって実施されるテストが、バイオセキュリティやサイバーセキュリティといったAIの最も重大なリスクや、より広範な社会に影響を与えるリスクを防ぐ。
すべての企業(コメントしなかったインフレクションAIを除く)がレッドチーム演習を実施し、自社のモデルに欠陥やリスクがないか社内外のテスターに精査させていると述べている。
しかし、テストに関しては、ある1社が行動を起こしていると報告するだけでは不十分であると、ボマサニは言う。例えば、アマゾンとアンソロピックは子どもの性的搾取に注力する国際的な反人身売買組織である非営利団体「ソーン(Thorn)」と協力し、AIが子どもの安全性にもたらすリスクと闘っていると述べた。同氏が望んでいるのは、企業が実施している介入措置がそれらのリスクを実際にどれくらい軽減しているのかを、もっと具体的に知ることだ。
「単に企業が何かをしているというだけでなく、それが望ましい効果をもたらしていることが明らかにならなければなりません」とボマサニは話す。
結果:良好。レッドチーム演習や幅広いリスクのテストを推進するのは良いことであり、重要である。しかし、ヒコック代表は、独立した研究者が企業のモデルにより幅広くアクセスできるようになることを望んでいる。
合意項目2
各社はAIのリスク管理に関する情報を、業界全体、および政府、市民社会、学界と共有することを約束している。これには、安全性に関する最善の方法、安全保護措置を回避しようとする試みに関する情報、および技術協力が含まれる。
合意への署名後、アンソロピック、グーグル、マイクロソフト、オープンAIは、AIの安全性と責任に関する議論と行動の促進を目指す非営利団体「フロンティア・モデル・フォーラム(Frontier Model Forum)」を創設した。後にアマゾンとメタもこの団体に加わった。
AI企業が自ら資金を提供した非営利団体に関わることは、合意の精神に反するかもしれないとボマサニは言う。しかし、フロンティア・モデル・フォーラムは、それらの企業が互いに協力し、通常は競争相手と共有しない安全性に関する情報を伝える手段になり得ると同氏は付け加える。
「企業がたとえ一般市民に対する透明性を確保するつもりがないとしても、少なくとも実際にリスクの軽減策を共同で考え出すことは、人々から望まれることの1つです」。
合意に署名した7社はすべて、米国立標準技術研究所(NIST)が設立したA …