この記事は米国版ニュースレターを一部再編集したものです。
先日、私はワシントンD.C.のある大学の政策教授と雑談した。そこで話題に上ったのが、生成AI(ジェネレーティブAI)だ。学生も同僚の教員も、GPT-4や生成AIについて、「何を読めばいいのか」「どれぐらい注意を払うべきか」と聞いてくるのだという。
彼女は、私に何か提案はないかと尋ね、それから「新たな進歩は、議員たちにとって何を意味すると思うか」と質問してきた。私は数日間、そのことについて考えたり、参考書を読んだり、専門家と話したりしてまとめたのが、今回の記事だ。
GPT-4は確かに有名だが、あくまでもここ数カ月で注目を浴びた生成AIモデルの新版の1つに過ぎない。 グーグルやエヌビディア(Nvidia)、アドビ(Adobe)、百度(バイドゥ)は、それぞれ独自のモデルやサービスを発表している。つまり、生成AIは誰もが話題にしていることなのだ。技術的には真新しいものではないものの、その政策的な意味が理解されるまでに少し時間がかかるだろう。
オープンAI(OpenAI)が3月14日に発表したGPT-4は、深層学習で文章中の単語を予測するマルチモーダルな大規模言語モデルだ。GPT-4は非常に流暢な文章を生成し、言葉によるプロンプトだけではなく画像にも対応する。現在、有料版のチャットGPT(ChatGPT)ではGPT-4が選択できるようになっており、商用サービスや製品にも組み込まれている。
最新のGPT-4は大きな話題を呼び、ビル・ゲイツは先日、GPT-4を「革新的」だと称賛した。一方で、オープンAIは言語モデルの訓練の方法とバイアスの評価方法について透明性を欠いているとのは批判も受けてもいる。
人間を驚かせるほどの能力で世界を熱狂させているにもかかわらず、生成AIには大きなリスクが伴う。GPT-4は有害な情報が氾濫するインターネットの膨大なデータで訓練されているため、人種差別的、性差別的な文章をしばしば出力するのだ。また、GPT-4はしばしば物事をでっち上げ、その内容を自信満々に述べたりする。その振る舞いは誤情報の観点からは悪夢となり得るし、より説得力のある詐欺行為を多発させてしまう可能性もある。
生成AIツールは人々のセキュリティとプライバシーに対する潜在的脅威でもあり、著作権法も軽視している。他人の作品を盗んだとしてすでに訴えられている企業もある。
ブルッキングス研究所(Brookings Institution)でガバナンス研究員を務めるアレックス・エングラーは、生成AIの使用にリスクが伴うことについて、政策立案者はどのように考えるべきか考察し、悪意を持って利用することによる被害と、商用利用による被害という、2つの主要なリスクについて調べている。虚偽情報、ヘイトスピーチの自動生成、詐欺など、悪意を持った上でのテクノロジーの利用は「コンテンツ・モデレーションと共通点が多い」とエングラー研究員はメールで教えてくれた。「このようなリスクに対処する最善の方法はプラットフォーム・ガバナンスでしょう」。
生成AIに関する政策議論がこれまで焦点を当ててきたのは、先に挙げた2番目のリスクだ。コーディングや広告での利用など、生成AIテクノロジーの商用利用によるリスクについてだ。これまで米国政府は、主に米国連邦取引委員会(FTC)を通じて、ささやかだが注目すべき行動をとってきた。連邦取引委員会は今年2月、企業に対して警告声明を出し、AIができることを誇張するなど、実証できない技術的能力について主張しないよう指導している。連邦取引委員会は最近、企業が生成AIを使用する際に考慮すべきリスクについて、さらに強い表現でブログにこう記述している。
「合成メディアや生成AI製品を開発・提供においては、設計段階やそれ以降において、詐欺に悪用されたり他の被害をもたらしたりする、合理的に予見可能で明らかに明白な方法についても検討してください。そして、そのようなリスクが、そもそも製品を提供すべきではないと考えられるほど高いものではないか、自問していただきたい」。
米国著作権局もまた、AI、帰属、知的財産をめぐる厄介な政策問題に対処することを意図した新たな施策を展開した。
一方、欧州連合(EU)は、テック政策における世界のリーダーという評判に忠実だ。今年初め、本誌のメリッサ・ヘイッキラ記者は、AI法案の成立を目指すEUの取り組みについて書いた。この法律は、企業が内部構造を開示せずにAIモデルを野に放つことを防ぐための一連のルールであり、オープンAIのGPT-4に対して一部の評論家が批判している内容とまさに合致する。
EUは、ビデオゲームやスパム・フィルターといったリスクの低いAIの用途と、雇用、法律、金融といったリスクの高いAIの用途とを分け、より機密性の高い用途については透明性を高めることを要求している。オープンAIは普及のスピードに関する懸念について一部認めている。事実、オープンAIのサム・アルトマン最高経営責任者(CEO)は、多くの懸念を感じているとABCニュースに語っている。しかし、オープンAIはGPT-4の重要なデータについてまだ開示していない。
ワシントンD.C.、ブリュッセル、ロンドン、そして世界中の政策関係者にとって、生成AIは浸透しているということを理解することが重要だ。確かにかなりの誇大広告もあるが、最近のAIの進歩は、それがもたらすリスクと同じくらい現実的で重要なものである。
◆
テック政策関連の気になるニュース
ティックトックの周受資(ショウ・ジ・チュウ)CEOは3月23日、人気ソーシャルメディアアプリが浮き彫りにした、プライバシーとセキュリティの懸念に関する米国議会の公聴会に呼び出された。周CEOが公聴会に現れたのは、親会社であるバイトダンス(ByteDance)がティックトックの株式の過半数を売却しなければ、米国国内での使用を禁止するとバイデン政権が脅した直後だった。
ニュース報道の見出しのほとんどが、時間に関する言葉遊びに終始していた(「ティックトック」が「チクタク」という時計の針の音に似ているため)。この公聴会によって、米中の新たな技術的冷戦の深刻さが露わになった。技術的な理解が不十分な議員や、米国企業がほとんど同じようにデータを収集・取引していにもかかわらず中国企業のプライバシーの扱いについて偽善的に振る舞う議員もおり、多くの傍聴者にとって重要だが残念な公聴会となった。
また、米国議員らが中国の技術にどれほど深い不信感を抱いているかも明らかになった。やや辛口な視点でこの最新動向を取り上げている記事を紹介しておこう。
- 議会のティックトック公聴会の主な内容と不確実な前途(ガーディアン紙)
- ティックトックのセキュリティに関する懸念について知っておくべきこと (タイム紙)
- 米国のオンライン・プライバシー問題はティックトックよりずっと大きい(ワシントンポスト紙)
- ティックトック禁止に問題あり。米憲法修正第1条により(ニューヨーク・タイムズ紙)
テック政策関連の注目研究
スタンフォード大学の分極化・社会変動研究所(Polarization and Social Change Lab)のチームが手掛けた研究によると、AIは人々を説得し、攻撃用武器の禁止や有給育児休暇といった際どい政治問題について、考えを変えることができるそうだ。研究者たちは人々が、AIが生成した主張を読む前と読んだ後のそれぞれに抱いた、特定の話題に関する政治的意見を比較し、AIが生成した主張は、人々を説得する上で、人間による主張と同等の効果があることを発見した。「AIの主張は一貫しており、より事実に基づいていてかつ論理的で、怒らず、説得の手法としてストーリーテリングにほとんど頼っていませんでした」。
研究チームは、ロビー活動やネット上の言論など、政治的な状況で生成AIを利用することに対する懸念を指摘している。