あと2か月で米国のバイデン政権が幕を下ろす。バイデン大統領とともに退任する可能性が高いのが、同大統領の科学技術顧問を務めていたアラティ・プラバカーだ。プラバカーは2022年から大統領府科学技術政策局(OSTP)局長を務め、大統領執務室で大統領にチャットGPT(ChatGPT)についてデモンストレーションを交えて説明した最初の人物である。プラバカーは2023年の人工知能(AI)に関する大統領令の成立に大きく貢献した。同大統領令は、AIをより安全で透明性の高いものにするためのガイドラインをテック企業に示すものである(ただし、このガイドラインは、企業の自発的な参加に依存している)。
トランプ次期政権は、AIへの対応について明確な方針を示していないが、次期政権内の多くの人物は、この大統領令の無効化を望むはずだ。トランプ次期大統領は7月、バイデン大統領の大統領令は「AIのイノベーションを妨げ、AIテクノロジーの発展に過激な左翼思想を押し付ける」ものだとする2024年共和党政策綱領を掲げ、同大統領令を廃止すると述べた。ベンチャー・キャピタリストのマーク・アンドリーセンは、そのような動きを支持すると述べている。
しかし、そのナラティブ(物語)を複雑にしているのは、イーロン・マスクだろう。マスクは長年、AIの終末的なシナリオについて懸念を表明しており、AIの安全性を促進することを目的とした一定の規制を支持している。
MITテクノロジーレビューは、バイデン政権の終焉を前にプラバカーにインタビューした。バイデン大統領のAIに関する功績について振り返ってもらうとともに、AIのリスク、移民政策、半導体・科学法(CHIPS法)などがトランプ政権下でどのように変わる可能性があるのかを聞いた。
なお、以下のインタビューは、発言の趣旨を明確にするため、要約・編集されている。
◆
——新しいAIモデルが登場するたびに、それがどのように悪用される可能性があるのかという懸念が出てきます。ほんの2年前までAIの安全性に関する懸念は仮定的なものでした。現在、現実になった懸念にはどのようなものがあるでしょうか?
大規模言語モデル(LLM)が登場したとき、私たちは多くのリスクを特定しましたが、その中でも特に恐ろしい形で顕在化したのが、ディープフェイクと画像ベースの性的虐待です。私たちはジェンダー政策評議会の同僚たちと協力し、業界に対し、立ち上がり、早急な対策を講じるよう働きかけました。業界の一部は実際にそれを実行しています。できることはたくさんあります。決済代行会社は、利用者が利用規約を遵守しているかどうかを実際に確認することができます。(画像ベースの性的虐待を)支持したくないと思っている企業は、そうならないようにするために実際にもっと多くの措置を講じることができます。法整備が進められていますが、まだ時間がかかりそうです。
——予測したほど問題にならなかったリスクはありましたか?
当初、AI開発者たちは生物兵器について多くの懸念を表明していました。誰かがグーグル検索をする場合と比べて、どのくらいリスクが高いのかについて、本格的なベンチマーク評価が実施された結果、わずかに高いリスクがあるものの、その差はごくわずかであることが判明しました。悪質な行為者がいかに悪事を働くかについて考えたことがなければ、チャットボットは信じられないほど憂慮すべきものに見えるでしょう。しかし、何と比べての話なのかを考えなければなりません。
——米国防総省(DOD)や警察機関がAIの使用に乗り出すことに対し、無条件に懐疑的になる人は多くいます。このような機関が信頼を築くためには、どのよう …