MIT、AIの潜在的リスクを網羅するデータベースを公開
MITの研究グループは、AIシステムががもたらしうる700以上の潜在的なリスクをまとめたデータベースを公開した。このデータベースがどのリスクをより深刻に受け止めるべきか判断するためのさらなる研究につながることを期待している。 by Scott J Mulligan2024.08.19
人工知能(AI)の導入は危険を伴うものである。AIシステムは、バイアスのかかった判断をしたり、虚偽の情報をオウム返ししたり、さらには中毒性の高いものになったりする可能性がある。しかもそれは、AIが新たな生物兵器や化学兵器の製造に使われる可能性や、いつか何らかの形で制御不能に陥る可能性を考慮する以前の話である。
このような潜在的なリスクに対処するためには、まずそのリスクが何であるかを知る必要がある。それに役立つかもしれないのが、マサチューセッツ工科大学(MIT)コンピューター科学・人工知能研究所(CSAIL)のフューチャーテック(FutureTech)グループが、共同研究チームとともにまとめ、8月14日にオンライン公開した新しいデータベースだ。同データベース「AIリスク・リポジトリ(AI Risk Repository)」は、先進的なAIシステムがもたらしうる700以上の潜在的リスクを文書にまとめたものだ。先進的AIモデルの開発と導入によって発生する可能性のある、これまでに特定された問題点に関する最も包括的な情報源となっている。
研究チームは、AIのリスクについて詳述している査読付き学術誌の論文や査読前論文(プレプリント)のデータベースを徹底的に調査した。最も一般的なリスクは、AIシステムの安全性と堅牢性(76%)、不当なバイアスと差別(63%)、プライバシーの侵害(61%)であった。あまり一般的でないリスクは、痛みを感じたり、「死」に似た経験をしたりする能力を持つAIを作るリスクなど、より難解なものになる傾向があった。
このデータベースはまた、AIによるリスクの大部分がモデルが一般公開された後に初めて特定されていることを示している。調査対象となったリスクのうち、一般公開前に発見されたものはわずか10%だった。
AIモデルをリリースする前にその安全性を確保することに焦点が当てられるようになっている今、この新たなデータベースから得られる知見は、AIの評価方法に影響を与えるかもしれない。「このデータベースが示しているのは、リスクは多岐にわたり、そのすべてを事前にチェックできるわけではないということです」と、MITフューチャーテックの所長であり、このデータベースの作成者の一人であるニール・トンプソンは話す。したがって、監査員や政策立案者、研究所の科学者たちは、AIモデル導入後に生じたリスクを定期的に検証することで、リリースされたAIモデルを監視したいと考えるかもしれない。
トンプソン所長によると、過去にも同様のリストを作成しようとする試みは数多くあった。だが、そのような過去の試みは、主にAIから生じる潜在的な危害の狭い範囲に焦点を当てたものであり、断片的なアプローチであった。そのため、AIに関連するリスクを包括的に把握することは困難であったという。
この新しいデータベースを使っても、どのAIのリスクを最も懸念すべきかを見極めるのは難しい。最先端のAIシステムがどのように機能するのかさえ十分に理解できていないことから、その見極めはさらに複雑になっている。
このデータベースの作成者たちは、この問題を回避し、リスクの危険度をランク付けしないことにした。
「私たちが本当に目指したのは、中立的で包括的なデータベースです。ここでの中立的とは、すべてが提示されたとおりに受け止められ、それについて高い透明性が確保されているという意味です」と、データベースの作成を主導したMITフューチャーテックの博士研究員であるピーター・スラッタリーは言う。
しかし、この手法はデータベースの有用性を制限しかねないと、スタンフォード大学のコンピューター科学の博士課程の学生で、同大学のAIセーフティセンター(CAIS)のメンバーであるアンカ・ロイエルは指摘する(ロイエルはこのデータベース作成プロジェクトには参加していない)。ロイエルは、単にAIに関連するリスクをまとめるだけでは、すぐに不十分になると話す。「このプロジェクトは非常に徹底したものであり、これからの研究努力の出発点としては有効ですが、ありとあらゆるリスクを人々に認識させることは、もはや主要な問題ではなくなってきていると思います」とロイエルは言う。「私の考えでは、主要な問題は、そういったリスクを理解しやすくすることです。リスクと闘うために、実際に何をすべきなのでしょうか」。
このデータベースは、今後の研究への扉を開くものである。データベースの作成者がこのリストを作成した目的の一つは、どのリスクが十分に研究されていないのか、あるいは対処されていないのか、といった自分たちの中の疑問を掘り下げることだった。「私たちが最も懸念しているのは、そこにギャップがあるかどうかということです」とトンプソン所長は言う。
「これは生きたデータベースであり、何かの始まりとなることが意図されたものです。私たちはこれに関するフィードバックを得たいと思っています」とスラッタリー博士は言う。「『私たちは問題を本当に理解しており、私たちが成し遂げたことがすべて完璧なものにつながる』と思ってこのデータベースを公開したわけではありません」 。
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画
- スコット・J・マリガン [Scott J Mulligan]米国版 AI担当記者
- 政策、ガバナンス、AIの内部構造などを取材するAI担当記者。AIに特化した若手ジャーナリスト育成プログラム「ターベル・フェローシップ(Tarbell Fellowship)」の支援を受けている。ヴァイス(VICE)ニュースでのドキュメンタリー映像制作、ビデオゲーム・デザイナーなどを経て現職。