
Irene Solaiman アイリーン・ソライマン (28)
生成AIが誰にとっても安全かつ適切に動作するように、AIモデルのリリース方法についての標準化された明確なプロセスを構築している。
新しい生成AI(ジェネレーティブAI)モデルがリリースされると、チャットボットであれ、画像ジェネレーターであれ、その基礎となるモデルの能力が注目される。それに比べて、モデルのリリース方法やリリース対象者などの詳細、たとえばオープンソースであるかどうかや、商用利用にライセンスが必要かどうかといった点は、はるかに注目度が落ちる。しかし、このような決定は非常に重要だ。
たとえば、オープン性を高めると、モデルを監査されたり評価されたりする機会が増えるが、悪用される機会も増える。システムをより閉鎖的にすると、権力は集中するかもしれないが、悪用される可能性は制限されるだろう。
2019年当時、オープンAI(OpenAI)の研究者で公共政策部長を務めていたアイリーン・ソライマンは、チャットGPT(ChatGPT)の前身であるGPT-2のリリースに向けて、オープン性を高めつつ害悪を最低限に抑えるために、特定の保護措置のバランスを考慮した新しいアプローチを主導。新モデルを段階的にリリースすることで、テストとガードレール組み込みの時間をより多く確保できるようにした。現在、オープンAI、マイクロソフト、メタはそれぞれ、チャットGPT、新しいビング(Bing)検索、ラマ(LLaMA)にこのアプローチを採用している。
ソライマンはその後オープンAIを去り、現在はAIスタートアップ企業のハギング・フェイス(Hugging Face)でグローバル公共政策部長を務めている。ソライマンは、将来のAIモデルのリリース方法に関する標準化された明確なプロセスを構築する仕事を続けている。さらに、新しいAIシステムのデプロイ前にそのコミュニティの文化的価値を考慮に入れる方法の開発など、他の側面でもAIの安全に関する取り組みを継続している。
結局のところ、ソライマンを駆り立てているのは、開発者だけでなく、「生成AIシステムと直接つながっていないが、人工知能(AI)の影響を受ける可能性のある人」にも、生成AIが適切に動作するようにしたいという願いだという。つまりは、誰にとってもということだ。
(アイリーン・グオ)
- 人気の記事ランキング
-
- AI crawler wars threaten to make the web more closed for everyone 失われるWebの多様性——AIクローラー戦争が始まった
- Promotion Innovators Under 35 Japan × CROSS U 好評につき第2弾!研究者のキャリアを考える無料イベント【3/14】
- From COBOL to chaos: Elon Musk, DOGE, and the Evil Housekeeper Problem 米「DOGE暴走」、政府システムの脆弱性浮き彫りに
- What a major battery fire means for the future of energy storage 米大規模バッテリー火災、高まる安全性への懸念
- A new Microsoft chip could lead to more stable quantum computers マイクロソフト、初の「トポロジカル量子チップ」 安定性に強み