パリティ(Parity)の創設者でもあるラマン・チョードリーCEOは以前コンサルティング会社アクセンチュアで、「責任あるAI(Responsible AI)」の責任者として、AIモデルの理解に苦労しているクライアントを対象に「翻訳」をしていた。AIモデルが想定どおりに機能しているか確認することは難しく、企業のデータ・サイエンティストや弁護士、経営陣のそれぞれが異なる言語で会話しているような状況で、混乱していたからだ。チョードリーCEOのチームは、すべての関係者が同じ認識を共有するための仲介役を務めていた。この作業は、1つのAIモデルを監査するだけでも何カ月もかかることがあるほど非効率的なものだった。
チョードリーCEOがアクセンチュアを離れ、2020年後半に自身で立ち上げたパリティは、AIモデルの監査プロセスを数週間に短縮するツールセットをクライアントに提供している。このツールセットはまずクライアントが、バイアス(偏り)の有無を調べるのか、法令遵守の確認をするのかなど、AIモデルをどのように監査したいのかを決定するために支援し、その後、問題に取り組むための推奨事項を提示する。
パリティのように、AIモデルを開発、監視、修正する方法を企業などの組織に提供するスタートアップは増加している。そうしたスタートアップは、バイアス軽減のためのツールから説明可能性を備えたプラットフォームまで、さまざまな製品やサービスを提供している。当初、彼らのクライアントのほとんどは、厳しい規制がある金融やヘルスケアなどに関わる業界の企業だった。しかし、バイアスやプライバシーの問題、そして透明性の問題に関する調査やメディアの注目度が高まったことで、流れが変わってきた。最近のクライアントの多くは、単にAIが誤った解釈をした時の責任を負わされることを心配をしており、規制が出来る前に「遅れを取らない」よう準備しておきたいと考えているクライアントもいる。
チョードリーCEOは、「とても多くの企業が初めてこの問題に直面しています」と述べる。「ほとんどの企業が実際に助けを求めているのです」。
リスクからインパクトへ
新しいクライアントと仕事をする時、チョードリーCEOは「責任」という言葉を使うことを避けている。責任という言葉はあまりにも掴みづらく定義が曖昧で、誤解を招く余地が大きすぎるからだ。その代わりに、チョードリーCEOはより身近な企業用語である「リスク」という概念を提示する。多くの企業ではリスクとコンプライアンスを扱う部門があり、リスク軽減のためのプロセスが確立されているからだ。
AIのリスク軽減も同じことだ。企業は、まず自社のさまざまな懸念事項を検討することから始める必要がある。その中には、法令に違反する可能性である法的リスク、従業員を失う可能性である組織的リスク、PRに支障をきたす可能性であ …
- 人気の記事ランキング
-
- How this grassroots effort could make AI voices more diverse 世界中の「声」を AIに、180言語を集める草の根プロジェクト
- Who’s to blame for climate change? It’s surprisingly complicated. CO2排出「責任論」、単一指標では語れない複雑な現実
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Exosomes are touted as a trendy cure-all. We don’t know if they work. 「奇跡の薬」エクソソーム、 効果不明も高額治療が横行