フラッシュ2022年2月22日
-
富士通、AI倫理モデルの作成・影響評価方法を公開
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]富士通は、国際機関や政府、企業などが発表している人工知能(AI)倫理ガイドラインに基づき、AIシステムの倫理上の影響を評価する方式を開発した。本方式に基づく評価手順書と適用例を2022年2月21日から無償公開している。
ヘルスケア、金融、ものづくり分野をはじめAI適用の裾野が広がる一方で、AIの下す判断にさまざまな「バイアス(偏り)」が存在することが問題視されている。こうした問題に対応するため、欧州委員会や米国防総省、OECD(経済協力開発機構)などはAI倫理ガイドラインを策定している。だが、こうしたガイドラインどおりにAIシステムが実装されているかどうかを判定しにくいという問題があった。
富士通が開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順で構成されている。同社は、国際的AIコンソーシアムであるパートナーシップ・オンAI(Partnership on AI)が公開しているAIインシデント・データベースを調べて、倫理上の課題が、AIシステム内部のコンポーネントの間や、関係者との間における情報のやりとりを指す「インタラクション」に対応づけられることに着目。AI倫理モデルを作成して、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発した。
(中條)
-
- 人気の記事ランキング
-
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」