本稿を書いている2020年6月中旬、日本では外出自粛が解除され、学校も始まった。「New Normal」や「With Corona」という言葉が使われ、私たちはぎこちないながらも日常へ戻ろうとしている。リモートワーク、遠隔医療や教育などではIT技術の利活用が求められる場面もあるだろう。
- この記事はマガジン「AI Issue」に収録されています。 マガジンの紹介
また、各国で人々の行動追跡や接触確認も始まっている。日本でもプライバシーに配慮した接触確認システム導入方針が固まった。空港など特別な場所だけではなく、一般的な店舗や建物への入退室管理も始まりつつある。公共の安全や健康のためと、個人のプライバシーや自由の両方を求めることができるのか、世界各国で対応策が議論されている。
さらに現在、米国で警察官によるジョージ・フロイド氏の暴行事件を受け、抗議デモが欧米各地へ展開されている。警察改革を求める議論は人工知能(AI)分野にも及ぶ。6月8日にIBM、10日にアマゾン、11日にはマイクロソフトが顔認識技術ビジネスからの撤退や、法整備が行われるまでの警察への技術提供停止を発表した。背景には、本人特定を行う際に、肌の色の濃さや性別によって、AIが誤認識をする問題がある。
画像認識は機械学習を用いた現在のAIが得意とする分野である。人の行動や入退室管理にも顔認証技術が使われる場合も少なくない。日本もグローバル化している社会であり、さまざまな肌の色の人たちが暮らしているため、この議論は決して他人事ではない。国として、組織として、あるいは個人としてAIとどのように向き合い管理していくか考える必要がある。
AIと社会の課題は切り離して考えることはできない。そこで本稿では、現在、何が議論されているのか(AI倫理での論点)、「誰がどのように」対応しているのか(AIガバナンス)を国際的な動向を紹介しながら整理したい。
WHAT:「何」が議論されているのか
AIと適切に付き合っていくために考えるべきことは何か。この議論が始まったのが2014年ごろ、一般化し始めたのが2016年ごろである。議論の集積としていち早く世に出たのが「アシロマ原則」だ(2017年1月公開)。2014年に米国で設立されたNPO法人「生命の未来研究所(Future of LifeInstitute:FLI)」が世界各国で議論を行っている産学官民から人を集め、23カ条からなる原則を公開した。(1)AIの研究目標や資金の在り方はどうあるべきかという「研究課題」、(2)AIシステム開発に求められるべき要件として安全性や透明性、価値観との調和、制御可能性や軍拡競争の回避などが列挙された「倫理と価値」、(3)将来的にAIが持ち得るべき能力やそこで生じ得るリスクへの対応などが盛り込まれた「長期的な課題」の3分類からなる。本原則には、現在AIと倫理を巡る議論で重視されている論点の萌芽が詰め込まれている。
この原則以降、さまざまな組織がAI開発や利用原則や指針を打ち出しており、論点は一定程度の合意に到達しつつある。たとえば、レビューとしてハーバード大学が取り上げた報告書と、中国科学院の研究者らが参照する報告書を見比べると、両者とも注目している報告書は共有している。また、左の表は各報告書が提示している価値を、多く言及されている順番に並べたものである。解釈の幅はあるが、おおむね合致していると言えよう。
安全性やセキュリティ、プライバシーなどの議論は、情報技術を巡る従来からの議論が継続している。一方、AIを巡る議論として強調されるのが、表にもあるFairness(公平性)、Accountability(説明責任/答責性)、Transparency(透明性)の3つであり、頭文字をとってFATと呼称される。Explainability(説明可能性)を付けてFATEと呼ばれることもある。
背景には、学習データやアルゴリズムの偏り、既存社会に存在する差別や偏見に設計者が(無意識に)影響を受けることで、AIの出力結果が不公平で差別的となった事例がある。有名な事例として、グーグルが提供するフォトアプリがアフリカ系の黒人女性を「ゴリラ」とラベル付けしてしまった事件や、アマゾンが開発していた採用AIが特定職種で女性の採用に不利な結果を表示すると判明した事例がある。冒頭で示した警察への顔認証技術の提供停止の動きは、これらの事件への懸念から派生している。この観点から、人権や人道など「人間の価値」に関わる議論が上表の最上位に現れるのも、AIを巡る議論の特徴と言える。
さらには、アルゴリズムの複雑化によって、出力結果の理由を説明できない、いわゆる「ブラックボックス化」が問題となる。説明能力を上げるためには、設計に用いた学習データやアルゴリズムの透明性などが求められる。しかし説明可能にするということは技術精度とのトレードオフになる場合があるほか、特許の問題やコストの問題が立ちはだかる。そこで、サービス提供主体による責任の所在が明確であり、アカウンタブルであること、すなわち問題に対応できる(説明責任/答責性)ことが重要となる。
技術だけではなく制度的にも幾重の対応を張り巡らすことが、AIサービスや商品、さらにはサービス提供元である企業や国の信頼(Trust)を構築する。「信頼されるAI」という言葉は、世界中でキーワードとなっており、日本でも内閣府が2019年3月に打ち出した「人間中心のAI社会原則」を基に策定された「AI戦略2019」において、「信頼される高品質なAI」開発の必要性が盛り込まれている。
WHO:「誰」が議論しているのか
各国・地域ごとの動向
現在、日本だけではなく多くの国がAI戦略を策定している。各国・地域でのAI倫理やガバナンスへの取り組みには重なりがありつつも、多様性がある。たとえば欧州は、米中企業による独占への懸念もあり、一般データ保護規則(GDPR)などプライバシー保護を含めた法整備を重視する傾向がある。また、自然環境に資するAIの利用や、省エネルギーや省データのAI開発にも関心がある(FrugalAI:質素なAIと呼ばれる)。環境意識がもともと強いことに加え、米中のビジネスモデルが大量データ大量消費に根差していることから、別の道を模索しているとも言える。
米国でも人権や自然環境に対する関心度は高い。冒頭に紹介したような人種やジェンダー差別への抗議活動も広く展開している。しかし、同時に自由市場も重視され、企業の自主規制によるルール作りが推奨されている。また、技術者個人としての責任感に基づいた告発や批判が盛んという特徴もある。たとえば …
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール