「大いなる力には大いなる責任が伴う」(スパイダーマンの台詞)というが、人工知能(AI)テクノロジーはますます強力になっている。機械学習やAIを開発し、精力的に事業を展開している企業は今、どんどん賢くなる製品ががもたらす倫理的な課題について、率直に語り始めている。
マイクロソフト・リサーチのエリック・ホロビツ社長は「人類はいま、AIの転換点にいるのです」とMIT Technology Reviewが先週開催したエムテク・デジタル 2017(EmTech Digital 2017)で語った。「倫理的規範でAIを管理し、時間をかけてAIを保護するのです」
ホロビツ社長は、似たような問題に思いを巡らすIBMやグーグルの研究者とともに登壇した。どの企業にも共通した懸念事項として話題に上ったのは、近年の進歩で、ソフトウェアが非常に直接的に人間を制御できる(たとえば、医療分野で起きている)ようになったことだ。
IBMのフランチェスカ・ロシ研究員は、お年寄りの補助をしたり、話し相手になったりする機械を例にした。「こういったロボットは、特定の文化やタスクに合わせた文化規範に従う必要があります。アメリカと日本で導入するとき、ロボットの行動はその国に合わせて大きく変えなければいけません」
介護ロボットの本格導入はまだまだ先の話かもしれないが、AIがもたらす倫理的な課題はすでに目に見えている。民間企業や政府が機械学習システムを利用して意思を決定すれば、その種のテクノロジーの盲点や不公平な判断が、特定の人を明確に差別することになる。
たとえば、昨年のプロパブリカによる調査では、アメリカの一部の州で量刑の決定に使われたリスク評価システムは、黒人を不利に扱っていたことがわかった。ホロビツ社長は同じように、ビジネス向けにマイクロソフトが開発した感情を認識するアプリを取り上げた。当初、このアプリが小さな子どもにうまく反応しなかったのは、アプリの訓練に使われた写真選びが不適切だったのが原因だというのだ。
グーグルのマヤ・グプタ研究員は、テック業界に対してアルゴリズムの訓練に使うデータに偏りがないよう、開発工程で何らかの措置を講ずるべきと訴えた。「AIの訓練用データセットは、ある程度自動化された方法で作られている場合が非常に多いのです。私たちがもっと考えなければいけないのは、十分にいい仕事をしたと確実に言えるほど、マイノリティーのサンプルを収集することです」
研究機関やテック業界ではこの1年間、機械学習やAIの倫理的な課題について数多くの研究がなされた。カリフォルニア大学バークレー校やハーバード大学、オックスフォード大学、ケンブリッジ大学などがそれぞれ、AIの倫理や安全性に関わるプログラムや機関を設置した。2016年には、アマゾンとマイクロソフト、グーグル、IBM、フェイスブックは共同で非営利団体AIに関するパートナーシップを立ち上げ、倫理的な課題に取り組むこととなった(アップルも今年1月に参加)。
各社はそれぞれ独自にも、自社のテクノロジーに対する安全対策の構築に取りかかっている。グプタ研究員は、グーグルは偏りのある機械学習モデルを調整したり、そもそも偏りが生じないようにする方法を研究中だと述べた。ホロビツ社長は、マイクロソフト内に設立されたAI倫理委員会(通称「AETHER(エーテル)」)について説明し、自社のクラウド内サービスとして、新たな意思決定アルゴリズムの開発などについて検討していると述べた。現在、AETHERの所属メンバーはマイクロソフトの社員ばかりだが、将来的には外部のメンバーも起用したい考えだという。グーグルにも、独自のAI倫理委員会が設置されている。
当然だが、こうしたプログラムを立ち上げた企業は一般的に、政府が人工知能の規制を新設せずに済ませるべきだという。しかし、ホロビツ社長はEmTechで、政府規制が必要との結論を招きかねない極端な事態についても取り上げた。
ホロビツ社長が2月に開催したワークショップでは、AIがどのように社会に悪影響をもたらすかをテーマに、専門家が詳しく説明し、株式市場や選挙結果に混乱が起きるなどの事例が挙げられたという。「AIの活用を進める立場なら、起こりうる事態を想像し、回避するためのメカニズムを今すぐ設置するでしょう」とホロビツ社長はいう。
極端な事態に関する話題は、ホロビツ社長と同時にEmTechに講演した一部の登壇者を当惑させたようだ。グーグルのグプタ研究員は、人間から意思決定の一部を取り上げることで、今よりも道徳規範のある社会を作れる可能性がどれほどあるかも考えたほうがよい、と述べた。
「機械学習は制御可能であり、狂いがなく、統計学的に評価できます。公平で倫理的な結果を手に入れられる、数多くの可能性があります」