MSナデラCEOの人工知能発言
将来より現実はどうなのか?
マイクロソフトのサティア・ナデラCEOは、差別的な人工知能の出現に警告するが、不公平なアルゴリズムがすでにあることはどうするのか? by Tom Simonite2016.06.30
マイクロソフトのCEO、サティア・ナデラは、人工知能の力がいずれ私たちの生活を支配するのではないかと心配する。昨日Slate に投稿された記事では、コンピュータ業界は今や我々の人間性を尊重できるように人工知能を設計する方法を検討し始めるべきだと述べた。
「未来の価値や倫理をテック業界が独占的に支配するべきではない」
ナデラは「意図せずに他者を傷つけた時、人間がそれを取り消すことができるようなアルゴリズム上の説明責任」を求める。AIを搭載したスマートソフトウェアを設計する際は、その働きを人間が精査し、特定の人々への差別や個人情報の不正使用を未然に防げなければならいというのだ。
それは高潔で筋の通った配慮だが、テック業界のリーダーたちはこの問題をもっと早い段階で取り上げるべきだった。日常生活を形成するアルゴリズムやソフトウェアにも、すでに厄介なバイアスがひそんでいる可能性を示す証拠は山のようにある。
連邦取引委員会の報告では、インターネット以前の時代に非難されていた、人種的・経済的なバイアスが、ターゲット型広告やその他のネット上のサービスのなかで再び姿を見せている ということが明らかになっている。
ウィスコンシン州では、 犯罪者が再犯を行うかどうか予測を試みるシステム(これは刑期を決定するために使用されている)の動作が秘密であることを巡り、論争がある。
ちょうど今日、アメリカ自由人権協会が、 ネット上の仕事や住宅に関する広告に見られる人種差別を探す計画を掲げる研究者グループの代理として、アメリカ政府を起訴したところだ。ハッキングに関する連邦法と、テック企業の掲げる契約条件に阻まれて、このグループは計画を実行することができずにいるのだ。
ナデラが未来の人工知能の問題として語る事柄のうち、いくつかは今すでに、実際に起こっている。マイクロソフトの研究員ケイト・クロウフォードが、最近のニューヨークタイムズ の論説で、アルゴリズム上のバイアスについてわかりやすくまとめている。彼女によれば、ソフトウェアは「すでに職場や家庭、そして我々の法律システムに見られる不平等を深刻なものにしつつあるかもしれない」
ナデラは人工知能に関する未来予測の文章を次のように締めくくっている。
「AIに関する我々の探求において最も根本的な次のステップは、その設計のために倫理的で共感的なフレームワークを準備することだ」
AIに支配される未来に備えるなら、今すでに私たちを取り囲んでいる「まぬけな」ソフトウェアに対して、倫理的で共感的なフレームワークを適用するのが一番良い方法ではないか。
(関連記事:Slate, Vice, Ars Technica, New York Times)
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」
- トム サイモナイト [Tom Simonite]米国版 サンフランシスコ支局長
- MIT Technology Reviewのサンフランシスコ支局長。アルゴリズムやインターネット、人間とコンピューターのインタラクションまで、ポテトチップスを頬ばりながら楽しんでいます。主に取材するのはシリコンバレー発の新しい考え方で、巨大なテック企業でもスタートアップでも大学の研究でも、どこで生まれたかは関係ありません。イギリスの小さな古い町生まれで、ケンブリッジ大学を卒業後、インペリアルカレッジロンドンを経て、ニュー・サイエンティスト誌でテクノロジーニュースの執筆と編集に5年間関わたった後、アメリカの西海岸にたどり着きました。