主張:「アルゴリズム」を責任逃れの隠れ蓑にしてはならない
アルゴリズムに基づく意思決定が重要な場面で使われる機会が増えるにつれて、その社会的影響が問題視されるようになってきた。「アルゴリズム」と聞くと一般的に、客観的なデータに基づいて、人間には振る舞いを予測できないほど複雑な処理を実行していると思われがちであるが、実際にそうとは限らない。 by Rumman Chowdhury2021.03.05
意思決定システムを「アルゴリズム」と表現することは、人間の意思決定の説明責任を回避するための手段になりがちだ。多くの人にとってアルゴリズムという言葉は、客観的に立証できる経験的な証拠やデータに基づいた規則群をイメージさせる。あるいはまた、非常に複雑な、おそらく人間には内部の仕組みや実行時の振る舞いを予測できないほど複雑なシステムを暗示する言葉でもある。
だが、「アルゴリズム」の特徴をこのように理解することは正確なのだろうか。必ずしもそうではない。
例えば、12月末のスタンフォード大学医療センター(Stanford Medical Center)の新型コロナワクチンの配分ミスは配分「アルゴリズム」が原因である。これは最前線の医師よりも、管理幹部には都合がいいことだった。スタンフォード大学医療センターはその「非常に複雑なアルゴリズム」の設計にあたり、倫理学者の指導を受けたと主張した。当時、MITテクノロジーレビューが報道したように、代表者はこのアルゴリズムについて「明らかに正しく機能しませんでした」と述べた。多くの人がアルゴリズムという用語を、人工知能(AI)や機械学習が関わっているという意味に解釈したが、実はそのシステムは医療アルゴリズムのことであり、機能的に異なるものであった。人間の委員会が設計したのは、むしろ非常にシンプルな公式や決定木のようなものであった。
この食い違いは、増加しつつある問題を明るみに出す。予測モデルが急速に普及するにつれて、重要な意思決定に予測モデルが使われることに対し、一般の人たちはますます心配するようになってきている。政策の立案者たちは評価と監査のアルゴリズムに関する規範を構築し始めているが、まずはそうした政策の適用対象となる意思決定や意思決定支援ツールの範囲を定義する必要がある。「アルゴリズム」という用語を好きなように解釈できるまま放置しておけば、大規模な影響力を持つモデルの中には、そうしたシステムが人間に被害を与えないように考えられた政策の手の届かないところに行ってしまうものも出てくるだろう。
いかにしてアルゴリズムを識別するか
では、スタンフォード大学の言うところの「アルゴリズム」はアルゴリズムなのだろうか。それは定義による。普遍的に受け入れられている定義は存在しないが、コンピューター科学者のハロルド・ストーンが書いた1971年の教科書に由来する一般的な定義がある。ストーンは「アルゴリズムとは、作業の手順を正確に定義した規則群である」と述べている。この定義には、レシピから複雑なニューラル・ネットワークまで、あらゆるものが含まれる。この定義を基準とすれば、監査政策は笑ってしまうほど幅広いものとなってしまうだろう。
統計学や機械学習において、我々は通常アルゴリズムのことを、コンピューターがデータをもとに学習を実行する際に与える指示のセットであると思い浮かべる。こうした分野では、学習の結果として得られる構造的な情報を「モデル」と呼ぶのが通常である。コンピューターがアルゴリズムを通してデータから学習する情報は、個々の入力値に掛け合わせる「重み付け」のように見えるか …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」