2018年に私が人工知能(AI)の取材を始めたちょうどその頃、AIの世界では大きな警鐘が鳴らされていた。この年のAI研究には、強化学習や敵対的生成ネットワーク(GANs)、自然言語理解の向上などいくつかの驚くべき進歩があった。しかしその一方で2018年はまた、いくつかの目立った事例により、AIシステムが急速に展開された場合に危害を引き起こす可能性があることが示された年でもあった。
テスラ(Tesla)の自動車がオートパイロットでドライバーの死亡事故を起こし、ウーバーの自動運転自動車が歩行者を死亡させる事故を起こした。商用顔認識システムが肌の色が濃い人々の監査でほとんど使い物にならないにも関わらず、大手テック企業は司法当局などの顧客相手に販売を続けた。2019年の初めに、これらの出来事を鑑みて、私はAIコミュニティ向けに解決案を書いた。AIを魔法のように扱うのをやめ、責任を持って作成、適用し、倫理的に規制しようということだった。
いくつかの点で、私の願いは叶った。2019年には、これまで以上にAI倫理の話題が増えた。多くの組織がAI倫理ガイドラインを作成した。企業は、責任のあるAIチームを大急ぎで設立し、メディアの前で見せびらかした。今では、AI関連のほとんどのカンファレンスで、倫理関連の話題がプログラムの一部を占めている。「AIが大量のデータを必要とする場合、どのように人々のプライバシーを保護するか」「 どうすれば社会的に無視されたコミュニティから搾取する代わりに、彼らに力を与えられるか」「 アルゴリズムが偽情報を作成・拡散しているのを目の当たりにして、メディアを信頼し続けるにはどうすればよいか」といった具合だ。
…
- 人気の記事ランキング
-
- The humans behind the robots 家事ロボット、実は8割は遠隔操作 あなたは受け入れられますか?
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- Can Afghanistan’s underground “sneakernet” survive the Taliban? タリバン政権下で生き残りをかける「コンテンツ密売人」たち
- The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
- The biggest AI flops of 2024 「7つの失敗」で振り返る 2024年のAIシーン