2018年に私が人工知能(AI)の取材を始めたちょうどその頃、AIの世界では大きな警鐘が鳴らされていた。この年のAI研究には、強化学習や敵対的生成ネットワーク(GANs)、自然言語理解の向上などいくつかの驚くべき進歩があった。しかしその一方で2018年はまた、いくつかの目立った事例により、AIシステムが急速に展開された場合に危害を引き起こす可能性があることが示された年でもあった。
テスラ(Tesla)の自動車がオートパイロットでドライバーの死亡事故を起こし、ウーバーの自動運転自動車が歩行者を死亡させる事故を起こした。商用顔認識システムが肌の色が濃い人々の監査でほとんど使い物にならないにも関わらず、大手テック企業は司法当局などの顧客相手に販売を続けた。2019年の初めに、これらの出来事を鑑みて、私はAIコミュニティ向けに解決案を書いた。AIを魔法のように扱うのをやめ、責任を持って作成、適用し、倫理的に規制しようということだった。
いくつかの点で、私の願いは叶った。2019年には、これまで以上にAI倫理の話題が増えた。多くの組織がAI倫理ガイドラインを作成した。企業は、責任のあるAIチームを大急ぎで設立し、メディアの前で見せびらかした。今では、AI関連のほとんどのカンファレンスで、倫理関連の話題がプログラムの一部を占めている。「AIが大量のデータを必要とする場合、どのように人々のプライバシーを保護するか」「 どうすれば社会的に無視されたコミュニティから搾取する代わりに、彼らに力を与えられるか」「 アルゴリズムが偽情報を作成・拡散しているのを目の当たりにして、メディアを信頼し続けるにはどうすればよいか」といった具合だ。
…
- 人気の記事ランキング
-
- AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
- Promotion Innovators Under 35 Japan × CROSS U 好評につき第2弾!研究者のキャリアを考える無料イベント【3/14】
- Your boss is watching 機械化する人間たち—— 「見えない目」が変える 職場の風景
- OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet 限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」
- One option for electric vehicle fires? Let them burn. EV電池火災、どう対応?「燃え尽きるまで待つしかない」と専門家