超知能機械が世界を征服する可能性を心配することが流行った時期があった。2018年は、超知能機械によって世界が征服されること以前に、人工知能(AI)があらゆる種類の危険をもたらす可能性が明るみに出た年だった。
最新のAI手法は、画像の分類や音声の文字起こしなどの知覚的な作業に長けている。しかし、その種のスキルに関する誇大広告や熱狂のせいで、現実には人間と同程度に賢い機械を作るにはほど遠い状態にある状況が分かりにくくなっている。2018年に巻き起こった6つの議論は、最も賢いAIアルゴリズムでさえ予想外の行動を取る可能性があること、つまり、AIを不用意に適用すると悲惨な結果を招く可能性があることに対する警告として注目に値する。
1. 自動衝突車
ウーバーの自動運転車が2018年3月に死亡事故を起こした後の調査で、ウーバーのテクノロジーが、簡単に防止できたはずの破滅的な誤動作を起こしていたことが明らかになった。
フォードやゼネラルモーターズなどの自動車メーカーから、ウーバーのような新規参入企業、数多くのスタートアップまで、技術的に未成熟であるにもかかわらず、すでに数十億ドルもの資金を投じて自動運転テクノロジーの商用化を急いでいる。最先端を走っているのは、アルファベット(グーグル)の子会社であるウェイモ(Waymo)だ。2018年にウェイモはアリゾナ州で、世界初の完全自動運転タクシーサービスを展開し始めた。だが、ウェイモのテクノロジーにさえ限界がある。自律自動車はあらゆる状況下でどこでも走れるわけではない。
米国でも他の国でも、規制当局はイノベーションを阻害することを恐れて、これまで傍観主義的なアプローチを取ってきた。米国運輸省道路交通安全局は既存の安全規則を緩和する可能性さえ示している。だが、歩行者や人間のドライバーは、実験台になる契約を結んでいるわけではない。2019年に再び重大事故が起これば、規制当局の姿勢が変わるかもしれない。
2. 政治的操作ボット
2018年3月、政治コンサルティング会社のケンブリッジ・アナリティカがフェイスブックのデータ共有機能を不正利用して2016年のアメリカ大統領選挙に影響を及ぼしたとの記事が報じられた。その後に起こった騒動によって、ソーシャルメディアで話題になるニュースや情報を決定するアルゴリズムが、いかにして、デマ …