「テスラ死亡事故裁判」から考える、AI社会の法制度のゆくえ
知性を宿す機械

How will AI and IoT-based society Influence the legal system? 「テスラ死亡事故裁判」から考える、AI社会の法制度のゆくえ

AIが引き起こした事故は誰が責任を負うのか。迅速な被害者救済が求められる一方で、厳格責任の拡張がイノベーションを委縮させるという指摘もある。AI、ロボット、IoT時代における賠償責任、AI企業の開発リスク等の考え方について、京都大学大学院法学研究科の稲谷龍彦教授が解説する。 by Tatsuhiko Inatani2022.11.02

人工知能(AI)やIoTの社会実装に伴い、従来の「人間中心」で考えられてきた法制度の前提が崩れつつある。経済産業省は2019年8月から「Society 5.0における新たなガバナンスモデル検討会」を開催し、「イノベーションの促進」と「社会的価値の実現」を両立する、新たなガバナンスモデルの必要性と、その在り方について検討を続けている。同検討会において、法学者の立場からSociety 5.0におけるAI開発企業のリスクや制度の見直しについて提言しているのが、京都大学大学院法学研究科教授で京都大学法政策共同研究センター「人工知能と法」ユニットリーダーを務める稲谷龍彦氏だ。稲谷氏にAI、ロボット、IoT時代における賠償責任、AI企業の開発リスク等の考え方について連続で寄稿いただく。

◆◆◆

AIやIoTを活用した、新たな社会が姿を現そうとしている。我が国において、「Society 5.0」と称されるこの近未来の社会では、AIやIoTの活用によってサイバー空間とフィジカル空間とを融合させることで、少子高齢化や気候変動などの社会課題を解決するとともに、新たな産業を創出すること、そして市民1人ひとりがより幸福を追求できるようになることが目指されている。しかし、何事にも光と影が存在し、それはSociety 5.0においても例外ではない。AIやIoTの活用は、従来の法システムでは対応困難な問題を生じようとしており、その対応を誤ればSociety 5.0の理想の実現は難しくなるだろう。

本稿は、Society 5.0が生じる困難を明らかにするとともに、Society 5.0を実現するための新たな法システムのあり方について、4回にわたって論じるものである。初回となる今回は、Society 5.0の孕む新たなリスクについて素描する。

法的責任制度:西洋近代哲学との結びつき
Society 5.0の生じるリスクをよりよく理解するための前提として、現在の法的責任制度の基本的な発想を素描しよう。民事責任および刑事責任の双方において、現在の法的責任の発生根拠は、故意または過失に基づく行為によって法益を侵害したことに、基本的には求められる。また、原則は個人責任であって、集団による責任は例外的とされる。

ここには、2つの前提がある。第一に、人は理性と自由意志によって、自らの行為を適切に統制できる主体(「人間」)であり、理性や自由意志を持たない客体(「事物」)は人の支配下に置かれるものである。第二に、様々な事象の発生原因は個別具体的に特定できる。これらの前提は、個人主義および分析的思考という西洋文化圏の世界観ないし思考様式と密接に結びついており、この意味で、西洋近代法は、西洋文化圏が近代に至るまで育んできた「哲学」の結実したものであるといえよう。

法的責任制度の動揺:テスラ死亡事故裁判の意味するもの
もっとも、この現在の法的責任制度は、西洋とは異なる文化圏に属する我々もよく慣れ親しんだものであり、我々の社会の基盤を形成してもいる。しかし、近時この法制度を動揺させるような事態が生じつつある。その例として、テスラ車の運転支援システムが関係した事故とその裁判を取り上げよう。

報道によれば(日経新聞の参考記事)、2018年4月に我が国の高速道路上で生じたテスラ車の関係する死亡事故、およびそれに続く2020年3月の裁判の概要は、以下のようなものであった。すなわち、高速道路での渋滞中に運転支援システムを使用した運転者が居眠りをし、システムの急加速という予期せぬ挙動に対応できなかったために、自動車の前方に存在した人々に衝突して、死傷事故を生じたというのである。

そして、本件に関する刑事裁判では、テスラ車の運転支援システムの不備が被告側から主張されたものの、運転支援システムには不具合が生じうること、および当該システムは、そもそも責任ある運転者の監督下で使用することが想定されているなどの反論がなされ、結論としては、運転者の前方注視義務違反を理由に有罪判決が下されたとされる。

一見この事案に困難な点は見当たらないように思われる。人間が機械を適切に取り扱えなかったことが、事故の根本原因だという理解は、先に述べた西洋文化圏の思考様式からすれば素直なものであり、したがって、法的結論としても妥当なものに思われる。

しかし、認知科学が示唆するところは、少し異なっている。というのも、自動化された機械と人が協調動作する際に、人間側の注意水準が低下する、または主体性感覚が失われることは、実験を通じて徐々に明らかにされつつあったからである。テスラ車の関係した事故ではしばしば注意を失った運転者が登場するが、彼らの心理状態は、仮に実験結果が正しいのであれば、自動化された機械の影響による可能性が否定できないのである。実際、本件事故に関しては、被害者遺族が、居眠り運転を抑止する機能が欠けていることなどを理由として、製造物責任などに基づく損害賠償訴訟を米国で提起し、注目を集めたところである。

また、低頻度でしか生じない事象には、たとえ訓練を積んでいても適切に対応できない可能性があるという認知科学の実験結果も存在する。このことは、皮肉にも、テスラ車の運転支援システムの性能が良いものであればあるほど、かえって運転者が事故を防げない可能性を示唆しているともいえる。

つまり、テスラ車の関係する死亡事故においては、「人間」が「事物」を支配するという前提も、個別具体的に事象の原因が特定できるという前提も崩れかかっているのである。むしろここでは、人と機械とが相互に影響し合いながら、その協調動作固有の結果として、危険な事象が生じているのである。

したがって、高度な運転支援システムが関係する事故について、一見不注意に見える運転者に法的責任を負わせたとしても、適切なリスクマネジメントには必ずしもつながらないといえる。

しかし一方で、運転支援システムを供給する側に、自動化された機械と人の協調動作がもたらす影響をも視野に入れてインターフェイスを設計すべきであったとして、生じうる事故の全責任を負うべきであるとするのも、行き過ぎである。というのも、どのようなインターフェイスが、どのような自動化された機械において、どのような影響を人に生じるのかについては、多くが未知のままであり、徒らな責任範囲の拡大は、技術の発展や実装を遅らせることで、かえって危険を生じうるからである。

むしろ我々が認識すべきなのは、Society 5.0においては、我々の現在の法制度の前提が妥当しない状況が生じつつあり、したがって、現在の法制度では適切に対応することが困難な事象が生じる可能性が高いという事実である。

今回は、Society 5.0における新たな法システムの必要性を理解していただくために、先進的な運転支援システムの関係した事故を取り上げ、現在の法制度の前提が崩れつつあることを指摘した。次回は、このような問題に対して、現在どのような議論がなされつつあるかについて紹介しようと思う。