本文へ移動

AI時代における自動運転車の社会的ルールの在り方検討サブワーキンググループ(第1回)

概要

  • 日時:2023年12月25日(月)16時00分から18時00分まで
  • 場所:オンライン
  • 議事次第:
    1. 開会
    2. 内容
      1. 事務局説明(検討会の背景・目的、現在地の確認、海外制度比較、想定論点等について)
    3. 意見交換
    4. 閉会

資料

議事録

蓮井審議官: まず、事務連絡でございます。本日の会合は完全オンラインでの開催となります。構成員の皆様には、会議中カメラオンで、発言時にはマイクのミュートを解除いただき、発言をお願いいたします。なお、他の方がご発言されている際にはミュートにしていただければと思います。また、傍聴者の方はカメラマイクもオフでお願いいたします。次に資料を確認いたします。事前にお送りしております議事次第に記載のとおりとなりますが、資料は議事次第、構成員名、事務局説明資料構成員提出資料となります。お手元にない等の状況がございましたら、Teamsのチャット機能もしくは事務局までメールにて問い合わせいただければと思います。本グループの構成員のご紹介につきましては、時間の制約もございますので、失礼ながらお手元の構成員名簿の配合をもちまして、ご紹介に代えさせていただきます。本日の出席状況でございますが後藤構成員、須田構成員及び藤田構成員が途中からご出席予定です。また須田構成員は途中でご退席される予定と伺っております。なお、本会合の資料及び議事要旨は原則後日公開となりますことをご承知ください。事務連絡は以上でございます。それでは、ここから進行は小塚主査にお願いしたいと思います。小塚主査よろしくお願いいたします。

小塚主査: 主査の小塚でございます。早速ですが、議事次第に従いまして進行させていただきます。まず、サブワーキンググループの開催にあたり、河野デジタル大臣がご挨拶してくださるということですので、頂戴したいと思います。河野大臣、よろしくお願いいたします。

河野大臣: 本日は年末も押し詰まってお忙しい中にもかかわらず、ご参加いただきましてありがとうございます。自動運転について議論いただきますが、自動運転は、交通事故の減少による交通安全の向上はもとより、無人運転を可能とすることによる運転手不足の解消など、我が国が抱える社会的課題を解決するために非常に重要だと思っております。特に、人口減少が急速に進むなか、働き手が不足し、過疎地域を中心に公共交通機関のドライバー不足が深刻になってきております。このような課題を解決し、地域の住民がそれぞれの地域で便利でかつ豊かな生活を送ることができる社会を築いていくためには、日本の持つ技術力を最大限に発揮し、自動運転を、もはや技術実証ではなく、なるべく早期に実用段階として社会実装していくことが必要であります。また、自動運転の技術がこれからの自動車産業の中で非常に重要な技術となり、かつてのパソコンのように、パソコンというハードウェアではなく、それを動かすためのソフトウェアがコアバリューとなるという関係に、自動車と自動運転もなり得るという状況だと思います。岸田総理からもデジタル行財政改革会議において、自動運転の社会的ルールをはじめ、新たなモビリティサービスの積極的な事業化に向け、必要な環境整備を加速せよという指示をいただいております。この必要な環境整備の一つとして、自動運転に関する社会的ルールが挙げられます。無人の自動運転車による事故が発生した場合、これまでの運転者の存在を前提としている制度では、誰にどのような責任が問われるのかという予測可能性がないために、様々な形で自動運転に関わっている方々が責任追及を恐れて萎縮してしまい、事業者が自動運転の運行に参画する上での大きなリスクになっているという指摘があります。実際に、東京オリンピックの選手村の中で自動運転車が接触事故を起こし、その責任の追及が極めて長期にわたったということから、既に萎縮が始まっているという指摘がありました。このままでは実用的な自動運転技術が国内で育たず、国産技術が消えていくことに繋がりかねないと思っております。ここでいう国産技術、即ち自動運転の技術が消えてしまうと、日本の経済の柱の一つである自動車製造業にも極めて大きな影響を及ぼしかねないと思っております。その意味で、これからこのサブワーキングでご議論いただく内容は、今後の自動運転の普及ということだけでなく、日本経済の今後を左右しかねないと言っても過言ではないと思っております。先々は別として、まず今日、この時点では、安全面へ最大限に配慮しながら、十全な被害者救済を図ることは大前提とした上で、自動運転を国内で速やかに社会実装をしていくために、どういうルールが必要なのか、何をすべきか、という観点を中心に議論をいただきたいと思います。自動運転が社会の中で実装されるようになり、普及の段階が終わった後に別のルールを作るという事は考えられますが、今日、この時点では、どうすれば自動運転の社会実装を国内で速やかに進められるかについて深く議論いただきたいと思います。その上でデータの収集・分析・活用による事故の未然防止に向けた仕組みの構築をはじめ、予見可能性を引き上げるための様々な工夫など、事業者の皆さまが積極的に新たな技術の産業化に取り組めるような社会的ルールと、それを巡る環境の整備についても結論を出していただきたいと思います。日本の未来にとって極めて大事な議論だと思いますので、どうぞよろしくお願い申し上げます。

小塚主査: 河野大臣どうもありがとうございました。私どものサブワーキンググループの任務が非常に重大であるということがよくわかりましたので、しっかりと議論をしてまいりたいと思います。続きまして議事の2ということで、事務局からの説明を頂きます。検討会の背景、目的、それから現在地の確認、海外制度比較、想定論点等です。後ほど、構成員の先生方に名簿順でご意見を頂戴しますので、そのことを予めお含み置きいただき、事務局説明をお聞きいただければと思います。ご説明は、事務局であるデジタル庁からいただくということになっております。須賀参事官よろしくお願いいたします。

須賀参事官: 資料3:事務局説明資料に基づき、検討会の背景・目的、現在地の確認、海外制度比較、想定論点等について説明。

小塚主査: ありがとうございました。情報量が豊富なご説明を短時間で頂きまして、ありがとうございます。それでは議事次第3の意見交換に進みたいと思います。第1回ですので、構成員の皆様から1人ずつご意見を頂きたいと思います。今の事務局説明に対するご意見もありましょうし、より広くAI時代における自動運転車の社会的ルールのあり方ということについてのご意見でも結構です。最初に建付けを確認しておきますが、当サブワーキンググループの議論が取りまとめられた後に、デジタル行財政改革会議及びモビリティワーキンググループに対して報告されるということになると承知しておりますのでご理解いただきたいと思います。また、モビリティワーキンググループにおいて、当サブワーキンググループの報告を踏まえまして、検討の時間軸を設定した上で関係各省庁に必要な検討を依頼するということになるわけです。本日は、まず論点出しと言いますか、どういう問題があり、対処していくべきかということをご指摘いただきたいです、途中に法的な民事や刑事への責任等の図がありまして、法律家というのはすぐにそれらを見ると、こういう問題もあるのではないかといったことや、もっとああいうことも成り立ちうるのではないかといった議論をすぐ始めるのですが、本日はそうではなくて、もう少し論点を指摘していく、今までの事務局の説明に漏れているものがあるのではないかと、そういったことをご指摘いただければということです。そして短期的に解決することができるもの、あるいは短期的には解決が難しいもので、中長期的に解決すべきものといった時間軸を意識してご発言をいただければ幸いです。時間が限られておりますので、大変恐縮ですが、名簿順でご意見を頂きたいと思います。おひとり4分程度と時間まで区切らせていただきましてお願いしたいと考えております。名簿順で申しますと1番上に稲谷先生がいらっしゃいます。では、4分程度お願いできますでしょうか。

稲谷構成員: 稲谷でございます。よろしくお願いいたします。私の方からは、本サブワーキンググループの開催に先立ちまして、意見書及びその背景、理由を説明しております別紙を提出しておりますので、詳細についてはそちらをご覧いただくことといたしまして、意見書の骨子にあたる部分について簡単にご説明をさせていただきます。私の意見書のアウトラインは、先端科学技術の法ガバナンスにおいて問題となります、規制側と被規制側との情報の非対称性や規制の陳腐化に対応すべく、アジャイルガバナンスの考え方に則って、民間側の創意工夫やイノベーションを活かしながら刻々変化するリスクに法システム全体として進化し、迅速に対応できるよう法制度を整備するべきであるというものでございます。まず行政規制について、性能規定等を利用した認証制度等を利用することで、民間側の創意工夫やイノベーションを活かす形で自動運転車の安全性を確保することを提言しております。もっともこのような制度を導入いたしますと、近時も問題になっておりますが、被規制側のモラルハザードのリスクを高めますので、これを防ぎつつ、法システムのアップデートに必要な情報を確実に提供させるようなインセンティブを与えるという観点から、望ましい民刑事責任制度及び制裁制度についても提言をしております。民事責任制度ですが、現行法の過失や欠陥、あるいは障害といった概念が、確率的に挙動するAIの特性や複数の構成要素間の相互作用によって問題を生じるAIシステムの特性に合致しているのかといった点についての検討も含め、AIシステムから生じるリスクを管理できる主体に、そのリスクを適切かつ継続的に管理するためのインセンティブを実効的に付与するという観点から、自賠責法や製造物責任法、さらにはAIシステム全般に関する一般的な民事責任法の望ましい在り方について、厳格補償責任等の採用も視野に入れて検討を進めること等を提言しております。次に刑事責任制度でございますが、現行法の過失の概念をAIシステムについて適切に解釈、運用することの困難性に伴う不確実性を解消するべく、例えば許された危険の法理を性能規定等と組み合わせて制度的に正当化しうるような形で運用することで、開発者等が個人責任を恐れて過剰に萎縮しないように配慮すること等を提言しております。また、一方で企業によって提供される製品やサービスの安全性は、当該企業の企業風土等がもたらすガバナンスやコンプライアンスの機能不全等の構造的な問題に起因することも多いことから、安全性に関する性能規定等の要求水準を満たさない自動運転車等を供給した企業、あるいは安全性に関する性能認証等において虚偽の申告を行った企業、または安全性に関する調査報告の過程で、調査不協力や妨害等を行った企業等に対する厳格な制裁制度を整備するとともに、いわゆる訴追延期合意制度や公益通報者等報奨制度等を導入し、問題の兆候を看取した、あるいは自社の関係する製品・サービスが事故を起こした企業が自主的に製品やサービスの安全性に関する必要な情報を提供し、悪意ある個人が存在する場合には、その者に関する情報を提供し、また組織の改革や製品の改善に取り組むことを制裁対象企業が約束する場合には、管轄官庁によって訴追を延期する手続きを整備することで、企業が自動運転車等の複雑なAIシステムの安全性を継続的に維持・向上させるインセンティブを実効的に付与すること、及びこのような制度を民事責任によって与えられるインセンティブと整合する形でAIシステム全体に展開していく必要について提言をしております。自動運転車等のAIシステムに関する安全性については、関係する省庁が現状多数にのぼり、一元的で迅速な取り扱いが困難であることから、AIシステムに関する責任あるイノベーションによる安全性の促進について、一元的に取り扱う官庁を創設し、航空システム等の持続的に安全性を向上させてきた事例等も参考にしながら、実効的な安全性管理及び事故調査制度を整備することも提言しております。なお、この自動運転車の安全性に関する情報収集については、訴追延期合意制度等を活用し、企業自らが積極的に管轄官庁に情報提供するインセンティブを付与することで、管轄官庁の人的物的資源の不足や国境を越える調査捜査などに伴う問題の解消を図るべきであると考えます。最後に法システム全体の進化に係る点ですが、自動運転車等のAIシステムの安全性を法システム全体で確保していくことを目指し、企業の健全な競争を阻害しないよう、適切なビジネス上の配慮を行った上で安全性を監督する官庁の主導で、安全性等に関する必要な情報を必要な範囲で迅速に共有し、また必要に応じて性能規定等や認証基準・方法の在り方を適宜に見直すことのできる仕組みを導入することも提言しております。なお私見は主として2、3年先を見据えた中期的なものが多いですが、許された危険の解釈・運用の制度化や事故調査制度の強化に関する論点、特に訴追延期合意制度の導入、あるいはその導入へと繋げるために、企業が調査に真摯に協力するインセンティブを増やす制度については、可能な限り早期に実現するべき問題であると考えます。少し長くなってしまいましたが、私から以上でございます。ありがとうございました。

小塚主査: ありがとうございました。この意見書というのは、事務局から構成員に後で共有することは考えていますか。

須賀参事官: 先生がよろしければ、公表もさせていただければと思います。後でリンクを共有させていただきます。

小塚主査: ありがとうございます。それでは、他の先生方も意見書をご提出いただいたようですので、それぞれ先生に確認した上で共有していただければと思います。先程名簿順と申し上げたばかりなのですが、先に退出される先生がいらっしゃいますので、少し変更させていただきます。須田先生にこの段階でご発言いただけますでしょうか。

須田構成員: 東大の須田でございます。遅刻してまいりまして、失礼いたしました。5時半には出なければならないので、先に説明させていただきたいと思います。私自身は法律の専門ではなく、機械工学が専門でむしろ開発側、研究側の人間でございます。今までに事故調査に関してはかなり現場で担当してまいりました。最初に2000年の3月に起きた日比谷線の脱線事故の検討会のメンバーとして事故調査にあたったことがきっかけに、その後事故調査委員会、運輸安全委員会の専門委員として福知山線の脱線等を担当してきているという経験がございます。この原因究明と再発防止がやはり最大かつ重要な関心事と思っています。実は自動運転についても事故調査委員会が今できているのですが、今のところ独立した存在で無く、警察庁と国交省の物流・自動車局、道路局の3局のサポートで得られているということと、調査の権限が無いということ、この前も一応様々な案件を担当させていただきましたけれども、具体的にヒアリングができないというようなことがあり、是非早急に運輸安全委員会のような仕組みを作っていただくというのが非常に重要と思っているところでございます。ただその時に、ヒアリングができるといっても真実を喋っていただいて、その情報を皆様に共有するということになると、いろいろな工夫をしなければならないのではないかと思っております。関係者の証言というのは非常に重要だと思いますので、責任追及の場ではないということを明確にすることが重要と思います。このあたりは法律の専門家ではございませんけれども、むしろ我々としては一定のルールの基に刑事責任の免責制度というようなものも整備していただくということが非常に有効に作用するのではないかと思っております。日比谷線の事故の時に感じたのが、事故関係担当者は悪意があってやっていたわけではなく、世のため、人のためにと思って仕事をしてきているというところです。ちょうどそのころ起きたのが遺跡の捏造事件であり、その時のその遺跡の捏造は全く悪意があって行っている話でありますが、これは全く刑事事件ではないということになり、矛盾を感じたという経験がございます。そういうことから、悪意がないという点についてどういう風に考えていくのか、という点が重要ではないかと思っています。その時は、地下鉄の技術担当者が書類送検されました。近頃でも、横浜の新交通システムのシーサイドラインが逆走して衝突し、怪我人がでるという事故がありました。その時も結局、製造会社の当時の担当者とその上司が書類送検されたということが実際に起きております。そういうことから言うと、自動運転の開発についてきちんとしたルールを制定して欲しいと思っております。また、長期的な観点から考えると、刑事事件については個人ではなく法人に科すというようなルールも必要ではないかと思っております。また、自動運転に関するルールについても、様々な法律のもとにあるのではなく、一元化した法律を作っていただくという考えも大切なのではないかと個人的には思っております。また、自動運転の社会受容性を高めるためには被害者救済が非常に重要だと思っております。それについても、既にルールができつつあると思っておりますので、広く国民に知ってもらうために啓蒙活動していただくことが重要であると思っております。私はどちらかといと開発側、事故調査側の立場ではございますが、私見として述べさせていただきました。どうもありがとうございます。よろしくお願いします。

小塚主査: 須田先生、お忙しい中、ご出席いただきましてありがとうございました。いろいろ貴重なご指摘だったと思いますが、先に進ませていただきます。それでは名簿順に戻らせていただきます。今井先生、ご発言いただけますでしょうか。

今井構成員: PDFが共有して見られるようになっていると思いますので、この順番でお願いいたします。 私は刑事法、刑法が専門ですので、その観点から意見を述べたいと思います。
本日の冒頭のプレゼンでも運転者がいない、ドライバーレスだと言うお話がありました。しかしながら、現在では、ODDの中ではドライバーレスでありますが、遠隔から人が監視していたり、あるいは遠隔でなく現場措置をする人なども配置される予定であります。
そのため、完全無人化になる過程においては、関連している人に対してどのような刑事責任を追及するのが適当かということが問題となります。また、先ほどの冒頭のプレゼンでもありましたが、AIがセルフラーニング機能などを強化し、設定者の範囲を超えたデータ処理ができるようになった時に、それが事故に繋がった場合に誰がどのように責任を問われるのか、というようなことを考えています。全体の構成として、短期的には、現在関わっている人に対するどのようなメッセージを出すか、長期的には、人を越えて、AIがデータ処理をし、そして事故が起きたときにどのようなことになるのか、ということであります。まず前提となる理解として、資料上に図が書いてあります。ご案内のことではありますが、ODD内の自動運転というものはレベル3とレベル4であります。また、ODD外の自動運転でないものがレベル2、レベル1であります。今日のお話の焦点はレベル4以上であると思いますが、レベル4を理解するためには、まずレベル3を確認しておく必要があろうかと思います。レベル3はレベル4とレベル2を合体したものであると思います。すなわち、テイクオーバーリクエストがかかるまでは、レベル3の段階でもレベル4と同じ走行をしています。その後、テイクオーバーに従って人間が運転挙動をオーバーライドするとレベル2以下に落ちるという形になっています。ここで言いたいことは、現在までのレベル3に関する議論がレベル4以上を見たときにも役に立つであろう、それを活用したいということです。そして資料下の方のとおり、レベル3でもレベル4でもODD内の自動運転から非自動運転に移行する局面があるということです。現在でもレベル4で遠隔操作をしている時は人がいるということを忘れてはいけないだろうと思います。レベル4で仮に事故が起きた場合、どういう人が処罰対象として上がってくるのかということを資料に書いております。例えば、特定自動運行主任者は、機能的には遠隔監視者に相当するかと思います。そのような自動運転車の車体を作った人、そこにADSを設置した人、それを売った人、そして、ADSのアルゴリズムを作った人、その電気通信などに関してサービスを提供する人など、様々な方がレベル4での自動運行の実現に関与されています。従いまして、現時点におきまして、レベル4の車により不幸ながら人の死傷という結果が生じた場合には、恐らくこのような人々がどのような注意義務を払っていたのかという過失の有無の認定が問題となってくると思います。具体的には、と書いておりますが、特定自動運行主任者等の人たちは現在日本では運転者として認定されてはいませんが、仮に刑事法学的な観点からドライバーと認定されれば、彼らにおいては過失運転致死傷罪に言う過失の有無が問題となりますし、また、彼らが運転者でないということになりますと、運転者を主体とした過失運転致死傷罪が適用されないため、業務上過失致傷罪に言う過失の有無が問題となると思います。この過失の認定自体が大変難しいのですが、それに加えまして因果関係の問題、それからディレンマ状況ということで、事故が起きた際、より大きな利益を保護するためにより小さな法益を侵害してしまったという場合には、緊急避難によって違法性が阻却されるのではないかという問題も出てきます。因果関係の問題は東名高速自動車道で起こりましたテスラの事件、レベル2でありますけれども、そこでも実は問題になっているのですが、学会におきましても関心が低く、これまでにその問題を扱った論文を見ていても、因果関係が実は微妙だったのではないかと指摘をした人はおられませんでした。これは次の長期的な課題にも関係してきますけれども、現在、人がAIとかかわりあって自動車の挙動を作り上げているときには、因果関係、過失などを検討する前提として、違法な法益侵害というものがあったのか、ということを考えなければいけません。この辺りはまだいろいろな論点が錯綜しているような状況でありまして、明確な形が刑法学会の中でも出ていないのが現状です。その中で最近注目されますのが、いわゆる倫理的なガイドラインというものを作り、それに従っている場合、関与している人々の刑事責任が減免されるのではないかと言う議論が出てきているということです。次に、その「短期的論点:倫理ガイドラインではなく技術ガイドラインの精査」ということに移ってください。私の結論としては、倫理ガイドラインというのは大変有益で知的な作業ではあると思うのですが、そこでは非常に規範的で曖昧な言葉が使われているがゆえに、受け手にとっては何をすべきかが明確ではないと考えております。さらに、そのガイドラインに従ったからといって、特に刑事責任が減免される保証はないので、刑事責任の減免に役立つガイドラインを作り上げるべきであり、そのようなガイドラインは技術的なガイドラインであろうと思います。どのようなガイドラインであったとしても、その目的には、自動運転に無関係の人の生命、あるいは身体を犠牲にして自動運転に関係しているものの生命を保護して良いのかなどの問題に対する方向性を示すことが含まれると思います。まずは人の命を大事にすることが重要であり、それとの関係で、倫理ガイドラインが議論されることは分かるのですけれども、倫理観は多様でございます。ソフトローの役割は大変重要なのでありますけれども、例えば、熊がたくさん出てきて、人に迷惑を与えていて殺処分されるわけですけれども、それについてもいろいろな考えが出ていることから見ても、いろいろな価値判断があります。それを、規範的な言葉だけで整理できたかのように纏めてしまっても、自動運転の開発に関与している人々に向けては、あまり効果はないだろうと思います。そこで私が考えているのは、レベル3の実装も踏まえ、ODD内の事故発生確率などを統計データから分析して、このあたりは危ないとか、こういう挙動が想定される場合には例えば速やかにテイクオーバーリクエストをかけるべきであるとか、あるいは、ODDを認定してはならないというような措置をすべきではないかと思います。このことは、自動運転車に係るADSの設定段階から、技術者と法律家が共同して、統計学を利用した上で何がどこまでできるかを示していくべき課題だと思っております。その具体的なことは資料に書いてあります。また、許された危険論ということについても記載しております。先ほど稲谷先生はこれの活用をおっしゃっておりまして、私は、ここは結論を先取りで不適当書いておりますが、稲谷先生が言われたように性能、機能等に着目するというアプローチであれば、私もそれは使えると思います。この許された危険論は、カール・エンギッシュという学者が初期に書いたものの中でも出てきており、そのベースにはイギリスの行為功利主義の影響も認められるようです。その点からも、AI時代に規範論だけを主張しても効果的ではないだろうと思っております。ガイドラインの作り方としては、当時の技術水準、state of the art、これはPL法等でも言われますが、これを踏まえてどこまでの措置を執っていたのかを、淡々と調べ上げていくに役立つような内容がよいと思っております。その前提としては、許された危険論についての実態の解明にもありますように、厳密な解釈論が前提とされなければならないと思っております。長期的課題としては、レベル4を超えてレベル5に至った際に、あるいはレベル4でもODD内で人の監視者の手を離れてAIが勝手にデータ処理に基づいて新たな挙動を構成しているような場合、ブラックボックスが様々なところで出てきます。事故が起きた時には、例えばそういう時はコネクテッドカーも多く走っておりますので、どの車からのデータがどこで処理されてこのような挙動が選択されていたのか、それを判断するのは非常に難しいです。因果関係を現在の刑法理論を用いて認定することは、できなくなるでしょう。過失につきましても、規範的な発想では対処できないので、どのようなデータ処理の可能性があり、どこまでのことを考えていたか、バッファーをとっていたのか、その切断されたときにどうする事を考えていたかなど、技術的なことを踏まえてなすべき事を想定しなければ、技術者の方々は怖くて、いつ自分が過失犯、あるいは故意犯で処罰されるか分からなくなってくると思われます。法律家は、冷静に技術者の方とお話をして、過失のあり方を再検討すべきだと思います。また、先ほど須田先生からも法人処罰の話も少しあり、それの延長かもしれませんが、AIが1人でデータ処理しているのであれば、AIを処罰すれば良いのではないかという話も出てきております。
脚注1に私が今年国際刑法学会で日本の代表の一部としてご報告したものがありますけれども、国際刑法学会でもまだAIの法人格性、あるいはそれを犯罪主体としてどのように捉えていくかという話は、始まったばかりの研究でございますが、おそらく進展は早いため、その点も考慮しながら、刑罰適用のあり方とAIへの及び方を検討していくべきではないかと思っております。以上です。

小塚主査: ありがとうございました。大変恐縮でございますが、おひとり4分程度というふうにお願いしておりますので意識していただければと思います。次は落合先生よろしくお願いします。

落合構成員: 3ページ目ですが、基本的な視点としまして、最初のご説明でもございましたが、やはり短期政策の確定が重要ではありますが、中長期と解離するものになってしまうと良くないかと思います。検討の視点としては、ひとつはアジャイルガバナンスが重要になるのではないかと思っております。AI等による複雑なデータ処理が行われ、また、複数のシステムが連携する中で、なかなか将来に関する予見可能性・統制可能性が著しく限定されることがあると思います。行政規制の中では、すでにデジタル原則などの中で実装化・性能規定化されて用いられておりますが、民事刑事の責任制度についても、事業者の自発的なリスク対応、改善措置を加速させることを目指すことにつなげるという意味での、アジャイルガバナンスについて考慮していただけるとよろしいかと思います。
続きまして、視点として、今後の検討に当たり、やはりフィジカルのサイバーインフラが前提となった自動走行の実装がされるということだと思いますので、どういう環境で実装化されるのかということは、前提として重要かと思います。また、技術変化の関係について、自動走行技術が、社会実装に迫ってきている一方で、全体として交通事故の削減や、交通渋滞の緩和等に関して有効であるという警察庁の資料で整理もされており、自動走行の可能性が実際に実現していくことに向けた議論が必要であるかと思います。そういった中で法的制裁の要件が、全体としては安全になっているにもかかわらず、逆に緻密になって余計難しいものになり、むしろ高度な注意義務が必要になり、萎縮効果を及ぼすということについては避けていくということが必要ではないかと思います。一方、自動走行自体については、人口減少社会、2024年問題の中で非常に重要な論点になってきているかと思います。
次のスライドは参考資料というところでございます。その次のページも参考資料で必要性に関する部分というところです。さらに次のスライドお願いいたします。視点についてでありますが、自動走行の乗車者への関与については、レベル4以上では限定され、または、レベル5では存在しないという状況なっており、その中で具体的な事故の発生防止に寄与することが困難になってくると思います。また、大臣からもご指摘があった萎縮効果を防止することも含めて、特段の事情がない限り、事故に関して乗車者が免責されていくような形を目指していくことが必要ではないかと思っております。自動走行の開発者や事業提供者についてですが、やはり民事において被害者への補償は完備されることが必要ではないかと思いますが、加害者としての開発者や事業提供者への応報や、第三者の抑止効果については、須田先生もお話があったかと思いますが、必ずしも刑罰を執行することによって実施されるものでもないように思っております。どちらかというと、刑罰を健全な改善に向けたインセンティブ構造を有するように設計していくことが重要ではないかと思っております。次のスライドお願いいたします。中期的な検討の方向性ということで、行政規制との関係では、サイバーフィジカルのインフラがどうなるのかを特定しながら、継続的改善や、被害拡大防止を目的とし、性能規定等も組み込んだ規定の整備が必要になるかと思っております。
また、民事責任については、責任制度の変化によらず、適切に補償がされるということが必要であり、その意味では補償保険の制度の整備が重要であると思います。責任制度については、開発者やサービス提供者のリスク管理改善のインセンティブ設計という観点で、自賠法や、製造物責任法なども含め、システムに関する責任を含めた整理が必要ではないかと考えております。この点について、稲谷先生等も入っていただいた私の所属している研究所で検討した研究の提言、要旨なども添付させていただいております。
次に、刑事責任に関して、個人に関する過失による刑事責任が、原則として免責されていくような方向が必要なのではないかと思っております。一部の行政規制違反や、故意による行為の処罰は維持が必要でありますし、原因究明への協力、事故・拡大防止については、むしろ強化をしていくことが必要と思っております。全体としては、刑事制裁制度の整備、これは稲谷先生の方がお話された点と共通する部分がありますので、省略致しますが、事故調査との関係では、やはり飛行機事故ですとか、独占禁止法の公取委なども含めて、高度な分析が必要になるということが、自動走行の場合はより明らかだと思います。これには2つ視点があると思っております。業界内での情報共有の場合、そして事故処理の双方の観点で、それぞれの調査制度を整備していくことが重要ではないかと思っております。
本日の資料の刑事民事の責任等について、具体的な場面を想定しておらず、抽象的に全ての関係者に責任が及ぶかのような表現になっているかと思います。このままの状態ですと萎縮効果が生じるということは避けられないと思いますので、具体的な場面を前提にすることや、具体化をすることによって合理的な責任分担に関する議論をして行きながら、責任が及ぶ範囲が無限定にならないような整理を見せていくことが重要ではないかと思っております。
次が最後のスライドになります。検討の進め方として、法改正を伴わず実施できる対策や、基本法における基本原則は、基本概念の変更を伴わない範囲で、まず議論をして行くということがスピード感を持った検討にあたって重要ではないかと思います。また、ガイドラインの整備ということで、実際の法的判断に関して、一定のセーフガードになる可能性があることを踏まえて、ガイドライン等で明確化を行っていくことが重要ではないかと考えております。また、専門機関が事故調査に関する役割を担うことによって、責任追及に関する事実上の予見可能性が高まるなどの点を踏まえて、事故調査制度に関する整理、議論は、早急に進めることが必要ではないかと思います。なお、特例での実証を仮に考えていくとすれば、軌道上での立証責任の転換のように、バーチャルレーンの設定のようなものを国家戦略特区等で実施していくということも、地域を限定してあり得るのではないかと思っております。こういった様々な手法の実験を踏まえながら議論を深めていけるといいのではないかと思っております。

小塚主査: ありがとうございました。それぞれのご知見で様々なことを議論していただくのですが、時間が非常に押してきており、20分、スケジュールよりも押しているそうですので、おひとり4分ということでお願いできればと思います。次の後藤先生は、途中からお入りいただいたということですので、少し考えていただきます。それでは酒巻先生、ご発言いただけますでしょうか。

酒巻構成員: 私の専門は刑事法学ですので、特に古典的な刑事法学の観点からと、刑事法というのは、経済合理性だけでは動かすことができず、人の情念が関わっておりますので、そういうことも含めてお話しします。第1に自動車の事故に起因する古典的な運転者の刑事責任、車両等の製造運行管理者の過失に起因する刑事責任に関する事柄、第2に交通事故に対する犯罪捜査と事故原因調査との関係に関する事柄についての私の問題意識を述べさせていただきます。なお、刑事責任に係る現状は、今日の配布資料2の6の1と2に図示されていますので、それを併せてご覧いただければと思います。
自動車事故事案で刑事責任、つまり、刑罰の適用実現が問題になるのは、いわゆる人身事故に限定されます。これには必ず生身の被害者や、亡くなっている場合にはご遺族がいるということに、常に留意しなければなりません。後で本日委員としてご発言されるであろう高橋正人弁護士は、犯罪被害者の権利利益の向上・実現に長く尽力され、私自身も被害者の権利利益の拡充、立法化に関する法制審議会の場などにおいて、犯罪被害者支援に係るご主張、ご意見に接してきたところでございます。また、被害者支援団体の一般への啓蒙活動もあって、被害者に対する配慮に関する社会的関心は相当高まっています。他方で、同じ犯罪であるとはいえ、凶悪な殺人事件と、自動車事故に起因する傷害や死亡とはやはり事情が違うという、そういう社会的認識も無いわけではないと思います。もちろん、殺人行為に近い無謀な危険運転など、そういう形になってしまった自動運転は別ですけれども、自動車に起因する死傷はまさに「事故」なのだから、一般犯罪とは違う扱いもできるのではないか、運転者は誰でも犯罪者になりうるという現状でよいのかという意見も無いわけではありません。ところが、日本では、おそらく諸外国に比べても、交通死亡事故に対する刑事責任は相当重いレベル、他の犯罪に比べてもかなり重い極限にまで刑が引き上げられているというのが現状です。立法政策としての当否は別にして、これは国会を通じた日本社会の交通死亡事故に対する国民感情の表明であり、事故被害者やそのご遺族の応報感情・処罰感情とそれに対する社会的共感の表れと見ざるを得ないので、このことは相当重視しなければいけない点だと思います。以上のような状況を勘案しますと、長期的な展望として、人身交通事故の刑事制裁を緩和したり軽減したり、あるいは免責する、それを通じて金銭的な制裁や損害填補の道を拡充したり、あるいは通常の刑事訴追とは異なる別の訴追ルートを作ったり、あるいは一部過失犯類型を非犯罪化するなどは、それぞれ純粋制度設計の観点からは合理的な側面がありますが、ほとんど不可能だろうと思います。ただし、道路交通法以外のいわゆる行政取締法規で、交通事故の規制に関わる、あるいは自動車を作るところに係る処罰規定については、個別の規定の実効性確保の観点から現存する罰金刑等の刑事制裁の有効性を再検討して、一部非犯罪化するといった余地はあるかもしれません。
次に、人身交通事故は、刑事責任追及の対象になっているため、現在、その原因調査は第1次的には刑事訴訟法に基づく犯罪捜査として実行され、その目的はあくまで将来の刑事訴追と処罰に向けられた証拠の収集と、運転者の過失の認定になります。その結果の一部は、おそらく事故原因の解明にも資する可能性はありますけれども、将来の事故予防や機器等の改善に向けたその利用については、現在のままでは限界があります。なお、これは理屈の話ですが、現行道路交通法上の運転者の事故の報告義務というのは事実上、当人の刑事訴追に直結するおそれがあるので憲法上の黙秘権(自己負罪拒否特権)に抵触するのではないかという議論は、判例上は一応の決着がついておりますが、なお、法的な議論としては問題が残っているので、将来、総合的な事故調査の機関を創設して、事故原因の究明と将来の改善・未然防止に資するという調査目的との関係で、業務上過失の刑事責任追及の可能性のある、例えば技術責任者等に対して、事実上、あるいは法律上の訴追免除や刑事免責を認めるという道が理屈の上であると思います。しかし、これも被害者感情・一般国民の処罰感情との関係で、やはり充分慎重を要すると思われます。以上簡単ですけれども、現状についての私のどちらかというと古典的な認識をお示しした次第でございます。

小塚主査: ありがとうございました。それでは佐藤先生、恐縮ですが、4分程度でお願いいたします。

佐藤構成員: 2ページ目からお願いいたします。私は実務家ですので、こういった自動運転やモビリティサービス周りで様々な論点を検討するにあたって、普段気になっている点などを論点出しということで指摘をさせて頂ければと思っています。まず、話題に上がっています刑事責任のところですけれども、製造業者の刑事責任については、個人の刑事責任を問うということになれば、自動運転の開発を阻害するのではないかということが言われています。従来の自動車の製造業者の役職員の責任につきましては、過失の立証が難しいため、極端なケース、例えばリコール隠しをやっていたようなケース等でのみ認められているという理解をしております。自動運転車の場合は、AIの推論の過程のブラックボックス化などの要素も加味されて、さらに立証困難になるということかと思いますので、いずれの当事者も刑事責任負わないといったケースが現実的にあるのではないかと思っておりますし、そもそも、どの主体にも過失がないというようなケースもあるのではないかと思っております。他方、理論上は個々の事故において、過失の有無を見て行くというところが引き続き言われておりますので、ここは一定の整理が必要なのではないかと思っております。一定の情報提供や、協力等と引き換えに、一定の免責を認めるといったことも考えられるのではないかということを、中長期的な課題として資料に書かせていただいています。そういったものが難しい場合にも、全ての事例を挙げ切るのは難しいと思いますけれども、セーフハーバーといったような、刑事的にも責任を問われないようなケースを明確化していくということが考えられるのではないかと思っています。
資料のBのところですけれども、これは製造業者以外の、特定自動運行に関与する主任者などの様々な関与主体にも、理論上、様々な過失が考えられますが、実際に運行に関して過失があると言うケースは極めて限定的なのではないかと思っております。上記と同じ趣旨でございますけれども、一定の明確化等々が可能なのではないかということで、イギリスでも使用者が免責される方向というところを検討されているところですので、同じような考えができるのではないかと思っています。
次は民事責任ですけれども、PL法にいく前に、まずは右上に書いているとおり、人身事故については、国交省においてレベル4までは自賠法に基づく運行供用者責任により解決するという整理がされていますので、基本的にはそれを前提に議論をしていけばいいのではと思っております。そうすると、製造物責任等が議論の対象になるのではないでしょうか。
「欠陥」に関してひとつございますのが、道路運送車両法の保安基準がございますけれども、民事責任との関係で申しますと、公道走行のための最低限の安全基準ですので、充足していたとしても欠陥がないということではない、という可能性があるところです。そもそもすでに発言された方の中にもあったかと思いますけれども、今の欠陥概念が、AIにそぐうのか、すなわち、確率的に全体的に安全になっている中で、一つ事故が起きた場合、その事故が通常の人間であれば避けることができるようなケースであった場合には、事後的に見ると、結局は人間より安全ではなかったのではないか、保安基準の中にも注意深く有能な運転者と同等以上のレベルといったような保安基準もございますので、当該事故について見れば、そのシステムはその基準を充足していない結果、欠陥があるということになってしまうのでないか、そういった問題もございますので、どういった場合に欠陥が無いということができるのか、考えを整理し明確化する必要があるのではないかと考えております。
加えて、右下のEUのところに記載がありますが、PLに関して一定の議論が進んでおります。ソフトウェアは無体物ですのでそもそもPL法の対象外ですが、EUではAIに関するソフトウェアについてのPL責任を認めることや、立証責任を転換することなどが議論されており、日本でも現在の裁判例の考え方で十分な被害者保護が図られているかにつき議論をしていく必要があるなと思っております。
また、資料上Cのところでも指摘しているとおり、アップデートを前提に販売されているにもかかわらず、その欠陥の判断基準時が車の引き渡し時になるのは現代にそぐわないのではないかというところで、こういった点についても短期的には解釈で対応していくことも考えられますし、中長期的には法改正も考えられるのではないかと思っております。過失相殺につきましては、基本的には過去の裁判例の積み重ねでやってきたと思いますけれども、これも今後、自動運転を前提に再度整理する必要があるのではないかというのが、短期中長期的な課題というふうに認識しております。
物損につきましては、自賠の適用対象外なので一応論点ではありますが、他方で、現状の自動運転のサービスを前提にするのであれば、基本的には保険が付保されているということでしょうし、先ほどのPL法の議論で概ね解消されるのではないかと思いますけれども、一応論点としてあるのではないかというところです。
事故調査は、基本的には須田先生がおっしゃったようなところと同じですが、強制的な権限を持たせて調査した上で結果を開示することが、さらなる安全につながるという面もあるのではないかと思いますので、企業秘密や被害者への配慮が必要かと思いますけれども、そういった考えもできるのではないかというところです。最後道交法のところは細かいので飛ばしていただいて結構です。

小塚主査: それでは髙橋先生、ご意見をお願いいたします。

髙橋構成員: 先ほど酒巻先生の方から古典的な議論だということでご謙遜されましたけれども、私はさらに古典的な話をさせていただきたいと思っております。まず私の意見書2ページのところを見ていただきたいのですけれども、そもそも科学を利用する主体は誰かということになります。もちろん人間であります。その人間は、国に限定して言うのであれば、国民にあたります。国民の納得がなければ、科学の信頼が失われます。そうした場合、国民は当然科学の前から立ち去ることになります。それでも科学の発展を追求するのであれば、それこそ科学の暴走であります。司法の世界には多数決の濫用という言葉があります。それに対するセーフティネットは法の支配です。逆に、司法の暴走に対するセーフティネットは国民主権です。自動運転化に対するセーフティネットは、まさに国民主権、具体的には国民のコンセンサスであります。では、コンセンサスを得なければいけない国民とは誰でしょうか。もちろん、これはユーザーであり、自動車メーカーであり、自動車保険会社でありますが、最も強い利害関係を持つ者は、過去に被害にあった被害者であり、これから生まれるであろう将来の被害者であります。なぜなら、お金は稼げば取り戻せます。しかし、命は取り戻せないからです。ですから、犯罪被害者こそが最も強い利害関係をもっているものであります。次のページお願いします。では、犯罪被害者の信頼はどうやれば得られるかということであります。被害者が前を向く、あるいは事件に区切りをつけるようになるためには、やはり何らかの償いや補償がなければいけません。経済的補償はもちろんのことであります。しかし、それだけでは足りません。私は、全国犯罪被害者の会の副代表幹事を同会の解散時までやっておりまして、殺人事件の被害者遺族の権利回復を主に扱っていました。殺人事件のご遺族からすれば、国家が無念な思いを晴らしてくれる、代行してくれると思うからこそ国を信頼するわけであります。では、交通事故の被害者はどうかということであります。これにもいくつかのパターンがあります。
一瞬の不注意による単純な過失、誰でも起こすような不注意の過失のケースであれば、とにかく謝罪をしてほしいと思だけも人もいれば、他方で、きちんと刑事責任を取って欲しい、しかも執行猶予は無罪に等しいから実刑になって欲しいと強く願っている被害者遺族も沢山みてきました。とりわけ、故意に近いような危険運転致死傷罪と紙一重のような事故の場合は、さらに話が違ってきます。必ず刑罰をきちんと課してほしい、実刑に絶対になって欲しいと思うのがほとんど多くの被害者遺族の願いであります。その被害者の気持ちを受け止めないで科学の暴走ばかりが先走るのでは、科学に対する信頼、国民に対する信頼が失われると思います。ところで、科学が間違える場合とはどういったケースでしょうか。1999年にマーズクライメイトオービターいう火星探査機がありました。この火星探査機は、火星に行くまで順調に進んでいました。ところが着陸が失敗しました。なぜ失敗したかといったら、NASAは国際基準でありましたから、メートル基準でありました。ところが作ったメーカーがヤード基準だったのです。こんなことで135億円が無に帰したわけであります。しかし、人が死ななかったのでまだ良いです。人が死んだ例があります。1999年に航空機事故がありました。管制官が1500mといった、これに対して副機長は1500mを1500フィートと勘違いしてしまった。そこで機長にそれを伝え、誤った判断を与えてしまって、墜落し、全員が死亡したという事故もありました。こういったミスは、当然予見可能であり、結果回避可能であります。こういった時に誰も責任負わない、誰も刑事責任負わないなんてことになったら、果たして犯罪被害者は納得するでしょうか。もちろん交通事故にもいろいろあります。80歳、90歳の方が亡くなる場合もあります。
しかし1番悲惨なのは小さな子どもが亡くなる場合です。横断歩道で亡くなる場合です。
こういった時に、システムのミス、あるいはシステムを作った人の本当に単純なミスでそういった事故が起きた場合に一律に刑事免責をして、果たして被害者が納得できるでしょうか。これはとても納得できないと思います。被害者が司法を信頼できなくなったら、社会の秩序が乱れます。それだけではありません。被害者の尊厳を傷つけることになります。私は科学というのは必ず間違えると思っています。しかし、正確には科学が間違えるのではなく、さきほどの例でも明らかなように、正しくは科学技術を活用し、その前提となる理論構築を間違えたり、あるいは理論が正しくても条件の入力ややり方を人間が間違えたりするのです。つまり、ヒューマンエラーで起こることがほとんどです。自動運転でも同様で、全ての条件設定、危険因子を最初からもれなく想定して入れ込むことは不可能です。こういった時に刑事責任を一律に免責するということに対しては、私は明確に反対します。例えば、私の意見書の図2を出してください。これは信号機のない横断歩道であります。この時に道路交通法はどうなっているかと言いますと、この場合には対向車両がおらず、歩行者も横断歩道にはおりません。しかし、道路交通法上は停止線で止まれるような速度まで減速しなければいけません。なぜなら、左側に生け垣があって、小さなお子さんである歩行者Aが隠れている可能性があるからです。こういう場合には、「人がいないことが明らか」とまでは言えないからです。したがって、必ず停止線で止まれるような速度まで減速しなければなりません。このような事態まで、果して今の自動運転の技術がすべてカバー仕切っているでしょうか。わたしはしていないと思います。次の図を出してください。これは本当に驚くことです。自分が走っていて、青信号が見えます。ここで減速する人はおりません。減速しないで右からバイクが来て事故が起きました。山口地方検察庁はこのようなケースで過失運転致死罪容疑で起訴したのです。なぜかといったら、徐行義務があると言ったのです。なぜ徐行義務があるか。よく見ると交差道路の対面に信号機がないのです。つまりこの信号機は、交差道路からの侵入車両を制御しているのではなく、単に横断歩道を歩行する歩行者と、そこを通過する車両を制御しているだけなのです。ですから、これは交通整理の行われていない交差点の扱いになります。そして見通しが悪いですから徐行しないといけないという理屈です。ただ、さすがに裁判官は、予見可能性も結果回避可能性もないということで無罪にはしました。これを受けて、私は、亡くなった被害者遺族から依頼を受けて、信号機の設置に瑕疵があったから事故が起きたとして国家賠償請求訴訟を起こしました。裁判では、信号機の設置に瑕疵があるということで勝訴しました。同時に、加害運転者に5割の過失が認められました。果たして、こういったことについて今の自動運転技術は対処できるのでしょうか。そもそも、道路交通法に基づく裁判例はたくさんあります。そして、交通整理が行われておらず、見通しの悪い交差点は全国で数十万件あります。これらすべてについて、自動運転技術が適切に対処できているのかといったら、私はできていないと思います。解決方法は2つしかないです。道路交通法を改正して今までの裁判例を全部変える、あるいは、自動運転技術を飛躍的に進化させてるか、その二者択一だとおもっています。しかし、後者の場合であっても、事故は起こります。ヒューマンエラーを100%排除できないからです。被害者は司法を信頼しますし、裁判を信頼しますし、国家を信頼するわけであります。こういった背景を捨象して、一律に刑事責任を免責するというのであっては、私は到底、国民のコンセンサスは得られないと思っております。以上です。

小塚主査: ありがとうございました。それでは中原先生、また4分以内でお願いいたします。

中原構成員: 私の専門は民法の不法行為のため、それに係る事柄についてコメントさせていただきます。事務局資料32ページで区分けがされておりますが、若干中長期課題のほうに偏っているようにも思いますので、私自身の観点から仕分けて述べたいと思います。
短期的な課題としては、当然現行法によれば自動運転車による事故について、どのように解決されることになるかというのを整理することになりますけれども、その上で必要ならば立法的措置を検討するということも短期的な課題と位置付けるべきではないかなという風に思います。自賠法のみならず、製造物責任法も検討対象になるということでありまして、まず自賠法についてはそれが自動運転車にも適用可能であるということ自体は問題ないと思います。解釈論上の問題、特に運行供用者の概念を巡って生じると思いますが、いずれにせよ責任主体は観念されうると。問題はむしろ運行供用者の免責が3要件という非常に厳格な制約の下でのみ認められるだけに、自賠法の適用は実質的に運行供用者に第一義的な責任者にすることで、当該自動車に欠陥がある場合に運行供用者、実際には保険会社がメーカー等に求償するという帰結を導くことになりますけれども、自動運転車、特に完全自動運転車となった場合にそれで良いのかという点にあります。運行供用者は求償しようにも欠陥の証明が困難であり、求償は叶わない。更には欠陥の存在の証明が難しいため、運行供用者の免責要件も満たされず、結局最終的な負担を被るということになるのではと考えられます。それは、運行供用者は事故のリスクを必ずしも完全にコントロールし得ないということが考えられるゆえに、望ましくない。更には原因究明にも資するところがない。そういう状況が、放置していれば、早晩生じてくるものと思います。自賠法内部の修正でいくのか、それとも自賠法の適用制限によって製造物責任法との適用関係を規律する、あるいはさらに別の立法にするといった、いろいろな選択肢がありますけれども、こうした議論は引き続き必要だと思います。
他方でメーカー等の責任は現行法上、製造責任法を追及することになりますけれども、こちらも適用可能性自体は問題がない、ソフトウェア自体は製造物に当たらないにせよ、ソフトウェアを組み込んだ動産としての自動運転車は製造物にあたる。ただ、事務局資料の想定論点にあるようにアップデートの扱いというのは、確かに早期の対応が必要であると思います。現行法上、欠陥該当性や開発危険の抗弁の判断基準時は、当該製造物の引渡し時とされているけれども、アップデートが予定された製造であればアップデートの結果によって判断する必要がないかと言う問題であります。もっとも、他にもいろいろ問題が想定されるわけでありまして、ソフトウェアの提供者や、全体のシステムの開発者等にも責任を課す必要がないか、製造物の技術的・科学的な複雑性に照らして、欠陥及び因果関係の証明負担を緩和する必要がないか、そもそも製造物の欠陥はいかに判断するかといった問題であります。2番目の証明負担の緩和について、近時のEUの対応というのが重要な発想になるかもしれませんが、日本でも昔から指摘されている問題でありまして、恒常的に解決されていない。それにもまして気になるのが、最後の欠陥の判断であり、今までの先生方のご指摘のとおり、自動運転の少なくともかなりの部分がAIシステムによっておこなわれていくとすると、どのような形でアルゴリズム間の比較を行うのか。自動学習をするAIシステムは、常に後発のものが欠陥ありということにならないか。比較による判断をするのではないのであれば、どういう風に判断するのかという問題が、これは短期的な課題として控えているという風に言って良いのではないかなと思います。
中長期的な課題として想定論点にも挙げられていますように、自動運転車の問題は、AI時代の民事責任のあり方の検討を取っ掛かりとして意義を有するものと思われます。先程の製造物責任の話というのも別に自動運転に限った話ではありません。この検討会でAIと民事責任の問題全般について認識を深めていく機会になればという風に思っています。
差し当たり私から申し上げたいのは、1つには、AIと民事責任という問題は多様であって、自動運転車の問題はその一類型、つまり特にAIシステムの作動そのものによって、直接に損害が生じるという類型に留まるという点であります。こうした類型では、従来の不法行為からしても、無過失責任の枠組みが受け入れやすく、現に、自動運転車についても、自賠法上の運行供用責任あるいは製造物責任法上の欠陥責任をどうアレンジするかという問題設定になります。それに対して、例えば医者がAIシステムを使って判断するというような、AIシステムの作動結果を人間が信頼して用いるという場面ではかなりの程度今後も過失責任で処理する場面が残り、少なくとも今回の議論を容易に一般化することはできないものと思われます。
他方、もう1つには、自動運転車の議論がされる際の無過失責任というのが、これまで言われてきたものと同じなのか、あるいは同じでいいのかという議論もありえます。例えば、自賠法上の運行供用者責任は、自動車という物の特別な危険性に基づく危険責任というふうに、法学上整理されてきましたけれども、長期的には、自動運転車は安全性を相当に向上させるものかも知れない。そうした中で、むしろ、無過失責任に至ることの主眼は、過失あるいは欠陥という規範的な要件から解放して、事故という客観的な責任原因を立てることで、責任消失のリスクに対処するという事にあるとみることができるかもしれない。そして、強制的責任保険制度のもと、多様な主体に損害の分担を求め、責任主体が存在しない場合には、公的システムを通じて補償するという仕組みを重視すると、この文脈での無過失責任ないし責任というのは、損害塡補のための道具概念に過ぎない、特別の危険は必須ではなく、AIシステム全般についてこのような損害塡補の仕組みがあり得るという、そういうような見方も出てくるかもしれないと思っております。これは1つの極端な見方に過ぎず、私自身が支持するわけではなくて、また、具体的な制度としても、求償の仕組みを組み込む必要があるなどいろいろ課題はありますが、いずれにしても自動運転車の問題がAIと民事責任の問題全般にどう波及しうるかということも見定めながら考えていきたいと思っております。以上です。

小塚主査: はい、ありがとうございました。この先、全ての方が4分程度でご発言いただくと、ギリギリ18時に終わるかと思いますが、皆様のおっしゃりたいことが多いようで、最大30分程度延長することがあり得るのではないかと事務局から頂いております。その場合、先にご予定があって、退出されなければいけない方からのご発言をいただくということも検討します。退室予定のある方は挙手ボタンでお願いできますでしょうか。その間に、西成先生にお願いしたいと思います。

西成先生: 私はたぶん皆様と相当立場が違っていて、数学とか物理を研究していまして、その観点で交通とか物流、人流といったことを研究しております。いろんな見方があると思うのですけど、私はしばらくは自動運転車両は高速道とか専用道しか難しいのではないかと思っておりまして、人というのは予測可能な範囲で行動するわけではないので、人の混在した環境での実現はかなり難しいと個人的に思っております。そういう意味では、私はSIPの物流のプロジェクトも参加させていただいておりますが、まず1番実現可能性が高いのは、1番前の車が人で、次が無人という形で効率よくモノを運ぶという用途だと思います。1人で5台ぐらいを運転して引っ張っていくというのが多分1番早い実用化だと思っております。そういう場合の事故をどのように考えるかということも含めて、いろいろなユースケースをピックアップしてやっていく必要があると。あるいは走行中にGPSが通信障害を起こしたら、誰の責任なのかとか、技術的に細かい問題がいろいろとあるのではないかと考えていく必要があると思っています。あとは、トロッコ問題は有名ですが、ドイツでは現在、命の比較をするというプログラムをしてはいけないという風になっておりますが、そういったトロッコ問題みたいなものを日本でどう扱うか。AIが先程から出ておりますとおり、自分で考えて判断していくような時代になると思います。私もAIを研究に使っていますが、Chat GPTは研究者の予想を越えたパフォーマンスになっております。こういったものをどうやって扱うのかという難しい問題。そして事務局からもあったとおり、私が一番言いたいのは事故のデータを全員で共有するということです。そのためにはいかにフォーマットを整えるか、各社で違うデータが出てきても、解析ができない。今その問題が、物流業界で起こっていて、物流のデータを共有すれば良いのではないかと言うのだけれども、いろいろな会社の物流データが合わない。標準フォーマットを決めて、義務化して、運安委のようなところで皆で共有しながら、ガバナンスしていくという体制作りが1番大事だという風に思っております。最後にアポロ計画を少し思い出すのが、途中死者が出たけど進んだのですが、なぜかと言いますと、なんのためという国民の理解があったためと思います。ミッションを国民が共有して夢を共有できたと。自動運転も何のためにあるのでしょうかということを共有しないと社会受容性も生まれないと思います。地域物流や地域交通のためや、事故を減らす等、自動運転が本当に必要という議論があれば、多少のトラブルでも皆様で受容して、リスクテイクしていくような文化になっていくと考えます。何のための共有が1番大事なのかという風に思っております。以上になります。

小塚主査: はい、ありがとうございました。今のところは早めにご提出ということで挙手していただいている方はいらっしゃらないと理解しております。引き続き必要がありましたら挙手してください。名簿順で申しますと、自工会の波多野さん、よろしくお願いいたします。

波多野構成員: 自工会の波多野でございます。自工会の方からコメントさせていただきます。自工会は今年の7月12日にデジタル庁様が開催されたモビリティーロードマップのあり方に関する研究会で今見ていただいている自動車工業会の自動運転レベル4に向けた三位一体の取組ということで、業界が把握しております、課題や実現に向けた取組をご紹介させていただいています。本日はこの内容全てを紹介していますと持ち時間過ぎてしまいますので、エグゼクティブサマリーとして最後にこのサブワーキングに期待する内容ということで、本日向けの資料を整理させていただいております。少し拡大していただいて、全体見えるようにしていただきますと、私どもとしては、サブワーキングに期待することとして、少しビジーではございますが、主に3つのことを共有させていただきたいと思います。まず左上の三位一体の安全対策によるサービス実現の考え方を是非共有させていただきたいと思っております。自動運転というのは、あくまでも人が用意する技術と考えると、必ずしも完璧なものでは現時点でございません。そうすると、提供したいサービスの範囲の中で、この左の図が示していますのは、自動サービスエリアの中で果たすべき安全や責任といったものをこの範囲という形で表しております。少し色味で分かりづらいですが、サービス提供エリア、作動条件及び範囲というのを明確にした上で、実際に自動運転システムが自立してルール遵守、安全担保できる範囲というのは、実はサービスエリアの範囲とは必ずしも一致しません。そうなりますと欠けている部分をインフラ整備や協調システム等により、安全性担保を加えていくということも必要になってまいります。これはインフラの公共性の担保として、例えば、先ほどの議論でも出ていますけれども、信号機の信頼性や、道路保全の問題も含め、インフラの重要性や、加えて協調システムみたいなものを利用するとその機能配置、そして責任分解の明確化、これがなされて初めて欠けている部分をカバーできるようになってくるという風に考えます。一方交通環境は自動運転だけではなくて、他の交通参加者との共有、共存の社会のなかで成り立つものと考えますと、実際に周辺の人、これは人に限りませんが、交通参加者がルールをしっかりと遵守していくと、全体としての安全担保は期待できるのではないかという考え方がございます。最近よく課題になります、自転車のルール順守をどうやってできるのかといった問題もありますけれども、交通事故の多くはですね、こういった歩行者や自転車などのルール遵守がなされていれば回避できたものというのも、実際には多くございます。すなわち果たすべき役割に応じた事故時の責任の在り方は自動運転や通常の車両が増えていく中で、今後どういう在り方であるべきかというのは、是非ご意見を頂きたいポイントでございます。こういった考え方の基、どのように実際安全が担保されるかというと、右の上段にありますように、既に官民連携で長い時間をかけて自動運転向けの法改正というのは様々なポイントで行ってきていただいていますが、こちらは国交省様が発行している自動運転の安全技術ガイドラインから参照させていただいている自動運転の本質的な安全担保の要件です。合理的に予見される防止可能な人身事故は生じてはいけないという大きな考え方で整理を頂いていて、左の図で示しましたサービス提供エリアの中で、この安全というものがどのように配置されるかというと、概ね4象限存在します。通常の予見可能な事故のケースというのは、自動運転が事故を回避するようにプログラムされますので、事故は起きないと。この範囲を産業界としては極力広げていくと、予見可能な範囲を拡大し、回避可能の性能を明確化していくということが最重要になってまいります。そこでサブワーキングで期待されるのは、合理的に予見される事故ケース、これを極力最大化しながら有限なものにしていくということでございます。ひたすら予見可能性を追求し、無限に配慮し続けると、結果として何も生まれないということは避けたいというのが産業的な観点でございます。そしてその有限化された範囲の中で回避できるということは、いったいどういう性能なのかという判断基準を明確化し、これを共有していくということが事故を起こさない範囲をクリアにしていくということになるかと思います。しかしながら実際に予見が可能な事故のケースの中には、欠陥や過失がなくても回避困難な場合が存在します。物理的に回避不可能な車両直前への人の飛び出し等はどうあがいても過失や自動運転側に過失や欠陥が無くても事故というものが存在し得うる。このような場合は、回避困難なケースとしても社会的な受容性を定量的に扱える可能性はまだ残っておりますので、こういったことを欠陥も過失もない回避困難なケースの社会受容性の基準を検討していただくというのも重要かなという風に考えております。更に予見が困難ないわゆる何が起こるか分からないという部分も当然まだ残っていますので、そういった場合に今後どのような形で取り扱っているかということも協議が必要だと思いますが、こういった議論は結論までに充分な検討時間や丁寧な議論が不可欠という風に考えておりますので、是非とも産業界を含めて協議させていただければと思います。参考ですが、欠陥や過失がなくても回避が困難な場合というのは、左下にいろいろなインシデントの事例を挙げておりますが、例えばBの部分で安全や責任を守らなければいけない範囲だったとしても、サイバーセキュリティ等によって、他責の事象として顕在化する場合があります。このような場合、このインシデントの責任を実際に誰が負うのかというのはなかなか難しい問題ではないかといったこともありますので、提供する側、認める側、そして使う側、運用する側、それぞれが様々な形で責任を持つということになってくると思いますので、是非丁寧な議論をお願いしたいという風に思います。私からは以上でございます。

小塚主査: はい、ありがとうございました。それでは原田先生、また4分以内でお願いいたします。

原田構成員: 京都大学の原田でございます。行政法が専門ですので、行政法についての問題についてのみ話したいと思います。まず、道路運送車両法に基づく安全基準については、稲谷先生が先程おっしゃいました性能規定による枠組みの構築や、あるいは民間の技術規準の活用、さらには第三者認証の利用といったことが、他の分野との横並びでも考えられると思いますが、更に民事上の責任、あるいは保険制度とリンクさせることにより、実効性の確保も考えられるように思われました。行政法の観点から非常に難しいのは道路交通法をどうするかということでありまして、短期的には現在立法化されている特定自動運行許可の仕組みを今後も維持し続けるのか、それとも個人が自動車を保有する仕組みを前提とする法システムを別途作るのかということが大きな問題になろうかと思います。また現在の特定自動運行実施者に対する許可の要件の中には、地域住民の利便性といった道路交通法の中ではやや異色の要件が盛り込まれておりまして、これをどう考えるべきかという問題が残されているように思われます。次に中長期的な問題ですけれども、こちらの方が非常に難しくて、現在の道路交通法は、基本的に運転者に責任を負わせる仕組みになっていて、かつその運転者と刑事責任が密接に結びついているという構造になっております。通常の行政法規ではなかなかない構造になっていまして、その自動運転によって運転者がいなくなると、どういう風に制度を作り変えるべきかという問題が出てまいります。そこで、例えば、原子力損害賠償や人工衛星のように、損害賠償担保措置を要件に運行を認める方法にするとか、あるいはその製造者やシステム設計者の行政上責任を強化して、それに独立性の高い行政組織による行政審判的な言及の仕組みを設けるといったようなことが考えられるかもしれません。しかし、刑事責任を中心とする現在の道路交通法の仕組みをどの程度変える必要があるかという問題は、行政法だけではなく、刑事法との調整も必要な問題と思います。また事故との関係では、先程少し議論にも出ています国家賠償法2条の製造物責任との関係も調整する必要があろうかと思います。さらに行政法全般としては、デジタルやAIをベースとする行政法体系や行政法手続きの中で、この自動運転をどう位置づけるかという非常に難しい問題がありますけれども、これもかなり長期的な課題になろうかと思います。私の方からは以上です。

小塚主査: ありがとうございました。ご協力いただきまして感謝申し上げます。次に、損保協会の横田チームリーダーお願いいたします。

須賀参事官: 次のスピーカーに移っていただけますでしょうか。

小塚主査: 機器の不良があるようですので、次に進ませていただきます。吉開先生、お願いできますでしょうか。

吉開構成員: 私は以前に検事をやっておりまして、捜査訴追の実務を経験しておりますので、その観点から刑事責任追及に関する短期的、あるいは中長期的な課題について私見を述べさせていただきます。まず短期的な課題、当面の方針、当面の扱いですが、先程も話がございましたが、自動運転車の普及に伴って被害者が死亡するような重大な結果が発生した場合に、強制捜査権がある警察や検察が全く捜査をしないということですと、被害者の納得が得られないだけではなく、真相解明を求める世論にも答えられず、かえって自動運転車の社会的受容性を損なうことになりかねないと考えます。我が国では諸外国で導入されているような司法取引や刑事免責に対する理解が充分に形成されていないことからも、当面は全ての事案において捜査訴追の可能性を残しておく必要があると思います。ただし、刑罰は最後の手段とされておりまして、刑事責任の追及は謙抑的になされるべきで、民事や行政的な措置で被害者救済等が図れるのであれば、刑事責任を追及しないで良い場合も考えられます。我が国の訴追が慎重にされているのは、このような考え方に基づくものだということができます。また、刑事責任追及のためには高いレベルでの事実の証明が求められるため、検察官は的確な証拠に基づく有罪判決の高度の見込みがある場合に限って訴追するべきだと考えられておりますが、それは交通事故でも同様であります。レベル3、あるいはレベル4の自動運転車による事故が起きた場合に直接の運転者が想定されない時には、これまでの交通事故捜査とは異なり、設計や製造ライン等を含めた過失の有無等を幅広く捜査しないと訴追判断ができなくなると予想されます。こうした事案は特殊過失と呼ばれておりまして、現在でも訴追に至るハードルは一般に高くなっています。特殊過失の事案で訴追されるとすれば、当該業界での一般的な安全水準から明らかに逸脱した判断や行為があったと認められる場合に限られると考えられます。その点で自動運転車の安全水準に関するガイドラインが作成され、それを遵守したのであれば、自動運転車による事故で刑事責任追及リスクを殊更に懸念して委縮する必要はないものと考えられます。なお、事故原因の明確化と再発防止策の検討という点では、捜査機関が事故原因の捜査結果を公表することについては、刑事訴訟法上、訴訟書類が原則として非公開とされていることの関係で限界があります。事故原因の調査結果の公表については、自動運転車に関する専門の事故調査委員会の権限において行う必要があると考えます。次に中長期的な課題ですが、既にご指摘もありましたが、特殊過失の事案では個々人に対する業務上過失致死傷罪の成否が問題になるところ、刑法には両罰規定がなく、企業側の責任追及が不十分になることもあります。 法人を直接処罰する規定を導入することを含め、いわゆる法人処罰に関する従前の議論を踏まえつつ、企業本体の刑事責任を追及する仕組みに関して検討することが考えられます。また、特殊過失の困難性から自動運転車による事故を捜査したものの、訴追に至らない事案、あるいは訴追したけれども無罪になる事案が出てくると予想されます。刑事責任の追及以外にも、国費による被害者への補償制度等の充実を検討していくべきでありますが、これは自動運転車による事故に限られた問題ではないと考えられます。先程一般的な水準という話をしましたが、当該業界の一般的な水準を超えるような新しい技術に挑戦する場合に萎縮効果が生じないかという問題がありますが、安全性について法的に合理的だと評価できるような検討を事前にしておく必要があると思われます。そのためには技術領域と法律領域との連携体制の構築も課題になるものと考えます。私の意見は以上でございます。

小塚主査: ありがとうございました。
それではお待ちいただいていた後藤先生、4分程度でお願いいたします。

後藤構成員: 特に資料を用意しておらず、感想のような話になってしまって恐縮ですが、いくつか申し上げたいと思います。
最初に、質問になってしまうのですけれども、3ページに、今回の議論の目的ということで、被害者の救済の十全ということと、先端技術を用いる自動運転車の責任ある社会実装の推進が挙げられております。被害者の救済はそのままですけれども、責任ある社会実装ということで何をイメージされているのか、人によって感じ方が違うのではないかという気がしているところでございます。民事法が専門なので、被害者の救済と並んで出てくるのは事故の抑止、被害発生の抑止ということになるのかと思うのですけれども、その場合には、事故の抑止といっても100%防ぐことは困難であっても、社会的にはコスト等も考えた上での最適な抑止をどうやって実現するかということが問題となり、そのための手段としては、民事責任だけではなくて、刑事責任もその一端を担うわけですし、また、行政的な安全規制というものも入ってくるかと思います。今回行政処分の話が出てきているのですが、安全規制の中身をどうするか、安全規制自体は技術的な問題と思うのですけれども、その安全規制がどういう風に仕組まれるのかということとの関係で、民事責任や刑事責任のあり方をどう考えていくのかという問題があるかと思います。この点は、責任ある社会実装の推進という言葉からは、どういう風に捉えれば良いのか、少しわからないところがありまして、その点を長期的な課題だとは思うのですけれども、できるだけ早い段階から意識して議論しておかないと、議論の途中で支障をきたす可能性があるのではないかということを思っておりますので、どういう風に事務局や他の委員のみなさんが考えているのかということも含めて、お伺いできればと思います。また今私が申し上げなかった観点で、これまでの議論で出てきているものとしては、刑事罰に関して、被害者の応報感情というものがございます。民事責任ではあまりこういうことを言わないのですけれども、刑事罰の意義としては重要なところかと思いますが、どういう場合にこの応報感情というものを重視するのか、なかなか捉えにくいものだと専門外の者としては感じるところです。今日のお話を伺っておりますと、例えば故意に近いようなものや、例えば飲酒運転や危険運転のような場合には被害者の応報感情は強いが、そこまでではないという類型もあるということが、先ほど高橋先生のお話の中であったように思います。本当にちょっとしたうっかり事故というものかと思いますけれども、こういうレベルのものについてまで刑事罰が科されると怖いというのが、ひょっとしたらこれまで刑事免責を主張される方の議論だったのかもしれません。そうだとすると、刑事罰を科すか否かという議論も、人によっては捉え方が違うということがあると思いますので、このあたりの具体的な状況を想定しないと、議論が噛み合わなくなるおそれがあるのかなと思いました。
また、社会実装という観点からは、西成先生のお話がございましたが、この技術を進めていくことによって何を社会が得ようとしているのかということを重視すべき、確認すべきだということは、非常にもっともなご指摘かと思いました。何のための開発であるのか、特にヒューマンエラーによる事故の抑止ということが重要としますと、そもそもこれまで人間が運転していたら、被害者になってきた人が被害に合わなくて済むということがあるとしますと、これは法律家からは見えにくいものではあるのですけれども、そういうメリットがあるということは、やはり事前に意識されるべきと思っております。以上が、大きく分けて1点目です。
もう1つが、今回どういう自動運転を想定するかということで、オーナーカーの完全無人運転という話があったのですが、はたしてこれが最初に実現するものなのかというと、それはだいぶ先のことになるのではないかという話を伺ったことがございます。オーナーカーではなくて、ビジネスユースというものも描かれておりますが、その中には、例えば遠隔で操作もしくはモニタリングされている交通サービスのようなものともあるかと思います。おそらくこちらが先に実現するのだとすれば、これを無視して議論すべきではないように思いますし、またレベル5になった時に遠隔監視というものはどういう風に位置づけられるのかということも考えておくべきだと思います。あまり遠い将来に来るものだけを議論しても始まらないような気が致しますので、そういったより現実的なユースケースをもう少し場合を分けて議論していかないといけないのではないかなと感じているところでございます。以上でございます。

小塚主査: はい、ありがとうございました。それでは、同じくお待ちいただきました藤田先生、お願いできますでしょうか?

後藤構成員: 本日途中からの参加になって申し訳ありません。各論的な話で申し上げるべきことはいろいろあるのですけれども、与えられた時間が4分と非常に短いので、スライド32枚目に出ている想定論点について1点だけコメントしたいと思います。事務局の報告が聞けておりませんので重複があれば申し訳ありませんが、今回民事的、行政上の責任、刑事責任、さらに事故調査等の話を総合的に検討すること、また、民事責任についても製造物責任、運行供用者責任、不法行為責任と同時に検討するということは大変結構だと思います。自動運転について、総合的な着地点が無いままバラバラに法規制が築かれていくということを恐れていましたので、総合的に検討できる場が設けられたことは大変良いことだと思っております。その上でスライド32にありますように短期的課題と中長期的課題に分けて議論するというのも、現実的だと思います。ただ、短期的課題として、いくつか個別的な論点が上がっているのですが、このような断片的な政策のみならず、自動運転に関わる制度設計の基本的な視点や目標については、早い段階から明示的に議論しておいた方が良いと思います。短期的に実現できるかどうかは別として、基本的な視点は短期長期を通じたものとして早めに議論しておいた方が良いと思うからです。具体的には、人間のドライバーの関与がなく、システムにより運行が管理される場合に求められる安全性の基本的な考え方です。事前の観点から事故の確率を大いに減らせる、人間よりもはるかに安全な運行をオファーできるシステムを使った自動運転車を運行中に事故を起こした場合、特定の事故の際の車両の制御を事後的、個別的に評価すれば、仮に人間のドライバーがそういう運転したとすれば過失ありとされるような車両制御になっていた場合であれば当然に民事責任、刑事責任を引き起こす原因となるのか(責任主体は運転者、運行供用者、製造者といろいろ考えられますが)、これについて民事、刑事の責任を負わせるべきなのかという問題です。おそらく道路運送車両法上の保安基準の適用との関係でのシステムの安全性は,認可の性質上、事前的な観点から確率的にどの程度事故を防止できているかという視点で判断することにならざるを得ないと思うのですが、民刑事の事後的な責任においても同様の視点を持ち込めるのか、どの範囲で持ち込めるのか、あるいは民事、刑事いずれかについてなら持ち込めるのかといったことです。プログラムのアップデートや、ハードのメンテナンス、ODD外で人間のドライバーが関与したようなケースはヒューマンエラーの類ですので置いとくとして、純粋にプログラムの設計の安全性の評価に限定するとすれば、民刑事の責任の負担についても、事前の確率的な安全性の向上ということを決め手に考えて良いとすれば、民刑事責任と行政上の責任が、個別の要件の差は残しつつも、基本的・根本的な発想の根幹では、統合・融合していくというシナリオが描けていることになります。そうなると、この方向性を前提にやれるところから個別にいろいろ手をつけていくというシナリオになります。他方、このような考え方がまかりならない、人間の防げた事故であったら、結果的に全て防止できてなければ欠陥があるという風に考えなければいけないとなると、全く話しは別で、行政上の責任と事後的な民刑事では全く違った原理で考えるということになりますが、その場合は、異なる原理を具体的に明らかにしていく必要が出てくることになります。
いずれにしても、最終的に制度的な解決は中長期的な課題として実現しなければいけないとしても、民刑事責任との関係で事前の確率的な安全性を決め手とする考え方を受け入れることができるか否かということの検討は早い段階で明示的な論点として提示した方が良いと思います。そしてできることなら一定の方向性は、具体的な各論にまでは行かない漠然とした方向性で良いですから、やはり示せた方が良いと思います。これは制度設定の根幹であると同時に、内容やその結論によっては社会的に受け入れてもらうために時間がかかる、あるいはそもそも受け入れられないリスクがある政策的な決断ですから、いろいろ議論して各論が積み上がった後で、全部ひっくり返るようなことがあると望ましくないので、やはりある程度前もって判断できればという風に思います。私からは以上です。

小塚主査: ありがとうございました。私の手際が非常に悪く、既に時間をオーバーしているのですが、損保協会の横田様はご発言いただける状況でしょうか。

横田構成員: 日本損害保険協会の横田でございます。論点については、今までの先生方の発言で大体出ていると思いますので、損害保険業界の立場から現状の取組と課題について簡単にお話をさせていただきます。資料としては、事務局資料22ページの絵が1番よいと思います。リード文に書いてあるとおり自動運転時においては、運行供用者又は運転者の運転への関与度合いが減少するため、運行供用者又は運転者側のミス以外による原因の事故が増える可能性が考えられるので、どの主体に責任の所在があるかという原因究明にはかなりの時間がかかることが想定されるということがまず前提になるかと思います。その中で、保険の社会公共性を鑑みると、原因究明の前に被害者の救済が最優先ですので、被害者が治療費や慰謝料、修理費等を迅速に受け取れる救済の仕組みを維持することが重要と考えております。まず、自賠責保険については、従来の運行供用者の考え方を維持するという方針が示されておりますし、自動車保険につきましても、被保険者に法律上の損害賠償義務が無かった場合においても、被害者に先に保険金を迅速にお支払いする特約を大抵の保険会社は既に特約として保有しておりますので、保険会社として既にこういった自動運転に関する事故があった時の対応というのはできているかと思います。一方、その保険金をお支払いした後、保険会社として代位請求権を取得して、被保険者に代わって、真に責任を負うべきものへの求償を行う、図の下側の部分になるかと思いますが、この点についてはいくつか課題があると思っています。主に3点挙げさせていただきますと、1点目にプレイヤーが非常に多いということです。車両部品メーカーをはじめとして、ソフトウェアの事業者、あるいは人が介在するというところでいくと遠隔の監視や特定自動運行主任者といった多種多様なプレイヤーが想定されるというところで、これらの方々に求められる安全性の確保や、注意義務の範囲が、現行は必ずしも明確になってないと思います。こうした事故が発生した際の責任の主体を特定するのが、現状ではまだ困難ですので、法整備も含めてできていければいいと思います。2点目は、レベル4の自動運転車で、やはり車に乗っている方は、事故が発生した時の状況を把握してないことが想定されますので、そのような事故の原因を究明するためには当事者に代わって運行状況を把握する機能や手段、例えば、自動運転の走行データをはじめとして、原因究明に役立つようなデータが必要になると思いますので、そういったところを共有できるような仕組みが大事になると思います。3点目として、今まで話していたのは人損の話ですが、物損事故については、運転者が保険に加入していないケースもありますので、そのような時に被害者が直接製造物責任や不法行為の責任を追求していく必要があります。その立証がなかなか難しくなってくるので、どういった制度が考えられるかといったところも論点になるかと考えております。このような点について、サブワーキングをとおして確認していければと思っておりますので、どうぞよろしくお願いいたします。私からは以上でございます。

小塚主査: どうもありがとうございました。全ての構成員の方からご発言いただきました。
今回多くの方から多岐にわたる論点のご指摘を頂きましたので、まず事務局において整理していただければと思います。その時に途中で、例えば古典的なアプローチとか、あるいは非常に新しいアジャイルガバナンス等、アプローチの違いの問題なのか、それとも藤田先生がおっしゃっていた要求される安全性や社会として追及すべき目的が違うという問題なのか、そのあたりに注意して整理していただければと思います。クイックに2点だけコメントを申し上げますと、1つはデータの共有として、事故原因の究明が重要ということを、今日も多くの方がおっしゃいましたが、その前にデータというのはいわゆる営業秘密等も含まれていて、データは誰のものかという議論が出てきますので、そこについてやはり共有していくということは、当初は自主的にするとしても、ある段階で制度化する必要があると思いますので、それが重要だという事を指摘しておきます。次に、事務局の説明の途中で指摘がありましたけれども、現在特に日本の自動運転の開発は、ある程度ルールベースのものを組み合わせた形でなされているわけですが、それが機械学習等に完全に依存するという技術思想も出てきているという中で、レベル3や4、5という違いよりも、実はそういう技術思想の違い等によって、制度が変わってくるという面もあるのではないかと思いますので、そのあたりもご留意いただければと思います。さて、本当は自由討議の時間を設ける予定だったのですが、もう時間を過ぎている状態ですのでそこは割愛させていただきまして、これにて本日の会議は終了させていただきたいと思います。最後に事務局の方から連絡事項を頂きたいと思います。蓮井審議官お願いできますでしょうか。

蓮井審議官: 本日は様々なご意見いただきまして、誠にありがとうございました。さらに追加のご意見を頂ける方は今週末までに事務局までメールでいただければ誠に幸いでございます。本会合の資料につきましては、早ければ今月中に、デジタル庁のホームページで公表したいと思っております。各委員から頂いた資料につきましても、差し支えなければ併せて公表できればと考えてございます。もし差支え等ございましたら個別にご連絡いただければ幸いでございます。なお、議事要旨につきましても構成員の皆様に内容をご確認いただいた後、同じくデジタル庁のホームページで公表したいと思っております。次回のサブワーキンググループは、1月中を想定してございますけれども、日程につきましては追ってご連絡をさせていただきます。それでは、本日の第1回AI時代における自動運転車の社会的ルールの在り方検討サブワーキンググループは、以上にて閉会とさせていただきたいと思います。本日は誠にありがとうございました。