Waymoのレベル4(注2)自動運転車は今のところ死亡事故を起こしていない。ただし、Uberのレベル3自動運転テスト車は死亡事故を起こした。テスラのレベル2自動運転(運転支援機能)が原因と疑われる事故は多数発生している。いずれの人間のドライバーの責任として処理されている。
注2:レベル2は人間のドライバーを支援する運転支援機能、レベル3は人間のドライバーが監視する自動運転。いまのところ判例ではレベル2、3の事故責任は人間のドライバーが負う形となっている。レベル4は走行区間を限定した完全自動運転。
Waymo車の現状のデータでは、事故率は人間よりも低い。また死亡事故は今のところ起こしていない。だが、現状のデータから「自動運転車の方が人間よりも安全であるという結論が出た」と考えるのはまだ早いと考える。
なぜなら、Waymo車はあらかじめ決められた区間を走る(つまり道路のデータがよく準備されている)「レベル4」自動運転である。また走行距離が合計2200万マイルにすぎない。走行区間の範囲が広がればデータがよく準備されていない区間も走ることになるだろう。また走行距離が長くなれば、いままでに起きなかった種類の事故も起こるだろう。今のデータだけで「人間より安全」と断言することはできない。
(続く)
追記:
当たり前だが重要な話をひとつ。「Waymoの自動運転車の事故率が低いと報告された」ことは、Waymo以外の会社、例えばテスラや他のメーカーの自動運転車が安全であることを意味しません。現状では、開発会社は各社がバラバラに自動運転技術を開発しているからです。
Uberは自動運転車のテスト走行中の事故で人を死なせましたが、その後、自動運転部門を売却してしまいました。
GMの子会社Cruiseはサンフランシスコの自動運転タクシーが人身事故を起こした後、事業を中断しています。事故の後の社内はドタバタ状態だったようです。
自動運転車はある確率で人を殺す機械です。しかし、少なくともUberとCruiseは「自動運転車の人身事故が起きたときに、どうするか」を考えていませんでした。
そして、人身事故の貴重な教訓がその後の各社の自動運転の研究開発に反映されているのかどうか——残念ながら、事故の教訓が活かされているという話は伝わってきません。
このままでいいののかどうか、私は疑問を持っています。自動運転技術の安全性を高めるためには、業界横断の取り組みが求められるのではないかと考えています。
「安全」「リスク」に関する学術的な知見は日々アップデートされている。そして交通事故のような「非常に低い確率でまれに起きる現象」を考えることは、実はけっこう難しい。単純な統計や外挿で考えると間違った結論を導きやすい。
ACMは、自動運転車の安全性を正確に評価するには110億マイルのテスト走行が必要としている。これは、Waymo車がすでに走行した距離の500倍に相当する。ひとついえることは、現状は圧倒的なデータ不足なので「安全」と断言する段階にはないということだ。
ACM TechBrief: Automated Vehicles Winter 2024
https://dl.acm.org/doi/book/10.1145/3654812