[画像のクリックで拡大表示]
伊本貴士=メディアスケッチ 代表取締役、サイバー大学客員講師

 2018年3月18日に米ウーバー・テクノロジーズ(Uber Technologies)の自動運転試験車が歩行者と接触し、死亡事故を起こしてしまいました(関連記事)。この事故により自動運転の開発は止まってしまうのでしょうか。今後、自動運転はどうなっていくのか?──。自動運転に関する情報を整理しながら考えてみたいと思います。

 そもそも、自動運転とは何なのでしょうか。この1つの指標として、米国運輸省道路交通安全局(NHTSA)が定めた自動運転のレベルがあります() 。

 2018年3月現在、各自動車メーカーはレベル3とレベル4の機能を備えた自動車を開発している状況です。このうち、レベル3では技術的に制御するのはシステムですが、人間はいつでも運転できるようにしておく必要があります。従って、事故の責任は人間にあります。

 法律面から見てみましょう。内閣官房IT総合戦略室が公開している資料「ITS・自動運転を巡る最近の動向」によると、ドイツでは2017年5月にドイツ道路交通法改正法が可決し、同年6月に施行されました(同資料)。これにより、レベル3相当の実用化が可能になったのです。1条に以下のような記載があります。「運転者は、高度・完全自動化された走行機能を使って自動車操縦している間は、交通状況および自動車操縦から気持ちをそらすことが許される。その場合に、第2項による義務に何時でも応じられるよう気持ちの準備をしておかなければならない」。

 「気持ちの準備」というのが曖昧でよく分からないものの、結局この段階においては、「人はいつでも運転できるように準備しておかなければいけない」という話になります。要は、「技術でどこまで検知できるのか?」という議論はあまり意味がなく、あくまでも「技術に100%はない」という前提の下、最終的には人間が責任を負うという点で各国の法律は落ち着くのではないかと思います。

 Uber Technologiesの事故は不幸な出来事でした。ただ、自動運転のレベルをレベル3に限定し、基本的に最終的な責任は運転手にあると限定すれば、自動運転はこれからも開発が進み、2018年もしくは2019年に公道を走るようになるでしょう。

[画像のクリックで拡大表示]
表●自動運転のレベル。NHTSAの資料を基に筆者が作成。