本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 2018年3月18日の午後10時に、米アリゾナ州の郊外において実験走行中だった米Uber Technologies社の自動運転車が、道路を横断中の49歳の女性に衝突して死亡させた。事故原因の詳細は不明だが、衝突前に減速したりステアリング操作を行ったりした形跡はないという。夜間ではあったが、雨や雪など走行が難しい気象条件ではなかった。

 今回の事故では、誰がどのような法的責任を負うことになるのだろうか。事故は米国で発生したものだが、日本の法律を前提にして考えてみる。

 まず、今回の事故は自動運転の走行実験中に発生したものである。運転席には監視者が座り、緊急事態に対応する職責を負っていた。事故後に公開されたドライブレコーダーの映像によれば、監視者は前方注視を怠っていたようにみえる。したがって、前方注視を怠らなければ事故が避けられたかどうかが問題になる。

この先は日経Robotics購読者限定です。