世界の大手自動車メーカーやテックカンパニーが莫大な投資を継続的に行い、自動運転技術を開発している。多くの場合、自動車メーカーがテックカンパニーを巻き込む形で進めている。

 テックカンパニーとは、最新技術を開発し、その技術自体や技術を活用したサービスなどを提供する企業のこと。ここでいう技術とは、主にエレクトロニクス技術である。テックカンパニーの代表格は、米アルファベット(Alphabet)傘下のグーグル(Google)だ。デジタル機器やソフトウエアの開発、電子商取引(e-Commerce)などのインターネット関連サービス事業を行う企業を含み、意味合いとしては日本で言うIT企業に近いが、海外でGoogleのことを「IT Company(IT企業)」と呼ぶ人はあまりいない。

 人間がスタートからゴールまで運転に全く介在しない完全自動運転(レベル4/5)を開発しているAlphabet傘下の自動運転車開発企業の米ウェイモ(Waymo)も、テックカンパニーの1つだ。

[画像のクリックで拡大表示]
公道を走るWaymoの自動運転車
(出所:Waymo)

 Waymoへの対抗意識を燃やす米ゼネラル・モーターズ(General Motors;GM)は、クルーズ(Cruise、以下GM Cruise)というテックカンパニーを買収して完全自動運転を開発。GMに対抗意識を持つ米フォード・モーター(Ford Motor、以下Ford)は、米アルゴAI(Argo AI)というテックカンパニーに投資している。Argo AIは、Waymoのハードウエア開発のディレクターを務めていたBryan Salesky氏と米ウーバー・テクノロジーズ(Uber Technologies;以下、Uber)のエンジニアリングリーダーであったPeter Rander氏が創業した企業だ。Salesky氏は、米国防高等研究計画局(DARPA)の2007年の競技会「グランド・チャレンジ(Grand Challenge)」で優勝したチームのシニアソフトウエアエンジニアだった。

 もう1つ、自動運転を開発するテックカンパニーの代表例として米オーロラ・イノベーション(Aurora Innovation)が挙げられる。同社はAlphabetでWaymoの誕生前に辞めた、自動運転界のリーダー的存在であるChris Urmson氏が創業した。同社には、米テスラ(Tesla)のレベル2技術である「オートパイロット」のプログラムを運営していたSterling Anderson氏と、Uberの自動運転チームのリーダーであったDrew Bagnell氏がいる。2019年に米アマゾン・ドット・コム(Amazon.com)が出資したことでも話題になった。

 日本では、名古屋大学/東京大学関連のスタートアップ企業であるティアフォーが、完全自動運転技術を開発するテックカンパニーの代表例だ。

人間の代わりに運転するコンピューターを開発

 では、これらのテックカンパニーは自動運転車の何を開発しているのか。少なくとも彼らは「クルマ自体」の開発は行っていない。彼らは、人間の代わりにクルマを運転するコンピューターを開発している。これは何を意味するのか?

 そもそもクルマは人間が運転して初めて動き始める。人間が視覚を通して周囲の安全を確認し、「認知(認識)」「判断」「操作」という情報処理を大脳で継続的に行って、クルマは人間が操作した通りに走り続ける。人間が大脳で行っているこの処理をコンピューター上のソフトウエアで置き換えることが、「自動運転」の重要な開発要素である。

 その1つの「認識」として、クルマに装着されたカメラやレーダー、ライダー(LIDAR)といったセンサー群から収集した周囲環境に関するデータから、人間が一度に認識し得る以上に大量の事象を同時に、人間の視覚よりも速く、より正確に認識するためのソフトウエアを開発している。より高度で正確に認識するためのアルゴリズムは、各クルマから通信を介してインターネット上にあるデータセンターにデータを上げ、深層学習(ディープラーニング)などを利用して開発される。走れば走るほど高度化されるアルゴリズムは、通信を介してクルマ側のセンサーやコンピューターにアップデートされる。

 続いて、正しい環境認識の上で交通法規などに基づき、「(自分の見るべき)信号が赤であれば、停止線の前で止まる」といった人間が大脳前頭前野で行っている「判断」を、人間と同等かそれ以上の“正しさ”で行えるようにする*1

*1 “正しい”という基準を規定すること自体、規制や法規との関連もあり、並行して解決すべき重要な課題である。

 こうした、人間がある程度習慣的に判断している道路上の運転で起こり得る事象を、人間がプログラミングをするために可能な限りリストアップすること自体、有限時間内では困難である。現実に、人間が見て容易に判断できる事象や、同じと思われる2つの事象でも、気象条件などを含む多様な変数の違いでコンピューターには同じものだと認識できない場合が少なくない。これらをコンピューターが認識できるように人間が逐一プログラミングすることは困難だが、膨大な走行データを収集し、最先端の計算能力を持つデータセンター上のコンピューターでディープラーニングさせることにより、人間では気づかないことも機械的に学習することが可能になる。

 自動運転技術の開発として、これらをデータセンター上のシミュレーションと公道上の実走行を積み重ねて行う企業が多い。中には、Teslaのように、既に市販されたクルマで人間のドライバーによる通常の道路走行と並行し、仮想的に自動運転ソフトウエアを走らせる(シャドーモードと呼ぶ)トレーニングや検証を行っている企業もある。

 センサーから得られた環境情報と、与えられた3次元地図とを対比し、“見える”範囲の信号や交通標識、障害物などをより正確に認識して衝突などのリスクを回避する。その先の“(センサーでは)見えない”範囲は、地図情報を基に計画的な自動走行の軌道を仮設し、走りながら1秒間に数十回に及ぶ頻度で常に計算し続けて走行する。人間であれば、大脳前頭前野で判断された操作命令が、運動野を介して手足などを動かす神経系に伝達されてクルマを運転する。自動運転の場合は、コンピューターからの操舵(そうだ)および加減速の命令がCAN(Controller Area Network)に伝達されてクルマが動くことになる。

 さらに、自動運転車がセンサーで認識した道路の現況が地図データと異なれば、大量に走行する個々のクルマからのデータに基づき、統計的処理を経てクラウド上の3次元地図を更新し、それをまた自動運転車が利用する。この3次元地図も、自動運転の開発として極めて重要な一部である。

この先は有料会員の登録が必要です。今なら有料会員(月額プラン)が12月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら