AI分野をリードしているのは米中の巨大IT企業だが、レースの勝敗はまだ決まっていない。注目すべき国内AIスタートアップがある。ニッポンAIは捨てたもんじゃない。

 「我々の手で世界が驚くような超高性能のAI(人工知能)チップを作ろう」――。

 2016年9月、Preferred Networks(PFN)と理化学研究所のメンバーが参加した合宿で、これまでにないAIチップの開発方針が話し合われた。そこで、ディープラーニング(深層学習)の演算に必要な回路を極限まで詰め込んだAIチップの開発を目指すことに決めた。

 合宿に参加したのは、PFN側は西川徹社長最高経営責任者(CEO)と奥田遼介取締役最高技術責任者(CTO)などの経営陣に加え、ソフトウエア技術者の加藤辰哉氏など中核メンバーが集まった。理研側は並列演算チップ「GRAPE」シリーズの開発で知られる神戸大学の牧野淳一郎教授と、天才プログラマーとしても知られる天体物理学者の村主崇行氏など国内最高レベルのメンバーが一堂に会した。

 この合宿から2年ほど後の2018年12月にPFNが発表したのが、AIチップ「MN-Core」だ。深層学習の演算に特化しており、深層学習に適した半精度(16ビット)演算で524T(テラ)FLOPS(1秒当たり浮動小数点演算回数)を実現した。

PFNはSEMICON Japan 2018の企業ブースでチップやボード、きょう体を展示していた
[画像のクリックで拡大表示]

 演算性能だけでいえば、2002年に実行演算性能で世界一となったスパコン「地球シミュレータ(初代)」をほぼ1パッケージに詰め込んだものといえる。アーキテクチャーの違いから他社チップとの単純な比較は難しいが、1パッケージ当たりの演算性能は米エヌビディア(NVIDIA)のGPU(画像処理プロセッサー)「V100」の4倍、米グーグル(Google)の「TPU 3.0」の1.5倍ほどとみられる。消費電力は500ワット(予測値)で、半精度演算で1ワット当たり1テラFLOPS超という「世界最高クラス」(Preferred Networks)の電力効率を達成した。

きっかけはNEDOプロジェクト

 MN-Core開発のきっかけは、Preferred Networksと理研が組んで2016~2017年度に実施したNEDO(新エネルギー・産業技術総合開発機構)プロジェクトだった。

 PFNの西川CEOはかつて、東京大学の平木敬教授(現名誉教授)研究室所属の学生として、牧野氏が主導する並列演算プロセッサー「GRAPE-DR」開発プロジェクトに関わっていた。その縁もあり、理研に所属する牧野氏が西川CEOに声を掛ける形で両者がタッグを組んだ。

 NEDOプロジェクトの目的は深層学習に適した行列演算チップの性能評価である。台湾積体電路製造(TSMC)の40nm(ナノメートル)プロセスのシャトルサービスで小規模なチップを作成し、ワット当たり演算性能などを評価する。

 プロジェクト開始後の2016年9月、主要メンバーが実施したのが冒頭の合宿だった。そこでNEDOと並行して「もう1つのプロジェクト」を検討した。深層学習のアプリケーションに最適化した学習(Training)用チップを開発する、というものだ。

 当時、学習用AIチップを開発している企業はほとんどなかった。エヌビディアのGPUが、深層学習向けに十分な性能を発揮していたからだ。

 グーグルは2015年からAIチップ「Tensor Processing Unit(TPU)」の活用を始めたが、これは学習済みモデルを使って判断や予測をする「推論(Inference)」向けのチップだった。グーグルが学習用チップ「TPU v2」を開発、導入したのは2017年である。「開発競争が激化していた推論用チップと比べ、学習用チップは『穴場』だった」と、PFNエンジニアの加藤氏は振り返る。「AIチップを開発することで、研究者の生産性をさらに高めたかった」(加藤氏)。

Preferred Networksの加藤辰哉エンジニア
[画像のクリックで拡大表示]

この先は有料会員の登録が必要です。有料会員(月額プラン)は初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら