AI(人工知能)用のプロセッサーで、中国Huaweiが攻勢に出ている。2019年8月や9月に開催されたイベントにおいて、深層学習(ディープラーニング)の学習用プロセッサーや同プロセッサーを搭載したサーバー、クラスターをアピールした。

 8月には、米Stanford Universityで開催されたプロセッサーのイベント「Hot Chips 31」に登壇注1)。深層学習に向けたAIプロセッサー(SoC)で、堂々の「グーグル、NVIDIA越え」を宣言した。

注1)米中の貿易摩擦の影響なのか発表予定者は来場せず、あらかじめ撮影されたビデオでの講演になった。講演後、リアルタイムで音声通話による発表予定者へのQ&Aは実施された。

 具体的には、2019年8月に出荷を始めた学習用AIプロセッサー「Ascend 910」だ(図1)。台湾TSMCの7nmプロセスで製造。演算性能は256TFLOPS(fp16)、105TFLOPS(bf16)の米グーグルの「TPU 3.0」や120TFLOPS(fp16)の米NVIDIAの「Tesla V100」よりも処理性能が高いとした。消費電力は310Wと、当初目標としていた350Wを下回った。H.264とH.265に向けた128チャネルのデコーダーも備える。

図1 AIプロセッサーで「グーグル、NVIDIA越え」
Huaweiは、2019年8月の「Hot Chips 31」でビデオ講演し、同月に出荷を始めた学習用AIプロセッサー「Ascend 910」を紹介した。演算性能は256TFLOPS(fp16)で、グーグルの「TPU 3.0」やNVIDIAの「Tesla V100」よりも処理性能が高いとした(c)。(図:(b)と(c)はHuaweiの「Hot Chips 31」での講演資料)
[画像のクリックで拡大表示]

 Ascendシリーズは「DaVinci(ダビンチ)」と呼ぶアーキテクチャーを採用した。DaVinciコアと呼び、同コアは行列演算用の積和演算アレーの「Cube」のほか、ベクトル演算器、通常のスカラー演算器などを備える。Cube内には、4096(16の3乗)個の浮動小数点積和演算器(fp16)があり、ここでディープニューラルネットのCNNの演算などを行う。ベクトル演算器は2048ビットで、活性化関数の演算などに対応する。DaVinciコアはサーバー用やモバイル用など用途に応じていくつかのバージョンがあり、Cubeやベクトル演算器の演算性能が異なる(図2)。

図2 複数のバージョンを用意
Ascendシリーズは、「DaVinci(ダビンチ)」と呼ぶアーキテクチャーを採用。DaVinciコアには複数のバージョンがあり、メモリー容量や演算性能などが異なる。例えばサーバー用のAscend 910は最も高性能なコアを32個集積した。(図:Huaweiの「Hot Chips 31」での講演資料)
[画像のクリックで拡大表示]

 Huaweiはさまざまな用途に向けてDaVinciコア搭載のAscendシリーズを手掛けている。PCや監視カメラなどに向けた推論用に「Ascend 310」を実用化した。モバイル向けや車載向け、ワイヤレス向けのAIプロセッサーも開発中という。

この先は有料会員の登録が必要です。「日経エレクトロニクス」定期購読者もログインしてお読みいただけます。今なら有料会員(月額プラン)が2020年1月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら