米フェイスブック(Facebook)のAI(人工知能)チップ戦略が判明した。現在は5社の半導体メーカーから同社向けにカスタマイズしたAIチップを調達し、機械学習の推論に使っている。次のステップとして、自然言語処理(NLP)に特化したAIチップを開発する。

 5社の半導体メーカーから推論用のAIチップを調達していることは、2019年3月14~15日(米国時間)に米サンノゼで開催されたイベント「OCP Global Summit」で発表した。NLPに特化したAIチップの自社開発を進めていることは、2019年2月17~21日(同)に米サンフランシスコで開催された半導体の学会「ISSCC(International Solid-State Circuits Conference) 2019」で明らかにしていた。

 フェイスブックは以前から、ディープラーニング(深層学習)におけるモデル構築(訓練)に、米エヌビディア(NVIDIA)のGPUを使用していた。しかし、モデルを使った推論での複数AIチップの使用を明らかにしたのは、今回が初めてだ。

1日200兆回の推論処理をAIチップで処理

 OCP Global Summitの基調講演に登壇したフェイスブックのビジャイ・ラオ(Vijay Rao)技術戦略担当ディレクターは、「当社では1日当たり200兆回以上の予測処理や60億回の言語翻訳を実行している」と説明。同社におけるディープラーニングの推論処理のボリュームが非常に大きいことを強調した。

 これほど膨大な推論処理をCPUやGPUに担わせると、消費電力が大きくなり過ぎる。そのため、少ない消費電力で推論を処理できるAIチップを採用した。

OCP Global Summitで講演するフェイスブックのビジャイ・ラオ氏
[画像のクリックで拡大表示]

 同社が採用する推論用AIチップは、消費電力1ワットにつき毎秒5テラ(兆)回の演算が可能(5TOPS/W以上)で、8ビット整数による演算とFP16(半精度)の浮動小数点演算にのみ対応する。これらの特徴は、米グーグル(Google)の推論用AIチップ「TPU」と似ている。

インテルやスタートアップなど5社と連携

 フェイスブックは、米エスペラントテクノロジーズ(Esperanto Technologies)、イスラエルのハバナラブズ(Habana Labs)、米インテル(Intel)、米マーベル・テクノロジー・グループ(Marvell Technology Group)、米クアルコム(Qualcomm)の5社と協力して推論用のASICを開発している。各社が開発したAIチップそのままではなく、同社用にカスタマイズした上で調達している。

 推論用AIチップを搭載するハードウエアはフェイスブックが自社で開発し、その仕様を「Open Compute Project(OCP)」を通じてオープンソースとして公開している。OCPはフェイスブックの主導で2011年に誕生した、データセンター用ハードウエアの仕様や設計図をオープンソース化する団体だ。

 ハードウエアを詳しく見ていこう。フェイスブックは今回、推論用AIチップを搭載する小型ボード、その小型ボードを最大6台搭載するカード、さらにそのカードを2台格納するシャシーを公開した。

 推論用AIチップを搭載する小型ボード「Kings Canyon」は、SSDに使われる「M.2(エムドットツー)」仕様の小型拡張ボード。Kings Canyonは「Glacier Point v2」と呼ぶカードに最大6台搭載する。Glacier Point v2を2台格納するシャシー「Yosemite v2」には2台のCPU搭載カードを格納できる。

AIチップを搭載した「Kings Canyon」ボードを6台搭載する「Glacier Point v2」
[画像のクリックで拡大表示]

この先は有料会員の登録が必要です。今なら有料会員(月額プラン)が12月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら