米Intelの「Xeon」が支配するサーバー用CPU市場。スマートフォン市場の雄である米Qualcommと、かつてXeonに敗れた米AMDが、Xeonの牙城に挑み始めた。2017年8月末に開催された「Hot Chips 29」の講演から、両社の対Xeon戦略を探る。

 米AMDはHot Chips 29で、2017年7月に発表したサーバー用プロセッサ「EPYC」の詳細を解説した。この記事ではEPYC内部の技術的な詳細ではなく、AMDの製品戦略に絞って解説する。

AMDがMCMを採用した理由はコスト削減

 AMDのEPYCは最大で32個のCPUコアを搭載する。Intelが2017年7月に発表した「Xeon Scalable Processors」は最大28コアであり、コアの数でAMDはIntelを一歩リードしている。

 AMDは32コアを実現するに当たって、大きな単一(モノリシック)のダイ(半導体本体)を設計するのではなく、小さなダイを一つのパッケージ納めるMCM(multi chip module)構成を採用した。AMDのKevin Lepak氏はHot Chips 29の講演で、同社がMCMを採用した理由が製造コストの削減にあることを明かした(写真1)。

写真1●MCMのコストについて語る米AMDのKevin Lepak氏
[画像のクリックで拡大表示]

 32コアのEPYCは、8個のCPUコアとL2/L3キャッシュメモリーを搭載するダイ4個で構成する。各ダイは高速な「Infinity Fabric」で接続する。ダイ1個の面積は213平方ミリメートル。ダイを4個搭載すると、ダイの総面積は852平方ミリメートルとなる。AMDによれば、32コアを搭載するモノリシックなダイを設計した場合、ダイの面積は777平方ミリメートルとなる。

モノリシック設計に比べてコストは41%削減

 MCMとモノリシックを比較すると、ダイの総面積はMCMの方が10%ほど大きくなる。MCMではInfinity Fabricのために余計な回路が必要となるためだ。しかし製造コストはシリコンを余計に使うMCMの方が、モノリシックに比べて41%安価になるのだという。

 ダイの面積が大きいモノリシックの製造コストが高くなるのは、半導体製造においてはダイの面積が大きくなるほど、製造歩留まり(生産品に対する正常品の割合)が悪化しやすくなるためだ。また、モノリシックな設計では、24個と10個など大幅にコアの数が変わる製品では設計の異なるダイを用意しなければならないことがある。

 一方、MCMでは、ダイの設計を共通にしてパッケージに搭載するダイの数を変えるだけで、コア数の異なる製品を実現できる。例えば、AMDのEPYCには、コアが32個、24個、16個、8個の製品がある。プロダクト開発のコストでも、MCMの方が有利である。AMDは性能面だけでなく価格面でも、IntelのXeonに対抗する構えだ。

AMDの主張で改めて見えた、NVIDIAの「確信」

 Hot Chips 29では、ダイの面積に関して面白いシーンもあった。米NVIDIAがディープラーニング用のGPUである「Tesla V100」のダイ面積が815平方ミリメートルになると講演で発表した際に、会場からどよめき声が起こったのだ。Hot Chips 29の参加者は、半導体メーカーの従業員やコンピュータサイエンスの研究者が大半だ。Tesla V100のダイサイズは2017年5月の発表時点で明らかにされているが、それを知っているとみられる彼らが改めて声を上げるほど、Tesla V100のダイは大きいのだ。

 Tesla V100の815平方ミリメートルというダイ面積は、AMDがEPYCをモノリシックで設計した場合のダイ面積である777平方ミリメートルを大きく上回る。一般に、半導体は歩留まりが低いと、生産量が下がって高価にせざるを得ない。巨大なダイでも商売になると踏んだところに、Tesla V100に対するNVIDIAの期待と、市場が拡大することへの確信がみてとれる。

次ページ以降は日経 xTECH Active会員(無料)の方のみお読みいただけます。