資料の紹介

 計算力学や人工知能(AI)などの領域は、膨大な量のデータを高速に処理できる「High Performance Computing(HPC)」なしには成り立たない。そのHPCサーバーに求められる最も基本的な要件の一つはプロセッサの高速性だが、それだけでは不十分だ。

 x86サーバーの多くは、CPUに搭載したPCI Express(PCIe)でGPUとの間を接続し、GPUとGPUの間は専用のインターコネクトでつなぐ方式を採用している。しかしこの方式では、CPUとメモリー、GPUとGPUの間ではデータを高速にやり取りできるが、CPUとGPUの間がボトルネックになり、全体の処理性能が低下してしまう。

 本資料では、GPU用のインターコネクトをCPUに内蔵することで、このボトルネックを解消した最新の超高速サーバーを紹介する。CPUとGPUの間で、GPU/GPU間と同じ双方向80GB/sの帯域幅を確保することで、帯域幅が従来の2.5倍になり、“待ち合わせ”による効率低下の影響を最小限に抑えられる。

次ページ以降は日経 xTECH Active会員(無料)の方のみお読みいただけます。