資料の紹介

 計算力学や人工知能(AI)などの領域は、膨大な量のデータを高速に処理できる「High Performance Computing(HPC)」なしには成り立たない。そのHPCサーバーに求められる最も基本的な要件の一つはプロセッサの高速性だが、それだけでは不十分だ。

 x86サーバーの多くは、CPUに搭載したPCI Express(PCIe)でGPUとの間を接続し、GPUとGPUの間は専用のインターコネクトでつなぐ方式を採用している。しかしこの方式では、CPUとメモリー、GPUとGPUの間ではデータを高速にやり取りできるが、CPUとGPUの間がボトルネックになり、全体の処理性能が低下してしまう。

 本資料では、GPU用のインターコネクトをCPUに内蔵することで、このボトルネックを解消した最新の超高速サーバーを紹介する。CPUとGPUの間で、GPU/GPU間と同じ双方向80GB/sの帯域幅を確保することで、帯域幅が従来の2.5倍になり、“待ち合わせ”による効率低下の影響を最小限に抑えられる。

この先は日経 xTECH Active会員の登録が必要です

日経xTECH Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。