錦です。
現行のIce Lake-SPの後継となるスケーラブルプロセッサ「Saphire Rapids-SP」の情報です。IntelはISC 2021で、Saphire Rapidsの一部概要を明らかにしました。
HBMを内蔵
HBMメモリはHighbandwidth Memoryのことで、日本語では高帯域メモリとなっており、DDRより高い帯域幅を持ったメモリです。HBMは、HBM2やHBM2eという名前でデータセンターやHPC、ワークステーション向けのハイエンドGPUやGPGPUに採用されることが多いメモリ規格です。例えば、Mac ProのVega IIや、先日発表されたPCIeモデルのNVIDIA A100 80GBもHBM2あるいはHBM2eを採用しています。
AnandTechによると、IntelはこのHBMの規格や容量、具体的な帯域幅を明かしていないとしつつ、このHBMメモリはオンボードとなっており、16GBのチップが最大4チップ、合計64GB搭載されるとリークしています。
また、HBMメモリがオンボードになっていることもあり、CPUの電力内の扱いになるようで、CPUの電力コストが増幅すると指摘されています。サーバー向けCPUの場合、電力・クロックを効率的なポイントに調整してコアをスケーリングします。HBMメモリの消費電力とCPUのそれは、トレードオフになるそう。
Sapphire Rapidsはすでに一部の研究機関向けに提供されているそうで、HBMを内蔵した同プロセッサは好意的に受け入れられているとのこと。後述のPCIe 5.0やCXL 1.1のサポートによる帯域の工場も機械学習処理やデータ分析に役立っているそう。
その他の仕様
DDR5に対応するのと同時にSapphire Rapidsでは、PCIeもGen 5にアップグレードされます。また、データセンター向けのメモリ・CPUの高速通信インターコネクトであるComputte Express Link(CXL)がCXL 1.1にアップデートされおり、HBMのサポートに加えてPCIe 5.0/DDR5/CXL 1.1のサポートが含まれており、全体的に帯域幅が向上しています。
それに加えて、AI演算の拡張命令となる「Intel AMX」命令をサポートしているとのこと。
Source:ITmedia PC USER