
主にモバイル向けの印象が強いQualcommは、実はデータセンター向けにAIアクセラレータを投入しています。その新製品「Qualcomm AI200」と「Qualcomm AI250」が発表されました。
Qualcomm AI
Qualcommのデータセンター向けAIアクセラレータは、すでに「Qualcomm AI 100 Ultra」が投入されています。このAI 100 Ultraは、推論カードでした。
一方で、今回発表された「Qualcomm AI200」と「Qualcomm AI250」の2つは、ラックソリューションとして投入されています。
AI 200とAI 250のチップ自体は、優れた推論性能と、メモリ性能・容量を実現しています。これをラック規模で提供するのが、今回の大きな特徴です。
メモリは768GBのLPDDR5メモリを搭載しています。AIアクセラレータとしての容量は、NVIDIAやAMDよりも大きく、Apple SiliconをAIアクセラレータとするとこれよりも大きいです。
AI250では、メモリアーキテクチャはニアメモリアーキテクチャを採用し、有効帯域幅を10倍に高めながら、電力効率も改善しています。
チップは、SnapdragonやDragonwingに搭載されている「Hexagon NPU」をベースにしており、若干成熟したプラットフォームをデータセンター向けにも展開できるのが特徴です。特に、今回Qualcomm AIは推論が中心となっているものなので、親和性は高そうではありますね。
システムの規模の話をすると、AI200あるいはAI250を内蔵するラックでは、72基のAIアクセラレータを一つのシステムとして動作させることができます。この規模はNVIDIAやAMDのものと同等の規模となります。
やはり、この手のシステムでは「総所有コスト」(TCO)の話が出ていますが、Qualcommはメモリの容量や性能からTCOの低さをアピールしています。
ちなみに、ラックの冷却ソリューションには、直接水冷を提供しています。
投入
投入は、AI200が2026年以降、AI250が2027年以降に投入されます。
すでに、サウジアラビアのHumainというAI企業と、メガワットレベルの納入が決定しているそう。
AIのアクセラレータといえば、NVIDIA一強感がありますが、AMDのRadeonやInstinct、IntelのGaudi(及びその後継)、GoogleのTPU、Microsoft Cobalt、AWS Gravitonと結構色々あります。その中に新しくQualcommが本格的に参入することになりますが、存在感を出せるでしょうか。
個人的には、Edge AIについてQualcommが徐々に存在感を増しつつある中で、データセンターでも存在感を発揮できるのか、注目です。