Nishiki-Hub

国内外のPC/PCパーツ/スマホ/Appleなどの最新情報を取り上げています

Microsoft、独自のAIチップ「Maia 100」と最大128コアの独自Armプロセッサ「Cobalt 100」を発表

Microsoftは、Ignite 2023にて、同社のクラウドサービスであるMicrosoft Azureに向けて「Maia 100」という毒にAIアクセラレータと、Armベースの「Cobalt 100」を発表しました。

市場状況

現在、半導体ファブ企業の増加やArmの効率性の高さや、世界的な半導体不足、一部に特化したアクセラレータの需要が高まっていることなどなどから、様々なVPSクラウドサービス、IaaS/PaaSなどは機械学習は、他社製チップから社内設計のものを提供する動きがあります。例えば、AWSは、ArmのNeoverseをベースとした「Graviton」、Googleの「TPU」、Oracleの「Ampere」など、IntelAMD製のプロセッサ以外を採用する動きがあります。

Microsoftもこの動きにもれず動いていたようです。

MicrosoftはGPTを提供しているOpenAIと提携しており、CopilotやBingAIの他、AzureのサービスにもOpenAIを組み込んだものを提供しています。その中でMicrosoftはサーバー向けに、よりAIに特化した2種類のチップを発表しました。

Maia

Maiaブランドは、プロセッサではなくAIアクセラレータです。その最初の製品となるのは「Maia 100」です。

Tom's Hardwareによると、Maia 100と後述する「Cobalt 100」は最新のTSMCプロセスノードで製造されているとMicrosoftが話しており、The Vergeによると5nmであるとのことです。

The Vergeによると、トランジスタ数は1050億基。非常に大規模なチップであることがわかります。Microsoftは、Maia 100の冷却に水冷を使うことを表明しています。

なお、MicrosoftはMaia 100をGPUと表現しており、おそらく感覚的にはNVIDIA H100のようなものになるのでしょうか(PC WatchはTPUやASICのようなものと指摘している)。

具体的な仕様については明かされていませんが、Maia 100搭載サーバーは、アクセラレータごとに4.8 Tbitの帯域を備えた完全にカスタムされたイーサネットベースのネットワークプロトコルで設計されており、より優れたスケーリングとE2Eのワークロードパフォーマンスを可能にするとしているようです。

Maia 100は、OpenAIからのフィードバックを受けて開発したとしており、大規模な言語モデル向けに設計されているとしています。現時点で、GPT 3.5 Turboを使ってMaia 100がテストされているそうです。OpenAIの各モデルはNVIDIAGPUによってトレーニングされていますが、今後はMicrosoft製チップも活用されていくようになるのでしょうか。

Cobalt

CobaltはArmに基づく最大128コアのCPUです。The VergeによればNeoverse CSSのIPを採用しているとしています。Microsoftは、高いパフォーマンスを実現するだけではなく、電源管理にも留意したと述べています。

Microsoftブランドでは、Armプロセッサは「Microsoft SQ」シリーズがありますが、SQシリーズがQualcommのSnapdragonのカスタムチップであるのに対して、Cobaltは完全にMicrosoftがカスタムしたArmチップとなります。

こちらもこれ以上の情報が共有されたわけではありませんが、Microsoftによると、性能は現在の商用Armサーバーを使用しているAzureより最大40%優れているとしています。

第2世代開発とともにNVIDIA/AMDとも協力

Microsoftは、Maia 100およびCobalt 100の後継となる第2世代のチップについても開発を進めているとしています。

また、同時にNVIDIAAMDとのパートナー協力も続けていくとしています。このタイミングで、AMD MI300X Acceleration VMをAzureに追加することを発表しています。

さらに、NVIDIAの最新のGPGPUNVIDIA H200」も来年提供するそうです。

関連リンク