NVIDIAは、GTCにてAppleの空間コンピューティングデバイスである「Apple Vision Pro」上で、NVIDIAのデジタルツインプラットフォーム「Omniverse」を動作できるようにするAPIを公開することを発表しました。
Omniverseの新発表
ここ数年、GTCやNVIDIAの発表では、AIの発表だけでなく、Omniverseの発表も精力的に行われています。
NVIDIAは「Universal Scene Description」(USDあるいはOpenUSD)との普及を目指しており、これにはAppleも協力しています。
今回のGTCでは、「NVIDIA Omniverse Cloud」のAPIが利用可能となることが発表されました。これによって開発者が自社のソフトウェアにOmniverseの技術を組み込む事が可能になりました。
なお、すでにAnsys、Cadence、3DEXCITE(Dassault Systèmes)、Hexagon、Microsoft、Rockwell Atomatin、Siemens、TrimbleがこのAPIを使用して自動運転や6G、工場、製造前の製品、ファクトリーオートメーション(工場の自動化)のシミュレーションなどを実行しています。
このAPIには、OpenUSDのデータを完全にレイトレースされたRTXレンダリングを作成する「USD Render」、OpenUSDのデータ変更や操作ができる「USD Write」、シーンクエリとインタラクティブシナリオを提供する「USD Query」、USDの変更を追跡し更新状況を提供する「USD Query」、ユーザーやツールなどを接続して、シーンを超えたコラボレーションを可能にする「Omniverse Channel」の5つが含まれています。
Apple Vision Proへの対応
このOmniverse Cloud APIを使用することで、Apple Vision ProにOpenUSDをストリーミングするためのグラフィックス対応データセンターのグローバルネットワークであるNVIDIA Graphics Delivery Network(GDN)に簡単に送信することができるとしています。
NVIDIAは、産業エンタープライズの空間コンピューティングのユースケースにおいて、製造体験を現実のものにするためには、信じられないほどの高解像度のディスプレイと高フレームレートで動作する強力なセンサーが必要であるとしています。Apple Vision Proの画期的な高解像度ディスプレイと、NVIDIAの強力なクラウドRTXレンダリングを組み合わせて、デバイスとインターネット接続だけで空間コンピューティング体験を提供するとしています。
また、Apple Vision Pro側でも、Omniverse RTXレンダラーを使用することで、AppleのSwift UIやRealityKitから単一のアプリケーションで完全にインタラクティブなエクスペリエンスをレンダリング可能です。
簡単に言うと、Swift UIやRealityKitからNVIDIAのクラウド上のレンダリングエンジンを使ってレンダリングしてApple Vision Pro上で表現できるよってことみたいです。
この発表では、リリースで、NVIDIAだけでなくAppleの役員もコメントを寄せています。今後、AppleからのVision Pro上でのコンテンツクリエイティブ関わる様々な新機能が期待されます。
めっちゃ意外なんですけど若干AppleとNVIDIAの関係が改善してきてる気がしますね。