NVIDIAは2025年3月18日「GTC2025」で、従来はデータセンター向けだったGrace Blackwellアーキテクチャを個人使用できるAIスパコン「DGX Spark(左)」と「DGX Station(右)」を公開しました。

Spark(左)とStation(右)
DGX Spark – 超小型AIスーパーコンピュータ
DGX Sparkは手のひらサイズの筐体にCPUとGPUを統合したGrace Blackwellプラットフォームを搭載した、小型ながら強力なAIワークステーションです。「世界最小のAIスーパーコンピューター」として位置付けられており、個人のデスクでも使える静音・省電力設計で、研究者や開発者がローカル環境でAIモデルのプロトタイプ作成や微調整を手軽に行えるよう設計されています。
主要スペック(DGX Spark)
- プロセッサ(CPU/GPU):ArmベースのGrace CPU(20コア:Cortex-X925×10 + Cortex-A725×10)と、新世代のBlackwell GPUを1チップに統合。第五世代TensorコアとFP4演算に対応し、高度なAI計算に最適化されています。
- メモリ:128GBの統合システムメモリ(LPDDR5x)を搭載。CPUとGPUでメモリを共有するユニファイドメモリ構造で、データ転送を高速化。メモリ帯域幅は273GB/秒に達し、AI処理を支えます。
- ストレージ:超高速NVMe SSDを最大4TB搭載可能(標準モデルは1TBまたは4TB)です。
- インターフェース:40Gb/s対応のUSB4(Type-C)×4ポート、10ギガビットEthernet(RJ-45)×1ポートを装備。NVIDIA ConnectX-7スマートNICを内蔵し、高速ネットワーク通信に対応します。Wi-Fi 7やBluetooth 5.3、HDMI 2.1映像出力も可能でデスクトップPC感覚で設置できます。
- 消費電力・サイズ:定格消費電力は約170Wと省電力で、筐体サイズは150×150×50.5 mm(重さ約1.2kg)とコンパクトです。
主な用途と活用分野(DGX Spark)
DGX SparkはAIモデルの開発・テストから小規模モデルの学習・推論まで幅広く活用できます。例えば、新しい機械学習モデルのプロトタイピングや実験をローカル環境で行い、その後クラウド上の大規模インフラにシームレスに移行するといった使い方が可能です。
単体で数十億~数百億パラメータ規模のモデルを扱える性能があり、最大で約700億パラメータのモデルの微調整(ファインチューニング)や、約2,000億パラメータのモデルの推論もローカルで実行できます。これは、チャットGPTのような大規模言語モデルの一部を手元で動かしたり、独自データで調整した生成AIを社内で運用したりする用途に役立ちます。
価格と提供時期(DGX Spark)
DGX Sparkは2025年夏頃に出荷開始が予定されています。NVIDIAの公式サイトでは既に予約受付が開始されており、基本構成モデルの価格は約4,000ドル(約60万円)程度になる見込みです。
2025年3月20日現在予約が可能なのは米国、英国、フランス、イタリア、ドイツ、スペインのみとなっています。
DGX Station – データセンター級性能を備えた卓上AIスーパーコンピュータ
DGX Stationはデスクサイドに設置できるタワー型筐体に、最新世代のGrace CPUとBlackwell GPUを搭載したハイエンドAIワークステーションです。単体でデータセンタークラスの性能を発揮することを目指しており、大規模なAIモデルのトレーニングや高度な推論処理をオフィスや研究室内で直接実行できるようにします。Sparkでは手に余るような数百億~数千億パラメータ級のモデル開発や、チームでの共有利用などを念頭に設計されたモデルです。主要メーカー(ASUS、Dell、HP、BOXX、Lambda、Supermicroなど)からOEM提供される予定で、企業のAI研究部署や大学・研究機関にも適した高性能デスクトップAIサーバとなっています。
主要スペック(DGX Station)
- プロセッサ(CPU/GPU):AGrace CPU(72コア、ARM Neoverse V2)1基と、Blackwell Ultra GPU 1基を搭載。GPUは次世代「Blackwell」アーキテクチャの最上位モデルで、大規模演算に対応する最新のCUDAコアと第5世代Tensorコアを備えています。GPUとCPUはNVLink-C2Cという高速コヒーレントインターコネクトで直結され、PCIeを大きく上回る最大900GB/秒の帯域でデータをやり取りします。
- メモリ:CPU側に最大496GBのLPDDR5Xメモリ、GPU側に最大288GBのHBM3e高帯域メモリを搭載し、合わせて784GBもの巨大な統一メモリ空間を実現しています。メモリ帯域はGPU側で驚異の8TB/秒に達し、巨大なデータセットもボトルネック無く扱えます。これにより数百億~数千億パラメータ級AIモデルの学習や、大規模データのインメモリ処理が可能です。
- ネットワーク:次世代のConnectX-8 SuperNICを搭載し、単一ポートで最大800Gb/秒ものネットワーク帯域を実現します。複数のDGX Stationを相互接続してクラスターを構築することも想定されており、高速ネットワーク経由でデータをやり取りする大規模分散AI処理にも対応可能です。
- その他:OSはDGX OS(LinuxベースのAI用スタック)を採用。1基のGPUながらMIG(Multi-Instance GPU)機能で仮想的に最大7つの独立GPUとして分割利用でき、チームでの共有や複数同時ジョブ実行にも柔軟に対応します。冷却・電源設計もオフィス環境で動作可能な範囲に抑えられており、従来のラックマウント型サーバ並みの性能をデスクサイドで扱える点が大きな特徴です。
主な用途と活用分野(DGX Station)
DGX Stationは企業や研究機関における本格的なAI開発・大規模分析向けに設計されています。例えば製造業では設備の予知保全のためのディープラーニングモデル開発、医療分野では高解像度な画像診断AIの研究、IT企業では大規模な自然言語処理モデルのファインチューニングなど、産業横断的に活用が期待されています。
卓上にいながら膨大な計算資源を使えるため、クラウドに機密データを出せない金融・政府分野でオンプレミスAIインフラとして使ったり、AIスタートアップ企業が自社オフィスで大規模モデルを内製する、といった用途にも適しています。
また、最新のBlackwell GPUは大規模言語モデル(LLM)などの推論性能も飛躍的に高めています。DGX Station上で数百億~数千億パラメータに及ぶモデルを動かし、リアルタイムに近い速度で生成AIによるテキスト生成や高度なチャットボットの実行が可能です。
例えば社内の問い合わせ対応を行う独自のChatGPT的AIを構築し、DGX Station上で稼働させれば、機密データをクラウドに出さずに高速な応答を実現できます。さらに前述のMIG機能により、1台のマシンを複数人で共有し、それぞれが独立したGPUリソースを使って同時に開発・実行することも可能です。
価格と提供時期(DGX Station)
DGX Stationは2025年後半に主要メーカーから発売予定と発表されています。ASUSやDell、HP、BOXX、Lambda、Supermicroといったハードウェアパートナー各社がDGX Stationを製造・販売し、ユーザーはそれらを通じて購入する形になります。価格について公式な発表は現時点ではありません。しかし、搭載されるハードウェア性能から判断してDGX Sparkよりは大幅に高価になる見込みです。参考までに、前世代のDGX Station A100(GPU4基搭載モデル)は数千万円規模の価格帯でした。
まとめ
NVIDIAのDGX SparkとDGX Stationは、AI開発の現場に「手元で使えるスーパーコンピュータ」という新たな選択肢をもたらすことになります。DGX Sparkは手頃な価格とサイズで個人レベルの研究開発を強力に支援し、DGX Stationは従来クラウドや大型サーバでしかできなかった大規模処理をオフィスに持ち込むことを可能にします。NVIDIA創業者のジェンスン・フアン氏も「これはAI時代のコンピュータであり、今後コンピュータが進むべき姿だ」と述べています。
