本周的 CES 展会上,英伟达展示了 DGX Spark 和 DGX Station 桌面 AI 超级计算机的能力。
这些系统号称「全球最小 AI 超算」,基于 Grace Blackwell 架构算力,拥有 128G 统一内存和千万亿次级 AI 性能,为开发者提供了在本地开发并轻松扩展到云端的全新能力。
其中,DGX Spark 可以运行 1000 亿参数的大模型,DGX Station 可运行 1 万亿参数模型。

自去年 10 月份发布以来,DGX Spark 的 token 生成性能已经提升了一倍以上,这主要归功于软件方面的提升。
英伟达表示,由于模型优化技术的不断进步以及与开源社区的合作,以前需要数据中心才能运行的各种开源模型现在可以在桌面级的 DGX Spark 和 DGX Station 上加速运行。
DGX Spark 预配置了 NVIDIA AI 软件和 NVIDIA CUDA-X 库,为开发人员、研究人员和数据科学家提供强大的即插即用优化功能,用于构建、微调和运行 AI。
Spark 为所有开发者提供了一个基础平台,让人们可以在桌面级设备上运行最新的 AI 模型;Station 则使企业和研究实验室能够运行更高级、更大规模的前沿 AI 模型。这些系统支持直接从桌面运行最新的框架和开源模型,包括最近发布的 Nemotron 3 模型。
NVIDIA Blackwell 架构为 DGX Spark 提供支持(具备大致相当于 RTX 5070 的算力),其支持 NVFP4 数据格式,可将 AI 模型压缩高达 70%,并在不损失推理性能的情况下提高速度。
NVIDIA 正在与开源软件生态系统的合作,例如与 llama.cpp 的合作,从而进一步提升性能。在 DGX Spark 上运行最先进的 AI 模型时,平均可实现 35% 的性能提升。llama.cpp 还包含一项提升用户体验的升级,可加快 LLM 的加载速度。
DGX Station 搭载了 GB300 Grace Blackwell Ultra 超级芯片和 775GB FP4 精度的一致性内存,可运行高达 1 万亿参数的模型,为前沿 AI 实验室提供桌面级大规模模型的尖端计算能力。这包括多种先进的人工智能模型,例如 Kimi-K2 Thinking、DeepSeek-V3.2、Mistral Large 3、Meta Llama 4 Maverick、Qwen3 和 OpenAI gpt-oss-120b。
vLLM 核心维护者、清华博士游凯超表示:「GB300 通常以机架式系统的形式部署。这使得像 vLLM 这样的项目难以直接在强大的 GB300 超级芯片上进行测试和开发。DGX Station 改变了这种现状。通过将 GB300 集成到紧凑的单系统桌面环境中,DGX Station 使 vLLM 能够以更低的成本测试和开发 GB300 的特定功能。这加快了开发周期,并使 vLLM 能够轻松地持续验证和优化 GB300 的性能。」
除了 AI 能力的提升,英伟达还宣布计划在本月晚些时候以订阅服务的形式在 Spark 上提供完整的 AI 企业套件。该套件包含对一系列面向企业的应用程序、框架、模型和微服务的访问权限,旨在简化 AI 应用和服务的开发。
英伟达计划在今年内发布一个完全可在 Spark 上运行的 Nsight CUDA 代码助手版本。此前,该助手使用的模型体积过大,无法在英伟达的消费级显卡上运行,只能在云端使用,这对于注重隐私的企业来说实用性受到限制。
对于游戏玩家而言,英伟达正在将 RTX Remix 支持扩展到 Spark 平台。该平台旨在支持利用英伟达的光线追踪加速器开发游戏模组。通过此次集成,诸如文本生成等任务可以在 Spark 上实现运行。
对于机器人爱好者,英伟达表示正在开发一份新的指南,将 Spark 与 Hugging Face 的 Reachy 机器人搭配使用。