英伟达DGX Spark亮相CES 2026:大模型本地化或开启AI新纪元

   时间:2026-01-07 22:58 来源:快讯作者:杨凌霄

在刚刚落幕的 CES 2026 展会上,英伟达以一场聚焦人工智能的发布会吸引了全球目光。与往年不同,公司创始人黄仁勋并未在主题演讲中提及消费级显卡的更新计划,而是将舞台交给了全新的桌面级 AI 计算设备——DGX Spark。这款基于 NVIDIA Grace Blackwell 架构打造的产品,被定义为“个人超算”,旨在将数据中心级别的算力浓缩至桌面设备,为开发者与创作者提供本地化的大模型运行能力。

DGX Spark 的核心优势在于其硬件配置与软件生态的深度整合。单机配备 128GB 统一内存,支持通过 200Gbps ConnectX-7 网络将两台设备互联,形成 256GB 内存的超级节点。这一设计使其能够本地运行参数量高达 1000 亿的 AI 模型,或对 700 亿参数的大语言模型(LLM)进行分布式微调。在现场演示中,DGX Spark 成功加载了 1200 亿参数的 GPT-OSS 开源模型,并实现了 Qwen 图片生成与 Wan 2.2 视频生成等任务,展现了其作为“开发者沙盒”与“AI 创作者平台”的双重定位。

软件层面的突破同样引人注目。通过引入 NVFP4 数据格式,DGX Spark 在保持模型智能表现的同时,将内存占用降低约 40%,吞吐量显著提升。实测数据显示,在运行 Qwen-235B 模型时,NVFP4 格式相比传统 FP8 精度性能提升最高达 2.6 倍,有效解决了多任务处理时的内存瓶颈问题。英伟达预装了经过优化的 NVIDIA AI 软件栈与 CUDA-X 库,开发者无需繁琐配置即可直接使用,进一步降低了技术门槛。

针对本地算力的灵活性需求,英伟达推出了与 Brev 合作的远程访问方案。用户可通过安全协议远程连接 DGX Spark,实现类似云服务的便捷操作。更关键的是,Brev 支持智能路由层,允许敏感任务(如专有数据训练)强制在本地运行,而一般推理任务则无缝切换至云端,兼顾了隐私保护与算力扩展。这一功能预计于 2026 年春季正式上线,目前已有开发者通过早期版本体验到其便利性。

在应用场景方面,DGX Spark 展现了跨领域的潜力。视频创作者将其作为创意加速器,实测显示其生成速度较顶配 M4 Max MacBook Pro 提升 8 倍;企业用户则利用 Nsight 驱动的本地 CUDA 编码助手,在确保源代码安全的前提下实现 AI 辅助开发;机器人领域,DGX Spark 与 Hugging Face 合作,为 Reachy Mini 机器人赋予实时视听交互能力,推动了具身智能的桌面化落地。Hugging Face 产品副总裁 Jeff Boudier 评价道:“开放模型让开发者自由构建 AI,而 DGX Spark 将这种能力带到了桌面端。”

为进一步降低使用门槛,英伟达在展会上发布了 6 本实战手册(Playbook),覆盖从开源智能体大模型 Nemotron 3 Nano 的本地实验,到实时视觉语言模型 Live VLM WebUI 的视频分析,再到机器人仿真平台 Isaac Sim 的强化学习等热门方向。其中,“双系统微调”手册详细演示了如何利用两台 DGX Spark 分布式训练 700 亿参数的 LLM,为中小企业提供了可复制的技术路径。

 
 
更多>同类内容
全站最新
热门内容