本次实验基于 NVIDIA DGX Spark 的强大计算能力与 Reachy Mini 的实体交互特性,探索如何打造可桌面部署、支持自然交互的私人 AI 实体代理。 实验环境与工作准备 (一)核心组件 类别 具体工具 / 模型 说明 推理模型 NVIDIA Nemotron 3 Nano 提供核心逻辑推理与文本交互能力 视觉模型 NVIDIA Nemotron Nano 连接各组件的开源框架,支持工作流编排、工具调用 实时交互框架 Pipecat 低延迟处理音视频流,协调语音识别、机器人动作 辅助工具 Git、curl 代码克隆与接口测试 (二)部署方式选择 本地部署:需 DGX Spark 或具备足够显存的 GPU,推理模型占用约 65GB 磁盘空间,视觉模型约 28GB; 云部署:通过 NVIDIA Brev 或 Hugging Face Inference Endpoints 实验总结与扩展 实验总结 本次实验成功搭建了基于 NVIDIA DGX Spark 与 Reachy Mini 的 AI 实体代理系统,实现了文本、语音、视觉多模态交互与工具调用功能。
外网一位技术博主曾录制过一期趣味十足的技术视频,视频中他详细分享了自己从4台NVIDIA DGX Spark硬件入手,逐步扩展至8台、搭建大模型训练与推理集群的完整过程,实操性极强且干货满满。 高速线缆:QSFP56 breakout线缆(核心),需选用NVIDIA DGX Spark专用400G转2×200G QSFP56线缆(优先从FS官网购买,标注“DGX Spark”认证),避免购买错误的 集群部署脚本:Eugr的GitHub仓库(NVIDIA论坛开发者出品,支持DGX Spark集群化部署VLM,免Docker/基于Docker版本均有,地址可从NVIDIA论坛检索)。 步骤1:硬件物理连接 取出NVIDIA官方配套的400G QSFP56线缆(DGX Spark双包款自带,无需额外购买)。 网络测试:执行ETH tool测试带宽,直连状态下应达到200Gbit/s(单端口200G,NVIDIA DGX Spark原生支持)。
AMD Strix Halo 与 Nvidia DGX Spark:哪款 AI 工作站更胜一筹? 随着某机构在10月发布基于GB10的DGX Spark,其旨在改变这一现状。 DGX Spark零售价为3999美元,而某机构Z2 Mini G1a(测试配置)目前售价约为2950美元。 为了保持一致性,我们在Linux系统上运行了大部分测试:某机构设备上运行Ubuntu 24.04 LTS,Spark上运行某机构轻微定制的版本DGX OS。 你们一直在等待的答案是的,DGX Spark确实能运行《孤岛危机》。我们知道你们都会问这个问题。是的。这两个盒子都能运行《孤岛危机》。
英伟达(NVIDIA)今日正式发布 DGX Spark 性能基准测试指南(),该指南不仅适用于 NVIDIA 原生 DGX Spark 设备,更全面适配所有搭载 NVIDIA Grace Blackwell 开源赋能,生态共建 AI 基础设施标准 DGX Spark 性能基准测试指南作为 NVIDIA 开源生态的重要组成部分,依托 GitHub 仓库向全球开发者开放,支持自定义扩展测试场景、贡献故障排查方案 “DGX Spark 及搭载 GB10 芯片的 OEM 系统,核心价值在于让高性能 AI 计算触手可及,而标准化的基准测试是释放其潜能的关键。” 关于 NVIDIA DGX Spark 与 GB10 芯片 OEM 生态 NVIDIA DGX Spark 基于 Grace Blackwell GB10 超级芯片打造,集成 128GB 统一内存架构, 访问指南 开发者可通过以下链接获取完整的性能基准测试指南: https://github.com/NVIDIA/dgx-spark-playbooks/blob/main/nvidia/connect-two-sparks
NVIDIA作为全球AI计算的领军者,始终致力于通过技术创新重新定义计算边界,其最新推出的DGX Spark桌面超级电脑(以下简称DGX Spark)与Jetson Thor开发套件(以下简称Jetson 一、功能对比 NVIDIA DGX Spark NVIDIA DGX Spark作为一款个人AI计算机,专为构建和运行AI模型而设计,其核心功能集中在AI开发、模型推理及边缘计算领域。 此外,DGX Spark还支持NVIDIA NIM微服务,使得本地开发的模型可以直接迁移至DGX Cloud或第三方云平台,无需代码修改,极大地简化了开发流程。 三、使用场景对比 NVIDIA DGX Spark DGX Spark主要面向需要快速迭代AI推理任务的开发者、初创团队、科研机构及高校。 四、总结与展望 NVIDIA DGX Spark与Jetson Thor作为NVIDIA在AI领域的两款力作,各自在功能、性能和使用场景上展现了独特的优势。
二、NVIDIA DGX Spark:小巧机身,PetaFLOP级算力NVIDIA DGX Spark的核心优势在于其先进的架构和强大的计算能力,它为本地AI开发提供了工业级的AI体验。 三、 NVIDIA DGX Spark:专为大模型 (LLM) 而生DGX Spark专为解决生成式AI模型规模和复杂性日益增长带来的挑战而设计,特别针对本地进行大模型的原型设计、微调和推理。1. 双机互联,挑战405B参数极限DGX Spark内置了NVIDIA ConnectX™智能网卡。 通过NVIDIA ConnectX互联技术,可以连接两台NVIDIA DGX Spark AI超级计算机。 九、重塑您的 AI 工作流NVIDIA DGX Spark 不仅仅是硬件的升级,更是开发范式的革新。
导语 近日,NVIDIA官方针对旗下轻量化AI设备DGX Spark的功耗参数发布重要更新,明确整机峰值总功率为240W,并详细拆解了GPU/CPU核心(GB10 SoC)与其他组件的功耗分配逻辑。 NVIDIA官方更新:240W总功耗背后的组件分工 NVIDIA在最新声明中明确指出:DGX Spark的整机峰值总系统功率为240W,具体由三大核心模块构成,每一部分的功率设计均经过精密权衡,以确保性能与稳定性的平衡 整机峰值240W:稳定运行的“硬上限” 三者相加的240W峰值总功耗,是DGX Spark在满负载运行时(GB10满血输出+其他组件全速工作)的理论功耗上限。 别忽略其他组件 在日常使用中,开发者通常通过NVIDIA官方工具nvidia-smi监测GPU状态,其中显示的“功耗”数值(单位:W)仅对应GPU部分的实时消耗,而非DGX Spark的整机能耗。 读懂官方声明,释放设备真实潜力 对于DGX Spark的用户而言,理解“240W整机峰值=140W GB10 SoC+100W其他组件”的分配逻辑,以及nvidia-smi的监测范围限制,是高效使用设备的第一步
随着NVIDIA DGX Spark与NVIDIA Jetson Thor两款设备的推出,开发者在处理复杂AI模型,尤其是大型语言模型(LLM)时,面临了新的选择。 DGX Spark(GB10):GB10 SoC的功耗为140瓦,略高于Jetson Thor。 这种能效比的提升,使得DGX Spark在处理高强度AI任务时更具优势。结论:虽然DGX Spark的功耗略高,但其更先进的制程技术使得其在能效比上占据优势。 对于需要长时间运行或依赖电池供电的场景,DGX Spark可能通过优化算法和任务调度来进一步降低实际功耗。 DGX Spark(GB10):GB10实现了CPU直接访问GPU L2缓存的功能,将其作为L4缓存使用。
本文基于2月6日 NVIDIA DGX Spark Live 直播节目的问答整理 产品信息与资源 Q:在哪里可以找到DGX Spark的性能优化指南和教程? Q:所有build.nvidia.com/blueprints上的蓝图都可以在DGX Spark上运行吗? A: 目前列出的所有 playbooks 都是 NVIDIA 工程师专门验证过的。 可以在线购买或从零售店购买,NVIDIA 官网主要用于启动销售,主要销售由合作伙伴负责。 Q: NVIDIA DGX Spark什么时候在印度上市? A: 即将推出。 Mini 机器人项目 有用户在南极使用 Spark 更多关于DGX Spark NVIDIA 发布 DGX Spark 性能基准测试指南,赋能多节点 AI 高效部署 全新软件与模型优化为 NVIDIA DGX Spark 注入强大动力 【实验笔记】基于 NVIDIA DGX Spark 与 Reachy Mini 构建智能实体Agent
DGX Cloud提供NVIDIA DGX AI超级运算与NVIDIA AI Enterprise软件搭配使用,使世界各地的企業都可以使用Web浏览访问自己的AI超級电脑。 浏览器中的 NVIDIA AI 超级计算和软件 DGX Cloud的每个实例都具有八个NVIDIA 80GB张量核心GPU,每个节点可提供640GB的GPU内存。 高性能存储集成到DGX云中,以提供完整的解决方案。 企业使用 NVIDIA 基本指挥平台软件管理和监控DGX云培训工作负载。 该平台提供跨DGX云和本地NVIDIA DGX超级计算机的无缝用户体验,因此企业可以在需要时组合资源。 DGX Cloud 包括NVIDIA AI Enterprise,这是NVIDIA AI平台的软件层,提供100多个端到端AI框架和预训练模型,以加速数据科学管道并简化生产 AI 的开发和部署。
感谢西交利物浦大学西浦国际创新港为本次教程提供NVIDIA DGX Station。 关于NVIDIA DGX Station NVIDIA DGX Station是专为办公室场景设计的深度学习超级计算机,其性能是市面上功能最强大的工作站的两倍。 ? DGX Station采用液冷设计,内部包含四块Tesla V100 GPU、NVLink互联技术、20480个NVIDIA CUDA core,这一切共同造就了500 TFLOPS的超强深度学习能力。 所幸在西交利物浦大学国际创新港,有台NVIDIA高阶DGX Station,配置2颗IntelE5-2698v4 CPU、256GB DDR4内存,最重要的是装载有4片32GB显存的NVIDIA V100 DGX工作站里面配置的NVLINK汇流排能将数据传输性能在往上提升一个级别,现在就执行“nvidia-smi topo -m”指令,看看这台DGX工作站的NVLINK拓扑结构,显示如下图,可以看到任意两张
NVIDIA DGX系列作为专为AI研究而设计的集成系统,以其强大的计算能力、优化的软件支持和简化的部署流程,成为了众多企业和研究机构的首选。 DGX系列简介 NVIDIA DGX系列是一套完整的AI超级计算机解决方案,旨在为深度学习、机器学习和大数据分析提供无与伦比的计算能力。 DGX系统集成了多个NVIDIA GPU,搭配专为AI优化的软件和工具,能够处理极其复杂的AI模型和数据集,大大加速AI项目的研究和开发进程。 核心优势 强大的计算性能 NVIDIA DGX系统采用了最先进的NVIDIA GPU,例如DGX A100采用了A100 Tensor Core GPU,提供了前所未有的计算能力。 应用场景 NVIDIA DGX的应用场景非常广泛,包括但不限于: 科学研究:在生物科学、物理学、化学等领域,DGX可以加速复杂模拟和分析的过程。 金融分析:利用AI模型进行风险评估、市场预测等。
NVIDIA DGX-2 是 NVIDIA 首款 2-petaFLOPS 系统,它整合了 16 个完全互联的 GPU,使深度学习性能提升 10 倍,突破了人工智能速度和规模的障碍。 它采用 NVIDIA® DGX™ 软件和基于 NVIDIA NVSwitch 技术构建的可扩展架构,可以帮您应对众多复杂的人工智能挑战. 01 非同一般的计算能力造就出众的训练性能 人工智能日益复杂 NVIDIA® DGX-2 集 16 个 NVIDIA 家族最先进的 GPU 的计算能力于一身,可以加速实现 之前无法训练的新人工智能模型类型 。 02 革命性的人工智能网络架构 通过使用 DGX-2,模型的复杂性和规模再也不受传统架构局限性的限制。现在,您可以利用 NVIDIA NVSwitch 网络架构进行模型并行训练。 DGX-2 是一款企业级产品,依托 NVIDIA 专业知识,专为满足严格的全天候运行要求而构建,旨在使重要的人工智能工作保持正常运行。
本周,NVIDIA宣布专为开发者打造的“个人AI Lab”——NVIDIA DGX Spark平台,更新了操作手册(playbooks),旨在让这份“实验室操作指南”更易于遵循、更可靠,助力你高效开展AI NVIDIA DGX Spark家族产品凭借强大的GPU算力与Spark分布式计算框架的深度集成,成为开发者专属的个人AI Lab,能够为各类AI任务(如模型微调、量化推理、视频智能分析等)提供高效稳定的本地研发环境 Spark 环境下的 NIM Spark 环境下的 NIM:NVIDIA NIM是容器化软件,可在你的个人AI Lab(DGX Spark)上快速可靠地完成AI模型部署与推理实验。 手册将指导你完成NVIDIA注册表认证、启动NIM推理微服务及基础推理测试,可在DGX Spark设备启动NIM容器,暴露GPU加速的文本补全HTTP端点,支持Llama 3.1 8B、Qwen3-32 容器与依赖项升级 NVIDIA还对所有适配DGX Spark平台的操作手册的容器及依赖项进行了全面核查,将其统一升级至对应平台支持的最新版本。
本QA同样适用于NVIDIA GB10其他平台 Q:我在设备模式下设置DGX Spark时,能连接SSID却无法打开重定向网页(http://spark-xxxx.local)。 Q:运行nvidia-smi查看内存使用情况时显示“Not Supported”。 这是正常现象。DGX Spark采用统一内存架构,NVIDIA-SMI仅在存在专用GPU显存时才会报告内存利用率。 Q:我遇到NVIDIA Container Runtime for Docker相关问题怎么办? 关于安装和使用NVIDIA容器工具包运行Docker的说明,请参阅DGX Spark用户手册。 Q:DGX Spark是否支持NIMs? 可用的NIMs及其运行手册可在build.nvidia.com网站获取。 Q:移动地点后如何重新配置DGX Spark? -以太网连接:将DGX Spark通过以太网线接入路由器。
产品概述某机构将其期待已久的DGX Spark称为“世界上最小的AI超级计算机”。这款基于Arm架构的迷你PC售价在3000至4000美元之间(具体取决于配置和OEM厂商),但它的优势并非在于速度。 然而,DGX Spark以及基于GB10的一系列系统能够运行市场上5090或其他任何消费级显卡根本无法处理的模型。 设置为50个生成步骤时,DGX Spark需要约97秒来生成图像,而RTX 6000 Ada只需37秒。但凭借128GB显存,Spark不仅能运行模型。 竞争对比参数某机构DGX Spark某机构Jetson Thor某中心M4 Max某机构Ryzen AI Max+ 395操作系统DGX OS? 如果您想要一个小型、低功耗的AI开发平台,同时能够兼任生产力、内容创作或游戏系统,那么DGX Spark可能不适合您。
感谢西交利物浦大学西浦国际创新港为本次教程提供NVIDIA DGX Station。 关于NVIDIA DGX Station NVIDIA DGX Station是专为办公室场景设计的深度学习超级计算机,其性能是市面上功能最强大的工作站的两倍。 DGX Station采用液冷设计,内部包含四块Tesla V100 GPU、NVLink互联技术、20480个NVIDIA CUDA core,这一切共同造就了500 TFLOPS的超强深度学习能力。 所幸在西交利物浦大学国际创新港,有台NVIDIA高阶DGX Station,配置2颗IntelE5-2698v4 CPU、256GB DDR4内存,最重要的是装载有4片32GB显存的NVIDIA V100 DGX工作站里面配置的NVLINK汇流排能将数据传输性能在往上提升一个级别,现在就执行“nvidia-smi topo -m”指令,看看这台DGX工作站的NVLINK拓扑结构,显示如下图,可以看到任意两张
在这次测试中,NVIDIA DGX SuperPOD超级计算机系统共打破16项世界纪录。 DGX SuperPOD系统公布于去年6月17号,最初由96台 NVIDIA DGX-2H 超级计算机和 Mellanox 互连技术在短短三周内建成,提供9.4千兆次的处理能力,用于该公司在无人驾驶车辆部署计划中的需求 而此次创造纪录的NVIDIA DGX SuperPOD系统主要基于Ampere架构以及Volta架构,并且搭载了今年5月份发布的Ampere架构GPU A100。 在强化学习测试上,NVIDIA用256块A100卡和64块AMD Epyc 7742 CPU核心,用时29.7分钟,成功训练了一款全尺寸19x19围棋模型。 此前NVIDIA在2018年12月的首次测试中就创下6项记录,次年7月再次创下8项记录。
一、部署核心前提:硬件与软件配置要求 本次 RAG 基础设施搭建基于NVIDIA DGX Spark硬件平台,采用 NVIDIA 官方推荐的标准化环境配置,兼顾部署效率与性能表现,核心前提要求分为硬件、 (一)硬件基础要求 核心硬件:NVIDIA DGX Spark(搭载 Grace Blackwell GB10 超级芯片) GPU 算力:支持 GPU 加速容器部署,满足 Milvus 向量库、LLM 所有操作均在 DGX Spark 本地环境完成,无需额外云服务器资源。 DGX Spark 系统,启动 NVIDIA AI Workbench 安装程序,点击「开始安装」 按照向导完成身份验证,等待自动安装(约 5-10 分钟) 安装完成后点击「开始使用」,进入工作台主界面 ,充分发挥 DGX Spark 的算力优势。
当业界仍在消化5.0版本带来的数字孪生革新时,5.1的提前到来,恰似一枚精准投掷的“技术信号弹”,既宣告着仿真引擎开发周期的压缩式进化,也暗示着其背后与NVIDIA DGX Spark等硬件生态的深度耦合正在加速 GPUS开发者,赞11是的,你没看错,Isaac Sim5.1.0b版本将支持NVIDIA DGX Spark! DGX Spark支持:重新定义机器人开发效率边界NVIDIA DGX Spark作为专为AI和高性能计算设计的紧凑型系统,其与Isaac Sim 5.1.0的深度整合标志着机器人仿真进入“超算级实时处理 DGX Spark的强大数据并行处理能力,使复杂机器人场景的物理模拟、传感器数据生成及AI训练流程在单一节点内即可实现高效并行加速,显著缩短开发周期。 开发者的期许作为开发者,我们热切期盼更多前沿开发工具能在NVIDIA DGX Spark、ASUS Ascent GX10等超算平台上绽放异彩。