Warning: mkdir(): No space left on device in /www/wwwroot/zhenghe1718.com/func.php on line 127

Warning: file_put_contents(./cachefile_yuan/jnsjmc.com/cache/fb/bcabe/06b7e.html): failed to open stream: No such file or directory in /www/wwwroot/zhenghe1718.com/func.php on line 115
首款专为大规模上下文 AI 设计的 CUDA GPU,英伟达 Rubin CPX -红豆相思网




奶茶视频APP,奶茶视频下载,奶茶视频app官网,奶茶视频app海纳百川有容乃大

红豆相思网

首款专为大规模上下文 AI 设计的 CUDA GPU,英伟达 Rubin CPX

来源:红豆相思网-工人日报
2025-09-10 03:40:18

IT之家 9 月 10 日消息,英伟达今日宣布推出新产品 Rubin CPX,这是一款专为大规模上下文处理而设计的专用 GPU,涵盖了像大规模编码和生成视频这样要求高的工作。

该硬件旨在将理解 AI 提示的任务与生成响应的任务区分开,英伟达表示,这将使整个过程对客户的效率更高。

该新硬件预计将作为较大的 Vera Rubin 平台的一部分工作,该平台同时集成了 Vera CPU 和 Rubin GPU。英伟达声称全机架版本 Vera Rubin NVL144 CPX 拥有 8 exaflops 的 AI 性能。

IT之家从英伟达新闻稿获悉,独立的 Rubin CPX GPU 包含 128GB 的 GDDR7 显存。英伟达承诺,新硬件具有 3 倍的 attention capabilities,并使用公司的 4-bit NVFP4 精度提供 30 petaflops 的计算能力。

英伟达 CEO 黄仁勋将 Rubin CPX 与 RTX 进行了比较,他说:“正如 RTX 革新了图形和物理 AI,Rubin CPX 是首款专为大规模上下文 AI 设计的 CUDA GPU,能够在同一时间推理跨越数百万个知识符号的模型。”他还试图量化客户的投资回报,提到部署新硬件的 1 亿美元投资可以产生 50 亿美元的收益。

英伟达表示,该硬件将得到其完整软件栈的支持,包括 Nemotron —— 其一系列开放的多模态模型,专为构建企业级 AI 代理(旨在自主处理复杂任务的系统)而设计。Nemotron 模型提供不同尺寸,从 Nano 用于设备端应用,到 Super 用于单 GPU 设置,再到 Ultra 用于大型数据中心。

英伟达表示,预计 Rubin CPX 将于 2026 年底推出。

责任编辑:红豆相思网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

客户端

亿万职工的网上家园

马上体验

关于奶茶视频APP|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

红豆相思网微信


红豆相思网微博


红豆相思网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。
网站地图