IT之家3月12日消息 NVIDIA昨天(3月11日)发布博文,宣布发布开源Nemotron 3超大规模模型,这是迄今为止最强大的开源加权AI模型。 IT之家注:开放权重 AI 模型是一种自由公开决定 AI 模型行为的重要参数(权重)的模型。与 GPT-4 等完全闭源模型不同,开发者可以将这些模型下载到自己的设备上来运行和修改。 Nemotron 3 Super模型拥有1200亿个参数,采用混合专家(MoE)架构(推理时仅激活120亿个参数),专为大规模运行复杂代理系统(Agent AI)而设计。该模型结合了先进的推理能力,使自主代理能够高精度地完成任务。 Perplexity、Palantir 和西门子等领先行业公司目前在搜索、软件开发、电信和半导体等核心工作流程中使用它电感器设计。当公司将人工智能应用从聊天机器人转移到多代理时,他们经常面临两个主要障碍:“上下文爆炸”和“推理税”。多个代理之间的交互会生成多达 15 倍的代币,从而导致更高的成本和错过目标。同时,复杂的代理在每一步都需要推理,使得系统成本昂贵且缓慢。为了解决这些问题,Nemotron 3 Super配备了100万个令牌上下文窗口。这使得代理能够在内存中维护工作流的整个状态,避免目标漂移并显着降低多步推理的成本。在架构和性能方面,该模型采用混合专家(MoE)架构,与上一代相比,可提供 5 倍的性能和 2 倍的精度。具体来说,MomBa 层提供了 4 倍的内存和计算效率提升,而 Transformer 层则负责高级推理。另外,这s模型引入了一种称为“Latent MoE”的新技术。这会以 1 名专家的计算成本激活 4 名专家。支持多token预测,推理速度提升3倍。在 NVIDIA Blackwell 平台上,模型以 NVFP4 精度运行,与 Hopper 架构上的 FP8 相比,内存要求更低,推理速度提高 4 倍。 Nvidia 对这种模式采取了非常开放的态度。权威机构不仅在灵活的许可下公开了模型的权重,还公布了完整的训练方法,包括超过100亿代币的数据集和评估配方。在现实场景中,您可以一次加载整个代码库进行端到端调试或立即阅读数千页的财务报告。开发人员现在可以将 Hugging Face 与主要云服务提供商一起使用:Google Cloud、Oracle 以及即将推出的 AWS 和 Az。 ure)模型。同时封装为NVIDIA NIM微服务,支持在线无缝部署排放和云数据中心。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片、视频,如有)由社交媒体平台网易号用户上传发布,仅提供信息存储服务。