英伟达推出Nemotron Ultra:2530亿参数大模型,突破AI推理与部署效率

   发布时间:2025-04-12 15:04 作者:唐云泽

近期,科技界传来了一则令人瞩目的消息。据知名科技媒体marktechpost报道,英伟达公司于近日正式推出了其最新研发的大型语言模型——Llama-3.1-Nemotron-Ultra-253B-v1,业界简称为Nemotron Ultra。这款模型拥有2530亿个参数,在推理能力、架构效率以及生产准备度方面实现了显著的提升,为AI技术的发展注入了新的活力。

随着AI技术在数字基础设施中的广泛应用,企业和开发者面临着计算成本、性能与扩展性之间的平衡挑战。大型语言模型(LLM)虽然能够显著提升自然语言理解和对话能力,但其庞大的规模往往导致效率低下,难以进行大规模部署。针对这一难题,Nemotron Ultra应运而生。

Nemotron Ultra基于meta的Llama-3.1-405B-Instruct架构,专为满足商业和企业需求而设计。它能够支持从工具使用到多轮复杂指令执行等多种任务,为企业提供了强大的支持。在架构上,该模型采用了仅解码器的密集Transformer结构,并通过神经架构搜索(NAS)算法进行了优化。其创新之处在于引入了跳跃注意力机制,在部分层中省略了注意力模块或替换为简单的线性层,从而提高了模型的效率。

Nemotron Ultra还采用了前馈网络(FFN)融合技术,将多层FFN合并为更宽但更少的层,进一步缩短了推理时间,同时保持了卓越的性能。该模型支持高达128K token的上下文窗口,能够处理长篇文本,非常适合用于高级RAG系统和多文档分析。

在部署效率方面,Nemotron Ultra同样表现出色。它能够在单个8xH100节点上运行推理,显著降低了数据中心的成本,提高了企业开发者的可及性。这一突破性的进展使得大型语言模型在商业应用中的部署变得更加高效和便捷。

为了进一步优化模型性能,英伟达还采取了多阶段后训练策略。这包括在代码生成、数学、对话和工具调用等任务上进行监督微调,以及使用群体相对策略优化(GRPO)算法进行强化学习(RL)。这些措施确保了Nemotron Ultra在基准测试中表现出色,并且能够与人类交互偏好高度契合,为用户带来更加自然、流畅的体验。

 
 
更多>同类内容
全站最新
热门内容
本栏最新