Nvidia presentó el Nemotron 3 Super 120B, un modelo de lenguaje abierto con un aumento de velocidad cinco veces mayor para agentes de IA.

Nvidia presentó el Nemotron 3 Super 120B, un modelo de lenguaje abierto con un aumento de velocidad cinco veces mayor para agentes de IA.

10 hardware

Nueva modelo de Nvidia – Nemotron 3 Super

Nvidia anunció el lanzamiento de Nemotron 3 Super, un modelo abierto de IA tipo Mixture‑of‑Experts (MoE).

* 120 mil millones de parámetros totales, de los cuales 12 mil millones son activos.

* Diseñado para IA agente – sistemas donde varios “agentes” interactúan entre sí y con el mundo exterior.

Arquitectura
El modelo utiliza un enfoque híbrido Mamba‑Transformer (combinación de capas Mamba y elementos Transformer).

En Nemotron 3 Super se aplica por primera vez la paradigmática LatentMoE, las capas Multi‑Token Prediction y el preentrenamiento según el protocolo NVFP4. Según Nvidia, esta pila aumenta la precisión y acelera la inferencia.

Rendimiento
* Capacidad de procesamiento – hasta 5× más rápido que la versión anterior Nemotron Super.

* Precisión – hasta 2× mayor.

* Soporte para una ventana contextual de 1 millón de tokens permite a los agentes almacenar el estado completo del flujo de trabajo, reduciendo el riesgo de desviación del objetivo.

Aplicaciones prácticas
Nemotron 3 Super es ideal para tareas complejas dentro de sistemas multiagente:

TareaEjemplo de uso
Generación y depuración de código sin fragmentar en documentosEscritura automática y verificación de programas extensos
Análisis financieroIncorporación de miles de páginas de informes en la memoria del modelo

Entrenamiento
El modelo se entrenó con datos sintéticos creados mediante modelos lógicos de pensamiento. Nvidia revela la metodología completa:

* más de 10 trillones de tokens antes y después del entrenamiento;
* 15 entornos para aprendizaje por refuerzo;
* recetas de evaluación.

Los investigadores pueden usar la plataforma Nvidia NeMo para afinar o crear sus propias versiones del modelo.

Detalles técnicos
* Soporte NVFP4 en la arquitectura Nvidia Blackwell.
* Reducción de requisitos de memoria y aceleración de inferencia cuatro veces respecto a FP8 en Nvidia Hopper sin pérdida de precisión.

Disponibilidad
El modelo ya está disponible:

* A través de build.nvidia.com, Hugging Face, OpenRouter y Perplexity.
* Socios cloud: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Como microservicio Nvidia NIM, que permite desplegar el modelo localmente o en la nube.

Nemotron 3 Super abre nuevas posibilidades para la IA agente, combinando alta precisión, escalabilidad y flexibilidad de configuración.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar