Nvidia presentó el Nemotron 3 Super 120B, un modelo de lenguaje abierto con un aumento de velocidad cinco veces mayor para agentes de IA.
Nueva modelo de Nvidia – Nemotron 3 Super
Nvidia anunció el lanzamiento de Nemotron 3 Super, un modelo abierto de IA tipo Mixture‑of‑Experts (MoE).
* 120 mil millones de parámetros totales, de los cuales 12 mil millones son activos.
* Diseñado para IA agente – sistemas donde varios “agentes” interactúan entre sí y con el mundo exterior.
Arquitectura
El modelo utiliza un enfoque híbrido Mamba‑Transformer (combinación de capas Mamba y elementos Transformer).
En Nemotron 3 Super se aplica por primera vez la paradigmática LatentMoE, las capas Multi‑Token Prediction y el preentrenamiento según el protocolo NVFP4. Según Nvidia, esta pila aumenta la precisión y acelera la inferencia.
Rendimiento
* Capacidad de procesamiento – hasta 5× más rápido que la versión anterior Nemotron Super.
* Precisión – hasta 2× mayor.
* Soporte para una ventana contextual de 1 millón de tokens permite a los agentes almacenar el estado completo del flujo de trabajo, reduciendo el riesgo de desviación del objetivo.
Aplicaciones prácticas
Nemotron 3 Super es ideal para tareas complejas dentro de sistemas multiagente:
| Tarea | Ejemplo de uso |
|---|---|
| Generación y depuración de código sin fragmentar en documentos | Escritura automática y verificación de programas extensos |
| Análisis financiero | Incorporación de miles de páginas de informes en la memoria del modelo |
Entrenamiento
El modelo se entrenó con datos sintéticos creados mediante modelos lógicos de pensamiento. Nvidia revela la metodología completa:
* más de 10 trillones de tokens antes y después del entrenamiento;
* 15 entornos para aprendizaje por refuerzo;
* recetas de evaluación.
Los investigadores pueden usar la plataforma Nvidia NeMo para afinar o crear sus propias versiones del modelo.
Detalles técnicos
* Soporte NVFP4 en la arquitectura Nvidia Blackwell.
* Reducción de requisitos de memoria y aceleración de inferencia cuatro veces respecto a FP8 en Nvidia Hopper sin pérdida de precisión.
Disponibilidad
El modelo ya está disponible:
* A través de build.nvidia.com, Hugging Face, OpenRouter y Perplexity.
* Socios cloud: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Como microservicio Nvidia NIM, que permite desplegar el modelo localmente o en la nube.
Nemotron 3 Super abre nuevas posibilidades para la IA agente, combinando alta precisión, escalabilidad y flexibilidad de configuración.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar