Nvidia se prepara para la batalla por el inferencing, creando un chip basado en tecnologías de Groq para OpenAI y agentes de IA.
Nuevo chip de Nvidia: un paso hacia aplicaciones de IA más rápidas
Nvidia planea presentar en marzo un nuevo procesador creado especialmente para acelerar la inferencia (cálculos de modelos ya entrenados) y orientado a clientes como OpenAI. Este cambio de rumbo marca una empresa que antes se centraba principalmente en el entrenamiento de sistemas de IA.
Qué aparecerá
- La nueva plataforma se mostrará en la conferencia de desarrolladores GTC (Graphics Technology Conference).
- El núcleo de la plataforma incluirá un chip del startup Groq, uno de los soluciones más rápidas para inferencia.
- La plataforma debe competir con los aceleradores propios de Google y Amazon, que ya han logrado éxitos significativos.
Por qué es importante
Con el crecimiento de la popularidad del “web‑coding” (generación de código IA a partir de texto), la demanda de infraestructura rápida y eficiente en energía aumenta.
Para OpenAI, el nuevo procesador se convierte en un factor clave:
- En enero, la compañía firmó un acuerdo con Cerebras para un chip orientado a inferencia que, según ellos, es más rápido que los competidores.
- El día anterior, OpenAI anunció una gran transacción con Nvidia, en la cual obtuvieron “capacidades dedicadas para inferencia” e invirtieron 30 mil millones de dólares del fabricante “verde”.
Entorno competitivo
| Empresa | Producto | Orientación |
|---------|----------|-------------|
| Nvidia | GPU de las familias Hopper, Blackwell, Rubin | Entrenamiento e inferencia |
| Google | TPU | Inferencia |
| Amazon | Trainium | Inferencia |
| Cerebras | Chip especializado | Inferencia |
| Groq | Chips con “bloques de procesamiento de lenguaje” | Inferencia |
Nvidia mantiene más del 90 % de la cuota de mercado de GPU, pero sus chips suelen considerarse caros y energéticamente intensivos para tareas de inferencia. Esto atrae a empresas que buscan una alternativa.
Aplicaciones clave
- Generación de código: los servicios Claude Code (Anthropic) y Codex (OpenAI) utilizan infraestructuras en la nube de Amazon y Google, pero Codex planea migrar a la nueva plataforma Nvidia.
- Publicidad dirigida: Meta colabora con Nvidia para la inferencia de sistemas IA, donde los procesadores centrales resultan ser los más eficientes.
Conclusión
Nvidia no solo amplía su línea de productos, sino que también entra en competencia directa con los gigantes de la industria. El nuevo chip, integrado con el startup Groq, podría convertirse en un factor decisivo para las empresas que buscan una procesamiento de modelos IA más rápido y económico.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar