Amazon planea desplegar modelos de IA en enormes chips de Cerebras.

Amazon planea desplegar modelos de IA en enormes chips de Cerebras.

12 hardware

Amazon y Cerebras unen fuerzas para acelerar los grandes modelos de lenguaje

Amazon Web Services (AWS) anunció que a mediados de 2026 comenzará a utilizar los chips del startup Cerebras Systems Inc. junto con sus propios procesadores Trainium. Según la propia compañía, esto permitirá crear “condiciones óptimas” para el despliegue y mantenimiento de grandes modelos de lenguaje (LLM). Los detalles financieros de la operación aún no se han revelado.

Qué sucederá exactamente
* Los chips Trainium 3 de AWS procesarán las solicitudes de los usuarios – “entender” su significado.

* Luego, los chips Cerebras Wafer‑Scale Engine (WSE) generarán la respuesta.

Así, dos aceleradores especializados trabajan en conjunto y proporcionan cálculos de inferencia para LLM.

> “La interacción entre diferentes componentes suele ralentizar el proceso,” señala Nafea Bshara, vicepresidente de AWS. “Pero buscamos obtener una ventaja utilizando chips que procesen la inferencia más rápido.”

La ventaja es especialmente notable donde la velocidad de respuesta importa: por ejemplo, al escribir código paso a paso o generar texto en tiempo real.

Por qué es importante
* Amazon es uno de los mayores proveedores de nube y un usuario activo de GPUs de Nvidia. La compañía está desarrollando sus propios chips de IA para mejorar la eficiencia de sus centros de datos y ofrecer servicios únicos a los clientes.

* Para Cerebras, la colaboración con AWS representa el primer gran contrato del gigante de los data centers, lo que aumenta el reconocimiento de su marca ante un mercado potencial. También es importante en vista de su planificado IPO.

Conclusiones
AWS y Cerebras están creando conjuntamente una nueva infraestructura para grandes modelos de lenguaje: los chips Trainium 3 procesan las solicitudes, mientras que los WSE generan respuestas. Aunque un servicio exclusivo en Trainium podría ser más barato, la solución combinada promete una aceleración significativa donde “el tiempo es dinero”. Esto fortalece la posición de Amazon como gran cliente de Nvidia y al mismo tiempo impulsa sus propios chips de IA hacia una mayor eficiencia.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar