Ollama ahora admite aceleración por hardware en los chips Apple M5, si se dispone de 32 GB de RAM

Ollama ahora admite aceleración por hardware en los chips Apple M5, si se dispone de 32 GB de RAM

23 software

Ollama — una aplicación para ejecutar modelos de IA localmente ahora es más rápida en los chips M5 de Mac

¿Cómo se ve esto? Nueva versión Ollama 0.19
Sistemas operativos compatibles: Windows, macOS, Linux
Aceleración por hardware: Solo para chips Apple M5 (M5 Pro, M5 Max)
Requisitos de memoria: Mínimo 32 GB de RAM unificada

¿Qué ha cambiado?
Ollama permite a los usuarios descargar y ejecutar modelos de inteligencia artificial directamente en su computadora. A diferencia de servicios en la nube como ChatGPT, aquí no se necesita una conexión constante a Internet.

A partir de la versión 0.19, los desarrolladores añadieron soporte para Apple MLX —el framework de aprendizaje automático— así como para la memoria unificada (Unified Memory Architecture). Esto acelera el funcionamiento del modelo en los nuevos chips Apple M5, reduciendo el tiempo hasta el primer token y aumentando la velocidad total de generación.

¿Cómo funciona?
* Aceleradores neuronales: Ollama accede a bloques especializados de redes neuronales dentro de los chips M5, lo que hace que la emisión de tokens sea más rápida.
* Modelos: Funcionan más rápido tanto los agentes de IA personales (por ejemplo, OpenClaw) como sistemas más grandes —OpenCode, Anthropic Claude Code, OpenAI Codex y otros.

Limitaciones
1. La aceleración está disponible solo en chips Apple M5 (M5 Pro/Max).
2. El ordenador debe tener al menos 32 GB de memoria unificada; de lo contrario la aceleración no funcionará.

Por lo tanto, si tienes una Mac con chip M5 y suficiente RAM, podrás mejorar significativamente el rendimiento del aplicativo local de IA Ollama.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar