Alibaba lanza modelos compactos Qwen 3.5 que funcionan directamente en portátiles y superan a los de OpenAI.
Alibaba Qwen 3.5 — nueva serie de modelos compactos de IA
Dentro de su división de inteligencia artificial, Alibaba anunció el lanzamiento de la línea de modelos Qwen 3.5, que prometen «pequeño tamaño + alta eficiencia». En comparación con los equivalentes estadounidenses, demuestran mayor precisión con menor consumo de memoria.
| Modelo | Tamaño | Características clave |
|---|---|---|
| Qwen 3.5‑0.8B | 0,8 mil millones de parámetros | “Miniatura” y “rápida”, destinada a prototipos y dispositivos móviles con autonomía limitada |
| Qwen 3.5‑2B | 2 mil millones | Similar al 0.8B, pero algo más potente |
| Qwen 3.5‑4B | 4 mil millones | Multimodal, ventana de contexto de 262 144 tokens; adecuada para soluciones ligeras de agente |
| Qwen 3.5‑9B | 9 mil millones | Capaz de razonar, supera a OpenAI gpt‑oss‑120B (13,5× más parámetros) y muestra nivel de posgrado en pensamiento lógico |
Todos los modelos están disponibles bajo la licencia Apache 2.0, lo que permite su uso en proyectos comerciales y su reentrenamiento si es necesario.
¿Qué hay de nuevo en la arquitectura?
Alibaba abandonó los Transformers clásicos y adoptó una estrategia híbrida:
* Gated Delta Networks (GDN) – proporcionan alta capacidad de transmisión y baja latencia.
* Mixture‑of‑Experts (MoE) – resuelven el problema de memoria limitada típico de modelos pequeños.
Con esto, Qwen 3.5 puede trabajar con tokens multimodales simultáneamente, en lugar de “adjuntar” generadores de imágenes a modelos de texto como lo hacían generaciones anteriores. Como resultado, las versiones 4B y 9B pueden reconocer elementos UI y contar objetos en video.
Pruebas y resultados
| Benchmark | Qwen 3.5‑9B |
|-----------|-------------|
| MMMU‑Pro (visual) | 70,1 % – superó a Google Gemini 2.5 Flash‑Lite (59,7) y a Qwen 3‑VL‑30B‑A3B (63,0) |
| Pensamiento lógico | 81,7 % – más alto que OpenAI gpt‑oss‑120B (80,1), aunque este último tiene 10× más parámetros |
| HMMT Feb 2025 (matemáticas) | 83,2 % (9B), 74,0 % (4B) – demuestra que para tareas complejas de ciencias exactas no se necesitan recursos en la nube gigantescos |
| OmniDocBench v1.58 | 87,7 % – líder entre todas las modelos |
| MMMLU (multilingüismo) | 81,2 % – superó a gpt‑oss‑120B (78,2) |
¿Por qué es importante?
El surgimiento de Qwen 3.5 coincidió con el aumento de la demanda de agentes IA autónomos. Los usuarios modernos requieren no solo chatbots, sino sistemas que:
1. Piensen – razonen sobre problemas.
2. Vean – procesen imágenes, video y elementos UI.
3. Actúen – usen herramientas (llenar formularios, ordenar archivos).
Dado que los modelos grandes (de tres a cinco billones de parámetros) son caros de operar, Qwen 3.5 ofrece una solución más económica. Los modelos pueden ejecutarse localmente sin conexión a la nube ni API, y el aprendizaje por refuerzo les permite tomar “decisiones humanas”, como organizar un escritorio o desarrollar código a partir de una grabación en video.
Aplicaciones prácticas
* Dispositivos móviles – 0,8 mil millones de parámetros caben fácilmente en un smartphone y permiten operación autónoma.
* Estaciones de trabajo – 9 mil millones de parámetros ofrecen un conjunto completo de funciones de agente IA sin nube.
* Agencia de interfaces – gracias a la “vinculación a nivel de píxel”, los modelos pueden moverse por el UI, llenar formularios y ordenar archivos, ejecutando comandos simples en lenguaje natural con precisión de alrededor del 90 %.
En resumen, Alibaba Qwen 3.5 abre el camino hacia agentes IA más accesibles, flexibles y potentes que pueden funcionar tanto en la nube como localmente, satisfaciendo las crecientes demandas de los usuarios modernos.
Comentarios (0)
Comparte tu opinión — por favor, sé amable y mantente en el tema.
Inicia sesión para comentar