Alibaba lanza modelos compactos Qwen 3.5 que funcionan directamente en portátiles y superan a los de OpenAI.

Alibaba lanza modelos compactos Qwen 3.5 que funcionan directamente en portátiles y superan a los de OpenAI.

10 hardware

Alibaba Qwen 3.5 — nueva serie de modelos compactos de IA

Dentro de su división de inteligencia artificial, Alibaba anunció el lanzamiento de la línea de modelos Qwen 3.5, que prometen «pequeño tamaño + alta eficiencia». En comparación con los equivalentes estadounidenses, demuestran mayor precisión con menor consumo de memoria.

ModeloTamañoCaracterísticas clave
Qwen 3.5‑0.8B0,8 mil millones de parámetros“Miniatura” y “rápida”, destinada a prototipos y dispositivos móviles con autonomía limitada
Qwen 3.5‑2B2 mil millonesSimilar al 0.8B, pero algo más potente
Qwen 3.5‑4B4 mil millonesMultimodal, ventana de contexto de 262 144 tokens; adecuada para soluciones ligeras de agente
Qwen 3.5‑9B9 mil millonesCapaz de razonar, supera a OpenAI gpt‑oss‑120B (13,5× más parámetros) y muestra nivel de posgrado en pensamiento lógico

Todos los modelos están disponibles bajo la licencia Apache 2.0, lo que permite su uso en proyectos comerciales y su reentrenamiento si es necesario.

¿Qué hay de nuevo en la arquitectura?
Alibaba abandonó los Transformers clásicos y adoptó una estrategia híbrida:

* Gated Delta Networks (GDN) – proporcionan alta capacidad de transmisión y baja latencia.
* Mixture‑of‑Experts (MoE) – resuelven el problema de memoria limitada típico de modelos pequeños.

Con esto, Qwen 3.5 puede trabajar con tokens multimodales simultáneamente, en lugar de “adjuntar” generadores de imágenes a modelos de texto como lo hacían generaciones anteriores. Como resultado, las versiones 4B y 9B pueden reconocer elementos UI y contar objetos en video.

Pruebas y resultados
| Benchmark | Qwen 3.5‑9B |
|-----------|-------------|
| MMMU‑Pro (visual) | 70,1 % – superó a Google Gemini 2.5 Flash‑Lite (59,7) y a Qwen 3‑VL‑30B‑A3B (63,0) |
| Pensamiento lógico | 81,7 % – más alto que OpenAI gpt‑oss‑120B (80,1), aunque este último tiene 10× más parámetros |
| HMMT Feb 2025 (matemáticas) | 83,2 % (9B), 74,0 % (4B) – demuestra que para tareas complejas de ciencias exactas no se necesitan recursos en la nube gigantescos |
| OmniDocBench v1.58 | 87,7 % – líder entre todas las modelos |
| MMMLU (multilingüismo) | 81,2 % – superó a gpt‑oss‑120B (78,2) |

¿Por qué es importante?
El surgimiento de Qwen 3.5 coincidió con el aumento de la demanda de agentes IA autónomos. Los usuarios modernos requieren no solo chatbots, sino sistemas que:

1. Piensen – razonen sobre problemas.
2. Vean – procesen imágenes, video y elementos UI.
3. Actúen – usen herramientas (llenar formularios, ordenar archivos).

Dado que los modelos grandes (de tres a cinco billones de parámetros) son caros de operar, Qwen 3.5 ofrece una solución más económica. Los modelos pueden ejecutarse localmente sin conexión a la nube ni API, y el aprendizaje por refuerzo les permite tomar “decisiones humanas”, como organizar un escritorio o desarrollar código a partir de una grabación en video.

Aplicaciones prácticas
* Dispositivos móviles – 0,8 mil millones de parámetros caben fácilmente en un smartphone y permiten operación autónoma.
* Estaciones de trabajo – 9 mil millones de parámetros ofrecen un conjunto completo de funciones de agente IA sin nube.
* Agencia de interfaces – gracias a la “vinculación a nivel de píxel”, los modelos pueden moverse por el UI, llenar formularios y ordenar archivos, ejecutando comandos simples en lenguaje natural con precisión de alrededor del 90 %.

En resumen, Alibaba Qwen 3.5 abre el camino hacia agentes IA más accesibles, flexibles y potentes que pueden funcionar tanto en la nube como localmente, satisfaciendo las crecientes demandas de los usuarios modernos.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar