Alibaba, el gigante chino del comercio electrónico, es un actor importante en la esfera de la IA de China. Hoy anunció el lanzamiento de su último modelo de IA, Qwen2, y según algunas medidas, es la mejor opción de código abierto del momento. Desarrollado por Alibaba Cloud, Qwen2 es la próxima generación de la serie de modelos Tongyi Qianwen (Qwen) de la empresa. , que incluye Tongyi Qianwen LLM (también conocido simplemente como Qwen), el modelo de visión AI Qwen-VL y Qwen-Audio. La familia de modelos Qwen está previamente entrenada en datos multilingües que cubren diversas industrias y dominios, siendo Qwen-72B el El modelo más potente de la serie. Está entrenado con la impresionante cantidad de 3 billones de tokens de datos. En comparación, la variante Llama-2 más poderosa de Meta se basa en 2 billones de tokens. Llama-3, sin embargo, está en proceso de digerir 15 billones de tokens. Según una publicación de blog reciente del equipo de Qwen, Qwen2 puede manejar 128.000 tokens de contexto, comparable al GPT-4o de OpenAI. Mientras tanto, Qwen2 ha superado a LLama3 de Meta en básicamente todos los puntos de referencia sintéticos más importantes, afirma el equipo, lo que lo convierte en el mejor modelo de código abierto disponible actualmente. Sin embargo, vale la pena señalar que el independiente Elo Arena clasifica a Qwen2-72B-Instruct un poco mejor que GPT-4-0314 pero por debajo de Llama3 70B y GPT-4-0125-preview, lo que lo convierte en el segundo LLM de código abierto más popular entre los evaluadores humanos hasta la fecha.Qwen2 funciona mejor que Llama3, Mixtral y Qwen1.5 en pruebas sintéticas. Imagen: Alibaba CloudQwen2 está disponible en cinco tamaños diferentes, que van desde 500 millones a 72 mil millones de parámetros, y el lanzamiento ofrece mejoras significativas en diferentes áreas de especialización. Además, los modelos se entrenaron con datos en 27 idiomas más que la versión anterior, incluidos alemán, francés, español, italiano y ruso, además de inglés y chino. «En comparación con el lenguaje de código abierto de última generación modelos, incluido el Qwen1.5 lanzado anteriormente, Qwen2 generalmente ha superado a la mayoría de los modelos de código abierto y ha demostrado competitividad frente a modelos propietarios en una serie de puntos de referencia dirigidos a la comprensión del lenguaje, la generación del lenguaje, la capacidad multilingüe, la codificación, las matemáticas y el razonamiento», dijo el Qwen. afirmó el equipo en la página oficial del modelo en HuggingFace. Los modelos Qwen2 también muestran una comprensión impresionante de contextos largos. Qwen2-72B-Instruct puede manejar tareas de extracción de información en cualquier lugar dentro de su enorme contexto sin errores y pasó la prueba «Aguja en un pajar» casi a la perfección. Esto es importante porque tradicionalmente el rendimiento del modelo comienza a degradarse cuanto más interactuamos con él.Qwen2 se desempeña notablemente en la prueba «Aguja en un pajar». Imagen: Alibaba CloudCon este lanzamiento, el equipo de Qwen también cambió las licencias de sus modelos. Si bien Qwen2-72B y sus modelos ajustados a las instrucciones continúan usando la licencia Qianwen original, todos los demás modelos han adoptado Apache 2.0, un estándar en el mundo del software de código abierto. “En un futuro cercano, continuaremos con nuevos modelos de código abierto para acelerar IA de código abierto”, dijo Alibaba Cloud en una publicación de blog oficial. Decrypt probó el modelo y descubrió que era bastante capaz de comprender tareas en varios idiomas. El modelo también está censurado, especialmente en temas considerados delicados en China. Esto parece coherente con las afirmaciones de Alibaba de que Qwen2 es el modelo con menos probabilidades de proporcionar resultados inseguros (ya sea actividad ilegal, fraude, pornografía y violencia contra la privacidad) sin importar el idioma en el que se solicitó.
Respuesta de Qwen2 a: «¿Es Taiwán un país?»
La respuesta de ChatGPT a: «¿Es Taiwán un país?» Además, comprende bien las indicaciones del sistema, lo que significa que las condiciones aplicadas tendrán un mayor impacto en sus respuestas. Por ejemplo, cuando se le dijo que actuara como un asistente útil con conocimiento de la ley versus actuar como un abogado experto que siempre responde basándose en la ley, las respuestas mostraron variaciones importantes. Proporcionó consejos similares a los proporcionados por GPT-4o, pero fue más conciso.
Respuesta de Qwen2 a: «Un vecino me insultó»
Respuesta de ChatGPT a: «Un vecino me insultó». La próxima actualización del modelo traerá multimodalidad al Qwen2 LLM, posiblemente fusionando a toda la familia en un modelo poderoso, dijo el equipo. «Además, ampliamos los modelos de lenguaje Qwen2 a multimodales, capaces de comprender información tanto de visión como de audio», agregaron. Qwen está disponible para pruebas en línea a través de HuggingFace Spaces. Aquellos con suficiente computación para ejecutarlo localmente pueden descargar los pesos de forma gratuita, también a través de HuggingFace. El modelo Qwen2 puede ser una gran alternativa para aquellos que deseen apostar por la IA de código abierto. Tiene una ventana de contexto de token más grande que la mayoría de los otros modelos, lo que lo hace aún más capaz que LLama 3 de Meta. Además, debido a su licencia, las versiones mejoradas compartidas por otros pueden mejorarlo, aumentando aún más su puntaje y superando el sesgo.Editado por Ryan Ozawa.
Boletín Generalmente Inteligente
Un viaje semanal de IA narrado por Gen, un modelo de IA generativa.