Listeners:
Top listeners:
play_arrow
EN DIRECTO La Primera de Bizkaia
play_arrow
500 días con ella: película que confundimos con una historia de amor Arrastion Bizkaia
play_arrow
La cruda realidad queda representada, una vez más, de manera maravillosa Arrastion Bizkaia
play_arrow
Moonlight: las tres etapas de una misma herida Arrastion Bizkaia
play_arrow
La serie de Batman de 1966: Santas Fiestas Batman!! Arrastion Bizkaia
play_arrow
ATASCO: cuando la autovía se vuelve el espejo del país Arrastion Bizkaia
play_arrow
Un finde muy navideño: los mejores planes para ti! Arrastion Bizkaia
play_arrow
Critical Role: Cuando el rol se convierte en leyenda Arrastion Bizkaia
play_arrow
Fantasía: la película que abrió la puerta a la imaginación Arrastion Bizkaia
play_arrow
The Game Awards 2025: lo mejor, lo peor y lo que nadie vio venir. Aquí el resumen Arrastion Bizkaia
play_arrow
Dímelo bajito: Cuando amar también es aprender a escuchar Arrastion Bizkaia
DeepSeek está robándose la atención de todos los entusiastas de la inteligencia artificial. El nuevo modelo desarrollado en China ha dejado en ridículo a competidores como OpenAI o Google y se perfila como un nuevo titán en la industria. Curiosamente, la empresa china Alibaba quiso aprovechar el furor por DeepSeek para presentar su nuevo modelo de IA.
Alibaba anunció hoy el lanzamiento de Qwen2.5-Max, un modelo MoE entrenado en más de 20 billones de tokens. La compañía afirma que su nueva IA supera a DeepSeek V3 en varios benchmarks, incluyendo pruebas de conocimiento general y resolución de problemas. Alibaba añadió que su modelo se entrenó con metodologías seleccionadas de Ajuste Fino Supervisado (SFT) y Aprendizaje de Refuerzo a Partir de Retroalimentación Humana (RLHF).
Si bien Alibaba ya lleva un tiempo trabajando en modelos de lenguaje, ninguno había conseguido acaparar los reflectores como lo hizo DeepSeek. Es por ello que el gigante chino publicó una actualización en su cuenta de X para gritarle al mundo que ellos también desarrollan productos competitivos.
«El lanzamiento de DeepSeek V3 ha atraído la atención de toda la comunidad de IA hacia los modelos MoE a gran escala. Al mismo tiempo, hemos estado construyendo Qwen2.5-Max, un gran LLM de MoE preentrenado con datos masivos y postentrenado con recetas SFT y RLHF seleccionadas. Logra un rendimiento competitivo frente a los modelos de primer nivel y supera a DeepSeek V3 en benchmarks como Arena Hard, LiveBench, LiveCodeBench y GPQA-Diamond»

De acuerdo con Alibaba, Qwen2.5-Max ha sido diseñado para sobresalir en una variedad de escenarios, desde tareas complejas basadas en conocimiento hasta la generación de código. Cuando se compara con competidores como DeepSeek V3, GPT-4o y Claude-3.5-Sonnet, Qwen2.5-Max ofrece resultados sólidos en benchmarks como Arena-Hard, LiveBench, LiveCodeBench y GPQA-Diamond.
Sus creadores señalan que Qwen2.5-Max tiene un rendimiento superior frente a modelos de código abierto, como DeepSeek V3, Llama-3.1-405B y Qwen2.5-72B. Alibaba los ha puesto a competir en pruebas de conocimiento académico a nivel universitario, toma de decisiones, habilidades de programación y capacidad de uso general.
Qwen2.5-Max está disponible al público general a través de Qwen Chat, un chatbot similar a ChatGPT y DeepSeek que ofrece funciones de búsqueda web, generación de imágenes, videos y artefactos. Este último produce imágenes con propiedades físicas a través de código en JavaScript, por ejemplo, una función que genere emojis cada vez que haces clic en la pantalla.
Al igual que DeepSeek, Qwen2.5-Max utiliza MoE, una técnica de aprendizaje automático que busca mejorar la eficiencia y rendimiento de los modelos de lenguaje grande (LLM). En lugar de utilizar una única red neuronal para procesar toda la información, MoE divide el modelo en múltiples subredes especializadas, cada una actuando como un «experto» en un subconjunto específico de datos.
Estos expertos se gestionan a través de una red de enrutamiento que determina cuál de ellos es el más adecuado para procesar una entrada determinada. Por ejemplo, un experto (o subred) puede estar diseñado para comprender lenguaje natural, mientras que otro se especializa en lenguaje técnico o cotidiano. Posteriormente, estas salidas se combinan dependiendo de los pesos asignados por la red, generando una salida final.
De acuerdo con Alibaba, MoE permite crear modelos grandes más eficientes y flexibles. Al activar solo los expertos necesarios, la técnica reduce el coste computacional. Además, el modelo puede adaptarse a diferentes tipos de datos y tareas, agregando o eliminando expertos según sea necesario.
La nueva IA de Alibaba es gratis y solo requiere crearse una cuenta de usuario con tu correo electrónico de Google o GitHub. A diferencia de OpenAI, los usuarios pueden elegir Qwen2.5-Max como el modelo predeterminado y aprovechar sus capacidades sin coste adicional.
Escrito por Mozoilo Irratia
con David Parra
20:00 - 21:00
con Kike Peris
21:00 - 22:00
22:00 - 00:00
gure gaua
00:00 - 05:00
05:00 - 07:00
Copyright Mozoilo Irratia
Comentarios de las entradas (0)