Listeners:
Top listeners:
EN DIRECTO La Primera de Bizkaia
Mondra: Orgullo, Electrónica y Gallego sin Armarios Arrastion Bizkaia
Longlegs: El mal escribe cartas Arrastion Bizkaia
Ouineta: RaĆz y revolución en cadaĀ canción Arrastion Bizkaia
Resistencia y amor en los 70: Te estoy amandoĀ locamente Arrastion Bizkaia
Todo listo para el sĆ”bado en el BBK RĆa: mĆŗsica, cultura y energĆa a orillasĀ deĀ laĀ rĆa Arrastion Bizkaia
Entre dos mundos: La pelĆcula de Hannah Montana Arrastion Bizkaia
Amor LĆquido: melodĆas que fluyen entre la nostalgia yĀ laĀ libertad Arrastion Bizkaia
Intoxicación: La cruda verdad de nuestra comida Arrastion Bizkaia
Ezezez: El grito del rock en euskera Arrastion Bizkaia
Noticias, estrenos y mƔs para disfrutar el finde!! Arrastion Bizkaia
Tras la presentación con bombos y platillos de los modelos de inteligencia artificial Alia, financiados por el Gobierno de España, la polémica no se hizo esperar. En las últimas horas, se ha desatado gran revuelo por su pobre desempeño al compararlo con otras IA de cierta antigüedad como Llama 2 32B, que Meta lanzó en julio de 2023.
Pero la historia no concluye allĆ, puesto que los costes de Alia tambiĆ©n son motivo de controversia. Si bien no existe un dato preciso al respecto, se estima que ya se destinaron mĆ”s de 10 millones de euros al desarrollo de esta inteligencia artificial. Una cifra que podrĆa ser todavĆa mayor y que expertos de la industria consideran muy elevada para los resultados que estĆ” entregando la tecnologĆa.
Entre los primeros comentarios crĆticos contra Alia se mencionó que serĆa un mero fine tuning āes decir, una versión personalizadaā de Llama, la IA de Meta. No obstante, la pĆ”gina del modelo en Hugging Face afirma que se ha preentrenado desde cero usando sets de datos curados de forma manual. Lo que sĆ se habrĆa aprovechado serĆa el tokenizador de la familia de modelos creados por la firma de Mark Zuckerberg.
Sobre este asunto, el ingeniero Ramón Medrano Llamas, de Google, brindó su punto de vista a travĆ©s de su cuenta de X (Twitter). Ā«Los modelos [por Alia] son bien malos, pero una nota: que usen el tokenizer de Llama no implica que sean un fine tune. De hecho, si fueran un fine tune con 17B tokens buenos, los resultados serĆan mucho mejores y a 1/100 de coste. Es lo que hizo Francia, por ciertoĀ», publicó.
Entre las crĆticas a los benchmarks de Alia ha destacado la de Javier López, fundador de Magnific AI. El susodicho compartió una captura de pantalla en la que se podĆan observar los resultados de algunas pruebas en inglĆ©s de la IA espaƱola, comparada contra la versión de 32.000 millones de parĆ”metros de Llama 2.
La tabla en cuestión mostraba que, en los parĆ”metros en los que habĆa posibilidad de contrastar el rendimiento entre ambos modelos, los resultados de Alia eran peores que los de la inteligencia artificial de Meta al medirlos segĆŗn su precisión. Como indicamos al comienzo, los de Menlo Park lanzaron dicha versión en julio de 2023, de modo que ya no es una referencia top de la industria.
Tal y como indica la imagen, los ejemplos mĆ”s contundentes del bajo desempeƱo de Alia en comparación con Llama 2 32B corresponden al entendimiento e interpretación del lenguaje natural (NLI) y a la creación de respuestas a preguntas (QA). Un punto interesante a considerar es que las tablas de Alia en Hugging Face han dejado de incluir la columna comparativa con el modelo de Meta, al menos al momento de redacción de este artĆculo.
Ya veremos si los responsables de la nueva IA financiada por el Gobierno de España salen a responder, o si el asunto continúa generando todo tipo de comentarios entre el público.
Escrito por Mozoilo Irratia
20:00 - 00:00
00:00 - 04:00
Hora de desconectar de todo
04:00 - 05:00
05:00 - 08:00
08:00 - 20:00
Copyright Mozoilo Irratia
Comentarios de las entradas (0)