Publicado 25/04/2024 04:44

Portaltic.-Apple lanza la familia de modelos de lenguaje de código abierto OpenELM para portátiles

Archivo - Inteligencia Artificial.
Archivo - Inteligencia Artificial. - PIXABAY - Archivo

   MADRID, 25 Abr. (Portaltic/EP) -

Apple ha lanzado la familia Open-source Efficient Language Models ('Modelos de lenguaje eficientes de código abierto'), diseñados para ofrecer resultados precisos en dispositivos como ordenadores portátiles, empleando menos tokens de entrenamiento que otros modelos de Inteligencia Artificial (IA), como OLMo.

   Conocida como OpenELM, se trata de una familia que "utiliza una estrategia de escalamiento por capas para asignar parámetros de forma eficiente dentro de cada capa del modelo", por lo que se centra en tareas específicas y permite a los usuarios obtener resultados más precisos.

   Esta familia está compuesta por cuatro modelos de lenguaje grande (LLM, por sus siglas en inglés) que se presentan en diferentes tamaños: 270 millones de parámetros, 450 millones, 1.100 millones y 3.000 millones de parámetros.

Cada uno de ellos tiene dos versiones: preentrenamiento ('pre-trained') -una variante genérica entrenada con conjuntos de datos de la biblioteca CoreNet de GitHub- y optimizada ('instruction tuned'), ajustada e instruída para emplearla con propósitos concretos, como se explica en el documento de la investigación publicado en Arxiv.org.

   Los investigadores indican que los modelos se han probado en un modelo MacBook Pro con SoC M2 Max, 64 GB de RAM y basado en macOS 14.4.1; así como en un ordenador con CPU Intel i9-13900KF equipada con DDR5-4000 DRAM y GPU NVIDIA RTX 4090 con 24 GB de VRAM.

   En sus pruebas, Apple ha descubierto que OpenELM funciona de manera más eficiente que otros LLM similares, como OLMo, desarrollado por Allen Institute for AI, ya que el suyo ofece una mejora del 2,36 por ciento en la precisión y, a la vez, requiere dos veces menos tokens de preentrenamiento.

   Finalmente, Apple ha reconocido que OpenELM, cuyo repositorio está en Hugging Face, se ha entrenado con un conjuntos de datos disponibles públicamente y "sin ninguna garantía de seguridad". Esto quiere decir que "existe la posibilidad de que estos modelos produzcan resultados inexactos, dañinos o sesgados".

Contador