LoRA (Adaptación de Bajo Rango) es una técnica eficaz que se utiliza para adaptar grandes modelos de aprendizaje automático (AM) preentrenados, como los utilizados para el procesamiento del lenguaje natural (PLN) o la visión por ordenador (VC), a tareas o conjuntos de datos específicos sin volver a entrenar todo el modelo. Reduce significativamente el coste computacional y los requisitos de memoria asociados al ajuste fino de modelos masivos, haciendo más accesible la IA avanzada. LoRA se engloba dentro de los métodos de Ajuste Fino Eficiente de Parámetros (PEFT ), que se centran en adaptar modelos con cambios mínimos en sus parámetros.
Cómo funciona la LoRA
El ajuste fino tradicional consiste en actualizar todos los parámetros (o pesos del modelo) de un modelo preentrenado utilizando nuevos datos. Para modelos con miles de millones de parámetros, como muchos LLM modernos o grandes modelos de visión, este proceso exige importantes recursos informáticos, en particular GPU y tiempo. LoRA se basa en el principio, respaldado por la investigación, de que los cambios necesarios para adaptar un modelo suelen residir en un espacio de menor dimensión, lo que significa que no es necesario alterar cada uno de los pesos.
En lugar de modificar todos los pesos originales, LoRA los congela e inyecta matrices de "bajo rango" más pequeñas y entrenables en capas específicas de la arquitectura del modelo, a menudo dentro de bloques Transformadores (un componente común en muchos modelos grandes, que se explica con más detalle en el artículo La atención es todo lo que necesitas). Sólo estas matrices recién añadidas (a menudo llamadas adaptadores) se actualizan durante el proceso de ajuste. Esto reduce drásticamente el número de parámetros entrenables, a menudo en órdenes de magnitud (por ejemplo, millones en lugar de miles de millones), al tiempo que se consigue un rendimiento comparable al del ajuste fino completo en muchos casos. El documento de investigación original de LoRA proporciona más detalles técnicos sobre la metodología y su eficacia. Este enfoque hace que el proceso de ajuste fino sea significativamente más rápido y consuma menos memoria.
Relevancia y beneficios
La principal ventaja de la LoRA es su eficacia, que conlleva varios beneficios clave:
- Coste computacional reducido: Requiere mucha menos memoria deGPU y potencia de cálculo en comparación con el ajuste fino completo, lo que hace factible adaptar grandes modelos en hardware menos potente.
- Menor huella de almacenamiento: Como los pesos originales del modelo están congelados, sólo es necesario guardar los pequeños adaptadores LoRA para cada tarea específica. Esto es mucho más eficiente que almacenar una copia completa del modelo ajustado para cada tarea.
- Cambio de tareas más rápido: Cargar diferentes adaptadores LoRA permite cambiar rápidamente de tarea sin cargar modelos grandes completamente nuevos.
- Rendimiento comparable: A pesar de entrenar muchos menos parámetros, LoRA suele alcanzar niveles de precisión similares a los obtenidos mediante un ajuste fino completo en tareas específicas posteriores.
- Permitir el despliegue en el borde: Los reducidos requisitos de recursos facilitan la adaptación de los modelos a escenarios informáticos periféricos en los que la potencia de cálculo y la memoria son limitadas, llevando potentes capacidades de IA a dispositivos como smartphones o sistemas integrados(Edge AI explicada por Intel).
- Democratización: Reduce la barrera de entrada para los investigadores y desarrolladores que deseen personalizar modelos de última generación como GPT-4 o Ultralytics YOLO de Ultralytics.
Aplicaciones de LoRA
La eficacia de LoRA la hace valiosa en diversos ámbitos:
- Adaptación de grandes modelos lingüísticos (LLM): Éste es uno de los usos más comunes. Los desarrolladores pueden tomar un LLM masivo preentrenado (como los disponibles a través de Hugging Face) y utilizar LoRA para especializarlo para aplicaciones específicas, como chatbots personalizados, sistemas de respuesta a preguntas específicas de un dominio, o mejorar el resumen de texto para determinados tipos de documentos. Bibliotecas como la biblioteca PEFT deHugging Face Face proporcionan implementaciones sencillas de LoRA.
- Personalización de modelos de visión por ordenador: LoRA puede aplicarse a grandes modelos de visión por ordenador para tareas como la detección de objetos, la segmentación de imágenes o la estimación de poses. Por ejemplo, un modeloYOLO Ultralytics Ultralytics preentrenado en un gran conjunto de datos como COCO podría afinarse eficazmente utilizando LoRA para detectar tipos específicos de objetos en un nicho de dominio, como especies en peligro de extinción para la conservación de la vida salvaje o defectos específicos en el control de calidad de la fabricación. Plataformas como Ultralytics HUB pueden agilizar la formación y el despliegue de esos modelos adaptados.
LoRA vs. Conceptos relacionados
Es útil distinguir la LoRA de otras técnicas de adaptación de modelos:
- Ajuste fino completo: Este método actualiza todos los pesos de un modelo preentrenado en un nuevo conjunto de datos. Aunque suele ser eficaz, requiere importantes recursos informáticos y almacenamiento para cada modelo adaptado. LoRA, en cambio, congela los pesos originales y sólo entrena las pequeñas matrices adaptadoras inyectadas. Encontrarás más detalles en nuestra entrada del glosario sobre ajuste fino y en el resumen de ajuste fino deNVIDIA.
- Ajuste de indicaciones: Esta técnica mantiene los pesos del modelo completamente congelados y, en su lugar, aprende "indicaciones suaves" continuas (vectores añadidos a las incrustaciones de entrada) para dirigir el comportamiento del modelo en tareas específicas. A diferencia de LoRA, no modifica los pesos del modelo, sino que se centra exclusivamente en adaptar la representación de entrada. Más información sobre el ajuste y la ingeniería de instrucciones.
- Otros métodos PEFT: LoRA es sólo una técnica dentro del campo más amplio del Ajuste Fino Eficaz de Parámetros (PEFT). Otros métodos son el Ajuste de Adaptadores (similar pero con estructuras de adaptadores ligeramente diferentes), el Ajuste de Prefijos y la IA³, cada uno de los cuales ofrece diferentes compensaciones en cuanto a eficacia de parámetros y rendimiento.
En resumen, LoRA proporciona una forma potente y eficiente en recursos de personalizar grandes modelos básicos preentrenados para una amplia gama de tareas específicas tanto en PNL como en visión por ordenador, haciendo que la IA avanzada sea más práctica y accesible.