Aprende qué son las incrustaciones y cómo potencian la IA capturando relaciones semánticas en los datos para la PNL, las recomendaciones y la visión por ordenador.
En el ámbito del aprendizaje automático (AM) y la inteligencia artificial (IA), las incrustaciones son una técnica fundamental para representar datos complejos -como palabras, frases, imágenes u otros elementos- como vectores numéricos densos en un espacio multidimensional. Esta transformación se aprende a partir de los datos, lo que permite a los algoritmos captar el significado semántico, el contexto o las características esenciales de la entrada. La principal ventaja es que los elementos considerados similares a partir de los datos de entrenamiento se asignan a puntos cercanos en este "espacio de incrustación", lo que permite a las máquinas comprender relaciones y patrones complejos con mucha más eficacia que las representaciones dispersas tradicionales, como la codificación de un solo punto.
Las incrustaciones son representaciones vectoriales aprendidas, de dimensiones relativamente bajas, de variables discretas (como palabras) u objetos complejos (como imágenes o perfiles de usuario). A diferencia de métodos como la codificación de una sola vez, que crean vectores dispersos de muy alta dimensión en los que cada dimensión corresponde a un único elemento y carece de información inherente sobre las relaciones, las incrustaciones son vectores densos (normalmente con decenas o miles de dimensiones) en los que cada dimensión contribuye a representar las características del elemento. Lo más importante es que la posición de estos vectores en el espacio de incrustación capta las relaciones semánticas. Por ejemplo, en las incrustaciones de palabras, las palabras con significados similares o utilizadas en contextos similares, como "rey" y "reina" o "caminar" y "correr", tendrán vectores matemáticamente próximos (por ejemplo, utilizando la similitud del coseno). Esta proximidad refleja la similitud semántica aprendida de los datos.
Las incrustaciones suelen generarse utilizando modelos de redes neuronales (RN ) entrenados en grandes conjuntos de datos mediante técnicas como el aprendizaje autosupervisado. Por ejemplo, una técnica habitual de incrustación de palabras, ejemplificada por Word2Vec, consiste en entrenar un modelo para predecir una palabra basándose en las palabras que la rodean (su contexto) dentro de un corpus de texto masivo. Durante este proceso de entrenamiento, la red ajusta sus parámetros internos, incluidos los vectores de incrustación de cada palabra, para minimizar los errores de predicción mediante métodos como la retropropagación. Los vectores resultantes codifican implícitamente información sintáctica y semántica. El número de dimensiones del espacio de incrustación es un hiperparámetro crítico, que influye en la capacidad del modelo para captar detalles frente a su coste computacional y el riesgo de sobreajuste. La visualización de estos espacios de datos de alta dimensión suele requerir técnicas de reducción de la dimensionalidad como t-SNE o PCA, que pueden explorarse con herramientas como el ProyectorTensorFlow .
Las incrustaciones son componentes cruciales en muchos sistemas modernos de IA de diversos ámbitos:
Es útil distinguir las incrustaciones de los términos relacionados:
Las incrustaciones proporcionan una potente forma de representar datos para los modelos de aprendizaje automático, permitiéndoles comprender similitudes semánticas y patrones complejos en diversos tipos de datos, desde texto a imágenes. Son una tecnología fundamental que impulsa los avances en numerosas aplicaciones de IA y forman parte integral de las capacidades de los marcos modernos de ML como PyTorch y TensorFlow.