¿Qué es la generación mejorada por recuperación?
No cabe duda de que grandes modelos lingüísticos (LLM) han transformado el procesamiento del lenguaje natural, pero a veces pueden ser incoherentes, aleatorios o incluso erróneos en las respuestas que dan a una pregunta. Si bien es cierto que esto puede dar lugar a algunas risas, no es lo ideal cuando se confía en los LLM para obtener información precisa y verificable.
Muchos equipos técnicos trabajan para mejorar la precisión de los grandes modelos lingüísticos. Un método que ha surgido en respuesta a este empeño es la generación aumentada por recuperación (RAG). Acuñado por un grupo de personas del equipo de Investigación Fundamental en Inteligencia Artificial (FAIR), el University College de Londres (UCL) y la Universidad de Nueva York (NYU), la generación aumentada por recuperación (RAG) se refiere a una técnica que ayuda a la precisión de grandes modelos lingüísticos al permitir que el modelo tenga acceso a hechos externos.
¿Cómo funciona el GAR?
Normalmente, los grandes modelos lingüísticos (LLM) toman la información de un usuario y ofrecen respuestas basadas en la información con la que se ha entrenado el LLM (que a veces puede estar desfasada o ser incorrecta). RAG combina esta información con datos complementarios, como la base de conocimientos de una empresa o documentos relevantes, lo que le permite ofrecer respuestas precisas y contextualmente relevantes.
Búsqueda semántica frente a RAG
La búsqueda semántica ofrece resultados relevantes utilizando el procesamiento del lenguaje natural para comprender la intención de la consulta del usuario. Sin embargo, los motores de búsqueda semántica son tan buenos como los datos y los algoritmos con los que se entrenan.
Como ya se ha mencionado, RAG es tan eficaz porque utiliza técnicas de recuperación y generación de LLM e incorpora fuentes externas de confianza ajenas a sus datos de entrenamiento para generar datos relevantes, preciso respuestas.
Casos de uso del GAR
La generación aumentada por recuperación tiene muchos casos de uso. Algunos ejemplos son:
Crear un sistema de preguntas y respuestas
RAG permite a los usuarios introducir preguntas y recibir respuestas detalladas y pertinentes. En comparación con los modelos o sistemas tradicionales de preguntas y respuestas, RAG puede ofrecer mayor precisión y conocimientos más profundos.
Sistemas conversacionales
Cuando se crean chatbots, la GAR puede ayudar a proporcionar una variedad de respuestas informativas y relevantes a las consultas de los usuarios, especialmente cuando las conversaciones abarcan varios temas o requieren acceder a grandes cantidades de información. Pensemos en un chatbot de seguros. Estos chatbots deben ser capaces de responder a preguntas que van desde la contratación hasta la tramitación de siniestros, además de proporcionar muchos otros tipos de atención al cliente.
Sistemas educativos
El GAR puede utilizarse en varios sistemas educativos. No sólo puede dar respuestas a preguntas, sino también proporcionar información de fondo sobre cómo llegar a las respuestas y crear material didáctico basado en las preguntas de los alumnos. El GAR puede mejorar la experiencia de aprendizaje de los alumnos desde la guardería hasta la universidad y más allá.
Generación de contenidos e informes
RAG puede ayudar a crear informes basados en información relevante e incluso a generar contenidos, como artículos, publicaciones en redes sociales y guiones de vídeo. El uso de RAG para estos materiales puede reducir el tiempo de investigación y lluvia de ideas de los creadores de contenidos y aumentar su producción.
Cómo aplicar el GAR
La implantación del GAR implica los siguientes pasos:
-
- Empezar con un modelo lingüístico preformado
Lo primero que debe hacer es elegir un modelo lingüístico preentrenado. Estos modelos se han entrenado con diversos datos y pueden generar textos coherentes y pertinentes (aunque no siempre actualizados ni del todo precisos). También hay bibliotecas en línea que permiten a los desarrolladores acceder fácilmente a modelos lingüísticos preentrenados y utilizarlos (por ejemplo, Transformers de Cara Abrazada).
-
- Recuperación de documentos
A continuación, debes implantar un sistema de recuperación para recuperar los documentos pertinentes en función de la información introducida por el usuario. Existe la opción de crear o utilizar una variedad de documentos relevantes para su sector o tarea. También existen métodos más tradicionales, como utilizar Okapi BM25 o Frecuencia de términos-Frecuencia inversa de documentos (TF-IDF), o modelos neuronales de recuperación, como Recuperación del paso denso (DPR).
-
- Integración contextual
Las incrustaciones contextuales ayudan a identificar el verdadero sentimiento de una palabra basándose en el texto que la rodea, lo que ayuda a proporcionar una mejor representación que las incrustaciones de palabras tradicionales. La incrustación contextual puede obtenerse utilizando modelos como Representaciones bidireccionales de codificadores a partir de transformadores (BERT para abreviar).
-
- Combinación (concatenación)
Una vez que hayas utilizado las incrustaciones contextuales, tendrás que combinarlas con el contexto. Puedes hacerlo combinando las incrustaciones de la entrada con las incrustaciones de los documentos o utilizando mecanismos de atención para ponderar la importancia de las incrustaciones de cada documento en función del contexto de la entrada.
-
- Ajuste fino
El ajuste fino es opcional, pero puede mejorar el rendimiento del modelo. Puedes utilizar el ajuste fino para acelerar el entrenamiento, abordar casos de uso específicos y mejorar la experiencia del usuario.
-
- Inferencia
Este último paso introducirá el contexto en el modelo y recuperará los documentos pertinentes mediante el sistema de recuperación de documentos. También combinará las incrustaciones de entrada con las incrustaciones de documentos y generará una respuesta utilizando el modelo combinado.
Por suerte, existen bibliotecas que proporcionan herramientas preformadas para implantar sistemas similares a RAG, lo que hace que todo este proceso sea más fácil y accesible para los desarrolladores.
Ventajas de la generación mejorada por recuperación
Una de las mayores ventajas de la generación aumentada por recuperación es la mejora de la calidad y la pertinencia de las respuestas generadas gracias a que el gran modelo lingüístico tiene acceso a información más precisa y pertinente de la que tendría de otro modo.
Otra ventaja es la capacidad de RAG para proporcionar información específica de un dominio. Dado que los modelos RAG pueden ajustarse a tareas o casos de uso específicos, pueden beneficiar a los usuarios proporcionándoles información exclusiva de su situación.
Dado que la GAR no sólo recupera la información pertinente, sino que también genera una respuesta natural, las interacciones con estos modelos serán, en general, más conversacionales y fáciles de usar.
Puntos clave y recursos adicionales
La generación aumentada por recuperación ofrece una versión mejorada de los grandes modelos lingüísticos tradicionales al combinar los puntos fuertes de los LLM con el acceso externo a información precisa y actualizada.
Para seguir aprendiendo sobre temas relacionados con la generación aumentada por recuperación, consulte estos recursos:
-
- Explicación de los grandes modelos lingüísticos
- ¿Qué son las incrustaciones vectoriales?
- Desbloquear la búsqueda de siguiente nivel: El poder de las bases de datos vectoriales
- Guía para el desarrollo de IA generativa
- Cómo funciona la IA generativa con Couchbase
- Couchbase presenta un nuevo servicio de IA en la nube, Capella iQ
- Los clientes de Couchbase utilizan IA y ML para combatir el fraude financiero
- Póngase manos a la obra con la búsqueda vectorial: