IA generativa (GenAI) tem o potencial de automatizar as atividades de trabalho que atualmente ocupam de 60% a 70% do tempo dos funcionários, levando a ganhos substanciais de produtividade em vários setores. No entanto, o conhecimento de um LLM de propósito geral (GP) está confinado aos seus dados de treinamento, o que faz com que ele "alucine", fornecendo respostas incompletas ou imprecisas. Isso prejudica a confiança e a credibilidade, impedindo que muitas provas de conceito (POCs) da GenAI cheguem à produção. Com a introdução da técnica Retrieval-Augmented Generation (RAG), podemos aumentar o LLM com dados proprietários que fundamentam as respostas do LLM em fatos atuais e confiáveis. A implementação bem-sucedida da RAG requer um banco de dados altamente dimensionável e confiável para servir como base de conhecimento, banco de dados de vetores e cache do LLM, além de uma plataforma robusta para desenvolver e dimensionar aplicativos GenAI usando os principais modelos de base.
Couchbase e Bedrock da Amazônia Juntos, oferecem uma plataforma de ponta a ponta para criar aplicativos RAG de alto desempenho em setores como varejo, saúde, hotelaria, jogos e muitos outros.
Couchbase CapellaO DBaaS (Database-as-service), um DBaaS (Database-as-service) nativo da nuvem e de alto desempenho, permite que você comece a armazenar, indexar e consultar rapidamente dados operacionais, vetoriais, de séries temporais, textuais e geoespaciais para seus aplicativos RAG, aproveitando a flexibilidade do JSON. Além disso, ele oferece de forma exclusiva pesquisa híbridaque leva a pesquisa semântica a um novo patamar ao combinar a pesquisa tradicional e vetorial em uma única consulta SQL++ para potencializar os aplicativos que exigem pesquisa altamente granular com alta especificidade de seleção. Esse recurso abrange a nuvem, a borda e os dispositivos móveis. Você pode integrar facilmente o Capella como uma base de conhecimento, um banco de dados vetorial ou um banco de dados de pesquisa semântica. Cache do LLM com uma plataforma GenAI líder, como o Amazon Bedrock, usando estruturas de orquestração como LangChain ou LlamaIndex para criar um pipeline RAG de nível de produção. O Amazon Bedrock é um serviço totalmente gerenciado que oferece uma opção de modelos de fundação (FMs) de alto desempenho das principais empresas de inteligência artificial (IA), como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI e Amazon, usando uma única API, juntamente com um amplo conjunto de recursos necessários para criar aplicativos de IA generativa com segurança, privacidade e IA responsável.
Neste blog, apresentamos um aplicativo de chatbot com tecnologia RAG criado usando Pesquisa vetorial do Couchbase e Amazon Bedrock. Ele aproveita o Couchbase dados de amostra de viagem armazenados no Couchbase Capella e no modelo Anthropic Claude do Amazon Bedrock.
Você pode seguir as etapas abaixo para desenvolver o aplicativo RAG descrito na Figura 1.
Etapa 1: Criar um índice vetorial
Etapa 1.1: Criar um cluster do Capella em poucos minutos
-
- Crie uma conta gratuita com Nível gratuito do Couchbase Capella oferta.
- Selecione a região do AWS de sua preferência e comece a usar o cluster do Couchbase Capella.
- Configurar credenciais do banco de dados.
- Você pode permitir o acesso de qualquer lugar para essa implementação do RAG.
- Usaremos o amostra de viagem Balde.
Etapa 1.2: Criar o índice do vetor
-
- No Bancos de dados selecione o cluster de avaliação no qual você deseja criar o índice vetorial.
- Ir para Ferramentas de dados > Pesquisar.
- Clique em Criar índice de pesquisa.
- Por padrão, você iniciará em Modo rápido. Mudar para Modo avançado.
- Clique em Definição do índice.
- Clique em Importar do arquivo.
- Fazer upload do arquivo de índice.
- Clique em Criar índice
Etapa 2: Selecione o modelo de incorporação e o LLM
-
- Ir para o Console Amazon Bedrock e clique em "Model Access" (Acesso ao modelo) em sua conta do AWS.
- Selecione os modelos a seguir e clique no botão "Request model access" (Solicitar acesso ao modelo):
- Amazon: Titan Embeddings G1 - Texto
- Antrópico: Claude 2
Etapa 3: Crie seu aplicativo RAG
-
- Crie uma instância do Amazon SageMaker Notebook em sua conta da Amazon seguindo as instruções aqui.
- Faça o upload do arquivo "RAG_com_Couchbase_e_Amazon_Bedrock" Arquivo de notebook Jupyter para o Amazon SageMaker Notebook.
- Configure o notebook com os detalhes de conexão do ambiente do Couchbase.
12345COUCHBASE_CONNECTION_STRING = ("")NOME DE USUÁRIO DO BANCO = ""DB_PASSWORD = ""
-
- Atualize esse aplicativo de acordo com suas necessidades e execute-o quando terminar.
Agora você pode fazer perguntas ao chatbot. Embora não tenha sido abordado neste blog, considere usar o Grades de proteção de rocha para garantir que o conteúdo que a política da sua empresa considera inadequado não seja retornado como respostas ao usuário final.
Combinando os recursos de armazenamento e recuperação de dados de alto desempenho do Couchbase com a variedade de cobertura de modelos, segurança e usabilidade do Amazon Bedrock para acesso aos LLMs de sua escolha, você pode criar aplicativos RAG de alto desempenho. Esses aplicativos agora podem ser projetados para alta relevância e precisão contextual, permitindo uma ampla variedade de casos de uso, como criação de conteúdo, resposta a perguntas, resumo e geração de relatórios, entre outros.
Recursos adicionais
-
- Blog: Uma visão geral do RAG
- Documentos: Instalar a integração Langchain-Couchbase
- Documentos: Couchbase como armazenamento vetorial com LangChain
- Vídeo: Pesquisa vetorial e híbrida
- Vídeo: Vector Search para aplicativos móveis
- Documentos: Pesquisa de vetores no Capella DBaaS