Serviços de IA

Migre seus agentes existentes para os serviços de IA do Couchbase

Um aplicativo típico de agente de IA em 2025 geralmente envolve:

  • Um LLM hospedado na nuvem
  • Um banco de dados vetorial para recuperação
  • Um banco de dados operacional separado
  • Gerenciamento de prompts e ferramentas de gerenciamento de ferramentas
  • Estruturas de observabilidade e rastreamento
  • Grades de proteção

Cada ferramenta resolve um problema. No entanto, coletivamente, elas podem criar uma expansão arquitetônica com latência imprevisível, custos operacionais crescentes e pontos cegos de governança. Como resultado, muitos agentes de IA nunca passam de demonstrações ou protótipos internos porque a complexidade aumenta muito rapidamente.

Esta postagem explica como migramos um aplicativo de agente de IA existente para o Couchbase AI Services e o Agent Catalog, passando para uma única plataforma de IA pronta para produção. 

O problema central: a fragmentação mata a IA de produção

É importante entender por que os sistemas agênticos enfrentam dificuldades na produção. Atualmente, a maioria dos agentes de IA é construída a partir de muitas partes frouxamente acopladas: os prompts vivem em um sistema, os vetores em outro, as conversas são registradas de forma inconsistente, as ferramentas são invocadas sem rastreabilidade clara. - tornando o comportamento do agente difícil de depurar. Ao mesmo tempo, o envio de dados corporativos para endpoints de LLM de terceiros introduz riscos de conformidade e segurança. Por fim, a governança geralmente é tratada como uma reflexão tardia; muitas estruturas enfatizam o que um agente pode fazer, mas não explicam por que ele tomou uma decisão, qual prompt ou ferramenta a influenciou ou se essa decisão deveria ter sido permitida. Essa é uma lacuna inaceitável para fluxos de trabalho comerciais reais.

O que são os serviços de IA do Couchbase?

A criação de aplicativos de IA geralmente envolve a combinação de vários serviços: um banco de dados vetorial para memória, um provedor de inferência para LLMs (como OpenAI ou Anthropic) e uma infraestrutura separada para incorporar modelos.

Serviços de IA do Couchbase simplifica isso fornecendo uma plataforma unificada onde seus dados operacionais, pesquisa vetorial e modelos de IA convivem juntos. Ela oferece:

  • API de inferência e incorporação de LLM: Acesse LLMs populares (como o Llama 3) e modelos de incorporação diretamente no Couchbase Capella, sem chaves de API externas, sem infraestrutura extra e sem saída de dados. Os dados de seu aplicativo permanecem dentro do Capella. As consultas, os vetores e a inferência de modelos ocorrem onde os dados residem. Isso permite experiências de IA seguras e de baixa latência, ao mesmo tempo em que atende aos requisitos de privacidade e conformidade. O principal valor: dados e IA juntos, com informações confidenciais mantidas dentro de seu sistema.
  • Plataforma unificada: Mantenha seu banco de dados, vetorização, pesquisa e modelo em um local central.
  • Pesquisa vetorial integrada: Realize pesquisas semânticas diretamente em seus dados JSON com latência de milissegundos.

Por que isso é necessário?

À medida que passamos de simples chatbots para fluxos de trabalho autênticos - em que os modelos de IA usam ferramentas de forma autônoma - a latência e a complexidade da configuração tornam-se os principais gargalos. O Couchbase AI Services adota uma abordagem que prioriza a plataforma. Ao colocar seus dados e serviços de IA no mesmo local, ele reduz a sobrecarga operacional e a latência. Além disso, ferramentas como o Catálogo de agentes ajudam a gerenciar centenas de prompts e ferramentas de agentes, além de fornecer registro e telemetria incorporados para os agentes. 

Nesse ponto, a questão muda de por que uma abordagem que prioriza a plataforma é importante para como ela funciona na prática.

Portanto, vamos explorar como você pode migrar um aplicativo agêntico existente e melhorar seu desempenho, governança e confiabilidade ao longo do caminho.

Como é o aplicativo atual

O aplicativo atual é um HR Sourcing Agent projetado para automatizar a triagem inicial de candidatos. A principal função do aplicativo agente é ingerir arquivos de currículos brutos (PDFs), entender o conteúdo dos currículos usando um LLM e estruturar os dados não estruturados em um formato de consulta enriquecido com embeddings semânticos no Couchbase. Ele permite que os profissionais de RH carreguem uma nova descrição de cargo e obtenham resultados para os candidatos mais adequados usando a pesquisa vetorial do Couchbase. 

Em seu estado atual, o aplicativo HR Sourcing é um microsserviço baseado em Python que envolve um LLM com o Google ADK. Ele conecta manualmente definições de modelos, solicitações de agentes e pipelines de execução. Embora funcional, a arquitetura exige que o desenvolvedor gerencie o estado da sessão na memória, manipule a lógica de repetição, limpe as saídas brutas do modelo e mantenha a integração entre o LLM e o banco de dados manualmente. Além disso, não há telemetria integrada para o nosso agente. 

O aplicativo instancia manualmente um provedor de modelo. Nesse caso específico, ele se conecta a um modelo de código aberto hospedado (Qwen 2.5-72B via Nebius) usando o LiteLLM wrapper. O aplicativo precisa criar manualmente um ambiente de tempo de execução para o agente. Ele inicializa um InMemorySessionService para rastrear o estado da conversa (mesmo que de curta duração) e um Runner para executar a entrada do usuário (o texto de resumo) no pipeline do agente.

Migração do aplicativo agente para os serviços de IA do Couchbase

Agora vamos nos aprofundar em como migrar a lógica central do nosso agente para usar o Couchbase AI Services e o Agent Catalog. 

O novo agente usa um agente LangChain ReAct para processar descrições de cargos, realiza a correspondência inteligente de candidatos usando pesquisa vetorial e fornece recomendações de candidatos classificados com explicações. 

Pré-requisitos

Antes de começarmos, verifique se você tem:

  • Python 3.10+ instalado.

Instalar dependências

Começaremos instalando os pacotes necessários. Isso inclui o pacote agente CLI para o catálogo e os pacotes de integração do LangChain.

Serviço de modelo centralizado (integração de serviços de modelo de IA do Couchbase)

No original adk_resume_agent.py, Na versão anterior, tivemos que instanciar manualmente o LiteLLM, gerenciar chaves de API de provedores específicos (Nebius, OpenAI etc.) e lidar com a lógica de conexão dentro do código do aplicativo. Migraremos o código para usar o Couchbase. 

O Couchbase AI Services fornece pontos de extremidade compatíveis com OpenAI que são usados pelos agentes. Para o LLM e os embeddings, usamos o pacote LangChain OpenAI, que se integra diretamente com o conector LangChain Couchbase.

Habilitar serviços de IA

  1. Navegue até a seção AI Services (Serviços de IA) da Capella na interface do usuário.
  2. Implemente os modelos Embeddings e LLM.
    • Você precisa iniciar uma incorporação e um LLM para essa demonstração na mesma região que o cluster do Capella onde os dados serão armazenados.
    • Implante um LLM que tenha recursos de chamada de ferramentas, como mistralai/mistral-7b-instruct-v0.3. Para embeddings, você pode escolher um modelo como o nvidia/llama-3.2-nv-embedqa-1b-v2.
  3. Anote o URL do endpoint e gere chaves de API.

Para obter mais detalhes sobre o lançamento de modelos de IA, você pode consultar o documentação oficial.

Implementação da lógica de código para LLM e modelos de incorporação

Precisamos configurar os pontos de extremidade do Capella Model Services. Os Capella Model Services são compatíveis com o formato da API OpenAI, portanto, podemos usar o padrão langchain-openai apontando-a para o nosso ponto de extremidade do Capella. Inicializamos o modelo de incorporação com Aberturas do OpenAIEmbeddings e o LLM com ChatOpenAI, mas aponte para Capella.

 

Em vez de codificar os provedores de modelos, o agente agora se conecta a um ponto de extremidade Capella unificado, que atua como um gateway de API para o LLM e o modelo de incorporação. 

Desacoplamento de prompts e ferramentas com o catálogo de agentes

O Agent Catalog é uma ferramenta avançada para gerenciar o ciclo de vida dos recursos do seu agente. Em vez de codificar prompts e definições de ferramentas em seus arquivos Python, você os gerencia como ativos com versão. É possível centralizar e reutilizar suas ferramentas entre as equipes de desenvolvimento. Também é possível examinar e monitorar as respostas do agente com o Agent Tracer. Esses recursos oferecem visibilidade, controle e rastreabilidade para o desenvolvimento e a implementação de agentes. Suas equipes podem criar agentes com confiança, sabendo que eles podem ser auditados e gerenciados com eficiência.  

Sem a capacidade de rastrear o comportamento do agente, torna-se impossível automatizar a confiança, a validação e a corroboração contínuas das decisões autônomas tomadas pelos agentes. No Catálogo de Agentes, isso é feito por meio da avaliação do código do agente e da transcrição da conversa com o LLM para avaliar a adequação da decisão pendente ou da pesquisa da ferramenta MCP.  

Portanto, vamos incorporar o Agent Catalog ao projeto. 

Adição da ferramenta de pesquisa de vetores 

Começaremos adicionando nossa definição de ferramenta para o Catálogo de Agentes. Nesse caso, temos a ferramenta de pesquisa vetorial. 

Para adicionar uma nova função Python como uma ferramenta para seu agente, você pode usar o comando add da ferramenta de linha de comando do Catálogo de agentes:

agente adicionar 

Se você tiver uma ferramenta Python existente que deseja adicionar ao Catálogo de agentes, adicione agentc às suas importações e o decorador @agentc.catalog.tool à sua definição de ferramenta. Em nosso exemplo, definimos uma função Python para executar a pesquisa vetorial como nossa ferramenta. 

Adicionando os prompts 

Na arquitetura original, as instruções do agente ficavam enterradas no código Python como grandes variáveis de cadeia de caracteres, o que dificultava a versão ou a atualização sem uma implantação completa. Com o Agent Catalog, agora definimos nossa persona “HR Recruiter” como um ativo autônomo e gerenciado usando prompts. Usando uma definição YAML estruturada (record_kind: prompt), criamos o hr_recruiter_assistant. Essa definição não contém apenas o texto; ela encapsula todo o comportamento do agente, definindo estritamente o padrão ReAct (Pensamento → Ação → Observação) que orienta o LLM a usar a ferramenta de pesquisa vetorial de forma eficaz.

Indexação e publicação dos arquivos locais

Usamos agente para indexar nossos arquivos locais e publicá-los no Couchbase. Isso armazena os metadados no banco de dados, tornando-os pesquisáveis e detectáveis pelo agente em tempo de execução.

Em nosso código, inicializamos o Catalog e usamos catalog.find() para recuperar prompts e ferramentas verificados. Não codificamos mais os prompts; em vez disso, nós os buscamos.

Mecanismo de raciocínio padronizado (integração LangChain)

O aplicativo anterior usava um pipeline SequentialAgent personalizado. Embora flexível, isso significava que tínhamos de manter nossos próprios loops de execução, tratamento de erros e lógica de repetição para as etapas de raciocínio do agente.

Aproveitando a compatibilidade do Agent Catalog com o LangChain, mudamos para uma arquitetura de agente ReAct (Reason + Act) padrão. Simplesmente alimentamos as ferramentas e os prompts obtidos do catálogo diretamente em create_react_agent.

Qual é o benefício? Obtemos loops de raciocínio padrão do setor - Pensamento -> Ação -> Observação - fora da caixa. Agora, o agente pode decidir de forma autônoma pesquisar “Desenvolvedores React”, analisar os resultados e, em seguida, realizar uma segunda pesquisa por “Engenheiros de front-end” se a primeira produzir poucos resultados, algo com que o pipeline linear do ADK tinha dificuldades.

Observabilidade integrada (rastreamento de agentes)

No aplicativo de agente anterior, a observabilidade era limitada às instruções print(). Não havia nenhuma maneira de “reproduzir” a sessão de um agente para entender por que ele rejeitou um candidato específico.

O Agent Catalog fornece rastreamento. Ele permite que os usuários usem o SQL++ com rastreamentos, aproveitem o desempenho do Couchbase e obtenham informações sobre detalhes de prompts e ferramentas na mesma plataforma.

Podemos adicionar a observabilidade transacional usando catalog.Span(). Envolvemos a lógica de execução em um gerenciador de contexto que registra cada pensamento, ação e resultado de volta ao Couchbase. Agora podemos visualizar um “rastreamento” completo da sessão de recrutamento na interface do usuário do Capella, mostrando exatamente como o LLM processou o currículo de um candidato. 

Conclusão

Os agentes de IA falham na produção não porque os LLMs não têm capacidade, mas porque os sistemas agênticos podem se tornar muito complexos. Ao adotar uma abordagem que prioriza a plataforma com o Couchbase AI Services e o Agent Catalog, transformamos um agente complexo em um sistema agêntico governado e dimensionável. 

Se você está criando agentes de IA hoje, a verdadeira questão não é Qual LLM usar - é como você executará agentes de forma segura, observável e em escala. Os serviços de IA do Couchbase foram criados exatamente para isso.

Compartilhe este artigo
Receba atualizações do blog do Couchbase em sua caixa de entrada
Esse campo é obrigatório.

Autor

Postado por Laurent Doguin

Laurent é um nerd metaleiro que mora em Paris. Em sua maior parte, ele escreve código em Java e texto estruturado em AsciiDoc, e frequentemente fala sobre dados, programação reativa e outras coisas que estão na moda. Ele também foi Developer Advocate do Clever Cloud e do Nuxeo, onde dedicou seu tempo e experiência para ajudar essas comunidades a crescerem e se fortalecerem. Atualmente, ele dirige as Relações com Desenvolvedores na Couchbase.

Deixe um comentário

Pronto para começar a usar o Couchbase Capella?

Iniciar a construção

Confira nosso portal do desenvolvedor para explorar o NoSQL, procurar recursos e começar a usar os tutoriais.

Use o Capella gratuitamente

Comece a trabalhar com o Couchbase em apenas alguns cliques. O Capella DBaaS é a maneira mais fácil e rápida de começar.

Entre em contato

Deseja saber mais sobre as ofertas do Couchbase? Deixe-nos ajudar.