Categoria: Pesquisa

Building a Simple Travel Agent Workflow with n8n and Couchbase Vector Search
Criação de um fluxo de trabalho simples de agente de viagens com n8n e Couchbase Vector Search

Crie um chatbot para agentes de viagens com o n8n e o Couchbase Vector Search usando pesquisa semântica e automação de fluxo de trabalho.

Unlocking the Power of AWS Bedrock with Couchbase
Liberando o poder do AWS Bedrock com o Couchbase

Neste blog, exploramos como o armazenamento de vetores do Couchbase, quando integrado ao AWS Bedrock, cria uma solução de IA avançada, dimensionável e econômica.

Semantic Similarity with Focused Selectivity
Similaridade semântica com seletividade focada

Descubra como a pré-filtragem seletiva aprimora a pesquisa de similaridade semântica no Couchbase, combinando consultas de vetores e metadados.

Introducing Couchbase as a Vector Store in Flowise
Apresentando o Couchbase como um armazenamento de vetores no Flowise

Integre o Couchbase como um armazenamento vetorial de alto desempenho no Flowise. Faça upsert de dados, execute pesquisas vetoriais e crie aplicativos de IA com essa solução sem código.

Build Your First Open Source AI Agent with Couchbase
Crie seu primeiro agente de IA de código aberto com o Couchbase

Crie um agente de IA de código aberto com Python, JavaScript e Couchbase. Automatize tarefas e implemente seu próprio assistente de IA - totalmente gratuito!

Extending RAG capabilities to Excel with Couchbase, LLamaIndex, and Amazon Bedrock
Ampliação dos recursos do RAG para o Excel com Couchbase, LLamaIndex e Amazon Bedrock

Estenda os recursos de Geração Aumentada de Recuperação (RAG) para o Excel usando Couchbase, LlamaIndex e Amazon Bedrock. Tornar as planilhas pesquisáveis.

Chat With Your Git History, Thanks to RAG and Couchbase Shell
Converse com seu histórico do Git, graças ao RAG e ao Couchbase Shell

Transforme seu histórico do Git em uma base de conhecimento pronta para o bate-papo usando o RAG e o Couchbase Shell.

A Guide to LLM Embeddings
Um guia para LLM Embeddings

Saiba como os LLMs geram e usam embeddings para aprimorar o processamento de linguagem natural, melhorar a relevância da pesquisa e habilitar aplicativos orientados por IA.

AI-Ready Data: Automate Embeddings with Capella’s Vectorization Service
Dados prontos para IA: Automatize Embeddings com o Serviço de Vetorização da Capella

O Capella Vectorization Service automatiza as incorporações, o desenvolvimento de IA é mais rápido e fácil com pesquisa semântica perfeita, aplicativos RAG e recuperação inteligente de dados.

DeepSeek Models Now Available in Capella AI Services
Modelos DeepSeek agora disponíveis nos serviços de IA da Capella

O DeepSeek-R1 agora está nos Serviços de IA da Capella! Desbloqueie o raciocínio avançado para IA empresarial com menor TCO. Registre-se para obter acesso antecipado!

Integrate Groq’s Fast LLM Inferencing With Couchbase Vector Search
Integrar a inferência LLM rápida do Groq com a pesquisa vetorial do Couchbase

Integre a rápida inferência LLM do Groq com o Couchbase Vector Search para obter aplicativos RAG eficientes. Compare sua velocidade com a do OpenAI, Gemini e Ollama.

Plataforma única, Couchbase multiuso: Pesquisa vetorial, geoespacial, SQL++ e muito mais
Plataforma única, Couchbase multiuso: Pesquisa vetorial, geoespacial, SQL++ e muito mais

Descubra como a abordagem multiuso do Couchbase combina pesquisa vetorial, geoespacial, SQL++ e mais, simplificando aplicações complexas em uma única plataforma.