Etiqueta: langchain

Integrate Groq’s Fast LLM Inferencing With Couchbase Vector Search
Integrar a inferência LLM rápida do Groq com a pesquisa vetorial do Couchbase

Integre a rápida inferência LLM do Groq com o Couchbase Vector Search para obter aplicativos RAG eficientes. Compare sua velocidade com a do OpenAI, Gemini e Ollama.

From Concept to Code: LLM + RAG with Couchbase
Do conceito ao código: LLM + RAG com Couchbase

Saiba como criar um mecanismo de recomendação de IA generativa usando LLM, RAG e integração com o Couchbase. Guia passo a passo para desenvolvedores.

New Couchbase Capella Advancements Fuel Development
Novos avanços do Couchbase Capella impulsionam o desenvolvimento

Impulsione o desenvolvimento orientado por IA com as atualizações mais recentes da Capella: análise em tempo real, pesquisa vetorial na borda e um nível gratuito para começar rapidamente.

Build Faster and Cheaper LLM Apps With Couchbase and LangChain
Crie aplicativos LLM mais rápidos e baratos com o Couchbase e o LangChain

O pacote LangChain-Couchbase integra a pesquisa vetorial, o cache semântico e o cache de conversação do Couchbase para fluxos de trabalho de IA generativa.

Get Started With Couchbase Vector Search In 5 Minutes
Comece a usar o Couchbase Vector Search em 5 minutos

A pesquisa vetorial e a pesquisa de texto completo são métodos usados para pesquisar em coleções de dados, mas operam de maneiras diferentes e são adequadas a diferentes tipos de dados e casos de uso.

Accelerate Couchbase-Powered RAG AI Application With NVIDIA NIM/NeMo and LangChain
Acelere o aplicativo de IA RAG com base em Couchbase com NVIDIA NIM/NeMo e LangChain

Desenvolva um aplicativo GenAI interativo com respostas fundamentadas e relevantes usando o RAG baseado no Couchbase Capella e acelere-o usando o NVIDIA NIM/NeMo

Twitter Thread tl;dr With AI? Part 2
Twitter Thread tl;dr Com IA? Parte 2

Crie um aplicativo Streamlit que use LangChain e Vector Search para dados JSON extraídos do Twitter e indexados no banco de dados NoSQL do Couchbase para bate-papo interativo.