Etiqueta: langchain

Integrate Groq’s Fast LLM Inferencing With Couchbase Vector Search

Integrar a inferência LLM rápida do Groq com a pesquisa vetorial do Couchbase

Com tantos LLMs sendo lançados, muitas empresas estão se concentrando em aumentar as velocidades de inferência de modelos de linguagem grandes com hardware especializado e otimizações para poder dimensionar os recursos de inferência desses modelos. Uma dessas empresas...

From Concept to Code: LLM + RAG with Couchbase

Do conceito ao código: LLM + RAG com Couchbase

As tecnologias GenAI são definitivamente um item de tendência em 2023 e 2024 e, como trabalho para a Tikal, que publica seu próprio relatório anual de radar e tendências tecnológicas, o LLM e a GenAI não escaparam da minha atenção. Como desenvolvedor, eu...

New Couchbase Capella Advancements Fuel Development

Novos avanços do Couchbase Capella impulsionam o desenvolvimento

Hoje temos o prazer de anunciar três grandes avanços para o Capella, a plataforma de banco de dados em nuvem para aplicativos modernos, incluindo GenAI, pesquisa vetorial e serviços de aplicativos móveis. Primeiro, a disponibilidade geral do Capella Columnar, que permite dados nativos de ETL JSON em tempo real e zero...

Build Faster and Cheaper LLM Apps With Couchbase and LangChain

Crie aplicativos LLM mais rápidos e baratos com o Couchbase e o LangChain

Novo cache padrão, semântico e conversacional com integração LangChain No cenário em rápida evolução do desenvolvimento de aplicativos de IA, a integração de grandes modelos de linguagem (LLMs) com fontes de dados corporativos tornou-se um foco essencial. A capacidade de aproveitar o poder dos LLMs...

Get Started With Couchbase Vector Search In 5 Minutes

Comece a usar o Couchbase Vector Search em 5 minutos

O que é um vetor Um vetor é um objeto que representa um item do mundo real como uma matriz de números flutuantes. Cada item no mundo real é representado no formato de vetor (como uma matriz) e tem muitas dimensões (atributos) associadas a...

Accelerate Couchbase-Powered RAG AI Application With NVIDIA NIM/NeMo and LangChain

Acelere o aplicativo de IA RAG com base em Couchbase com NVIDIA NIM/NeMo e LangChain

Hoje, temos o prazer de anunciar nossa nova integração com o NVIDIA NIM/NeMo. Nesta postagem do blog, apresentamos um conceito de solução de um chatbot interativo baseado em uma arquitetura RAG (Retrieval Augmented Generation) com o Couchbase Capella como um banco de dados vetorial. A recuperação...

Twitter Thread tl;dr With AI? Part 2

Twitter Thread tl;dr Com IA? Parte 2

Na parte 1, vimos como extrair dados do Twitter, transformar tweets em documentos JSON, obter uma representação incorporada desse tweet, armazenar tudo no Couchbase e executar uma pesquisa vetorial. Essas são as primeiras etapas de uma pesquisa de recuperação...

Laurent Doguin 17 de maio de 2024