Etiqueta: langchain

Integración de la inferencia LLM rápida de Groq con la búsqueda vectorial de Couchbase
Con la aparición de tantos LLM, muchas empresas se están centrando en mejorar la velocidad de inferencia de los grandes modelos lingüísticos con hardware especializado y optimizaciones para poder ampliar las capacidades de inferencia de estos modelos. Una de estas empresas...

Del concepto al código: LLM + RAG con Couchbase
Las tecnologías genAI son definitivamente un elemento de tendencia en 2023 y 2024, y como trabajo para Tikal, que publica su propio informe anual de radar y tendencias tecnológicas, LLM y genAI no escaparon a mi atención. Como desarrollador que soy,...

Los nuevos avances de Couchbase Capella impulsan el desarrollo
Hoy nos complace anunciar tres importantes avances para Capella, la plataforma de base de datos en la nube para aplicaciones modernas, incluyendo GenAI, búsqueda vectorial y servicios de aplicaciones móviles. En primer lugar, la disponibilidad general de Capella Columnar, que permite datos JSON-nativos en tiempo real, sin ETL...

Cree aplicaciones LLM más rápidas y baratas con Couchbase y LangChain
Nueva caché estándar, semántica y conversacional con integración de LangChain En el panorama en rápida evolución del desarrollo de aplicaciones de IA, la integración de grandes modelos lingüísticos (LLM) con fuentes de datos empresariales se ha convertido en un aspecto fundamental. La capacidad de aprovechar la potencia de los LLM...

Empieza a usar Couchbase Vector Search en 5 minutos
Qué es un vector Un vector es un objeto que representa un elemento del mundo real como una matriz de números flotantes. Cada elemento del mundo real se representa en formato vectorial (como una matriz) y tiene muchas dimensiones (atributos)...

Aceleración de la aplicación de IA RAG basada en Couchbase con NVIDIA NIM/NeMo y LangChain
Hoy nos complace anunciar nuestra nueva integración con NVIDIA NIM/NeMo. En esta entrada de blog, presentamos un concepto de solución de un chatbot interactivo basado en una arquitectura de generación aumentada de recuperación (RAG) con Couchbase Capella como base de datos vectorial. La recuperación...

Twitter Thread tl;dr ¿Con IA? Parte 2
En la parte 1 vimos cómo scrapear Twitter, convertir tweets en documentos JSON, obtener una representación incrustada de ese tweet, almacenarlo todo en Couchbase y cómo ejecutar una búsqueda vectorial. Estos son los primeros pasos de una recuperación...