IA Generativa (GenAI)

Los modelos DeepSeek ya est谩n disponibles en Capella AI Services

Desbloquee el razonamiento avanzado con un menor coste total de propiedad para la IA empresarial

Hoy, estamos encantados de compartir que DeepSeek-R1 est谩 ahora integrado en Capella AI Services, 隆disponible en vista previa! Este potente modelo destilado, basado en Llama 8B, mejora su capacidad para crear aplicaciones agenticas con razonamiento avanzado, al tiempo que garantiza el cumplimiento de la privacidad.

En este blog, demostraremos c贸mo aprovechar estos modelos mediante la creaci贸n de un chatbot para mejorar la b煤squeda empresarial y la gesti贸n del conocimiento. Con las potentes capacidades de inferencia de DeepSeek, las organizaciones pueden mejorar:

    • Revisi贸n jur铆dica y de conformidad
    • Automatizaci贸n de la atenci贸n al cliente
    • Soluci贸n de problemas t茅cnicos

Para esta demostraci贸n, utilizaremos DeepSeek Distill-Llama-3-8B, pero Capella AI Services en GA planea introducir variantes de mayor par谩metro del modelo para ampliar a煤n m谩s sus capacidades.

馃殌 驴Le interesa probar DeepSeek-R1? Echa un vistazo Servicios de IA de Capella o Inscr铆base en el Vista previa privada.

Comprender el modelo DeepSeek

Enfoque de destilaci贸n

DeepSeek Distill-Llama-3-8B se entrena con destilaci贸n de conocimientosdonde a modelo de profesor m谩s grande (DeepSeek-R1) orienta la formaci贸n de un modelo de estudiante m谩s peque帽o y eficiente (Llama 3 8B). El resultado es un modelo compacto pero potente que conserva una gran capacidad de razonamiento al tiempo que reduce los costes computacionales.


Conjunto de datos: evaluaci贸n comparativa con BEIR

Estamos evaluando las capacidades de razonamiento del modelo utilizando el Conjunto de datos BEIRun punto de referencia est谩ndar para razonamiento basado en la recuperaci贸n. El conjunto de datos consta de 75K documentos en varios 谩mbitos, estructurados del siguiente modo:

La capacidad del modelo se comprueba determinando qu茅 documentos contienen las respuestas correctas a determinadas consultasdemostrando su fuerza de razonamiento.

Primeros pasos: implantaci贸n de DeepSeek en Capella AI Services

Paso 1: Ingesta de documentos

Ahora puede generar incrustaciones vectoriales para documentos estructurados y no estructurados utilizando los servicios de Capella AI. En primer lugar, vamos a importar los documentos estructurados del conjunto de datos BEIR en una colecci贸n couchbase antes de desplegar un flujo de trabajo de vectorizaci贸n.

Configura un cl煤ster de base de datos operativo de 5 nodos (隆o m谩s grande!) en Couchbase Capella con las funciones de b煤squeda y eventos habilitadas. Puedes aprovechar una opci贸n de despliegue multinodo preconfigurada o crear una configuraci贸n personalizada.

Node and Services configuration

Una vez desplegado el cl煤ster, dir铆jase a la secci贸n Importar en la pesta帽a Herramientas de datos y haga clic en la opci贸n de importaci贸n. Para grandes conjuntos de datos, puede utilizar la opci贸n cb-import funci贸n.

NoSQL data loading interface Configure un bucket, scope y collection adicionales en su cluster operativo. Lo utilizaremos m谩s adelante como almac茅n para la cach茅 conversacional.

NoSQL bucket creation

Paso 2: Establecer un modelo de incrustaci贸n

Vuelve a la pesta帽a de modelos en la pesta帽a de servicios de Capella AI. Haga clic en el bot贸n Modelo de servicio antes de seleccionar las siguientes opciones:

AI Model management services in database Choose LLM models for database clusters

Paso 3: Configurar un flujo de trabajo de vectorizaci贸n

Ahora que los documentos han sido ingestados, consulte este post para m谩s detalles sobre c贸mo desplegar un flujo de trabajo de vectorizaci贸n.

Automated AI vectorization service in Capella

Asigne un nombre a su flujo de trabajo y especifique la colecci贸n que contiene los documentos ingestados.

Automated vectorization in database

Seleccione el modelo de incrustaci贸n desplegado en el paso anterior.

Choose an LLM model to automate vectorization

Especifique el nombre del campo en el que se insertar谩n los vectores generados y el nombre del 铆ndice que se construir谩 sobre 茅l:

Select a field to store AI vectors in NoSQL documents

Paso 4: Configurar el modelo DeepSeek

Vuelve a la secci贸n de servicios de Capella AI y haz clic en la pesta帽a de modelos y haz clic en el bot贸n Modelo de servicio antes de seleccionar las siguientes opciones:


AI Model management services in database

Seleccione el cl煤ster de base de datos operativa creado anteriormente en el men煤 desplegable, seleccione el Capella Peque帽o y el modelo DeepSeek Distill-LLama-3-8B en el men煤 desplegable.

Select LLM model for use in a particular cluster

Configure la cach茅 seleccionando un bucket-scope-collection y marcando la casilla Cach茅 conversacional caja.

Cache LLM response in database automatically

Crear una aplicaci贸n con DeepSeek

Paso 1: Configurar los ajustes para que la aplicaci贸n acceda a los datos

Aseg煤rese de que su direcci贸n IP est谩 en la lista blanca para acceder a los documentos de su base de datos operativa. Para ello, vaya a la p谩gina Conectar聽del cl煤ster operativo creado anteriormente.

Configure SDKs for use with Capella cloud database for AI services

Paso 2: Ejecutar la aplicaci贸n

Utilice el ejemplo proporcionado aqu铆 para configurar una aplicaci贸n que recupere los documentos del conjunto de datos BEIR almacenados en su base de datos operativa y, a continuaci贸n, genere una respuesta. Aseg煤rese de especificar correctamente sus credenciales de base de datos codificadas en base64 y el punto final del modelo. Puede encontrar el punto final del modelo accediendo a la carpeta Servicios de IA -> Modelos y, a continuaci贸n, haga clic en el bot贸n de flecha hacia abajo, que mostrar谩 la configuraci贸n del modelo.

Manage LLM and embedding models through database UI

Paso 3: Probar el DeepSeek-R1-Distill-Llama-8B

Env铆e una consulta de ejemplo al modelo y compruebe los resultados. Una vez que haya verificado la respuesta del modelo, puede ejecutar todo el conjunto de datos a trav茅s del modelo.

Pr贸ximos pasos

Capella AI Services est谩 aqu铆 para ayudarle a crear aplicaciones impulsadas por IA con los mejores modelos de su clase. 隆Innovemos juntos!

Comparte este art铆culo
Recibe actualizaciones del blog de Couchbase en tu bandeja de entrada
Este campo es obligatorio.

Autor

Publicado por Vishwa Yeruru - Director de Producto Senior

Deja un comentario

驴Listo para empezar con Couchbase Capella?

Empezar a construir

Consulte nuestro portal para desarrolladores para explorar NoSQL, buscar recursos y empezar con tutoriales.

Utilizar Capella gratis

Ponte manos a la obra con Couchbase en unos pocos clics. Capella DBaaS es la forma m谩s f谩cil y r谩pida de empezar.

P贸ngase en contacto

驴Quieres saber m谩s sobre las ofertas de Couchbase? Perm铆tanos ayudarle.