IA Generativa (GenAI)

Los modelos DeepSeek ya están disponibles en Capella AI Services

Desbloquee el razonamiento avanzado con un menor coste total de propiedad para la IA empresarial

Hoy, estamos encantados de compartir que DeepSeek-R1 está ahora integrado en Capella AI Services, ¡disponible en vista previa! Este potente modelo destilado, basado en Llama 8B, mejora su capacidad para crear aplicaciones agenticas con razonamiento avanzado, al tiempo que garantiza el cumplimiento de la privacidad.

En este blog, demostraremos cómo aprovechar estos modelos mediante la creación de un chatbot para mejorar la búsqueda empresarial y la gestión del conocimiento. Con las potentes capacidades de inferencia de DeepSeek, las organizaciones pueden mejorar:

    • Revisión jurídica y de conformidad
    • Automatización de la atención al cliente
    • Solución de problemas técnicos

Para esta demostración, utilizaremos DeepSeek Distill-Llama-3-8B, pero Capella AI Services en GA planea introducir variantes de mayor parámetro del modelo para ampliar aún más sus capacidades.

🚀 ¿Le interesa probar DeepSeek-R1? Echa un vistazo Servicios de IA de Capella o Inscríbase en el Vista previa privada.

Comprender el modelo DeepSeek

Enfoque de destilación

DeepSeek Distill-Llama-3-8B se entrena con destilación de conocimientosdonde a modelo de profesor más grande (DeepSeek-R1) orienta la formación de un modelo de estudiante más pequeño y eficiente (Llama 3 8B). El resultado es un modelo compacto pero potente que conserva una gran capacidad de razonamiento al tiempo que reduce los costes computacionales.


Conjunto de datos: evaluación comparativa con BEIR

Estamos evaluando las capacidades de razonamiento del modelo utilizando el Conjunto de datos BEIRun punto de referencia estándar para razonamiento basado en la recuperación. El conjunto de datos consta de 75K documentos en varios ámbitos, estructurados del siguiente modo:

La capacidad del modelo se comprueba determinando qué documentos contienen las respuestas correctas a determinadas consultasdemostrando su fuerza de razonamiento.

Primeros pasos: implantación de DeepSeek en Capella AI Services

Paso 1: Ingesta de documentos

Ahora puede generar incrustaciones vectoriales para documentos estructurados y no estructurados utilizando los servicios de Capella AI. En primer lugar, vamos a importar los documentos estructurados del conjunto de datos BEIR en una colección couchbase antes de desplegar un flujo de trabajo de vectorización.

Configura un clúster de base de datos operativo de 5 nodos (¡o más grande!) en Couchbase Capella con las funciones de búsqueda y eventos habilitadas. Puedes aprovechar una opción de despliegue multinodo preconfigurada o crear una configuración personalizada.

Node and Services configuration

Una vez desplegado el clúster, diríjase a la sección Importar en la pestaña Herramientas de datos y haga clic en la opción de importación. Para grandes conjuntos de datos, puede utilizar la opción cb-import función.

NoSQL data loading interface Configure un bucket, scope y collection adicionales en su cluster operativo. Lo utilizaremos más adelante como almacén para la caché conversacional.

NoSQL bucket creation

Paso 2: Establecer un modelo de incrustación

Vuelve a la pestaña de modelos en la pestaña de servicios de Capella AI. Haga clic en el botón Modelo de servicio antes de seleccionar las siguientes opciones:

AI Model management services in database Choose LLM models for database clusters

Paso 3: Configurar un flujo de trabajo de vectorización

Ahora que los documentos han sido ingestados, consulte este post para más detalles sobre cómo desplegar un flujo de trabajo de vectorización.

Automated AI vectorization service in Capella

Asigne un nombre a su flujo de trabajo y especifique la colección que contiene los documentos ingestados.

Automated vectorization in database

Seleccione el modelo de incrustación desplegado en el paso anterior.

Choose an LLM model to automate vectorization

Especifique el nombre del campo en el que se insertarán los vectores generados y el nombre del índice que se construirá sobre él:

Select a field to store AI vectors in NoSQL documents

Paso 4: Configurar el modelo DeepSeek

Vuelve a la sección de servicios de Capella AI y haz clic en la pestaña de modelos y haz clic en el botón Modelo de servicio antes de seleccionar las siguientes opciones:


AI Model management services in database

Seleccione el clúster de base de datos operativa creado anteriormente en el menú desplegable, seleccione el Capella Pequeño y el modelo DeepSeek Distill-LLama-3-8B en el menú desplegable.

Select LLM model for use in a particular cluster

Configure la caché seleccionando un bucket-scope-collection y marcando la casilla Caché conversacional caja.

Cache LLM response in database automatically

Crear una aplicación con DeepSeek

Paso 1: Configurar los ajustes para que la aplicación acceda a los datos

Asegúrese de que su dirección IP está en la lista blanca para acceder a los documentos de su base de datos operativa. Para ello, vaya a la página Conectar del clúster operativo creado anteriormente.

Configure SDKs for use with Capella cloud database for AI services

Paso 2: Ejecutar la aplicación

Utilice el ejemplo proporcionado aquí para configurar una aplicación que recupere los documentos del conjunto de datos BEIR almacenados en su base de datos operativa y, a continuación, genere una respuesta. Asegúrese de especificar correctamente sus credenciales de base de datos codificadas en base64 y el punto final del modelo. Puede encontrar el punto final del modelo accediendo a la carpeta Servicios de IA -> Modelos y, a continuación, haga clic en el botón de flecha hacia abajo, que mostrará la configuración del modelo.

Manage LLM and embedding models through database UI

Paso 3: Probar el DeepSeek-R1-Distill-Llama-8B

Envíe una consulta de ejemplo al modelo y compruebe los resultados. Una vez que haya verificado la respuesta del modelo, puede ejecutar todo el conjunto de datos a través del modelo.

Próximos pasos

Capella AI Services está aquí para ayudarle a crear aplicaciones impulsadas por IA con los mejores modelos de su clase. ¡Innovemos juntos!

Comparte este artículo
Recibe actualizaciones del blog de Couchbase en tu bandeja de entrada
Este campo es obligatorio.

Autor

Publicado por Vishwa Yeruru - Director de Producto Senior

Deja un comentario

¿Listo para empezar con Couchbase Capella?

Empezar a construir

Consulte nuestro portal para desarrolladores para explorar NoSQL, buscar recursos y empezar con tutoriales.

Utilizar Capella gratis

Ponte manos a la obra con Couchbase en unos pocos clics. Capella DBaaS es la forma más fácil y rápida de empezar.

Póngase en contacto

¿Quieres saber más sobre las ofertas de Couchbase? Permítanos ayudarle.