Desbloquee el razonamiento avanzado con un menor coste total de propiedad para la IA empresarial
Hoy, estamos encantados de compartir que DeepSeek-R1 est谩 ahora integrado en Capella AI Services, 隆disponible en vista previa! Este potente modelo destilado, basado en Llama 8B, mejora su capacidad para crear aplicaciones agenticas con razonamiento avanzado, al tiempo que garantiza el cumplimiento de la privacidad.
En este blog, demostraremos c贸mo aprovechar estos modelos mediante la creaci贸n de un chatbot para mejorar la b煤squeda empresarial y la gesti贸n del conocimiento. Con las potentes capacidades de inferencia de DeepSeek, las organizaciones pueden mejorar:
-
- Revisi贸n jur铆dica y de conformidad
- Automatizaci贸n de la atenci贸n al cliente
- Soluci贸n de problemas t茅cnicos
Para esta demostraci贸n, utilizaremos DeepSeek Distill-Llama-3-8B, pero Capella AI Services en GA planea introducir variantes de mayor par谩metro del modelo para ampliar a煤n m谩s sus capacidades.
馃殌 驴Le interesa probar DeepSeek-R1? Echa un vistazo Servicios de IA de Capella o Inscr铆base en el Vista previa privada.
Comprender el modelo DeepSeek
Enfoque de destilaci贸n
DeepSeek Distill-Llama-3-8B se entrena con destilaci贸n de conocimientosdonde a modelo de profesor m谩s grande (DeepSeek-R1) orienta la formaci贸n de un modelo de estudiante m谩s peque帽o y eficiente (Llama 3 8B). El resultado es un modelo compacto pero potente que conserva una gran capacidad de razonamiento al tiempo que reduce los costes computacionales.
Conjunto de datos: evaluaci贸n comparativa con BEIR
Estamos evaluando las capacidades de razonamiento del modelo utilizando el Conjunto de datos BEIRun punto de referencia est谩ndar para razonamiento basado en la recuperaci贸n. El conjunto de datos consta de 75K documentos en varios 谩mbitos, estructurados del siguiente modo:
1 2 3 4 5 6 |
{ 聽聽聽聽"_id": "632589828c8b9fca2c3a59e97451fde8fa7d188d", 聽聽聽聽"t铆tulo: "Un h铆brido de algoritmo gen茅tico y optimizaci贸n por enjambre de part铆culas para el dise帽o de redes recurrentes", 聽聽聽聽"texto": "En este trabajo se propone una red recurrente evolutiva que automatiza el dise帽o de redes neuronales/fuzzy recurrentes utilizando un nuevo algoritmo de aprendizaje evolutivo...", 聽聽聽聽"consulta": "驴qu茅 es gappso?" } |
La capacidad del modelo se comprueba determinando qu茅 documentos contienen las respuestas correctas a determinadas consultasdemostrando su fuerza de razonamiento.
Primeros pasos: implantaci贸n de DeepSeek en Capella AI Services
Paso 1: Ingesta de documentos
Ahora puede generar incrustaciones vectoriales para documentos estructurados y no estructurados utilizando los servicios de Capella AI. En primer lugar, vamos a importar los documentos estructurados del conjunto de datos BEIR en una colecci贸n couchbase antes de desplegar un flujo de trabajo de vectorizaci贸n.
Configura un cl煤ster de base de datos operativo de 5 nodos (隆o m谩s grande!) en Couchbase Capella con las funciones de b煤squeda y eventos habilitadas. Puedes aprovechar una opci贸n de despliegue multinodo preconfigurada o crear una configuraci贸n personalizada.
Una vez desplegado el cl煤ster, dir铆jase a la secci贸n Importar en la pesta帽a Herramientas de datos y haga clic en la opci贸n de importaci贸n. Para grandes conjuntos de datos, puede utilizar la opci贸n cb-import funci贸n.
Paso 2: Establecer un modelo de incrustaci贸n
Vuelve a la pesta帽a de modelos en la pesta帽a de servicios de Capella AI. Haga clic en el bot贸n Modelo de servicio antes de seleccionar las siguientes opciones:
Paso 3: Configurar un flujo de trabajo de vectorizaci贸n
Ahora que los documentos han sido ingestados, consulte este post para m谩s detalles sobre c贸mo desplegar un flujo de trabajo de vectorizaci贸n.
Asigne un nombre a su flujo de trabajo y especifique la colecci贸n que contiene los documentos ingestados.
Seleccione el modelo de incrustaci贸n desplegado en el paso anterior.
Especifique el nombre del campo en el que se insertar谩n los vectores generados y el nombre del 铆ndice que se construir谩 sobre 茅l:
Paso 4: Configurar el modelo DeepSeek
Vuelve a la secci贸n de servicios de Capella AI y haz clic en la pesta帽a de modelos y haz clic en el bot贸n Modelo de servicio antes de seleccionar las siguientes opciones:
Seleccione el cl煤ster de base de datos operativa creado anteriormente en el men煤 desplegable, seleccione el Capella Peque帽o y el modelo DeepSeek Distill-LLama-3-8B en el men煤 desplegable.
Configure la cach茅 seleccionando un bucket-scope-collection y marcando la casilla Cach茅 conversacional caja.
Crear una aplicaci贸n con DeepSeek
Paso 1: Configurar los ajustes para que la aplicaci贸n acceda a los datos
Aseg煤rese de que su direcci贸n IP est谩 en la lista blanca para acceder a los documentos de su base de datos operativa. Para ello, vaya a la p谩gina Conectar聽del cl煤ster operativo creado anteriormente.
Paso 2: Ejecutar la aplicaci贸n
Utilice el ejemplo proporcionado aqu铆 para configurar una aplicaci贸n que recupere los documentos del conjunto de datos BEIR almacenados en su base de datos operativa y, a continuaci贸n, genere una respuesta. Aseg煤rese de especificar correctamente sus credenciales de base de datos codificadas en base64 y el punto final del modelo. Puede encontrar el punto final del modelo accediendo a la carpeta Servicios de IA -> Modelos y, a continuaci贸n, haga clic en el bot贸n de flecha hacia abajo, que mostrar谩 la configuraci贸n del modelo.
Paso 3: Probar el DeepSeek-R1-Distill-Llama-8B
Env铆e una consulta de ejemplo al modelo y compruebe los resultados. Una vez que haya verificado la respuesta del modelo, puede ejecutar todo el conjunto de datos a trav茅s del modelo.
Pr贸ximos pasos
-
- 馃殌 Acceso anticipado a DeepSeek-R1 - Inscribirse en la lista de espera
- 馃摉 M谩s informaci贸n sobre los modelos DeepSeek - Documento de investigaci贸n DeepSeek
- 馃敆 Explorar el conjunto de datos BEIR - Repositorio oficial BEIR
Capella AI Services est谩 aqu铆 para ayudarle a crear aplicaciones impulsadas por IA con los mejores modelos de su clase. 隆Innovemos juntos!