생산 준비 완료된 AI 에이전트
실제 비즈니스 의사 결정을 내릴 수 있는 에이전트 AI 애플리케이션을 구축하는 것은 복잡한 작업입니다. 개발자는 다양한 데이터 유형을 관리하고, 데이터 프라이버시를 보장하며, 빠르게 진화하는 AI 스택을 제어하기 위해 여러 이질적인 도구를 사용해야 하는 경우가 많습니다. 이러한 파편화는 상당한 운영 및 재무적 위험과 아키텍처 복잡성을 야기하여 강력한 AI 애플리케이션을 프로토타입 단계에 머물게 합니다.
오늘, 저희는 이러한 문제를 해결하기 위해 설계된 데이터베이스 플랫폼을 확장하는 기능 모음인 Capella AI 서비스의 출시를 발표하게 되어 기쁘게 생각합니다. Capella with AI 서비스는 기업이 프로덕션 환경에 필요한 보안, 성능 및 안정성을 갖춘 에이전트 AI 애플리케이션을 구축, 배포 및 관리할 수 있는 단일 통합 AI 데이터베이스 플랫폼을 만듭니다. 데이터 관리, 모델 통합, 에이전트 운영 및 거버넌스를 핵심 데이터베이스 플랫폼 내에 통합함으로써 Couchbase는 전체 AI 애플리케이션 데이터 수명 주기를 간소화합니다.
이 게시물에서는 Capella AI 서비스를 통해 실험을 넘어 지능적이고 신뢰할 수 있는 에이전트를 대규모로 배포할 수 있는 방법을 살펴봅니다.
실험에서 엔터프라이즈까지: AI를 위한 통합 데이터베이스 플랫폼
개발자들은 여러 가지 이유로 에이전트 애플리케이션을 프로덕션 환경으로 옮기는 데 어려움을 겪습니다. 타사 LLM에 대한 개인정보 보호 문제, 기업 컨텍스트가 없는 범용 모델로 인한 환각, 프로덕션 환경에서 모델을 실행하는 데 드는 알 수 없는 비용, AI 도구 관리의 복잡성 등 여러 가지 문제가 복합적으로 작용하고 있습니다. 또한 여러 시스템에서 다양한 지식 저장소, 데이터 유형 및 비정형 데이터를 통합하는 것은 모델에 유용한 컨텍스트 정보를 제공하는 데 있어 큰 장애물입니다.
Couchbase는 운영, 벡터, 캐싱, 분석 및 에이전트 거버넌스 데이터를 한 번에 대규모로 처리하는 통합 플랫폼으로 이러한 문제를 해결합니다. 이 접근 방식은 양손으로 셀 수 없을 만큼 많은 도구가 있는 파편화되고 취약하며 값비싼 아키텍처를 사용할 필요가 없습니다. 지연 시간 단축, 시스템 신뢰성 향상, 간소화된 검색 증강 세대(RAG) 데이터 수명 주기, 상담원 거버넌스 개선, 비용 투명성 향상 등의 이점을 누릴 수 있습니다.
개발자에게 필요한 모든 것을 한곳에
Capella AI 서비스는 에이전트 애플리케이션 개발을 간소화하고 가속화할 수 있는 완벽한 툴킷을 제공합니다. 이를 가능하게 하는 핵심 구성 요소를 살펴보겠습니다.
모델 서비스
AI 모델을 배포할 때는 보안과 성능이 가장 중요합니다. 모델 서비스를 사용하면 임베딩 및 대규모 언어 모델을 안전하게 배포할 수 있습니다. NVIDIA AI Enterprise와의 파트너십을 통해 모델을 데이터와 함께 배치하는 GPU 가속, 저지연 추론을 활용할 수 있습니다. 이 아키텍처는 보안 노출을 최소화하고 성능을 극대화합니다. 또한, 기본 제공되는 시맨틱 캐싱 및 비동기 처리 옵션은 LLM의 성능과 효율성을 향상시킵니다. 또한 몇 번의 클릭만으로 배포가 간소화됩니다. 또한 개발자는 AI 상호 작용을 둘러싼 “가드레일'을 생성하여 후속 작업이 실행되기 전에 엔터프라이즈 데이터 및 비즈니스 규칙에 따라 출력을 검증하여 예기치 않은 동작의 위험을 줄일 수 있습니다.
데이터 처리 서비스
AI 상호작용을 위한 컨텍스트 기반 엔터프라이즈 데이터 준비는 종종 복잡합니다. 데이터 처리 서비스는 정형, 반정형, 비정형 데이터에 대한 기본 지원을 제공합니다. 여기에는 전처리, 청킹 및 벡터화를 위한 기본 제공 RAG 파이프라인 기능이 포함되어 있어 개발 워크플로우에서 상당한 복잡성을 제거합니다. 팀은 더 이상 데이터 수집을 위해 사용자 지정 코드를 작성하고 유지 관리할 필요가 없습니다. 이제 몇 분 만에 자동화할 수 있습니다.
상황에 맞는 정확한 AI 응답은 효과적인 벡터 검색에 달려 있습니다. 벡터화 서비스는 운영 데이터에서 직접 벡터와 인덱스를 생성하는 작업을 자동화하여 AI 에이전트가 올바른 정보에 빠르게 액세스할 수 있도록 지원합니다. 데이터가 변경되면 벡터와 인덱스가 자동으로 업데이트됩니다. 다양한 RAG 및 에이전트 사용 사례를 지원하기 위해 세 가지 스타일의 벡터 인덱싱을 제공합니다.
- 검색 벡터 인덱스는 검색 키워드나 지리적 좌표와 같은 다른 술어가 포함된 쿼리 내에 벡터가 인라인으로 포함된 경우에 사용됩니다.
- 복합 벡터 인덱스는 개발자가 모든 프롬프트 및 컨텍스트 변수를 제어할 때 유용합니다.
- 하이퍼스케일 벡터 인덱스는 즉각적인 질문을 예측하기 어렵고 따라서 거대한 문맥 데이터 코퍼스를 벡터화해야 하는 지식 챗봇과 같은 광범위한 사용 사례를 지원하기 위한 기록적인 10억 개 규모의 벡터 인덱스입니다.
이 세 가지 벡터 인덱싱 기능은 이미 Couchbase 데이터베이스에 내장되어 있으며, AI 서비스와 함께 활용할 수 있습니다.
상담원 카탈로그
거버넌스는 신뢰할 수 있는 AI 구축의 핵심입니다. 에이전트 카탈로그는 도구 허브, 프롬프트 허브 및 에이전트 추적기를 제공하여 에이전트를 더 쉽게 구축하고 더 쉽게 관리할 수 있도록 합니다. 이러한 기능은 에이전트 개발 및 배포를 위한 가시성, 제어 및 추적 기능을 제공합니다. 팀은 에이전트를 효과적으로 감사하고 관리할 수 있다는 사실을 알고 안심하고 에이전트를 구축할 수 있습니다.
상담원 행동을 역추적하는 기능이 없으면 상담원이 내린 자율적 결정에 대한 지속적인 신뢰, 검증 및 확증을 자동화하는 것이 불가능해집니다. 에이전트 카탈로그에서는 에이전트 코드와 대화 기록을 LLM과 함께 평가하여 보류 중인 결정 또는 MCP 도구 조회의 적절성을 평가함으로써 이 작업을 수행합니다.
AI 기능
AI 기반 텍스트 분석을 애플리케이션 워크플로우에 직접 포함하면 개발자의 생산성을 가속화할 수 있습니다. 저희의 AI 함수는 간단한 SQL++ 문을 사용하여 작동하므로 외부 도구나 사용자 지정 코딩이 필요하지 않습니다. 데이터베이스 내에서 바로 익숙한 쿼리 언어 구문을 사용해 변환을 수행하고, 복잡한 분석을 실행하고, LLM 대화에 관한 인사이트를 얻을 수 있습니다.
모든 AI 상호 작용에 신뢰 구축
조직이 자율 에이전트를 배포하려면 이러한 에이전트가 민감한 데이터로 신뢰할 수 있는 결정을 내릴 수 있다는 확신이 필요합니다. Capella AI 서비스는 조직이 신뢰할 수 있는 GenAI를 대규모로 구축할 수 있도록 설계되었습니다. 에이전트 카탈로그를 사용하면 자세한 상호 작용을 추적하고 감사할 수 있으므로 안심하고 AI 에이전트를 배포할 수 있습니다. 데이터와 모델을 기업 환경 내에 유지함으로써 가장 민감한 정보를 완벽하게 제어하는 동시에 생성 AI의 강력한 기능을 활용할 수 있습니다.
카펠라 및 AI 서비스 시작하기
AI 프로토타입에서 프로덕션 지원 에이전트 애플리케이션으로 전환하는 과정이 더 이상 복잡하고 단편적인 여정이 될 필요가 없습니다. 카우치베이스 카펠라는 차세대 인텔리전트 애플리케이션을 구축할 수 있는 통합된 안전한 고성능 플랫폼을 제공합니다. AI 개발 라이프사이클을 간소화하고 강력한 거버넌스 기능을 통합함으로써 더 빠르게 혁신하고 자신 있게 AI를 배포할 수 있도록 지원합니다.
설명서를 살펴보고 GenAI의 요구 사항에 맞게 설계된 플랫폼에서 프로덕션 에이전트 애플리케이션을 구축하는 방법을 알아보세요.
관련 리소스를 확인하세요: