엣지 컴퓨팅 는 데이터 처리를 클라우드에서 엣지로 확장하여 모바일 디바이스를 비롯한 상호 작용 지점에 더 가깝게 이동시키는 기술 아키텍처입니다. 데이터베이스 관점에서 일반적인 아키텍처에는 클라우드의 데이터베이스, 엣지 데이터 센터의 엣지 데이터베이스, 휴대폰이나 태블릿과 같은 엣지 디바이스의 앱 내에서 실행되는 임베디드 데이터베이스가 포함되며, 모두 일관성을 위해 데이터 동기화를 통해 연결됩니다. 최신 모바일 데이터베이스 플랫폼은 이러한 모든 기능을 결합합니다.
이 아키텍처는 애플리케이션에 네 가지 뚜렷한 이점을 제공합니다:
-
- 속도 - 상호 작용 지점에 더 가까운 곳에서 데이터를 처리하면 이동 거리가 줄어들어 앱 지연 시간이 크게 단축됩니다.
- 복원력 - 엣지에서 데이터를 처리하면 본질적으로 신뢰할 수 없는 인터넷에 대한 데이터 의존성을 줄여 앱 다운타임을 줄일 수 있습니다. 아키텍처의 업스트림 계층이 중단되더라도 다운스트림 애플리케이션은 전혀 영향을 받지 않습니다.
- 데이터 거버넌스 - 엣지 컴퓨팅을 사용하면 민감한 데이터가 엣지 외부로 유출될 염려가 없습니다.
- 대역폭 효율성 - 데이터 스토리지를 엣지로 분산하면 클라우드에서 데이터를 가져오는 데 드는 대역폭 사용과 이그레스 비용을 줄일 수 있습니다.
엣지 컴퓨팅의 이점을 AI 시스템에 적용하면 학습 알고리즘의 훈련과 모델의 실제 적용 모두에서 AI 기능을 크게 가속화하고 증폭시킬 수 있습니다.
중앙 집중식 및 분산형 '하이브리드' AI
최근 포브스 기사 에서는 "AI의 미래는 하이브리드"라는 개념에 대해 이야기합니다. 즉, AI의 잠재력을 최대한 실현하려면 클라우드와 엣지 모두에서 데이터를 처리할 수 있어야 한다는 의미입니다. 이 글에서 저자는 다음과 같이 말합니다:
"AI는 모델 학습과 추론을 위해 강력하고 안정적인 공간이 필요하며, 복잡한 워크로드를 처리하기 위해서는 엄청난 양의 공간이 필요합니다. 이것이 바로 클라우드가 필요한 이유입니다. 동시에 AI는 빠르게 실행되어야 합니다. AI가 유용하려면 실제로 작업이 이루어지는 곳, 즉 모바일 디바이스의 엣지에서 더 가까운 곳에서 처리되어야 합니다."
이 관찰은 다음과 같은 개념을 강조합니다. LLM-기반 AI는 중력적으로 중앙 집중화된 반면, AI가 사용하고 생성하는 데이터의 생성 및 소비는 분산되고 고도로 분산될 것입니다.
이 글에서 설명한 AI의 하이브리드 측면은 클라우드, 엣지 데이터센터, 엣지 디바이스가 각각 별도의 환경이 아니라 실제로 동기화를 통해 연결된 데이터 처리 에코시스템 내의 계층인 엣지 컴퓨팅 아키텍처를 통해 우아하게 구현될 수 있습니다.
이 모델에서는 AI 워크로드를 가장 적절한 곳에서 처리할 수 있습니다. 딥 러닝 AI 학습은 스토리지와 마력이 예산에 따라 제한되는 중앙 클라우드의 방대한 양의 데이터에 대해 이루어지며, 소규모의 머신 러닝 AI 모델은 엣지 디바이스에서 직접 엣지에서 실행되어 로컬 데이터와 현재 상황을 기반으로 사용자에게 즉석에서 추천을 제공하는 등의 작업을 수행할 수 있습니다.
하이브리드 AI 개념을 촉진하기 위해 필요한 것은 AI도 지원하는 엣지 컴퓨팅용으로 구축된 데이터베이스입니다.
AI의 주요 요소: 데이터
어떤 기술이나 알고리즘을 사용하든 AI를 구현하는 데 가장 핵심적이고 가장 필요한 자원은 데이터입니다. 데이터는 맥락과 우선순위를 파악하기 위한 과거 데이터와 상황 인식을 위한 실시간 데이터 모두 머신러닝의 원동력입니다. 하지만 단순히 데이터를 확보하는 것 이상의 의미가 있습니다. 데이터를 어디에 저장하고 처리하는지는 AI 기반 시스템의 성공(또는 실패)에 큰 영향을 미치므로 AI 아키텍처를 설계할 때 신중한 고려가 필요합니다.
모바일 데이터베이스를 통한 엣지에서의 AI
카우치베이스 는 SQL, 검색, 이벤트, 분석을 지원하는 인메모리 분산형 JSON 문서 클라우드 데이터베이스입니다. 이 플랫폼은 대규모 엔터프라이즈 애플리케이션을 구동하는 데 사용되며 24×365 가동 시간으로 수백만 명의 사용자로 확장할 수 있습니다. 또한 엣지 컴퓨팅과 AI 처리를 위한 고유한 지원도 제공합니다.
카우치베이스는 클라우드, 엣지, 디바이스에서 실행할 수 있으며 이러한 계층에서 데이터를 동기화하여 애플리케이션의 속도, 안정성, 데이터 거버넌스, 대역폭 효율성이라는 엣지 컴퓨팅의 장점을 실현할 수 있습니다.
또한 카우치베이스는 데이터베이스에서 직접 모델을 호출하고 클라우드, 엣지 또는 모바일 디바이스에서 실시간 운영 데이터를 제공하는 기능을 통해 아키텍처 전반에 걸쳐 AI를 통합할 수 있습니다. 이러한 기능이 결합되어 '하이브리드 AI' 개념을 현실화합니다.
이에 대해 좀 더 자세히 살펴보겠습니다.
엣지 네이티브
그리고 카우치베이스 모바일 제품 스택은 기본적으로 에지 컴퓨팅 아키텍처를 지원합니다:
클라우드 네이티브 데이터베이스: 다음을 통해 완전 관리형 및 호스팅형 서비스형 데이터베이스로 사용 가능 카우치베이스 카펠라또는 배포 및 호스팅 카우치베이스 서버 혼자서.
임베디드 데이터베이스: 카우치베이스 라이트 는 기기에 로컬로 데이터를 저장하는 모바일 및 IoT 앱용 임베드 가능한 Couchbase 버전입니다. 완전한 CRUD 및 SQL 쿼리 기능을 제공하며 iOS, OS X, tvOS, Android, Linux, Windows, Xamarin, Kotlin 등을 포함한 모든 주요 플랫폼을 지원합니다.
클라우드에서 엣지까지 데이터 동기화: 웹을 통한 데이터 동기화와 장치 간 P2P 동기화를 위한 안전한 계층적 게이트웨이로 인증, 권한 부여 및 세분화된 액세스 제어를 지원합니다. 완전 호스팅 및 관리형 데이터 동기화 중에서 선택하세요. 카펠라 앱 서비스또는 설치 및 관리 카우치베이스 동기화 게이트웨이 스스로.
카우치베이스 모바일의 내장된 데이터 동기화 기능은 스택을 연결하여 백엔드 클라우드 데이터베이스와 엣지 디바이스에서 실행되는 임베디드 데이터베이스 간에 데이터를 동기화하며, 네트워크가 중단되는 동안에도 앱은 로컬 데이터 처리로 계속 작동합니다.
카우치베이스 모바일 스택을 사용하면 속도, 가용성 또는 낮은 대역폭 요구 사항을 지원하는 멀티티어 엣지 아키텍처를 만들 수 있습니다.
AI 준비
카우치베이스 모바일은 엣지 컴퓨팅을 위해 설계되었을 뿐만 아니라 디바이스를 포함하여 클라우드에서 엣지까지 AI를 지원합니다.
Couchbase 분석 서비스를 통한 클라우드 AI
카우치베이스는 초고속 응답성을 위한 인메모리 처리와 확장성과 복원력을 위한 분산 아키텍처를 제공하여 AI 모델 학습에 필요한 방대한 양의 데이터를 처리하는 데 필요한 속도, 저장 용량 및 워크로드 마력을 제공합니다.
또한 내장된 분석 서비스는 운영 데이터를 별도의 분석 시스템으로 옮기지 않고도 분석할 수 있는 기능으로, 오랜 시간이 걸리는 ETL (추출, 변환, 로드) 프로세스를 실행하여 데이터를 모델 학습 또는 분석에 사용할 수 있습니다.
또한, Couchbase는 문서 데이터베이스이지만 데이터 과학자들은 익숙한 언어를 사용하여 작업합니다: SQL를 사용하여 조인 및 집계를 완료할 수 있습니다. 이를 통해 대규모 데이터 집합에 대해 복잡하고 컨텍스트에 맞는 쿼리를 작성하여 밀리초 또는 밀리초 이내에 결과를 반환함으로써 인사이트를 얻는 시간을 단축하고 데이터 준비 및 모델 학습 반복의 속도를 높일 수 있습니다.
카우치베이스 애널리틱스 서비스는 다음과 같은 AI 통합 기능을 제공합니다. 파이썬 사용자 정의 함수(UDF)를 사용하면 개발자가 Python 코드를 함수로 바인딩하고 SQL 쿼리에서 호출할 수 있습니다. 이를 통해 지루한 ETL 프로세스 없이 Python 기반 머신 러닝 모델부터 감정 분석, 예상 결과 예측 또는 분석 쿼리에서 반환된 운영 데이터를 기반으로 항목을 분류하는 등의 작업에 대규모로 AI를 적용하기 위한 Couchbase Analytics까지 원활한 파이프라인을 만들 수 있습니다.
Couchbase Analytics와 함께 머신 러닝 모델을 사용하는 예는 다음에서 확인할 수 있습니다. 블로그 게시물.
애널리틱스 서비스를 통해 카우치베이스는 '하이브리드 AI' 개념의 클라우드 측면을 충족합니다.
카우치베이스 라이트 예측 쿼리를 사용한 엣지 AI
대규모 AI 워크로드는 Couchbase를 통해 클라우드에서 대규모로 효율적으로 실행할 수 있지만, 로컬 실시간 데이터를 기반으로 추천을 제공하는 등의 작업을 위해 모바일 디바이스의 엣지에서 소규모 모델을 실행해야 하는 경우도 있습니다. 그리고 오늘날 모바일 디바이스의 성능이 향상되고 모바일에 최적화된 머신 러닝 모델이 등장하면서 엣지에서의 AI가 현실화되고 있습니다.
실제로 Couchbase Lite의 예측 쿼리 API 는 엣지 AI용으로 설계되어 모바일 앱이 사전 학습된 머신 러닝 모델을 사용하고 로컬 온디바이스 데이터에 대해 예측 쿼리를 실행할 수 있도록 지원합니다. 모바일 앱에서 캡처한 실시간 데이터에 대한 이러한 예측을 통해 다양하고 매력적인 애플리케이션을 구현할 수 있습니다.
모바일 디바이스에 머신러닝 모델을 적용하면 로컬 데이터 처리로 보장되는 고가용성, 초저지연, 네트워크 대역폭 사용량 감소 덕분에 추천과 예측이 더욱 개인화되고 즉각적으로 이루어지며 더 많은 영향을 미칠 수 있습니다. 즉, 인터넷을 통해 멀리 떨어진 클라우드 데이터 센터로 데이터를 전송하여 AI가 평가할 필요가 없으므로 전체 경험을 더 빠르고 안정적으로 만들 수 있습니다.
이미지나 사진을 기반으로 즉석에서 상품을 추천할 수 있는 소매 및 이커머스, 개인 선호도를 위치, 시간, 날씨 및 기타 요소와 매칭하여 편의시설을 실시간으로 추천하는 서비스업, 고속 공장 공정의 문제를 고장 발생 전에 즉시 예측하고 완화할 수 있는 산업 제조 등이 엣지에서의 AI의 예입니다.
카우치베이스 라이트에서 머신 러닝 모델을 사용하는 방법에 대해 자세히 알아보려면 다음을 읽어보세요. 블로그 게시물 .
예측 쿼리 API를 통해 Couchbase Lite는 '하이브리드 AI' 개념의 모바일 디바이스 측면을 충족합니다.
클라우드에서 엣지, 디바이스로 이어지는 AI
카우치베이스 모바일의 AI 기능과 엣지 컴퓨팅 아키텍처에 대한 기본 지원을 결합함으로써 조직은 표준 데이터베이스 기술에서 실행되는 가장 빠르고 확장 가능한 통합 AI 시스템에 필요한 모든 토폴로지에 AI 처리 및 데이터 처리 워크로드를 계층화할 수 있습니다.
이 아키텍처를 사용하면 주어진 모델의 복잡성과 필요한 데이터 양에 가장 적합한 곳에서 AI 워크로드를 처리할 수 있습니다. 딥 러닝 학습과 대규모 모델 적용은 클라우드의 방대한 양의 데이터를 대상으로 이루어지므로 딥 러닝 모델을 효율적으로 학습하고 대규모로 적용할 수 있는 규모를 제공하며, 소규모 머신 러닝 모델은 로컬 데이터를 활용하여 즉각적인 참여와 상호 작용을 위해 엣지 디바이스에서 직접 실행됩니다.
또한 AI 시스템은 스택 전체에서 동일한 데이터베이스, 쿼리 및 API를 사용하기 때문에 단일 데이터 기술 에코시스템의 일부가 되면 개발 및 지속적인 유지 관리가 훨씬 쉬워지기 때문에 큰 이점이 있습니다. 거대한 서로 다른 데이터베이스 기술의 매시업입니다.
엣지 컴퓨팅은 AI가 현재와 미래의 모든 가능성을 실현하기 위한 필수 요소이며, Couchbase의 엣지 네이티브, AI 지원 최신 데이터베이스는 차세대 큰 발전을 이룰 수 있도록 도와줄 준비가 되어 있습니다.
Couchbase AI 기능에 대해 자세히 알아보세요:
클라우드-투-엣지 AI와 모바일 데이터베이스 플랫폼의 연결은 정말 흥미롭습니다! 이러한 시너지 효과에 대한 탐구는 모바일 애플리케이션을 개선할 수 있는 흥미로운 가능성을 열어줍니다. 클라우드 기반 AI 기능과 모바일 데이터베이스 플랫폼을 연결하는 방식은 AI와 모바일 기술의 혁신과 효율성의 잠재력을 보여줍니다. 진화하는 AI와 모바일 기술의 본질에 대한 훌륭한 인사이트를 얻으세요!