모범 사례 및 튜토리얼

2023년 기업의 AI 리스크를 낮추는 방법

OpenAI의 획기적인 릴리스와 함께 DALL-E 2ChatGPT 작년에 사람들은 인공지능과 상호작용하며 인공지능의 잠재력을 직접 (아주 조금이나마) 확인했습니다. 

이러한 도구는 마법처럼 느껴질 수 있습니다. 각 도구는 텍스트 프롬프트를 받은 다음 응답을 제공합니다. DALL-E는 텍스트를 이미지로 바꾸고 ChatGPT는 사용자와 전체 대화를 나눕니다. 예를 들어, DALL-E에게 졸린 고양이를 요청하면 멋진 고양이의 모습을 볼 수 있습니다. 미국 혁명에 대한 에세이를 작성해 달라고 ChatGPT에게 요청하면 강력한 논문을 얻을 수 있습니다.

하지만 이러한 도구(및 유사한 도구)는 절대 마법이 아니며 완벽하지도 않습니다. 너무 자세히 들여다보면 문제를 발견할 수 있습니다. DALL-E에게 손이나 텍스트로 무언가를 요청했나요? 아마도 '손'과 말도 안 되는 글자 배열에 실망하셨을 겁니다. 요청하신 미국 혁명에 관한 논문은요? 사실관계가 부정확하거나 이상한 문구가 있을 수 있습니다. 

이 '현실적인 남자가 손을 흔드는 모습'이나 미국 독립 혁명 에세이의 반복되는 문단에서 이상한 손을 주목하세요.

이 두 도구의 파급력으로 인해 우리는 AI 도구의 민주화에 따른 복잡한 사회적, 법적 파급 효과에 대해 고민하게 되었습니다. 예를 들어, AI는 저작권법에 어떤 영향을 미칠까요? AI가 제작한 사진도 사람이 만든 사진만큼 가치가 있을까요? 아티스트의 직업과 크리에이터 경제의 미래는 어떻게 될까요? 미국 독립 혁명 에세이를 대학 교수에게 제출해야 할까요? 아마 아닐 겁니다.

이러한 질문은 이 글의 범위가 아니므로 이 글에서 다루지 않습니다: 왜 구글은 ChatGPT와 같은 것을 검색 제품으로 구현하지 않았을까요?

AI를 신뢰할 수 있을까요? 

이니셜 중 일부 반응 ChatGPT 출시에 대한 가장 큰 이유는 Google이 곤경에 처했다는 것이었습니다. ChatGPT에 문의하면 되는데 왜 굳이 Google을 검색하고 링크를 클릭해 질문에 대한 답을 찾아야 하나요? 이에 대한 구글의 답변은 무엇일까요? AI에 막대한 투자를 하고 있는 구글이라면 이미 이런 답변을 내놓을 수 있었을까요?

아마도 그랬을 것입니다. 실제로 공개적으로 데모 라는 자연어 엔진을 통해 사용자가 명왕성 행성과 대화하고 원하는 질문을 할 수 있습니다. 하지만 구글은 이를 공개적으로 공개한 적이 없습니다. 왜 공개하지 않았을까요?

최근 구글의 CEO 순다르 피차이는 전체 직원 회의에서 다음과 같이 말했습니다. 대답 이러한 제품의 평판 위험을 언급하며 이 질문에 답했습니다. 그는 고객들은 본질적으로 Google의 검색 결과를 신뢰하며 "검색과 같은 애플리케이션의 경우 사실성 문제가 매우 중요하고 다른 애플리케이션의 경우 편향성과 독성 및 안전 문제도 가장 중요하다고 생각할 수 있습니다."라고 언급했습니다.

예, 부정확한 검색 결과는 Google의 이미지를 손상시킬 수 있지만 응답의 두 번째 부분을 보면 실제 위험이 드러납니다. 질문을 특정 방식으로 표현하면 ChatGPT가 끔찍하게 거짓이거나 매우 불쾌감을 주는 내용을 알려줄 수 있습니다. 예를 들어 캘리포니아 대학교의 스티븐 피아타도시는 다음과 같이 질문했습니다. 공개 ChatGPT가 인종과 성별에 따라 인간 두뇌의 가치를 평가했다는 사실을 알게 되었습니다. 

구글이 천천히 그리고 체계적으로 AI의 미래를 그려나가는 동안, 다른 기업들은 현 상황을 뒤흔들 기회를 포착하고 있습니다. 최근 Microsoft가 자사의 핵심 제품 중 일부를 통합하겠다고 발표하면서(Office 그리고 Bing), 우리는 AI 엔진이 왜 비하될 수 있는 잠재력을 가지고 있는지 자세히 살펴봐야 합니다. 안타깝게도 이는 AI의 잘못이 아닙니다. 그 이유를 이해하려면 장막 뒤에서 들여다볼 필요가 있습니다.

AI 두뇌의 내부

DALL-E와 ChatGPT는 모두 머신러닝 모델입니다. 이들은 잘 연구된 모델링 기법을 사용하여 입력을 받아 출력을 반환하는 예측 시스템을 만듭니다. DALL-E 는 인터넷에서 수십억 개의 사진과 캡션 쌍을 제공받아 이들이 어떻게 연관되어 있는지 학습하여 새로운 캡션이 주어지면 일치하는 이미지를 생성할 수 있습니다. ChatGPT 는 인터넷에서 텍스트를 수집하여 메시지가 주어지면 다음에 어떤 단어가 나올지 예측할 수 있는 GPT3 언어 모델을 기반으로 합니다. 이를 대화형 프레임워크에 구현하여 ChatGPT를 만들었습니다.

ChatGPT와 같은 모델이 모욕적이거나 인종 차별적이거나 성차별적인 결과를 산출할 수 있는 이유는 수백만 건의 매우 모욕적인 콘텐츠 사례가 포함된 데이터 세트에 대해 학습을 받았기 때문입니다. 인터넷은 여과되지 않은 끔찍한 말을 하는 사람들로 가득 차 있기 때문에 이를 데이터 소스로 사용하여 모델을 학습시키면 의심할 여지 없이 같은 말을 하도록 학습시킬 수 있습니다. 아기에게 욕설만 들려주면서 말을 가르친다고 상상해 보세요. 아기의 첫 단어가 무엇이 될지 상상할 수 있습니다.

이것이 바로 구글과 같은 기업들이 이렇게 복잡한 대규모 AI 모델을 공개하는 것을 두려워하는 이유입니다. 복잡한 모델 학습이 모두 끝나면 확률론적 블랙박스만 남게 됩니다. 특정 입력이 주어졌을 때 블랙박스가 특별히 음란한 내용을 출력하지 않을 것이라고 확신할 수 없습니다.

이 문제는 새로운 것이 아닙니다. AI 모델이 데이터 집합을 통해 암시되는 인간 작성자의 내재적 편견을 반영할 때 발생하는 AI 편향이라고 합니다. 쓰레기 입력, 쓰레기 출력. 

그렇다면 제품군에서 AI를 사용하는 기업은 어떻게 AI 편향성과 유해하고 공격적이며 안전하지 않은 AI 모델을 생산에 투입할 위험을 줄일 수 있을까요? Microsoft, Google 등은 고객과 브랜드에 대한 위험을 줄이기 위해 무엇을 할 수 있을까요?

오른쪽으로 이동합니다: ChatGPT 접근 방식

OpenAI는 ChatGPT를 출시하기 훨씬 전부터 이 문제를 심각하게 인식하고 있었기 때문에 이에 대한 보호 장치를 마련했습니다. 접근 방식은 간단했습니다. 부적절한 응답을 유도할 수 있는 질문에 ChatGPT가 응답하지 않도록 하는 것입니다. ChatGPT에는 응답하지 않거나 구체적으로 응답하는 방법을 학습한 금지된 키워드 및 문구 목록이 있습니다.

즉, 대부분의 경우 OpenAI는 ChatGPT가 편견에 찬 말을 하지 못하도록 차단했습니다. 그러나 사용자가 편견에 찬 말을 하도록 ChatGPT를 조작할 수 있다는 것은 기본 AI 모델이 AI 편향성을 가지고 있으며 데이터 세트에서 내재된 유해한 언어를 학습했다는 것을 의미합니다. 예, OpenAI는 이러한 내재된 편견이 드러나지 않도록 더 많은 필터와 전략을 계속 구축할 것이지만 편견은 여전히 존재합니다.

이는 프로세스의 마지막에 게이트를 설치하여 위험이 통과하는 것을 막는 올바른 전환 전략입니다. 물론 완벽한 방법은 아닙니다.

왼쪽으로 이동: 평판이 좋은 안전한 접근 방식

보다 장기적인 전략은 프로세스의 시작부터 살펴보는 것입니다. 모델이 학습할 기회를 갖기 전에 데이터 세트에서 편향성을 제거하면 편향된 AI를 구축할 가능성을 효과적으로 무효화할 수 있습니다.

OpenAI가 저속한 텍스트와 이미지에 대한 GPT3 및 DALL-E의 노출을 제한하려고 시도했지만, 100%의 효과는 없었습니다. 인터넷 크기의 데이터 세트를 살펴볼 때 이러한 솔루션은 OpenAI와 같은 연구 그룹에겐 엄청나게 비싸고 복잡합니다. 인터넷의 방대한 범위는 차치하더라도, 온라인에서 인종차별과 성차별의 뉘앙스는 수작업으로도 식별하고 제거하기가 매우 어렵습니다. 

특히 소규모 사용 사례를 목표로 하는 경우, 모든 AI 프로젝트에 해당되는 것은 아닙니다. 대부분의 기업은 범용 AI 제품을 구축하려는 것이 아니며, 이 전략이 더 확장 가능한 접근 방식입니다. 

가상의 회사 "SalaryAdvise"를 예로 들어 보겠습니다. 이 회사는 특정 직원의 세부 정보를 바탕으로 적정 급여를 제안하는 AI 모델을 구축하려고 합니다. SalaryAdvise는 수십만 명의 데이터 세트를 힘들게 확보했습니다. 개인 정보, 근무 이력, 현재 급여 등입니다. 다음은 단일 데이터 포인트가 어떻게 보일 수 있는지에 대한 이론적 예시입니다:

참고: 이 예제에서 사용된 모든 데이터는 전적으로 가상의 것이며 생성된 것입니다. 무작위로 미메시스 사용

이 데이터 세트는 포괄적이지만 이를 사용하여 모델을 학습시키면 성별, 나이, 혈액형 및 국적을 급여 계산의 입력으로 고려하는 모델이 생성됩니다. 이러한 정보는 보호되는 정보이므로 윤리적으로나 법적으로 고려 대상이 될 수 없습니다. 또한 이름과 키와 같이 급여 결정과 관련이 없는 정보도 있습니다. 따라서 이러한 문제를 해결하기 위해 이러한 데이터 요소를 제거할 수 있습니다:

데이터 세트에서 편향성을 찾을 때는 보호되는 값의 제외를 약화시킬 수 있는 데이터 포인트인 프록시도 고려해야 합니다. 주소 정보는 지리적 정보가 급여를 알려줄 수 있으므로 유용하지만 특정 인구 집단이 비슷한 지역에 거주할 수 있으므로 전체 주소(및 우편번호)를 사용하면 다른 인구통계학적 정보를 암시할 수 있습니다. 따라서 이를 제거해야 합니다.

이제 AI 모델이 편향될 수 있는 보호된 값이나 정보를 포함하지 않는 데이터 세트가 남았습니다. 이제 AI가 편향될 수 없고 회사가 평판을 보호했음을 알기 때문에 SalaryAdvise는 이 데이터 세트를 사용하여 모델을 학습시키는 데 안심하고 사용할 수 있습니다.

자동 편향 제거: 카우치베이스 접근 방식

데이터 관리자로서 다음 규정에 따라 기업 가치카우치베이스는 사용자가 편견 없는 AI 모델을 구축할 수 있도록 지원하고자 합니다. 이것이 바로 우리가 카우치베이스 이벤트 서비스 를 클라우드 데이터베이스 플랫폼에 추가하여 연구자들이 AI 데이터세트에서 보호되는 정보를 자동으로 제거할 수 있도록 지원합니다.

이벤트 기능을 사용하면 데이터 집합의 문서(및 모든 기존 데이터)가 업데이트될 때마다 자바스크립트 함수가 실행되도록 트리거할 수 있으므로 새 문서가 추가될 때마다 자동으로 보호된 정보를 제거할 수 있습니다. 위의 예는 다음과 같은 간단한 함수를 사용하여 달성할 수 있습니다:

Couchbase를 사용하면 메모리 우선 아키텍처에 액세스하여 탁월한 성능과 SQL++를 사용하여 데이터 집합을 쿼리할 수 있는 기능을 제공합니다.

다음 AI 프로젝트에서 이 NoSQL 문서 데이터베이스의 잠재력을 활용하세요.

무료 시작 시험판 오늘.

 

이 문서 공유하기
받은 편지함에서 카우치베이스 블로그 업데이트 받기
이 필드는 필수 입력 사항입니다.

작성자

게시자 아론 슈나이더 - 솔루션 엔지니어

댓글 남기기

카우치베이스 카펠라를 시작할 준비가 되셨나요?

구축 시작

개발자 포털에서 NoSQL을 살펴보고, 리소스를 찾아보고, 튜토리얼을 시작하세요.

카펠라 무료 사용

클릭 몇 번으로 Couchbase를 직접 체험해 보세요. Capella DBaaS는 가장 쉽고 빠르게 시작할 수 있는 방법입니다.

연락하기

카우치베이스 제품에 대해 자세히 알고 싶으신가요? 저희가 도와드리겠습니다.