Com os lançamentos marcantes da OpenAI de DALL-E 2e ChatGPT No ano passado, as pessoas interagiram com a inteligência artificial e viram em primeira mão (um pouquinho) do seu potencial. 

Essas ferramentas podem parecer mágicas. Cada uma delas recebe uma solicitação textual e lhe dá uma resposta. O DALL-E transforma seu texto em uma imagem e o ChatGPT mantém uma conversa completa com você. Por exemplo, peça um gatinho sonolento para o DALL-E e você receberá uma seleção de encarnações incríveis. Peça ao ChatGPT para escrever uma redação sobre a Revolução Americana e você obterá uma tese sólida.

No entanto, essas ferramentas (e outras semelhantes) não são absolutamente mágicas e certamente não são infalíveis. Observe com muita atenção e você começará a ver problemas. Você pediu ao DALL-E algo com mãos ou texto? Provavelmente ficará desapontado com as "mãos" e a disposição sem sentido das letras. Aquela tese sobre a Revolução Americana que você solicitou? Bem, ela pode ter algumas imprecisões factuais ou uma redação estranha. 

Observe a mão estranha nesse "homem realista acenando" ou os parágrafos repetitivos no ensaio sobre a Revolução Americana

A viralidade dessas duas ferramentas nos levou a lidar com as complexas ramificações sociais e jurídicas da democratização das ferramentas de IA. Por exemplo, como a IA afetará as leis de direitos autorais? Uma imagem produzida por IA é tão valiosa quanto uma feita por um ser humano? Qual é o futuro das carreiras dos artistas e da economia do criador? Você deve entregar aquela redação sobre a Revolução Americana ao seu professor da faculdade? Provavelmente não.

Essas perguntas não são o escopo deste artigo: Por que o Google não implementou algo como o ChatGPT como um produto de pesquisa?

É possível confiar na IA? 

Alguns dos reações para o lançamento do ChatGPT foi que o Google está com problemas. Por que pesquisar no Google e clicar em links procurando a resposta para sua pergunta, quando você pode perguntar ao ChatGPT? Qual é a resposta do Google para isso? Certamente o Google, com seus investimentos significativos em IA, já poderia ter produzido isso.

Provavelmente sim. De fato, ela mostrou publicamente demonstrações de seu mecanismo de linguagem natural chamado LaMDA AI, em que o usuário pode conversar com o planeta Plutão e fazer as perguntas que quiser. No entanto, o Google nunca divulgou isso publicamente. Por que não?

Recentemente, em uma reunião geral da empresa, o CEO do Google, Sundar Pichai respondido Essa pergunta foi feita citando o risco à reputação de um produto desse tipo. Ele observou que os clientes confiam inerentemente nos resultados de pesquisa do Google e que "você pode imaginar que, para aplicativos semelhantes a pesquisas, as questões de factualidade são realmente importantes e, para outros aplicativos, as questões de parcialidade, toxicidade e segurança também são fundamentais".

Sim, resultados de pesquisa imprecisos prejudicariam a imagem do Google, mas a segunda parte dessa resposta revela o risco real. Se você formular a pergunta de uma maneira específica, poderá fazer com que o ChatGPT lhe diga coisas terrivelmente falsas ou altamente ofensivas. Por exemplo, Steven Piantadosi, da Universidade da Califórnia revelado que o ChatGPT classificou o valor de um cérebro humano de acordo com a raça e o gênero. 

Enquanto o Google está lenta e metodicamente traçando seu futuro de IA, outros estão aproveitando a oportunidade para interromper o status quo. Com o recente anúncio da intenção da Microsoft de integrar alguns de seus principais produtos (Escritório e Bing) com a tecnologia da OpenAI, precisamos olhar mais de perto para entender por que os mecanismos de IA têm o potencial de serem depreciativos. Infelizmente, a culpa não é da IA. Para entender o motivo, precisamos dar uma olhada por trás da cortina.

Por dentro do cérebro da IA

O DALL-E e o ChatGPT são modelos de aprendizado de máquina. Eles usam técnicas de modelagem bem pesquisadas para criar sistemas preditivos que recebem uma entrada e retornam uma saída. DALL-E foi alimentado com bilhões de pares de imagens e legendas da Internet e aprendeu como eles se relacionam, de modo que, quando recebe uma nova legenda, pode gerar uma imagem correspondente. ChatGPT baseia-se no modelo de linguagem GPT3, que ingere texto da Internet para que, quando receber uma solicitação, possa prever qual palavra deve vir em seguida. Em seguida, isso foi implementado em uma estrutura de conversação para produzir o ChatGPT.

O motivo pelo qual modelos como o ChatGPT podem produzir resultados ofensivos, racistas ou sexistas é que ele foi treinado em um conjunto de dados que continha milhões de exemplos de conteúdo altamente ofensivo. A Internet está repleta de pessoas que dizem coisas terríveis e sem filtro, portanto, usá-la como fonte de dados para treinar um modelo sem dúvida o ensinará a dizer essas mesmas coisas. Imagine ensinar um bebê a falar dizendo-lhe apenas palavrões - você pode imaginar qual seria a primeira palavra do bebê.

Isso explica por que empresas como o Google temem liberar esses modelos de IA maciçamente complexos. Uma vez que todo o complicado treinamento do modelo é dito e feito, você fica com uma caixa preta probabilística. Não é possível ter certeza de que, dada uma determinada entrada, a caixa preta não produzirá algo particularmente obsceno.

O problema não é novo. Ele é chamado de viés de IA, que ocorre quando um modelo de IA reflete os vieses inerentes de seu autor humano que estão implícitos no conjunto de dados. Entra lixo, sai lixo. 

Então, como as empresas que estão usando IA em seu conjunto de produtos podem reduzir o viés da IA e o risco de colocar um modelo de IA prejudicial, ofensivo e inseguro em produção? O que a Microsoft, o Google e outros podem fazer para reduzir o risco para seus clientes e marcas?

Mudar para a direita: A abordagem do ChatGPT

A OpenAI tinha plena consciência desse problema bem antes de lançar o ChatGPT, tanto que foram criadas proteções contra ele. A abordagem era simples. Não permita que o ChatGPT responda a perguntas que possam gerar respostas inadequadas. O ChatGPT tem uma lista de palavras-chave e frases proibidas às quais ele não responderá ou às quais foi ensinado a responder especificamente.

Isso significa que, na maioria dos casos, a OpenAI impediu o ChatGPT de dizer algo preconceituoso. No entanto, o fato de os usuários poderem manipular o ChatGPT para dizer coisas preconceituosas significa que o modelo de IA subjacente está sofrendo de preconceito de IA e aprendeu a linguagem nociva inerente de seu conjunto de dados. Sim, a OpenAI continuará a criar mais filtros e estratégias para evitar que esses preconceitos inerentes apareçam, mas os preconceitos ainda estão lá.

Essa é uma estratégia de mudança correta - colocar um portão no final do processo para tentar impedir a passagem do risco. É claro que ela não é infalível.

Mudança para a esquerda: a abordagem segura em termos de reputação

Uma estratégia de mais longo prazo é analisar o início do processo. Se você remover o viés do conjunto de dados antes que o modelo tenha a chance de aprendê-lo, terá efetivamente anulado a possibilidade de criar uma IA tendenciosa.

Embora a OpenAI tenha tentado limitar a exposição do GPT3 e do DALL-E a textos e imagens vulgares, isso não foi 100% eficaz. Ao analisar um conjunto de dados do tamanho da Internet, essa solução é proibitivamente cara e complicada para um grupo de pesquisa como a OpenAI. Esquecendo o grande escopo da Internet, a nuance do racismo e do sexismo on-line é muito difícil de identificar e remover, mesmo manualmente. 

Esse não é o caso de todos os projetos de IA, especialmente quando o objetivo é um caso de uso menor. A maioria das empresas não está tentando criar um produto de IA de uso geral, e essa estratégia é a abordagem mais escalável. 

Vejamos o exemplo de uma empresa fictícia, a "SalaryAdvise". Ela está tentando criar um modelo de IA que pega os detalhes de um determinado funcionário e sugere um salário justo. A SalaryAdvise adquiriu meticulosamente um conjunto de dados de centenas de milhares de pessoas, com seus dados pessoais, histórico de trabalho e salário atual. Aqui está um exemplo teórico de como pode ser um único ponto de dados:

Observação: todos os dados usados neste exemplo são totalmente fictícios e criados usando aleatoriamente a mimese

Embora esse conjunto de dados seja abrangente, usá-lo para treinar um modelo produziria um modelo que consideraria o gênero, a idade, o tipo sanguíneo e a nacionalidade como dados para o cálculo do salário. Essas são informações protegidas e de forma alguma devem ser consideradas do ponto de vista ético ou legal. Há também algumas informações irrelevantes para determinar o salário, como nome e altura. Portanto, para corrigir isso, podemos remover esses pontos de dados:

Ao procurar por viés em conjuntos de dados, precisamos considerar também os substitutos - pontos de dados que podem prejudicar a exclusão de valores protegidos. As informações de endereço são úteis, pois as informações geográficas podem informar o salário, mas grupos populacionais específicos podem viver em áreas semelhantes, portanto, usar o endereço completo (e o código postal) pode implicar outras informações demográficas. Portanto, devemos removê-las.

Agora temos um conjunto de dados que não contém nenhum valor ou informação protegida que possa fazer com que um modelo de IA seja tendencioso. Agora, a SalaryAdvise deve se sentir à vontade para usar esse conjunto de dados para treinar o modelo, sabendo que a IA não pode ser tendenciosa e que a empresa protegeu sua reputação.

Remoção automática de vieses: A abordagem do Couchbase

Como guardião de dados e de acordo com valores de nossa empresaO Couchbase busca capacitar os usuários a criar modelos de IA imparciais. É por isso que criamos o Serviço de eventos do Couchbase para nossa plataforma de banco de dados na nuvem, permitindo que os pesquisadores removam automaticamente informações protegidas de um conjunto de dados de IA.

Com o Eventing, você pode acionar uma função Javascript para ser executada em qualquer atualização de um documento em seu conjunto de dados (e em todos os dados existentes), de modo que, sempre que um novo documento for adicionado, você removerá automaticamente as informações protegidas. O exemplo acima poderia ser obtido com a seguinte função simples:

Ao usar o Couchbase, você também obtém acesso à sua arquitetura memory-first, o que proporciona um desempenho incomparável e a capacidade de usar SQL++ para consultar seu conjunto de dados.

Libere o potencial desse banco de dados de documentos NoSQL em seu próximo projeto de IA.

Inicie uma julgamento hoje.

 

Autor

Postado por Aaron Schneider - Engenheiro de soluções

Deixar uma resposta