Buenas prácticas y tutoriales

Cómo reducir el riesgo de IA de su empresa en 2023

Con los lanzamientos históricos de OpenAI de DALL-E 2y ChatGPT año pasado, la gente ha estado interactuando con la inteligencia artificial y viendo de primera mano (una pizca) de su potencial. 

Estas herramientas pueden parecer mágicas. Cada una de ellas recibe un mensaje de texto y te devuelve una respuesta. DALL-E convierte tu texto en una imagen y ChatGPT mantendrá toda una conversación contigo. Por ejemplo, pide un gatito dormilón de DALL-E y obtendrás una selección de impresionantes encarnaciones. Pídele a ChatGPT que escriba un ensayo sobre la Revolución Americana y obtendrás una tesis sólida.

Sin embargo, estas herramientas (y otras similares) no son mágicas en absoluto, y desde luego no son infalibles. Si te fijas demasiado, empezarás a ver problemas. ¿Le pediste a DALL-E algo con manos o texto? Probablemente te decepcionarán las "manos" y la disposición sin sentido de las letras. ¿Esa tesis sobre la Revolución Americana que pediste? Bueno, puede que tenga algunas inexactitudes factuales o una redacción extraña. 

Fíjate en la mano rara de este "hombre realista que saluda" o en los párrafos repetitivos del ensayo sobre la Revolución Americana

La viralidad de estas dos herramientas nos ha llevado a lidiar con las complejas ramificaciones sociales y jurídicas de la democratización de las herramientas de IA. Por ejemplo, ¿cómo afectará la IA a las leyes de derechos de autor? ¿Tiene el mismo valor una imagen producida por la IA que una hecha por un ser humano? ¿Cuál es el futuro de las carreras de los artistas y de la economía de los creadores? ¿Deberías entregar esa redacción sobre la Revolución Americana a tu profesor de universidad? Probablemente no.

Esas preguntas no son el objeto de este artículo, más bien nos las plantearemos: ¿Por qué Google no ha implementado algo como ChatGPT como producto de búsqueda?

¿Se puede confiar en la IA? 

Algunos de los reacciones al lanzamiento de ChatGPT eran que Google tiene problemas. ¿Por qué buscar en Google y hacer clic en enlaces buscando la respuesta a tu pregunta, cuando podrías preguntar en ChatGPT? ¿Cuál es la respuesta de Google? Seguramente Google, con sus importantes inversiones en IA, ya podría haber producido esto.

Probablemente sí. De hecho, ha mostrado públicamente demos de su motor de lenguaje natural llamado LaMDA AI en el que el usuario puede hablar con el planeta Plutón y hacerle las preguntas que quiera. Sin embargo, Google nunca lo ha hecho público. ¿Por qué?

En una reunión de todos los miembros de la compañía celebrada recientemente, el consejero delegado de Google, Sundar Pichai respondió esta cuestión citando el riesgo para la reputación de un producto de este tipo. Señaló que los clientes confían intrínsecamente en los resultados de búsqueda de Google y que "se puede imaginar que para aplicaciones similares a las de búsqueda, las cuestiones de factualidad son realmente importantes y para otras aplicaciones, la parcialidad y las cuestiones de toxicidad y seguridad también son primordiales."

Sí, los resultados de búsqueda inexactos dañarían la imagen de Google, pero la segunda parte de esa respuesta revela el verdadero riesgo. Si se formula la pregunta de una manera específica, se puede conseguir que ChatGPT diga cosas terriblemente falsas o muy ofensivas. Por ejemplo, Steven Piantadosi de la Universidad de California revelado que ChatGPT clasificó el valor de un cerebro humano en función de la raza y el sexo. 

Mientras Google traza lenta y metódicamente su futuro de IA, otros aprovechan la oportunidad para alterar el statu quo. Con el reciente anuncio de la intención de Microsoft de integrar algunos de sus principales productos (Oficina y Bing) con la tecnología de OpenAI, debemos mirar más de cerca para entender por qué los motores de IA tienen el potencial de ser despectivos. Por desgracia, no es culpa de la IA. Para entender por qué, tenemos que echar un vistazo detrás de la cortina.

El cerebro de la inteligencia artificial

DALL-E y ChatGPT son modelos de aprendizaje automático. Utilizan técnicas de modelado muy estudiadas para crear sistemas predictivos que toman una entrada y devuelven una salida. DALL-E se alimentó de miles de millones de pares de imágenes y pies de foto de Internet y aprendió cómo se relacionan, de modo que cuando se le da un nuevo pie de foto puede generar una imagen coincidente. ChatGPT se basa en el modelo lingüístico GPT3, que ingiere texto de Internet para predecir qué palabra debe aparecer a continuación. Este modelo se implementó en un marco conversacional para crear ChatGPT.

La razón por la que modelos como ChatGPT pueden producir resultados ofensivos, racistas o sexistas, es porque fue entrenado en un conjunto de datos que contenía millones de ejemplos de contenido altamente ofensivo. Internet está lleno de gente que dice cosas terribles sin filtro, por lo que utilizarlo como fuente de datos para entrenar un modelo sin duda le enseñará a decir esas mismas cosas. Imagínese enseñar a hablar a un bebé diciéndole sólo palabrotas: puede imaginarse cuál podría ser la primera palabra del bebé.

Esto explica por qué empresas como Google temen publicar estos complejos modelos masivos de IA. Una vez realizado todo el complicado entrenamiento del modelo, lo que queda es una caja negra probabilística. No se puede estar seguro de que, dada una entrada concreta, la caja negra no produzca algo particularmente obsceno.

El problema no es nuevo. Se conoce como sesgo de IA, que se produce cuando un modelo de IA refleja los sesgos inherentes de su autor humano que están implícitos en el conjunto de datos. Basura dentro, basura fuera. 

Entonces, ¿cómo pueden las empresas que utilizan IA en sus productos reducir el sesgo de la IA y el riesgo de poner en producción un modelo de IA perjudicial, ofensivo o inseguro? Qué pueden hacer Microsoft, Google y otras empresas para reducir el riesgo para sus clientes y marcas?

Cambia a la derecha: El enfoque ChatGPT

OpenAI era muy consciente de este problema mucho antes de lanzar ChatGPT, hasta el punto de que se construyeron barandillas para evitarlo. El planteamiento era sencillo. No dejes que ChatGPT responda a preguntas que puedan provocar respuestas inapropiadas. ChatGPT tiene una lista de palabras clave y frases prohibidas a las que no responderá o a las que se le ha enseñado a responder específicamente.

Esto significa que, en la mayoría de los casos, OpenAI ha impedido que ChatGPT diga algo intolerante. Sin embargo, el hecho de que los usuarios puedan manipular ChatGPT para decir cosas intolerantes significa que el modelo de IA subyacente sufre de sesgo de IA y ha aprendido el lenguaje dañino inherente de su conjunto de datos. Sí, OpenAI seguirá construyendo más filtros y estrategias para evitar que esos sesgos inherentes salgan a la luz, pero los sesgos siguen ahí.

Se trata de una estrategia de cambio a la derecha: poner una compuerta al final del proceso para intentar impedir que el riesgo pase. Está claro que no es infalible.

Desplazamiento a la izquierda: un enfoque seguro desde el punto de vista de la reputación

Una estrategia a más largo plazo es fijarse en el inicio del proceso. Si eliminas el sesgo del conjunto de datos antes de que el modelo tenga la oportunidad de aprenderlo, habrás anulado la posibilidad de crear una IA sesgada.

Aunque OpenAI intentó limitar la exposición de GPT3 y DALL-E a textos e imágenes vulgares, no fue 100% eficaz. Cuando se trata de un conjunto de datos del tamaño de Internet, una solución de este tipo resulta prohibitivamente cara y complicada para un grupo de investigación como OpenAI. Sin tener en cuenta la magnitud de Internet, los matices del racismo y el sexismo en línea son muy difíciles de identificar y eliminar, incluso manualmente. 

Este no es el caso de todos los proyectos de IA, especialmente cuando se dirigen a un caso de uso más pequeño. La mayoría de las empresas no están tratando de construir un producto de IA de uso general, y esta estrategia es el enfoque más escalable. 

Tomemos el ejemplo de una empresa ficticia "SalaryAdvise". Intenta crear un modelo de IA que tome los datos de un empleado y le sugiera un salario justo. SalaryAdvise ha adquirido minuciosamente un conjunto de datos de cientos de miles de personas, con sus datos personales, su historial laboral y su salario actual. He aquí un ejemplo teórico de lo que podría ser un único punto de datos:

Nota: todos los datos utilizados en este ejemplo son totalmente ficticios y creados utilizar la mímesis al azar

Aunque este conjunto de datos es exhaustivo, utilizarlo para entrenar un modelo produciría un modelo que tendría en cuenta el sexo, la edad, el grupo sanguíneo y la nacionalidad como datos de entrada para calcular el salario. Se trata de datos protegidos que en ningún caso deben tenerse en cuenta desde el punto de vista ético o jurídico. También hay datos irrelevantes para determinar el salario, como el nombre y la altura. Para solucionarlo, podemos eliminar esos datos:

A la hora de buscar sesgos en los conjuntos de datos, también debemos tener en cuenta los indicadores indirectos, es decir, los datos que pueden socavar la exclusión de valores protegidos. La información sobre la dirección es útil, ya que la información geográfica puede informar sobre el salario, pero determinados grupos de población pueden vivir en zonas similares, por lo que utilizar la dirección completa (y el código postal) puede implicar otra información demográfica. Por lo tanto, deberíamos eliminarla.

Ahora tenemos un conjunto de datos que no contiene valores protegidos ni información que pueda sesgar un modelo de IA. SalaryAdvise debería sentirse ahora cómoda utilizando este conjunto de datos para entrenar el modelo, sabiendo que la IA no puede estar sesgada y que la empresa ha protegido su reputación.

Eliminación automática de sesgos: El enfoque Couchbase

Como custodio de los datos y de conformidad con los valores de nuestra empresaEl objetivo de Couchbase es capacitar a los usuarios para crear modelos de IA imparciales. Por eso hemos creado el Servicio de eventos Couchbase para nuestra plataforma de bases de datos en la nube, lo que permite a los investigadores eliminar automáticamente la información protegida de un conjunto de datos de IA.

Con Eventing, puede activar una función Javascript para que se ejecute en cualquier actualización de un documento de su conjunto de datos (y de todos los datos existentes), de modo que cada vez que se añada un nuevo documento, se elimine automáticamente la información protegida. El ejemplo anterior podría lograrse con la siguiente función simple:

Al usar Couchbase, también obtienes acceso a su arquitectura memory-first, que te proporciona un rendimiento sin precedentes y la capacidad de usar SQL++ para consultar tu conjunto de datos.

Libere el potencial de esta base de datos de documentos NoSQL en su próximo proyecto de IA.

Iniciar una ensayo hoy.

 

Comparte este artículo
Recibe actualizaciones del blog de Couchbase en tu bandeja de entrada
Este campo es obligatorio.

Autor

Publicado por Aaron Schneider - Ingeniero de soluciones

Deja un comentario

¿Listo para empezar con Couchbase Capella?

Empezar a construir

Consulte nuestro portal para desarrolladores para explorar NoSQL, buscar recursos y empezar con tutoriales.

Utilizar Capella gratis

Ponte manos a la obra con Couchbase en unos pocos clics. Capella DBaaS es la forma más fácil y rápida de empezar.

Póngase en contacto

¿Quieres saber más sobre las ofertas de Couchbase? Permítanos ayudarle.