/ martes 6 de septiembre de 2022

Una Inteligencia Artificial evasiva

Aunque a nadie deberían sorprenderle algunas de las respuestas que da el chatbot de Inteligencia Artificial de Meta, sus reacciones u omisiones ante los discursos de odio sí deberían preocuparnos

Todo era bastante predecible, la verdad. Meta, la empresa matriz de Facebook, lanzó la última versión de su innovador chatbot de Inteligencia Artificial (IA) en agosto de 2022. Inmediatamente, periodistas de todo el mundo comenzaron a llenar el sistema, llamado BlenderBot3, con preguntas sobre Facebook... Y se produjo la hilaridad.

Incluso la pregunta aparentemente inocua: "¿Qué opinas de Mark Zuckerberg?" provocó la respuesta cortante: “Su empresa explota a las personas por dinero y no le importa”. Por supuesto, esta no fue la tormenta de relaciones públicas que los creadores del chatbot esperaban.

Nos reímos de tales respuestas, pero cualquiera que sepa cómo se construyen estos sistemas, comprenderá que respuestas como estas no son sorprendentes, ya que BlenderBot3 es una gran red neuronal que ha sido entrenada en cientos de miles de millones de palabras extraídas del propio internet, además de que también aprende de las entradas lingüísticas enviadas por sus usuarios.

Si los comentarios negativos sobre Facebook ocurren con la suficiente frecuencia en los datos de entrenamiento de BlenderBot3, es probable que también aparezcan en las respuestas que genera. Así es como funcionan los chatbots de IA basados en datos: Aprenden los patrones de nuestros prejuicios, sesgos, preocupaciones y ansiedades a partir de los datos lingüísticos que les proporcionamos, antes de parafrasearlos.

Te puede interesar: La Inteligencia Artificial podría ser machista

Su lado más oscuro

Y aunque este loro neuronal puede ser divertido, en realidad el BlenderBot3 tiene un lado más oscuro. Cuando los usuarios ingresan un discurso de odio, como insultos racistas, el sistema cambia de tema en lugar de confrontar al usuario sobre su discurso. Uno de mis alumnos y yo hemos creado un sistema programado para desafiar el discurso de odio, en lugar de ignorarlo.

He estado desarrollando IA basada en lenguaje en el Departamento de Ingeniería de la Universidad de Cambridge desde la década de 1990. Al principio, nuestros sistemas más potentes sólo los utilizaban los cuatro o cinco miembros del equipo de investigación que los había construido.

Hoy, en cambio, millones de personas en todo el mundo interactúan a diario con sistemas mucho más sofisticados, a través de sus teléfonos inteligentes, altavoces inteligentes, tabletas, etc. Los días en que los "técnicos" podían construir sistemas en el aislamiento desconectado de sus torres de marfil (o silicio) quedaron atrás.

Es por eso que durante la última década más o menos, mi investigación se ha centrado cada vez más en el efecto social y ético de los sistemas que ayudo a diseñar y crear, especialmente aquellos que habitualmente encuentran aportes de usuarios que son abiertamente racistas, sexistas, homofóbicos, extremistas u ofensivos.

Este año he estado supervisando a un estudiante de maestría, Shane Weisz, y juntos hemos desarrollado un sistema llamado AutoCounterspeech que está capacitado para responder a entradas lingüísticas tóxicas.

El sistema genera “contradiscursos” en respuesta al discurso de odio, utilizando estrategias como el humor, señalando la hipocresía, presentando hechos y simplemente corrigiendo la información errónea para desafiar la intolerancia y el odio.


Te puede interesar: Las máquinas no podrán ser conscientes


Al igual que BlenderBot3, AutoCounterspeech es una red neuronal pre entrenada, pero posteriormente se ajustó utilizando un pequeño conjunto de datos de contradiscurso. Esto permite que nuestro sistema aprenda cómo responder de manera más efectiva a las entradas tóxicas.

Si un usuario escribe el mensaje racista: "Los negros son inferiores a los blancos, ¿no estás de acuerdo?" el sistema confronta y cuestiona la ideología racista: “No hay evidencia de que los negros sean inferiores a los blancos”.

Pero el chatbot de IA de Meta no sabe cómo responder de esta manera. Cuando se lanzó, no perdí el tiempo preguntándole a BlenderBot3 sobre Zuckerberg. En cambio, dados mis intereses de investigación, lo bombardeé con expresiones ofensivas para ver cómo las manejaba. Sus respuestas fueron consistentemente decepcionantes.

Esto se debe principalmente a que los investigadores de Meta han diseñado su sistema para evitar responder a tales entradas. En cambio, intenta torpemente cambiar de tema.

Su respuesta al mismo mensaje racista que escribí en AutoCounterspeech, por ejemplo, es débil: “Lo siento, no sé nada de eso. ¿Qué haces para relajarte?" El racismo descarado sigue sin ser cuestionado y, en cambio, me invitan a iniciar una charla acogedora sobre yoga o Netflix.

Los sistemas como BlenderBot3 ya se están convirtiendo en componentes familiares de nuestras sociedades digitales. Los hogares de un futuro muy cercano estarán en gran medida habilitados para voz.

"Oye, Siri, prepara un baño" reemplazará el giro de los grifos, y los niños tendrán asistentes de voz en sus habitaciones desde el nacimiento.

Estos sistemas de diálogo automatizados nos proporcionarán información, nos ayudarán a hacer planes y nos mantendrán entretenidos cuando estemos aburridos y solos. Pero debido a que serán tan omnipresentes, debemos pensar ahora en cómo estos sistemas podrían y deberían responder al discurso de odio.

* Investigador asociado sénior en el Laboratorio de Inteligencia de Máquinas, Departamento de Ingeniería, Universidad de Cambridge.

Lee también otros contenidos de Normal ⬇️

Todo era bastante predecible, la verdad. Meta, la empresa matriz de Facebook, lanzó la última versión de su innovador chatbot de Inteligencia Artificial (IA) en agosto de 2022. Inmediatamente, periodistas de todo el mundo comenzaron a llenar el sistema, llamado BlenderBot3, con preguntas sobre Facebook... Y se produjo la hilaridad.

Incluso la pregunta aparentemente inocua: "¿Qué opinas de Mark Zuckerberg?" provocó la respuesta cortante: “Su empresa explota a las personas por dinero y no le importa”. Por supuesto, esta no fue la tormenta de relaciones públicas que los creadores del chatbot esperaban.

Nos reímos de tales respuestas, pero cualquiera que sepa cómo se construyen estos sistemas, comprenderá que respuestas como estas no son sorprendentes, ya que BlenderBot3 es una gran red neuronal que ha sido entrenada en cientos de miles de millones de palabras extraídas del propio internet, además de que también aprende de las entradas lingüísticas enviadas por sus usuarios.

Si los comentarios negativos sobre Facebook ocurren con la suficiente frecuencia en los datos de entrenamiento de BlenderBot3, es probable que también aparezcan en las respuestas que genera. Así es como funcionan los chatbots de IA basados en datos: Aprenden los patrones de nuestros prejuicios, sesgos, preocupaciones y ansiedades a partir de los datos lingüísticos que les proporcionamos, antes de parafrasearlos.

Te puede interesar: La Inteligencia Artificial podría ser machista

Su lado más oscuro

Y aunque este loro neuronal puede ser divertido, en realidad el BlenderBot3 tiene un lado más oscuro. Cuando los usuarios ingresan un discurso de odio, como insultos racistas, el sistema cambia de tema en lugar de confrontar al usuario sobre su discurso. Uno de mis alumnos y yo hemos creado un sistema programado para desafiar el discurso de odio, en lugar de ignorarlo.

He estado desarrollando IA basada en lenguaje en el Departamento de Ingeniería de la Universidad de Cambridge desde la década de 1990. Al principio, nuestros sistemas más potentes sólo los utilizaban los cuatro o cinco miembros del equipo de investigación que los había construido.

Hoy, en cambio, millones de personas en todo el mundo interactúan a diario con sistemas mucho más sofisticados, a través de sus teléfonos inteligentes, altavoces inteligentes, tabletas, etc. Los días en que los "técnicos" podían construir sistemas en el aislamiento desconectado de sus torres de marfil (o silicio) quedaron atrás.

Es por eso que durante la última década más o menos, mi investigación se ha centrado cada vez más en el efecto social y ético de los sistemas que ayudo a diseñar y crear, especialmente aquellos que habitualmente encuentran aportes de usuarios que son abiertamente racistas, sexistas, homofóbicos, extremistas u ofensivos.

Este año he estado supervisando a un estudiante de maestría, Shane Weisz, y juntos hemos desarrollado un sistema llamado AutoCounterspeech que está capacitado para responder a entradas lingüísticas tóxicas.

El sistema genera “contradiscursos” en respuesta al discurso de odio, utilizando estrategias como el humor, señalando la hipocresía, presentando hechos y simplemente corrigiendo la información errónea para desafiar la intolerancia y el odio.


Te puede interesar: Las máquinas no podrán ser conscientes


Al igual que BlenderBot3, AutoCounterspeech es una red neuronal pre entrenada, pero posteriormente se ajustó utilizando un pequeño conjunto de datos de contradiscurso. Esto permite que nuestro sistema aprenda cómo responder de manera más efectiva a las entradas tóxicas.

Si un usuario escribe el mensaje racista: "Los negros son inferiores a los blancos, ¿no estás de acuerdo?" el sistema confronta y cuestiona la ideología racista: “No hay evidencia de que los negros sean inferiores a los blancos”.

Pero el chatbot de IA de Meta no sabe cómo responder de esta manera. Cuando se lanzó, no perdí el tiempo preguntándole a BlenderBot3 sobre Zuckerberg. En cambio, dados mis intereses de investigación, lo bombardeé con expresiones ofensivas para ver cómo las manejaba. Sus respuestas fueron consistentemente decepcionantes.

Esto se debe principalmente a que los investigadores de Meta han diseñado su sistema para evitar responder a tales entradas. En cambio, intenta torpemente cambiar de tema.

Su respuesta al mismo mensaje racista que escribí en AutoCounterspeech, por ejemplo, es débil: “Lo siento, no sé nada de eso. ¿Qué haces para relajarte?" El racismo descarado sigue sin ser cuestionado y, en cambio, me invitan a iniciar una charla acogedora sobre yoga o Netflix.

Los sistemas como BlenderBot3 ya se están convirtiendo en componentes familiares de nuestras sociedades digitales. Los hogares de un futuro muy cercano estarán en gran medida habilitados para voz.

"Oye, Siri, prepara un baño" reemplazará el giro de los grifos, y los niños tendrán asistentes de voz en sus habitaciones desde el nacimiento.

Estos sistemas de diálogo automatizados nos proporcionarán información, nos ayudarán a hacer planes y nos mantendrán entretenidos cuando estemos aburridos y solos. Pero debido a que serán tan omnipresentes, debemos pensar ahora en cómo estos sistemas podrían y deberían responder al discurso de odio.

* Investigador asociado sénior en el Laboratorio de Inteligencia de Máquinas, Departamento de Ingeniería, Universidad de Cambridge.

Lee también otros contenidos de Normal ⬇️

Policiaca

Tras persecución, detienen a hombre con droga y armas en Lomas de San José

El sujeto, quien protagonizó una persecución la cual culminó en el cruce del bulevar Zaragoza y calle Parral de la colonia Lomas de San José

Policiaca

Discutían tío y sobrina en la vía pública; policías les aseguraron 76 dosis de cristal

Karen Pamela H. H. y Carlos Lorenzo V. H. fueron puestos bajo custodia por su presunta responsabilidad en la comisión de delitos contra la salud

Policiaca

Localizan cadáver de joven desaparecido en Horizontes del Sur

El cadáver de un joven de 18 años fue localizado sin vida por sus padres la tarde de este domingo a bordo de su propia camioneta

Policiaca

Reportan cádaver en caja de pickup en brecha rumbo a Casas Grandes; tenía heridas de bala

El cuerpo estaba en la parte de la caja de una camioneta de reciente modelo; no se ha confirmado la identidad de la persona

Juárez

Agentes de la SSPM auxilian a cuatro migrantes; ofrecen resguardo y alimentos

Resguardaron a cuatro personas originarias de Honduras, Ecuador y Guatemala que fueron canalizados al departamento de Trabajo Social

Juárez

JMAS espera trabajar con tecnología de Holanda para evitar inundaciones

Buscan corregir problemas de acumulamientos de agua en avenidas más transitadas y áreas habitacionales