No es sorprendente que los algoritmos muestren prejuicios sociales. La IA no es magia. Cualquier algoritmo puede presentar problemas de sesgos si, por ejemplo, la base de datos no es lo suficientemente completa. “Los algoritmos aprenden de los datos”

Las inteligencias artificiales sólo tienen en cuenta los datos que los responsables de su desarrollo introducen.

No hay una manera real de solucionar esto sin arreglar primero nuestra cultura y sociedad, por lo que debemos compensarlo cuando diseñamos nuestros sistemas”.

Los recientes asesinatos de Geroge Floyd, Breonna Taylor y Ahmed Arbury han arrojado nueva luz sobre la discriminación racial sistémica que existe en países como Estados Unidos y el Reino Unido. Y ahora, están saliendo a la luz más y más investigaciones, que demuestran que la discriminación racial no solo existe en el comportamiento y los sistemas humanos, sino también en las herramientas digitales que creamos.

En contextoLos problemas y acusaciones de sesgos no son exclusivos de Twitter.

Twitter ofrece desde hace mucho la capacidad de recortar las imágenes de un modo inteligente. Se basa en una serie de patrones y datos con los que, gracias a dicha función, no te debes preocupar por cómo va a quedar la imagen en el timeline de otros usuarios cuando repasen qué han publicado los usuarios a los que siguen o resto de tweets que aparecen en él.

Sin embargo, durante el fin de semana, los investigadores encontraron que el algoritmo de recorte podría tener un problema más serio: el sesgo racista

Se realizo un experimento para averiguar si la plataforma fundada por Jack Dorsey es racialmente selectiva. Resulta que lo es, se mostró recientemente cómo el algoritmo del sitio de microblogueo y intercambio de fotos prefería las caras blancas.

Un hilo del usuario Tony Arcieri se ha hecho especialmente viral al demostrar este sesgo racista publicando un tuit con dos fotos, la de ex presidente Barack Obama y la del senador Mitch McConnell. Cuando los dos rostros formaban parte de una misma imagen, el algoritmo de Twitter mostró la vista previa de McConell repetidamente, aun cuando se cambió la disposición de las fotos y otras de sus características.

Varios usuarios publicaron muchas fotos para mostrar que en una imagen que tiene personas con diferentes colores, Twitter elige mostrar personas con piel más clara después de recortar esas imágenes para que se ajusten a sus parámetros de visualización en su sitio e incrusta. Algunos de ellos incluso intentaron reproducir resultados con personajes de ficción y perros.

El efecto salía a la luz a partir de una crítica sobre otro algoritmo de procesado de imagen, esta vez en Zoom. Al compartir la imagen videollamada con su jefe –de piel negra–, Colin Madland, usuario de Twitter, vio como la aplicación de videoconferencias únicamente previsualizaba la parte de la imagen en la que aparecía él –de piel blanca–.

Desde Twitter reconocen que existe un problema

El director de diseño de la compañía, Dantley Davis, realizó algunos experimentos informales por su cuenta y tuiteó: “Estoy tan irritado por esto como todos los demás”. El responsable de tecnología de la plataforma, Parag Agrawal, también habló del tema en un tuit y reconoció que el algoritmo necesita una “mejora continua” y estaba “ansioso por aprender” de las rigurosas pruebas de los usuarios.

Liz Kelley de Twitter agradeció a todos por llamar la atención sobre el tema y afirmó que la red social tiene “más análisis por hacer”. “Probamos el sesgo antes de enviar el modelo y no encontramos evidencia de sesgo racial o de género en nuestras pruebas, pero está claro que tenemos más análisis por hacer. Abriremos nuestro trabajo para que otros puedan revisar y replicar . “

Esta vez, el reconocimiento facial no tiene la culpa

Claramente, hay más trabajo por hacer en los algoritmos que impulsan la inteligencia artificial, y nos alegra que Twitter se haga responsable del problema con su software. Dado que la IA se está volviendo cada vez más responsable de varios aspectos de nuestras experiencias diarias, es vital que se construya para reflejar los matices complejos de las necesidades de la sociedad.

El experimento muestra los peligros reales del sesgo algorítmico independientemente de la intención. Podría sacar a las personas del centro de atención, incluso si son fundamentales para una publicación en las redes sociales o un artículo de noticias vinculado. Puede que tenga que esperar un buen rato antes de que problemas como este sean excepcionalmente raros.

Por Ángel Leonardo Torres

Todo evolucionana ¿te vas a quedar atras? Electrónica y Telecomunicaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *