Zoom y Twitter golpeado por alegaciones de prejuicios raciales en los algoritmos, Twitter dice que hay trabajo por hacer

Twitter y Zoom fueron vistos el fin de semana por tener un sesgo racial en sus algoritmos visuales. Todo comenzó cuando alguien notó cómo Zoom parecía estar quitando la cabeza de las personas con una pigmentación de piel más oscura cuando usan un fondo virtual, mientras que no hace este movimiento en las personas con una pigmentación de piel más clara. En el tweet utilizado para informar sobre el tema de Zoom, se vio irónicamente que Twitter también parece tener un sesgo racial cuando recortaba las miniaturas para favorecer la cara de una persona blanca sobre una negra. Twitter ha respondido a la indignación que surgió, diciendo que estaba claro que tenía más trabajo que hacer.

Zoom inicialmente parecía tener un problema con sus algoritmos de fondo virtual que se manifiestan como un sesgo racial. El investigador Colin Madland publicó un hilo en Twitter el sábado que subrayaba el problema con el algoritmo de detección de rostros que supuestamente borra las caras negras al aplicar un fondo virtual en la aplicación de videoconferencia.

Gadgets 360 contactó con Zoom para obtener una aclaración sobre el algoritmo y fue informado por la compañía de que estaba investigando el asunto. “Nos hemos puesto en contacto directamente con el usuario para investigar este asunto. Estamos comprometidos a proporcionar una plataforma que sea inclusiva para todos”, dijo un portavoz de Zoom en un comunicado.

En el mismo hilo, con Madland publicando fotos de cada usuario en el chat, el algoritmo de recorte de imágenes en miniatura de Twitter parecía favorecer a Madland sobre su colega negro.

El Jefe de Oferta de Diseño de Twitter Dantley Davis respondió a las observaciones de Madland diciendo “Es 100 por ciento nuestra culpa. Nadie debería decir lo contrario. Ahora el siguiente paso es arreglarlo”.

Poco después, varios usuarios de Twitter publicaron fotos en la plataforma de microblogging para resaltar la aparente parcialidad. El CTO de Twitter Parag Aggarwal también reaccionó a la tendencia:

Sin embargo, una vez que el ingeniero invirtió los colores de las fotos, la imagen de Obama apareció en la vista recortada. La productora de Intertheory Kim Sherrell también encontró que el algoritmo ajusta la preferencia una vez que la imagen de Obama es cambiada con una sonrisa de mayor contraste.

Algunos usuarios también encontraron que el algoritmo parece dar enfoque a las complexiones más brillantes, incluso en el caso de los dibujos animados y los animales. Diferentes clientes de Twitter como Tweetdeck y Twitterrific, así como vistas de móviles, aplicaciones y escritorios, mostraron diferentes prioridades para el recorte de imágenes, señalaron algunos usuarios.

La portavoz de Twitter, Liz Kelley, respondió a los tweets planteando acusaciones de sesgos raciales contra la plataforma y dijo: “Probamos el sesgo antes de enviar el modelo y no encontramos pruebas de sesgos raciales o de género en nuestra prueba, pero está claro que tenemos que hacer más análisis”. Añadió diciendo: “Abriremos nuestro trabajo para que otros puedan revisarlo y replicarlo”.

En 2017, Twitter dejó de detectar rostros para recortar automáticamente las imágenes en la línea de tiempo de los usuarios y desplegó un algoritmo de detección de salientes que tenía como objetivo centrarse en las regiones de imágenes “salientes”. El ingeniero de Twitter Zehan Wang tweeteó que el equipo realizó algunos estudios de sesgos antes de lanzar el nuevo algoritmo y en ese momento encontró que no había “ningún sesgo significativo entre las etnias (o géneros)”. Sin embargo, añadió que la compañía revisaría el estudio proporcionado por los usuarios de Twitter.