Un experimento del laboratorio Bikolabs demuestra los sesgos sexistas con los que trabajan los principales algoritmos de reconocimiento de imágenes.
La Inteligencia Artificial se asocia en muchas ocasiones con una gran revolución tecnológica, un avance que transformará todo. Sin embargo, la realidad de esta tecnología aún es muy precaria y sus resultados muestran todavía fallos discriminatorios.
Desde el laboratorio de la consultora Biko han realizado un análisis de los principales algoritmos de reconocimiento de imágenes para averiguar si el rendimiento real de estos sistemas se correspondía con las expectativas depositadas en ellos. Entre los modelos consultados están Amazon Rekognition o la IA de Google Imágenes.
Ujué Agudo y Karlos G. Liberal, directora y coautor del experimento, han explicado en un artículo para Medium los resultados de su experimento. «De un tiempo a esta parte, a pesar de la fe puesta en los supuestos superpoderes de la IA, hemos tenido que asumir que ni es tan objetiva, ni tan neutral como se deseaba creer» explican en su escrito.
En el caso de la IA de Amazon, utilizaron una imagen real y otra modificada con Face App, como se puede ver en la foto que encabeza el artículo. Si la persona tiene el pelo largo y rasgos de mujer, el sistema no detecta el objeto que sostiene como una taladradora. Sin embargo, en la foto modificada para mostrar el rostro de un hombre, sí.
Otro ejemplo es el de la imagen superior, en la imagen original de la mujer, la IA considera que lo que tiene en la mano es un secador, mientras que no comete este error cuando se le presenta una imagen modificada en la que la cara es de un hombre.
En el caso de la IA de Google Imágenes, la mayoría de fotos de mujeres reciben una etiqueta generalizada de «girl» (chica), independientemente de su edad, aspecto o estilo de la foto. En el caso de los hombres el sistema es más preciso, habla de profesiones, les denomina como «gentleman» (caballero) y no chico.
Hace un año, comprobando un dataset de imágenes con Google Images, la respuesta del buscador nos descolocó bastante. A ver si os pasa lo mismo a vosotros… #bikolabs 👇 pic.twitter.com/8fLn6Eu1y7
— ujue agudo (@ujue) March 4, 2020
¿Porqué la IA comete estos sesgos?
Kate Crawford y Trevor Paglen del AI Now Institute explicaron en un estudio que «la interpretación automatizada de imágenes es un proyecto intrínsecamente social y político«. Las IAs encuentran e identifican objetos y los asocian con las etiquetas y categorías en las que se han entrenado, algunos como ImageNet contaban con una base de 21.000 categorías, pero la mayoría utilizan sólo 1.000 categorías por lo que corren el riesgo de ser simplistas.
No es la primera vez que se encuentra un modelo de Inteligencia Artificial discriminatorio. La investigadora Cathy O´Neil, en su ensayo Armas de destrucción matemática, llegaba a la conclusión de que los mismos sesgos que tienen los programadores se trasladan al big data. Algunos sistemas de reconocimiento facial llegaron a mostrar mayor dificultad para diferenciar a personas negras o de otras razas que a hombre y mujeres blancos.
Incluso, el nuevo modelo de lenguaje GPT-3 ha mostrado sesgos sexistas en algunas conversaciones como resultado del contenido que se le dio para analizar cuando se estaba desarrollando y eso que es uno de los sistemas de procesamiento de texto con mayor número de parámetros del mundo, 175.000 millones.
El proceso es largo, la tecnología aún es muy nueva y requiere de cuidado constante para corregir estas situaciones. Desde Bikolabs consideran necesario señalar las deficiencias y limitaciones de estos sistemas y «desprenderse del halo mágico que envuelve a la IA» pues no favorece al sector.