Investigadores quieren concienciar a la población de los riesgos del reconocimiento de emociones de la inteligencia artificial, algo que ya están utilizando grandes corporaciones.
El reconocimiento de emociones a través de inteligencia artificial no es algo que solo hayas visto en películas de ciencia ficción, sino también está presente en la realidad, en multitud de sitios en los que posiblemente jamás te hayas dado cuenta, y los investigadores quieren exponer los riesgos de este tipo de tecnologías que podrían acabar con la privacidad de las personas.
Ciertas organizaciones apuestan por una industria de la tecnología del reconocimiento de emociones, algo que podría usarse en estudios de mercado, seguridad vial y hasta en la educación o en el entorno laboral. El público en general no confía que una cámara pueda, no solo reconocerle por su cara, sino también saber cómo se siente.
Tal como señalan en un reportaje en The Guardian, investigadores de la Universidad de Cambridge han creado un sitio web, en concreto emojify.info, donde cualquier persona puede probar un sistema de reconocimiento de emociones a través de sus propia webcam. El funcionamiento es muy sencillo, simplemente aceptas que la página web pueda acceder a tu cámara, y después vas a tener que poner una serie de expresiones faciales para saber si eres reconocido por el sistema de inteligencia.
«La idea con esta web es concienciar al público sobre el peligro de esta tecnología de reconocimiento y promover conversaciones en redes sociales. Es una forma de reconocimiento facial, pero va más allá porque, en lugar de solo identificar a las personas, pretende leer nuestras emociones, nuestros sentimientos internos en nuestros rostros«, dijo la Dra. Alexa Hagerty, líder del proyecto e investigadora de la Universidad de Cambridge
Hagerty afirma que esta web pretende concienciar a los usuarios de que estos sistemas de reconocimiento de emociones son más comunes de lo que pensamos, y que ya han sido utilizados en multitud de lugares en situaciones que van desde la contratación de un trabajo, hasta la seguridad de un aeropuerto o incluso la educación, algo que puede acabar discriminando.
Sobre la web que te hemos señalado y donde puedes probar esta tecnología, afirman que no se recopilan datos personales y todas las imágenes se almacenan en el propio dispositivo del usuario.
Uno de los aspectos más criticados de esta tecnología de reconocimiento de emociones es que es fácilmente interpretable y se puede engañar, dado que el usuario podría fingir estar llorando o estar riendo, y la máquina podría calificar a un usuario como triste o como alegre, cuando en realidad no es así.
“El uso de tecnologías de reconocimiento de emociones es profundamente preocupante, ya que estos sistemas no solo se basan en una ciencia discriminatoria y desacreditada, sino que su uso también es fundamentalmente incompatible con los derechos humanos”, dijo Hagerty.