Un grupo de 1 700 expertos científicos y humanísticos ha condenado el uso de la Inteligencia Artificial (IA) en el desarrollo de algoritmos para predecir crímenes basándose en datos biométricos, como el rostro de las personas, algo que alegan que reproduce injusticias sociales y puede perjudicar a las personas afrodescendientes.
Esta carta se dirige a la editorial Springer y llega como respuesta al anuncio de la publicación de un artículo académico titulado ‘Una red neuronal profunda para predecir la criminalidad utilizando el procesamiento de imagen’.
En este artículo, aún no publicado, unos investigadores de la Universidad de Harrisburg (Estados Unidos) aseguran haber desarrollado un software capaz de predecir la «criminalidad» analizando datos biométricos como los de reconocimiento facial.
El sistema está destinado para usarse por la policía y la justicia para prevenir crímenes antes de que sucedan y tiene «una precisión del 80 por ciento y sin ningún sesgo racial», según afirman sus autores.
Piden que no se publique
No obstante, un grupo de 1.700 expertos ha formado una coalición que pide a Springer que no publique el estudio, que revise los criterios que utilizó para evaluarlo y que condene el uso de tecnologías para predecir la criminalidad.
Los firmantes son académicos de ámbitos diversos, incluyendo estadistas, especialistas en inteligencia artificial y aprendizaje automático, juristas, sociólogos, historiadores, comunicadores y antropólogos.
La coalición de científicos defiende que el uso de algoritmos para predecir la criminalidad basándose en datos biométricos y expedientes criminales «están basados en premisas científicas defectuosas, e investigaciones y métodos «desacreditados» a lo largo de los años.
Entre los referentes desacreditados que citan los autores de la iniciativa se encuentra Cesare Lombroso, un criminólogo italiano del siglo XIX, que utilizaba la frenología para estudiar a las comunidades pobres y su propensión a cometer determinados crímenes.
«Estos métodos desacreditados continúan apareciendo, a menudo bajo el amparo de nuevos y supuestamente neutrales métodos estadísticos como el aprendizaje automático», como denuncia la iniciativa, que alega que su uso contribuye a «reproducir injusticias sociales y causa daño real» a comunidades marginadas.
En los últimos años, los gobiernos han utilizado la IA para funciones relacionadas con la justicia como el reconocimiento facial, una práctica denunciada por miembros de la comunidad negra por el sesgo racial, aunque «estas voces continúan siendo marginalizadas» con los avances en estas tecnologías, según concluye la coalición.
(Con información de Europa Press)
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.