Los algoritmos de recomendación en redes sociales se encuentran bajo la mira desde hace unos años, y varios gobiernos han comenzado a ejercer presión en el corazón de las “big tech”. Un nuevo estudio de Mozilla establece que YouTube recomienda videos que violan sus propias normas, y el impacto es mayor en comunidades que no usan el inglés como idioma principal.
Este estudio de colaboración colectiva desarrollado por Mozilla menciona que el 71% de los videos que los encuestados consideran “lamentables” para ver, siguen apareciendo con insistencia empujados por el algoritmo de recomendación de YouTube.
El informe destaca que la proliferación de este contenido es mayor en países que no hablan inglés, incrementando su presencia en un 60% frente a naciones que usan ese idioma como principal.
Más de 30 mili usuarios usaron “RegretsReporters”, la herramienta de reacciones desarrollada por Mozilla como parte de esta investigación. De acuerdo con Ashley Boyd, vicepresidenta de promoción y participación de Mozilla, se buscaba responder a tres inquietudes:
«¿Qué tipo de videos recomendados conducen a contenido racista, violento o conspirativo? ¿Existen patrones en términos de frecuencia o gravedad del contenido dañino? ¿Existen patrones de uso de YouTube específicos que lleven a recomendar contenido dañino?»
¿Por qué es tan importante ver cómo funciona el algoritmo de recomendación de YouTube?
En términos simples, un algoritmo aprende de la manera en que vemos contenido en una red. En el caso de YouTube, la amplia base de usuarios genera patrones de continuidad que son usados por la inteligencia artificial para “predecir” tu consumo y dirigirte a contenido similar al que acabas de ver en la plataforma.
Esta tecnología le permite a YouTube y otras redes sociales mantener la atención del usuario de manera activa.
Sin embargo, son pocos los usuarios que desarrollan un hábito de reproducción controlada en base a suscripciones fijas. En promedio, siete de cada diez videos de YouTube son impulsados por el algoritmo hacia los dispositivos de los usuarios mediante sugerencias, y se calcula que esta técnica abarca hasta 700 millones de horas de contenido todos los días.
Los participantes lograron marcar un total de 3 362 videos con contenido “lamentable”: información errónea, contenido violento o gráfico, estafas y discursos de odio. Estos videos provenían de 91 países distintos y fueron observados entre julio del 2020 y mayo del 2021.
Brandi Geurkink, Gerente Senior de Defensa de Mozilla, mencionó que el algoritmo de YouTube está diseñado de una manera que daña y desinforma a las personas:
“Nuestra investigación confirma que YouTube no solo aloja, sino que recomienda activamente videos que violan sus propias políticas. Ahora también sabemos que las personas de países que no hablan inglés son las más propensas a sufrir la peor parte del algoritmo de recomendación fuera de control de YouTube. Mozilla espera que estos hallazgos, que son solo la punta del iceberg, convenzan al público y a los legisladores de la urgente necesidad de una mayor transparencia en la inteligencia artificial de YouTube”.