Cómo Facebook, YouTube y Twitter manejaron las transmisiones en vivo del asalto al Capitolio de EE. UU. | Trump Mob

Una gran cantidad de manifestantes se hicieron presente en el Capitolio de Estados Unidos para rechazar la certificación de la victoria del electo presidente Joe Biden y en señal de apoyo, claro está, de Donald Trump. Estos actos generaron una gran actividad en redes sociales y estas tuvieron que actuar.

Los eventos más comunes, además de los comentarios, fueron las transmisiones en vivo y los debates que generaron ver las imágenes. Y fue un gran desafío para YouTube, Twitter y Facebook.

Ya con la experiencia de las elecciones 2020 en noviembre, estas mantenían algunas nuevas herramientas para confrontarlas.

En YouTube, se pueden encontrar transmisiones en vivo de las propias personas que asaltaron el Capitolio buscando «Stop the Steal» y «Patriot Capitol». Si bien la plataforma generó búsquedas autorizadas de varias fuentes de noticias, no fue difícil encontrar canales a favor del golpe que transmitieran hilos de información de una variedad de otras plataformas, incluidas Facebook y Twitch.

Estos videos trajeron una gran cantidad de comentarios y las personas pagaban para que los canales mostraran sus comentarios a favor del golpe, política condenada por las distintas redes.

Las reglas de YouTube dicen que los videos y las transmisiones en vivo deben cumplir con las pautas de la comunidad del sitio para ser monetizados, y establecen que los videos que incitan o fomentan la violencia y que muestran imágenes violentas no están permitidos.

Por lo mismo, de acuerdo con un portavoz en conversaciones con The Verge, se están eliminado múltiples transmisiones que incitaban la violencia. Los equipos de YouTube están «trabajando para eliminar rápidamente las transmisiones en vivo y otro contenido que infrinja nuestras políticas, incluidos aquellos contra la incitación a la violencia o con respecto a imágenes de violencia gráfica».

YouTube ha cambiado su algoritmo de búsqueda para tratar de evitar que este tipo de contenido marginal (videos que no están prohibidos, pero que contienen temas perturbadores o dañinos) aparezcan como resultados principales en la plataforma. No está claro qué tan efectiva es esa medida en la práctica.

Cuando las personas irrumpieron en el Capitolio, Facebook e Instagram continuaron permitiendo búsquedas de #StopTheSteal, y las publicaciones se presentaron sin etiquetas de advertencia. Fue difícil encontrar videos en vivo a través del hashtag en Facebook, que en su mayoría mostraba información más antigua. En Instagram, el hashtag estaba lleno de capturas de pantalla de tuits presentados junto con fotos y videos de personas que ingresaban al Capitolio. Instagram inicialmente le dijo al medio que estaba revisando el hashtag, pero luego ocultaron las publicaciones principales y la mayoría de las publicaciones nuevas no fueran visibles.

El video de Trump

Mientras los comentarios y debates en Facebook y Twitter seguían proliferando, el video de Donald Trump pidiendo “calma” a sus seguidores rompió a ambas redes.

El caso más claro fue el de Twitter, quien, luego de mantener normalmente al video respuesta por algunos minutos, le quitó todas las funciones sociales de comentar, retuitear o compartir, a menos que sea con una cita obligatoria, la primera vez que realizaba esto.

Sin embargo, a las horas, la cuenta fue suspendida y el video fue borrado de las redes.

Por otro lado, todos los comentarios a favor de estas marchas fueron marcados bajo una etiqueta en rojo asegurando que “entidades oficiales ya habían dado sus resultados finales, negando la acusación de fraude”.

Facebook inicialmente agregó una etiqueta mucho más vaga que no decía que las afirmaciones de Trump fueran incorrectas o disputadas, lo que permitió que la publicación ganara rápidamente decenas de miles de acciones, comentarios y me gusta. Aproximadamente una hora después de su publicación, Facebook eliminó el video por completo.

El vicepresidente de integridad de Facebook, Guy Rosen, calificó el momento como una «situación de emergencia» y dijo que la compañía creía que el video «contribuye a, en lugar de disminuir, el riesgo de violencia continua». El video también se publicó en YouTube, que lo eliminó bajo una política que prohíbe la información errónea sobre el fraude electoral que afecta las elecciones de 2020.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico que gira más rápido que éste.

Deja un comentario