Los vídeos con suicidios o que incitan a autolesionarse han sido un importante problema para Facebook y ahora también están creciendo en TikTok.
Atentados terroristas, tiroteos, suicidios, agresiones… Facebook intenta desde hace tiempo que no se extienda este tipo de contenido en su red. La emisión en directo del atentado de Nueva Zelanda marcó un antes y un después y es sabido que tiene a personas contratadas para valorar y bloquear cualquier contenido que pueda ser sospechoso, pero es una labor complicada por el volumen de actualizaciones.
En TikTok empiezan a enfrentarse a ese mismo problema. El caso que ha revelado la situación es el vídeo de un hombre sentado frente a un escritorio que se suicida con un arma y que ha corrido por TikTok de forma tan acelerada como lo hace el contenido que se ve entero.
El algoritmo de esta red social premia los vídeos con una alta permanencia y el que los usuarios lo vean por completo provoca que se extienda sin que sea necesario recomendarlo. Tanto ha ocurrido que TikTok ha tomado medidas con las cuentas de personas que lo han descargado e intentado subir para seguir mostrándolo.
Desde las oficinas de la red social han emitido un comunicado en el que afirman que «Estamos prohibiendo las cuentas que intentan cargar clips repetidamente, y apreciamos a los miembros de nuestra comunidad que han informado de contenido y advirtieron a otros que no vean, participen o compartan dichos videos en cualquier plataforma por respeto a la persona y su familia«, según recoge Engadget.
Sin embargo, es una problemática de difícil solución para TikTok. Facebook incorporó un botón para avisar de vídeos de esta clase en sus Facebook Live y ha programado sus sistemas para que detecten imágenes violentas, pero desde TikTok, con sus incontables filtros y la imprevisibilidad de sus vídeos, es complicado realizar esta función.
Se supone además que este es uno de los motivos por los que los más jóvenes no deberían poder acercarse a las redes sociales, pero basta con ver una decena de vídeos para comprobar que eso no ocurre y que menores de 14 años suben contenido propio, y seguramente también acceden a cualquier imagen que les envíe el algoritmo o contactos.
¿Conseguirá TikTok poner freno a este problema? Seguramente ideará alguna estrategia para combatirlo, pero de momento lo tiene complicado, aunque una vez detectados, seguro que puede bloquear vídeos como el que se ha hecho famoso.