Las redes sociales podrían estar borrando evidencia de crímenes de guerra
En los últimos años, las plataformas de redes sociales han eliminado contenido en línea con mayor frecuencia y rapidez, a menudo en respuesta a las demandas de los gobiernos, pero de una manera que impide el uso de ese contenido para investigar a personas sospechosas de estar involucradas en delitos graves, incluidos crímenes de guerra.
Si bien es comprensible que estas plataformas eliminen contenido que incite o promueva la violencia, actualmente no están archivando este material de una manera que sea accesible para los investigadores que ayudan a que los perpetradores rindan cuentas.
El contenido de las redes sociales, en particular fotografías y videos, publicados por perpetradores, víctimas y testigos de abusos, entre otros, se ha vuelto cada vez más central para algunos enjuiciamientos por crímenes de guerra y otros crímenes internacionales, incluso en la Corte Penal Internacional (CPI) y en procedimientos nacionales en Europa. Este contenido también ayuda a los medios de comunicación y la sociedad civil a documentar atrocidades y otros abusos, como ataques en Siria, una represión de las fuerzas de seguridad en Sudán y abusos policiales en los Estados Unidos.
Sin embargo, las empresas de redes sociales han intensificado sus esfuerzos para eliminar de forma permanente las publicaciones de sus plataformas que consideren que violan sus reglas, o las pautas o estándares de la comunidad de acuerdo con sus términos de servicio, incluido el contenido que consideran “contenido terrorista y extremista violento” (TVEC) , incitación al odio, odio organizado, conducta de odio y amenazas violentas. Según las empresas, no solo eliminan material que los moderadores de contenido clasifican para su eliminación. Cada vez más, también utilizan algoritmos para identificar y eliminar contenido tan rápidamente que ningún usuario lo ve antes de que se elimine. Además, algunas plataformas tienen filtros para evitar que el contenido identificado como TVEC y otro contenido relevante se cargue en primer lugar. Los gobiernos de todo el mundo han alentado esta tendencia, pidiendo a las empresas que eliminen el contenido lo más rápido posible, particularmente desde marzo de 2019, cuando un hombre armado transmitió en vivo su ataque a dos mezquitas en Christchurch, Nueva Zelanda, que mató a 51 personas e hirió a otras 49.
Las empresas tienen derecho a eliminar rápidamente el contenido que podría incitar a la violencia, dañar a las personas o poner en peligro la seguridad nacional o el orden público. Pero las empresas de redes sociales no han establecido mecanismos para garantizar que el contenido que eliminan se conserva, archiva y se pone a disposición de los investigadores penales internacionales. En la mayoría de los países, los funcionarios encargados de hacer cumplir la ley pueden obligar a las empresas a entregar el contenido mediante el uso de órdenes judiciales, citaciones y órdenes judiciales, pero los investigadores internacionales tienen una capacidad limitada para acceder al contenido porque carecen de poderes y autoridad para hacer cumplir la ley.
También es probable que los agentes del orden y otras personas estén perdiendo información y pruebas importantes que tradicionalmente habrían estado en el dominio público porque los sistemas de inteligencia artificial cada vez más sofisticados están eliminando contenido antes de que cualquiera de ellos tenga la oportunidad de verlo o incluso saber que existe. . No hay forma de saber cuánta evidencia potencial de delitos graves está desapareciendo sin que nadie lo sepa.
Las organizaciones independientes de la sociedad civil y los periodistas han desempeñado un papel vital en la documentación de las atrocidades en Irak, Myanmar, Siria, Yemen, Sudán, Estados Unidos y otros lugares, a menudo cuando no había actores judiciales realizando investigaciones. En algunos casos, la documentación de organizaciones y medios de comunicación ha desencadenado posteriormente procesos judiciales. Sin embargo, tampoco pueden acceder al contenido eliminado. El acceso a este contenido por parte del público debe estar sujeto a una cuidadosa consideración, y la eliminación puede ser apropiada en algunos casos. Pero cuando el contenido se elimina permanentemente y los investigadores no tienen forma de acceder a él, esto podría obstaculizar importantes esfuerzos de responsabilidad.
Las empresas han respondido a algunas solicitudes de acceso a contenido de la sociedad civil reconsiderando su eliminación y volviéndola a publicar, o diciendo que es ilegal que compartan el contenido con cualquier persona. Human Rights Watch no tiene conocimiento de ningún caso en el que las empresas hayan acordado proporcionar a la sociedad civil y periodistas independientes acceso a dicho contenido si no se ha vuelto a publicar.
No está claro cuánto tiempo las empresas de redes sociales guardan el contenido que eliminan de sus plataformas antes de eliminarlo de sus servidores o incluso si el contenido, de hecho, alguna vez se elimina de sus servidores. Facebook declara que, al recibir una solicitud válida, conservará el contenido durante los 90 días posteriores a su eliminación, “hasta que recibamos [un] proceso legal formal”. Human Rights Watch tiene conocimiento, sin embargo, de casos en los que Facebook ha retenido en sus servidores contenido eliminado durante períodos mucho más largos que 90 días después de la eliminación. En un correo electrónico enviado a Human Rights Watch el 13 de agosto, un representante de Facebook dijo: “Debido a las restricciones legislativas sobre la retención de datos, solo estamos