AI: Las pruebas de crímenes de guerra están siendo borradas por las redes sociales

AI: Las pruebas de crímenes de guerra están siendo borradas por las redes sociales

.p id="fa">Ihor Zakharenko

Según la BBC, las pruebas de posibles violaciones de derechos humanos pueden perderse tras ser borradas por las empresas tecnológicas.

Las plataformas eliminan vídeos gráficos, a menudo utilizando inteligencia artificial; sin embargo, las imágenes que podrían ayudar en procesos penales pueden ser eliminadas sin ser archivadas.

Tanto Meta como YouTube afirman que quieren encontrar un equilibrio entre sus responsabilidades de proporcionar pruebas y proteger a los usuarios de material inapropiado.

La industria ha sido "demasiado cautelosa" en su moderación, según Alan Rusbridger, miembro del Consejo de Supervisión de Meta.

Cuando la BBC intentó subir un vídeo que documentaba ataques contra civiles en Ucrania, fue rápidamente retirado, a pesar de que las plataformas afirman que tienen excepciones para el material gráfico cuando es de interés público.

La inteligencia artificial (IA) tiene la capacidad de eliminar masivamente contenidos dañinos e ilícitos. Sin embargo, las máquinas carecen de la sutileza necesaria para reconocer las violaciones de los derechos humanos a la hora de moderar las imágenes violentas de las guerras.

El ex periodista de viajes Ihor Zakharenko se topó con esta situación en Ucrania. Ha estado recopilando información sobre ataques a civiles desde la invasión rusa.

La BBC se reunió con él en un suburbio de Kiev donde, un año antes, las tropas rusas dispararon y mataron a hombres, mujeres y niños que intentaban huir de la ocupación.

El autor de los disparos grabó al menos 17 cadáveres y coches calcinados.

Quería publicar los vídeos en Internet para que todo el mundo pudiera ver lo ocurrido y desmentir la versión del Kremlin. Sin embargo, cuando los publicó en Facebook e Instagram, fueron eliminados de inmediato.

Ihor declaró que los propios rusos afirmaron que eran falsos y que solo habían entablado combate con el ejército ucraniano.

Utilizando cuentas ficticias, publicamos el vídeo de Ihor en YouTube e Instagram.

Tres de los cuatro vídeos fueron eliminados de Instagram en menos de un minuto.

Los mismos tres tenían inicialmente restricciones de edad en YouTube; sin embargo, diez minutos después, todos fueron eliminados.

Coche quemado
Los vídeos que mostraban ataques rusos a civiles fueron eliminados en un breve periodo de tiempo.

Lo intentamos de nuevo, pero no se volvieron a subir. Una solicitud para restaurar los vídeos fue denegada con el argumento de que contenían pruebas de crímenes de guerra.

La necesidad de que las empresas de medios sociales impidan que este tipo de información desaparezca, según figuras influyentes del sector, es urgente.

"Puedes ver por qué desarrollaron y entrenaron a sus máquinas para quitarlo en el momento en que ven algo que parece difícil o traumático", dijo el Sr. Rusbridger a la BBC. Es miembro de la Junta de Supervisión de Meta, que Mark Zuckerberg estableció como una especie de "tribunal supremo" autónomo para la organización que controla Facebook e Instagram.

El próximo problema, según Mr. Rusbridger, ex redactor jefe de The Guardian, "es cómo desarrollamos la maquinaria, ya sea humana o de inteligencia artificial, para tomar decisiones más razonables".

Según la embajadora de Estados Unidos para la Justicia Penal Global, Beth Van Schaak, nadie cuestionaría el derecho de las empresas tecnológicas a censurar contenidos. "Creo que donde se produce la preocupación es cuando esa información desaparece de repente", afirma. "

No borrar por crímenes de guerra

Las publicaciones en redes sociales sobre atrocidades cometidas en tiempos de guerra son habituales. Para apoyar el enjuiciamiento por crímenes de guerra, esta información puede utilizarse como prueba. Pero las principales plataformas de medios sociales han eliminado este contenido, según personas afectadas por conflictos violentos que hablaron con la BBC.

Actualmente disponible en BBC iPlayer (sólo en el Reino Unido).

Según YouTube y Meta, en virtud de sus exenciones para imágenes gráficas de guerra que sirven al interés público, el contenido que normalmente se eliminaría puede mantenerse en línea sólo con espectadores adultos. Al contrario de lo que sugiere nuestro experimento con los vídeos de Ihor.

Según Meta, responde a "solicitudes legales legítimas de organismos encargados de hacer cumplir la ley de todo el mundo" y "sigue explorando vías adicionales para apoyar los procesos internacionales de rendición de cuentas... de acuerdo con nuestras obligaciones legales y de privacidad".

A pesar de tener excepciones para el material gráfico que sirve al interés público, YouTube afirma que su plataforma no es un archivo. Se aconseja a las organizaciones de derechos humanos, activistas, defensores de los derechos humanos, investigadores, periodistas ciudadanos y otras personas que registran abusos de los derechos humanos (u otros posibles delitos) que sigan las mejores prácticas para proteger y preservar su contenido. ".

La BBC también habló con Imad, que dirigía una farmacia en Alepo, Siria, antes de que una bomba de barril lanzada por el gobierno sirio golpeara la zona en 2013.

Recuerda cómo la explosión hizo volar humo y polvo en el espacio. Cuando salió al mercado exterior tras oír gritos de auxilio, vio manos, piernas y cadáveres cubiertos de sangre.

Estas imágenes fueron tomadas por equipos de televisión locales. El vídeo se publicó en Facebook y YouTube, pero ya ha sido retirado.

Periodistas sirios dijeron a la BBC que durante el caos del conflicto, los bombardeos también destruyeron sus propias grabaciones de las imágenes originales.

Imad tuvo que presentar pruebas de su asistencia a la escena cuando solicitó asilo en la UE años más tarde.

"No tenía ninguna duda de que mi farmacia había sido fotografiada. Sin embargo, cuando entré en Internet, me dirigió a un vídeo borrado. "

Organizaciones como Mnemonic, un grupo de derechos humanos con oficinas en Berlín, han intervenido para archivar imágenes en respuesta a incidentes de esta naturaleza antes de que se pierdan.

Al principio en Siria, y ahora en Yemen, Sudán y Ucrania, Mnemonic desarrolló una herramienta para descargar y guardar automáticamente pruebas de violaciones de derechos humanos.

Además de tres vídeos que muestran el ataque cerca de la farmacia de Imad, han guardado más de 700.000 imágenes de zonas de guerra antes de que fueran retiradas de las redes sociales.

Cada imagen podría contener un dato crucial que ayudaría a los investigadores a averiguar dónde, cuándo o quién cometió el crimen en el campo de batalla.

Organizaciones como Mnemonic, sin embargo, son incapaces de cubrir todas las regiones en conflicto del mundo.

Es extremadamente difícil demostrar que se han cometido crímenes de guerra, por lo que reunir tantas fuentes como se pueda es esencial.

Olga Robinson, de BBC Verify, explica que la verificación es similar a unir piezas dispares de información para crear una imagen más completa de lo ocurrido.

Las personas que en las redes sociales quieren ayudar a sus seres queridos atrapados en conflictos violentos se encuentran a menudo a cargo de archivar contenidos de código abierto accesibles a casi todo el mundo.

Rahwa
Archivar la información disponible públicamente sobre el conflicto en la región etíope de Tigray, según Rahwa, es su "deber".

Rahwa reside en Estados Unidos y tiene familia en la región etíope de Tigray, donde recientemente se han registrado numerosos episodios de violencia y donde el gobierno regula estrictamente el flujo de información.

Las redes sociales han permitido documentar conflictos que de otro modo pasarían desapercibidos para el público.

Rahwa dice: "Era nuestro deber". "Me pasé horas investigando, así que cuando este contenido empieza a llegar a cuentagotas, intentas verificarlo utilizando todos los datos de inteligencia de fuentes abiertas que caen en tus manos, pero no tienes ni idea de si tu familia está a salvo. "

Según los activistas de derechos humanos, se necesita urgentemente un sistema formal para recopilar y almacenar de forma segura los contenidos eliminados. Con el fin de verificar el contenido y demostrar que no ha sido alterado, esto también incluiría el mantenimiento de metadatos.

La embajadora de EE.UU. para la Justicia Penal Global, la Sra. Van Schaak, afirma: "Necesitamos desarrollar un mecanismo que permita almacenar esos datos para posibles ejercicios de rendición de cuentas en el futuro. Las plataformas de los medios sociales deberían estar abiertas a negociar acuerdos con los sistemas mundiales de rendición de cuentas. "

Hannah Gelbart y Ziad Al-Qattan han contribuido con más información

Puede encontrarse más información sobre BBC Verify en Definir el "cómo" del lanzamiento de BBC Verify.

Enlace de la fuente

You've successfully subscribed to Webosor
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.