Según la BBC, los pedófilos están utilizando tecnología de inteligencia artificial (IA) para producir y comercializar material de abuso sexual infantil de aspecto realista.
Algunas personas tienen cuentas en conocidos sitios web de intercambio de contenidos como Patreon, donde pagan cuotas de suscripción para acceder a las imágenes.
Respecto a este tipo de imágenes en su sitio web, Patreon declaró tener una política de "tolerancia cero".
El Consejo Nacional de Jefes de Policía consideró "indignante" que algunas plataformas obtuvieran "enormes beneficios" pero no asumieran ninguna "responsabilidad moral".
Utilizando un software de inteligencia artificial (IA) llamado Stable Diffusion, que fue creado para producir imágenes para su uso en diseño gráfico o arte, se crearon las imágenes de abuso.
La IA hace posible que los ordenadores lleven a cabo tareas que de otro modo requerirían inteligencia humana.
Los usuarios del software Stable Diffusion pueden describir cualquier imagen que deseen usando indicaciones de palabras, y el programa entonces producirá esa imagen.
Pero, según la BBC, se está utilizando para producir representaciones realistas de abusos sexuales a menores, incluida la violación de bebés y niños pequeños.
Los equipos de investigación de abusos a menores en Internet de la policía británica afirman haber encontrado ya este tipo de material.
La periodista e investigadora independiente Octavia Sheepshanks lleva tiempo investigando este asunto. Ha compartido sus hallazgos con la BBC a través de la organización benéfica para niños NSPCC.
No se trata sólo de niñas muy pequeñas; los pedófilos están hablando de niños pequeños, afirmó, desde que las imágenes generadas por IA son factibles.
En el Reino Unido, es ilegal poseer, publicar o transferir una "pseudoimagen" que haya sido creada por un ordenador y represente abuso sexual infantil.
Según Ian Critchley, responsable de protección de menores del Consejo Nacional de Jefes de Policía (NPCC), sería incorrecto afirmar que, al no haber niños reales retratados en esas imágenes "sintéticas", nadie ha sufrido daños.
Preveía que un pedófilo podría "avanzar en la escala del delito desde el pensamiento a la imagen sintética, hasta el abuso real de un niño vivo".
Hay un proceso de tres etapas por el que se comparten las imágenes de abusos.
- Utilizando software de IA, los pedófilos crean imágenes.
- Anuncian imágenes en sitios web como el servicio japonés de intercambio de fotos Pixiv.
- Los clientes pueden pagar por ver estas cuentas en sitios web como Patreon haciendo clic en enlaces de estas cuentas que les llevan a sus imágenes más explícitas.
En la popular red social japonesa Pixiv, utilizada principalmente por artistas que comparten manga y anime, algunos de los creadores de imágenes están publicando sus obras.
Los creadores del sitio, sin embargo, lo utilizan para publicitar sus obras en grupos y mediante hashtags, que indexan temas utilizando palabras clave, porque compartir caricaturas y dibujos sexualizados de niños no está prohibido en Japón, donde se aloja el sitio.
Según un portavoz de Pixiv, la empresa dio máxima prioridad a este problema. El 31 de mayo, declaró que todas las representaciones fotostalizadas de contenido sexual que implicasen a menores estaban ahora prohibidas.
La empresa afirmó haber reforzado sus sistemas de vigilancia con antelación y estar destinando importantes recursos para hacer frente a los problemas provocados por los avances de la IA.
Según la investigación de la Sra. Sheepshanks, los usuarios parecen estar creando imágenes de abuso infantil a gran escala.
Según ella, "el volumen es simplemente enorme, por lo que la gente [creadores] dirá "nuestro objetivo es hacer al menos 1.000 imágenes al mes".".
Los usuarios han dejado claro en sus comentarios sobre imágenes concretas de Pixiv que están interesados sexualmente en niños; algunos incluso se han ofrecido a proporcionar imágenes y vídeos de abusos no generados por IA.
Algunos de los grupos de la plataforma han estado bajo la observación de Ms. Sheepshanks.
La gente compartirá, 'Oh aquí hay un enlace a cosas reales', explica, "dentro de esos grupos, que tendrán 100 miembros.
Ni siquiera sabía que existían palabras [tales descripciones]; eran las cosas más horribles. ".
Muchas cuentas de Pixiv tienen enlaces en sus biografías que apuntan a lo que denominan su "contenido sin censura" en el sitio web de Patreon en EE.UU.
Con una capitalización de mercado estimada en 4.000 millones de dólares (3.100 millones de libras), Patreon afirma contar con más de 250.000 creadores, la mayoría de los cuales son cuentas reales pertenecientes a conocidos autores, periodistas y famosos.
Por la compra de suscripciones mensuales para acceder a blogs, podcasts, vídeos e imágenes, los fans pueden apoyar a los creadores por tan sólo 3,85 dólares (3 euros).
Los resultados de nuestra investigación, sin embargo, revelaron cuentas de Patreon que vendían imágenes fotorrealistas, generadas por IA y difamatorias de niños a distintos precios en función del tipo de contenido solicitado.
Una persona comentó en su cuenta: "Entreno a mis hijas en mi PC", y añaden: "sumisión". Un usuario anunciaba "arte exclusivo sin censura" por 8,30 dólares (6,50 libras) al mes.
La BBC proporcionó un ejemplo a Patreon, que la plataforma reconoció como "semirealista y en contra de nuestras políticas". Afirmó que la cuenta fue eliminada de inmediato.
Los creadores no pueden financiar contenidos de temática sexual que impliquen a menores, según Patreon, que afirmó tener una política de "tolerancia cero". "
La empresa añadió que había "identificado y eliminado cantidades cada vez mayores" de este contenido dañino a la declaración de que el aumento de contenido dañino generado por IA en Internet era "real y angustioso".
Afirmó ser "muy proactiva", con equipos dedicados, tecnología y asociaciones para "mantener a los adolescentes a salvo", y añadió: "Ya prohibimos el material sintético de explotación infantil generado por IA". .
Una colaboración global entre académicos y varias empresas, liderada por la compañía británica Stability AI, produjo el generador de imágenes de IA Stable Diffusion.
Ha habido varias versiones con limitaciones incorporadas al código que limitan los tipos de contenido que se pueden crear.
Sin embargo, el año pasado se puso a disposición del público una versión anterior de "código abierto", que permitía a los usuarios entrenarlo para producir cualquier imagen, incluso ilícita.
En una declaración a la BBC, Stability AI afirmó que "prohíbe cualquier uso indebido con fines ilegales o inmorales en todas nuestras plataformas, y nuestras políticas dejan claro que esto incluye el CSAM (material de abuso sexual infantil)".
"Apoyamos firmemente los esfuerzos de las fuerzas de seguridad contra aquellos que abusen de nuestros productos con fines ilegales o nefastos", afirma la compañía.
A medida que la IA sigue avanzando rápidamente, han surgido preocupaciones sobre las amenazas potenciales que algún día podría suponer para la seguridad, la privacidad o los derechos humanos de las personas.
Ian Critchley, del NPCC, dijo que también le preocupaba que la afluencia de inteligencia artificial (IA) realista o imágenes "sintéticas" pudiera dificultar la búsqueda de víctimas reales de abusos.
"Crea una demanda adicional, en términos policiales y de aplicación de la ley, para identificar dónde se está abusando de un niño real, en cualquier parte del mundo, frente a un niño sintético o artificial", explica. ".
El Sr. Critchley afirmó que lo veía como un punto de inflexión para la sociedad.
En sus palabras, "podemos asegurarnos de que Internet y la tecnología permiten las fantásticas oportunidades que crean para los jóvenes, o puede convertirse en un lugar mucho más dañino."