El ChatGPT ha dado a muchas personas su primera oportunidad de experimentar con la inteligencia artificial (IA), ya fuera buscando consejos de cocina o ayuda con un discurso.
La tecnología punta de procesamiento del lenguaje de OpenAI es la base de ChatGPT.
Para entrenar a la inteligencia artificial (IA) se utilizaron las bases de datos de texto de Internet, que incluían libros, revistas y entradas de Wikipedia. En total, se introdujeron en el sistema 300.000 millones de palabras.
El resultado es un chatbot con conocimientos enciclopédicos que, en ocasiones, parece increíblemente humano.
Puedes obtener una receta de cocina diciéndole a ChatGPT qué ingredientes hay en el armario de tu cocina. ¿Necesita una introducción pegadiza para una larga presentación? No hay problema.
¿Pero es demasiado bueno? Su convincente simulación de respuestas humanas podría ser un arma potente en manos de individuos malintencionados.
Expertos del mundo académico, la ciberseguridad y la IA han expresado su preocupación por la posibilidad de que los malos actores puedan utilizar ChatGPT para fomentar la discordia y la desinformación en las redes sociales.
Hasta ahora, la producción de desinformación requería una cantidad significativa de trabajo. Pero según un informe de la Universidad de Georgetown, el Observatorio de Internet de Stanford y OpenAI, publicado en enero, una IA como ChatGPT simplificaría mucho las operaciones de los llamados ejércitos de trolls.
Herramientas de procesamiento de lenguaje complejo como ChatGPT pueden tener un impacto en las llamadas campañas de influencia en las redes sociales.
Estas campañas pueden apoyar o oponerse a políticas, así como desviar las críticas y promover la imagen de un político o partido en el poder. Además, difunden información falsa en las redes sociales utilizando cuentas falsas.
Antes de las elecciones estadounidenses de 2016, se inició una de estas campañas.
El Comité de Inteligencia del Senado informó en 2019 de que miles de cuentas de Twitter, Facebook, Instagram y YouTube creadas por la Agencia de Investigación de Internet con sede en San. Petersburg-based Internet Research Agency se dedicaban a socavar la campaña de Hillary Clinton y a promocionar a Donald Trump.
Las futuras elecciones, sin embargo, podrían tener que lidiar con una avalancha aún mayor de información falsa.
Según el informe sobre IA publicado en enero, "el potencial de los modelos lingüísticos para rivalizar con el contenido escrito por humanos a bajo coste sugiere que estos modelos, como cualquier tecnología potente, pueden proporcionar claras ventajas a los propagandistas que decidan utilizarlos".
Las ventajas "podrían ampliar el acceso a un mayor número de actores, permitir nuevas tácticas de influencia y hacer que los mensajes de una campaña sean mucho más personalizados y potencialmente eficaces", advierte el informe.
La calidad de la información falsa también podría aumentar, además de su cantidad.
Según Josh Goldstein, coautor del informe e investigador del Centro de Seguridad y Tecnología Emergente de Georgetown, donde trabaja en el Proyecto CyberAI, los sistemas de IA podrían mejorar la calidad persuasiva de los contenidos y hacer que los usuarios habituales de Internet no puedan identificar esos mensajes como parte de campañas de desinformación coordinadas.
"Los modelos de lenguaje generativo podrían generar una cantidad significativa de contenido consistentemente original. y hacer que los propagandistas no se vean obligados a duplicar su texto en diferentes sitios web de noticias o cuentas de medios sociales, dice el autor.
Tecnología empresarial adicional.
Según el Sr. Goldstein, será más difícil para el público determinar qué es verdad si una plataforma está invadida de información falsa o propaganda. A menudo, los malos actores que participan en operaciones de influencia pueden tener ese objetivo como principal.
Su informe también menciona cómo el acceso a estos sistemas puede dejar de estar restringido a un pequeño número de organizaciones.
Actualmente, sólo unas pocas empresas o gobiernos están en posesión de modelos lingüísticos de primer nivel, y estos modelos están limitados en las tareas que pueden completar de forma fiable y en los idiomas que pueden producir.
Según su informe, la probabilidad de que los propagandistas tengan acceso a modelos generativos de vanguardia podría aumentar si más actores invierten en ellos.
Según Gary Marcus, experto en IA y fundador de Geometric Intelligence, una empresa de IA que Uber adquirió en 2016, los grupos maliciosos pueden percibir el contenido creado por IA como spam.
"Quienes difunden spam confían en que los individuos más crédulos hagan clic en sus enlaces en un esfuerzo por difundirlo al mayor número de personas posible. Sin embargo, la inteligencia artificial (IA) puede convertir esa pistola de agua en el mayor Super Soaker de la historia. "
Además, el Sr. Marcus señala que "sigue habiendo al menos 10 veces más contenido que antes que todavía puede tener como objetivo engañar a la gente en línea", incluso si los sitios de medios sociales como Twitter y Facebook eliminan el 75 por ciento de lo que esos delincuentes publican en sus redes.
El rápido desarrollo actual de los sistemas de modelos lingüísticos no hará sino aumentar el número de perfiles falsos que ya están presentes en Twitter y Facebook debido al auge de las cuentas falsas en las redes sociales.
Según el profesor de informática de la Universidad Carnegie Mellon Vincent Conitzer, "cosas como ChatGPT pueden escalar esa propagación de cuentas falsas a un nivel que no hemos visto antes, y puede llegar a ser más difícil distinguir cada una de esas cuentas de seres humanos". "
Tanto el documento de enero de 2023, del que es coautor Goldstein, como un informe relacionado de la empresa de seguridad WithSecure Intelligence advierten de cómo los modelos de lenguaje generativo pueden producir rápida y eficazmente artículos de noticias falsas que podrían propagarse por las redes sociales, sumándose al diluvio de falsas narrativas que podrían influir en los votantes antes de unas elecciones cruciales.
Pero, ¿deberían las plataformas de medios sociales ser lo más proactivas posible, o serán laxas para hacer cumplir cualquiera de esos tipos de publicaciones si la desinformación y las noticias falsas emergen como una amenaza aún mayor debido a sistemas de IA como Chat-GPT?
Lus A. Nunes Amaral, codirector del Northwestern Institute on Complex Systems, afirma que "Facebook y otras plataformas deberían señalar el contenido falso, pero Facebook ha fracasado estrepitosamente en esa prueba".
El coste de supervisar cada una de las publicaciones y el conocimiento de que estas publicaciones falsas pretenden enfurecer y dividir a la gente, lo que aumenta la participación, son algunas de las razones de esa inacción. Facebook se beneficiará de ello. "