Un informe de la empresa estadounidense OpenAI ha puesto al descubierto como actores vinculados a Rusia y China están explotando las avanzadas herramientas de Inteligencia Artificial (IA) generativa de la compañía para impulsar operaciones de desinformación en todo el mundo. El documento detalla cinco campañas distintas en los últimos tres meses que han utilizado la IA de OpenAI para mejorar la eficacia y el alcance de sus narrativas engañosas sobre temas geopolíticos cruciales.
Según el análisis de la empresa, estos adversarios han aprovechado la tecnología de IA para generar contenidos aparentemente auténticos en varios idiomas, como inglés, francés, alemán, italiano y polaco, a pesar de tener un dominio limitado de esos lenguajes. Esto les ha permitido crear la ilusión de un supuesto “sentimiento popular masivo” en contra de Estados Unidos, Ucrania y otros objetivos estratégicos.
Un grupo prorruso identificado como “Bad Grammar” utilizó las herramientas de OpenAI para acusar a los presidentes de Ucrania y Moldavia de corrupción, falta de apoyo popular y traición a sus pueblos ante la “injerencia” occidental. Sus comentarios en inglés en la plataforma Telegram se centraron en temas como la inmigración, las dificultades económicas y las noticias de última hora, con el objetivo de sembrar dudas sobre el respaldo de Estados Unidos a Ucrania.
Otro grupo ruso, denominado “Doppelganger”, empleó la IA generativa para publicar contenido en múltiples idiomas y hacerlo parecer mucho más popular de lo que realmente era. Cada vez que la campaña publicaba un meme o un video en la plataforma 9GAG, entre tres y cinco cuentas respondían con mensajes simples como “jajaja” o “lol”, creando una falsa sensación de viralidad.
Además, varios actores utilizaron los modelos de OpenAI para generar grandes cantidades de comentarios cortos que luego se publicaron en Telegram, X (anteriormente Twitter), Instagram y otros sitios web, con el fin de manipular la percepción pública sobre determinados temas.
Por su parte, los operadores chinos han adoptado un enfoque ligeramente diferente, empleando la IA para perfeccionar sus operaciones y ampliar el análisis de plataformas, fallos de seguridad y el sentimiento de las audiencias en línea. Un grupo llamado “Spamouflage” utilizó las herramientas para depurar código, buscar asesoramiento sobre análisis de redes sociales, investigar noticias y eventos de actualidad, y generar contenidos que luego se publicaron en foros de blogs y redes sociales.
Otro grupo chino identificado como IUVM utilizó los modelos de OpenAI para resumir y analizar el sentimiento de un gran número de publicaciones en redes sociales, especialmente en chino, además de crear etiquetas de sitios web que luego se agregaron automáticamente a su propio sitio.
Si bien OpenAI considera que ninguna de las campañas detectadas logró un impacto masivo, el informe pone de manifiesto la creciente preocupación por el uso indebido de las herramientas de IA generativa por parte de actores hostiles para influir en la percepción pública sobre acontecimientos geopolíticos clave.
La directora de la Oficina del Director de Inteligencia Nacional de Estados Unidos (ODNI, por sus siglas en inglés), Avril Haines, advirtió en marzo que la IA podría haber desempeñado un papel decisivo en las elecciones eslovacas de principios de año, al permitir a los actores prorrusos crear y difundir contenidos de audio falsos que pretendían mostrar a líderes del gobierno implicados en actos de corrupción.
Te puede interesar: IA y Ejército de Estados Unidos unen fuerzas para detectar deepfakes y desinformación