El contenido generado se convirtió en un factor clave en las elecciones de todo el mundo. La mayor parte es inapropiado, engaña a los votantes y desacredita el proceso democrático. En los últimos dos años, desde la explosión de la Inteligencia Artificial generativa (IAg), esa tecnología fue utilizada por la política para degradar o difamar a los adversarios, y según los expertos y funcionarios ahora ha empezado a tener impacto directo en los resultados de las elecciones.
Las herramientas de la IA, fáciles y simples de usar, permitieron generar una catarata de fotos y videos falsos de candidatos o militantes diciendo cosas que nunca dijeron o mostrándose en lugares donde nunca habían estado, todo difundido con la relativa impunidad del anonimato en línea.
Divisiones sociales y polarización partidaria
La tecnología aumentó las divisiones sociales y la polarización partidaria y fortaleció un sentimiento antigubernamental, sobre todo en la extrema derecha, que creció mucho en las últimas elecciones en Alemania, Polonia y Portugal.
En Rumania, una operación de injerencia rusa que empleó la IA logró empañar la primera vuelta de la elección presidencial del año pasado, según funcionarios del gobierno. Un tribunal anuló el resultado y convocó a nuevas elecciones para el mes pasado, que llegaron en medio de una nueva ola de noticias falsas. Fue la primera vez en que la IA jugó un papel decisivo en el resultado de una elección importante, y es muy probable que no sea la última.
Según expertos y funcionarios, los avances en esa tecnología socavan la confianza en la integridad del proceso electoral y degrada el consenso político necesario para que las sociedades democráticas funcionen.
Para Madalina Botan, profesora en la Universidad Nacional de Estudios Políticos y Administración Pública de Bucarest, la capital rumana, es indudable que la IA generativa “ya se utiliza con objetivos claramente malintencionados” para manipular a los votantes.
Uso casi total de la IA en distintas elecciones
En la inusual seguidilla de elecciones que se concentraron a lo largo de 2024, la IA fue utilizada en más del 80% de las votaciones, según el Panel Internacional sobre el Entorno de la Información, una organización independiente de científicos con sede en Suiza.
A partir de declaraciones oficiales y boletines informativos, el Panel documentó 215 casos de IA usada en elecciones durante 2024. Y este año la IA ya operó en otras por lo menos nueve grandes elecciones, desde Canadá hasta Australia.
No todos los usos de la IA son maliciosos.
En la India, la práctica de los “candidatos clonados” se ha vuelto un lugar común, “y no solo para llegar a los votantes, sino también para motivar a los militantes del partido”, según un estudio del Centro para la Participación en los Medios de Comunicación de la Universidad de Texas en Austin.
Al mismo tiempo, sin embargo, decenas de deepfakes -fotografías o videos que recrean de manera casi indistinguible a personas reales- utilizaron la IA para clonar la voz de candidatos o de los canales de noticias. Según el sondeo del Panel Internacional sobre el Entorno de la Información, en el 69% de los casos la IA cumplió un rol calificado como “nocivo”.
Y en las elecciones presidenciales del año pasado en Estados Unidos hubo tantos ejemplos malintencionados que hubo advertencias públicas de funcionarios del FBI, de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras, y de la Oficina del Director de Inteligencia Nacional. Desde el regreso de Trump al poder, las agencias desmantelaron los equipos a cargo de esas tareas.
“En 2024, el potencial beneficioso de esas tecnologías fue ampliamente eclipsado por su uso dañino y malintencionado”, apunta Kristina Trauthig, profesora en la Universidad Internacional de Florida, quien dirigió el sondeo del panel internacional.
Usos malintencionados
Los usos más engañosos de la IA se dieron en países autocráticos que intentan interferir en elecciones extrajeras, como Rusia, China e Irán. La tecnología les permitió aumentar el apoyo a candidatos afines a su cosmovisión o simplemente desacreditar al sistema democrático en sí, mostrándolo como un sistema político fallido o ineficiente.
Antes de las elecciones presidenciales del mes pasado en Polonia, donde hay muchos refugiados ucranianos, Rusia lanzó una campaña destinada a fogonear sentimiento anti-Ucrania, con videos falsos que sugerían que los ucranianos estaban planificando atentados para generar caos durante la votación.
Hasta hace poco, la injerencia de una potencia extranjera en las elecciones de otro país era una operación costosa y difícil, que dependía de granjas de trolls que generaban cuentas y contenidos en las redes sociales, y que con frecuencia utilizaban un lenguaje poco natural, con usos incorrectos de las palabras y confusión en las referencias culturales.
Ahora, con la IA se puede interferir en el extranjero a una escala y con una velocidad que eran inimaginables cuando la principal fuente de noticias políticas eran los diarios y los medios de comunicación.
* Redes sociales y restricciones
Las principales redes sociales -incluidas X, Facebook, YouTube y TikTok-, tienen políticas que rigen el uso malicioso de la IA, y tomaron medidas en muchos casos relacionados con elecciones. Sin embargo, al mismo tiempo esas plataformas son operadas por empresas con un interés particular en cualquier contenido que mantenga conectados a los usuarios, dicen los investigadores, y agregan que las plataformas deberían ser más activas para restringir contenidos dañinos o engañosos.
En las elecciones de la India, por ejemplo, la plataforma de Meta tenía muy poco contenido de IA marcado con un deslinde de responsabilidades, como exige la empresa, según el estudio del Centro para la Participación en los Medios de Comunicación. Meta no respondió a la solicitud de comentarios.
Las empresas líderes de productos de IA generativa (IAg) también cuentan con políticas contra las manipulaciones y usos dañinos.
En 2024, OpenAI desbarató cinco operaciones de interferencia dirigidas a votantes en Estados Unidos, India, y la Unión Europea (UE) durante las campañas para elecciones parlamentarias, según informes de la compañía.
Y este mes la empresa informó haber detectado una operación de injerencia rusa que utilizó ChatGPT durante las elecciones de febrero en Alemania.
Por Steven Lee Myers y
Stuart A. Thompson
The New York Times

