La inteligencia artificial (IA) está siendo una técnica de desinformación en las elecciones presidenciales de EE.UU. que va desde surrealistas imágenes de los dos candidatos a la Casa Blanca paseando por una playa agarrados de la mano a llamadas falsas que usaron la voz del presidente, Joe Biden, para instar a los demócratas a no votar.
Estas son las primeras elecciones presidenciales en Estados Unidos desde el ‘boom’ de la IA generativa, la herramienta que permite crear fotos, vídeos y audios realistas de cosas que nunca han pasado, una técnica conocida como ‘deepfake’.
La proliferación de esta información manipulada, sobre todo en las redes sociales, está erosionando la realidad y hace que la gente crea cada vez menos lo que ve, según indica a EFE Daniel Rogers, profesor adjunto de la Universidad de Nueva York.
Un estudio de Pew Research Center señala que el 57 % de los estadounidenses -con un porcentaje casi idéntico entre republicanos y demócratas- dicen estar «extremadamente o muy preocupados de que personas u organizaciones que buscan influir en las elecciones utilicen la IA para crear y distribuir información falsa o engañosa sobre los candidatos y las campañas».
«Estas herramientas en general difuminan las líneas entre la realidad y la invención. Y creo que esa tendencia continuará hasta que haya algunas barreras de seguridad, o barreras externas que se coloquen para intentar preservar cierta realidad sensorial», anota Rogers.
El experto, además, apunta que otro efecto secundario de esta tecnología es que la gente puede señalar que una información verdadera ha sido creada por IA, algo que se conoce como «el dividendo del mentiroso»; técnica que Trump ha usado para desacreditar una foto con E. Jean Carroll, periodista de la que se le acusó de haberla agredido sexualmente.
De ‘deepfakes’ de Taylor Swift a satíricos ‘memes’
En enero, una serie de llamadas automáticas falsas en Nuevo Hampshire utilizaron una imitación de la voz de Biden generada por IA para instar a los demócratas a no votar en las primarias del estado.
Mientras, en julio de 2023, se utilizó IA para imitar la voz de Trump en un anuncio de otro candidato para representar al Partido Republicano en las primarias que lo atacaba.
En aquel entonces, la campaña de Trump criticó el anuncio como un «intento desesperado» de «engañar al público estadounidense».
No obstante, el propio Trump ha compartido en sus redes contenido generado por IA en esta campaña electoral: el caso más sonado fue cuando publicó en su red social, Truth Social, unas imágenes falsas de Taylor Swift respaldándolo.
Estas fotos estaban etiquetadas como sátira por su creador original y, días después, Trump reconoció que las imágenes no eran reales.
También circulan por las redes muchos ‘memes’ creados con IA que no tienen el objetivo de parecer reales, sino de mandar un mensaje, como por ejemplo Trump montado en un león o robando en un supermercado pistola en mano.
Según la Inteligencia Nacional de Estados Unidos, Rusia, Irán y China están utilizando esta tecnología para influir en la población estadounidense antes de las elecciones de noviembre.
Este verano, el Departamento de Justicia tomó medidas contra una empresa rusa que usaba IA para hacerse pasar por usuarios estadounidenses en las redes sociales, y OpenAI desarmó un grupo iraní que usaba ChatGPT para generar comentarios falsos en las redes sociales.
IA para hacer campaña
En estas elecciones también se ha visto la otra cara de la moneda: el uso de la IA como herramienta para hacer campaña por un candidato, como por ejemplo hacer llamadas telefónicas a votantes.
De acuerdo con una investigación del New York Times, las campañas en su mayoría no están dando el salto a usar IA y, cuando lo han hecho, la tecnología ha fracasado.
A Rogers no le extraña este dato, ya que dice que algo clave para una campaña es la «autenticidad» y que una llamada realizada por un robot no transmite eso.
Con información de EFE