En Toronto, un candidato en las elecciones municipales de esta semana que se ha comprometido a acabar con los campamentos de personas sin hogar ha publicado una serie de promesas de campaña ilustradas con inteligencia artificial, incluidas imágenes distópicas falsas de personas acampando en una calle del centro y una imagen fabricada de tiendas de campaña instaladas en un parque.
En Nueva Zelanda, un partido político publicó representación realista falsos ladrones saqueando una joyería en Instagram.
En Chicago, el finalista en la votación para alcalde en abril se quejó de que una cuenta de Twitter que se hacía pasar por un medio de comunicación había utilizado IA para clonar su voz de una manera que sugería que toleraba la brutalidad policial.
Lo que comenzó hace unos meses como un goteo lento de correos electrónicos de recaudación de fondos compuestos por IA e imágenes promocionales para campañas políticas se ha convertido en un flujo constante de material de campaña creado por tecnología, reescribiendo el libro de jugadas políticas para elecciones democráticas en todo el mundo.
Cada vez más, los consultores políticos, los investigadores electorales y los legisladores dicen que la implementación de nuevas salvaguardas, como la legislación que limita los anuncios generados sintéticamente, debería ser una prioridad urgente. Las defensas existentes, como las reglas de las redes sociales y los servicios que afirman detectar contenido de IA, han hecho poco para frenar la marea.
A medida que la carrera presidencial de EE. UU. de 2024 comienza a calentarse, algunas de las campañas ya están probando la tecnología. El Comité Nacional Republicano publicó un video con imágenes generadas artificialmente de escenarios apocalípticos después de que el presidente Biden anunciara su candidatura a la reelección, mientras que el gobernador Ron DeSantis de Florida publicó imágenes falsas del expresidente Donald J. Trump con el Dr. Anthony Fauci, el exmédico de salud. . oficial. El Partido Demócrata experimentó con mensajes de recaudación de fondos escritos por inteligencia artificial en la primavera y descubrió que a menudo eran más efectivos para alentar el compromiso y las donaciones que las copias escritas completamente por humanos.
Algunos políticos ven la inteligencia artificial como una forma de ayudar a reducir los costos de campaña, usándola para crear respuestas instantáneas a temas de debate o atacar anuncios, o para analizar datos que de otro modo podrían requerir expertos costosos.
Al mismo tiempo, la tecnología tiene el potencial de difundir desinformación a una amplia audiencia. Un video falso poco halagador, una explosión de correos electrónicos llenos de narraciones falsas generadas por computadora o una imagen inventada de la decadencia urbana pueden reforzar el sesgo y ampliar la división partidista al mostrar a los votantes lo que esperan ver, dicen los expertos.
La tecnología ya es mucho más poderosa que la manipulación manual: no es perfecta, pero mejora rápidamente y es fácil de aprender. En mayo, el director ejecutivo de OpenAI, Sam Altman, cuya compañía ayudó a iniciar un auge de inteligencia artificial el año pasado con su popular chatbot ChatGPT, le dijo a un subcomité del Senado que estaba nervioso por la temporada electoral.
Dijo que la capacidad de la tecnología «para manipular, persuadir, entregar algún tipo de desinformación interactiva uno a uno» era «un área importante de preocupación».
La representante Yvette D. Clarke, demócrata de Nueva York, dijo en un comunicado el mes pasado que el ciclo electoral de 2024 “está destinado a ser la primera elección en la que prevalece el contenido generado por IA”. Ella y otros demócratas del Congreso, incluida la senadora Amy Klobuchar de Minnesota, han presentado una legislación que requeriría que los anuncios políticos utilicen material generado artificialmente para llevar un descargo de responsabilidad. Recientemente se promulgó un proyecto de ley similar en el estado de Washington.
La Asociación Estadounidense de Consultores Políticos condenó recientemente el uso de contenido ultrafalso en campañas políticas como una violación de su código de ética.
«La gente se verá tentada a traspasar los límites y ver adónde pueden llevar las cosas», dijo Larry Huynh, el nuevo presidente del grupo. «Al igual que con cualquier herramienta, puede haber malos usos y fechorías al usarlas para mentir a los votantes, engañar a los votantes, crear una creencia en algo que no existe».
La reciente intrusión de la tecnología en la política ha sido una sorpresa para Toronto, una ciudad que apoya un próspero ecosistema de investigación y puesta en marcha de inteligencia artificial. La elección de alcalde se lleva a cabo el lunes.
El candidato conservador en la contienda, Anthony Furey, ex columnista de prensa, presentó recientemente su plataforma en un documento tenía docenas de páginas y estaba lleno de contenido generado sintéticamente para ayudarlo a tomar su posición rudo.
Un examen más detenido dejó en claro que muchas de las imágenes no eran reales: una escena de laboratorio mostraba a científicos que parecían manchas extraterrestres. Una mujer en otra representación llevaba un broche en su cárdigan con letras ilegibles; marcas similares aparecieron en una imagen de cinta de precaución en un sitio de construcción. La campaña de Furey también usó un retrato sintético de una mujer sentada con dos brazos cruzados y un tercer brazo tocándose la barbilla.
Los otros candidatos explotaron esta imagen para reírse. en un debate este mes: «En realidad usamos fotos reales», dijo Josh Matlow, quien mostró una foto de su familia y agregó que «nadie en nuestras fotos tiene tres brazos».
Sin embargo, las representaciones descuidadas se usaron para amplificar el argumento de Furey. Ganó suficiente impulso para convertirse en uno de los nombres más reconocibles en una elección con más de 100 candidatos. En el mismo debate, reconoció el uso de la tecnología en su campaña y agregó que «vamos a reírnos un poco aquí mientras continuamos aprendiendo más sobre la IA».
Los expertos en políticas temen que la inteligencia artificial, cuando se usa indebidamente, podría tener un efecto corrosivo en el proceso democrático. La desinformación es un riesgo constante; uno de los rivales de Furey dijo en un debate que, aunque los miembros de su equipo usaban ChatGPT, aún verificaban sus resultados.
«Si alguien puede crear ruido, crear incertidumbre o desarrollar narrativas falsas, podría ser una forma efectiva de influir en los votantes y ganar la carrera», escribió Darrell M. West, investigador principal de Brookings Institution. en un informe mes pasado. “Dado que las elecciones presidenciales de 2024 pueden reducirse a decenas de miles de votantes en algunos estados, cualquier cosa que pueda empujar a la gente de una forma u otra podría terminar siendo decisiva”.
El contenido de IA cada vez más sofisticado aparece con mayor frecuencia en las redes sociales que en gran medida no han querido o no han podido controlarlo, dijo Ben Colman, director ejecutivo de Reality Defender, una compañía que ofrece servicios para detectar ‘IA’. La débil supervisión permite que el contenido sintético sin etiqueta cause «daño irreversible» antes de que sea procesado, dijo.
«Explicar a millones de usuarios que el contenido que ya vieron y compartieron era falso, mucho después del hecho, es demasiado poco y demasiado tarde», dijo Colman.
Durante varios días de este mes, una transmisión en vivo en Twitch llevó a cabo un debate continuo y no seguro para el trabajo entre versiones sintéticas del Sr. Biden y el Sr. Trump. Ambos han sido identificados claramente como «entidades de IA» simuladas, pero si una campaña política organizada creó dicho contenido y se difundió ampliamente sin ninguna divulgación, podría degradar fácilmente el valor del material real, dijeron los expertos en desinformación.
Los políticos pueden ignorar la responsabilidad y fingir que las imágenes auténticas de acciones comprometedoras no son reales, un fenómeno conocido como el dividendo del mentiroso. Los ciudadanos comunes pueden fabricar sus propias falsificaciones, mientras que otros pueden enraizarse más profundamente en burbujas de noticias polarizadas, creyendo solo en las fuentes que eligen creer.
«Si las personas no pueden confiar en sus ojos y oídos, simplemente pueden decir: ‘¿Quién sabe? «Podría fomentar un cambio de un escepticismo saludable que fomenta los buenos hábitos (como leer de lado y buscar fuentes confiables) a un escepticismo malsano que dice que es imposible saber qué es verdad».


