II. INTELIGENCIA ARTIFICIAL Y CAMPAÑAS ELECTORALES ALGORÍTMICAS. DISFUNCIONES INFORMATIVAS Y AMENAZAS SISTÉMICAS DE LA NUEVA COMUNICACIÓN POLÍTICA
Lorenzo Cotino Hueso
Catedrático de Derecho constitucional
Universitat de Valencia
Rubio Núñez, R.; Franco Alvim, F. y Andrade Monteiro, V. de, (2024) Inteligencia artificial y campañas electorales algorítmicas. Disfunciones informativas y amenazas sistémicas de la nueva comunicación política. Madrid: Centro de Estudios Políticos y Constitucionales.
De esta obra hay también un apunte de interés.
Condensar y analizar esta magna obra es difícil. Tiene la virtud de combinar el conocimiento académico con una profunda comprensión de la práctica y la realidad. Los tres autores que han visto el toro electoral desde los diversos lados de la barrera, tanto desde las instituciones electorales, los grupos de estudios y de expertos, como conocen las campañas desde los partidos políticos. Además, cuentan con una enorme experiencia internacional y comparada. Ello se hace especialmente valioso tanto en el terreno político y electoral como en todo lo relativo a los contextos digitales, como es el caso. Estas virtudes del libro son especialmente apreciables en un momento de tsunami de literatura sobre IA, que nos ha inundado de estudios superfluos o vanos que no suelen ser más que una primera aproximación al tema por autores que no se resisten a apuntarse a esta moda.
La obra está estructurada en cuatro capítulos: sobre el impacto de la IA en las elecciones (Cap. 1), en las campañas (Cap. 2). En estos dos capítulos los autores nos conducen por el largo y tenebroso túnel del uso de IA en elecciones, para pasar luego en los capítulos 3 y 4 a las posibles respuestas frente a los riesgos e impactos. Respuestas desde la perspectiva ética y valorativa (Cap. 3) y normativa e institucional (Cap. 4). Ya puedo adelantar que las sombras de los problemas superan con creces las luces de las soluciones. El libro cuenta con el prólogo de Gerardo de Icaza, del que me permito destacar su sincera experiencia del uso de Chatgpt para su confección.
El primer capítulo del libro describe, siguiendo la clasificación de Pippa Norris, tres etapas en la evolución de las campañas electorales. Las campañas premodernas, caracterizadas por el contacto personal; las modernas, centradas en estrategias mediáticas masivas; y las postmodernas, con la digitalización, con la aparición de fenómenos como la posverdad, la desinformación estructural, la polarización extrema y la fragmentación ideológica, la polarización extrema, campañas de influencia extranjeras y otras degeneraciones que han llevado al enrarecimiento y radicalización electoral extremismo político como escenario. Los autores añaden la cuarta etapa de la “tecnopolítica” y las elecciones algorítmicas, ello en razón uso intensivo de la IA en la comunicación política y la toma de decisiones estratégicas en campañas electorales, con gran eficiencia desde los partidos y candidatos. En esta etapa se subraya la microsegmentación, la personalización extrema de los mensajes y la manipulación psicológica a gran escala. Desde el uso de IA en el Brexit y sobre todo en la campaña Donald Trump en 2016 se aprecian estrategias de persuasión, manipulación, el primer uso de deepfakes en India. Quizá hasta se agradecerían más ejemplos de lo que conocen tan primera mano. En cualquier caso, afirman que se está produciendo una deshumanización de las elecciones, la intuición política de los candidatos o sus asesores va quedando a la sombra de modelos algorítmicos que maximizan el impacto de cada mensaje en segmentos específicos del electorado. Quien suscribe quiere creer que las riendas aún están en mano de los humanos, políticos y sus asesores, todo sea dicho, no necesariamente para hacer el bien.
Los autores señalan que con la IA se produce una “ciberbalcanización”, como fragmentación del electorado en nichos cerrados, donde los votantes reciben información personalizada que refuerza sus creencias preexistentes, sin acceso a perspectivas alternativas. No deja de sorprenderme cómo esto lo había anticipado hace 25 años Cass Sunstein en Republic.com, cuando aún veíamos Internet como una promesa de mejora de la democracia. Pues bien, ante la tecnopolítica afirman la necesidad de cautela y límites normativos. Se menciona la advertencia de Goethe: en la búsqueda de grandes logros, es fundamental saber establecer límites.
Desde los derechos electorales en juego, especialmente la libertad de expresión e información, la visión resulta igualmente preocupante. Me permito destacar el concepto de “voto consciente” de los autores, algo muy difícil de lograr sin información veraz, contexto de manipulación, personalización extrema y burbujas informativas.
El lector ya preocupado, aún incrementará sus temores cuando lea el Capítulo II sobre los usos de la inteligencia artificial en campañas y las disfunciones informativas. Se insiste en detallar los peligros y sombras. Ciertamente los autores mencionan que la IA podría optimizar la segmentación de mensajes, fortalecer la participación ciudadana y facilitar la interacción entre políticos y votantes, abriendo nuevas vías para una democracia más inclusiva y efectiva. Pero la balanza acaba inclinándose a apreciar como las herramientas se usan para desinformar, polarizar y manipular al electorado. Quien suscribe creía conocer bien el fenómeno, pero he aprendido y mucho con la descripción de fenómenos como la infoxicación, el astroturfing, técnica que simula apoyo ciudadano orgánico mediante bots y cuentas falsas, y el efecto manguera (firehosing), que supone inundar el espacio digital con mensajes falsos sin importar su veracidad. También se distingue entre falsificaciones superficiales, como los cheapfakes y shallowfakes que manipulan vídeos o imágenes de forma rudimentaria, y las ultrafalsedades, como los deepfakes, que crean montajes hiperrealistas para distorsionar la percepción del electorado. Personalmente creo que aún está por ver el verdadero peligro de los deepfakes en el ámbito electoral.
En este capítulo 2 también se subraya la ruptura de la igualdad en las campañas electorales, que ya no es directamente por la financiación. Hoy día la clave del poder político reside en el control de los datos y el dominio de los algoritmos y se está alimentando una brecha estructural en la competencia electoral. Y la gran pregunta es cómo puede evitarse. Asimismo, se centra la atención en el hackeo cognitivo: los mensajes políticos se diseñan con una precisión quirúrgica para explotar miedos, emociones y debilidades individuales, aumentando la eficacia de la manipulación. Esto incluye la segmentación psicográfica, el uso del miedo y mensajes diseñados para explotar reacciones emocionales específicas. Nuestra libertad efectiva está claramente en riesgo, y obviamente todo ello a través de un ataque a nuestra privacidad y protección de datos. Los peligros enunciados no cesan, también en este capítulo 2 se alude otra cuestión como es la opacidad de los sistemas algorítmicos electorales. Habrá que esperar al capítulo 4 cuando nos recuerdan que Archon Fung y Lawrence Lessig introdujeron el término “Clogger”, apunto yo en su artículo “How AI Could Take Over Elections—And Undermine Democracy” y que esta máquina opera como una “campaña política en una caja negra”.
El tenebroso y realista panorama de estos dos capítulos se cierra precisamente con las dificultades de introducir controles efectivos y de actualizar la regulación. El mensaje al lector es claro: si no se toman medidas a tiempo, la IA puede arramblar con los principios fundamentales de la democracia. Es momento pues de ver qué posibilidades nos quedan en esta situación.
Desde el Capítulo 3 el lector puede vislumbrar algo de luz, aunque no sé si con esperanzas. Se da una aproximación ética y valorativa, previa a la legal del capítulo 4. Se realiza un juicio ético, de valores y de principios. El juicio ético parte de que la inteligencia artificial no es en sí ni buena ni mala, al punto de que puede haber una IA benigna, que entre otras cosas puede mejorar la transparencia y la eficiencia de los procesos electorales. La cruz es una IA nociva con todos los peligros que se han señalado. El juicio de valores reflexiona sobre la neutralidad tecnológica, señalando que el problema no reside en el instrumento —la IA— sino en los fines para los cuales se utiliza. Así, la comunicación política podría incluso mejorar en beneficio de la democracia, la explotación de sesgos cognitivos, desinformación o los deepfakes obviamente no van en esta dirección. Sin embargo, se pone en duda esta neutralidad de la IA en el ámbito electoral pues sus usos sin duda reflejan y amplifican las estructuras de poder preexistentes y los sistemas algorítmicos no son accesibles por igual. Por último, el juicio de principios entre otras cuestiones sirve a los autores para llamar la atención sobre la urgencia de una regulación. Coincido en que la falta de regulación es tan salvaje como el estado precontractual de Hobbes y es utópico y absurdo pensar que no regular tiene algo que ver con la libertad, pues simplemente impera la ley del más fuerte, tecnológicamente. Así pues, se da el paso al Capítulo 4 relativo a la situación regulatoria.
El lector podría esperar ver la luz ante tanta oscuridad en este Capítulo 4. Pero ciertamente no encontrará excesiva esperanza. Obviamente no por culpa de los autores, que describen clara y ordenadamente la compleja situación normativa. Y es que no sólo es difícil regular y que las normas no sean peor que la enfermedad y que lesionen derechos fundamentales. Brasil es un laboratorio de propuestas y la Unión Europea casi ha conseguido cuadrar este círculo. Pero casi más difícil que regular soluciones es que éstas se apliquen efectivamente y que se cuente con instituciones y medios suficientes para hacerlo. Y más en la nueva época de Trump, Musk y compañía.
La Unión Europea se ha hecho esperar pero prácticamente ha dado las primeras respuestas consistentes y democráticas para minimizar la desinformación y la injerencia extranjera o controlar el uso de datos y hacer transparente la financiación digital electoral. Pero son medidas que empiezan embrionariamente a aplicarse. Los autores también exponen medidas de transparencia en Canadá y detallan en EEUU la Orden Ejecutiva sobre IA de Biden. Sin embargo, ahora ya sabemos que estas tímidas medidas ya han sido anuladas por Trump, con su entrada en la Casa Blanca al galope de la caballería de los oligarcas de los algoritmos que lo encumbran. El capítulo 4 examina también la autorregulación, pero como exponen, es una estrategia insuficiente ante los incentivos económicos contrarios de las empresas tecnológicas.
Tampoco consuela el análisis de la respuesta de los organismos electorales. Ahí se cuenta con el especial e interesante conocimiento de Brasil, caso pionero de establecimiento de límites al uso de bots, regulación de plataformas y persecución de manipulación. No obstante, el lector puede quedarse con la duda de si las medidas han sido realmente efectivas en la práctica. Bajo la experiencia de Brasil se detalla el análisis de las posibles medidas desde la perspectiva de la libertad de expresión y la prevención de la censura.
Concluye el libro a favor de una respuesta global e integral frente a la fragmentación normativa ante el problema. También se afirma la necesidad de asumir capacidades por los organismos electorales. Estas apuestas podrían verse como un haz de luz después de una travesía por el tenebroso túnel de la IA en las campañas electorales. La voluntad de los autores no puede ser mejor, pero posiblemente el lector a estas alturas como mínimo será escéptico, sino pesimista -como creo que exuda el libro. Después más de trescientas páginas en las que se viaja con insistencia e incluso reiteración por la oscuridad de la tecnopolítica es difícil el optimismo. ¿Hasta qué punto es realista esperar que los organismos electorales asuman un papel central en la regulación, dada su limitada capacidad técnica y presupuestaria? ¿Es creíble cualquier regulación global si la de la Unión Europea ya va a tener todos los problemas para hacerse efectiva? ¿La caballería tecnológica, económica y política que lleva en volandas a Trump va a dar un solo paso en esta dirección?
Estoy convencido de que la UE ha ofrecido la primera, más robusta y efectiva respuesta para armonizar las obligaciones de las plataformas, los derechos afectados, las exigencias de transparencia o el respeto a la protección de datos. Sin embargo, estas medidas no llegan a ser diques robustos ante la auténtica riada que supone la tecnopolítica y las elecciones algorítmicas. No obstante, sí que pueden ser pasos para encauzar y canalizar algunos de los impactos y peligros que este libro nos ilustra tan bien en una obra imprescindible tanto para quienes ya nos dedicamos a estos temas cuanto para cualquier lector que quiera aproximarse al fenómeno del uso electoral de IA.