Newtral destaca la participación de Loreto Corredoira en un análisis sobre desinformación e inteligencia artificial
13 ene 2026 - 11:27 CET
Newtral publicó un análisis sobre el impacto de la inteligencia artificial en la desinformación, abordando los retos que plantea para el ecosistema informativo. La pieza incluye la participación de Loreto Corredoira, co-IP del Observatorio Complutense de Desinformación, quien aporta una perspectiva académica y jurídica al debate. La publicación refuerza el diálogo entre investigación universitaria y periodismo de verificación frente a los desórdenes informativos.
Por Equipo Observatorio Complutense de Desinformación
Newtral publicó recientemente un artículo, escrito por el periodista José Denis Cruz, analizando el fenómeno de la desinformación vinculada al uso de inteligencia artificial y en los retos que esta plantea para el ecosistema informativo contemporáneo. El artículo examina cómo las herramientas generativas están siendo utilizadas para producir y difundir contenidos engañosos, con especial impacto en contextos de alta relevancia pública. La publicación incorpora la participación de la profesora Loreto Corredoira, co-investigadora principal del Observatorio Complutense de Desinformación.
Su aportación sitúa el debate en una perspectiva jurídica y comunicacional, subrayando las implicaciones que el uso de inteligencia artificial tiene para derechos fundamentales como la libertad de información y el derecho a recibir información veraz. En sus declaraciones, Corredoira pone el foco en la necesidad de abordar estos desafíos desde marcos regulatorios adecuados y desde una comprensión profunda del funcionamiento del ecosistema digital. El análisis destaca que la proliferación de contenidos sintéticos plantea tensiones inéditas para el periodismo, la verificación de hechos y la confianza pública en la información. Corredoira destaca especialmente el impacto de la desinformación en procesos electorales:
“No porque la desinformación modifique el sentido del voto —algo imposible de probar, dado que el voto es secreto y pensando además en la libertad de cada votante—, sino por la distorsión del debate político, muy sensible a estas narrativas, o por el ruido general que se genera”.
Versión extendida de la entrevista
¿Cómo han cambiado los modelos de inteligencia artificial la forma en que se produce y se difunde la desinformación?
Sin duda lo ha acelerado, tanto en el fondo (por los nuevos desórdenes informativos que generar) como en la forma, por falta de trasparencia respecto al origen o fuente del bulo, noticia falseada o video ultrafalsificado y, consecuentemente por falta de trazabilidad. La producción es o, puede, ser más compleja y la difusión es instantánea, además de gratis, claro. Se han señalado en estos últimos años modelos de informativos de televisión totalmente falseados, de ficción, que sólo público muy formado puede diferenciar y desacreditar.
¿Qué riesgos nuevos introduce la IA frente a la desinformación tradicional que ya conocíamos antes?
Un aspecto reseñable es que los riesgos son globales o universales, es decir, que viajan por todo el mundo, no sólo porque las narrativas “se contagian” (véase en tópicos sobre clima, vacunas o migración) sino porque gracias a las herramientas automáticas de traducción o subtitulado, pueden replicarse en casi todos los países. Algunas desinformaciones quizá no funcionen en situaciones de muy diverso contexto cultural u origen racial que lo harían poco creíble (ámbito asiático o africano), pero entre Europa, todo América y Oceania no hay esa “barrera”. Digamos que afortunadamente, pues si no, seríamos demasiado uniformes. Las lenguas son traducibles, pero los rasgos raciales, por suerte, no.
Otro riesgo ya lo señalé en la pregunta anterior y se debe a la velocidad, a la inmediatez y a la falta de autenticidad de los mensajes generados.
¿Por qué los contenidos generados con IA —especialmente los vídeos— resultan más difíciles de detectar y frenar?
Son difíciles de frenar precisamente porque o bien no se pueden detectar (que es la situación más general) o bien porque aun conociéndolo, las plataformas no los limitan o moderan. En el fondo, porque genera un nuevo ámbito de gestión y supervisión de los contenidos en redes, que ya es más complicado que la divulgación de mensajes de texto alterados.
El Reglamento europeo de Inteligencia Artificial, ya en vigor, exige que el usuario que sube o publica videos creados por IA (Deep fake videos) se indique que es contenido no auténtico de modo que no genere duda al público; pero eso supone madurez, formación y ética en todos los usuarios de las redes más numerosas (TikTok, universo Meta (Facebook, Instagram), X-Twitter entre otras), eso sin mencionar a sistemas de mensajeria WhatsApp o Telegram aún no dentro de las normas de control europeas.
Además, detrás de esto —la adaptación de las plataformas y redes sociales al Derecho europeo— hay más cuestiones complejas, pues son las grandes Tech las que tienen que implementar en suelo europeo los Reglamentos y Directivas digitales, habilitar modos de exigirlo a los usuarios y de aplicar sus sistemas de moderación.
Me refiero a la Ley de Servicios Digitales o DSA, al Reglamento sobre Publicidad Segmentada que es una norma creada por el escarmiento de Cambridge Analytica y del uso ilícito de datos en el Brexit. Algunos lideres (Musk) o el mismo Trump están retando a Europa para que no se aplique. Tema curioso porque allí se ha creado una ley que obliga a dividir TikTok y que quede bajo una empresa estadounidense pero claro, los europeos no pueden atacar a nuestras empresas. Muy lógico el planteamiento ¿no?
Ya están además facultadas todas las autoridades de supervisión en España. La AESIA con sede en La Coruña, para el Reglamento IA, con cuestiones compartidas con la Agencia de Protección de Datos. Además para todo el ecosistema digital (plataformas, influencers de video, etc.) debe actuar la CNMC. Es importante que -en vez de pensar en leyes nuevas- se apliquen las que tenemos y se modifiquen o reformen con la experiencias. La APD puede ser ejemplo de cómo se ha relacionado con todos los sectores implicados para la eficacia de la protección de datos. Y eso que pienso que hay temas de gran calado y derechos digitales comprometidos más importantes que “la aceptación de las cookies”.
¿Qué consecuencias puede tener esta desinformación para la ciudadanía en contextos sensibles como emergencias o inmigración?
Pues claramente tiene consecuencias sobre todo por la toma de decisiones públicas (pero también privadas) con datos erróneos o descontextualizados. En el tema en el que he trabajado más desde el Observatorio Complutense de la Desinformación (https://www.ucm.es/observatoriodesinformacion/), sí se aprecian esos efectos especialmente en lo electoral. No porque la desinformación modifique el sentido del voto, que es imposible de probar siendo el voto secreto, y porque pienso en la libertad de cada votante, pero si en la distorsión del debate político, muy sensible a esas narrativas, o en el ruido general que se crea.
¿Cuál es el principal peligro de normalizar la circulación de contenidos falsos creados con IA en el espacio público digital?
Esperemos a que no se llegue a normalizar. Un riesgo que ya detectan de hecho las RRSS es la desconfianza total en la autenticidad, y lo que puede ser una broma o un divertimento (crear fotos chulas o videos ingeniosos) no puede quedarse para siempre en el modelo de uso de las plataformas.
Links a las normas europeas mencionadas:
DSA
https://digital-strategy.ec.europa.eu/en/policies/digital-services-act
Reglamento IA
https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=CELEX:32024R1689
Reglamento de Publicidad segmentada
