Llamémoslo por su nombre: los deepfakes sexuales no son pornografía, sino violencia sexual

Carlos está en un grupo de Telegram con sus amigos de clase. Han empezado a compartir vídeos. En uno de ellos, Carlos aparece diciendo comentarios abiertamente racistas. En realidad, esto nunca ha ocurrido. A Clara, también nombre ficticio, le llegó por el grupo de WhatsApp de clase una imagen en la que se le veían los pechos al descubierto. Al igual que en el caso de Carlos, la situación que se muestra en la imagen nunca ocurrió. Ambos fueron víctimas de la alteración digital de sus imágenes, pero hay una gran diferencia entre ambos: el contenido sexual. Y eso tiene un nombre: se llama violencia sexual.

La alteración no consentida de imágenes es uno de los usos maliciosos de la IA. / Shutterstock.

La alteración no consentida de imágenes es uno de los usos maliciosos de la IA. / Shutterstock.

16 de junio de 2025.

La inteligencia artificial (IA) ha llegado para quedarse, y esto se puede observar en una variedad de formas de la vida digital actual. Existen usos maliciosos, como la creación o alteración no consentida de imágenes, muchas veces con fines sexuales. Esta práctica, conocida como deepfake sexual, constituye una forma de violencia facilitada a través de la tecnología.

Entendiendo la alteración digital de imágenes sexualizadas

En distintos estudios, algunos finalizados y otros en marcha, realizados por nuestro proyecto de investigación DiViSAR, hemos podido constatar que los chicos jóvenes (16-29) residentes en España tienen tasas más altas de victimización por alteración digital de imágenes usando IA que las chicas de su misma edad. Y que ellos son también los perpetradores. De hombre a hombre. No obstante, en nuestro trabajo en plataformas digitales como Telegram hemos hallado que son las mujeres las principales víctimas de estos ataques. Seguimos trabajando por desentrañar las cualidades de estos abusos y sus impactos desde una perspectiva interseccional.

Estas imágenes sexuales alteradas son el reflejo de una cultura que permite y normaliza la apropiación de los cuerpos ajenos, particularmente aquellos femeninos. Una cultura que promueve la edición, falsificación y difusión de imágenes íntimas como si fueran de dominio público. En el escenario de estos abusos facilitados por la IA, el consentimiento desaparece y se refuerzan dinámicas profundamente misóginas, alimentadas por una cultura de la violación 3.0 que legitima la violencia contra mujeres y niñas. Además, no es una cuestión exclusivamente de alteración de imágenes. Lo que está a la base es toda una “economía del nude” basada en la explotación de cuerpos ajenos sin consentimiento. En esta economía del nude, plataformas como Telegram se están lucrando de la creación y circulación de estos contenidos, facilitando y amplificando estas agresiones. Existen apps y bots diseñados exclusivamente para “desnudar a cualquier chica que desees” o “crear a la chica de tus sueños”, anunciados abiertamente de esta forma.

Desde hace unos años ha aumentado el interés social y político por regular el abuso basado en imágenes manipuladas con IA. La Unión Europea exige transparencia en los contenidos generados o alterados por IA a través de su ‘Ley de Inteligencia Artificial’. Además, España es un país pionero en esta materia. En marzo de 2025 aprobó un anteproyecto de ley para reformar el Código Penal y regular la creación y difusión de contenidos falsos vejatorios o sexuales. El los deepfakes abusivos también se está combatiendo desde la sociedad civil. Campañas internacionales como ‘Not Your Porn’ y ‘My Image, My Choice’ luchan por que se reconozca este fenómeno como agresiones facilitadas por la tecnología y no como material pornográfico o de entretenimiento. En el Estado Español, la Fundación Iniciativa Social o FEMBLOC son precursoras en los ámbitos de la violencia de género, también aquella facilitada por la tecnología.

Por otro lado, aunque es habitual leer o escuchar referirse al contenido sexual alterado como “pornografía”, estas imágenes no deberían ser etiquetadas de esta manera. Las imágenes sexuales deepfake son la prueba de que se ha cometido un abuso sexual en el que se han sustraído imágenes de una persona, editado y vejado su cuerpo usando tecnología, y que provoca daños reales a las víctimas. Simultáneamente, la distinción entre las alteraciones digitales de imágenes sexualizadas con pornografía no excluye la posibilidad de imaginar una pornografía no violenta, feminista y ética basada en imágenes ficticias, pero ese es otro debate.

¿Qué se puede hacer desde las instituciones de investigación?

En trabajos anteriores, hemos tenido la oportunidad de consultar con expertas nacionales e internacionales sobre cómo abordar la violencia sexual facilitada por la tecnología, entre la que se incluyen los deepfakes sexuales.

Las expertas coinciden en algo fundamental:  la tecnología no es neutral. Muchas veces se diseña y utiliza específicamente para  violentar a mujeres, niñas y colectivos vulnerabilizados, obteniendo además beneficios económicos de esas agresiones. Las personas propusieron líneas de intervención de la violencia tecnológica que contemplan un abordaje integral y multi-nivel: incorporar la violencia facilitada por la tecnología a la agenda política-institucional, financiar y continuar investigando su alcance para comprender su naturaleza y daños, y trabajar en educación y sensibilización para la prevención, lo que incluye enseñar a la población ageneral a preservar pruebas de agresiones hasta realizar campañas y programas educativos para informar al público sobre comportamientos digitales seguros.

Además de esto, nos dicen, debemos aumentar los recursos específicos para su erradicación, capacitar a los cuerpos de profesionales (fuerzas de seguridad del Estado, educadores, profesionales de la salud, etc.), crear servicios de acompañamiento específicos para las víctimas, poner sus voces en el centro y diseñar servicios basados en las necesidades identificadas durante el proceso de escucha.

¿Cómo actuar ante un ‘deepfake’ sexual?

Si encuentras una imagen sexual alterada en la que se ha modificado el cuerpo de otra persona, puede ser que estés ante un caso de violencia sexual digital. Hazte algunas de las siguientes preguntas y consulta a otras personas si sospechas que este podría ser el caso. ¿La persona que aparece ha dado su permiso para que utilicen sus imágenes? ¿La imagen alterada muestra a la persona diciendo o haciendo acciones que busquen ridiculizarla o dañarla? ¿La persona que aparece en la imagen sabe que se están realizando esas acciones? ¿Está de acuerdo con ellas? Si piensas que puedes estar presenciando una agresión o contenido ilícito, hay distintas maneras de actuar. Ante la duda, pregunta e infórmate, no lo dejes pasar.

Si conoces a la persona cuyo contenido ha sido alterado, lo mejor es que informes de lo ocurrido a la misma y a su círculo cercano, y no tomar ninguna decisión sin preguntar. Es muy importante escuchar y acompañar a las personas afectadas según sus necesidades, puede ser que no todas quieran denunciar o judicializar lo ocurrido. Si no sabéis cómo proceder, podéis poneros en contacto con los siguientes recursos, y con la línea de atención gratuita de FEMBLOC, donde os ayudarán y acompañarán en el proceso. Una primera acción que se puede hacer es registrar digitalmente la publicación o el mensaje que contiene la imagen, por si en un futuro se decidiera utilizar como prueba (por ejemplo, usando eGarante). También se puede acudir al Canal Prioritario de la Agencia Española de Protección de Datos (AEPD), donde se puede solicitar que la AEPD intermedie con las plataformas digitales para que se elimine el contenido compartido. Asimismo, se pueden consultar teléfonos gratuitos como el 017 del Instituto Nacional de Ciberseguridad o el 016 de atención a víctimas de violencia de género. Además de estas acciones, acompañar y escuchar a la víctima, no culpabilizarla o responsabilizarla por lo ocurrido, así como denunciar la publicación en redes sociales e informar a la plataforma. Puedes solicitar a Google que retire las imágenes en el siguiente formulario. Todas estas medidas pueden contribuir a aliviar el daño y a no ser testigo cómplice de la agresión, ya que ver lo que está sucediendo y no actuar es una forma de reproducir la violencia.

Trabajar en la promoción de procesos de acompañamiento y cuidados desde una lógica comunitaria es clave para desactivar la cultura patriarcal que sustenta estos abusos, así como facilitar la creación de espacios horizontales donde se escuche y acompañe a quienes han sido agredidas.

Porque los deepfakes sexuales creados sin consentimiento no son una “broma”. Llamémoslo por su nombre: no es pornografía, es violencia sexual.

 

Los autores de este texto son Jacinto Gutiérrez Lorca y Elisa García Mingo, estudiante de doctorado y directora de tesis respectivamente de la Facultad de Ciencias Políticas y Sociología de la UCM.


Con la colaboración de la Fundación Española para la Ciencia y la Tecnología - Ministerio de
Ciencia, Innovación y Universidades