Por favor, habilita JavaScript para ver los comentarios de Disqus.
Deepfakes y porno digital falso: el uso de la IA para atacar a mujeres políticas, activistas y periodistas

Deepfakes y porno digital falso: el uso de la IA para atacar a mujeres políticas, activistas y periodistas

Desde 2019 hasta 2023, el número total de vídeos deepfake aumentó un 550%. El  98% del total de vídeos son pornográficos y el 99% de las víctimas, mujeres.

Ilustración de un deepfake.Getty Images

Alexandria Ocasio-Cortez, la congresista estadounidense casi más conocida por las iniciales de su nombre, AOC, no pudo quitarse la imagen de la cabeza en todo el día. Era finales de febrero de 2024 e iba en coche con algunos de sus asesores. Mientras revisaba sus menciones en la red social X, se topó con la foto, "una imagen alterada digitalmente de alguien obligándola a poner su boca en sus genitales", recordaban en Rolling Stone. Días después, AOC era entrevistada por la periodista Lorena O’Neil para la citada revista. Durante la conversación que mantuvieron en un restaurante retro en Queens, New York, Ocasio-Cortez rememoró el "shock". "Como superviviente de una agresión sexual — dijo — esto añade un nivel de desregulación. Resurge el trauma. [...] Hay ciertas imágenes que no abandonan a una persona. [...] Una vez que la has visto, la has visto. Es exactamente la misma intención de la violación física y la agresión sexual, tiene que ver con el poder, la dominación y la humillación. Los deepfakes son una forma de digitalizar la humillación violenta contra otras personas".

En Brasil, durante las elecciones municipales de 2024, varias candidatas mujeres denunciaron el uso de la Inteligencia Artificial para atacarlas. Y de todo el espectro de partidos políticos. La diputada Tabata Amaral, del Partido Socialista Brasileño, llegó a presentar una denuncia penal ante el Tribunal Electoral. "Otra forma de violencia política de género que debe ser repudiada y enfrentada", dijo su defensa. Marina Helena, de la formación Novo, denunció que había visto imágenes suyas manipuladas con IA en sitios web eróticos, imágenes pornográficas que pretendían, señaló, "manchar su reputación". Loreny Catano, de Solidariedade, sufrió lo mismo. "Es absurdo alterar las fotos de las personas y tratar de menospreciar a una mujer, dejándola sin ropa, una exposición en un intento de disminuir nuestra capacidad", declaró. Marie Santini, directora del Laboratorio de Estudios de Internet y Redes Sociales de la Universidade Federal do Rio de Janeiro, señaló al diario O Globo que sus investigaciones mostraron "que el principal impacto del uso de contenido falso en las candidatas es su eliminación de la política, lo que impacta directamente en la desigualdad de representación e intensifica un contexto de desigualdad de género, en un efecto de bola de nieve".

Según el estudio State of deepfakes 2023, elaborado por Home Security Heroes, el número total de vídeos deepfake aumentó un 550% desde 2019. "La pornografía deepfake constituyó el 98% de todos los vídeos deepfake" y "el 99% de las personas que fueron blanco de la pornografía deepfake fueron mujeres". Y, aunque estos vídeos comenzaron atacando a mujeres artistas, como la cantante Taylor Swift o la actriz Gal Gadot, cada vez son más las mujeres políticas las víctimas de estas violencias.

La Inteligencia Artificial, sobre todo aquellas que permiten modificar imágenes, se ha convertido en un arma esencial de la manosfera, ese lugar de internet donde se congregan los reaccionarios al feminismo, donde la misoginia es religión. Allí, según el estudio Imágenes falsas, efectos reales: Deepfakes como manifestaciones de la violencia política de género (2024), de las profesoras universitarias Almudena Barrientos-Báez, Teresa Piñeiro y Denis Porto Renó, "las mujeres políticas, entiendo como tal a líderes, representantes y candidatas de partidos políticos, pero también a activistas, son el punto de mira de estos troles".

Los deepfakes, explican en el estudio, "son más que imágenes: son armas que refuerzan la objetivación y la mirada patriarcal, haciendo que los cuerpos femeninos sean únicamente meros materiales al servicio de las fantasías masculinas". Las autoras, consideran, por tanto, "imperativo comprender que la proliferación de imágenes manipuladas de mujeres políticas, muchas veces con la intención de menoscabar su reputación, se inscribe en un contexto de lucha de poder en el que se entrelazan ideologías misóginas y relatos ficticios. Estas prácticas [...] se utilizan como arma para silenciar las voces disidentes, en un esfuerzo por preservar las estructuras de poder establecidas. No es casual que estos deepfakes [...] se hayan centrado en aquellas mujeres con mayor preeminencia como Yolanda Díaz e Inés Arrimadas, líderes de fuerzas políticas, o la presidenta de la Comunidad de Madrid, Isabel Díaz Ayuso. En el caso de Irene Montero o Ángela Rodríguez, más allá de la visibilidad pública, se debe hacer referencia a su carácter de símbolos de las políticas de igualdad y, por tanto, son víctimas propicias de ataques misóginos en busca de desacreditarlas y denostar su labor. Deepfakes y cheapfakes suponen una forma de represión, para silenciar a las mujeres y recluirlas en determinados espacios soft de la política, donde sus acciones y discursos quedan ocultos tras un halo de frivolidad y de falsas noticias", concluyen.

En conversación con El HuffPost, Teresa Piñeiro, una de las autoras del estudio y profesora de la Universidade da Coruña, destaca una diferencia notable entre el uso de la IA para atacar a hombres o a mujeres. "Cuando se ataca a los políticos hombres", dice, "es por lo que hacen, pero cuando se ataca a las políticas mujeres es por lo que son". Piñeiro denuncia, además, que "ya no es que las imágenes sean falsas, sino que, al hacerlas, están robando la intimidad de las mujeres". Esta profesora achaca también la evolución de los ataques a las mujeres políticas al “surgimiento de la cuarta ola feminista”. Si bien Piñeiro no considera que el problema sea la inteligencia artificial, que “no es mala” per se, sí cree que las instituciones deben actuar para que “no sea tan fácil acceder a este tipo de usos”.

Los resultados de la investigación del informe State of deepfakes 2023 demostraban que, en tan solo 25 minutos y a coste cero, se puede “crear un vídeo pornográfico deepfake de 60 segundos de cualquier persona usando solo una imagen clara del rostro”. “Existe una necesidad apremiante de un uso responsable, consideraciones éticas y salvaguardas regulatorias para abordar los desafíos en constante evolución que presenta el contenido deepfake”, concluía.

"Cuando se ataca a los políticos hombres es por lo que hacen; cuando se ataca a las mujeres es por lo que son"
TERESA PIÑEIRO, PROFESORA DE LA UNIVERSIDADE DA CORUÑA

Además de mujeres políticas y activistas, como por ejemplo Greta Thunberg, también hay mujeres periodistas que están siendo víctimas de estos ataques con el objetivo de negar su trabajo. En la India, la periodista Rana Ayyub fue víctima de vídeos falsos pornográficos con su cara tras denunciar la violación de una niña. Así lo relataba ella misma según recogía el estudio de Teresa Piñeiro: "Mi trabajo, que incluyó revelar un escándalo en una importante investigación de asesinato, provocó que circularan en línea imágenes mías alteradas en poses sexualizadas. La publicación de mi libro llevó a acusaciones en redes sociales sobre métodos no éticos y relaciones con mis fuentes. Estos eventos me transformaron. La ironía reside en que, justo antes de que saliera el vídeo, había escuchado sobre los riesgos de los deepfakes en la India, término que tuve que buscar en Google. Para mi desgracia, me convertí en víctima una semana después. Opté por el silencio inicialmente, temiendo que hablar del tema solo llevara a una morbosa curiosidad, catapultando la popularidad de los deepfakes".

A la periodista costarricense Johana Villalobos le pasó algo parecido. Un día, Villalobos recibió un mensaje por Instagram en la que le avisaban de que una foto suya estaba moviéndose por redes sociales. El problema es que ella nunca se la había hecho. "Fue angustiante", relata al HuffPost. "Cuando me enteré, no entendía. Nunca me había tomado ese tipo de fotografías y estaba confundida. Cuando me di cuenta de que era de Inteligencia Artificial, empezó esta necesidad de querer contar por todas partes que esa no era yo. Eso fue lo que hice la primera semana. Luego, cuando los días pasaron, me empecé a sentir muy ansiosa, con una vergüenza muy grande, pero que no me pertenecía, porque esa no era yo. ¿Pero cómo le explicaba a mi cabeza que esa no era yo? Hubo una semana que no salí de casa, no quería que nadie me viera", recuerda. Su caso, una vez lo denunció, se hizo muy viral en Latinoamérica y allende sus fronteras. Ella, además, lamenta que no haya leyes, al menos en su país, "que te protejan sobre este tipo de cosas". "Yo no conseguía nada yendo a la Policía. Lamentablemente tenemos una Asamblea legislativa que no sabe cómo manejarlo" dice.

Alexandria Ocasio-Cortez está justamente luchando por ello en Estados Unidos, por una legislación que permita perseguir no solo a quienes crean las imágenes manipuladas para atacar a las mujeres, sino también a quienes las distribuyen y las consumen sabiendo que no son consentidas. En su entrevista con Rolling Stone, Ocasio-Cortez quiso hacer hincapié en que lo que "no se trata solo del daño infligido a la víctima. Esta tecnología amenaza con hacerlo a gran escala, se trata de subyugación de clase. Es una subyugación de pueblos enteros. Cuando esto se cruza con el aborto, cuando se cruza con los debates sobre la autonomía corporal, cuando se es capaz de subyugar activamente a todas las mujeres de la sociedad a una enorme escala, de manera digital, está directamente relacionado con la eliminación de sus derechos"

MOSTRAR BIOGRAFíA

Me llamó Héctor Juanatey, aunque como dice Xoan Tallón, eso no importa, todo el mundo tiene un nombre. Me gusta escribir y contar cosas. En El HuffPost escribo de política, y como política lo es todo, decirles esto es como decir todo y decir nada.

 

Sobre qué temas escribo

En El HuffPost escribo, como ya les dije, de política, que es todo. Si quisieran entrar más en detalle, les cuento: por gustar, me gusta escribir de todo aquello que me preocupa dentro y fuera de la redacción. En los últimos años, por ejemplo, he estado investigando el ascenso de la extrema derecha, una suerte de virus invisible que crece cada día más. Un crecimiento, sin embargo, que también tiene responsables, y en ellos me gusta fijarme, ya sea Elon Musk, Mark Zuckerberg o influencers de ultraderecha con cada vez más adeptos. Pero también la política es causa de la desafección de la que beben los ultras. De ahí que no haya que olvidarse nunca de temas fundamentales como la vivienda; en definitiva, de las condiciones materiales de la ciudadanía. Por ese motivo, también, y desde la cobertura que hice para Público durante el 15M en la Puerta del Sol, en Madrid, he centrado gran parte de mi trabajo en las diferentes reivindicaciones de la movilización social. Sospechen siempre de aquellos periodistas que acostumbran a agobiar con la cantinela de la objetividad. Al final, solo buscan desprestigiar el sentido mismo de la profesión.

 

Mi trayectoria

Pese a todas las advertencias, desde que me decanté por estudiar periodismo (Licenciatura y Máster en Periodismo de Investigación), a excepción de un parón en el que trabajé en discurso y comunicación política, he tenido la suerte de dedicarme a escribir. Empecé en La Voz de Galicia y, tras dejar la terruña (Galicia) y mudarme a la capital en busca de oportunidades laborales, pasé por Público, La Sexta, fui redactor fundacional de eldiario.es, y he escrito para un buen número de medios como Praza.com, la revista Luzes, Playground Magazine, La Marea, Vanity Fair o CTXT. En una ocasión estuve en el campamento de refugiados de Dajla, en el Sahara, y de allí me traje unas breves anotaciones que fueron publicadas como libro, ‘Dajla. Apuntes desde o Sahara’, editado por Praza. En otra, entrevisté a Txema Guijarro, una de las personas que trabajó en el asilo de Julian Assange y Edward Snowden, y esos diálogos se transformaron también en libro, ‘El analista. Un espía accidental en los casos Assange y Snowden’, de Libros del KO. En otro lapso de tiempo, creé junto a los cómicos Facu Díaz y Miguel Maldonado un programa de humor, La Tuerka News, porque tengan claro que sin risas nos vamos a la m*****.

 


 

Cómo contactar conmigo:

Podéis escribirme a hjuanatey@huffpost.es. Se aceptan insultos, siempre y cuando tengan cierta gracia. Estoy en X/Twitter (@hectorjuanatey), Bluesky, (@hectorjuanatey.bsky.social), Instagram (@hectorjuanatey) y TikTok (@hectorjuanatey). Lo curioso es que, en el fondo, me gustaría que desapareciera más de una de estas plataformas.