Instagram, X y Threads bloquearon las búsquedas con el nombre de Taylor Swift después de que se compartieran de forma masiva imágenes manipuladas sin el consentimiento de la cantante. La práctica del deepfake afecta principalmente a mujeres y, sobre todo, si son figuras públicas.
MADRID, 29 Ene. (EuropaPress).- Imágenes manipuladas con herramientas de Inteligencia Artificial (IA) de la cantante Taylor Swift se difundieron de forma masiva en X la semana pasada, lo que ha llevado a la red social y a otras similares a bloquear las búsquedas relacionadas.
El viernes la red social X se llenó de imágenes manipuladas de la cantante en las que se habían utilizado herramientas de IA para que apareciera en ellas desnuda. Es una práctica conocida como deepfake que tiene la capacidad para hacer dudar de la autenticidad de las imágenes o videos en los que se aplica, dado su realismo.
Esta difusión masiva se hizo sin el conocimiento ni el consentimiento de Taylor Swift, y pudo rastrearse hasta un foro en la plataforma de mensajería Telegram, donde usuarios de una comunidad comparten imágenes manipuladas con herramientas como Microsoft Designer para desnudar a las mujeres, como informó 404 Media.
Las búsquedas relacionadas con los deepfake de la cantante estadounidense se convirtieron en tendencia en X, y la plataforma confirmó el viernes que sus equipos estaban "eliminando activamente" todas las imágenes que identificaban y tomando acciones contras las cuentas que las habían publicado.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024
Antes de empezar a retirarlas, una de las publicaciones alcanzó los 45 millones de visualizaciones y las 24 mil republicaciones, e incluso registró cientos de miles de "Me Gusta" y marcadores, según apuntan en The Verge.
De forma adicional, X ha empezado a bloquear las búsquedas que utilizan palabras clave relacionadas con las imágenes manipuladas, como el propio nombre de la artista o "Taylor Swift AI", que dan como resultado una notificación de error. Sin embargo, como señalan en The Verge, este bloqueo no es del todo efectivo, ya que puede sortearse al cambiar el orden de algunas palabras, por ejemplo, "Taylor IA Swift".
Según el analista de redes sociales Matt Navarra, esta medida también la ha adoptado Meta para sus redes sociales Threads e Instagram.
DEEPFAKE PORNOGRÁFICOS
El deepfake afecta principalmente a las mujeres. Según el estudio de la firma de soluciones de seguridad Home Security Heroes de 2023, la manipulación de contenidos audiovisuales protagonizado por mujeres supone el 77 por ciento del contenido presente en webs y canales de YouTube, Vimeo y Dailymotion especializados, cifra que asciende al 99 por ciento de los casos en el deepfake pornográfico.
Bringing a tour to Brazil has been something I’ve dreamt of for years, and those fans blew my expectations away. We’ve officially wrapped up the 2023 Eras Tour and we got to end the year with 6 shows in Rio and São Paulo, with the most magical crowds. I’m so grateful to my… pic.twitter.com/P1EwfQzrKf
— Taylor Swift (@taylorswift13) November 28, 2023
Las figuras públicas, además, tienen mayor probabilidad de ser víctimas de este tipo de manipulaciones, dada la visibilidad que tienen ante el público y la cantidad de imágenes disponibles de ellas. Por profesiones, son las cantantes (58 por ciento) y las actrices (33 por ciento) las que más deepfakes protagonizan.
La manipulación de imágenes con herramientas de Inteligencia Artificial no es nueva, y de hecho el informe sitúa la evolución en 2014 con la aparición de las redes generativas antagónicas o adversiales (GAN), que se se pueden usar para generar imágenes sintéticas con gran realismo.
Los avances en esta tecnología en los últimos años han permitido ampliar sus capacidades, e incluso introducirla en servicios más asequibles y fáciles de usar, lo que ha extendido el uso entre usuarios que no necesitan tener un conocimiento especializado para usarlas.
En 2017, por ejemplo, se conoció la existencia de una campaña que difundía videos pornográficos supuestamente protagonizados por personajes públicos, generalmente de mujeres, que resultaron ser falsos: los rostros habían sido manipulados para que mostraran el de actrices y cantantes como Gal Gadot, Taylor Swift o Scarlett Johansson, sin su consentimiento.
Andddd we’re back at it! Starting off the South American leg of The Eras Tour in Argentina = best decision possible. I can’t even express my gratitude to the Buenos Aires crowds. I’d never been to Argentina before and they gave us the most electric, magical memories. Thanks to… pic.twitter.com/Ny3MKdhw8y
— Taylor Swift (@taylorswift13) November 13, 2023
Más recientemente, y en relación al fácil acceso a esta tecnología, se puede mencionar el caso de los falsos desnudos de niñas y adolescentes menores de edad que se conocieron en septiembre del año pasado en Almendralejo (Extremadura), que habían sido realizados y compartidos por varios chicos menores de la localidad.
El deepfake difumina los límites entre la realidad y la ficción al transformar con gran realismo la apariencia y la voz de las personas, lo que plantea cuestiones sobre la veracidad de lo que se está viendo, con la capacidad para dañar la imagen de aquellos a los que ha suplantado.