Según datos de Home Security Heroes, la mujeres son las más vulnerables con un 99 por ciento de representación en este tipo de material, en tanto que el 1 por ciento corresponde al género masculino.
Ciudad de México, 3 de febrero (SinEmbargo).- La Inteligencia Artificial (IA) destacó como una herramienta para diversos sectores a lo largo del 2023, no obstante también se demostró que ésta puede llegar a ser un arma de doble filo con la proliferación de imágenes y videos explícitos creados con dicha tecnología.
El caso más reciente fue el de la cantante estadounidense Taylor Swift, quien se vio vulnerada cuando en redes sociales se viralizó una avalancha de material pornográfico creado con IA por lo que plataformas como X, Instagram y Threads tuvieron que bloquear las búsquedas sobre la intérprete de "Lover".
De acuerdo con el estudio 2023 Estado de Deepfakes: Realidades, amenazas e impacto, desarrollado por la compañía de ciber seguridad estadounidense Home Security Heroes, entre 2022 y 2023 la cantidad de pornografía deepfake creada aumentó un 464 por ciento en el país norteamericano.
Según datos de Home Security Heroes, en el 2022 había alrededor de 3 mil 725 videos de pornografía deepfake; mientras que en el año que acaba de concluir esta cifra aumentó a 21 mil 019.
Asimismo apunta que aquellos que trabajan en la industria del entretenimiento representan el 94 por ciento de las personas que aparecen en este tipo de material. Por otra parte, se destaca que las mujeres son las más vulnerables con un 99 por ciento de representación, en tanto que el 1 por ciento corresponde al género masculino.
Otras figuras públicas que han denunciado la creación de material pornográfico con IA han sido Scarlett Johansson, quien ha exigido en diversas ocasiones que la Ley ponga un alto a este tipo de contenido; la cantante española Rosalía, y hasta la influencer veracruzana Yeri Cruz Varela, mejor conocida como Yeri Mua, quien declaró sentirse "muy expuesta" con las imágenes alteradas que se viralizaron hace poco; por mencionar algunas.
"Intentar protegerte de internet y su depravación es básicamente una causa perdida, mayoritariamente", declaró Johansson en una entrevista cedida al Washington Post.
Esta problemática no es exclusiva de las figuras públicas. Varias mujeres han denunciado en redes sociales haber sido víctimas del uso vil de este tipo de tecnología.
En México, por ejemplo, alumnas de la carrera de Mercadotecnia Digital del Instituto Politécnico Nacional denunciaron en octubre del 2023 que su compañero Diego “N”, actualmente detenido, tenía en su posesión un iPad que contenía más de cien mil fotografías y, 20 mil videos y compilaciones de fotografías reales y alteradas con Inteligencia Artificial (IA), las cuáles ofertaba y vendía como contenido pornográfico a otros estudiantes a través de grupos de Telegram.
La activista Olimpia Coral Melo, impulsora de la Ley Olimpia y defensora de espacios digitales libres de violencia para mujeres y niñas, explicó en entrevista para SinEmbargo que pese a que la IA es una nueva herramienta para manipular imágenes con fines de explotación sexual, ésta no había sido la única “insinuación de material manipulado que habíamos tenido”.
“Nosotras desde un principio, desde el primer producto de reformas que entregamos a los Estados, hablamos de varios verbos rectores, no sólo de la difusión sino de la producción, de la compilación, del reenvío e incluso de la comercialización. ¿De qué tipo de contenido? Difusión, producción, almacenamiento, compilación y reenvío de contenido real o alterado, de carácter sexual e íntimo [...] Hoy es la Inteligencia Artificial, pero mañana será otra herramienta", expresó.
De acuerdo con el Informe de Violencia Digital publicado en diciembre del 2022 por el Frente Nacional para la Sororidad, 95 de cada 100 víctimas de violencia digital son mujeres; mientras que 8 de cada 10 personas agresoras son hombres. Por otra parte, los datos apuntan que las víctimas se encuentran en un rango de edad entre 18 y 30 años, de las cuales la mayoría son estudiantes universitarias.
En un escenario más turbio, el pasado mes de diciembre, investigadores, citados por la agencia de noticias estadounidense The Associated Press, advirtieron sobre la explosión del material de abuso sexual infantil producido con IA generativa que usa representaciones de víctimas reales o personajes virtuales. En junio, el FBI advirtió que seguía recibiendo reportes de víctimas, tanto menores como adultos, cuyas fotografías o videos eran usados para crear contenido explícito que era compartido en línea.
En Estados Unidos varios estados han aprobado leyes para intentar combatir el problema, pero su alcance ha sido variado. Texas, Minnesota y Nueva York aprobaron una ley en 2023 que criminaliza la pornografía deepfake no consensuada, sumándose a Virginia, Georgia y Hawái que ya contaban con leyes aprobadas. Algunos otros, como California e Illinois, sólo han otorgado a las víctimas la posibilidad de demandar a los agresores por daños y perjuicios en una corte civil, algo que también permiten Nueva York y Minnesota.
En tanto, en México la Ley Olimpia, válida en 29 entidades de la República, "contempla sanciones de tres a seis años de prisión para quienes realicen estas acciones y multas que van de 500 a 1,000 Unidades de Medida y Actualización (UMA)".
El estudio 2023 Estado de Deepfakes: Realidades, amenazas e impacto concluye que los avances en la tecnología deepfake se deben a la creciente accesibilidad de herramientas, software y comunidades en línea, a diferencia de los primeros días de deepfakes, en donde crear manipulaciones convincentes requería experiencia técnica.
- Con información de AP