El uso de la inteligencia artificial para crear y difundir imágenes sexuales de mujeres sin su consentimiento es una situación que ha empezado a generar preocupación y pone en evidencia que los algoritmos y la tecnología se están enseñando desde una perspectiva patriarcal y que además no hay una regulación completa para proteger a las víctimas, indicaron expertas en el tema.
Ciudad de México, 17 de mayo (SinEmbargo). El uso de la Inteligencia Artificial (IA) para crear y difundir imágenes sexuales de mujeres sin su consentimiento es una situación que ha empezado a generar preocupación y pone en evidencia que los algoritmos y la tecnología se están enseñando desde una perspectiva patriarcal, indicaron expertas en el tema.
En días recientes, trascendió en redes sociales la denuncia de una joven en TikTok que fue víctima de ciberacoso. Ella señaló que un desconocido utilizó inteligencia artificial (IA) para crear fotos de ella desnuda.
El video de la usuaria se volvió viral luego de que narró como utilizaron aplicaciones o tecnología de inteligencia artificial para crear fotos desnudas de ella a partir de imágenes que había publicado en redes, donde aparecía completamente vestida. Posteriormente, según detalló la joven, desde una cuenta misteriosa de Instagram le enviaron las imágenes para extorsionarla y luego esas fotografías fueron difundidas por varios usuarios.
La activista Olimpia Coral Melo destacó que la violencia digital no es un fenómeno aislado del resto de violencias observables en otros ámbitos, ya que afirmó que "lo virtual es real".
En tanto, Grecia Macías, integrante de la Red de Defensa de los Derechos Digitales (R3D), señaló en entrevista con SinEmbargo que la creación de contenido sexual no consensuado mediante sistemas robotizados no es algo nuevo, pues anteriormente se utilizaba software de edición de imágenes como Photoshop o animaciones.
La experta señaló que el problema no radica en sí en la Inteligencia Artificial, sino en el hecho de que los sistemas automatizados son controlados por personas que replican sesgos y prejuicios.
"La mayoría de las personas que crean este tipo de sistemas son hombres, lo que puede llevar a sesgos patriarcales. Además, surgen preguntas sobre de dónde se obtienen las fotos para entrenar los algoritmos y si las personas dieron su consentimiento", indicó Macías.
Por su parte, Olimpia Coral destacó que el sesgo de género no es exclusivo de la Inteligencia Artificial, sino que se extiende a todos los sectores de la tecnología, donde también faltan oportunidades para las mujeres.
"Sí, podemos observar cómo se refleja un sesgo tecnológico en la condición de vida de las mujeres, la brecha de género en el acceso y uso de la tecnología, así como la falta de oportunidades en el campo de la educación", añadió.
Y agregó: "¡Eso significa que tenemos un algoritmo patriarcal, sí señoras y señores! Un algoritmo patriarcal no se trata solo de que las 10 empresas más importantes de desarrollo de inteligencia artificial en el mundo estén lideradas únicamente por hombres y solo una por mujeres. Tampoco se trata solo de la inclusión de las mujeres en el desarrollo de Inteligencia Artificial. Más bien, se trata de un constructo que se extiende al espacio digital y de cómo percibimos la tecnología desde una mentalidad..."
Según la activista, solo el 18 por ciento de las matrículas en carreras relacionadas con tecnología son mujeres, mientras que el resto son hombres. Esto implica que existe un sesgo en la educación digital que afecta directamente a las mujeres en todos los aspectos.
"Es importante reconocer cómo estos sesgos y desigualdades de género impactan en el ámbito tecnológico y trabajar para superarlos", concluyó.
"SE VIOLA DERECHO A LA INTIMIDAD"
La creación de imágenes sexuales falsas sin el consentimiento de las personas involucradas es una violación de los derechos de intimidad y puede considerarse una forma de agresión sexual y violencia digital, según las especialistas.
"La creación de este tipo de contenido viola los derechos de intimidad y constituye una forma de violencia digital", señaló Grecia Macias, quien subrayó que, aunque esta práctica ha adquirido mayor relevancia recientemente, se ha estado documentando desde hace varios años.
La abogada experta en derechos digitales indicó que estas prácticas también están relacionadas con la privacidad de las personas, ya que se desconoce el origen de las fotos utilizadas para entrenar los algoritmos.
El informe "Violencia Digital: un estudio de los perfiles de agresores y sobrevivientes de violencia sexual digital", realizado por el Frente Nacional para la Sororidad defensorasdigitales.org, indica que la violencia digital es, en realidad, la misma violencia ejercida en cualquier otro entorno, pero llevada a las interacciones que realizamos a través de los espacios virtuales y digitales.
Por lo tanto, no se puede abordar sin tener en cuenta las dinámicas sociales que generan violencia en cualquier otro ámbito. Este es el caso de sistemas de opresión que sustentan desigualdades, discriminaciones y violencias basadas en el género, que también se entrecruzan con desigualdades raciales, de origen étnico, socioeconómicas, educativas, por edad, discapacidad, entre muchas otras.
El estudio también muestra que desde mayo de 2019 hasta diciembre de 2021, la organización ha recibido al menos mil 705 denuncias y casos de diferentes tipos de violencia digital, categorizados como difamación virtual, ciberpersecución, sextorsión y difusión de contenido íntimo.
De las denuncias totales, 376 fueron recibidas por la organización en 2019, 953 en 2020 y 376 en 2021. Del total de casos, la mayoría se registraron en la Ciudad de México con 291, seguido por el Estado de México con 185. En tercer lugar se encuentra Veracruz con 70 casos, seguido de Puebla con 65, Oaxaca con 44, Jalisco con 43, Coahuila con 41 y Nuevo León con 40. Querétaro reportó 25 casos, Baja California 23, Baja California Sur 22, y Tamaulipas 20. El resto de los casos se distribuyen entre las demás entidades federativas, las cuales tuvieron menos de 20 casos cada una.
El estudio también revela que, de las víctimas, al menos 1,625 eran mujeres y 47 hombres. Al menos 199 de las víctimas eran menores de 18 años, 809 tenían entre 18 y 30 años al momento de la agresión, y 192 eran mayores de 30 años.
Asimismo, detalla que en cuanto a los agresores, la mayoría de los casos (320), es decir, el 18.7 por ciento, eran exparejas de las víctimas al momento de la agresión; 118 personas eran desconocidas o no identificadas, 64 eran conocidos, 38 compañeros/as de la escuela, 31 presuntos amigos, 28 pareja o expareja de una persona con contenido agresor, 22 pareja de la víctima al momento de la agresión, 16 compañeros/as de trabajo, tres superiores en el trabajo, tres familiares y un profesor de la escuela donde estudiaba la víctima.
SIN REGULACIÓN EFECTIVA
Actualmente, no existe una regulación completa que proteja totalmente a las mujeres de cualquier manifestación de violencia que pueda surgir en la Inteligencia Artificial o en las nuevas tecnologías, ni de la alteración de información.
Olimpia Coral Melo Cruz señaló que sería irresponsabilidad afirmar que ya existe una reglamentación completa para proteger a las personas, especialmente a las mujeres, de manifestaciones de violencia en el plano virtual.
De acuerdo con la activista, incluso los propietarios de las inteligencias artificiales desconocen las condiciones necesarias para regular estos casos, ya que señaló que apenas se están discutiendo legislaciones en todo el mundo, incluyendo Estados Unidos y Europa, para establecer regulaciones jurídicas adecuadas.
Al respecto, resaltó que, por un lado, están las empresas que, en su mayoría, buscan evitar ser reguladas por el Estado y prefieren la autorregulación. Por otro lado, está la necesidad de normar este ámbito debido a los graves casos de violencia digital que afectan especialmente a las mujeres latinas, incluyendo aquellas que son ciudadanas estadounidenses.
La activista destacó que en la Ley Olimpia se logró que en el Código Penal Federal se reconozcan los contenidos reales alterados o manipulados, lo cual podría aplicarse a aquellos que difundan imágenes reales alteradas o manipuladas. Incluso, dijo, en algunas legislaciones estatales (donde está la Ley Olimpia) se menciona lo de "reales o alterados".
"Estos tipos de verbos y adjetivos nos ayudan en la descripción del delito y la violación a la intimidad sexual, y podrían considerarse en el contexto de la utilización de imágenes con Inteligencia Artificial o la divulgación de información íntima para poder ser sancionados", destacó.
Sin embargo, la activista resaltó que el gran desafío sigue siendo encontrar a quién consignar o perseguir.
"El gran desafío radica en a quién se consignará y perseguirá, dado los 2.5 millones de mercados de explotación sexual en toda América Latina. Además, las mujeres latinas o de ascendencia latina tienen un 200 por ciento más de probabilidades de experimentar violencia sexual digital. La impunidad en estos casos es alarmante, y al menos el 65 por ciento de los casos denunciados por la Ley Olimpia no reciben la atención ni la información necesaria por parte de las empresas responsables", dijo.
Por su parte, Pablo Pruneda Gross, coordinador de la línea de investigación "Derecho e Inteligencia Artificial" del Instituto de Investigaciones Jurídicas (IIJ) de la UNAM, señaló que, en aras de ganar la carrera tecnológica, los formuladores y creadores de la Inteligencia Artificial toman atajos y cometen errores, por lo que destacó la necesidad de contar con un regulador.
"¿Quién debe regular y quién debe intervenir? ¿Quién va a emitir una ley para una tecnología que es transfronteriza? ¿Qué soberanía aplica?", cuestionó.
Durante el Seminario "Derecho digital y tecnologías disruptivas", Pruneda Gross dijo que algunos riesgos de no regular o legislar las prácticas de la IA generativa son que "puede adherirse a ciertos valores e intereses humanos, además de generar contenido escrito, imágenes y videos falsos o maliciosos que podrían utilizarse en fraudes o suplantación de identidad. También puede influir en la polarización de la democracia, afectar la protección de la imagen y la intimidad, y representar un riesgo en la interacción con menores de edad".
A pesar de la falta de regulaciones claras sobre este tema, Grecia Macías mencionó que existen diversas legislaciones relacionadas con la protección de datos personales, la violencia digital y las obligaciones de las empresas para proteger y asumir responsabilidad por las violaciones de los derechos humanos.
En cuanto a la detección y eliminación de estas imágenes falsas en Internet, la activista mencionó que existen empresas y plataformas como Google y Facebook que cuentan con sistemas de reporte para denunciar estas prácticas y retirar las imágenes falsas. Sin embargo, aún existe un problema en la detección de estas imágenes generadas por algoritmos, ya que no todas las plataformas tienen mecanismos para prevenir esto.
La especialista señaló que, si bien en algunos estados existe legislación que también incluye la creación o simulación de imágenes, lamentablemente, la regulación implementada no cumplió con las expectativas.
"En cuanto a la creación de este tipo penal, fue muy deficiente, dejó mucho que desear, y fue objeto de grandes críticas por parte de varias organizaciones de derechos humanos y derechos digitales, ya que se promovió sin un estudio serio y otros análisis para obtener la mejor legislación posible".
La experta resaltó que la difusión no consentida de imágenes sexuales es un atentado contra la intimidad y el bienestar de las personas, y es responsabilidad de los gobiernos y las empresas trabajar en conjunto para establecer políticas públicas sólidas, implementar regulaciones más estrictas y garantizar la protección de datos personales.
Asimismo, dijo que es importante fomentar una educación integral que promueva el respeto y la conciencia sobre el consentimiento en el ámbito digital, y sobre todo, evitar la criminalización y estigmatización de las personas que deseen ejercer su libertad sexual.
"Es muy difícil pedirles a las personas que se protejan de algo que ni siquiera saben que les puede estar pasando, ¿sabes? Entonces, ¿cómo se previene? Es un tema mucho más estructural, es un tema con gobiernos y empresas, es que hagan su trabajo en políticas públicas, hagan su trabajo en términos de regulación más estricta, aplicación de las leyes que tenemos en materia de Protección de Datos Personales para que esto no pase. No solo esto, sino también en el lado de enseñarle a las personas que no está bien hacer imágenes sexuales de otra persona sin su consentimiento”.