Antonio Salgado Borge
28/02/2020 - 12:05 am
Deepfakes (falsificaciones profundas)
En esta categoría caen un video de la congresista Nancy Pelosi manipulado para disminuir su velocidad con el fin de dar la apariencia de que la congresista arrastraba sus palabras o se enredaba en ellas. A pesar de lo obvio de este efecto, este video, difundido frecuentemente como “Nancy Pelosi borracha”, tuvo un gran impacto y sido visto millones de veces.
Son una de las amenazas más serias para nuestra democracia y para nuestra confianza en la información que obtenemos en línea. El periódico The Guardian los considera “una respuesta del siglo 21 al photoshopeo” capaz de cambiar el desempeño de mercados financieros, influir en votantes y provocar tensión religiosa”. [1] The New York Times los ha calificado como “una herramienta que puede obnubilar la información para siempre”.[2] Se trata de los deepfakes, una tecnología disponible desde 2017 que consiste en la fabricación de fotos, videos o audios que representan eventos que nunca ocurrieron protagonizados por personas reales.
Los deepfakes son fabricados a través de una forma de inteligencia artificial (IA) llamada deep learning (aprendizaje profundo), y pueden utilizar como input fotografías reales o generadores de caras basados en algoritmos. Aunque por el momento se utilizan principalmente en la industria del porno, los deepfakes más famosos actualmente incluyen a Barack Obama insultando a Donald Trump o a Mark Zuckerberg jactándose de que tiene el control de los datos robados a miles de millones de personas. Si bien
los hay de todas las calidades, con el tiempo la disponibilidad y nivel de precisión de los deepfakes irá aumentando. Y con ello la oportunidad de convertirlos en armas políticas o personales.
Empecemos distinguiendo los alcances de esta tecnología. En realidad, los deepfakes son una continuación de los llamados de shallowfakes (falsificaciones superficiales); normalmente videos sacados de contexto o editados por medio de herramientas primitivas. Los shallowfakes suelen ser burdos o evidentes; pero ello no ha impedido que sean compartidos y creídos por millones de personas.
En esta categoría caen un video de la congresista Nancy Pelosi manipulado para disminuir su velocidad con el fin de dar la apariencia de que arrastraba sus palabras o se enredaba en ellas. A pesar de lo obvio de este efecto, este video, difundido frecuentemente como “Nancy Pelosi borracha”, tuvo un gran impacto y sido visto millones de veces. [3] También cae en esta categoría un collage de fotografías de AMLO saludando y abrazando a mujeres compartido en Facebook por México Libre Playa del Carmen. Este collage fue acompañado del texto “cómo podría estar en contra del acoso si aprovecha su cargo para ejercerlo. Repugnante #AMLOAcosador”. A pesar de lo patético y convenenciero de este intento, algunas personas han llegado a ver en fotos no problemáticas lo que México Libre quiere que vean.
Los shallowfakes son un punto de referencia obligado, pues anuncian tres aspectos relevantes de los deepfakes:
(1) El primero es su alcance. Uno pensaría que publicaciones como los shallowfakes serían fácilmente identificadas y descartadas por la gran mayoría de los cibernautas. Pero, tal como he mencionado arriba, este claramente no ha sido el caso. Lo importante aquí es que si algo tan evidente como un shallowfake puede tener éxito masivo, entonces fotografías, audios o videos cuya falsedad es virtualmente irreconocible para el ser humano necesariamente serán profundamente disruptivos. O, por ponerlo de otra forma, si millones de personas no pueden lidiar con lo obviamente falso, lo indistinguiblemente falso, algo con lo que nunca hemos lidiado hasta ahora, tiene un potencial de alcance mucho más amplio.
(2) El segundo aspecto de los deepfakes que anuncian los shallowfakes es la naturaleza de su uso. El caso del empleo de esta tecnología en la pornografía puede parecer de inicio irrelevante. Sin embargo, éste deja de serlo cuando se considera que 96 por ciento de los deepfakes están relacionados con escenas sexuales [4], y que muchos seres humanos, principalmente mujeres, podrían ver sus rostros asociados con situaciones problemáticas y ser violentadas por ello. No sólo las mujeres famosas están en riesgo. En la medida que la disponibilidad de esta tecnología aumente, su uso para conductas deplorables, como la pornovenganza, se volverá más común.
El primer empleo documentado de deepfakes para fines políticos o electorales ocurrió la semana pasada en la India, cuando un candidato alteró con IA uno de sus videos de campaña. [5] Si bien el uso político de estos contenidos está aún en pañales, la pregunta no es cuándo comenzará a caminar, sino cómo y a qué velocidad. Una vez que esto ocurra, su aceleración es esperable. Videos mostrando conductas heroicas o repugnates -por ejemplo, candidatos salvando o atacando a otras personas-, supuestas declaraciones estelares u ofensivas, audios vergonzosos o comprometedores de rivales, videos sexuales…usted elija. No es difícil ver que el uso político de estos contenidos es inevitable
(3) Finalmente los shallowfakes anuncian que los deepfakes profundizarán la erosión sufrida por la confianza de las personas en la información que se les presenta en internet. Si un video de Sinembargo.mx o de The New York Times parece tan real como un video deepfake compartido, por ejemplo, por México Libre, muchas personas podrían encogerse de hombros y optar por no creer a ninguno.
Esto puede ser utilizado por políticos para evitar ser llamados a cuentas por acciones reales. Cuando salió a la luz un video de Donald Trump haciendo comentarios sexistas y violentos, el entonces candidato republicano simplemente dijo que era “falso”. Así de fácil. Los deepfakes también pueden tener efectos importantes en la concepción que las personas tienen de la democracia. Por ejemplo, 70% de los estadounidenses piensan que las fake news, antes de los deepfakes, han afectado su confianza en la democracia.[6] ¡Si supieran lo que se les viene encima!
¿Qué opciones hay sobre la mesa para enfrentar la inminente irrupción de los deepfakes? Por desgracia, no muchas. Una posibilidad es combatir fuego con fuego y emplear IA para identificar los contenidos alterados por ese mismo medio. Pero esto requeriría regulación seria e inmediata o la voluntad de las principales redes sociales; dos medidas que, por el momento, brillan por su ausencia. Recientemente Facebook ha prohibido los deepfakes, pero nada garantiza que esta medida continuará en un futuro. Y es que esta red sigue aceptando shallowfakes, como el de Nanci Pelosi “borracha”, y tiene la política de que “no todo lo que se publica debe ser cierto”.[7] Esto es, el uso de IA puede ser decisivo para contener a los deepfakes, pero de poco servirá si no es implementa de forma regulada e irrestricta.
Otra posibilidad es apelar al plano individual, adoptando un enfoque que ponga la atención en las fuentes que utilizamos como testimonio al momento de formar y justificar nuestras creencias. De esta forma, una fotografía compartida por fuentes que han demostrado ser confiables, como Sinembargo.mx o en The Guardian, tiene valor epistémico -constituye conocimiento-, mientras que una fotografía publicada por un perfil anónimo de Facebook o Twitter, no lo tiene.
Una desventaja de esta posibilidad es que discrimina a los medios pequeños o que apenas comienzan. Pero quizás el principal problema de este enfoque es que implica navegar en círculos: para evitar confundir deepfakes con registros de eventos reales hay que distinguir entre medios que publican deepfakes y medios que publican registros de eventos reales. Y para ello se requiere trabajar en la formación de herramientas cognitivas necesarias para diferenciar.
Las opciones para enfrentar a los deepfakes mencionadas arriba no son excluyentes; claramente es posible y deseable trabajar en ambas en paralelo. Lo importante es reconocer que los deepfakes han llegado para quedarse, que su impacto será tan profundo como real y que más nos vale tomar este fenómeno muy en serio. Y es que todo parece indicar que, al menos por ahora, estamos muy mal preparados para enfrentar a una amenaza que nunca hemos visto; que no estamos listos para lidiar con la proliferación, en alta definición, de aquello que nunca ha ocurrido.
Facebook: Antonio Salgado Borge
Twitter: @asalgadoborge
Email: [email protected]
[1] https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them
[2] https://www.nytimes.com/2019/11/22/the-weekly/deepfake-joe-rogan.html
[3] https://www.nytimes.com/2019/05/24/us/politics/pelosi-doctored-video.html
[4] https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them
[5] https://www.vice.com/en_in/article/jgedjb/the-first-use-of-deepfakes-in-indian-election-by-bjp
[6] https://www.journalism.org/2019/06/05/many-americans-say-made-up-news-is-a-critical-problem-that-needs-to-be-fixed/
[7] https://www.washingtonpost.com/technology/2020/01/06/facebook-ban-deepfakes-sources-say-new-policy-may-not-cover-controversial-pelosi-video/
Los contenidos, expresiones u opiniones vertidos en este espacio son responsabilidad única de los autores, por lo que SinEmbargo.mx no se hace responsable de los mismos.
más leídas
más leídas
opinión
opinión
22-11-2024
22-11-2024
21-11-2024
21-11-2024
21-11-2024
21-11-2024
20-11-2024
20-11-2024
destacadas
destacadas
Galileo
Galileo