Directivos de Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para anunciar un nuevo marco sobre cómo responder a las deepfakes que son utilizadas para engañar deliberadamente a los votantes.
Por Matt o’brien y Ali swenson
Suiza, 16 de febrero (AP) – Varias empresas tecnológicas muy destacadas firmaron el viernes un pacto para adoptar voluntariamente “precauciones razonables” a fin de impedir que se utilicen herramientas de Inteligencia Artificial para trastornar elecciones democráticas en el mundo.
Directivos de Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para anunciar un nuevo marco sobre cómo responder a las deepfakes —imágenes generadas por Inteligencia Artificial— que son utilizadas para engañar deliberadamente a los votantes. Otras 12 empresas, entre ellas X de Elon Musk, también firmarán el acuerdo.
“Todo el mundo reconoce que ninguna empresa tecnológica, ningún gobierno y ninguna organización de la sociedad civil por sí sola puede afrontar el advenimiento de esta tecnología y su posible uso nefasto”, dijo Nick Clegg, presidente de asuntos globales de Meta —la empresa matriz de Facebook e Instagram— en una entrevista antes de la conferencia.
El acuerdo, en gran medida simbólico, apunta a las imágenes, audio y video cada vez más realistas generados mediante IA “que alteran o falsifican engañosamente la apariencia, voz o acciones de candidatos políticos, funcionarios electorales y otros interesados cruciales en una elección democrática, o que brindan información falsa a los votantes acerca de cuándo, dónde y cómo pueden votar legalmente”.
Las empresas no se comprometen a prohibir o borrar los deepfakes. En lugar de eso, el acuerdo esboza los métodos que usarán para intentar detectar y etiquetar el contenido engañoso generado por IA cuando sea creado o difundido en sus plataformas. Las compañías compartirán entre ellas los mejores métodos y responderán “de manera veloz y proporcional” cuando ese contenido empiece a propagarse.
La vaguedad de los compromisos y la ausencia de requisitos vinculantes probablemente ayudó a atraer a una amplia gama de empresas, pero algunos activistas decepcionados esperaban algo más concreto y firme.
“El lenguaje no es tan fuerte como uno podría haber esperado”, dijo Rachel Orey, directora adjunta sénior del Proyecto Electoral en el Centro de Políticas Bipartidistas, un centro de investigación con sede en Washington, D.C. “Creo que deberíamos dar el crédito donde corresponde, y reconocer que las empresas sí tienen un interés personal de que sus herramientas no sean utilizadas para socavar elecciones libres e imparciales. Dicho esto, se trata de algo voluntario y estaremos atentos a ver si lo cumplen”.
Clegg dijo que cada compañía “tiene, y con razón, su propio conjunto de políticas de contenido”.
“Esto no es intentar imponer una camisa de fuerza a todo el mundo”, comentó. “Y en cualquier caso, nadie en la industria cree que puede hacer frente a un paradigma tecnológico totalmente nuevo haciéndose de la vista gorda e intentando resolver problemas que surgen una y otra vez y encontrando todo lo que cree que podría engañar a alguien”.
Varios dirigentes políticos de Europa y Estados Unidos también se sumaron al anuncio del viernes. La vicepresidenta de la Comisión Europea, Vera Jourova, dijo que si bien un acuerdo de este tipo no puede ser integral, “contiene elementos de gran impacto y muy positivos”. También pidió a sus colegas políticos asumir la responsabilidad de no utilizar las herramientas de IA de forma engañosa, y advirtió de que la desinformación alimentada por la IA podría traer consigo “el fin de la democracia, no sólo en los Estados miembros de la UE”.
El acuerdo alcanzado en la reunión anual de seguridad en la ciudad alemana llega en un momento en que más de 50 países celebrarán elecciones a nivel nacional en 2024. Bangladesh, Taiwán, Pakistán y recientemente Indonesia ya lo hicieron.
Ya ha habido intentos de intervenir en elecciones por medio de contenido generado por IA. Un ejemplo de ello ocurrió cuando llamadas automáticas que imitaban la voz del presidente estadounidense Joe Biden intentaron disuadir a la gente de votar en las elecciones primarias de Nueva Hampshire el mes pasado.
Pocos días antes de las elecciones de Eslovaquia en noviembre, grabaciones de audio generadas por Inteligencia Artificial se hicieron pasar por un candidato que hablaba de planes para subir el precio de la cerveza y amañar las elecciones. Verificadores de datos se apresuraron a identificarlas como falsas mientras se difundían por las redes sociales.
Los políticos también han experimentado con la tecnología, desde el uso de chatbots de IA para comunicarse con los votantes hasta la incorporación de imágenes generadas por IA a los anuncios.
El acuerdo insta a las plataformas a “prestar atención al contexto y, en particular, a salvaguardar la expresión educativa, documental, artística, satírica y política”.
Las empresas se centrarán en la transparencia de sus políticas de cara a los usuarios, y trabajarán para educar al público sobre cómo evitar ser engañado con imágenes falsas generadas por IA.
La mayoría de las compañías ya han dicho que están colocando salvaguardas a sus propias herramientas de inteligencia artificial generativa, capaces de manipular imágenes y sonidos, y que están trabajando para identificar y etiquetar los contenidos generados por IA, de modo que los usuarios de redes sociales sepan si lo que están viendo es real. Pero la mayoría de las soluciones que se han propuesto aún no han sido implementadas y las empresas se han visto presionadas para tomar más medidas.
Esa presión es mayor en Estados Unidos, donde el Congreso aún no ha aprobado leyes que regulen el uso de la IA en la política, dejando que las empresas se autogobiernen en gran medida.
La Comisión Federal de Comunicaciones confirmó recientemente que las grabaciones de voz generadas por IA en las llamadas automáticas eran ilegales, pero eso no incluye las deepfakes de audio cuando circulan en redes sociales o en anuncios de campaña.
Muchas empresas de redes sociales ya cuentan con políticas para disuadir de la publicación de mensajes engañosos sobre procesos electorales, generados por IA o no. Meta señaló que elimina la información falsa sobre “las fechas, lugares, horas y métodos para votar, el empadronamiento o participar en el censo”, así como otras publicaciones falsas destinadas a interferir en la participación cívica de alguien.
Jeff Allen, cofundador del Integrity Institute —un organismo sin fines de lucro que desea fomentar un mejor internet a nivel social— y excientífico de datos de Facebook, comentó que el acuerdo parece un “paso positivo”, pero que le gustaría que las empresas de redes sociales tomaran otras medidas para combatir la desinformación, como crear sistemas de recomendación de contenidos que no den prioridad a la interacción por encima de todo.
Lisa Gilbert, vicepresidenta ejecutiva del grupo de defensa Public Citizen, alegó el viernes que el acuerdo “no es suficiente” y que las empresas de IA deberían “frenar tecnologías” como los generadores hiperrealistas de texto a video “hasta que existan salvaguardas sustanciales y adecuadas que nos ayuden a evitar muchos problemas potenciales”.
Además de las empresas que ayudaron a negociar el acuerdo del viernes, otros signatarios son los desarrolladores de chatbot Anthropic e Inflection AI; la startup de clonación de voz ElevenLabs; el diseñador de chips Arm Holdings; las empresas de seguridad McAfee y TrendMicro; y Stability AI, conocida por crear el generador de imágenes Stable Diffusion.
La ausencia de otro popular generador de imágenes de IA, Midjourney, fue notable. La empresa, con sede en San Francisco, no respondió inmediatamente a una solicitud de comentarios el viernes.
La inclusión de X —que no fue mencionada en un anuncio anterior sobre el acuerdo pendiente— fue una de las sorpresas del acuerdo del viernes. Musk redujo drásticamente los equipos de moderación de contenidos tras hacerse cargo de la ex Twitter y se ha descrito a sí mismo como un “absolutista de la libertad de expresión”.
En un comunicado emitido el viernes, la directora general de X, Linda Yaccarino, dijo que “cada ciudadano y compañía tiene la responsabilidad de asegurar unas elecciones libres e imparciales”.
“X está dedicada a desempeñar su papel, a colaborar con sus homólogos para luchar contra las amenazas de la IA al tiempo que protege la libertad de expresión y maximiza la transparencia”, señaló.