Meta anuncia que Facebook e Instagram deberán indicar si anuncios políticos usan IA

08/11/2023 - 10:08 pm

Meta Platforms Inc. y otras plataformas tecnológicas han sido acusadas de no hacer lo suficiente para encarar el problema de generación de Inteligencia Artificial.

Por David Klepper

Washington, 8 de noviembre (AP).— Facebook e Instagram requerirán que todos los anuncios políticos difundidos en sus plataformas divulguen si fueron creados con Inteligencia Artificial, anunció el miércoles su compañía matriz, Meta.

Bajo la nueva política, los avisos sobre el uso de Inteligencia Artificial aparecerán en la pantalla cuando el usuario haga clic en uno de los anuncios. La norma entrará en vigor el 1 de enero, y será aplicada a nivel internacional.

Microsoft dio a conocer el martes sus propias iniciativas para el año electoral, incluida una herramienta que permitirá a las campañas insertar una marca de agua digital en sus anuncios. Estas marcas de agua están destinadas a ayudar a los votantes a saber quién creó los anuncios y, al mismo tiempo, garantizar que otros no puedan alterar digitalmente la publicidad sin dejar evidencia.

El advenimiento de la Inteligencia Artificial ha hecho más fácil que nunca generar sonidos, imágenes y video de apariencia genuina. En manos mal intencionadas, ello podría derivar en videos falsos de un candidato o imágenes preocupantes de fraude electoral o violencia en centros de votación. Combinados con los algoritmos de las redes sociales, tales contenidos podrían engañar o confundir a votantes a una escala nunca vista.

El logo de Meta, la compañía matriz de Facebook, se ve en la sede de la empresa en Menlo Park, California, el 28 de octubre de 2021. Foto: Tony Avelar, AP

Meta Platforms Inc. y otras plataformas tecnológicas han sido acusadas de no hacer lo suficiente para encarar el problema. El anuncio del miércoles —justo el día en que hay una audiencia sobre el tema en el Congreso de Estados Unidos— difícilmente despejará los temores.

Mientras las autoridades europeas elaboran estrictas regulaciones sobre el uso de la Inteligencia Artificial, se está agotando el tiempo para que los legisladores estadounidenses hagan algo similar antes de las elecciones de 2024.

Hace pocos meses, la Comisión Federal Electoral de Estados Unidos inició un proceso para regular los deepfakes creados por Inteligencia Artificial antes de las elecciones. La administración del Presidente Joe Biden emitió la semana pasada una orden ejecutiva para alentar el uso responsable de la Inteligencia Artificial que, entre otras condiciones, le requerirá a las empresas compartir con el gobierno datos de seguridad y otros tipos de información sobre sus programas.

Estados Unidos no es el único país que tendrá elecciones importantes el año entrante. Lo mismo ocurrirá en México, Sudáfrica, Ucrania, Taiwán y Pakistán, entre otros.

El logo de OpenAI en un celular frente a una pantalla de computadora que exhibe un texto generado por ChatGPT, el martes 21 de marzo de 2023 en Boston. Foto: Michael Dwyer, AP

Los anuncios políticos generados por la IA ya han aparecido en Estados Unidos. En abril, el Comité Nacional Republicano difundió un espacio generado totalmente con Inteligencia Artificial que supuestamente muestra el futuro del país si Biden es reelegido. Incluía fotos falsas —pero de apariencia realista— de tiendas cerradas, militares patrullando las calles y olas de inmigrantes sembrando el pánico. El anuncio sí traía un aviso de que contenía Inteligencia Artificial.

en Sinembargo al Aire

Opinión

Opinión en video