Una vez identificado el contenido sospechoso, los verificadores analizaban su veracidad mediante investigaciones propias, contrastando la información y usando estándares periodísticos.
Por Javier Cantón Correa
Reino Unido, 13 de enero (TheConversation).- Meta, empresa matriz de WhatsApp, Facebook e Instagram, ha decidido poner fin a su programa de colaboración con fact-checkers y verificadores de información. En su lugar, va a implementar un sistema de “notas de la comunidad” similar al de X.
Mark Zuckerberg, CEO de Meta, anunciaba esta medida en un comunicado en Facebook como defensa de la libertad de expresión y corrección de errores que, supuestamente, provoca la moderación de contenidos.
¿La desaparición de este sistema supone una puerta abierta a contenidos peligrosos para los usuarios de las aplicaciones de la compañía?
Cómo funcionaba el programa de verificación de datos de Meta
El programa de verificación de datos de Meta, iniciado en 2016, funcionaba en colaboración con organizaciones independientes certificadas por la International Fact-Checking Network (IFCN), esto es, adscritas a su Código de Principios.
🔴Meta deja de colaborar con organizaciones de verificación de datos. Pero, ¿qué supone esto?
📽️Quizás habréis visto ya este vídeo de Mark Zuckerberg en el que anuncia que Facebook e Instagram dejarán de etiquetar contenidos erróneos en EEUU. Abro 🧵. pic.twitter.com/bk5NOVkP5X
— Rocío Savas (@rociosavas) January 8, 2025
Estas entidades revisaban, a petición de Meta, contenido potencialmente falso o engañoso en las plataformas de la empresa, incluyendo publicaciones orgánicas, promocionadas, vídeos, imágenes y texto.
Una vez identificado el contenido sospechoso, los verificadores analizaban su veracidad mediante investigaciones propias, contrastando la información y usando estándares periodísticos.
Las publicaciones eran etiquetadas según su grado de falsedad. Utilizaban categorías como “Falso”, “Parcialmente falso”, “Alterado” o “Falta contexto”. La clasificación permitía a Meta reducir su distribución y añadir advertencias para informar a los usuarios.
Esto no era censura
Este sistema hacía que los verificadores externos, siguiendo los estándares de la IFCN, no censuraran directamente el contenido, sino que lo etiquetaran según su veracidad.
Mark Zuckerberg ha anunciado el fin de la verificación de datos en Meta, prometiendo una "vuelta a la libertad de expresión". 🚀
En este hilo, analizamos:
1️⃣ ¿Qué dijo Zuckerberg?
2️⃣ ¿Por qué tomó esta decisión?
3️⃣ ¿Qué impacto tendrá en usuarios y creadores?
¡Sigue leyendo! ⬇️ pic.twitter.com/gFUogF4uUr— Influencers EC - 🚀 Marketing Digital en Ecuador (@InfluencersECU) January 8, 2025
La decisión final sobre la eliminación de una publicación recaía en Meta, que actuaba conforme a sus políticas comunitarias.
El trabajo de los verificadores externos en el sistema de Meta demostró ser efectivo para combatir la desinformación, reduciendo significativamente su difusión en páginas de Facebook y generando un impacto positivo en la calidad de la esfera pública. La eficacia del sistema ha sido respaldada en investigaciones publicadas en Science y Nature.
Los verificadores se adherían a principios de neutralidad, transparencia y metodología rigurosa, garantizando un proceso imparcial y transparente.
Así, las afirmaciones de Zuckerberg en su comunicado acusando a los verificadores de “censores” (muy en la línea de la narrativa propia de los desinformadores) no tienen ninguna coherencia.
Mark Zuckerberg admite que X es mejor para verificar los hechos con notas de la comunidad que lo que Meta tenía implementado.
Después de tantos años reconoció la realidad. pic.twitter.com/qq3quJYPUI
— Jefe Hispano (@JefeHispano) January 10, 2025
¿Qué va a ocurrir a partir de ahora?
Además de la colaboración con verificadores externos, Meta emplea sistemas automatizados para detectar contenido que infringe sus políticas, como desnudos, violencia gráfica o discursos de odio.
Estos sistemas utilizan técnicas de IA para analizar y filtrar automáticamente contenido prohibido por sus normas comunitarias, como productos o servicios ilegales, drogas, tabaco, armas de fuego, contenido sexualmente sugerente, violencia explícita y discursos de odio (también la información errónea).
No obstante, la detección de desinformación y la identificación de contenido explícito son procesos distintos que requieren tecnologías especializadas para cada caso. Detectar y censurar, por ejemplo, pezones femeninos, es bastante más fácil tecnológicamente que identificar una media verdad o una descontextualización.
La eliminación del programa de verificadores de Meta afecta a la contención de bulos y desinformación, pero, aunque Mark Zuckerberg no lo ha hecho explícito, se entiende que las restricciones de contenido sexual, violento, etc. se mantendrán vigentes para garantizar un entorno seguro para los usuarios.
El sistema de notas
El sistema de “notas de la comunidad” que se implementará en Meta es similar al usado desde 2023 en X. Aquí no hay verificadores externos, se pide a los propios usuarios que sean ellos los que contextualicen y proporcionen información adicional sobre las publicaciones objeto de escrutinio ante una posible desinformación.
Pero este sistema afronta desafíos que limitan su eficacia. Según expertos en temas altamente polarizados como la política, estos avisos son menos efectivos debido a la falta de consenso entre usuarios de diferentes tendencias ideológicas.
Además, se ha observado que grupos enfrentados utilizan las notas como un campo de batalla, lo que puede desvirtuar su propósito original.
Una investigación realizada por Poynter, que analizó tres mil 637 notas publicadas durante el Día de las Elecciones en Estados Unidos, reveló que solo el 29 por ciento de los tuits verificables recibieron notas útiles. Menos del seis por ciento de las notas en los días previos a la elección alcanzaron un estado de “útil”, y únicamente el 13 por ciento de todos los avisos de usuarios publicados durante ese periodo estaban relacionados con las elecciones.
Es decir, que el modelo de “notas” tuvo un impacto marginal en la calidad de la información electoral. El sistema no puede sustituir el trabajo de los verificadores profesionales (suscritos a estándares internacionales periodísticos), y refleja limitaciones significativas en su capacidad para combatir eficazmente la desinformación.
¿Por qué este cambio de posición?
Hasta ahora, Meta y Zuckerberg han defendido a capa y espada su programa de verificación con terceros, destacando su eficacia en la lucha contra la desinformación. Con este comunicado, el viraje político de la compañía se hace bastante evidente.
La decisión de finalizar este programa coincide con la reelección de Donald Trump como presidente de Estados Unidos, lo que algunos analistas interpretan como un intento de alinearse con la nueva administración, adoptando enfoques similares al de Elon Musk en X.
Esta postura ha generado críticas, ya que podría facilitar la propagación de desinformación y discursos de odio en las plataformas de Meta.
🚨📱Marck Zuckerberg anunció el fin de la censura en Instagram
🗣️”Vamos a restaurar la libertad de expresión en nuestras plataformas, más específicamente vamos a prescindir de los verificadores y lo vamos a sustituir por notas de la comunidad como hace X”. pic.twitter.com/vLxUNRv4bR
— NTF (@NTFxSF) January 7, 2025
El viraje político
Meta ha tomado decisiones que refuerzan esta percepción de alineamiento político. Por ejemplo, en agosto de 2024, la empresa desmanteló CrowdTangle, una herramienta esencial para monitorizar desinformación en Facebook e Instagram. Además, Meta ha incorporado a su consejo de administración a figuras cercanas al entorno de Trump, como Dana White, presidente de Ultimate Fighting Championship (UFC) o el republicano Joe Kaplan.
No olvidemos una motivación mucho más material detrás de esta decisión: la desinformación genera mayor interacción y actividad en las redes sociales, lo que se traduce en más ingresos publicitarios para las plataformas.
Al relajar las medidas contra la desinformación, Meta podría estar buscando incrementar la participación de los usuarios y, por ende, sus beneficios económicos.
La eliminación del anonimato
Ante la creciente preocupación por el protagonismo de los bulos y la desinformación, algunos expertos abogamos por la necesidad de un cambio radical en el uso de redes sociales. Una de las propuestas más contundentes es la eliminación del anonimato en las cuentas. Los usuarios deberían estar obligados a publicar bajo su nombre y apellidos, sin refugiarse en el escudo de seudónimos, práctica que fomenta los insultos, el acoso y la impunidad.
Amo las notas de la comunidad jsjskf pic.twitter.com/0BNsa8X5eG
— L i z b e t h 🐞🇲🇽 (@danielalperezz) December 31, 2024
¿Seguiría un usuario siendo capaz de criticar o insultar tan alegremente a alguien si lo tuviera delante físicamente?
Un cambio de estas características permitiría responsabilizar a las personas de sus actos y palabras en el entorno digital, igual que en la vida analógica.
Esta propuesta necesita también de un marco legal que sancione de manera efectiva la difusión intencionada de desinformación. El marco legislativo español actual no lo penaliza de manera específica, pero existen casos en los que sí ha sido sancionada.
Penalizar y validar socialmente este nivel de responsabilidad sobre nuestras palabras, ejerciendo efectiva y honestamente la tan defendida libertad de expresión, harían mucho más difícil que pudieran llevarse a cabo situaciones tan extremas como las campañas coordinadas de sospechas infundadas sobre el número real de víctimas por la dana en el parking de Bonaire.
“Mark Zuckerberg”:
Porque recientemente anunció que buscará implementar en sus redes sociales una función similar a las Notas de la Comunidad de X/Twitter. pic.twitter.com/LlduRTz6ke— ¿Por qué es Tendencia? (@porktendencia) January 7, 2025
La eliminación del programa de verificación profesional de Meta supone, por tanto, una muy mala noticia para la lucha contra la desinformación que puede provocar, desgraciadamente, aún más polarización.