En octubre del año pasado, coincidiendo con la campaña electoral y la celebración de comicios presidenciales, Facebook eliminó 6.3 millones de contenidos de acoso y más de 26 millones de mensajes de odio. Para realizar estas tareas, la red social usa equipos formados por personas cuyo trabajo es decidir que publicación es sospechosa y posteriormente la información es revisada por máquinas de inteligencia artificial.
San Francisco (EU), 12 de febrero (EFE).- La red social Facebook presentó este jueves su informe trimestral de cumplimiento de los estándares de comunidad correspondiente a finales de 2020, un periodo particularmente tenso en EU y en el que destacaron el notable aumento de la supresión de mensajes de odio y acoso.
Entre octubre y diciembre del año pasado, coincidiendo con la campaña electoral, la celebración de los comicios presidenciales y los varios días que tardaron a conocerse los resultados de la votación en EU, Facebook eliminó 6.3 millones de contenidos de acoso y 26.9 millones de mensajes de odio.
La primera cifra representa casi el doble de los 3.5 millones de contenidos de acoso eliminados en el trimestre anterior, y la segunda supone un incremento sustancial, al haber pasado de los 22.1 millones a los 26.9.
Community Standards Enforcement Report, Fourth Quarter 2020 https://t.co/qPCABTOIZP
— Facebook Newsroom (@fbnewsroom) February 11, 2021
Aunque la empresa de Menlo Park (California, EU) no detalló a qué eventos concretos correspondieron las violaciones de sus políticas comunitarias, estas coincidieron en el tiempo con unos meses de extrema tensión política en el país, que derivó en enero en el asalto al Capitolio por parte de cientos de personas, algunas de ellas armadas, que dejó cinco muertos, entre ellos un policía.
Facebook también informó de que en el mismo periodo suprimió 6.4 millones de mensajes considerados de «odio organizado», es decir, que estaban vinculados a organizaciones peligrosas que promueven una agenda violenta contra otros grupos.
Este último segmento también experimentó un crecimiento significativo, al pasar de los cuatro millones a los 6.4.
En el caso de Instagram, propiedad de la compañía, la gran subida se produjo en la eliminación de casos de acoso, que pasó de 2.6 a 5 millones, pero no en la de discursos de odio, que apenas subió de los 6.5 a los 6.6 millones.
AI gets better every day. Here’s what that means for stopping hate speech. https://t.co/Rkax6pMRsu
— Facebook Newsroom (@fbnewsroom) February 11, 2021
Para llevar a cabo sus tareas de moderación y eliminación de contenidos, Facebook se sirve de una mezcla de sistemas automatizados mediante inteligencia artificial y de equipos humanos formados por personas cuyo trabajo es revisar y decidir acerca de los contenidos sospechosos previamente identificados por las máquinas.
Las redes sociales llevan incrementando paulatinamente desde hace años sus esfuerzos de moderación de los contenidos que los usuarios comparten, una práctica que les ha valido numerosas críticas -especialmente por parte de sectores conservadores que les acusan de tener un sesgo progresista- y que ha abierto un intenso debate sobre la libertad de expresión en internet.
El miércoles, en una entrevista en la cadena CNBC, el consejero financiero de Twitter, Ned Segal, aseguró que la empresa jamás permitirá reabrir su cuenta al expresidente de EU Donald Trump, que fue cerrada permanentemente después del ataque al Capitolio el 6 de enero de este año.
Facebook e Instagram también mantienen cerradas las cuentas del exmandatario.