#MetaDatos: El Presidente Andrés Manuel López Obrador abordó una vez más el tema de los bots, esta vez pidió a Twitter que no solo admita que hay cuentas falsas que envenenan las conversaciones, sino que transparente quiénes están detrás de las campañas.
Ciudad de México, 25 de mayo (SinEmbargo).- Este lunes, el Presidente Andrés Manuel López Obrador volvió a pedir a las compañías de redes sociodigitales transparencia sobre el empleo de bots nocivos en campañas promovidas en sus plataformas. Esta vez solicitó a Twitter que informe quiénes pagan por estas campañas, pues según mencionó, la compañía ya admitió que hay usuarios falsos que alteran la comunicación en la plataforma.
Durante la conferencia mañanera, López Obrador volvió a mencionar que buscará que las compañías de redes sociales transparenten quiénes pagan por las cuentas automatizadas conocidas como bots que, según indicó, son parte de “campañas pagadas” que tienen como fin insultar y difamar en las redes sociales.
“Ya Twitter aceptó de que sí hay bots, lo aceptó, ahora hay que ver cómo se pueden controlar, cuánto se gasta en eso, quién paga, quién pompó, quién está financiando todas esas campañas y cómo Twitter puede, sin afectar las libertades, transparentar quiénes son los que contratan este tipo de robots o este sistema alterado de comunicación, adulterado de comunicación, porque no es la comunicación que se da y que es legítima, debates entre personas reales en las redes, sino campañas pagadas que se desatan para insultar, para agredir, para difamar”, señaló.
Esta sería la tercera ocasión en el mes de mayo en que el Presidente pide transparencia a las empresas de redes sociales en relación a este tema, pero hasta el momento, Facebook guarda silencio, en tanto que la empresa fundada por Jack Dorsey ha publicado un texto en el que describe las cuentas que no son bots y que han sido mal categorizadas en los debates sobre el tema, pero no ha dado más detalles sobre la manera en que operan en la actualidad los bots en su plataforma.
¿QUÉ DICE TWITTER DE LOS BOTS?
El 20 de mayo, Twitter anunció que cambiaría la configuración de su plataforma para que los usuarios puedan en un futuro controlar quiénes pueden responder a los diálogos que inician. Más tarde, la empresa tecnológica admitió en un comunicado que desde hace años los bots han sido un tema de preocupación para la compañía y que ya han realizado acciones, sobre todo en donde las cuentas automatizadas contribuyen a prácticas de manipulación de las conversaciones.
Sin embargo, Twitter sostuvo que el tema ha sido malinterpretado, y que los bots han sido analizados e investigados de manera errónea y en muchos casos han sido clasificados bajo esta etiqueta cuentas de usuario de carácter legítimo.
Según la compañía desde hace varios años las personas han catalogado como bots a cuentas que no presentan un perfil completo, es decir, aquellas que utilizan nombres alfanuméricos y no incluyen foto de perfil, entre otros atributos, que según Twitter han sido características utilizadas de manera errónea para clasificar a una cuenta de usuario como falso.
“Las personas a menudo catalogan como bots desde una actividad automatizada, hasta personas que prefieren el anonimato por razones personales o de seguridad, o aquellas que no presentan una foto porque tienen fuertes preocupaciones sobre su privacidad. El término se utiliza para caracterizar erróneamente las cuentas con nombres de usuario numéricos que se generan automáticamente cuando el nombre de usuario que se quiere tomar está ocupado, y más preocupante, como una herramienta para aquellos en posiciones de poder político para empañar las opiniones de aquellos que pueden estar en desacuerdo con ellos o con la opinión pública en línea que no es favorable”, afirmó Twitter.
PLATAFORMAS CON ANÁLISIS LIMITADOS
Twitter también refirió que hay servicios comerciales que analizan datos que la compañía ha hecho públicos a través de la API (Interfaz de programación de aplicaciones, por sus siglas en inglés) de la plataforma y que son utilizados para realizar investigaciones sobre bots pero que presentan problemas metodológicos.
Según la red social de microblogging, los informes que utilizan estas herramientas carecen de rigor metodológico pues pocas veces son analizados por pares, algunas veces no resisten el escrutinio, y en algunos casos han contribuido a generar confusión.
“También hay muchos servicios comerciales que pretenden ofrecer información sobre los bots y su actividad en línea, y con frecuencia su enfoque está completamente en Twitter debido a los datos gratuitos que proporcionamos a través de nuestras API públicas. Desafortunadamente, esta investigación rara vez es revisada por pares y a menudo no resiste el escrutinio, lo que confunde aún más la comprensión del público de lo que realmente está sucediendo”, expresó la compañía.
En lo que respecta a estos servicios, la plataforma se refirió en concreto al empleo de herramientas como Botometer, desarrollada por la Universidad de Indiana y Bot Sentinel que ofrecen interfases para analizar cuentas a partir de aspectos como “el nombre de la cuenta, el nivel de interacción en el servicio, la ubicación en la biografía, los hashtags utilizados”, entre otros atributos. Sin embargo, Twitter consideró que este tipo de análisis es limitado para determinar si una cuenta es bot en su plataforma.
Según Twitter, para determinar que una cuenta es falsa el análisis de los aspectos humanos es insuficiente para categorizarlo como tal ya que muchas veces un usuario puede decidir no hacer pública su imagen, o dar su nombre real.
“Incluso si todos estos detalles públicos se ponen en un modelo de aprendizaje automático para tratar de predecir probabilísticamente si una cuenta es un bot, cuando se basan en el análisis humano de la información pública de la cuenta, ese proceso contiene sesgos, desde el principio”, afirmó la compañía.
La empresa dijo también que ve riesgos en que se analicen de esta manera las cuentas de sus usuarios cuando se tiene sospecha de que son falsos, pues contribuyen a generar juicios binarios con “Potencial para envenenar el discurso público”.
La compañía no negó que existan cuentas artificiales que son empleadas para manipular las conversaciones en la plataforma, pero no ofreció detalles al respecto, más allá de indicar que involucran operaciones que “han evolucionado”.
“Eso no significa que somos perfectos. Por supuesto que no. Es solo que la amenaza ha evolucionado y la narrativa sobre lo que realmente está sucediendo está cada vez más detrás de la curva”, concluyó la compañía.