La organización Media Matters for America encontró seis patrones frecuentes a través de los cuales TikTok lleva a mostrar contenido y ofrecer el seguimiento de una o varias de las cuentas relacionadas con esos grupos. Que esto ocurra “ni siquiera requiere que se les busque”, asegura.
MADRID, 29 Mar. (Portaltic/EP).– El algoritmo de recomendación de cuentas de la red social TikTok favorece la aparición de contenidos e información relacionada con cuentas de extrema derecha en Estados Unidos, incluidas organizaciones relacionadas con la insurrección en el Capitolio del pasado 6 de enero.
El contenido de las organizaciones de extrema derecha Three Percenter, QAnon, Patriot Party y Oath Keeper está siendo favorecido por el algoritmo de TikTok, según una investigación de la organización de estudios sobre los medios Media Matters for America. En algunos de ellos se incluyen otros movimientos que participaron en el asalto al Capitolio el pasado 6 de enero en Washington D.C.
TikTok is prompting users to follow far-right extremist accounts. Three Percenter, QAnon, Patriot Party, and Oath Keeper accounts are being recommended by TikTok’s algorithm https://t.co/iAPcrQ2SHT
— Taylor Lorenz (@TaylorLorenz) March 27, 2021
El contenido de estas cuatro organizaciones está prohibido por TikTok. Sin embargo, la investigación realizada en Estados Unidos ha constatado que si un usuario sigue las recomendaciones de cuentas de la red, finalmente encuentra una de estas organizaciones y que, si decide seguir a alguna de ellas, esto le llevará a recibir sugerencias de seguimiento del resto de cuentas de extrema derecha.
Así, la organización ha encontrado seis patrones frecuentes a través de los cuales TikTok lleva a mostrar contenido y ofrecer el seguimiento de una o varias de las cuentas. Que esto ocurra “ni siquiera requiere que se les busque”, asegura media Matters for America.
El proceso de aparición comienza con la pestaña ‘Para ti’, donde la red social muestra contenido recomendado para el usuario basado en su algoritmo, partiendo de las cuentas que sigue y el contenido visualizado anteriormente. Allí aparece contenido de una o varias de las organizaciones que, si el usuario decide seguir, llevará a la recomendación de las siguientes.
La conclusión de la investigación es que “los usuarios pueden ser fácilmente expuestos a cuentas y contenido de extremistas de ultraderecha” y recibir cada vez más contenido de ellos.