La plataforma de videos busca que su comunidad reflexione sobre el contenido que va a compartir y del que aún no hay confirmación sobre su veracidad. Un anuncio advertirá al respecto.
MADRID, 24 Mar. (Portaltic/EP) - TikTok informará a los usuarios cuando identifique un video con contenido no verificado, con el fin de reducir su distribución obligando a una reflexión sobre si se quiere de verdad compartir dicho contenido.
La plataforma busca que la comunidad reflexione sobre el contenido que va a compartir antes de hacerlo. Para ello, ha introducido una nueva función que mostrará un 'banner' si, durante el proceso de verificación, el contenido del video ha sido revisado pero no validado "de forma concluyente".
Para el proceso de verificación, la compañía colabora con Newtral y SciVerify, para que evalúen la exactitud del contenido y, en caso de confirmar que es falso, el video se eliminará de la plataforma, aseguran en un comunicado.
No obstante, hay ocasiones en las que la verificación es inconclusa o los contenidos no pueden ser verificados, por ejemplo, en el momento en el que se están desarrollando los acontecimientos. Estos casos, TikTok deja de recomendar el video a los usuarios en la sección 'Para ti', para tratar de limitar la difusión de información potencialmente engañosa.
Junto al 'banner' que se mostrará a los usuarios, la plataforma también notificará al creador del video si ha sido marcado como 'contenido no verificado'. Además, cuando un usuario trate de compartir el video, verá una nueva advertencia, un "paso adicional" para que "se tome un momento para valorar y reconsiderar lo que va a hacer antes de poder elegir entre 'cancelar' o 'compartir de todas formas'", señalan desde TikTok.