Por el momento, esta nueva función sólo estará disponible para un grupo reducido de usuarios con sus cuentas configuradas en inglés.
Ciudad de México, 2 de septiembre (RT).- Twitter lanzó este miércoles una nueva función de seguridad que permitirá bloquear temporalmente las cuentas que utilicen un lenguaje potencialmente dañino, como insultos o comentarios de odio, o que envíen respuestas o menciones repetitivas y no deseadas.
Según Twitter, para activar esta función los usuarios tienen que acceder a las configuraciones de su cuenta y activar el "modo de seguridad". A partir de ese momento, la plataforma evaluará "la probabilidad de un compromiso negativo teniendo en cuenta el contenido del tuit". Así, cuando el sistema detecte insultos o comentarios de odio, bloqueará esos tuits de forma automática durante siete días.
El nuevo Modo de seguridad de @Twitter: "función que bloquea temporalmente las cuentas durante siete días por usar lenguaje potencialmente dañino, como insultos o comentarios de odio, o enviar respuestas o menciones repetitivas y no invitadas". https://t.co/RXph6BEqZI
— Nelly Luna Amancio (@nellylun) September 1, 2021
Asimismo, la plataforma tomará en consideración la relación entre los usuarios, "por lo que las cuentas que sigues o con las que interactúas con frecuencia no se bloquearán automáticamente", aclara la empresa en su blog.
De momento, la función estará disponible para un grupo reducido de usuarios de Twitter que tiene sus cuentas configuradas en inglés, mientras que la compañía observará cómo funciona la nueva función para poder incorporar mejoras y ajustes antes de ponerlo a disposición de todos los usuarios de la red social.