Meta enfrenta acusaciones en Estados Unidos por agravar la crisis de salud mental juvenil, ante lo cual, grupos de defensa infantil han señalado el anuncio de la plataforma como una medida insuficiente.
Por Bárbara Ortutay
SAN FRANCISCO (AP).— Meta anunció el martes que empezará a ocultar contenido inapropiado de las cuentas de adolescentes en Instagram y Facebook, incluidas publicaciones sobre suicidio, autolesiones y trastornos alimentarios.
El gigante de las redes sociales, con sede en Menlo Park, California, ha explicado en su blog que, aunque su objetivo es no recomendar a los adolescentes este tipo de material “inapropiado para su edad”, ahora tampoco lo mostrará en su sección de noticias, aunque se comparta en una cuenta a la que sigan dichos usuarios.
“Queremos que los adolescentes tengan experiencias seguras y apropiadas para su edad en nuestras aplicaciones”, aseveró Meta.
Los usuarios adolescentes, siempre que no hayan mentido sobre su edad al registrarse en Instagram o Facebook, también verán sus cuentas configuradas en los ajustes más restrictivos de las plataformas, y se les bloqueará la búsqueda de términos que puedan ser perjudiciales.
“Tomemos el ejemplo de alguien que publica sobre su lucha constante con pensamientos de autolesión. Es una historia importante y puede ayudar a desestigmatizar estos problemas, pero es un tema complejo y no es necesariamente adecuado para todos los jóvenes”, dijo Meta. “Ahora, empezaremos a eliminar este tipo de contenido de las experiencias de los adolescentes en Instagram y Facebook, así como otros tipos de contenido inapropiado para su edad”.
Meta hizo el anuncio en un momento en que enfrenta demandas de decenas de estados en Estados Unidos que la acusan de perjudicar a los jóvenes y contribuir a la crisis de salud mental juvenil, al diseñar de forma consciente y deliberada funciones en Instagram y Facebook que crean adicción en los niños a sus plataformas.
Los críticos afirman que las medidas de Meta no son suficientes.
“El anuncio de Meta es otro intento desesperado por evitar la regulación y una increíble bofetada a los padres que han perdido a sus hijos a causa de perjuicios virtuales en Instagram”, dijo Josh Golin, director ejecutivo de Fairplay, un grupo de defensa de los niños en Internet. “Si la empresa puede ocultar contenidos prosuicidio y, sobre trastornos alimentarios, ¿por qué han esperado hasta 2024 para anunciar estos cambios?”