Cómo hará Meta para proteger a adolescentes de contenido sobre suicidio o trastornos alimenticios

El anuncio lo hizo la empresa esta semana. La red social enfrenta varias demandas por contribuir a la crisis de salud mental juvenil.

Meta anunció esta semana que empezará a ocultar contenido inapropiado de las cuentas de adolescentes en Instagram y Facebook, incluidas publicaciones sobre suicidio, autolesiones y trastornos alimenticios.

El gigante de las redes sociales explicó que aunque su objetivo ya es no recomendar a los adolescentes este tipo de material «inapropiado para su edad», ahora tampoco lo mostrará en su sección de noticias, aunque lo comparta una cuenta a la que sigan.

«Queremos que los adolescentes tengan experiencias seguras y apropiadas para su edad en nuestras aplicaciones», aseveró Meta.

Los usuarios adolescentes- siempre que no hayan mentido sobre su edad al registrarse en Instagram o Facebook- también verán sus cuentas configuradas en los ajustes más restrictivos de las plataformas, y se les bloqueará la búsqueda de términos que puedan ser perjudiciales.

«Tomemos el ejemplo de alguien que publica sobre su lucha constante con pensamientos de autolesión. Es una historia importante y puede ayudar a desestigmatizar estos problemas, pero es un tema complejo y no es necesariamente adecuado para todos los jóvenes», dijo Meta. «Ahora, empezaremos a eliminar este tipo de contenido de las experiencias de los adolescentes en Instagram y Facebook, así como otros tipos de contenido inapropiado para su edad».

Las demandas contra Meta


Meta hizo el anuncio en un momento en que enfrenta demandas de decenas de estados de Estados Unidos que la acusan de perjudicar a los jóvenes y contribuir a la crisis de salud mental juvenil al diseñar de forma consciente y deliberada funciones en Instagram y Facebook que crean adicción en los niños a sus plataformas. Los críticos afirman que las medidas de Meta no son suficientes.

«El anuncio de Meta es otro intento desesperado de evitar la regulación y una increíble bofetada a los padres que han perdido a sus hijos a causa de perjuicios virtuales en Instagram», dijo Josh Golin, director ejecutivo de Fairplay, un grupo de defensa de los niños en internet. «Si la empresa puede ocultar contenidos prosuicidio y sobre trastornos alimentarios, ¿por qué han esperado hasta 2024 para anunciar estos cambios?»

Agencia AP


Adherido a los criterios de
Journalism Trust Initiative
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios