Meta para restringir que las cuentas de Instagram y Facebook de adolescentes vean contenido sobre autolesiones y trastornos alimentarios

Meta para restringir que las cuentas de Instagram y Facebook de adolescentes vean contenido sobre autolesiones y trastornos alimentarios

Meta limitará automáticamente el tipo de contenido que las cuentas adolescentes de Instagram y Facebook pueden ver en las plataformas, dijo la compañía. Anunciado el martes. A estas cuentas se les impedirá automáticamente ver contenido dañino, como publicaciones sobre autolesiones, violencia gráfica y trastornos alimentarios. Los cambios se producen cuando Meta se enfrenta a un mayor escrutinio por las afirmaciones de que sus servicios son perjudiciales para los usuarios jóvenes.

Aunque Meta ya no recomienda este tipo de contenido a adolescentes en lugares como Reels y Explore, estos nuevos cambios significan que este tipo de contenido ya no se mostrará en Feed e Stories, incluso si ha sido compartido por alguien a quien sigue un adolescente. .

La compañía señala que aunque Instagram y Facebook permiten a los usuarios compartir contenido sobre sus propias luchas contra el suicidio, las autolesiones y los trastornos alimentarios, la política de Meta es no recomendar este contenido y hacerlo más difícil de encontrar. Ahora, cuando los usuarios busquen términos relacionados con estos temas, Meta comenzará a ocultar estos resultados relacionados y, en su lugar, mostrará recursos de expertos para obtener ayuda sobre el tema. Meta dice que ya oculta resultados de términos de búsqueda de suicidio y autolesión, y que ahora está ampliando esta protección para incluir más términos.

Meta también coloca automáticamente todas las cuentas de adolescentes en la configuración de control de contenido más restrictiva de Instagram y Facebook. La configuración se aplica automáticamente para los nuevos adolescentes que se unen a las plataformas, pero ahora se aplicará a los adolescentes que ya están usando las aplicaciones. Los controles de recomendación de contenido, que se denominan “Control de contenido confidencial” en Instagram y “Reducir” en Facebook, están diseñados para dificultar que los usuarios encuentren contenido o cuentas potencialmente confidenciales en lugares como Buscar y Explorar.

Créditos de imagen: Meta

Los nuevos cambios también harán que Meta envíe nuevas notificaciones animando a los adolescentes a actualizar su configuración para que su experiencia en las plataformas sea más privada. La notificación aparecerá en situaciones en las que un adolescente interactúa con una cuenta de la que no es amigo.

Meta dice que las actualizaciones se implementarán en todas las cuentas de adolescentes en las próximas semanas.

Las medidas anunciadas hoy se producen cuando Meta tiene previsto testificar ante el Senado sobre seguridad infantil el 31 de enero, junto con X (anteriormente Twitter), TikTok, Snap y Discord. Se espera que los miembros del comité presionen a los ejecutivos de las empresas sobre la incapacidad de sus plataformas para proteger a los niños en línea.

Los cambios también se producen cuando más de 40 estados están demandando a Meta, alegando que los servicios de la empresa están contribuyendo a los problemas de salud mental de los usuarios jóvenes. La demanda alega que durante la última década, Meta “alteró profundamente las realidades psicológicas y sociales de una generación de jóvenes estadounidenses” y que está utilizando “tecnologías poderosas y sin precedentes para atraer, involucrar y, en última instancia, atrapar a jóvenes y adolescentes”. Acusa a Meta de ignorar “los graves peligros de promocionar sus productos de forma destacada para obtener beneficios”.

Fuente