La UE interroga a X de Elon Musk sobre la moderación de contenidos y los riesgos de los deepfake

La Unión Europea ha profundizado la investigación de la red social X, propiedad de Elon Musk, que abrió en diciembre, bajo el reglamento de moderación de contenido y gobernanza en línea del bloque: la Ley de Servicios Digitales (DSA). Las violaciones confirmadas del régimen podrían resultar costosas para Musk, ya que los encargados de hacer cumplir la ley están facultados para imponer multas de hasta el 6% de la facturación anual mundial.

El miércoles, la Comisión dijo que había enviado a X una solicitud formal de información (RFI) en el marco de la DSA en busca de más detalles sobre aspectos de la investigación en curso, que analiza preocupaciones sobre riesgos de contenido ilegal, diseño manipulador, deficiencias en la transparencia de los anuncios y datos de la plataforma. acceso para los investigadores.

El RFI también aborda algunas preocupaciones nuevas: la UE dice que está preguntando a X sobre sus actividades y recursos de moderación de contenidos a la luz de su último informe de Transparencia (otro requisito de la DSA), que revela que X ha reducido la plantilla de su equipo de moderación de contenidos en casi un quinto (20%) desde el informe anterior, allá por octubre de 2023.

El informe también reveló que X ha reducido la cobertura lingüística de la moderación de contenidos dentro de la UE de 11 idiomas oficiales a siete, un problema particular para la Comisión, que ya ha planteado la cuestión en esfuerzos más prolongados para presionar a las plataformas para que aborden los daños al contenido.

Otra nueva preocupación de la UE se relaciona con el enfoque de X hacia la IA generativa. La Comisión dijo que está buscando más detalles sobre “evaluaciones de riesgos y medidas de mitigación relacionadas con el impacto de las herramientas de inteligencia artificial generativa en los procesos electorales, la difusión de contenido ilegal y la protección de los derechos fundamentales”.

X está regulada como una de las llamadas plataformas en línea de gran tamaño (VLOP) según la DSA, lo que significa que está sujeta a una capa adicional de reglas, supervisadas por la propia Comisión, que le exigen evaluar y mitigar riesgos sistémicos, como en áreas como la desinformación. .

“La solicitud de información enviada hoy es un paso más en una investigación en curso”, dijo la UE en un presione soltar. “Se basa en la recopilación y el análisis de pruebas realizados hasta ahora, incluso en relación con el informe de transparencia de X publicado en marzo de 2024 y las respuestas de X a solicitudes de información anteriores, que abordaban, entre otras cosas, medidas de mitigación de los riesgos relacionados con la IA generativa”.

En marzo, la Comisión envió una serie de solicitudes de información a varios VLOP, incluido X, solicitando más información sobre su enfoque para manejar los riesgos relacionados con el uso de IA generativa. A la UE le preocupa el papel que podrían desempeñar los deepfakes políticos en las próximas elecciones al Parlamento Europeo del próximo mes.

El último RFI to X le da a la plataforma hasta el 17 de mayo para brindar respuestas a sus preguntas sobre recursos de moderación de contenido e IA generativa. Debe enviar la otra información solicitada a la Comisión antes del 27 de mayo.

Se contactó a X para obtener una respuesta al desarrollo, pero al momento de esta publicación no había proporcionado comentarios.

Durante una reunión informativa con periodistas el mes pasado, un alto funcionario de la Comisión se negó a ofrecer una actualización completa sobre su investigación con X, pero caracterizó los contactos con la empresa como “bastante intensos”.

El funcionario también confirmó que un tema de discusión activo se relaciona con la función Notas de la comunidad de X, que genera contexto adicional para mostrar en publicaciones en disputa, algo que X bajo Musk ha enmarcado como su enfoque principal para la moderación de contenido, y agregó que no está claro si el enfoque de la compañía es lo suficientemente sólido. para responder a los riesgos electorales.

Fuente