Los usuarios de Internet son cada vez más jóvenes; Ahora el Reino Unido está sopesando si la IA puede ayudar a protegerlos.

La inteligencia artificial ha estado en el punto de mira de gobiernos preocupados por cómo podría usarse indebidamente para fraude, desinformación y otras actividades maliciosas en línea; Ahora, en el Reino Unido, un regulador se está preparando para explorar cómo se utiliza la IA en la lucha contra algunos de los mismos, específicamente en lo que se refiere a contenido dañino para los niños.

ofcomel regulador encargado de hacer cumplir las normas del Reino Unido Ley de seguridad en líneaanunció que planea lanzar una consulta sobre cómo se utilizan hoy en día la IA y otras herramientas automatizadas, y cómo se pueden utilizar en el futuro, para detectar y eliminar de forma proactiva contenidos ilegales en línea, específicamente para proteger a los niños de contenidos nocivos e identificar el abuso sexual infantil. material que antes era difícil de detectar.

Las herramientas serían parte de un conjunto más amplio de propuestas que Ofcom está elaborando y centradas en la seguridad infantil en línea. Las consultas para las propuestas integrales comenzarán en las próximas semanas y la consulta sobre IA se realizará a finales de este año, dijo Ofcom.

Mark Bunting, director del Grupo de Seguridad en Línea de Ofcom, dice que su interés en la IA comienza con una mirada a qué tan bien se utiliza hoy en día como herramienta de detección.

“Algunos servicios ya utilizan esas herramientas para identificar y proteger a los niños de este contenido”, dijo en una entrevista con TechCrunch. “Pero no hay mucha información sobre cuán precisas y efectivas son esas herramientas. Queremos buscar formas de garantizar que la industria evalúe [that] cuando los utilizan, asegurándose de que se gestionen los riesgos para la libertad de expresión y la privacidad”.

Un resultado probable será que Ofcom recomiende cómo y qué plataformas deberían evaluar, lo que podría conducir no solo a que las plataformas adopten herramientas más sofisticadas, sino también a multas si no logran ofrecer mejoras en el bloqueo de contenido o en la creación de mejores formas de retener a los usuarios más jóvenes. de verlo.

“Al igual que con muchas regulaciones de seguridad en línea, la responsabilidad recae en las empresas para asegurarse de que están tomando las medidas adecuadas y utilizando las herramientas adecuadas para proteger a los usuarios”, dijo.

Habrá tanto críticos como partidarios de las medidas. Los investigadores de IA están encontrando formas cada vez más sofisticadas de utilizar la IA para detectar, por ejemplo, deep fakes, así como para verificar usuarios en línea. Sin embargo, hay tantos escépticos quienes señalan que la detección de IA está lejos de ser infalible.

Ofcom anunció la consulta sobre herramientas de inteligencia artificial al mismo tiempo que publicó su última investigación sobre cómo los niños interactúan en línea en el Reino Unido, que encontró que, en general, hay más niños más pequeños conectados que nunca, hasta el punto de que Ofcom ahora está desglosando la actividad entre franjas de edad cada vez más jóvenes.

Casi una cuarta parte, el 24%, de todos los niños de 5 a 7 años poseen ahora sus propios teléfonos inteligentes, y cuando se incluyen las tabletas, las cifras aumentan al 76%, según una encuesta entre padres estadounidenses. Ese mismo grupo de edad también utiliza mucho más los medios en esos dispositivos: el 65 % ha realizado llamadas de voz y vídeo (frente al 59 % hace apenas un año), y la mitad de los niños (frente al 39 % hace un año) están viendo medios en streaming. .

Las restricciones de edad en algunas aplicaciones de redes sociales convencionales son cada vez más bajas, pero cualesquiera que sean los límites, en el Reino Unido no parecen ser respetadas de todos modos. Alrededor del 38% de los niños de 5 a 7 años utilizan las redes sociales, descubrió Ofcom. WhatsApp de Meta, con un 37%, es la aplicación más popular entre ellas. Y posiblemente en el primer caso en el que la aplicación de imágenes insignia de Meta se siente aliviada de ser menos popular que la sensación viral de ByteDance, se descubrió que TikTok era utilizado por el 30% de los niños de 5 a 7 años, mientras que Instagram era “sólo” el 22%. Discord completó la lista, pero es significativamente menos popular con solo un 4%.

Alrededor de un tercio, el 32%, de los niños de esta edad se conectan solos a Internet, y el 30% de los padres dijeron que les parecía bien que sus hijos menores de edad tuvieran perfiles en las redes sociales. YouTube Kids sigue siendo la red más popular entre los usuarios más jóvenes, con un 48%.

Los juegos, un eterno favorito entre los niños, han crecido hasta ser utilizados por el 41% de los niños de 5 a 7 años, y el 15% de los niños de este grupo de edad juegan juegos de disparos.

Si bien el 76% de los padres encuestados dijeron que habían hablado con sus hijos pequeños sobre cómo mantenerse seguros en línea, Ofcom señala que existen signos de interrogación entre lo que un niño ve y lo que ese niño podría informar. Al investigar a niños mayores de entre 8 y 17 años, Ofcom los entrevistó directamente. Encontró que el 32% de los niños informaron que habían visto contenido preocupante en línea, pero sólo el 20% de sus padres dijeron que habían informado algo.

Incluso teniendo en cuenta algunas inconsistencias en los informes, “la investigación sugiere una desconexión entre la exposición de los niños mayores a contenido en línea potencialmente dañino y lo que comparten con sus padres sobre sus experiencias en línea”, escribe Ofcom. Y el contenido preocupante es sólo uno de los desafíos: las falsificaciones profundas también son un problema. Entre los niños de 16 a 17 años, dijo Ofcom, el 25% dijo que no estaban seguros de distinguir lo falso de lo real en línea.

Fuente