Anthropic ahora permite a los niños usar su tecnología de inteligencia artificial, dentro de límites

La startup de IA Anthropic está cambiando sus políticas para permitir que los menores utilicen sus sistemas generativos de IA, al menos en determinadas circunstancias.

Anunciado en un correo En el blog oficial de la compañía el viernes, Anthropic comenzará a permitir que los adolescentes y preadolescentes utilicen aplicaciones de terceros (pero no las suyas propias). aplicacionesnecesariamente) impulsado por sus modelos de IA, siempre y cuando los desarrolladores de esas aplicaciones implementen características de seguridad específicas y revelen a los usuarios qué tecnologías Anthropic están aprovechando.

en un artículo de soporte, Anthropic enumera varias medidas de seguridad que los desarrolladores que crean aplicaciones basadas en IA para menores deben incluir, como sistemas de verificación de edad, moderación y filtrado de contenido y recursos educativos sobre el uso “seguro y responsable” de la IA para menores. La compañía también dice que puede poner a disposición “medidas técnicas” destinadas a adaptar las experiencias de productos de IA para menores, como un “mensaje de sistema de seguridad infantil” que los desarrolladores dirigidos a menores deberían implementar.

Los desarrolladores que utilicen los modelos de IA de Anthropic también tendrán que cumplir con las normas “aplicables” de seguridad infantil y privacidad de datos, como la Ley de Protección de la Privacidad Infantil en Línea (COPPA), la ley federal de EE. UU. que protege la privacidad en línea de niños menores de 13 años. Anthropic dice que planea auditar “periódicamente” el cumplimiento de las aplicaciones, suspender o cancelar las cuentas de aquellos que violan repetidamente el requisito de cumplimiento, y exigir que los desarrolladores “declaren claramente” en los sitios o la documentación de cara al público que están cumpliendo.

“Hay ciertos casos de uso en los que las herramientas de inteligencia artificial pueden ofrecer beneficios significativos a los usuarios más jóvenes, como la preparación de exámenes o el apoyo a tutorías”, escribe Anthropic en la publicación. “Teniendo esto en cuenta, nuestra política actualizada permite a las organizaciones incorporar nuestra API en sus productos para menores”.

El cambio de política de Anthropic se produce cuando los niños y adolescentes recurren cada vez más a herramientas de inteligencia artificial generativa en busca de ayuda no solo con Trabajo escolar pero cuestiones personales y proveedores rivales de IA generativa, incluidos Google y OpenAI, están explorando más casos de uso dirigidos a los niños. Este año, OpenAI formó un nuevo equipo para estudiar la seguridad infantil y anunció una asociación con Common Sense Media para colaborar en pautas de IA adaptadas a los niños. Y Google puso su chatbot Bard, ahora rebautizado como Gemini, a disposición de los adolescentes en inglés en regiones seleccionadas.

De acuerdo a un encuesta del Centro para la Democracia y la Tecnología, el 29% de los niños informan haber utilizado IA generativa como ChatGPT de OpenAI para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.

El verano pasado, las escuelas y universidades se apresuraron a prohibir las aplicaciones de IA generativa, en particular ChatGPT, por temor a plagio y desinformación. Desde entonces, algunos han invertido sus prohibiciones. Pero no todos están convencidos del potencial positivo de la IA generativa, señalando encuestas como el Centro para una Internet más segura del Reino Unido, que descubrió que más de la mitad de los niños (53 %) afirman haber visto a personas de su edad utilizar la IA generativa de forma negativa, por ejemplo creando información falsa creíble o imágenes utilizadas para molestar a alguien (incluyendo deepfakes pornográficos).

Están aumentando los pedidos de directrices sobre el uso de la IA generativa por parte de los niños.

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) a finales del año pasado empujado que los gobiernos regulen el uso de la IA generativa en la educación, incluida la implementación de límites de edad para los usuarios y barreras de seguridad sobre la protección de datos y la privacidad de los usuarios. “La IA generativa puede ser una tremenda oportunidad para el desarrollo humano, pero también puede causar daños y prejuicios”, dijo Audrey Azoulay, directora general de la UNESCO, en un comunicado de prensa. “No se puede integrar en la educación sin la participación pública y las salvaguardias y regulaciones necesarias por parte de los gobiernos”.

Fuente