OpenAI Offers an Olive Branch to Artists Wary of Feeding AI Algorithms

OpenAI está luchando contra demandas de artistas, escritores y editores que alegan que utilizó de manera inapropiada su trabajo para entrenar los algoritmos detrás de ChatGPT y otros sistemas de inteligencia artificial. El martes, la compañía anunció una herramienta aparentemente diseñada para apaciguar a los creativos y titulares de derechos, otorgándoles cierto control sobre cómo OpenAI usa su trabajo.

La compañía dice que lanzará una herramienta en 2025 llamada Media Manager que permitirá a los creadores de contenido excluir su trabajo del desarrollo de inteligencia artificial de la compañía. En una publicación de blogOpenAI describió la herramienta como una forma de permitir que “los creadores y propietarios de contenido nos digan lo que poseen” y especifiquen “cómo quieren que sus trabajos sean incluidos o excluidos de la investigación y capacitación en aprendizaje automático”.

OpenAI dijo que está trabajando con “creadores, propietarios de contenido y reguladores” para desarrollar la herramienta y tiene la intención de “establecer un estándar en la industria”. La empresa no nombró a ninguno de sus socios en el proyecto ni dejó claro exactamente cómo funcionará la herramienta.

Las preguntas abiertas sobre el sistema incluyen si los propietarios de contenido podrán realizar una única solicitud para cubrir todos sus trabajos y si OpenAI permitirá solicitudes relacionadas con modelos que ya han sido entrenados y lanzados. Se están realizando investigaciones sobre el “desaprendizaje” de las máquinas, un proceso que ajusta un sistema de inteligencia artificial para eliminar retrospectivamente la contribución de una parte de sus datos de entrenamiento, pero la técnica aún no se ha perfeccionado.

Ed Newton-Rex, director ejecutivo de la startup Fairly Trained, que certifica a las empresas de inteligencia artificial que utilizan datos de capacitación de origen ético, dice que el aparente cambio de OpenAI en los datos de capacitación es bienvenido, pero que la implementación será crítica. “Me alegra ver que OpenAI se ocupa de este tema. Si esto ayudará o no a los artistas dependerá de los detalles, que aún no se han proporcionado”, afirma. La primera pregunta importante que tiene en mente: ¿Se trata simplemente de una herramienta de exclusión voluntaria que permite a OpenAI seguir utilizando datos sin permiso a menos que el propietario del contenido solicite su exclusión? ¿O representará un cambio mayor en la forma en que OpenAI hace negocios? OpenAI no respondió de inmediato a una solicitud de comentarios.

Newton-Rex también tiene curiosidad por saber si OpenAI permitirá que otras empresas utilicen su Media Manager para que los artistas puedan indicar sus preferencias a varios desarrolladores de IA a la vez. “Si no, simplemente agregará más complejidad a un entorno de exclusión voluntaria que ya es complejo”, dice Newton-Rex, ex ejecutivo de Stability AI, desarrollador del generador de imágenes Stable Diffusion.

OpenAI no es el primero en buscar formas para que los artistas y otros creadores de contenido indiquen sus preferencias sobre el uso de su trabajo y datos personales para proyectos de IA. Otras empresas de tecnología, desde Adobe hasta Tumblr, también ofrecen herramientas de exclusión voluntaria en materia de recopilación de datos y aprendizaje automático. La startup Spawning lanzó un registro llamado No entrenar Hace casi dos años y los creadores ya han añadido sus preferencias por 1.500 millones de obras.

Jordan Meyer, director ejecutivo de Spawning, dice que la compañía no está trabajando con OpenAI en su proyecto Media Manager, pero está abierta a hacerlo. “Si OpenAI puede facilitar el registro o el respeto de la exclusión voluntaria, estaremos encantados de incorporar su trabajo a nuestra suite”, afirma.

Fuente