An AI Executive Turns AI Crusader to Stand Up for Artists

Ed Newton-Rex dice que la IA generativa tiene un problema ético. Él debería saberlo, porque solía ser parte de una industria de rápido crecimiento. Newton-Rex fue el diseñador jefe de inteligencia artificial de TikTok y luego ejecutivo de Stability AI hasta que renunció disgustado en noviembre por la postura de la empresa sobre la recopilación de datos de entrenamiento.

Después de su partida de alto perfil, Newton-Rex se lanzó a una conversación tras otra sobre cómo sería en la práctica la construcción ética de IA. “Me llamó la atención que hay mucha gente que quiere utilizar modelos de IA generativa que traten a los creadores de forma justa”, afirma. “Si puedes brindarles mejores herramientas para la toma de decisiones, eso será útil”.

La organización sin fines de lucro de Ed Newton-Rex está tratando de alentar a las empresas a pensar más en la obtención de datos de capacitación para proyectos de inteligencia artificial.

Cortesía de Ed Newton-Rex

Ahora Newton-Rex ha lanzado una nueva organización sin fines de lucro, Bastante entrenado, para brindar a las personas exactamente ese tipo de herramienta para la toma de decisiones. Ofrece un programa de certificación para identificar empresas de inteligencia artificial que otorgan licencias para sus datos de capacitación. La industria de la IA tiene ahora su propia versión de esas etiquetas de certificación de “comercio justo” que se ven en el café.

Para obtener la etiqueta de certificación de Fairly Trained, que llama Certificación Luna empresa debe demostrar que sus datos de formación tenían licencia explícita para fines de formación, eran de dominio público o se ofrecían bajo una licencia abierta adecuada, o ya pertenecían a la empresa.

Hasta ahora, nueve empresas han recibido la certificación, incluido el generador de imágenes Bria AI, que se entrena exclusivamente con datos con licencia de fuentes como Getty Images, y la plataforma de generación de música LifeScore Music, que licencia trabajos de los principales sellos discográficos. Varios otros están cerca de completar su certificación. La organización sin fines de lucro cobra una tarifa de $500 a $6000, dependiendo del tamaño del negocio del solicitante.

OpenAI, la empresa de IA generativa líder en el mundo,discutido recientemente que es imposible crear servicios de IA generativa como ChatGPT sin utilizar datos sin licencia. Newton-Rex y las primeras empresas en obtener el sello de aprobación de Fairly Certified no están de acuerdo. “Ya lo consideramos algo obligatorio”, dice el director ejecutivo de Bria, Yair Adato, sobre los datos de licencia. Compara los modelos de IA creados a partir de datos sin licencia con Napster y Pirate Bay, y su propia empresa con Spotify. “Es muy fácil para nosotros cumplir con las normas”, dice el cofundador de Lifescore Music, Tom Gruber, quien también es asesor de Fairly Certified. “El negocio de la música realmente se preocupa por la procedencia y los derechos”.

Newton-Rex dice que cuenta con el apoyo de grupos comerciales como la Asociación de Editores Estadounidenses y la Asociación de Editores de Música Independientes, así como de empresas como Universal Music Group. Pero el movimiento para revertir el enfoque estándar de la industria de la IA de extraer datos de entrenamiento a voluntad está todavía en su infancia. Y Fairly Trained es una operación de un solo hombre. No es que a Newton-Rex le importe; todavía tiene la mentalidad de un fundador de startups. “Creo en enviar las cosas temprano”, dice.

La organización sin fines de lucro tampoco es la única que intenta estandarizar la idea de etiquetar productos de IA con información sobre sus ingredientes. El ex ejecutivo de Warner Music Group, Howie Singer, que ahora estudia cómo la tecnología está cambiando la industria musical, ve similitudes entre Fairly Trained y Content Authority Initiative, un proyecto encabezado por Adobe para ayudar a las personas a rastrear la autenticidad de las imágenes. “Este es un buen paso”, dice sobre el proyecto de Newton-Rex.

Fuente