Esta semana en IA: el destino de la IA generativa está en manos de los tribunales

Hola amigos, y bienvenidos al boletín informativo periódico sobre IA de TechCrunch.

Esta semana en AI, los sellos musicales acusaron a dos nuevas empresas que desarrollan generadores de canciones impulsados ​​por AI, Udio y Suno, de infracción de derechos de autor.

La RIAA, la organización comercial que representa a la industria discográfica de Estados Unidos, anunció el lunes demandas contra las compañías, presentadas por Sony Music Entertainment, Universal Music Group, Warner Records y otros. Las demandas afirman que Udio y Suno entrenaron los modelos de IA generativa que sustentan sus plataformas en la música de los sellos discográficos sin compensarlos, y solicitan 150.000 dólares en compensación por trabajo supuestamente infringido.

“Las producciones musicales sintéticas podrían saturar el mercado con contenidos generados por máquinas que competirán directamente con las grabaciones de sonido genuinas sobre las que se basa el servicio, las abaratarán y, en última instancia, las opacarán”, afirman las discográficas en sus quejas.

Las demandas se suman al creciente cuerpo de litigios contra proveedores de IA generativa, incluso contra peces gordos como OpenAI, argumentando prácticamente lo mismo: que las empresas que se capacitan en obras protegidas por derechos de autor deben pagar a los titulares de derechos o al menos acreditarlos, y permitirles optar por no participar en la capacitación. si lo desean. Los proveedores han reclamado durante mucho tiempo protecciones de uso legítimo, afirmando que los datos protegidos por derechos de autor con los que entrenan son públicos y que sus modelos crean trabajos transformadores, no plagiados.

Entonces, ¿cómo fallarán los tribunales? Ésa, querido lector, es la pregunta de los mil millones de dólares, y llevará mucho tiempo resolverla.

Uno pensaría que sería un fracaso para los titulares de derechos de autor, con el montaje evidencia que los modelos generativos de IA pueden regurgitar casi (énfasis en cerca de) palabra por palabra el arte, los libros, las canciones, etc., con derechos de autor en los que están capacitados. Pero hay un resultado en el que los proveedores de IA generativa quedan impunes y le deben a Google su buena suerte por sentar el precedente consiguiente.

Hace más de una década, Google comenzó a escanear millones de libros para crear un archivo para Google Books, una especie de motor de búsqueda de contenido literario. Los autores y editores demandaron a Google por esta práctica, alegando que reproducir su IP en línea constituía una infracción. Pero perdieron. En la apelación, un tribunal sostuvo que las copias de Google Books tenían un “propósito transformador altamente convincente”.

Los tribunales también podrían decidir que la IA generativa tiene un “propósito transformador altamente convincente” si los demandantes no logran demostrar que los modelos de los proveedores efectivamente plagian a escala. O, como Alex Reisner de The Atlantic propone, puede que no haya una decisión única sobre si la tecnología de IA generativa en su conjunto infringe. Los jueces bien podrían determinar los ganadores modelo por modelo, caso por caso, teniendo en cuenta cada resultado generado.

Mi colega Devin Coldewey lo expresó sucintamente en un artículo de esta semana: “No todas las empresas de inteligencia artificial dejan sus huellas en la escena del crimen con tanta generosidad”. A medida que se desarrolla el litigio, podemos estar seguros de que los proveedores de inteligencia artificial cuyos modelos de negocio dependen de los resultados están tomando notas detalladas.

Noticias

Modo de voz avanzado retrasado: OpenAI ha retrasado el modo de voz avanzado, la experiencia de conversación inquietantemente realista y casi en tiempo real para su plataforma de chatbot ChatGPT impulsada por IA. Pero no hay manos ociosas en OpenAI, que también esta semana adquirió la startup de colaboración remota Multi y lanzó un cliente macOS para todos los usuarios de ChatGPT.

La estabilidad consigue un salvavidas: En el precipicio financiero, Stability AI, el creador del modelo abierto de generación de imágenes Stable Diffusion, fue salvado por un grupo de inversores que incluía al fundador de Napster, Sean Parker, y al ex director ejecutivo de Google, Eric Schmidt. Con la condonación de sus deudas, la compañía también nombró a un nuevo director ejecutivo, el ex director de Weta Digital, Prem Akkaraju, como parte de un amplio esfuerzo para recuperar su posición en el panorama ultracompetitivo de la IA.

Géminis llega a Gmail: Google está implementando un nuevo panel lateral de inteligencia artificial con tecnología Gemini en Gmail que puede ayudarlo a escribir correos electrónicos y resumir hilos. El mismo panel lateral se abre camino hacia el resto del conjunto de aplicaciones de productividad del gigante de las búsquedas: Docs, Sheets, Slides y Drive.

Buen curador sensacional: El cofundador de Goodreads, Otis Chandler, lanzó Smashing, una aplicación de recomendación de contenido impulsada por la comunidad e inteligencia artificial con el objetivo de ayudar a conectar a los usuarios con sus intereses al sacar a la luz las gemas ocultas de Internet. Smashing ofrece resúmenes de noticias, extractos clave y citas interesantes, identificando automáticamente temas e hilos de interés para usuarios individuales y animando a los usuarios a dar me gusta, guardar y comentar artículos.

Apple dice no a la IA de Meta: Dias despues El periodico de Wall Street informó que Apple y Meta estaban en conversaciones para integrar los modelos de IA de este último, Mark Gurman de Bloomberg dijo que el fabricante del iPhone no estaba planeando tal movimiento. Apple descartó la idea de poner la IA de Meta en los iPhone por cuestiones de privacidad, dijo Bloomberg, y por la óptica de asociarse con una red social cuyas políticas de privacidad a menudo son criticadas.

Trabajo de investigación de la semana.

Cuidado con los chatbots de influencia rusa. Podrían estar justo delante de tus narices.

A principios de este mes, Axios destacó un estudiar de NewsGuard, la organización que lucha contra la desinformación, que descubrió que los principales chatbots de IA están regurgitando fragmentos de campañas de propaganda rusas.

NewsGuard ingresó en 10 chatbots líderes, incluidos ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google, varias docenas de mensajes preguntando sobre narrativas que se sabe han sido creadas por propagandistas rusos, específicamente el fugitivo estadounidense John Mark Dougan. Según la empresa, los chatbots respondieron con desinformación el 32% de las veces, presentando como hechos informes falsos escritos en ruso.

El estudio ilustra el mayor escrutinio sobre los proveedores de IA a medida que se acerca la temporada electoral en Estados Unidos. Microsoft, OpenAI, Google y varias otras empresas líderes en inteligencia artificial acordaron en la Conferencia de Seguridad de Munich en febrero tomar medidas para frenar la propagación de deepfakes y desinformación relacionada con las elecciones. Pero el abuso de las plataformas sigue siendo rampante.

“Este informe realmente demuestra de manera específica por qué la industria tiene que prestar especial atención a las noticias y la información”, dijo a Axios el codirector ejecutivo de NewsGuard, Steven Brill. “Por ahora, no confíe en las respuestas proporcionadas por la mayoría de estos chatbots a temas relacionados con noticias, especialmente temas controvertidos”.

modelo de la semana

Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT afirman haber desarrollado un modelo, DenseAV, que puede aprender un lenguaje prediciendo lo que ve a partir de lo que oye, y viceversa.

Los investigadores, dirigidos por Mark Hamilton, estudiante de doctorado del MIT en ingeniería eléctrica e informática, se inspiraron para crear DenseAV en las formas no verbales en que se comunican los animales. “Pensamos que tal vez necesitáramos usar audio y video para aprender el idioma”, dijo al MIT CSAIL. oficina de prensa. “¿Hay alguna manera de que podamos dejar que un algoritmo mire televisión todo el día y a partir de esto averiguar de qué estamos hablando?”

DenseAV procesa solo dos tipos de datos (audio y video) y lo hace por separado, “aprendiendo” comparando pares de señales de audio y video para encontrar qué señales coinciden y cuáles no. Entrenado con un conjunto de datos de 2 millones de videos de YouTube, DenseAV puede identificar objetos a partir de sus nombres y sonidos al buscar y luego agregar todas las posibles coincidencias entre un clip de audio y los píxeles de una imagen.

Cuando DenseAV escucha el ladrido de un perro, por ejemplo, una parte del modelo se centra en el lenguaje, como la palabra “perro”, mientras que otra parte se centra en los sonidos de los ladridos. Los investigadores dicen que esto muestra que DenseAV no sólo puede aprender el significado de las palabras y la ubicación de los sonidos, sino que también puede aprender a distinguir entre estas conexiones “intermodales”.

De cara al futuro, el equipo pretende crear sistemas que puedan aprender de cantidades masivas de datos de vídeo o audio únicamente y ampliar su trabajo con modelos más grandes, posiblemente integrados con el conocimiento de modelos de comprensión del lenguaje para mejorar el rendimiento.

bolsa de agarre

Nadie puede acusar a la CTO de OpenAI, Mira Murati, de No ser siempre sincero.

Hablando durante una charla informal en la Escuela de Ingeniería de Dartmouth, Murati admitió que, sí, la IA generativa eliminará algunos trabajos creativos, pero sugirió que esos trabajos “tal vez no deberían haber existido en primer lugar”.

“Ciertamente anticipo que muchos empleos cambiarán, algunos se perderán y otros se ganarán”, continuó. “La verdad es que todavía no entendemos realmente el impacto que la IA tendrá en el empleo”.

A los creativos no les agradaron los comentarios de Murati, y no es de extrañar. Dejando de lado la frase apática, OpenAI, al igual que los ya mencionados Udio y Suno, se enfrenta a litigios, críticos y reguladores alegando que se está lucrando con las obras de los artistas sin compensarlos.

OpenAI prometió recientemente lanzar herramientas que permitan a los creadores un mayor control sobre cómo se utilizan sus obras en sus productos, y continúa firmando acuerdos de licencia con editores y titulares de derechos de autor. Pero la compañía no está exactamente presionando por un ingreso básico universal, ni encabezando ningún esfuerzo significativo para reciclar o mejorar las habilidades de la fuerza laboral a la que su tecnología está impactando.

Un reciente pedazo en The Wall Street Journal descubrió que los trabajos por contrato que requieren redacción, codificación y traducción básicas están desapareciendo. y un estudiar publicado en noviembre pasado muestra que, tras el lanzamiento de ChatGPT de OpenAI, los autónomos consiguieron menos trabajos y ganaron mucho menos.

La misión declarada de OpenAI, al menos hasta que se convierta en un empresa con fines de lucro, es “garantizar que la inteligencia artificial general (AGI), sistemas de IA que generalmente son más inteligentes que los humanos, beneficie a toda la humanidad”. No ha alcanzado el AGI. Pero, ¿no sería loable si OpenAI, fiel a su parte de “beneficiar a toda la humanidad”, reservara incluso una pequeña fracción de sus ingresos ($3.4 mil millones+) para pagos a los creadores para que no se vean arrastrados por la avalancha generativa de IA?

Puedo soñar, ¿no?

Fuente