Esta semana en IA: con la desaparición de Chevron, la regulación de la IA parece muerta

Hola a todos y bienvenidos al boletín periódico sobre inteligencia artificial de TechCrunch.

Esta semana en AI, la Corte Suprema de Estados Unidos anuló la “deferencia Chevron”, un fallo de 40 años sobre el poder de las agencias federales que requería que los tribunales respetaran las interpretaciones de las agencias de las leyes del Congreso.

La deferencia de Chevron permitió que las agencias establecieran sus propias reglas mientras que el Congreso dejó ambiguos algunos aspectos de sus estatutos. Ahora se espera que los tribunales ejerzan su propio criterio legal, y las consecuencias podrían tener un amplio alcance. Scott Rosenberg de Axios escribe que el Congreso —no es precisamente el más funcional Hoy en día, los organismos reguladores deben intentar predecir eficazmente el futuro con su legislación, ya que ya no pueden aplicar reglas básicas a nuevas circunstancias de aplicación.

Y eso podría acabar para siempre con los intentos de regular la IA a nivel nacional.

El Congreso ya estaba luchando por aprobar un marco básico de políticas de IA, hasta el punto en que los reguladores estatales de ambos partidos se sintieron obligados a intervenir. Ahora, cualquier regulación que redacte tendrá que ser muy específica si quiere sobrevivir a los desafíos legales, una tarea aparentemente intratable, dada la velocidad e imprevisibilidad con la que se mueve la industria de la IA.

La jueza Elena Kagan mencionó específicamente a AI durante los argumentos orales:

Imaginemos que el Congreso aprueba un proyecto de ley sobre inteligencia artificial y tiene todo tipo de delegaciones. Por la naturaleza de las cosas y, especialmente, la naturaleza del tema, habrá todo tipo de lugares en los que, aunque no haya una delegación explícita, el Congreso haya dejado en efecto un vacío. [D]¿Queremos que los tribunales llenen ese vacío o queremos que una agencia lo llene?

Los tribunales llenarán ese vacío ahora. O los legisladores federales considerarán que el ejercicio es inútil y archivarán sus proyectos de ley sobre IA. Cualquiera que sea el resultado final, la regulación de la IA en los EE. UU. se ha vuelto mucho más difícil.

Noticias

Los costes de la IA medioambiental de Google: Google ha publicado su Informe medioambiental 2024, un documento de más de 80 páginas que describe los esfuerzos de la empresa por aplicar la tecnología a los problemas medioambientales y mitigar sus efectos negativos. Pero elude la cuestión de cuánta energía utiliza la IA de Google, escribe Devin. (La IA es notoriamente hambrienta de energía).

Figma desactiva la función de diseño: El director ejecutivo de Figma, Dylan Field, dice que Figma desactivará temporalmente su función de inteligencia artificial “Make Design”, que se decía que estaba copiando los diseños de la aplicación Weather de Apple.

Meta cambia su etiqueta de IA: Después de que Meta comenzara a etiquetar las fotos con la etiqueta “Hecho con IA” en mayo, los fotógrafos se quejaron de que la empresa había estado aplicando etiquetas a fotos reales por error. Meta ahora está cambiando la etiqueta a “Información de IA” en todas sus aplicaciones en un intento de aplacar a los críticos, informa Ivan.

Gatos, perros y pájaros robots: Brian escribe sobre cómo el estado de Nueva York está distribuyendo miles de animales robot a los ancianos en medio de una “epidemia de soledad”.

Apple lleva la inteligencia artificial al Vision Pro: Los planes de Apple van más allá de los lanzamientos previamente anunciados de Apple Intelligence para iPhone, iPad y Mac. Según Mark Gurman de Bloomberg, la compañía también está trabajando para llevar estas funciones a sus auriculares de realidad mixta Vision Pro.

Trabajo de investigación de la semana

Los modelos de generación de texto como GPT-4o de OpenAI se han convertido en una apuesta segura en el ámbito tecnológico. Son raras las aplicaciones que no Úsalos hoy en día para tareas que van desde completar correos electrónicos hasta escribir código.

Pero a pesar de la popularidad de los modelos, la forma en que estos modelos “entienden” y generan texto que suena humano no es una ciencia establecida. En un esfuerzo por pelar las capas, los investigadores de la Universidad Northeastern miró en la tokenización, o el proceso de dividir el texto en unidades llamadas fichas que los modelos puedan trabajar más fácilmente.

Los modelos de generación de texto actuales procesan el texto como una serie de tokens extraídos de un conjunto de “vocabulario de tokens”, donde un token puede corresponder a una sola palabra (“fish”) o a un fragmento de una palabra más grande (“sal” y “mon” en “salmon”). El vocabulario de tokens disponible para un modelo generalmente está determinado antes entrenamiento, en función de las características de los datos utilizados para entrenarlo. Pero los investigadores encontraron evidencia de que los modelos también desarrollan un vocabulario implícito que asigna grupos de tokens (por ejemplo, palabras con múltiples tokens como “noreste” y la frase “rómpete una pierna”) a “unidades” semánticamente significativas.

Con base en esta evidencia, los investigadores desarrollaron una técnica para “sondear” el vocabulario implícito de cualquier modelo abierto. Del Llama 2 de Meta, extrajeron frases como “Lancaster”, “jugadores de la Copa del Mundo” y “Marina Real”, así como términos más oscuros como “jugadores de la Bundesliga”.

El trabajo no ha sido revisado por pares, pero los investigadores creen que podría ser un primer paso hacia la comprensión de cómo se forman las representaciones léxicas en los modelos y servir como una herramienta útil para descubrir lo que un modelo determinado “sabe”.

Modelo de la semana

Un equipo de investigación de Meta ha entrenado varios modelos para crear activos 3D (es decir, formas 3D con texturas) a partir de descripciones de texto, aptas para su uso en proyectos como aplicaciones y videojuegos. Si bien existen muchos modelos generadores de formas, Meta afirma que son “de última generación” y admiten renderizado basado en la física, lo que permite a los desarrolladores “reiluminar” los objetos para dar la apariencia de una o más fuentes de iluminación.

Los investigadores combinaron dos modelos, AssetGen y TextureGen, inspirados en el generador de imágenes Emu de Meta, en un único proceso llamado 3DGen para generar formas. AssetGen convierte indicaciones de texto (por ejemplo, “un T-Rex con un suéter de lana verde”) en una malla 3D, mientras que TextureGen aumenta la “calidad” de la malla y agrega una textura para obtener la forma final.

Créditos de la imagen: Meta

3DGen, que también se puede utilizar para retexturizar formas existentes, tarda unos 50 segundos de principio a fin para generar una nueva forma.

“Combinando [these models’] “Entre sus puntos fuertes, 3DGen logra una síntesis de objetos 3D de muy alta calidad a partir de indicaciones textuales en menos de un minuto”, escribieron los investigadores en un artículo. documento técnico“En la evaluación de artistas 3D profesionales, el resultado de 3DGen es el preferido la mayoría de las veces en comparación con las alternativas de la industria, en particular para indicaciones complejas”.

Meta parece estar preparada para incorporar herramientas como 3DGen en sus esfuerzos de desarrollo de juegos de metaverso. Según un listado de trabajoLa empresa busca investigar y crear prototipos de juegos de realidad virtual (VR), realidad aumentada (AR) y realidad mixta creados con la ayuda de tecnología de inteligencia artificial generativa, incluidos, presumiblemente, generadores de formas personalizados.

Bolsa de sorpresas

Apple podría obtener un puesto de observador en la junta directiva de OpenAI como resultado de la asociación entre las dos empresas anunciada el mes pasado.

Bloomberg informes que Phil Schiller, ejecutivo de Apple a cargo de liderar la App Store y los eventos de Apple, se unirá a la junta directiva de OpenAI como su segundo observador después de Dee Templeton de Microsoft.

Si la medida se concreta, será una notable demostración de poder por parte de Apple, que planea integrar la plataforma de chatbot impulsada por IA de OpenAI, ChatGPT, con muchos de sus dispositivos este año como parte de un conjunto más amplio de funciones de IA.

Apple no estará pago OpenAI por la integración de ChatGPT, supuestamente argumentando que la exposición de relaciones públicas es tan valiosa como el efectivo (o más). De hecho, OpenAI podría terminar pagando ManzanaSe dice que Apple está considerando un acuerdo en el que obtendría una parte de los ingresos de cualquier función premium de ChatGPT que OpenAI traiga a las plataformas de Apple.

Por lo tanto, como señaló mi colega Devin Coldewey, eso coloca al colaborador cercano de OpenAI y principal inversor, Microsoft, en la incómoda posición de subsidiar efectivamente la integración de ChatGPT de Apple, sin obtener muchos resultados a cambio. Aparentemente, Apple consigue lo que quiere, incluso si eso implica conflictos que sus socios deben resolver.

Fuente