Tech Leaders Once Cried for AI Regulation. Now the Message Is ‘Slow Down’

La otra noche asistí a una cena de prensa ofrecida por una empresa llamada Box. Otros invitados incluyeron a los líderes de dos empresas orientadas a datos, Datadog y MongoDB. Por lo general, los ejecutivos en estas veladas se comportan de la mejor manera, especialmente cuando la discusión es oficial, como ésta. Así que me sorprendió un intercambio con el director ejecutivo de Box, Aaron Levie, quien nos dijo que tuvo una parada difícil en el postre porque esa noche volaba a Washington, DC. Se dirigía a un maratón de intereses especiales llamado TechNet Day, donde Silicon Valley tiene una cita rápida con docenas de criaturas del Congreso para determinar con qué tendrá que vivir el público (no invitado). ¿Y qué quería de esa legislación? “Lo menos posible”, respondió Levie. “Seré el único responsable de detener al gobierno”.

Estaba bromeando sobre eso. Algo así como. Continuó diciendo que si bien regular los abusos claros de la IA, como los deepfakes, tiene sentido, es demasiado pronto para considerar restricciones como obligar a las empresas a presentar grandes modelos lingüísticos a policías de IA aprobados por el gobierno, o escanear los chatbots en busca de elementos como prejuicios o la capacidad de hackear infraestructura de la vida real. Señaló a Europa, que ya ha adoptado restricciones a la IA, como ejemplo de lo que no hacer. “Lo que está haciendo Europa es bastante arriesgado”, afirmó. “En la UE existe la opinión de que si se regula primero, se crea una especie de atmósfera de innovación”, dijo Levie. “Se ha demostrado empíricamente que eso es incorrecto”.

Los comentarios de Levie van en contra de lo que se ha convertido en una posición estándar entre las élites de IA de Silicon Valley, como Sam Altman. “¡Sí, regúlanos!” ellos dicen. Pero Levie señala que cuando se trata de qué deberían decir exactamente las leyes, el consenso se desmorona. “Nosotros, como industria tecnológica, no sabemos lo que realmente estamos pidiendo”, dijo Levie, “no he estado en una cena con más de cinco personas de IA en la que haya un acuerdo único sobre cómo regular la IA”. No es que importe: Levie cree que los sueños de un proyecto de ley amplio sobre IA están condenados al fracaso. “La buena noticia es que no hay manera de que Estados Unidos llegue a coordinarse de esta manera. Simplemente no habrá una Ley de IA en Estados Unidos”.

Levie es conocido por su locuacidad irreverente. Pero en este caso es simplemente más sincero que muchos de sus colegas, cuya posición de regularnos por favor es una forma sofisticada de cuerda con droga. El único evento público del TechNet Day, al menos hasta donde pude discernir, fue un panel transmitido en vivo discusión sobre la innovación en IA que incluyó al presidente de asuntos globales de Google, Kent Walker, y a Michael Kratsios, el más reciente director de tecnología de EE. UU. y ahora ejecutivo de Scale AI. El sentimiento entre los panelistas fue que el gobierno debería centrarse en proteger el liderazgo estadounidense en el terreno. Si bien admitieron que la tecnología tiene sus riesgos, argumentaron que las leyes existentes cubren en gran medida los posibles efectos desagradables.

Walker, de Google, parecía particularmente alarmado de que algunos estados estuvieran desarrollando legislación sobre IA por su cuenta. “Sólo en California, hoy hay 53 proyectos de ley diferentes sobre IA pendientes en la legislatura”, dijo, y no estaba alardeando. Walker, por supuesto, sabe que este Congreso difícilmente podrá mantener a flote al propio gobierno, y la perspectiva de que ambas cámaras hagan malabarismos con esta papa caliente en un año electoral es tan remota como que Google vuelva a contratar a los ocho autores del artículo sobre transformadores.

El Congreso de Estados Unidos tiene legislación pendiente. Y los proyectos de ley siguen llegando, algunos quizás menos significativos que otros. Esta semana, el representante Adam Schiff, demócrata de California, presentó un proyecto de ley llamado la Ley de divulgación de derechos de autor de IA generativa de 2024. Exige que los modelos lingüísticos de gran tamaño presenten a la oficina de derechos de autor “un resumen suficientemente detallado de cualquier obra protegida por derechos de autor utilizada… en el conjunto de datos de entrenamiento”. No está claro qué significa “suficientemente detallado”. ¿Estaría bien decir: “Simplemente eliminamos la red abierta”? El personal de Schiff me explicó que estaban adoptando una medida en el proyecto de ley de IA de la UE.

Fuente