Las tres economías más grandes de Europa se han vuelto contra la regulación de los tipos más poderosos de inteligencia artificial, poniendo en peligro el destino de los pioneros del bloque. Ley de inteligencia artificial en la línea.
Francia, Alemania e Italia están obstaculizando las negociaciones sobre una sección controvertida del proyecto de ley de IA de la UE para que no obstaculice el propio desarrollo europeo de “modelos básicos”, la infraestructura de IA que sustenta los modelos de lenguajes grandes como GPT de OpenAI y Bard de Google.
Los funcionarios gubernamentales argumentan que imponer restricciones estrictas a estos modelos novedosos perjudicaría a los propios campeones de la UE en la carrera por aprovechar la tecnología de inteligencia artificial.
En un documento conjunto compartido con otros gobiernos de la UE, obtenido por POLITICO, los tres pesos pesados europeos dijeron que Europa necesita un “marco regulatorio que fomente la innovación y la competencia, para que los actores europeos puedan surgir y llevar nuestra voz y nuestros valores en la carrera global de la IA”. El documento sugiere modelos de fundaciones autorreguladas a través de compromisos empresariales y códigos de conducta.
La acusación franco-alemana-italiana los enfrenta a los legisladores europeos, que quieren firmemente frenar los modelos de fundaciones.
“Esta es una declaración de guerra”, dijo un miembro del equipo negociador del Parlamento Europeo, a quien se le concedió el anonimato debido a la sensibilidad de las conversaciones.
El estancamiento podría incluso significar el fin total de las conversaciones sobre su Ley de Inteligencia Artificial. Las negociaciones interinstitucionales sobre la ley están estancadas a nivel de la UE después de que miembros del personal parlamentario abandonaran una reunión con representantes gubernamentales del Consejo de la UE y funcionarios de la Comisión Europea a mediados de noviembre, en respuesta a la resistencia de los tres países a regular modelos de fundaciones.
Las conversaciones están bajo intensa presión, ya que los negociadores enfrentan la fecha límite del 6 de diciembre. Con el Parlamento Europeo listo para la reelección en junio de 2024, la ventana de oportunidad para aprobar la ley se está cerrando rápidamente.
Un acto no europeo
El impulso para reducir el modelo regulatorio de Europa es sorprendente porque rompe con el pensamiento tradicional del continente de que el sector tecnológico necesita una regulación más fuerte.
Es más, llega en un momento en que los principales jefes de la industria de la inteligencia artificial han pedido una regulación estricta de su tecnología y países como Estados Unidos (un viejo partidario de las leyes sobre tecnología ligera) está implementando su propia agenda regulatoria a través de un Orden ejecutiva radical sobre IA.
Ignorar los modelos básicos (y, en consecuencia, los más vanguardistas, llamados “modelos de frontera” por los conocedores de la industria) sería una “locura” y se correría el riesgo de convertir la Ley de IA de la UE en “como la ley de la jungla”, afirmó el informático canadiense Yoshua Bengio. una voz líder en política de IA, dijo en un entrevista la semana pasada.
“Podríamos terminar en un mundo donde los sistemas benignos de IA están fuertemente regulados en la UE… y los sistemas más grandes, que son los más peligrosos, los más potencialmente dañinos, no están regulados”, añadió Bengio.
La Unión Europea respalda ampliamente prohibiciones y normas estrictas sobre las aplicaciones de IA basadas en su uso en escenarios sensibles como la educación, la inmigración y el lugar de trabajo. Los modelos básicos pueden realizar múltiples tareas, lo que dificulta predecir su nivel de riesgo.
En su propuesta, los parlamentarios europeos planearon agregar obligaciones para los desarrolladores de modelos básicos, independientemente del uso previsto del sistema, incluida la prueba obligatoria del modelo por parte de expertos externos. Algunas obligaciones sólo se aplicarían a modelos respaldados por más potencia informática, creando un conjunto de reglas de dos niveles que los tres gobiernos desecharon explícitamente en su documento.
Si bien otros países de la UE (en particular España, que ocupa la presidencia rotatoria del Consejo) son favorables a ampliar el alcance de la Ley de IA para cubrir los modelos fundacionales, ahora hay poco espacio para que el Consejo se aparte de la posición de los Tres Grandes.