El exlíder de OpenAI dice que la seguridad ha “pasado a un segundo plano frente a los productos brillantes” en la empresa

Un exlíder de OpenAI que renunció a la compañía a principios de esta semana dijo el viernes que la seguridad ha “pasado a un segundo plano frente a los productos brillantes” en la influyente compañía de inteligencia artificial.

Jan Leike, que dirigió el equipo de “Superalineación” de OpenAI junto con un cofundador de la empresa que también renunció esta semana, escribió en una serie de publicaciones en la plataforma de redes sociales X que se unió a la empresa con sede en San Francisco porque pensó que sería la El mejor lugar para realizar investigaciones sobre IA.

“Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura”, escribió Leike, cuyo último día fue el jueves.

Leike, investigador de IA de formación, dijo que cree que debería prestarse más atención a la preparación para la próxima generación de modelos de IA, incluso en aspectos como la seguridad y el análisis de los impactos sociales de dichas tecnologías. Dijo que construir “máquinas más inteligentes que las humanas es una tarea intrínsecamente peligrosa” y que la empresa “está asumiendo una enorme responsabilidad en nombre de toda la humanidad”.

“OpenAI debe convertirse en una empresa AGI que priorice la seguridad”, escribió Leike, utilizando la versión abreviada de inteligencia artificial general, una visión futurista de máquinas que son tan inteligentes como los humanos o que al menos pueden hacer muchas cosas tan bien como las personas.

El director ejecutivo de Open AI, Sam Altman, escribió en una respuesta a las publicaciones de Leike que estaba “muy agradecido” por las contribuciones de Leike a la empresa y que estaba “muy triste de verlo partir”.

Leike tiene razón: tenemos mucho más por hacer; Estamos comprometidos a hacerlo”, dijo Altman, comprometiéndose a escribir una publicación más extensa sobre el tema en los próximos días.

La compañía también confirmó el viernes que había disuelto el equipo Superalignment de Leike, que se lanzó el año pasado para centrarse en los riesgos de la IA, y que está integrando a los miembros del equipo en sus esfuerzos de investigación.

La renuncia de Leike se produjo después de que el cofundador y científico jefe de OpenAI, Ilya Sutskever, dijera el martes que dejaría la compañía después de casi una década. Sutskever fue uno de los cuatro miembros de la junta que el otoño pasado votaron para expulsar a Altman, solo para reinstalarlo rápidamente. Fue Sutskever quien le dijo a Altman en noviembre pasado que lo iban a despedir, pero luego dijo que se arrepentía de haberlo hecho.

Sutskever dijo que está trabajando en un nuevo proyecto que es significativo para él sin ofrecer detalles adicionales. Jakub Pachocki lo sustituirá como científico jefe. Altman llamó a Pachocki “también fácilmente una de las mentes más brillantes de nuestra generación” y dijo que está “muy seguro de que nos llevará a lograr un progreso rápido y seguro hacia nuestra misión de garantizar que AGI beneficie a todos”.

El lunes, OpenAI mostró la última actualización de su modelo de inteligencia artificial, que puede imitar las cadencias humanas en sus respuestas verbales e incluso puede intentar detectar el estado de ánimo de las personas.

Fuente