El clima en Neuquén

icon
17° Temp
59% Hum
La Mañana OpenAI

Quiebre en OpenAI: "Construir máquinas más inteligentes es peligroso"

Jan Leike e Ilya Sutskever, figuras destacadas de la empresa creadora de ChatGPT, abandonan la compañía debido a desacuerdos con su dirección.

OpenAI, la compañía liderada por Sam Altman, vive un nuevo escándalo, que principalmente en torno a las declaraciones de un empleado clave de la compañía, quien hizo pública su salida de OpenAI debido a discrepancias con las prioridades de la empresa.

“En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”, decía Jan Leike, hasta ahora responsable del equipo de Superalignment de la empresa.

Leike no se fue solo en esta abrupta salida; Ilya Sutskever, cofundador y ex jefe científico de OpenAI, también se fue. Sutskever tuvo un papel relevante en el caos anterior cuando la Junta despidió a Altman.

Inteligencia artificial.jpg
Hay crisis en OpenAI

Hay crisis en OpenAI

“Después de casi una década, tomé la decisión de dejar OpenAI”, informaba Sutskever en X. “La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de Sam Altman, Greg Brockman, Mira Murati y, ahora, bajo el excelente liderazgo de investigación de Jakub Pachocki. Fue un honor y un privilegio haber trabajado juntos y los extrañaré muchísimo a todos. Hasta luego y gracias por todo”.

Sutskever también adelantaba algo sobre sus próximos pasos: “Estoy emocionado por lo que viene a continuación: un proyecto que es muy significativo para mí personalmente y sobre el cual compartiré detalles a su debido tiempo”.

Otro colega advierte sobre los peligros de la IA

Embed

Altman respondió al post de su colega señalando que se trata de una noticia “muy triste” para él. “Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo y un querido amigo. OpenAI no sería lo que es sin él. [...] Estoy feliz de haber podido estar cerca durante tanto tiempo de un genio tan genuinamente notable y de alguien tan concentrado en lograr el mejor futuro para la humanidad”, añadía.

En la misma publicación, Altman confirmaba que Jakub Pachocki sería el nuevo jefe científico de OpenAI, describiéndolo como “también fácilmente una de las mentes más brillantes de nuestra generación” y confiando en él para guiar a la compañía en “lograr un progreso rápido y seguro” hacia su misión de “garantizar que la AGI beneficie a todos”.

El miedo a que OpenAI se descontrole

Leike aseguraba en X que dejar este trabajo ha sido “una de las cosas más difíciles” que ha hecho en su vida, ya que lo considera una labor muy relevante: “Necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros. Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación”, indicaba.

Embed

Sin embargo, Leike revelaba que ha estado “en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo”, hasta que finalmente llegaron a un “punto de ruptura”.

Considera que se debería dedicar mucho más del “ancho de banda” de la compañía a prepararse para las próximas generaciones de modelos o en seguridad. “Es bastante difícil solucionar estos problemas y me preocupa que no estemos en el camino correcto para llegar allí”, manifestaba.

Embed

“Durante los últimos meses mi equipo ha estado navegando contra el viento”, expresaba el hasta ahora responsable del equipo de ‘Superalignment’ de OpenAI, el departamento dedicado a buscar soluciones para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva “deshonesta” y que ahora se ha disuelto.

Altman simplemente se limitó a dar la razón a su antiguo empleado: “Estoy muy agradecido por las contribuciones de Jan Leike a la investigación de alineación y la cultura de seguridad de OpenAI, y me entristece mucho verlo irse. Tiene razón, tenemos mucho más por hacer; estamos comprometidos a hacerlo”.

Leike recordaba en su post que construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosay que “OpenAI asume una enorme responsabilidad en nombre de toda la humanidad”. Asimismo, urgía a la compañía a convertirse en una empresa AGI —inteligencia artificial general— que priorice la seguridad en lugar de centrarse en “productos brillantes”.

Te puede interesar...

Leé más

Noticias relacionadas

Dejá tu comentario