EU

Líder de OpenAI renunció porque no se prioriza la seguridad: "Máquinas más inteligentes que los humanos es una empresa peligrosa"
Lunes 23 de Diciembre de 2024

Líder de OpenAI renunció porque no se prioriza la seguridad: "Máquinas más inteligentes que los humanos es una empresa peligrosa"

Foto: AP
Escrito en EU el

AP.– Un exlíder de OpenAI que renunció a la empresa esta semana dijo el viernes que la seguridad ha pasado a segundo plano en la influyente compañía de inteligencia artificial (IA).

Jan Leike, que dirigió el equipo de “Superalineamiento” de OpenAI junto con el cofundador de la empresa, que también renunció esta semana, escribió en una serie de publicaciones en la red social X que se unió a la empresa, con sede en San Francisco, porque pensó que sería el mejor lugar para realizar investigaciones sobre IA.

Revisa: Actores demandan a empresa por robar sus voces para usarlas en tecnología de inteligencia artificial

“Sin embargo, durante bastante tiempo he estado en desacuerdo con la dirigencia de OpenAI respecto a las prioridades fundamentales de la empresa, hasta que finalmente llegamos a un punto crítico”, escribió Leike, cuyo último día en la empresa fue el jueves.

Leike, formado como investigador de IA, señaló que, en su opinión, se debería hacer más énfasis en prepararse para la próxima generación de modelos de IA, incluidos factores como la seguridad y el análisis del impacto de esas tecnologías en la sociedad. Dijo que la construcción de “máquinas más inteligentes que los seres humanos es una empresa inherentemente peligrosa”, y que la compañía tiene una enorme responsabilidad para con la humanidad.

OpenAI debe convertirse en una empresa de AGI donde la seguridad sea lo primero”, escribió Leike, usando la abreviatura en inglés de inteligencia artificial general, una visión futurista de las máquinas que son, en general, tan inteligentes como los seres humanos, o al menos, pueden hacer muchas cosas tan bien como lo hacen las personas.

La renuncia de Leike se produjo después de que el cofundador de OpenAI y científico en jefe, Ilya Sutskever, dijera el martes que dejaría la empresa tras casi una década. Sutskever fue uno de los cuatro miembros del consejo de administración que votaron el otoño pasado a favor de expulsar al director ejecutivo Sam Altman, para luego ser reincorporando de inmediato. Fue Sutskever quien le informó a Altman en noviembre pasado que sería despedido, pero después dijo que se arrepentía de haberlo hecho.

Sutskever dijo que trabaja en un nuevo proyecto importante para él, pero no dio más detalles. Será reemplazado por Jakub Pachocki como científico en jefe. Altman dijo que Pachocki "es también, fácilmente, una de las más grandes mentes de nuestra generación" y afirmó que “tiene mucha confianza en que podrá dirigirnos para avanzar en forma rápida y segura hacia nuestra misión de garantizar que la AGI nos beneficie a todos”.

Entérate: OpenAI utilizó datos de YouTube para entrenar su modelo GPT-4: NYT

El lunes, OpenAI mostró la más reciente actualización de su modelo de inteligencia artificial, que puede imitar la cadencia humana en sus respuestas verbales, e incluso puede tratar de detectar el estado de ánimo de las personas.