A través de una carta del cocreador de OpenAI anunció el laboratorio que creará la superinteligencia artificial Safe Superintelligence Inc.
Fabián Vega
Con estas palabras Ilya Sutskever, cocreador de OpenAI y exjefe científico de la compañía de Sam Altman, anunció sus planes de construir un primer laboratorio que desarrolle la siguiente superinteligencia artificial “segura”.
Aislada de presiones comerciales (por lo menos a corto plazo), pero que represente un modelo de negocio rentable que garantice seguridad, protección y progreso para sus usuarios, es el objetivo de Sutskever para este laboratorio de Superinteligencia artificial (SSI por sus siglas en inglés).
A través de una carta abierta en su sitio web, el exjefe científico de OpenAI, describió el desarrollo como un avance científico y de ingeniería revolucionario para acelerar el desarrollo seguro de la IA:
“Con un objetivo y un producto: una superinteligencia segura. Planeamos avanzar en las capacidades lo más rápido posible mientras nos aseguramos de que nuestra seguridad siempre permanezca por delante. De esta manera, podemos escalar en paz”.
Sutskever planeó que su enfoque no está centrado en los gastos, sino en la seguridad y el progreso de la IA para con la humanidad.
“Somos una empresa estadounidense con oficinas en Palo Alto y Tel Aviv, donde tenemos profundas raíces y la capacidad de reclutar a los mejores talentos técnicos.
Estamos reuniendo un equipo reducido y especializado de los mejores ingenieros e investigadores del mundo dedicados a centrarse en la SSI y nada más”.
We will pursue safe superintelligence in a straight shot, with one focus, one goal, and one product. We will do it through revolutionary breakthroughs produced by a small cracked team. Join us: https://t.co/oYL0EcVED2
— Ilya Sutskever (@ilyasut) June 19, 2024
Sutskever se alejó de la IA tras susalida de OpenAI hace apenas un mes:
“Después de casi una década, tomé la decisión de dejar OpenAI. La trayectoria de la empresa ha sido nada menos que milagrosa y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de Sam, Greg, Mira y ahora, bajo el excelente liderazgo de investigación de Jakub Pachocki“.
Ahora se encuentra en la búsqueda de su siguiente gran equipo de expertos ingenieros e investigadores para centrarse en la SSI y el laboratorio sin fines de lucro, por ahora.
“Si ese es tu caso, te ofrecemos la oportunidad de hacer el trabajo de tu vida y ayudarte a resolver el desafío técnico más importante de nuestra era. Ahora es el momento. Únete a nosotros”.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024





