El ex científico jefe de OpenAI Ilya Sutzkever crea la empresa Safe Superintelligence para desarrollar inteligencia artificial superinteligente segura
Ilya Sutzkever, ex científico principal de OpenAI, crea una nueva empresa Safe Superintelligence Inc. (SSI), que se centrará exclusivamente en desarrollar inteligencia artificial superinteligente segura para la humanidad.
Superinteligencia AI segura
Una nueva empresa con una misión única
Después de dejar OpenAI, Ilya Sutzkever fundó Safe Superintelligence Inc. . (SSI) con el empresario Daniel Gross y su ex colega Daniel Levy. El objetivo principal de la empresa de nueva creación es investigar y desarrollar sistemas seguros de inteligencia artificial superinteligente que puedan beneficiar a la humanidad sin consecuencias negativas.
Centrarse en la seguridad y el progreso
A diferencia de muchas nuevas empresas tecnológicas, SSI no experimentará una experiencia comercial. presión y podrá centrarse plenamente en garantizar la fiabilidad y seguridad de los sistemas de IA desarrollados. Esta empresa pretende evitar la distracción de cuestiones de gestión o desarrollo de productos para poder escalar eficientemente su investigación.
Búsqueda de expertos líderes
Actualmente, SSI busca activamente ingenieros y científicos talentosos para complementar Es un equipo pequeño pero dedicado. Todos los empleados de la empresa trabajarán en una única misión: crear una IA superinteligente segura.
Glosario
- OpenAI es una empresa líder en investigación de inteligencia artificial fundada por Elon Musk y otros.
- Ilya Sutzkever es ex investigador jefe y cofundador de OpenAI, un experto en el campo de la IA.
- Sam Altman es el ex director ejecutivo de OpenAI.
- Daniel Gross es emprendedor e inversor, cofundador de Cue, una startup adquirida por Apple en 2013.
- Daniel Levy es un ex empleado de OpenAI, ahora cofundador de SSI.
Enlace
- Mensaje de Ilya Sutzkever sobre la creación de SSI
- Artículo de The Verge sobre SSI
- Artículo del WSJ sobre el conflicto entre Sutzkewer y Altman
Respuestas a las preguntas
¿Qué es SSI (Safe Superintelligence Inc.) y cual es su mision?
¿Quién dirige SSI y cuáles son sus oficinas?
¿Cuáles son las ventajas del modelo de negocio SSI?
¿Qué se sabe del conflicto entre Elon Musk y Sam Altman en OpenAI?
¿Qué acciones tomaron Ilya Sutzkever e Ian Lake después del conflicto con OpenAI?
Hashtags
Guardar un enlace a este articulo
Discusion del tema – El ex científico jefe de OpenAI Ilya Sutzkever crea la empresa Safe Superintelligence para desarrollar inteligencia artificial superinteligente segura
Ilya Sutzkever, un conocido investigador de inteligencia artificial y ex científico jefe de OpenAI, fundó un nuevo laboratorio llamado Safe Superintelligence Inc. (SSI). La empresa se centrará exclusivamente en crear inteligencia artificial superinteligente que sea segura para la humanidad.
Ultimos comentarios
8 comentarios
Escribir un comentario
Su dirección de correo electrónico no se publicará. Los campos obligatorios están marcados *
Олександра
¡Noticias realmente interesantes sobre el lanzamiento de la nueva empresa de inteligencia artificial SSI! Parecen centrarse únicamente en la seguridad del desarrollo de una IA superinteligente 🤖. Este es el enfoque correcto, porque los sistemas inteligentes requieren una supervisión y pruebas de seguridad cuidadosas.
Франсуаза
Sí, a mí también me interesó esta iniciativa. Sutzkever es un conocido especialista en el campo de la IA y su participación da peso al proyecto. Y la seguridad de la IA es algo extremadamente importante 🔐, me alegra que estén apareciendo empresas de este tipo.
Вольфганг
Curiosamente, Sutzkever abandonó OpenAI precisamente debido a diferencias en los enfoques de la seguridad de la IA. Y aquí podrá centrarse exclusivamente en este problema 🕵️♂️. Aunque lograr la seguridad de la IA superinteligente no es tarea fácil.
Анджей
Y escuché que OpenAI tuvo muchos problemas debido a las diferentes visiones de seguridad entre Altman y Sutzkever 😕. Es maravilloso que Ilya pueda implementar su enfoque en la nueva empresa SSI.
Бруно
Entiendo el escepticismo de algunos, pero según Sutzkever, son independientes de la presión comercial y pueden dedicarse por completo a la seguridad de la IA 🛡️. Esto es genial, porque la protección contra posibles amenazas debería ser una prioridad.
Ґреґор
¿Nueva empresa de IA otra vez 🙄? ¿Creen honestamente estos tipos que pueden lograr una seguridad de IA súper inteligente cuando ni siquiera saben cómo será? Que truco más ridículo 😂, dinero y tiempo perdido.
Ольга
No comparto del todo tu escepticismo, Gregor. Al menos SSI está dando prioridad a la seguridad y no sólo intentando lanzar nueva tecnología lo antes posible. En el campo de la IA, este es un paso importante 👣.
Анатолій
Estoy de acuerdo en que actualmente es difícil garantizar la seguridad de la futura IA superinteligente 🤖. Pero conviene pensar en este problema con antelación y desarrollar enfoques, y no ignorarlo. La iniciativa SSI merece atención 🧐.