OpenAI está preparando un modelo de IA revolucionario en el camino hacia AGI
OpenAI ha comenzado a preparar un nuevo modelo avanzado de IA y formó un Comité de Seguridad y Defensa, centrándose en un mayor desarrollo de capacidades hacia la Inteligencia General Artificial (AGI).
Nuevo modelo de IA
Intenciones de OpenAI
La empresa de investigación OpenAI ha comenzado a entrenar el próximo modelo emblemático de inteligencia artificial, con tiene como objetivo alcanzar un nuevo nivel de capacidades en el camino hacia la creación de inteligencia artificial general (AGI). Al mismo tiempo, formaron un Comité de Seguridad y Vigilancia para garantizar la adecuada supervisión y gestión de los proyectos.
Tareas del Comité
El recién creado Comité de Seguridad y Protección brindará recomendaciones a el OpenAI Board sobre cuestiones de riesgo y seguridad de sus proyectos en el campo de la inteligencia artificial. La tarea principal del Comité es evaluar y mejorar los procesos y salvaguardas de la empresa durante los próximos 90 días. Al final de este período, deberán compartir sus hallazgos y recomendaciones con la Junta, y OpenAI anunciará públicamente las decisiones tomadas.
Composición del comité
El comité estará encabezado por los directores Bret Taylor, Adam D' Angelo, Nicole Seligman y el director ejecutivo y cofundador Sam Altman. También formarán parte de la composición los expertos técnicos y políticos de la empresa, entre ellos Jakub Pakhotsky, que reemplazó a Ilya Sutzkever como director científico. Además, el Comité consultará con otros expertos en seguridad externos.
Requisitos previos para los cambios
Estos pasos de OpenAI se llevan a cabo en el contexto de los eventos del año pasado relacionados con la gestión de la empresa. En noviembre de 2023, Sam Altman fue suspendido temporalmente como director ejecutivo debido a problemas de franqueza en la comunicación con la junta directiva. Sin embargo, según los medios, el verdadero motivo fue el desacuerdo entre Altman e Ilya Sutskever sobre las prioridades: la seguridad o la promoción de nuevas tecnologías.
Glosario
- OpenAI es una empresa líder en investigación de inteligencia artificial conocida por sus modelos innovadores como ChatGPT.
- La Inteligencia General Artificial (AGI) es un concepto hipotético de inteligencia artificial que puede realizar cualquier tarea intelectual al nivel humano o por encima de él.
- Ilya Sutzkever es un ex científico jefe de OpenAI, conocido por su énfasis en la seguridad de la inteligencia artificial.
- Sam Altman es el director ejecutivo y cofundador de OpenAI.
Enlace
- OpenAI: Comité de Seguridad y Protección
- The Wall Street Journal: Ilya Sutzkever, el genio de OpenAI que le contó a Sam Altman sobre su despido
Respuestas a las preguntas
¿Qué nueva iniciativa está lanzando OpenAI?
¿Qué tareas realizará el nuevo Comité de Seguridad de OpenAI?
¿Quién presidirá el nuevo Comité de Seguridad de OpenAI?
¿Por qué OpenAI creó un Comité de Seguridad y Protección?
¿Qué problemas precedieron a la creación del Comité de Seguridad en OpenAI?
Hashtags
Guardar un enlace a este articulo
Discusion del tema – OpenAI está preparando un modelo de IA revolucionario en el camino hacia AGI
OpenAI ha comenzado a entrenar el próximo potente modelo de IA y ha creado un Comité de Seguridad para avanzar hacia la Inteligencia General Artificial (AGI). A pesar de disolver el equipo de riesgo de IA a largo plazo, la empresa se compromete a llevar la IA al siguiente nivel.
Ultimos comentarios
8 comentarios
Escribir un comentario
Su dirección de correo electrónico no se publicará. Los campos obligatorios están marcados *
Ева
Será interesante ver cómo OpenAI afronta los nuevos desafíos en el campo de la IA. 🤔 Espero que sean más abiertos y transparentes en su trabajo en el nuevo modelo.
Юрій
Por supuesto, el desarrollo de AGI es un camino apasionante, pero me preocupan la seguridad y la ética. 🧐 ¿Cómo garantizar que el nuevo modelo no será utilizado con fines maliciosos? ¿OpenAI cuenta con controles adecuados?
Марта
Me pregunto si el nuevo modelo OpenAI podrá comprender el contexto y las emociones humanas complejas. 🤔 Este es un problema clave en el camino hacia AGI. Por ejemplo, ¿podrá reconocer el sarcasmo o el subtexto en la comunicación?
Оскар
Me encantaría escuchar más detalles sobre cómo planean asegurar y controlar el nuevo modelo. 😕 ¿Impondrán ciertas restricciones o reglas de uso? Esto es muy importante para la confianza pública.
Зиґмунт
¿Y son realmente útiles estas cosas novedosas? 😒 En lugar de desperdiciar energía en AGI, sería mejor mejorar las tecnologías existentes que ya benefician a las personas. No creo en esas fantasías sobre la superinteligencia.
Ева
Zygmunt, entiendo tu preocupación, pero el progreso en la IA es inevitable. 💡 En lugar de resistirse al cambio, es mejor centrarse en hacerlo seguro y manejable. Sólo así podremos maximizar los beneficios de las nuevas tecnologías.
Юрій
Totalmente de acuerdo con Eva. El desarrollo de AGI abre nuevas oportunidades para resolver los problemas globales de la humanidad. 🌍 ¡Imagínate si pudiéramos usarlo para luchar contra el cambio climático, las enfermedades o incluso el hambre! Pero todo depende del enfoque ético.
Марта
Estoy muy interesado en cómo OpenAI planea proporcionar comprensión del contexto y las emociones en su nuevo modelo. 🤔 Este es un problema clave en el camino hacia AGI. Por ejemplo, ¿podrá reconocer el sarcasmo o motivos ocultos en la comunicación entre personas? ¡Esto será un verdadero avance! 🚀