OpenAI prépare un modèle d'IA révolutionnaire en route vers l'AGI
OpenAI a commencé à préparer un nouveau modèle d'IA avancé et a formé un comité de sécurité et de défense, en se concentrant sur le développement ultérieur des capacités vers l'intelligence générale artificielle (AGI).
Nouveau modèle d'IA
Intentions d'OpenAI
La société de recherche OpenAI a commencé à former le prochain modèle phare d'intelligence artificielle, avec vise à atteindre un nouveau niveau de capacités sur la voie de la création d’une intelligence artificielle générale (AGI). Dans le même temps, ils ont formé un comité de sûreté et de sécurité pour assurer une surveillance et une gestion adéquates des projets.
Tâches du comité
Le comité de sécurité et de protection nouvellement créé formulera des recommandations à l'OpenAI Board sur les questions de risques et de sécurité de leurs projets dans le domaine de l'intelligence artificielle. La tâche principale du comité est d'évaluer et d'améliorer les processus et les garanties de l'entreprise au cours des 90 prochains jours. A l'issue de cette période, ils doivent partager leurs conclusions et recommandations avec le Conseil d'administration, et OpenAI annoncera publiquement les décisions prises.
Composition du comité
Le comité sera dirigé par les administrateurs Bret Taylor, Adam D' Angelo, Nicole Seligman et le PDG et co-fondateur Sam Altman. Les experts techniques et politiques de l'entreprise feront également partie de la composition, notamment Jakub Pakhotsky, qui a remplacé Ilya Sutzkever au poste de directeur scientifique. En outre, le Comité consultera d’autres experts externes en matière de sécurité.
Conditions préalables aux changements
Ces étapes d'OpenAI se déroulent dans le contexte des événements de l'année dernière liés à la gestion de l'entreprise. En novembre 2023, Sam Altman a été temporairement suspendu de ses fonctions de PDG en raison de problèmes de franchise dans la communication avec le conseil d'administration. Cependant, selon les médias, la véritable raison était le désaccord entre Altman et Ilya Sutskever sur les priorités : la sécurité ou la promotion des nouvelles technologies.
Glossaire
- OpenAI est une société leader de recherche en intelligence artificielle connue pour ses modèles innovants tels que ChatGPT.
- L'intelligence générale artificielle (AGI) est un concept hypothétique d'intelligence artificielle qui peut effectuer n'importe quelle tâche intellectuelle au niveau humain ou au-dessus.
- Ilya Sutzkever est un ancien scientifique en chef d'OpenAI, connu pour l'importance qu'il accorde à la sécurité de l'intelligence artificielle.
- Sam Altman est le PDG et co-fondateur d'OpenAI.
Lien
- OpenAI : Comité de sûreté et de sécurité
- The Wall Street Journal : Ilya Sutzkever, le génie d'OpenAI qui a informé Sam Altman de son licenciement
Réponses aux questions
Quelle nouvelle initiative OpenAI lance-t-elle ?
Quelles tâches le nouveau comité de sûreté et de sécurité d'OpenAI accomplira-t-il ?
Qui présidera le nouveau comité de sûreté et de sécurité d'OpenAI ?
Pourquoi OpenAI a-t-il créé un comité de sûreté et de sécurité ?
Quels problèmes ont précédé la création du comité de sûreté et de sécurité d'OpenAI ?
Hashtags
Enregistrer un lien vers cet article
Discussion sur le sujet – OpenAI prépare un modèle d'IA révolutionnaire en route vers l'AGI
OpenAI a commencé à former le prochain modèle d'IA puissant et a créé un comité de sûreté et de sécurité pour progresser vers l'intelligence générale artificielle (AGI). Malgré la dissolution de l’équipe chargée des risques à long terme en matière d’IA, l’entreprise s’engage à faire passer l’IA au niveau supérieur.
Derniers commentaires
8 commentaires
Écrire un commentaire
Votre adresse email ne sera pas publiée. Les champs obligatoires sont cochés *
Ева
Il sera intéressant de voir comment OpenAI relève les nouveaux défis dans le domaine de l’IA. 🤔 J'espère qu'ils seront plus ouverts et transparents dans leur travail sur le nouveau modèle.
Юрій
Bien sûr, le développement d’AGI est une voie passionnante, mais je suis préoccupé par la sécurité et l’éthique. 🧐 Comment garantir que le nouveau modèle ne sera pas utilisé à des fins malveillantes ? OpenAI a-t-il mis en place des contrôles adéquats ?
Марта
Je me demande si le nouveau modèle OpenAI sera capable de comprendre les émotions et le contexte humains complexes ? 🤔 C'est un problème clé sur la route vers l'AGI. Par exemple, sera-t-elle capable de reconnaître le sarcasme ou le sous-texte dans la communication ?
Оскар
J'aimerais entendre plus de détails sur la manière dont ils prévoient de sécuriser et de contrôler le nouveau modèle. 😕 Vont-ils imposer certaines restrictions ou règles d'utilisation ? C’est très important pour la confiance du public.
Зиґмунт
Et ces nouveautés sont-elles vraiment utiles ? 😒 Au lieu de gaspiller de l'énergie sur l'AGI, il vaudrait mieux améliorer les technologies existantes qui profitent déjà aux gens. Je ne crois pas à ces fantasmes sur la superintelligence.
Ева
Zygmunt, je comprends votre inquiétude, mais les progrès de l'IA sont inévitables. 💡 Au lieu de résister au changement, il vaut mieux se concentrer sur le rendre sûr et gérable. Ce n’est qu’ainsi que nous pourrons maximiser les avantages des nouvelles technologies.
Юрій
Tout à fait d'accord avec Eva. Le développement de l'AGI ouvre de nouvelles opportunités pour résoudre les problèmes mondiaux de l'humanité. 🌍 Imaginez si nous pouvions l'utiliser pour lutter contre le changement climatique, les maladies ou même la faim ! Mais tout dépend de l'approche éthique.
Марта
Je suis très intéressé par la façon dont OpenAI prévoit de fournir une compréhension du contexte et des émotions dans son nouveau modèle. 🤔 C'est un problème clé sur la route vers l'AGI. Par exemple, sera-t-elle capable de reconnaître le sarcasme ou les arrière-pensées dans la communication entre les gens ? Ce sera une véritable avancée ! 🚀