L'ancien scientifique en chef d'OpenAI Ilya Sutzkever crée la société Safe Superintelligence pour développer une intelligence artificielle superintelligente sûre
Ilya Sutzkever, ancien scientifique principal d'OpenAI, crée une nouvelle société Safe Superintelligence Inc. (SSI), qui se concentrera exclusivement sur le développement d’une intelligence artificielle super-intelligente et sûre pour l’humanité.
Safe superintelligence AI
Une nouvelle entreprise avec une mission unique
Après avoir quitté OpenAI, Ilya Sutzkever a fondé Safe Superintelligence Inc. . (SSI) avec l'entrepreneur Daniel Gross et son ancien collègue Daniel Levy. L'objectif principal de la société nouvellement créée est de rechercher et de développer des systèmes sûrs d'intelligence artificielle super intelligente qui peuvent profiter à l'humanité sans conséquences négatives.
Focus sur la sécurité et le progrès
Contrairement à de nombreuses startups technologiques, SSI ne connaîtra pas de pression et pourra se concentrer pleinement sur la garantie de la fiabilité et de la sécurité des systèmes d’IA développés. Cette société entend éviter de se laisser distraire par les problèmes de gestion ou de développement de produits afin d'étendre efficacement sa recherche.
Recherche d'experts de premier plan
SSI recherche actuellement activement des ingénieurs et des scientifiques talentueux pour compléter c'est une petite équipe, mais dévouée. Tous les employés de l'entreprise travailleront sur une seule mission : créer une IA super intelligente et sûre.
Glossaire
- OpenAI est une société leader de recherche en intelligence artificielle fondée par Elon Musk et d'autres.
- Ilya Sutzkever est un ancien chercheur en chef et co-fondateur d'OpenAI, un expert dans le domaine de l'IA.
- Sam Altman est l'ancien PDG d'OpenAI.
- Daniel Gross est un entrepreneur et investisseur, co-fondateur de Cue, une startup acquise par Apple en 2013.
- Daniel Levy est un ancien employé d'OpenAI, aujourd'hui co-fondateur de SSI.
Lien
- Message d'Ilya Sutzkever sur la création de SSI
- Article de The Verge sur SSI
- Article du WSJ sur le conflit entre Sutzkewer et Altman
Réponses aux questions
Qu'est-ce que SSI (Safe Superintelligence Inc.) et quelle est sa mission ?
Qui dirige SSI et quels sont leurs bureaux ?
Quels sont les avantages du modèle économique SSI ?
Que sait-on du conflit entre Elon Musk et Sam Altman dans OpenAI ?
Quelles actions Ilya Sutzkever et Ian Lake ont-ils entreprises après le conflit OpenAI ?
Hashtags
Enregistrer un lien vers cet article
Discussion sur le sujet – L'ancien scientifique en chef d'OpenAI Ilya Sutzkever crée la société Safe Superintelligence pour développer une intelligence artificielle superintelligente sûre
Ilya Sutzkever, chercheur bien connu en intelligence artificielle et ancien scientifique en chef d'OpenAI, a fondé un nouveau laboratoire appelé Safe Superintelligence Inc. (SSI). L’entreprise se concentrera exclusivement sur la création d’une intelligence artificielle super intelligente et sans danger pour l’humanité.
Derniers commentaires
8 commentaires
Écrire un commentaire
Votre adresse email ne sera pas publiée. Les champs obligatoires sont cochés *
Олександра
Des nouvelles vraiment intéressantes concernant le lancement de la nouvelle société d'IA SSI ! Ils semblent se concentrer uniquement sur la sécurité du développement d’une IA super intelligente 🤖. C’est la bonne approche, car les systèmes intelligents nécessitent une surveillance minutieuse et des tests de sécurité.
Франсуаза
Oui, j'étais également intéressé par cette initiative. Sutzkever est un spécialiste reconnu dans le domaine de l'IA, son implication donne du poids au projet. Et la sécurité de l'IA est une chose extrêmement importante 🔐, je suis heureux que de telles entreprises apparaissent.
Вольфганг
Il est intéressant de noter que Sutzkever a quitté OpenAI précisément en raison de différences dans les approches en matière de sécurité de l’IA. Et ici, il pourra se concentrer exclusivement sur cette problématique 🕵️♂️. Cependant, assurer la sécurité de l’IA superintelligente n’est pas une tâche facile.
Анджей
Et j'ai entendu dire qu'OpenAI avait beaucoup de problèmes en raison de visions différentes de la sécurité entre Altman et Sutzkever 😕. C'est formidable qu'Ilya puisse mettre en œuvre son approche dans la nouvelle société SSI.
Бруно
Je comprends le scepticisme de certains, mais selon Sutzkever, ils sont indépendants de la pression commerciale et peuvent se consacrer pleinement à la sécurité de l'IA 🛡️. C’est formidable, car la protection contre d’éventuelles menaces devrait être une priorité.
Ґреґор
Encore une nouvelle société d'IA 🙄 ? Ces gars-là pensent-ils honnêtement qu’ils peuvent atteindre une sécurité IA super intelligente alors qu’ils ne savent même pas à quoi cela ressemblera ? Quelle astuce ridicule 😂, de l'argent et du temps perdus.
Ольга
Je ne partage pas tout à fait votre scepticisme, Gregor. Au moins, SSI donne la priorité à la sécurité et n'essaie pas seulement de publier de nouvelles technologies le plus rapidement possible. Dans le domaine de l'IA, c'est une étape importante 👣.
Анатолій
Je conviens qu'il est actuellement difficile de garantir la sécurité des futures IA superintelligentes 🤖. Mais vous devriez réfléchir à ce problème à l'avance et développer des approches, et ne pas l'ignorer. L'initiative SSI mérite attention 🧐.