Intelligence artificielle : un appel au contrôle des risques de la part des experts OpenAI et Google DeepMind
"""
Une lettre ouverte d'experts appelle à des garanties et à une réglementation plus strictes du développement et du déploiement des technologies d'IA afin de prévenir les risques et abus potentiels, de garantir la transparence et l'utilisation éthique. de l'intelligence artificielle
Réglementation sur l'IA
Préoccupations et demandes
Les anciens et actuels employés d'OpenAI et de Google DeepMind ont signé. une pétition publique exprimant son inquiétude quant aux menaces possibles liées au développement incontrôlé de l'intelligence artificielle. Dans le message, les experts insistent sur la création d'organismes de réglementation indépendants et sur l'établissement de normes strictes pour superviser le développement et la mise en œuvre des technologies d'IA. pour une collaboration interdisciplinaire afin de garantir une utilisation sûre et éthique de l’IA, ainsi que l’importance de la transparence et de la responsabilité dans ce domaine.
{{0.}} Les signataires de la lettre présentent les exigences suivantes pour les entreprises d'IA avancée :- Ne pas décourager les employés de critiquer les risques potentiels ni exercer de représailles contre eux pour de telles critiques.
- Fournir un moyen de signaler de manière anonyme des préoccupations aux conseils d'administration, aux régulateurs et à d'autres organisations.
- Cultiver une atmosphère de dialogue ouvert et autoriser les déclarations publiques des employés, sous réserve du respect des secrets commerciaux.
- Ne sanctionnez pas les employés qui divulguent publiquement des informations confidentielles sur les risques après avoir tenté sans succès de communiquer leurs préoccupations par d'autres moyens.
Réponse d'OpenAI
La lettre ouverte a reçu un large soutien dans les cercles universitaires et parmi les organisations publiques concernées par les questions d'éthique et de sécurité dans le secteur secteur technologique. OpenAI a répondu à l'appel en affirmant qu'il disposait déjà de canaux pour signaler les risques possibles liés à l'IA, y compris une hotline. L'entreprise affirme également qu'elle ne publie pas de nouvelles technologies sans mettre en œuvre des mesures de sécurité appropriées.
Cependant, selon Vox, il a été révélé la semaine dernière qu'OpenAI obligeait les employés licenciés à signer une clause de non-divulgation extrêmement restrictive. et les critiques des accords d'embargo, sinon ils perdraient toutes leurs actions. Le PDG d'OpenAI, Sam Altman, s'est excusé pour cela et a promis de modifier ses procédures de licenciement.
Experts concernés
Les préoccupations concernant le rythme et l'orientation du développement de l'IA sont partagées par d'autres experts dans le domaine. L'ancien ingénieur OpenAI, Leopold Aschenbrenner, a compilé un document de 165 pages dans lequel il affirme que d'ici 2027, nous atteindrons l'AGI (intelligence humaine), qui s'auto-éduquera ensuite rapidement à l'ASI (intelligence humaine supérieure). Selon Aschenbrenner, le principal risque est que l’IA soit désormais une sorte de « deuxième bombe nucléaire », et que l’armée cherche déjà (et obtient) l’accès à ces technologies.
Glossaire
- OpenAI est une société de recherche leader sur l'intelligence artificielle, fondée par Elon Musk et d'autres entrepreneurs.
- Google DeepMind est une société britannique spécialisée dans le développement de technologies d'intelligence artificielle, filiale d'Alphabet Inc.
- AGI (Artificial General Intelligence) - intelligence artificielle égale à l'humain.
- ASI (Artificial Superintelligence) - intelligence artificielle supérieure à l'intelligence humaine.
Liens
Réponses aux questions
Quelles sont les principales exigences des experts pour garantir le développement sécurisé de l'intelligence artificielle ?
Pourquoi les experts s'inquiètent-ils du développement de l'intelligence artificielle ?
Comment les entreprises d'IA comme OpenAI répondent-elles aux demandes des experts ?
Quelles sont les préoccupations des experts en intelligence artificielle concernant le rythme et l'orientation du développement de l'IA ?
Quelles mesures sont proposées pour garantir la transparence et la responsabilité dans le développement de l'intelligence artificielle ?
Hashtags
Enregistrer un lien vers cet article
Discussion sur le sujet – Intelligence artificielle : un appel au contrôle des risques de la part des experts OpenAI et Google DeepMind
Les employés anciens et actuels de grandes sociétés d'IA telles que OpenAI et Google DeepMind ont signé une lettre ouverte exigeant des mesures de sécurité et des contrôles plus stricts sur le développement de l'intelligence artificielle. Ils préviennent que sans une réglementation adéquate, les risques potentiels pourraient dépasser les bénéfices escomptés.
Derniers commentaires
8 commentaires
Écrire un commentaire
Votre adresse email ne sera pas publiée. Les champs obligatoires sont cochés *
Николай
Je pense que les mesures de sécurité dans le développement de l’IA sont extrêmement importantes. Les technologies évoluent trop rapidement et nous devons être sûrs que cela n’entraînera pas de conséquences catastrophiques. 🤔 Je crains que l’IA puisse être utilisée pour nuire à l’humanité.
Софи
Nikolay, je suis entièrement d'accord avec toi. Des régulateurs indépendants et des normes strictes sont nécessaires. Nous ne pouvons pas permettre aux entreprises de développer l’IA de manière incontrôlée ; les risques potentiels sont vraiment élevés. 😬 Nous avons besoin de transparence et de responsabilité dans ce domaine.
Ханс
OpenAI ne disposait-il pas déjà d'une hotline pour signaler les risques ? C’est une bonne mesure, mais clairement pas suffisante. Les entreprises doivent discuter ouvertement des problèmes et ne pas intimider leurs employés. 🙄 Sinon, nous risquons de répéter les erreurs du passé.
Марио
Je reconnais que davantage de mesures de sécurité sont nécessaires, mais il ne faut pas oublier les avantages de l’IA. 💡 Ces technologies peuvent aider à résoudre de nombreux problèmes de l'humanité, de la lutte contre les maladies à la protection de l'environnement. Il vous suffit de trouver le bon équilibre.
Генрих
Quelle absurdité! 😡 Toutes ces technologies nouvelles sont une perte de temps et d'argent. Les gens s’inquiètent toujours des absurdités au lieu de se concentrer sur les vrais problèmes. L’IA ne représente aucune menace, c’est juste une autre tendance qui sera vite oubliée.
Анна
Heinrich, je ne peux pas être d'accord avec toi. L’IA n’est pas seulement une tendance, mais l’orientation la plus importante du développement technologique. 💻 Oui, il existe des risques, mais ils peuvent être minimisés avec la bonne approche. Nous ne devons pas ignorer le problème, mais trouver des solutions raisonnables.
Пьер
C'est un problème vraiment grave. Je travaille moi-même dans le domaine de l’IA et je constate à quelle vitesse ces technologies se développent. 🚀 Mais sans contrôle adéquat et sans principes éthiques, nous risquons de créer quelque chose de dangereux. Nous devons unir nos forces et élaborer des règles du jeu claires.
Юлия
Je soutiens pleinement l'idée d'une lettre ouverte. Les entreprises doivent créer un environnement sûr pour que leurs employés se sentent libres d'exprimer leurs préoccupations. 🗣️ C’est la seule manière de prévenir d’éventuels abus et d’assurer le développement responsable de l’IA.