Scandale Calmara : Comment une application de rencontres IA a été interdite par la FTC
La Commission fédérale du commerce des États-Unis a réprimé une application qui promettait faussement de diagnostiquer les MST à l’aide de l’IA. HeHealth est contraint de fermer Calmara en raison de fausses déclarations et de pratiques douteuses.
Arrêt de l'application Calmara
Réclamations de la FTC contre HeHealth
La Federal Trade Commission des États-Unis a forcé HeHealth à abandonner son application Calmara. Le logiciel promettait d’utiliser l’intelligence artificielle pour détecter les infections sexuellement transmissibles.
Selon un livre blanc de la FTC du 11 juillet, Calmara a encouragé les utilisateurs à soumettre des photos intimes pour les tests MST. L'application garantissait « des réponses précises et fondées sur la science sur la santé sexuelle de votre partenaire ». La Commission a exprimé ses inquiétudes quant à la fiabilité des informations sur lesquelles HeHealth s'est appuyée dans ses déclarations.
Recherches et données inexactes
Au cours de l'enquête, il s'est avéré que HeHealth finançait les auteurs des études auxquelles il faisait référence. L’étude principale ne couvrait que quatre types de MST au lieu des dix indiqués. De plus, le modèle d'IA a été formé à l'aide d'images d'utilisateurs n'ayant pas subi de tests de diagnostic pour confirmer les résultats.
Les experts médicaux ont exprimé des doutes quant à la fiabilité des méthodes de l'application, étant donné que la plupart des MST sont asymptomatiques. Les journalistes du Los Angeles Times ont découvert que Calmara était incapable de distinguer même les objets inanimés et ne pouvait pas identifier les signes typiques de MST dans les images.
Implications pour HeHealth
HeHealth a accepté de fermer ses deux applications d'ici le 15 juillet et de supprimer toutes les informations personnelles des clients. . L'entreprise s'est également engagée à demander aux systèmes de paiement de détruire les données de leurs utilisateurs.
Malgré la conclusion de l'enquête, la FTC a averti que d'autres mesures pourraient être possibles si l'intérêt public le justifie. La Commission a souligné l'illégalité de la publicité pour des allégations de santé sans preuves scientifiques fiables.
Glossaire
- FTC (Federal Trade Commission) - Agence gouvernementale américaine chargée de protéger le droits des consommateurs et contrôle du respect de la législation antimonopole.
- HeHealth est la société derrière l'application Calmara, qui promet de diagnostiquer les MST à l'aide de l'IA.
- Calmara est une application qui prétend être capable de détecter les MST à partir de photos.
- Les MST (maladies sexuellement transmissibles) sont un groupe de maladies infectieuses transmises principalement par contact sexuel.
- Le Los Angeles Times est l'un des journaux les plus importants et les plus influents des États-Unis, basé à Los Angeles.
Liens
- Lettre FTC
- Communiqué de presse de Calmara
- Informations de l'OMS sur les MST
- Article du Los Angeles Times sur Calmara
- Source : TheVerge
Réponses aux questions
Qu'est-il arrivé à l'application Calmara ?
Quels problèmes ont été identifiés avec l'application Calmara ?
Quelles mesures ont été prises concernant HeHealth ?
Pourquoi les experts médicaux ont-ils douté de l'efficacité de l'application ?
Quelle position la FTC a-t-elle adoptée concernant les allégations de santé dans la publicité ?
Hashtags
Enregistrer un lien vers cet article
Discussion sur le sujet – Scandale Calmara : Comment une application de rencontres IA a été interdite par la FTC
La Federal Trade Commission des États-Unis a fermé Calmara, une application qui utilisait l’IA pour détecter les MST mais obligeait les utilisateurs à prendre des photos intimes.
Derniers commentaires
8 commentaires
Écrire un commentaire
Votre adresse email ne sera pas publiée. Les champs obligatoires sont cochés *
Mathilde
Ouah! Demande de contrôle des MST par photo ? Cela ressemble à quelque chose qui sort de la science-fiction. Mais il semblerait que la réalité ne soit pas si rose. 🤔
Giovanni
Oui Mathilde, la technologie ne s’arrête pas. Mais dans ce cas, il semble que les créateurs de l’application aient été trop hâtifs dans leurs déclarations. Une précision de 94 % semble impressionnante, c'est dommage que cela se soit avéré être une exagération.
Isabella
Honnêtement, je suis choqué que les gens soient même prêts à envoyer des photos aussi personnelles à l'application ! 😳 La confiance dans l’IA est-elle vraiment si élevée ?
Hans
Isabella, je suis d'accord, c'est vraiment incroyable. Mais apparemment, même dans des domaines aussi délicats, les gens veulent des solutions rapides et pratiques. C'est bien que la FTC soit intervenue à temps et ait mis fin à cette expérience douteuse.
Olaf
Absurdité! C’est à cela que conduit cet engouement pour l’IA. Auparavant, les gens allaient simplement chez le médecin et tout allait bien. Donnez-leur maintenant des applications qui ne peuvent même pas distinguer le vivant du non-vivant. Marasme !
Sophia
Olaf, je comprends votre mécontentement, mais les progrès ne peuvent pas être arrêtés. Il est important que les nouvelles technologies soient développées de manière contrôlée et éthique. Dans ce cas, le système a fonctionné : l’entreprise sans scrupules a été stoppée. 👍
Pierre
Je suis surpris que la FTC ait pris cette question si au sérieux. Ils étaient même prêts à étudier les dickpics pour protéger les consommateurs ! 😅 C'est un nouveau niveau de dévouement au travail.
Mathilde
Pierre, tu as raison ! Cela montre à quel point ils prennent leur travail au sérieux. J'espère que cela servira de leçon à d'autres entreprises qui souhaitent spéculer sur le thème de la santé et de l'IA. La santé n’est pas un domaine dans lequel on peut expérimenter sans raisons valables. 🏥💻