Escándalo de Calmara: cómo la FTC prohibió una aplicación de citas con inteligencia artificial
La Comisión Federal de Comercio de EE. UU. ha tomado medidas enérgicas contra una aplicación que prometía falsamente diagnosticar ETS utilizando IA. HeHealth se ve obligada a cerrar Calmara debido a afirmaciones falsas y prácticas cuestionables.
Cierre de la aplicación Calmara
Reclamaciones de la FTC contra HeHealth
La Comisión Federal de Comercio de Estados Unidos obligó a HeHealth a descontinuar su aplicación Calmara. El software prometió utilizar inteligencia artificial para detectar infecciones de transmisión sexual.
Según un documento técnico de la FTC del 11 de julio, Calmara animó a los usuarios a enviar fotografías íntimas para pruebas de ETS. La aplicación garantizaba "respuestas precisas y basadas en la ciencia sobre la salud sexual de su pareja". La Comisión expresó su preocupación por la fiabilidad de la información en la que HeHealth se basó en sus declaraciones.
Investigación y datos inexactos
Durante la investigación, resultó que HeHealth financió a los autores de los estudios a los que hacía referencia. El estudio principal abarcó sólo cuatro tipos de ETS en lugar de los diez indicados. Además, el modelo de IA se entrenó utilizando imágenes de usuarios que no se habían sometido a pruebas de diagnóstico para confirmar los resultados.
Los expertos médicos han expresado dudas sobre la fiabilidad de los métodos de la aplicación, dado que la mayoría de las ETS son asintomáticas. Los periodistas de Los Angeles Times descubrieron que Calmara no podía distinguir ni siquiera objetos inanimados y no podía identificar signos típicos de ETS en las imágenes.
Implicaciones para HeHealth
HeHealth acordó cerrar ambas aplicaciones antes del 15 de julio y eliminar toda la información personal del cliente . La empresa también se comprometió a pedir a los sistemas de pago que destruyan los datos de sus usuarios.
A pesar de la conclusión de la investigación, la FTC advirtió que es posible que se tomen más medidas si el interés público lo justifica. La Comisión destacó la ilegalidad de hacer publicidad de declaraciones de propiedades saludables sin pruebas científicas fiables.
Glosario
- FTC (Comisión Federal de Comercio): agencia del gobierno de EE. UU. encargada de proteger el derechos de los consumidores y vigilancia del cumplimiento de la legislación antimonopolio.
- HeHealth es la empresa detrás de la aplicación Calmara, que promete diagnosticar enfermedades de transmisión sexual mediante inteligencia artificial.
- Calmara es una aplicación que afirma poder detectar ETS a partir de fotografías.
- Las ETS (enfermedades de transmisión sexual) son un grupo de enfermedades infecciosas que se transmiten principalmente a través del contacto sexual.
- Los Angeles Times es uno de los periódicos más grandes e influyentes de los Estados Unidos, con sede en Los Ángeles.
Enlaces
- Carta de la FTC
- Comunicado de prensa de Calmara
- Información de la OMS sobre las ETS
- Artículo de Los Angeles Times sobre Calmara
- Fuente: TheVerge
Respuestas a las preguntas
¿Qué pasó con la aplicación Calmara?
¿Qué problemas se han identificado con la aplicación Calmara?
¿Qué medidas se han tomado respecto a HeHealth?
¿Por qué los expertos médicos dudaron de la eficacia de la aplicación?
¿Qué posición ha adoptado la FTC sobre las declaraciones de propiedades saludables en la publicidad?
Hashtags
Guardar un enlace a este articulo
Discusion del tema – Escándalo de Calmara: cómo la FTC prohibió una aplicación de citas con inteligencia artificial
La Comisión Federal de Comercio de EE. UU. cerró una aplicación llamada Calmara, que utilizaba inteligencia artificial para detectar enfermedades de transmisión sexual pero exigía a los usuarios que tomaran fotografías íntimas.
Ultimos comentarios
8 comentarios
Escribir un comentario
Su dirección de correo electrónico no se publicará. Los campos obligatorios están marcados *
Mathilde
¡Guau! ¿Aplicación para comprobar ETS mediante fotografía? Suena como algo sacado de la ciencia ficción. Pero parece que la realidad no fue tan color de rosa. 🤔
Giovanni
Sí, Mathilde, la tecnología no se detiene. Pero en este caso parece que los creadores de la aplicación se precipitaron demasiado con sus declaraciones. Una precisión del 94% suena impresionante, es una pena que resulte ser una exageración.
Isabella
Honestamente, ¡me sorprende que la gente estuviera dispuesta a enviar fotos tan personales a la aplicación! 😳 ¿Es realmente tan alta la confianza en la IA?
Hans
Isabella, estoy de acuerdo, esto es realmente asombroso. Pero aparentemente la gente quiere soluciones rápidas y cómodas, incluso en asuntos tan delicados. Es bueno que la FTC interviniera a tiempo y detuviera este dudoso experimento.
Olaf
¡Disparates! A esto es a lo que está conduciendo esta moda de la IA. Antes la gente iba al médico y todo iba bien. Ahora dales aplicaciones que ni siquiera puedan distinguir entre seres vivos y no vivos. ¡Marasmo!
Sophia
Olaf, entiendo tu descontento, pero el progreso no se puede detener. Es importante que las nuevas tecnologías se desarrollen de forma controlada y ética. En este caso, el sistema funcionó: se detuvo a la empresa sin escrúpulos. 👍
Pierre
Me sorprende que la FTC haya tomado este asunto tan en serio. ¡Incluso estaban dispuestos a estudiar fotos de penes para proteger a los consumidores! 😅 Este es un nuevo nivel de dedicación al trabajo.
Mathilde
Pedro, tienes razón! Esto demuestra la seriedad con la que se toman su trabajo. Espero que esto sirva de lección para otras empresas que quieran especular sobre el tema de la salud y la IA. La salud no es un área en la que se pueda experimentar sin motivos adecuados. 🏥💻