La integración entre Apple Health y ChatGPT Health acaba de protagonizar un choque drástico, tras un informe del Washington Post que pone sobre la mesa errores, contradicciones y un problema mucho más incómodo de lo que parece.
Un experimento real con resultados inquietantes
A comienzos de enero, OpenAI presentó ChatGPT Health como un asistente pensado para ayudar a interpretar información médica personal. La propuesta era ambiciosa: permitir la conexión segura con servicios como Apple Health, Function o MyFitnessPal para ofrecer orientación sobre análisis recientes, preparación de citas médicas, hábitos de ejercicio o incluso decisiones relacionadas con seguros de salud.
El periodista Geoffrey Fowler decidió poner a prueba el sistema cediendo a ChatGPT Health el acceso a su historial completo de Apple Health: 29 millones de pasos registrados y 6 millones de mediciones de ritmo cardíaco. Su pregunta fue directa: evaluar su salud cardiovascular.
La respuesta fue un suspenso rotundo. Una calificación F que, según el sistema, reflejaba un estado preocupante.
Cuando la IA discrepa… consigo misma
Al consultar con su médico, Fowler recibió una valoración opuesta. Según el especialista, su riesgo cardiovascular era tan bajo que incluso resultaría complicado justificar pruebas adicionales ante su aseguradora. El diagnóstico generado por la IA no solo no coincidía, sino que resultaba clínicamente irrelevante.
La situación empeoró al repetir la misma consulta varias veces. ChatGPT Health no mantuvo un criterio estable: la calificación osciló entre una B y una F, sin cambios en los datos analizados ni en la pregunta formulada.
Esa variabilidad resta cualquier utilidad real a la herramienta como apoyo médico. Un sistema que ofrece respuestas distintas ante el mismo escenario no sirve para orientar decisiones relacionadas con la salud, y menos aún para tranquilizar, o alertar, a quien confía en él.
OpenAI no es el único señalado en esto
El informe no solo señala a OpenAI. También plantea un desafío serio para Apple Health, que lleva años ampliando sus capacidades con algoritmos de análisis y propuestas basadas en aprendizaje automático.
La ambición de convertir el iPhone y el Apple Watch en una especie de centro médico digital depende de una condición básica: coherencia. Si la capa de interpretación falla, el valor del ecosistema se diluye rápidamente.
El riesgo no es solo técnico. Es emocional. Un diagnóstico erróneo puede generar ansiedad innecesaria, falsas alarmas o una confianza mal situada en una respuesta automatizada que no tiene contexto clínico real.
Puedes seguir a HardwarePremium en Facebook, Twitter (X), Instagram, Threads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.
FAQ – Apple Health y ChatGPT Health
Un servicio de OpenAI pensado para ayudar a interpretar datos médicos y de bienestar personal.
Pasos, ritmo cardíaco y otros registros biométricos almacenados en la app.
Resultados médicos contradictorios ante la misma información.
No. El propio caso analizado demuestra que no debe usarse como herramienta diagnóstica.
Plantea dudas importantes sobre la fiabilidad de futuras funciones basadas en IA.



