Actualizado, 18 septiembre, 2025
Un artículo publicado en NEJM y de libre acceso aborda los problemas que surgen al supervisar modelos predictivos clínicos luego de su implementación en la práctica y que en inglés ha sido llamada postmarket surveillance. Estos modelos, basados en inteligencia artificial, ayudan en la predicción de riesgos y la toma de decisiones, pero pueden degradarse en desempeño tras su despliegue debido a cambios en los datos, en la población de pacientes, en patrones clínicos o en los procesos del sistema de salud — fenómeno conocido como dataset shift.
Los autores de centros médicos de Ann Arbor y San Diego de los EEUU señalan que un problema fundamental es la presencia de intervenciones médicas confusas: cuando un modelo predice un riesgo elevado, los médicos clínicos actúan para evitar el evento predicho, lo que puede reducir su ocurrencia. Esto hace que, al evaluar posteriormente el modelo, parezca que su rendimiento decayó, aunque lo que cambió fue la frecuencia del evento por la intervención eficaz, no la calidad del modelo.
En el artículo se detallan conductas para hacer la vigilancia post-implementación. Sugieren usar modelos causales y métodos que estimen los resultados contrafactuales (qué habría pasado si no se hubiese intervenido), lo que permitiría separar el efecto de la intervención del efecto real del modelo.
Advierten que las decisiones de actualizar o retirar modelos no deberían basarse solo en métricas observadas sin considerar la vía causal detrás de ellas. Recomiendan que tales decisiones sean evidencia‑basadas, con participación de desarrolladores, clínicos y reguladores, para asegurar que los modelos sigan siendo útiles y confiables en entornos clínicos dinámicos.
Ansari S, Baur B, Singh K et al. Challenges in the Postmarket Surveillance of Clinical Prediction Models. Published in final edited form as: NEJM AI. 2025 Apr 24;2(5):10.1056/aip2401116. doi: 10.1056/aip2401116