Introducción: ¿Por qué son importantes los modelos pronósticos?
En medicina, uno de los pilares para la toma de decisiones es la capacidad de anticipar el futuro clínico de un paciente. Esto no solo permite establecer un tratamiento personalizado, sino también informar con claridad a los pacientes y familiares, estimar recursos sanitarios y diseñar mejores estudios clínicos. Los modelos pronósticos surgen como una respuesta científica a esta necesidad: son herramientas estadísticas que integran múltiples variables para estimar la probabilidad de que un paciente experimente un desenlace determinado dentro de un periodo de tiempo.
Un ejemplo clásico es el Nottingham Prognostic Index (NPI), desarrollado para mujeres con cáncer de mama. Este modelo combina el tamaño del tumor, el grado histológico y el número de ganglios linfáticos afectados para calcular una puntuación de riesgo que se asocia con la supervivencia a 5 años Así, una paciente con un tumor de 2 cm, grado histológico 2 y sin ganglios comprometidos podría obtener un NPI bajo, lo cual sugiere un pronóstico favorable.
Conceptos fundamentales
¿Qué es un modelo pronóstico?
Un modelo pronóstico es una fórmula estadística, generalmente derivada de regresión multivariable, que estima el riesgo individual de un paciente para desarrollar un evento clínico futuro (por ejemplo, muerte, recaída, progresión o complicaciones) a partir de una serie de predictores clínicos, demográficos o biológicos.
En forma general, el modelo puede representarse como:
Donde p es la probabilidad del evento, son los predictores y son sus coeficientes.
En desenlaces de tiempo a evento, se suele utilizar la regresión de Cox:
Etapas para construir un modelo pronóstico válido
1. Planteamiento clínico y exploración de datos
El primer paso es transformar una necesidad clínica en una pregunta clara y operacional. Por ejemplo: ¿Qué pacientes con traumatismo craneoencefálico tienen alto riesgo de muerte en 14 días? Este enfoque requiere identificar con claridad:
La población (ej. pacientes ingresados con TCE moderado o severo)
El desenlace (ej. muerte o discapacidad grave)
El tiempo de predicción (14 días o 6 meses)
El contexto clínico (hospitales de trauma)
Esto puede formalizarse bajo el marco PICOTS (Population, Intervention/model, Comparator, Outcome, Time, Setting).
2. Selección y codificación de predictores
Los predictores deben ser variables disponibles en la práctica clínica y con plausibilidad biológica. En el caso del TCE, podrían ser: edad, puntuación de Glasgow, presión sistólica al ingreso, pupilas midriáticas o reacción pupilar. Estos predictores deben codificarse con cuidado. Aunque muchas veces se categorizan para facilitar la interpretación (ej. edad < 65 años vs ≥ 65 años), esto puede generar pérdida de información y se recomienda mantenerlas como variables continuas cuando sea posible.
Además, deben tratarse los valores perdidos. El uso de imputación múltiple es superior al análisis de casos completos, ya que evita sesgos y permite aprovechar toda la información disponible.
3. Especificación y estimación del modelo
Aquí se emplea regresión logística (si el evento es binario) o de Cox (si se modela el tiempo hasta el evento). Supongamos que estamos modelando la mortalidad a 30 días por COVID-19:
En este modelo, por cada año adicional de edad, el riesgo de muerte aumenta en un 3% relativo (OR = 1.03). Cada variable contribuye al riesgo total, y se puede construir una calculadora de riesgo para uso clínico.
Para evitar sobreajuste, es importante que haya una proporción adecuada entre eventos y predictores (mínimo 10 eventos por predictor). Métodos como LASSO pueden ayudar a seleccionar automáticamente variables relevantes y reducir el sobreajuste mediante penalización.
4. Evaluación del desempeño
Discriminación y calibración son las dos dimensiones esenciales para evaluar un modelo.
Discriminación mide cuán bien el modelo distingue entre pacientes que tendrán el evento y los que no. El estadístico C o AUC es el más usado:
C = 0.5 → azar
C = 0.7 → aceptable
C > 0.8 → excelente
Calibración mide cuán cercanas son las predicciones del modelo a lo que realmente ocurre. Por ejemplo, si un grupo de pacientes tiene una predicción de 20% de muerte, deberían morir aproximadamente 20 de cada 100 pacientes. Las curvas de calibración ayudan a visualizar esto. Idealmente, los puntos deben alinearse con la línea de 45°.
5. Validación del modelo
Una vez construido, el modelo debe probarse en nuevos pacientes. Esto se puede hacer de forma:
Interna: mediante bootstrap o cross-validation dentro del mismo dataset.
Externa: aplicando el modelo en otra población o en un nuevo periodo de tiempo.
La validación externa es crucial. Por ejemplo, el modelo CRASH para TCE fue validado en más de 10,000 pacientes de distintos países, mostrando buen rendimiento y justificación para su uso clínico.
6. Actualización y recalibración
Ningún modelo es eterno. Con el tiempo, pueden cambiar los tratamientos, las poblaciones o los desenlaces. Si un modelo pierde precisión, puede:
Recalibrarse: ajustando intercepto o coeficientes.
Extenderse: añadiendo nuevos predictores (como biomarcadores o hallazgos por imagen).
Rediseñarse: incorporando nuevas metodologías como machine learning.
Sin embargo, los beneficios de agregar nuevos predictores deben medirse frente al costo y la complejidad clínica.
Ejemplo aplicado: Modelo OncologIQ
El modelo OncologIQ, desarrollado en pacientes con cáncer de cabeza y cuello, predice la supervivencia a 5 años y se ha actualizado incorporando 12 predictores clínicos. En una validación reciente, obtuvo un C-statistic de 0.71, lo que refleja buena capacidad discriminativa. Sin embargo, la calibración inicial subestimaba la supervivencia, lo que motivó su recalibración
Reflexión final: ¿Qué hace útil a un modelo?
Un modelo útil no es el más complejo, sino el más aplicable y validado. Debe ser confiable, fácil de interpretar y guiar decisiones clínicas relevantes. Para lograrlo, es necesario:
Diseñar estudios robustos con datos de calidad
Validar el modelo en poblaciones reales
Evaluar su impacto en decisiones clínicas y resultados en salud
Como concluye Steyerberg: un modelo pronóstico debe considerarse no solo como una herramienta estadística, sino como una “tecnología sanitaria” que requiere evaluación, seguimiento y mejora continua.
REFERENCIAS
- Steyerberg EW, Moons KGM, van der Windt DA, et al. Prognosis Research Strategy (PROGRESS) 3: Prognostic Model Research. PLoS Med. 2013;10(2):e1001381. doi:10.1371/journal.pmed.1001381.
- Hoesseini A, van Leeuwen N, Sewnaik A, et al. Key Aspects of Prognostic Model Development and Interpretation From a Clinical Perspective. JAMA Otolaryngol Head Neck Surg. 2022;148(2):180-186. doi:10.1001/jamaoto.2021.3505.
- Rayner DG, Kim B, Foroutan F. A brief step-by-step guide on conducting a systematic review and meta-analysis of prognostic model studies. J Clin Epidemiol. 2024;170:111360. doi:10.1016/j.jclinepi.2024.111360.
- Riley RD, Ensor J, Snell KIE, et al. Calculating the sample size required for developing a clinical prediction model. BMJ. 2020;368:m441. doi:10.1136/bmj.m441.
- Alba AC, Agoritsas T, Walsh M, et al. Discrimination and calibration of clinical prediction models: Users’ guides to the medical literature. JAMA. 2017;318(14):1377-1384. doi:10.1001/jama.2017.12126.
- Moons KGM, Altman DG, Reitsma JB, et al. Transparent Reporting of a multivariable prediction model for Individual Prognosis or Diagnosis (TRIPOD): Explanation and elaboration. Ann Intern Med. 2015;162(1):W1-W73. doi:10.7326/M14-0698.
- Damen JAAG, Moons KGM, van Smeden M, et al. How to conduct a systematic review and meta-analysis of prognostic model studies. Clin Microbiol Infect. 2023;29(4):434-440. doi:10.1016/j.cmi.2022.10.002.
- Debray TPA, Damen JA, Snell KI, et al. A guide to systematic review and meta-analysis of prediction model performance. BMJ. 2017;356:i6460. doi:10.1136/bmj.i6460.

