La atención sanitaria vive un momento de inflexión: los avances en inteligencia artificial prometen diagnósticos más precisos y personalizados, pero también corren el riesgo de perpetuar desigualdades si no gestionamos sus sesgos de forma consciente. En el WAI Talk, Camila Prada, centró su intervención en cómo, en DECIDE, transforman los sesgos ocultos en incertidumbres cuantificadas, para que la inteligencia artificial médica cumpla su verdadero propósito: servir a todos los pacientes con rigor y transparencia.
La “trampa” de la precisión global
Camila Prada ilustró su argumento con un caso real: un algoritmo de machine learning capaz de predecir el riesgo cardiovascular con un 92 % de precisión en pruebas. Sin embargo, al desplegarlo en producción se comprobó que subestimaba sistemáticamente el riesgo en mujeres y minorías étnicas.
Este comportamiento, explicó Prada, se debe a que los modelos se nutren de décadas de estudios clínicos sesgados:
- El Framingham Heart Study, piedra angular de muchos modelos cardiovasculares, arrancó en 1948 sobre una cohorte casi exclusivamente masculina y caucásica.
- Los ensayos clínicos de medicamentos han excluido históricamente a mujeres embarazadas, poblaciones étnicas minoritarias y pacientes con comorbilidades.
En su exposición, Prada subrayó que la IA no genera sesgos, sino que los amplifica exponencialmente.
“La pregunta no es si podemos eliminar todos los sesgos, sino si podemos ser lo suficientemente transparentes para que la medicina sea más científica, no menos”.
Gestionar sesgos, no fingir perfección
Para Camila Prada, un mundo libre de sesgos es inalcanzable: las restricciones éticas, las diferencias fisiológicas reales y las limitaciones prácticas siempre dejarán huecos en los datos. No obstante, consideró, la IA ofrece la oportunidad de gestionar esos sesgos con criterios científicos y transparencia total.
Un ejemplo práctico de cómo la IA puede apoyar la gestión de sesgos. En la medicina tradicional, un cardiólogo utilizará la evidencia científica para evaluar el perfil de riesgo cardiovascular de sus pacientes. Utiliza los resultados del estudio HOPE (80% hombres) para decidir qué intervención hacer para una paciente mujer de 65 años. Aquí el sesgo permanece oculto y no cuantificado. Por otro lado, con una herramienta de apoyo a la toma de decisiones desarrollada con IA transparente, mediante la imputación de los datos del paciente, el sistema ofrece:
- Predicción: riesgo moderado
- Confianza: 67 % (solo 23 % de casos similares en mujeres de esa edad)
- Recomendación: considerar factores adicionales específicos de género
Con este formato, el profesional de salud recibe no solo un valor, sino también el contexto y asesoramiento necesario para complementar el diagnóstico.
Metodología de DECIDE para soluciones de IA médica
Durante su intervención, Camila Prada detalló el protocolo de DECIDE para asegurar la honestidad algorítmica en cada proyecto:
- Exclusión de variables sesgadas
Nunca se incorporan en los modelos datos que puedan actuar como proxy de género, etnia o nivel socioeconómico (por ejemplo, código postal o nivel de ingresos).
- Análisis exhaustivo de atributos
Todas las variables categóricas se revisan para detectar posibles sesgos ocultos antes de comenzar el entrenamiento.
- Auditoría del dataset de entrenamiento
Se auditan y depuran los conjuntos de datos para garantizar la ausencia de indicadores inadvertidos de inequidad.
- Particiones aleatorias y estratificadas
Los grupos de training y test se generan de forma completamente aleatoria, aplicando muestreo estratificado que asegure la presencia representativa de mujeres y minorías en cada partición.




