Por Barbara Sarrionandia
En medicina hay una frase que se repite como un mantra: “el cuerpo de la mujer no es una versión pequeña del cuerpo del hombre”. Sin embargo, buena parte de la historia clínica moderna se ha escrito como si lo fuera. Durante décadas, los ensayos clínicos se hicieron sobre todo en varones, los síntomas “típicos” de infarto se definieron mirando cuerpos masculinos y el dolor de ellas se etiquetó demasiadas veces como ansiedad, estrés o “cosas de hormonas”. Ahora estamos poniendo una capa de inteligencia artificial encima de todo eso… y nos sorprendemos de que los algoritmos también se equivoquen más con las mujeres.
En el caso de los infartos, por ejemplo, muchas mujeres no llegan a urgencias con la imagen de manual del hombre que se agarra el pecho y cae al suelo. Suelen describir cansancio extremo, náuseas, dolor en la espalda, en la mandíbula o una sensación difusa de malestar que no encaja con el estereotipo cinematográfico del ataque al corazón. Estudios recientes recuerdan que estos cuadros “atípicos” contribuyen a retrasos en el diagnóstico y a que los eventos coronarios en mujeres se infradiagnostiquen y se traten peor que en los hombres.
Si ésa es la foto de partida, el movimiento lógico sería corregirla: más investigación específica en mujeres, más formación en síntomas diferenciados, más protocolos sensibles al género. Pero la realidad es más incómoda. Una parte creciente de la medicina está delegando tareas críticas —desde el análisis de imágenes hasta la estratificación de riesgo— en sistemas de IA entrenados con historiales donde las mujeres aparecen menos, más tarde o peor diagnosticadas. Es decir: estamos construyendo “médicos algorítmicos” sobre un archivo ya sesgado.
Un trabajo reciente en Nature Medicine analizaba modelos de inteligencia artificial entrenados con historias clínicas y advertía de algo preocupante: incluso cuando se intentan introducir correcciones, los algoritmos tienden a reproducir las desigualdades que encuentran en los datos originales. El estudio hablaba de diferencias de rendimiento entre grupos por sexo, edad o raza y recordaba que la IA clínica no flota en el vacío, sino que hereda los sesgos de los hospitales donde se ha alimentado. No es que “la IA sea machista” por naturaleza; es que aprende de un sistema sanitario que, durante años, ha tratado de forma distinta a hombres y mujeres.
A esto se suma otro problema: la propia eficacia de muchas herramientas se ha sobrevendido. Un estudio reciente en Communications Medicine mostró que modelos de aprendizaje automático diseñados para anticipar deterioros críticos en pacientes hospitalizados pasaban por alto alrededor de dos tercios de las lesiones que podían llevar a la muerte. Si ya fallan así en términos generales, ¿qué ocurre cuando miramos de cerca a los grupos históricamente infrarrepresentados, como las mujeres con síntomas “no de libro”?
En este contexto, titulares como “la IA médica diagnostica mal a las mujeres” no son una exageración catastrofista, sino la consecuencia lógica de tres capas superpuestas: una medicina construida durante décadas sobre el paciente varón estándar, unos datos hospitalarios que reflejan esa mirada parcial y unos algoritmos entrenados para detectar patrones precisamente en esa parcialidad. La IA no inventa el problema, pero corre el riesgo de fijarlo en piedra.
La tentación, en este punto, es buscar soluciones rápidas: “basta con añadir más mujeres al dataset”, “metamos una variable de sexo y listo”, “pongamos un filtro de equidad y estamos salvados”. Pero quienes trabajan en este campo llevan tiempo advirtiendo que no es tan sencillo. Corregir el sesgo no es sólo equilibrar porcentajes, sino preguntarse qué se registró, cómo y quién decidió qué era relevante. Si durante años no consideramos importante anotar ciertos síntomas en mujeres o se descartaron como ansiedad, los algoritmos nunca aprenderán a tomarlos en serio.
¿Significa esto que debemos desconfiar por sistema de la IA médica? No. La automatización puede ayudar a detectar patrones sutiles, a priorizar casos urgentes, a liberar tiempo de profesionales saturados. El problema no es la herramienta, sino el relato mágico que la rodea: esa idea de que un modelo, por llevar la etiqueta “inteligente”, será automáticamente más neutral que los humanos. En realidad, si no se diseñan y evalúan con criterios de equidad, los algoritmos pueden convertirse en cajas negras que amplifican justamente aquello que decimos querer corregir.
Por eso, cuando hablamos de IA y salud de las mujeres, la pregunta clave no es “¿funciona?”, sino “¿para quién funciona peor?”. Cualquier despliegue serio de estas tecnologías debería incluir auditorías sistemáticas por sexo, edad y otros factores, informes públicos de desempeño y la obligación de parar o revisar sistemas que muestren brechas persistentes. No es un lujo académico: es una necesidad ética y clínica.
También hace falta algo menos glamuroso que un algoritmo y mucho más difícil de vender: tiempo y escucha. Ningún sistema, por sofisticado que sea, debería sustituir la conversación entre paciente y profesional. Sobre todo cuando la paciente llega con síntomas que no encajan en el molde estándar. Si delegamos en exceso en la pantalla, corremos el riesgo de que la historia clínica se convierta en un formulario que la IA rellena, en lugar de en un espacio donde la persona puede decir “algo no va bien” aunque no haya casilla para ello.
La paradoja es que la inteligencia artificial podría ser una aliada formidable de la salud de las mujeres. Podría ayudarnos a identificar patrones específicos de enfermedad femenina que hoy se nos escapan, a diseñar tratamientos más ajustados, a visualizar lagunas de investigación. Pero para que eso ocurra, hay que plantear el proyecto al revés: no como “vamos a digitalizar lo que ya tenemos”, sino como “vamos a usar la IA para corregir las injusticias acumuladas”.
Mientras tanto, conviene repetir una verdad incómoda: si los datos con los que entrenamos los modelos han ignorado sistemáticamente a las mujeres, la IA también lo hará. Y no hay nada más peligroso en medicina que un sistema que se equivoca con mucha seguridad… especialmente cuando quien está al otro lado es una paciente cuyo cuerpo nunca fue el estándar, pero sí merece, como mínimo, el mismo cuidado.
