La inteligencia artificial aplicada a la medicina arrastra un sesgo histórico masculino porque ha sido entrenada con datos centrados en el varón blanco. Estudios científicos y organismos internacionales advierten que esto afecta la calidad del diagnóstico y del tratamiento en mujeres y en poblaciones diversas.

Un artículo de The Conversation señala un problema en el desarrollo de la inteligencia artificial (IA) en el ámbito de la salud: muchos algoritmos se entrenan con bases de datos centradas en el «paciente estándar», históricamente definido como hombre, blanco y adulto. Este sesgo no es nuevo, pero adquiere una dimensión crítica al trasladarse a sistemas automatizados que hoy influyen en las decisiones clínicas.

Un estudio publicado en la revista Science (Obermeyer et al., 2019) mostró que un algoritmo común en los sistemas de salud de Estados Unidos subestimaba de manera constante la gravedad de las enfermedades en pacientes afrodescendientes, al usar los costos de atención como una forma indirecta de medir la necesidad médica. Aunque el estudio se centra en la raza, su lógica es extrapolable a otros sesgos estructurales, incluido el de género.

En el caso de las mujeres, la exclusión tiene raíces históricas en la investigación biomédica. Durante décadas, han estado subrepresentadas en ensayos clínicos, lo que ha limitado la comprensión de diferencias fisiológicas clave. La Organización Mundial de la Salud ha advertido de que estas brechas afectan la calidad del diagnóstico y del tratamiento, especialmente en enfermedades cardiovasculares, donde los síntomas en las mujeres suelen diferir de los patrones definidos en los hombres.

Cuando estos datos incompletos alimentan sistemas de IA, el problema se agrava. Los algoritmos utilizados para detectar enfermedades, priorizar pacientes o recomendar tratamientos pueden reproducir errores previos con una apariencia de neutralidad tecnológica. Un informe del World Economic Forum (2021) señala que la falta de diversidad en los datos y en los equipos de desarrollo incrementa el riesgo de sesgos en las aplicaciones de IA en salud.

La dimensión interseccional agrava el escenario. No se trata únicamente del género, sino de la interacción con otros factores como la raza, la edad, la discapacidad o el nivel socioeconómico. Investigaciones de los National Institutes of Health han evidenciado que poblaciones históricamente marginadas —incluidas mujeres afrodescendientes o indígenas— presentan mayores tasas de subdiagnóstico y menor acceso a tratamientos adecuados, una brecha que podría profundizarse con el uso de IA si no se corrige la base de datos.

En América Latina, el desafío es aún mayor. La región enfrenta limitaciones en la generación de datos clínicos representativos y en la digitalización de los sistemas de salud. Según la Comisión Económica para América Latina y el Caribe, la incorporación de tecnologías digitales en salud debe ir acompañada de políticas que garanticen la inclusión y la equidad, para evitar la replicación de desigualdades estructurales.

El debate actual no se limita a aumentar la cantidad de datos, sino a cuestionar los criterios con los que se construye el conocimiento médico. Expertas citadas en The Conversation subrayan que no basta con “agregar diversidad” si los modelos se siguen diseñando bajo un paradigma que asume la universalidad de un cuerpo estándar.

La expansión de la inteligencia artificial en salud plantea, así, una cuestión central: su potencial para mejorar la eficiencia y la precisión convive con el riesgo de consolidar sesgos históricos. En un contexto en el que los algoritmos comienzan a influir en las decisiones clínicas, la pregunta clave es quién está representado en los datos y quién queda fuera.

Referencias 

Comisión Económica para América Latina y el Caribe. (2022). Salud digital en América Latina y el Caribe: desafíos y oportunidades. https://www.cepal.org 

National Institutes of Health. (2022). Inclusion of women and minorities in clinical research. https://www.nih.gov 

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342 

The Conversation. (2026). Entrenada para tratar al varón blanco estándar: inteligencia artificial y sesgo de género en salud. https://theconversation.com/entrenada-para-tratar-al-varon-blanco-estandar-inteligencia-artificial-y-sesgo-de-genero-en-salud-279990 

World Economic Forum. (2021). Global Gender Gap Report 2021. https://www.weforum.org/reports/global-gender-gap-report-2021 

World Health Organization. (2021). Ethics and governance of artificial intelligence for health. https://www.who.int/publications/i/item/9789240029200