Entrenada para tratar al ‘varón blanco estándar’: IA y sesgo de género en salud

La inteligencia artificial no siempre es una buena aliada a la hora de tratar asuntos importantes como la salud, ya que su uso inadecuado podría amplificar las diferencias sociales e infravalorar las necesidades poblacionales de mujeres y minorías en estos entornos. Para impedir que esto suceda, un equipo de expertos recomienda diseñar los algoritmos en equipos más inclusivos.

Entrenada para tratar al ‘varón blanco estándar’: IA y sesgo de género en salud

La IA puede reproducir y amplificar sesgos preexistentes en los datos y equipos de desarrollo. / Pexels

La integración de la inteligencia artificial (IA) en la práctica clínica a través de herramientas de diagnóstico y pronóstico ofrece una oportunidad sin precedentes para mejorar la salud. Sin embargo, es fundamental asegurar que sus algoritmos se desarrollen de manera equitativa.

Porque, tal y como advierte la Organización Mundial de la Salud, la IA puede reproducir y amplificar sesgos preexistentes en los datos y equipos de desarrollo. Es un riesgo epidemiológico emergente. Un ejemplo paradigmático se observa en algoritmos de gestión sanitaria con sesgos raciales, que infravaloran las necesidades de poblaciones minoritarias.

Si los algoritmos epidemiológicos son diseñados por equipos homogéneos, existe un riesgo de agravar las desigualdades. Y eso se traduce en una gestión poco igualitaria de los recursos.

Invisibilidad de datos

Uno de los principales desafíos reside en los datos históricos de entrenamiento. En salud, ha sido práctica extendida el uso del “varón blanco estándar” como perfil clínico de referencia. Esta aproximación invisibiliza sistemáticamente los síntomas, necesidades y particularidades fisiológicas de las mujeres.

Cuando un algoritmo se adiestra con datos no representativos, su capacidad predictiva es menos precisa para los grupos infrarrepresentados. Investigaciones revelan que hasta un 31 % de los estudios sobre IA en salud omiten el género en sus conjuntos de datos. Esta invisibilidad distorsiona la planificación de políticas sanitarias y estrategias de prevención y tratamiento.

Es un fenómeno que trasciende lo sanitario. Los grandes modelos de lenguaje (LLM) tienden a asociar una mayor responsabilidad en la crianza y cuidados a las mujeres. Aprendido de los corpus de texto, este sesgo refleja normas sociales tradicionales y afecta a la igualdad en la conciliación.

Un impacto con múltiples ramificaciones

El sesgo de género algorítmico es un desafío que afecta a diversos ámbitos:

Además, modelos como GPT-4 pueden evaluar de forma diferente el riesgo de enfermedad coronaria en las mujeres. Si las organizaciones adoptan herramientas sesgadas para estandarizar protocolos, las guías clínicas resultantesautomatizarán estas desigualdades a gran escala.

  • Representación profesional. La IA generativa refuerza estereotipos de género. Por ejemplo, estos sistemas representan a hombres como médicos especialistas en un 82 % de las imágenes, aunque solo ocupan el 47 % de dichos cargos. Las mujeres son excluidas por sistema de determinadas especialidades como urología o traumatología, lo que crea un “techo de cristal algorítmico” donde la autoridad médica se vuelve visualmente masculina, validando así los sesgos a nivel institucional.

 Repercusiones para la epidemiología y la salud pública

Desde la salud pública, el sesgo de género en la IA plantea los siguientes desafíos estructurales:

En definitiva, la inteligencia artificial tiene un gran potencial para transformar la salud, pero su desarrollo debe ser inclusivo y basado en evidencia epidemiológica para no perpetuar la desigualdad. Desde la salud pública, tenemos la responsabilidad de guiar el desarrollo tecnológico para reducir, y no amplificar, la brecha de género.

Blanca Obón Azuara es especialista en Medicina Preventiva y Salud Pública; Carmen Vives Cases es catedrática en la Universidad de Alicante; Christian Gil-Borrelli es médico en el Servicio Vasco de Salud; David Palma Díaz es investigador en la Universidad de Maastricht; Isabel Gutiérrez Cía es experta en el Instituto Aragonés de Ciencias de la Salud y Marta Puig García es investigadora en la Universidad Miguel Hernández.

The Conversation

Fuente: The Conversation
Derechos: Creative Commons.
Compartir este artículo:

Otros artículos: