Suilán Estévez: la IA necesita diversidad

Historia

La profesora e investigadora de la Universidad de La Habana y decana de la Facultad de Matemática y Computación, explica por qué la diversidad de equipos, la calidad de los datos y la formación continua son claves para una IA responsable. Su enfoque une aula y laboratorio, fija objetivos medibles y prioriza la supervisión humana para que los modelos sirvan a las personas y no reproduzcan desigualdades.
Jóvenes cubanos usando herramientas de IA

Cuando Suilán Estévez aborda la necesidad de más voces en la inteligencia artificial (IA), no comienza por líneas de código ni por métricas abstractas. Comienza por la comunidad. “Crear una comunidad más inclusiva, tanto en expertos como en usuarios, es un paso para una mayor diversidad de opiniones y para crear mejores herramientas de cara al futuro”, afirma. 

Desde la Facultad de Matemática y Computación de la Universidad de La Habana, ha visto cómo cambian las preguntas y las expectativas de sus estudiantes. La IA ya no es un tema de laboratorio; atraviesa la manera de aprender, trabajar, emprender e investigar. Esa transformación, sostiene, abre una oportunidad y una responsabilidad: convertir capacidades científicas en soluciones útiles y, al mismo tiempo, reducir los sesgos que pueden afectar a personas y comunidades. El punto de partida de su enfoque es técnico y humano a la vez. La IA aprende de lo que le damos y lo aplica para cumplir objetivos; no para “entendernos”. 

La IA es especialmente buena reconociendo patrones y, muchas veces, ocurre que, al entrenarla, le damos datos con patrones no deseados, como machismo o racismo. La IA no es lo bastante inteligente para explicarle nuestra moral y ética.

Miradas diversas para mitigar sesgos

Por eso, subraya, el diseño importa desde el inicio. En su propia trayectoria encuentra un ejemplo elocuente. “En mi caso, acabo de ser madre y evidentemente en mis publicaciones de los últimos cuatro años se nota que fui mamá por el descenso en el número de publicaciones. Un modelo de machine learning puede identificar que soy mamá sin decirle que soy mujer”. Si los equipos y los datos no reflejan experiencias diversas, los sistemas buscarán atajos y podrán amplificar sesgos de género o raciales sin que nadie se lo proponga.

Para evitarlo, Estévez plantea tres palancas que deben avanzar de forma coordinada. La primera es la calidad y la gobernanza de los datos. Sin resguardo, trazabilidad y muestras representativas, cualquier mejora técnica será frágil. La segunda es el talento: formar, atraer y retener perfiles capaces de entrenar, auditar y evaluar modelos con criterio ético y rigor científico. La tercera es la infraestructura, porque investigar, probar y desplegar con seguridad exige entornos y hardware adecuados. Cuando estas piezas se articulan, los modelos no solo rinden mejor: permiten comprender sus límites, reproducir resultados entre equipos y corregir desvíos a tiempo.

De esa coherencia se desprenden las recomendaciones que Estévez considera medulares. Transparencia para conocer procesos y limitaciones. Explicabilidad para entender qué variables influyeron y por qué. Replicabilidad para que otro equipo pueda repetir el proceso y llegar a resultados equivalentes. Evaluación continua con supervisión humana para intervenir cuando el sistema se aparte del objetivo. En todas estas etapas, la presencia de miradas diversas —por género, territorio, disciplina y experiencia de vida— aumenta la probabilidad de detectar fallas, revisar supuestos y proteger a quienes podrían verse afectados por decisiones automatizadas.

Brecha de género persistente

El aula ofrece un termómetro de esa urgencia. Cada año, Estévez celebra el talento de las nuevas cohortes, pero observa una señal de alerta: la menor presencia femenina en carreras de computación frente a otras ciencias, a pesar del alto desempeño de muchas estudiantes. Para cambiar esa tendencia, propone encadenar referentes visibles y conversaciones tempranas con quienes influyen en las decisiones de carrera. “No solo con las niñas, también con madres, padres y docentes. Sin ejemplos no se ve posible”. La visibilidad sostenida, unida a mentorías y experiencias prácticas, puede inclinar la balanza hacia trayectorias donde las mujeres no solo participan: lideran.

La ruta que imagina para convertir convicción en resultados es concreta. Se trata de pasar de esfuerzos dispersos a carteras de proyectos con objetivos y métricas públicas; de multiplicar alianzas entre universidad, sector público, industria y comunidades tecnológicas; y de compartir evidencias para escalar lo que funciona. Ese llamado no desconoce los obstáculos: reconoce restricciones materiales y asimetrías de acceso, y por eso apuesta por una arquitectura que combine innovación técnica, conocimiento social y financiamiento orientado al impacto. El propósito es claro: que las soluciones lleguen a quienes más las necesitan y que también habiliten emprendimientos liderados por mujeres.

En lo cotidiano, esa arquitectura se traduce en políticas de datos que privilegien calidad y protección; en rutas de formación donde más se requieren habilidades digitales; y en instrumentos que permitan crecer a las iniciativas que demuestran resultados. La meta no es sustituir a las personas, sino dotarlas de herramientas confiables. La experiencia reciente de Estévez lo confirma: mejora la productividad del trabajo cuando se incorporan modelos con criterios de responsabilidad y emergen interfaces más accesibles cuando la diversidad está presente desde el diseño.

 

De ahí una frase que funciona como alerta y brújula: 

Aprender a usarlos bien implica reconocer límites, medir avances y mantener a las personas en el centro. En última instancia, la tecnología refleja a quienes la crean. Y cuando quienes la crean son más diversas, la IA reduce sesgos, aumenta su utilidad social y amplía las posibilidades del futuro.

UNESCO

Compartir este artículo:

Otros artículos: