Laura Victoria García Matamoros, profesora titular Universidad del Rosario

Opinión

Género, poder y algoritmos

La IA puede ser una herramienta poderosa, pero también peligrosa si se usa sin responsabilidad. Si no le incorporamos una perspectiva de género, corremos el riesgo de automatizar prejuicios que durante siglos hemos intentado superar.

Por: Laura Victoria García Matamoros
17 de julio de 2025

En el mundo actual, para la sociedad y para casi todas las profesiones, resulta evidente que la inteligencia artificial (IA) es una herramienta fundamental. Sin embargo, es necesario reflexionar no solo sobre su alcance y límites, sino también sobre sus riesgos.

Uno de los más preocupantes es su capacidad para perpetuar —e incluso amplificar— los sesgos de género. Solemos imaginar la IA como algo neutral, preciso e infalible, guiado por complejos algoritmos que escapan al error humano. Pero esa imagen es engañosa. La IA puede discriminar, y mucho, especialmente en cuestiones de género.

¿Por qué ocurre esto? Porque la IA aprende a partir de datos. Y esos datos, con frecuencia, reflejan un mundo desigual. Si los historiales de contratación muestran que los puestos directivos son ocupados principalmente por hombres, el algoritmo “aprende” que ser hombre es una señal positiva para liderar. Así, puede concluir que una mujer, con elmismo perfil profesional, tiene menos probabilidades de ser elegida.

Este tipo de sesgo no se limita al mundo laboral. Puede darse en sistemas que determinan quién recibe un crédito, una beca o una ayuda estatal, si se basan en datos históricos que han privilegiado a los hombres. Lo más grave: como los algoritmos no explican sus decisiones, muchas veces quienes son excluidos ni siquiera saben que fueron discriminados.

Algunos casos son aún más alarmantes. Un estudio del MIT reveló que ciertos sistemas de reconocimiento facial funcionan bien con hombres blancos, pero fallan con mujeres, sobre todo si tienen piel oscura. Lo que parece un fallo técnico, en la práctica puede significar que una mujer sea confundida con otra persona, o directamente ignorada por un sistema que no la “ve”.

Incluso en herramientas cotidianas los sesgos pasan desapercibidos. Muchos asistentes virtuales, como Siri o Alexa, tienen voces femeninas, suaves y serviciales. No es casualidad: se refuerza la idea de que las mujeres están para atender y complacer. Y cuando estos estereotipos se reproducen miles de veces al día, terminan por normalizarse.

Pero el problema no es solo lo que hace la IA, sino quién la diseña. La mayoría de los equipos que desarrollan estos sistemas están integrados por hombres, muchas veces sin formación en temas de género o derechos humanos. Si no hay diversidad en la creación de tecnología, difícilmente esta será justa para todos.

Frente a esta realidad, es urgente dejar de asumir que lo digital es sinónimo de objetividad. Necesitamos exigir transparencia: si una decisión se toma con ayuda de un algoritmo, debemos poder entender cómo y por qué. También debemos promover la participación de mujeres y de personas diversas en el diseño tecnológico. Y, por supuesto, impulsar leyes que protejan a quienes puedan resultar afectados.

Además, no podemos dejar el desarrollo de estas tecnologías únicamente en manos del sector privado. La inteligencia artificial está moldeando aspectos fundamentales de la vida social, económica y política, por lo que requiere una vigilancia activa por parte de la sociedad civil, las instituciones públicas y la academia. Se necesita establecer mecanismos de control ético y regulación que garanticen que estas herramientas estén alineadas con principios de equidad, justicia y derechos humanos, no sólo con criterios de eficiencia o rentabilidad.

La IA puede ser una herramienta poderosa, pero también peligrosa si se usa sin responsabilidad. Si no le incorporamos una perspectiva de género, corremos el riesgo de automatizar prejuicios que durante siglos hemos intentado superar. La tecnología no debe perpetuar la desigualdad, debe ayudarnos a erradicarla.

Laura Victoria García Matamoros, profesora titular de la Facultad de Jurisprudencia, Universidad del Rosario

Noticias relacionadas