La IA etiqueta al 56 % de las jóvenes como "frágiles" marcando así grandes sesgos de género

EmailFacebookTwitterLinkedinPinterest
Concepto de inteligencia artificial representado por el retrato de una mujer

Lectura fácil

Mientras España lidera debates sobre la transparencia salarial y la ética digital, una investigación ha puesto de manifiesto una realidad preocupante: la inteligencia artificial está actuando como un nuevo "techo de cristal" invisible. Según los datos publicados por Enclave ODS, los sistemas de orientación vocacional basados en IA etiquetan al 56 % de las jóvenes como perfiles "frágiles". Esta clasificación no es solo una etiqueta; tiene consecuencias directas de sesgos de género, ya que el algoritmo dirige tres veces más sus recomendaciones hacia los sectores de salud y ciencias sociales, alejándolas de las ingenierías y la tecnología.

Los datos del pasado dictan el futuro

El problema de estos sesgos de género reside en el entrenamiento de estos sistemas. La IA se nutre de datos históricos que reflejan una sociedad donde las mujeres han asumido tradicionalmente los roles de cuidados. Al detectar estos patrones, el algoritmo "aprende" que el éxito femenino está ligado a la empatía y la asistencia, mientras que asocia el liderazgo técnico y la resolución de problemas lógicos al perfil masculino.

En un contexto donde el 81 % de las empresas prevé contratar más profesionales en 2026, especialmente en áreas tecnológicas, esta discriminación digital supone un lastre económico y social. Si la IA sigue recomendando a las jóvenes que eviten las carreras STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), la brecha de género en la alta dirección —donde hoy las mujeres solo ocupan el 12 % de las presidencias del Ibex 35— no se cerrará jamás.

Fragilidad vs. Resiliencia: la trampa de las etiquetas y sesgos de género

Clasificar a una joven como "frágil" es una forma de violencia simbólica automatizada. Estos términos suelen ser interpretados por la IA como una menor tolerancia al estrés laboral, que actualmente afecta al 26 % de la población. Al intentar "proteger" a la usuaria de entornos competitivos, el algoritmo cercena su ambición y su autonomía.

La diversidad humana es una riqueza que el código no siempre sabe captar. Un perfil que la IA identifica sesgos de género como frágil puede ser, en realidad, un perfil con alta inteligencia emocional, una habilidad crítica para el liderazgo intergeneracional y la gestión de equipos modernos. Al igual que el surfista Aitor Francesena rompió los moldes de lo que un deportista ciego podía lograr, las jóvenes de 2026 necesitan herramientas que potencien su talento sin prejuicios de silicio.

Hacia una auditoría algorítmica urgente

Para revertir esta situación, es fundamental aplicar con rigor el Reglamento Europeo de IA. No basta con que el 90 % de los ciudadanos respalde la tecnología sanitaria o educativa; esa tecnología debe ser auditable. Las empresas desarrolladoras deben garantizar que sus modelos de lenguaje y recomendación sin sesgos de género ¡y que sus equipos de programación sean diversos.

La solución no es renunciar a la IA, sino exigir una IA Verde y socialmente responsable. Solo mediante la acción colectiva de instituciones, centros educativos y desarrolladores podremos asegurar que el algoritmo de hoy no se convierta en el prejuicio del mañana. La orientación vocacional debe ser una puerta abierta a todas las posibilidades, no un túnel que dirija a las mujeres hacia los mismos roles de siempre por una interpretación errónea de su capacidad.

Añadir nuevo comentario