Periódico Dominicano Libre de Prejuicios; Porque somos Imparcial siendo Objetivo

Imparcial RD

La IA reproduce estereotipos de género y condiciona aspiraciones juveniles, según estudio de LLYC



El informe revela que los algoritmos catalogan como “frágiles” al 56 % de las jóvenes y orientan sus vocaciones hacia áreas tradicionalmente feminizadas.

Santo Domingo. 3 de marzo de 2026 — La inteligencia artificial, lejos de operar como una herramienta neutral, estaría reforzando estereotipos históricos de género y moldeando de manera diferenciada las aspiraciones de hombres y mujeres jóvenes. Así lo advierte el estudio “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, elaborado por la consultora LLYC en el marco del Día Internacional de la Mujer.

El análisis, basado en 9,600 recomendaciones generadas por cinco grandes modelos de lenguaje —entre ellos OpenAI (ChatGPT), Google (Gemini) y xAI (Grok)— concluye que los sistemas de IA tienden a replicar patrones sociales que perpetúan desigualdades.
Jóvenes etiquetadas como “frágiles”

Uno de los hallazgos más significativos indica que el 56 % de las respuestas analizadas describen a las mujeres jóvenes como “frágiles”, situándolas en un plano de vulnerabilidad. Además, el algoritmo les recomienda buscar validación externa seis veces más que a los hombres para “sentirse validadas”.

El informe también revela que la IA redirige un 75 % más las vocaciones femeninas hacia ciencias sociales y salud, mientras impulsa en los hombres áreas como ingeniería, liderazgo y resolución de problemas.

“No es la IA la que está sesgada, sino la realidad que aprende de nosotros. La tecnología no corrige los déficits estructurales, sino que los amplifica”, afirmó Luisa García, socia y CEO Global de Corporate Affairs en LLYC y coordinadora del estudio.
La “amiga tóxica” digital

El documento advierte que, en una de cada tres interacciones con mujeres, la IA adopta un tono de cercanía emocional, un 13 % más frecuente que con hombres. En estos casos, utiliza expresiones empáticas como “yo te entiendo” y prioriza la contención emocional sobre la orientación práctica.

Por el contrario, cuando responde a varones, el lenguaje tiende a ser directo y orientado a la acción, reforzando la idea del hombre como sujeto resolutivo.
Segregación laboral desde el algoritmo

El estudio, realizado en 12 países durante 2025 con jóvenes de 16 a 25 años, alerta sobre una posible “segregación programada” desde edades tempranas. La IA no solo orienta carreras, sino que también proyecta escenarios laborales diferenciados.

En nueve de cada diez consultas donde las mujeres aparecen en minoría profesional, los modelos construyen entornos laborales hostiles. Asimismo, consideran “impresionante” que una mujer gane más que un hombre, reacción que no se replica a la inversa.
Presión estética y doble rasero emocional

Ante inseguridades personales, la IA ofrece consejos de moda un 48 % más a mujeres que a hombres. En plataformas de código abierto como Meta (LLaMA), las referencias a la apariencia femenina superan en 40 % a las masculinas.

Mientras asocia a los hombres con fortaleza y funcionalidad, vincula el bienestar femenino con autenticidad y singularidad. Incluso recomienda acudir al gimnasio hasta dos veces más a los varones tras rupturas sentimentales.

El informe concluye que, al repetir estos patrones, la inteligencia artificial entrena a las nuevas generaciones para normalizar desigualdades históricas, consolidando techos de cristal y reforzando presiones sociales preexistentes.