Un estudio internacional advierte que la inteligencia artificial no siempre actúa con neutralidad cuando interactúa con los jóvenes.
La investigación “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, elaborada por la consultora LLYC, detectó que los grandes modelos de lenguaje reproducen y amplifican estereotipos de género.
El informe se basó en el análisis de 9,600 recomendaciones generadas por ChatGPT, Gemini y Grok, evaluando respuestas dirigidas a personas entre 16 y 25 años en 12 países.
Los resultados revelan diferencias claras.
En el 56% de los casos, las respuestas dirigidas a mujeres jóvenes las describen como frágiles o en posición de debilidad. Además, los algoritmos recomiendan seis veces más a ellas buscar aprobación externa para sentirse validadas.
El estudio también encontró que la inteligencia artificial orienta de forma distinta las aspiraciones profesionales.
Mientras a los hombres se les asocia con liderazgo, ingeniería o resolución de problemas, a las mujeres se les redirige con mayor frecuencia hacia carreras vinculadas a salud o ciencias sociales.
Otro patrón detectado es el tono del lenguaje. Las respuestas a mujeres tienden a incluir expresiones empáticas o de acompañamiento, mientras que en los hombres predominan indicaciones directas orientadas a la acción.
La investigación también observó diferencias en temas cotidianos. Ante inseguridades personales, la IA ofrece consejos de moda a las mujeres con mayor frecuencia, mientras que a los hombres les recomienda acudir al gimnasio.



