Estudio reveló que la inteligencia artificial reproduce estereotipos de género en sus respuestas
La inteligencia artificial (IA) promete objetividad y precisión. Sin embargo, algunos estudios empiezan a demostrar que los algoritmos también pueden reproducir sesgos sociales profundamente arraigados.
Un análisis reciente sobre sistemas de conversación automatizada encontró que la IA responde de forma distinta cuando identifica que el usuario es mujer u hombre. En muchos casos, el sistema muestra un tono más paternalista o empático con las mujeres, mientras que a los hombres les ofrece respuestas más directas o técnicas.
Este fenómeno abre una discusión sobre el impacto social de los algoritmos que cada vez participan más en educación, orientación profesional, búsqueda de información y decisiones cotidianas.
El estudio detectó que la IA actúa como una “amiga tóxica” con las mujeres
Uno de los hallazgos más llamativos del análisis es que la inteligencia artificial tiende a adoptar un tono más emocional con las usuarias.
El estudio encontró que los sistemas de IA ofrecen mensajes de empatía artificial —frases como “yo te entiendo” o “estoy contigo”— 2,5 veces más a mujeres que a hombres.
Los investigadores describen este patrón como el comportamiento de una “amiga tóxica digital”, que busca validar emociones sin necesariamente ofrecer soluciones o análisis críticos.
El problema no radica en la empatía en sí, sino en la diferencia sistemática de trato entre usuarios según su género.
El algoritmo empuja a las mujeres hacia profesiones sociales
Otro patrón detectado en el estudio se relaciona con la orientación profesional.
Cuando las usuarias consultan sobre carreras o empleo, los sistemas de inteligencia artificial recomiendan profesiones relacionadas con salud, educación o servicios sociales en aproximadamente el 75% de los casos.
En contraste, cuando los usuarios son hombres, las recomendaciones suelen orientarse con mayor frecuencia hacia tecnología, ingeniería o áreas técnicas.
Este fenómeno refleja un problema conocido en el desarrollo de algoritmos: los sistemas aprenden a partir de datos históricos que contienen estereotipos laborales preexistentes.
La IA recomienda buscar validación externa con mayor frecuencia a mujeres
El análisis también detectó diferencias en el tipo de consejos personales que entrega la inteligencia artificial.
A las mujeres, los sistemas les sugieren buscar validación externa seis veces más que a los hombres.
En otras palabras, las respuestas dirigidas a mujeres tienden a incluir recomendaciones como:
• Consultar la opinión de otras personas
• Buscar apoyo emocional
• Confirmar decisiones con terceros
Mientras tanto, a los hombres se les ofrecen con mayor frecuencia respuestas orientadas a la acción o a la resolución directa del problema.
Los consejos también reflejan estereotipos cotidianos
Incluso en temas aparentemente triviales, el estudio encontró diferencias llamativas.
Cuando la conversación se relaciona con recomendaciones cotidianas, casi el 48% de las respuestas dirigidas a mujeres se relaciona con moda o apariencia, mientras que las respuestas para hombres suelen centrarse en ejercicio físico o rendimiento personal.
Este patrón demuestra cómo los sistemas de inteligencia artificial pueden reproducir estereotipos culturales presentes en los datos con los que fueron entrenados.
Los algoritmos aprenden de los prejuicios humanos
Los especialistas en IA advierten que estos resultados no significan necesariamente que los sistemas estén diseñados para discriminar. Lo que hacen es reflejar el modo en que funcionan los algoritmos de aprendizaje automático.
La IA aprende a partir de grandes volúmenes de información disponibles en internet: textos, artículos, conversaciones y registros históricos. Cuando esos datos contienen desigualdades o prejuicios sociales, el algoritmo puede replicarlos sin distinguirlos.
Por esta razón, varios centros de investigación tecnológica y universidades trabajan actualmente en el desarrollo de modelos de IA más transparentes y auditables.
También te puede interesar
#Mujeres I En 2025, según el MSP, se registraron 5.636 casos de infecciones de transmisión sexual. ¿Cómo evitarlas? #LéaloEnET: https://t.co/gQYAk8ZW4H pic.twitter.com/Ao5m5OX5lE
— El Telégrafo Ecuador (@el_telegrafo) March 10, 2026
Quito contará con el sistema QuitoBici, ¿cómo funciona?
Petroecuador incrementa 12,28% los ingresos por comercialización de combustibles
Bad Bunny reaparece en redes y celebra su cumpleaños 32
Daniel Noboa viajará a Chile para la transmisión de mando presidencial
Bad Bunny reaparece en redes y celebra su cumpleaños 32
