Ir al contenido
Logo
Ciencia #inteligencia artificial#machine learning#Roles de género

Las mujeres son hermosas, los hombres racionales

De acuerdo a un algoritmo que implementa machine learning y analizó 3.5 millones de libros, los hombres son generalmente descritos con palabras que hacen referencia a su comportamiento, mientras que las mujeres con términos asociados a su apariencia física. 

Las mujeres son hermosas, los hombres racionales

Para estudiar si hay diferencias en las palabras usadas para describir a hombres y mujeres en la literatura, una científica computacional de la Universidad de Copenhague (Dinamarca) junto a investigadores estadounidenses utilizaron machine learning (aprendizaje automático) para analizar millones de libros publicados en inglés entre 1900 y 2008"Hermosa" y "sexy" son dos de los adjetivos más utilizados para describir a las mujeres; "justo", "racional" y "valiente" los más utilizados para los hombres.

Lo que hicieron fue extraer adjetivos y verbos asociados a sustantivos específicos de género, tales como "prima" o "camarero". Luego categorizaron esas palabras de acuerdo a si representaban algo negativo, positivo o neutral.

Los análisis mostraron que verbos asociados negativamente con el cuerpo y la apariencia eran cinco veces más frecuentemente utilizado para mujeres que hombres. Además, los adjetivos que describen el aspecto físico aparecían el doble de veces más en mujeres, en tanto que a los hombres se los describía de acuerdo a su comportamiento y sus cualidades personales.

“Podemos ver claramente que las palabras utilizadas para las mujeres se refieren mucho más a sus apariencias que las utilizadas para describir a los hombres. Por lo tanto, pudimos confirmar una percepción generalizada, solo que ahora a nivel estadístico ", dijo Isabelle Augenstein, informática y profesora asistente del Departamento de Informática de la Universidad de Copenhague.

 Lista de los 11 adjetivos más frecuentes, distribuidos en categorías.

Augenstein señala que aunque muchos libros fueron publicados hace varias décadas todavía juegan un papel activo ya que muchas de las aplicaciones actuales para comprender el lenguaje —como la función de texto predictivo— toman información de material disponible online. Es decir, adoptan el lenjuage que utilizamos las personas y eso se refleja luego en prejuicios y estereotipos de género.

Es importante entonces, a medida que la inteligencia artificial se vuelve más relevante en la sociedad, desarrollar modelos de machine learning que usen textos menos sesgados o tratar de que esos sesgos sean ignorados o contrarrestados.

Ultimas Noticias