Sistemas de IA, copian sentimientos y prejuicios Humanos

Un grupo de científicos de las universidades de Princeton, en Estados Unidos, y la ciudad de Bath, en el Reino Unido, ha desarrollado un método para medir el prejuicio en estos sistemas es similar a la prueba de asociación implícita que se utiliza para evaluar el de los humanos.

en Esta prueba se pide a una persona que agrupa los conceptos que considera idénticos, por oposición a los que entiende como diferentes. Las personas suelen asociar, por ejemplo, “flores” con “agradable” y “insectos” con “desagradable”.

El equipo de investigadores, liderado por Aylin Caliskan, de la Universidad de Princeton, analizó estadísticamente el número de asociaciones entre las palabras de los sistemas de inteligencia artificial, involucrando un total de cerca de 2,2 millones de palabras.

Según el estudio publicado en Science, los sistemas de inteligencia artificial tienen un prejuicio conectado al género, a la membresía de las artes más la “mujer” o “chica” y menos “hombre” o “muchacho”.

Los autores del estudio sostienen que los resultados obtenidos son una herramienta para el estudio de los juicios de valor y el comportamiento humano, señalando que el lenguaje está ligada a los prejuicios históricos y a los estereotipos culturales.

 

 

Fuente: http://pysnnoticias.com