Incrustaciones de palabras

“El sesgo de género de la sociedad hace que los algoritmos aprendan de datos que contienen un sesgo, y no reconocen conductas que escapan a roles de género predominantes”

Los datos de una gran cantidad de corpus de palabras se analizan para medir la distancia promedia entre palabras. Un estudio mostró que los resultados son bastante sesgados, como por ejemplo, «hombre» era «programador informático» y «mujer», «ama de casa».  La aplicación de este algoritmo puede llevar a los motores de búsqueda a pasar por alto las páginas web de las universidades de informática con mayoría de los nombres de estudiantes femeninas. El algoritmo no es malo, de hecho no hay aprendizaje automático involucrado, por lo que no se introduce un «sesgo algorítmico». Los resultados revelan el sesgo de género inherente presente en la sociedad (específicamente, en corpus de palabras), y también revelan los problemas de la aplicación a ciegas de los datos procesados.

Recognizing (and Solving) Bad Algorithms

https://arxiv.org/pdf/1607.06520v1.pdf

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

2 + 5 =