Reconocimiento de imágenes

“Google Photos etiquetó erróneamente a los negros como gorilas, ya que el algoritmo fue entrenado con datos sesgados hacia los hombres blancos”

Google Photos etiquetó erróneamente a los negros como gorilas. Este es un caso claro de mal entrenamiento de algoritmos. La foto que se envió al clasificador de Google era tan buena como cualquier foto que se clasificó correctamente. El problema aquí radica en cómo se entrenó el algoritmo, es decir, cómo aprendió a reconocer personas y objetos. Las personas que trabajan en este algoritmo son en su mayoría hombres blancos, por lo que los datos que seleccionaron para entrenar el algoritmo ciertamente fueron sesgados hacia los hombres blancos. El algoritmo aprende de esta muestra sesgada y hereda el sesgo transmitido por el conjunto de datos de entrenamiento.

https://elpais.com/tecnologia/2018/01/14/actualidad/1515955554_803955.html

https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

7 + 1 =