Nombre incompleto

“Mi mamá tiene un nombre oficial que es a la vez poco normativo, ya que contiene una letra y un punto: M. Irene. Y eso le ha comportado muchos problemas, e incluso a mi!”

La mamá de Alejandra fue registrada al nacer con el nombre M. Irene. Esta “M.” le ha conllevado muchos problemas porque le dicen que un nombre no puede ser una letra y un punto, pero sin embargo este el nombre suyo oficial. Incluso Alejandra, su hija, tuvo serios problemas cuando quiso abrirse una cuenta en un banco.

Me meten por error en un grupo de WhatsApp

“Me han añadido a un grupo de WhatsApp por error, y tengo acceso a un montón de datos personales!”

Me inscriben en un grupo donde no conozco a nadie ni nadie me conoce. Han introducido mi teléfono por error, se deben haber equivocado en una cifra. El caso es que tengo acceso a sus conversaciones, nombres, números de teléfono… Y hay alguien que se supone que debería estar en este grupo que sin embargo no estará.

Datos en microchips para localizar perros y gatos

“Los microchips para perros y gatos son muy útiles, pero si nos trasladamos de casa o cambiamos de número de teléfono y no actualizamos sus datos, no sirven de nada”

Desde julio de 2018 en Australia es obligatorio poner microchips identificativos a los animales domésticos. Esto puede ayudar a mantener un buen rastreo de los animales, que permita encontrarles o bien impedir que reciban un trato no ético. Pero para ello, los datos deben estar bien actualizados. El microchip es tan bueno como lo es la información que almacena. Los microchips son muy simples, pero las bases de datos que los alimentan son muy complejas. Actualmente, hay 8 bases de datos en Australia, 6 privadas y 2 de la administración pública. Las primeras, permiten buscar datos en ellas, pero las segundas no, así que alguien que busque un animal en la bbdd deberá mirar en las dos. Si las personas que tienen mascotas se trasladan de casa, o cambian de número de teléfono, no se las podrá contactar si no actualizan sus datos.

http://theconversation.com/even-a-microchipped-pet-can-be-lost-if-your-data-is-out-of-date-96984

Recortes a la asistencia sanitaria basados en la evaluación algorítmica

“Los trabajadores sociales visitaron a un amputado y a la pregunta de “problemas en los pies” pusieron en sus informes que no tenía ningún problema”

En los Estados Unidos ha habido varios casos en los que se hicieron reajustes radicales a la atención domiciliaria que recibían las personas que padecían una amplia variedad de enfermedades y diversidad funcional, como consecuencia de la introducción de inteligencia artificial en el proceso de toma de decisiones. Si bien la mayoría de los informes sobre esta cuestión se han centrado en los algoritmos y sus códigos, también se encontraron problemas importantes con las evaluaciones realizadas por los trabajadores sociales que recopilan datos. Kevin De Liban, un abogado de Ayuda Legal de Arkansas, comenzó a realizar una lista de ellos. Una variable en la evaluación algorítmica fue “problemas en los pies”. Por ejemplo, cuando los trabajadores sociales visitaron a un amputado, afirmaron que la persona no tenía ningún problema. A lo largo del tiempo, dice De Liban, descubrieron puntuaciones muy diferentes de las del procesamiento algorítmico cuando se evaluaron las mismas personas, a pesar de sufrir la misma condición.

https://www.theverge.com/2018/3/21/17144260/healthcare-medicaid-algorithm-arkansas-cerebral-palsy

Reconocimiento de imágenes

“Google Photos etiquetó erróneamente a los negros como gorilas, ya que el algoritmo fue entrenado con datos sesgados hacia los hombres blancos”

Google Photos etiquetó erróneamente a los negros como gorilas. Este es un caso claro de mal entrenamiento de algoritmos. La foto que se envió al clasificador de Google era tan buena como cualquier foto que se clasificó correctamente. El problema aquí radica en cómo se entrenó el algoritmo, es decir, cómo aprendió a reconocer personas y objetos. Las personas que trabajan en este algoritmo son en su mayoría hombres blancos, por lo que los datos que seleccionaron para entrenar el algoritmo ciertamente fueron sesgados hacia los hombres blancos. El algoritmo aprende de esta muestra sesgada y hereda el sesgo transmitido por el conjunto de datos de entrenamiento.

https://elpais.com/tecnologia/2018/01/14/actualidad/1515955554_803955.html

https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/

 

Incrustaciones de palabras

“El sesgo de género de la sociedad hace que los algoritmos aprendan de datos que contienen un sesgo, y no reconocen conductas que escapan a roles de género predominantes”

Los datos de una gran cantidad de corpus de palabras se analizan para medir la distancia promedia entre palabras. Un estudio mostró que los resultados son bastante sesgados, como por ejemplo, «hombre» era «programador informático» y «mujer», «ama de casa».  La aplicación de este algoritmo puede llevar a los motores de búsqueda a pasar por alto las páginas web de las universidades de informática con mayoría de los nombres de estudiantes femeninas. El algoritmo no es malo, de hecho no hay aprendizaje automático involucrado, por lo que no se introduce un «sesgo algorítmico». Los resultados revelan el sesgo de género inherente presente en la sociedad (específicamente, en corpus de palabras), y también revelan los problemas de la aplicación a ciegas de los datos procesados.

Recognizing (and Solving) Bad Algorithms

https://arxiv.org/pdf/1607.06520v1.pdf

Entrega de anuncios sesgada

“Las evidencias demuestran que los nombres de personas negras tienen un 25% más de probabilidades de ofrecer como resultado un registro de detención policial”

Ha habido muchos casos en los que los sistemas de recomendación para la colocación de anuncios en los motores de búsqueda proporcionan resultados discriminatorios o sesgados. Algunos casos son de publicación de anuncios racialmente sesgados, por ejemplo, cuando muestran datos de detenciones al buscar nombres que se asocian a personas negras.

https://www.technologyreview.com/s/510646/racism-is-poisoning-online-ad-delivery-says-harvard-professor/

Google’s Flu Trend

“Google Flu Trend se basó en datos erróneos para realizar predicciones de gripe, así que las autoridades médicas se prepararon para atender el doble de personas de las que enfermaron”

Lanzado en 2008 con la esperanza de utilizar información sobre las búsquedas online de personas para detectar brotes de enfermedades, Google Flu Trend monitorizaba las búsquedas de los usuarios e identificaba los lugares donde muchas personas estaban investigando síntomas de la gripe. En esos lugares, el programa alertaba a las autoridades de salud pública de cuantas personas estaban a punto de contraer la gripe.

Pero el proyecto no tuvo en cuenta la posibilidad de los cambios periódicos en el propio algoritmo de búsqueda de Google. En una actualización de principios de 2012, Google modificó su herramienta de búsqueda para sugerir un diagnóstico cuando los usuarios buscaban términos como «tos» o «fiebre». Por sí solo, este cambio aumentó el número de búsquedas de términos relacionados con la gripe. Así que Google Flu Trends interpretó que los datos predecían un brote de gripe dos veces más grande de lo que esperaban los funcionarios federales de salud pública, y mucho más grande de lo que realmente sucedió. Este es un buen caso de datos erróneos porque involucra información sesgada por factores distintos a los que se estaban midiendo.

http://science.sciencemag.org/content/343/6176/1203