Recortes a la asistencia sanitaria basados en la evaluación algorítmica

“Los trabajadores sociales visitaron a un amputado y a la pregunta de “problemas en los pies” pusieron en sus informes que no tenía ningún problema”

En los Estados Unidos ha habido varios casos en los que se hicieron reajustes radicales a la atención domiciliaria que recibían las personas que padecían una amplia variedad de enfermedades y diversidad funcional, como consecuencia de la introducción de inteligencia artificial en el proceso de toma de decisiones. Si bien la mayoría de los informes sobre esta cuestión se han centrado en los algoritmos y sus códigos, también se encontraron problemas importantes con las evaluaciones realizadas por los trabajadores sociales que recopilan datos. Kevin De Liban, un abogado de Ayuda Legal de Arkansas, comenzó a realizar una lista de ellos. Una variable en la evaluación algorítmica fue “problemas en los pies”. Por ejemplo, cuando los trabajadores sociales visitaron a un amputado, afirmaron que la persona no tenía ningún problema. A lo largo del tiempo, dice De Liban, descubrieron puntuaciones muy diferentes de las del procesamiento algorítmico cuando se evaluaron las mismas personas, a pesar de sufrir la misma condición.

https://www.theverge.com/2018/3/21/17144260/healthcare-medicaid-algorithm-arkansas-cerebral-palsy

Google’s Flu Trend

“Google Flu Trend se basó en datos erróneos para realizar predicciones de gripe, así que las autoridades médicas se prepararon para atender el doble de personas de las que enfermaron”

Lanzado en 2008 con la esperanza de utilizar información sobre las búsquedas online de personas para detectar brotes de enfermedades, Google Flu Trend monitorizaba las búsquedas de los usuarios e identificaba los lugares donde muchas personas estaban investigando síntomas de la gripe. En esos lugares, el programa alertaba a las autoridades de salud pública de cuantas personas estaban a punto de contraer la gripe.

Pero el proyecto no tuvo en cuenta la posibilidad de los cambios periódicos en el propio algoritmo de búsqueda de Google. En una actualización de principios de 2012, Google modificó su herramienta de búsqueda para sugerir un diagnóstico cuando los usuarios buscaban términos como «tos» o «fiebre». Por sí solo, este cambio aumentó el número de búsquedas de términos relacionados con la gripe. Así que Google Flu Trends interpretó que los datos predecían un brote de gripe dos veces más grande de lo que esperaban los funcionarios federales de salud pública, y mucho más grande de lo que realmente sucedió. Este es un buen caso de datos erróneos porque involucra información sesgada por factores distintos a los que se estaban midiendo.

http://science.sciencemag.org/content/343/6176/1203

Datos de filiación (nombres) incorrectos

“Julián se percató cuando renovó su DNI de que el nombre de su padre aparecía incompleto, pero aunque avisó de ello, lo renovó igualmente”

Julián se dio cuenta al ir a renovar su DNI que el nombre de su padre aparece mal en su DNI. Avisó a la policía de ello, y le dijeron que para cambiarlo debía acudir a otro sitio que no era donde estaba, y tuvo que seguir con la tramitación del DNI con el nombre sin corregir.

Nombres mal escritos o escritos de maneras diferentes

“Hay nombres de persona que se recogen o escriben mal -o diferente- y luego no los encuentras en la base de datos (ejemplo común en la oficina de Medialab)”

En muchas oficinas que trabajan con bases de datos de personas se encuentran con un problema a la hora de introducir nombres personales. A veces, las personas tenemos nombres oficiales y nombres habituales que no coinciden, o quizás nombres compuestos que no siempre usamos de la misma manera, según el contexto, o apodos o nombres cortos que significan lo mismo (Bob i Robert). Dificultades para encontrar a alguien en estas bases de datos, o bien generar duplicados sin saberlo, son problemáticas que están a la orden del día.

Cambia automáticamente la hora de su ordenador cuando viaja… y le cambia las citas de su calendario

“Mario viajó y tuvo que estar 1 día entero en un aeropuerto esperando su vuelo porque su ordenador cambió las horas de su agenda”

Mario viajó y tuvo que estar 1 día entero en un aeropuerto esperando su vuelo. Sin embargo, él se había preocupado de anotar con anterioridad en la agenda de su ordenador la hora exacta de salida de su vuelo. ¿Cómo fue que al final tuvo que perder tantas horas que podría haber aprovechado para hacer otras cosas? Él había seleccionado en las preferencias de su sistema del ordenador que éste cambiara automáticamente de horario según el país en el cual se encontrara. Pero no sólo cambió la hora de su ordenador, sino que también le cambió la hora de las citas que había introducido en su agenda, aunque el sistema no lo había preguntado ni siquiera advertido.

 

Bad data en machine learning policial

“Datos incompletos, poco fiables y anticuados contribuyen a hacer fracasar algoritmos policiales”

Un informe señala como parte del fracaso de estos algoritmos tres categorías de Bad Data: «Otros incluyen el hecho de que los modelos se basan en datos policiales, que pueden ser incompletos, no confiables y se actualizan continuamente para hacer predicciones»

https://www.theregister.co.uk/AMP/2018/09/21/cops_use_of_machine_learning_is_a_minefield_of_poor_research_evidence_and_regulation/?__twitter_impression=true