Cuando debemos enfrentarnos a decisiones importantes sobre la atención médica, a menudo pedimos consejo a un médico, los prestadores de servicios, la familia y los amigos. Pero hoy en día, otro actor desempeña un papel cada vez más importante en estas decisiones, ya que el gobierno y las compañías de seguro se apoyan más y más en algoritmos y en sistemas de decisión automatizados para designar la atención médica que necesitamos para poder llevar una vida segura e independiente.
Si usted recibe atención médica en Nueva Jersey y en particular a través de programas de seguro del gobierno como Medicaid, probablemente habrá experimentado la toma de decisiones a través de algoritmos. A menudo, estos algoritmos aparecen en forma de evaluación de necesidades o herramientas de presupuesto que ayudan a los seguros a determinar cuánto dinero se puede gastar en el cuidado de una persona o cuántas horas de cuidado a domicilio debe recibir.
Para ponerlo de manera más clara, los algoritmos distribuyen los cuidados, limitando la cantidad de servicios que un prestador de seguros está dispuesto a financiar para cada paciente. Sin embargo, cuando la fórmula se equivoca y malinterpreta las necesidades de la persona, el resultado puede ser catastrófico.
Los daños causados por algoritmos erróneos en la atención médica
Las personas ancianas y discapacitadas que reciben beneficios de Medicaid en Arkansas tuvieron que hacer frente a situaciones que ponían en riesgo sus vidas cuando un algoritmo incorrecto les redujo horas de cuidado de manera arbitraria. Algo similar sucedió a adultos con discapacidades en el desarrollo en Idaho, cuyos servicios de asistencia médica fueron reducidos arbitrariamente por un algoritmo. Dado que las organizaciones que desarrollan y usan estos algoritmos no divulgan cómo funcionan, puede ser difícil, si no imposible, que la gente pueda ejercer su derecho constitucional al debido proceso legal y señalar un nivel de financiación inadecuado, o comprender por qué el algoritmo sugiere una cosa cuando el médico recomienda otra. Cuando el gobierno detiene de manera innecesaria un cuidado, tanto el derecho de cada paciente a no ser sujeto de una toma de decisión arbitraria, así como el derecho a evitar la segregación se ven amenazados.
¿Dónde se encuentran los algoritmos usados en el sistema de atención médica de Nueva Jersey?
El Proyecto de Injusticia Automatizada investiga la manera en que todos los ciudadanos de Nueva Jersey se ven afectados por algoritmos como este. Hasta ahora, nos hemos enfocado en dos situaciones en las que el estado usa algoritmos en la atención médica: presupuestación de servicios para adultos con discapacidades del desarrollo y servicio de enfermería privada para niños beneficiarios de Medicaid.
El gobierno de Nueva Jersey usa el algoritmo: Herramienta de Evaluación Completa de Nueva Jersey (NJCAT, por sus siglas en inglés) para distribuir los servicios necesarios a domicilio y en comunidad a los adultos con discapacidades en el desarrollo. Esto ha dado lugar a preguntas como de qué manera funciona el sistema y si respeta los derechos de cada paciente. El estado también usa algoritmos para limitar el tiempo de enfermería privada que los niños con necesidades médicas complejas pueden recibir.
"Cuando la fórmula se equivoca y malinterpreta las necesidades de la persona, el resultado puede ser catastrófico."
Miles de habitantes de Nueva Jersey con discapacidades en el desarrollo cuentan con los cuidados financiados por Medicaid para vivir de manera segura e independiente dentro de su comunidad. Estos beneficios cubren una gama de servicios, desde los prestadores de servicio a domicilio hasta servicios de rehabilitación y educación. Estos servicios son fundamentales para asegurar que el estado cumple con su obligación de atender a cada habitante de Nueva Jersey con discapacidades dentro de su comunidad en lugar de en instituciones.
¿Hasta dónde llega la obligación del estado? Esto en parte lo determina el algoritmo NJCAT, el cual asigna un presupuesto limitando la cantidad de cuidado a la que cada persona puede acceder.
No obstante, la fórmula algorítmica que NJCAT utiliza para determinar el presupuesto para los servicios a domicilio y en comunidad no se divulga al público. No hay manera de saber si la herramienta evalúa de manera justa las necesidades de cada paciente y es casi imposible objetar toda asignación que parece injusta. Aunque estamos en el proceso de pedir información sobre este sistema a través de la Ley de Registros Públicos Abiertos, hay poco que se pueda hacer frente a los secretos del gobierno.
"Todo el mundo tiene derecho al debido proceso legal cuando el gobierno toma decisiones importantes que afectan los beneficios, pero los algoritmos de Medicaid son una amenaza directa a ese derecho si no se cuenta con una supervisión, transparencia y regulación apropiada."
Perjuicios similares ocurren en el uso de algoritmos para el presupuesto que determinan cuántas horas de cuidados de enfermería a domicilio puede recibir un niño con necesidades complejas de salud a través de Medicaid. La dependencia de los seguros de salud en estos algoritmos puede incluso ignorar las recomendaciones del médico del paciente. Al igual que NJCAT, las fórmulas que alimentan estas herramientas son frecuentemente protegidas del escrutinio público y consideradas como un secreto comercial. Cuando Medicaid pone su entera confianza en herramientas sospechosas, la falta de transparencia hace extremadamente difícil, si no es imposible, que los pacientes puedan objetar designaciones de cuidados injustas o retenciones de servicios repentinas. Nuestro Proyecto de Injusticia Automatizada se encuentra actualmente en el proceso de tratar de objetar el uso de estas herramientas incomprensibles y si es necesario a través de una demanda legal.
Lo que debemos preguntar para seguir avanzando
Todo el mundo tiene derecho al debido proceso legal cuando el gobierno toma decisiones importantes que afectan los beneficios, pero los algoritmos de Medicaid son una amenaza directa a ese derecho si no se cuenta con una supervisión, transparencia y regulación apropiada.
Cuando el gobierno y los seguros privados usan algoritmos para distribuir los servicios de atención médica, estos sistemas plantean una serie de cuestiones morales: ¿cómo puede un paciente objetar una decisión que parece injusta?, ¿el algoritmo trata a las personas de manera justa?, ¿un algoritmo debería ser usado para este propósito? Los pacientes merecen respuestas y estos sistemas no deberían mantenerse ocultos del escrutinio público.
En el futuro, el Proyecto de Injusticia Automatizada investigará los efectos sistémicos de las decisiones del gobierno, como las decisiones en el ámbito de la atención médica, hechas por un algoritmo, es por eso que necesitamos tu ayuda. Si usted piensa que un algoritmo del gobierno le ha asignado una ayuda, comparte tu historia con nosotros.