El mago, el científico… y el médico
Carlos Vivas; Homero Bagnulo
26.02.2019
¿Qué era la magia, qué ha sido durante los siglos y qué es, como veremos, todavía hoy, aunque bajo una falsa apariencia? Es la presunción de que se puede pasar de golpe de una causa a un efecto por cortocircuito, sin completar los pasos intermedios. La magia ignora la larga cadena de las causas y los efectos y, sobre todo, no se preocupa de establecer, si hay una relación entre causa y efecto. Pero no ocurre lo mismo con la ciencia.
En este párrafo escrito por Umberto Eco, extractado de su artículo "El mago y el científico" se resumen los riesgos de confundir los desarrollos tecnológicos con el pensamiento científico. Más adelante el artículo nos dice que "la tecnología es la que te da todo enseguida, mientras que la ciencia avanza despacio. La confianza, la esperanza en la magia, no se han desvanecido en absoluto con la llegada de la ciencia experimental. El deseo de la simultaneidad entre causa y efecto se ha transferido a la tecnología, que parece la hija natural de la ciencia."
¿Y dónde entra el médico?
Para entender el lugar del médico en esta historia creemos valioso reproducir las palabras de nuestro amigo, el Profesor Humberto Correa, cuando en su libro "Humanismo Médico" dice acerca del desarrollo histórico de la medicina: "En cada época la medicina fue tributaria de la cultura de su tiempo y adhirió al paradigma dominante del que fue hija. Inicialmente el paradigma estaba encuadrado por creencias y explicaciones fantasiosas que daban las sociedades y grupos humanos al mundo y a la vida. A través de un largo recorrido se llega a la medicina científica del siglo XIX y XX y a la explosión de ciencia y tecnología que también se traslada, infiltra y modula toda la medicina actual del siglo XXI".
Creemos que estas consideraciones son necesarias para comprender el significado médico, social y cultural que implica el inicio de la aplicación de la inteligencia artificial (IA) a las tareas de la asistencia clínica.
En su aplicación en medicina, actualmente la IA está concentrada en desarrollar el aprendizaje de las máquinas (AM) para que puedan hacer predicciones sobre problemas clínicos complejos. Ejemplos concretos donde el AM brinda beneficios son los sistemas de apoyo para la toma de decisiones clínicas para una segura prescripción de medicamentos, para evaluar los riesgos de un programa de screening o, sobre todo, para desarrollar escores pronósticos. Estos sistemas tienen en común que se construyen sobre reglas prefijadas para incorporar las mejores evidencias disponibles. Como se deduce de los ejemplos, estas aplicaciones son relativamente simples. Por tanto, para poder avanzar en el apoyo asistencial se hizo necesario dotar a las máquinas de algoritmos más complejos que les permitieran informar sobre la realidad clínica. ¿Cómo trabajan las máquinas? Por el momento, y en una explicación sencilla, la IA debe pasar por un período de aprendizaje luego del cual puede reconocer datos normales (imágenes o información de exámenes de laboratorio). En una segunda etapa y gracias al algoritmo que le es suministrado es capaza de comparar los datos "normales" con datos tomados de los pacientes (ej. fotos de lesiones de piel) para poder establecer diagnósticos de valor clínico. Por algoritmo se entiende a una secuencia de instrucciones bien definidas que permiten a la máquina transitar desde el punto de partida, ej. la foto de una lesión hasta un objetivo, ej se trata o no de una lesión maligna.
Como dijimos, las primeras experiencias se han concentrado en el análisis de placas y de tomografías y en la evaluación de lesiones de piel. Por el momento, los resultados indican que para la ampliación de estas técnicas es necesario superar varios temas de seguridad de los pacientes.
Como en todo proceso de aprendizaje, las máquinas deben ser entrenadas. Al igual que en los humanos, la selección de datos con los que se va a construir el almacén de conocimientos de las máquinas debe tomar en cuenta la necesaria congruencia entre lo que se aporta y los resultados que se espera obtener. Por ejemplo, en un experimento militar, se intentó entrenar a las máquinas para que identificaran vehículos de guerra ocultos entre árboles. El fallo del intento consistió en que las fotos de entrenamiento se habían tomado un día nublado mientras que las fotos "problema" se tomaron un día soleado. Al plantear el problema no se tuvo en cuenta que se estaban planteando dos problemas: reconocer los cambios en los datos y los cambios en el contexto. Este ejemplo de un fallo al diseñar un problema relativamente sencillo nos debe recordar la dificultad a la que se enfrenta la IA al intentar establecer un diagnóstico clínico, el cual se compone de una multitud de datos objetivos y subjetivos.
Ingresando en las dificultades específicas que se debe vencer a corto plazo en el entrenamiento de las máquinas, en primer lugar está el desafío estadístico constituido por las diferentes formas en que puede presentarse una enfermedad. Para el médico esta es una realidad frecuente, pues a menudo para poder diagnosticar una enfermedad debe trabajar fuera de su zona de confort. Un error frecuente es entrenar a las máquinas con datos pertenecientes a "casos interesantes", olvidando que estos casos no representan la realidad cotidiana. Otro aspecto que se debe tener presente es que con el paso del tiempo las enfermedades cambian su forma de presentación así como su frecuencia de aparición. Este fue el motivo del fallo en un programa que intentó identificar en forma temprana a aquellos pacientes que iban a complicarse con una insuficiencia renal aguda.
Otro problema del AM es la dificultad para valorar el impacto que tiene plantear un diagnóstico. Se suele insistir que los principales problemas son el falso positivo (decir que hay una enfermedad cuando en realidad no la hay) y el falso negativo (decir que no hay enfermedad cuando se está en presencia de la misma). Sin embargo, no tiene la misma importancia para el paciente cuando se trata de diferenciar una enfermedad benigna de una maligna. Cuando se comparó la performance entre dermatólogos y la IA respecto a su capacidad para diagnosticar a través de fotos un melanoma (enfermedad de la piel maligna y muy severa), los médicos cuando se equivocaron lo hicieron "a favor del paciente". Cuando tuvieron dudas, prefirieron sobrediagnosticar un melanoma, de forma de habilitar estudios confirmatorios. En cambio la IA no valoró el impacto de dejar pasar la oportunidad de diagnosticar una enfermedad maligna.
Una característica que complica el AM, sobre todo de aquellos programas que tiene algoritmos más complejos, es que tiende a comportarse como una "caja negra". Durante la etapa de desarrollo de un algoritmo es esencial poder identificar y corregir los errores de diseño. La complejidad de algunas aplicaciones vuelve inescrutable el procesamiento de los datos y, por ende, no se puede determinar dónde está la falla.
Finalmente entendemos importante destacar otra dificultad del AM que se debe vencer a corto plazo. En la industria manufacturera se suele aplicar un análisis del proceso de producción destinado a identificar los fallos potenciales (AMFE), esto es los fallos que aunque no se produjeron son muy factibles que ocurran en caso de mantenerse sin cambios el sistema de producción. El AMFE requiere saber no solo qué tipo de fallo puede ocurrir, sino su frecuencia, su gravedad y la posibilidad de poder ser identificado en forma temprana. El AM suele fallar en su valoración del grado de confianza que tiene en sus propios diagnósticos. Por tanto al no saberse si el sistema se tiene mucha o poca confianza resulta difícil aceptar sus recomendaciones para la práctica.
Los investigadores también se plantean que para poder practicar con aplicaciones útiles para situaciones clínicas más complejas, ej, controlar la concentración de azúcar en la sangre o para mantener la coagulabilidad de la sangre dentro de valores seguros para quienes reciben medicación anticoagulante, es menester solucionar problemas de seguridad del paciente ya identificados.
Como no podía ser de otra manera, en estas situaciones complejas, los fallos de las máquinas no se deben exclusivamente a la falta de desarrollo, sino a problemas humanos con el manejo de los conocimientos. Tal como expusieran los premios Nóbel de Economía de 2002, los psicólogos israelíes Amos Tversky y Daniel Kahneman, al momento de tomar decisiones y de enfrentarse a la resolución de problemas, el hombre responde siguiendo dos sistemas de respuestas: un sistema rápido y otro lento. En el primero, la presión del tiempo para responder le lleva a caer en trampas lógicas, llamadas sesgos cognitivos, que lo desvían de alcanzar sus objetivos. Estando limitada la racionalidad y siendo finito el tiempo que tenemos para tomar una decisión, solemos recurrir a la ayuda de reglas prácticas, verdaderos "atajos" intelectuales que a veces no funcionan como tales. El sistema de respuesta rápida es muy bueno cuando nos enfrentamos a temas de los que poseemos mucha información y experiencia, situación que no se cumple cuando tratamos con la IA aplicada a los cuidados asistenciales.
Aplicando estos conceptos al desempeño de la IA en tareas complejas, encontramos la llamada "autocomplacencia con la automatización" mediante la cual asignamos más confianza de la justificada a la propuesta de las máquinas al considerarlas infalibles. Parecido es la "profecía autocumplida", en este caso, por ejemplo un paciente en quien se sospecha una enfermedad maligna, la IA predice que el mismo va a tener un mal resultado. Como consecuencia, al paciente se lo trata con finalidad paliativa abandonando toda posibilidad de curación. En ambas situaciones, el sesgo cognitivo presente es el de autoconfirmación mediante el cual interpretamos todo dato que confirme nuestro sospecha como absolutamente correcto.
Como conclusión, en el momento actual la aplicación de IA a las tareas asistenciales está concentrada en actividades diagnósticas. La valoración de sus aportes debe hacerse con la misma metodología y rigor que se aplican a toda innovación. Al igual que todas las estrategias clínicas, se debe priorizar las consecuencias sobre la seguridad de los pacientes y mantener una expectativa realista. Decisiones inadecuadas pueden adoptarse con o sin la ayuda de la inteligencia artificial, por lo que siempre debemos balancear los beneficios potenciales contra el riesgo de causar daños a los pacientes.
1. Umberto Eco. El mago y el científico. https://elpais.com/diario/2002/12/15/opinion/1039906807_850215.html
2.Robert Challen, Joshua Denny, Martin Pitt, Luke Gompels,Tom Edwards, Krasimira Tsaneva-Atanasova. Artificial intelligence, bias and clinical safety. https://%20doi.%20org/%2010.%201136/bmjqs-2018-008551
Dres. Homero Bagnulo; Carlos Vivas