Desafíos de la Inteligencia Artificial en la medicina actual (IV). Homero Bagnulo y Carlos Vivas

16.02.2026

Un médico observa el rostro de su paciente de 68 años, quien acaba de recibir los resultados de su endoscopia de control. La imagen muestra una pequeña lesión en el esófago que, según su experiencia de treinta años en gastroenterología, merece vigilancia, pero no necesariamente una nueva intervención invasiva.

Sin embargo, el sistema de inteligencia artificial que analiza las imágenes endoscópicas sugiere repetir el estudio en tres meses, clasificando la lesión con un índice de riesgo moderado-alto basado en características texturales imperceptibles al ojo humano. El médico debe ahora explicar al paciente por qué recomienda -o no recomienda- una segunda endoscopia, sabiendo que el procedimiento conlleva riesgos, costos y ansiedad. Esta escena, cada vez más común en consultorios de todo el mundo, ilustra uno de los desafíos psicológicos más relevantes de la medicina contemporánea: la disonancia cognitiva entre el juicio clínico y la evidencia algorítmica.

Por disonancia cognitiva se entiende el malestar mental que surge cuando una persona sostiene dos ideas contradictorias o cuando sus acciones no coinciden con sus valores. En el contexto médico actual, este fenómeno se manifiesta cuando el profesional, que ha invertido décadas en formación y confía en su experiencia clínica, se encuentra con un algoritmo que analiza miles de imágenes en segundos y detecta patrones imperceptibles. Estudios recientes demuestran que los profesionales de salud experimentan escepticismo, reluctancia y ansiedad cuando enfrentan recomendaciones de IA que contradicen su criterio, manifestaciones progresivas de un conflicto cognitivo que se intensifica con la complejidad de la decisión. Para aliviar este malestar, pueden caer en dos extremos: el escepticismo cínico que descarta sistemáticamente las recomendaciones algorítmicas, o el sesgo de automatización que acepta sugerencias sin cuestionamiento. Ninguno resuelve el problema adecuadamente.

La expresión "inteligencia aumentada" ha ganado popularidad como alternativa a "inteligencia artificial", sugiriendo que estos sistemas no buscan reemplazar sino potenciar las capacidades humanas. Sin embargo, conviene examinar críticamente si esta reformulación representa un avance sustantivo o principalmente una estrategia de marketing. Más allá del debate semántico, la forma en que se enmarca la tecnología -como asistente versus como decisor autónomo- afecta significativamente la confianza médica. Lo crucial no es el nombre sino cómo se diseñan, implementan y comunican estos sistemas en el contexto clínico real.

Uno de los obstáculos más significativos para la aceptación de sistemas de IA en medicina ha sido su naturaleza opaca, la llamada "caja negra": algoritmos que producen recomendaciones sin revelar el razonamiento que las sustenta. La Inteligencia Artificial Explicable (XAI) ha emergido como respuesta, representando metodologías diseñadas para hacer que los sistemas sean comprensibles para sus usuarios finales.

Consideremos un ejemplo práctico. Un radiólogo analiza una tomografía de tórax buscando nódulos pulmonares. Un sistema tradicional de IA simplemente indica: "Nódulo maligno detectado: probabilidad 89%". El médico no sabe por qué el algoritmo llegó a esa conclusión, generando desconfianza legítima. Un sistema XAI, en cambio, proporciona un mapa de calor sobre la imagen que resalta las regiones específicas que influyeron en la decisión -bordes irregulares, densidad particular, relación con estructuras adyacentes- permitiendo al radiólogo verificar si esas características coinciden con su propio análisis clínico. Esta transparencia debería, en teoría, facilitar la integración del criterio algorítmico con el juicio médico.

Sin embargo, la capacidad de los algoritmos para explicar su razonamiento puede generar efectos contraproducentes. Se evaluó a 220 radiólogos que debían informar radiografías con asistencia de IA. Cuando la IA acertaba, la precisión diagnóstica alcanzaba 92.8%. Pero cuando la IA se equivocaba, la precisión médica caía dramáticamente a 23.6%, evidenciando un sesgo de automatización peligroso: los profesionales confiaban en el sistema incluso cuando estaba equivocado, simplemente porque podía "explicar" su error. Tanto el exceso de confianza en consejos incorrectos como la desconfianza en recomendaciones acertadas perjudican la precisión clínica. El objetivo no es confianza ciega ni escepticismo absoluto, sino confianza apropiada y calibrada.

Dos ejemplos ilustran cómo se resuelve esta tensión.

Primero: un algoritmo analiza una tomografía e indica ausencia de hallazgos relevantes, sugiriendo alta hospitalaria. El médico, sin embargo, observa una textura sutil que genera inquietud clínica. La resolución no implica ignorar a la IA sino utilizarla estratégicamente: si la máquina no encuentra nada evidente pero el clínico siente preocupación, esto justifica estudios adicionales. La contradicción de la IA se convierte en un marcador de incertidumbre.

Segundo: paciente de 72 años con un dolor abdominal intenso. La intuición del cirujano indica isquemia mesentérica que requiere cirugía urgente. La IA otorga 92% de probabilidad a cuadro inflamatorio no quirúrgico, advirtiendo riesgo de mortalidad perioperatoria del 40%. Recomienda tratamiento conservador. El médico resuelve la disonancia cuestionando la base de datos del algoritmo: la isquemia mesentérica es mucho más frecuente y grave que una paniculitis mesentérica como causa de dolor abdominal intenso. Prioriza la probabilidad epidemiológica sobre el cálculo predictivo y opta por cirugía, asumiendo conscientemente el riesgo porque, en su jerarquía ética, el error de omisión resulta más grave que el error de comisión. Ambos casos revelan un principio: la IA funciona como sensor de alta sensibilidad; el médico actúa como juez integrador que aporta contexto, epidemiología y decisión ética.

La historia médica nacional ofrece lecciones valiosas. Cuando se introdujo el ultrasonido abdominal, los cirujanos enfrentaron un dilema similar: la tentación de confiar la conducta exclusivamente al informe del imagenólogo. La solución fue social e institucional: integrar al especialista en imágenes en los ateneos clínicos, tanto en reuniones preoperatorias como en análisis de resultados. Esta socialización de la tecnología rompió la disonancia porque la herramienta dejó de ser una "verdad externa" competitiva y pasó a ser un insumo dentro de un proceso dialéctico colectivo.

El ateneo multidisciplinario se convirtió en antídoto contra el sesgo individual. Esta experiencia sugiere posicionar a la IA como un nuevo integrante del ateneo médico. La inteligencia artificial debe entenderse como herramienta paraclínica de alta sensibilidad, similar al ultrasonido o la resonancia. No dicta conductas; aporta datos que deben filtrarse por la clínica, el contexto epidemiológico y la historia del paciente. La mejor forma de resolver la tensión es la socialización de la duda: la conducta médica no debe nacer de un duelo solitario entre el profesional y la pantalla, sino de la integración de la IA en el debate clínico multidisciplinar, donde la experiencia colectiva valida o cuestiona la sugerencia algorítmica.

Conclusión

La solución a la disonancia cognitiva entre médicos e inteligencia artificial no es fundamentalmente tecnológica, sino educativa e institucional. Requiere mantener el compromiso con el estudio continuo, preservar el contacto directo con el paciente y utilizar la IA para reducir incertidumbre sin sustituir la responsabilidad ética del acto médico.

La inteligencia artificial ve patrones imperceptibles para el humano, pero carece de la sabiduría para determinar qué hacer con esa información: cómo pesar riesgos contra beneficios para un paciente específico, cómo comunicar incertidumbre a una familia angustiada, cómo integrar valores culturales y preferencias personales. Esa decisión final -que integra datos técnicos con valores humanos, epidemiología con empatía, probabilidades con responsabilidad ética- sigue siendo, y debe continuar siendo, estrictamente humana.

En este equilibrio entre la precisión del algoritmo y la sabiduría clínica reside el futuro de la medicina: no el reemplazo del profesional, sino su potenciación mediante herramientas que amplían su capacidad diagnóstica sin erosionar su función esencial como guardián ético del bienestar del paciente.

Nota elaborada con el apoyo de herramientas de IA generativa de lenguaje, bajo supervisión y edición de los autores.

Referencias bibliográficas

Arvai N, Katonai G, Mesko B. Health care professionals' concerns about medical AI and psychological barriers and strategies for successful implementation: scoping review. J Med Internet Res. 2025 Apr 23;27:e66986.

Prinster D, Mahmood A, Saria S, Jeudy J, Lin CT, Yi PH, et al. Care to explain? AI explanation types differentially impact chest radiograph diagnostic performance and physician trust in AI. Radiology. 2024 Nov;313(2):e233261.

Gaube S, et al. How explainable artificial intelligence can increase or decrease clinicians' trust in AI applications in health care: systematic review. JMIR AI. 2024;3:e53207.

Homero Bagnulo y Carlos Vivas
2026-02-16T08:24:00

Dres. Homero Bagnulo; Carlos Vivas