Desafíos de la Inteligencia Artificial en la medicina actual (I). Homero Bagnulo y Carlos Vivas
27.01.2026
Estimados lectores, con esta nota damos inicio a una breve serie cuyo objetivo es acercar, de manera comprensible y crítica, los beneficios y los riesgos de la aplicación de la inteligencia artificial (IA) en la práctica médica actual. No escribimos desde la informática ni desde el entusiasmo tecnológico sin matices.
Nos paramos, deliberadamente, en nuestra condición de exmédicos clínicos que intentan comprender, a través de la lectura crítica, qué significan estos nuevos sistemas tecnológicos que comienzan a instalarse en la consulta médica. Desde el comienzo queremos dejar planteada una idea que acompañará toda la lectura: la inteligencia artificial ya está presente en la práctica cotidiana, y el verdadero debate no es si llegará, sino cómo convivirá con el médico sin alterar la esencia del acto médico.
Aunque resulte evidente que los avances tecnológicos forman parte del grupo de las innovaciones disruptivas, no es menos cierto que la medicina convive con ellas desde hace décadas. La industria biomédica ha ofrecido históricamente a los clínicos apoyos diagnósticos, terapéuticos y de toma de decisiones cada vez más sofisticados. Para el médico no es una novedad el desafío de adoptar nuevas herramientas, siempre que estas contribuyan a mejorar la salud de sus pacientes. La mejora debe basarse en evidencia y ser eficaz, eficiente, segura, equitativa, oportuna y centrada en el paciente. La pregunta que se impone hoy es si la inteligencia artificial refuerza estos principios o si introduce tensiones difíciles de manejar.
En las próximas entregas abordaremos, de manera secuencial, varios aspectos de este fenómeno: qué tipos de IA se aplican actualmente en la asistencia sanitaria; qué riesgos plantea para los distintos actores del sistema de salud -pacientes, profesionales, estudiantes, instituciones y decisores políticos-; cómo puede afectar la comunicación entre médico y paciente; y, finalmente, de qué manera incide en un componente esencial de la práctica clínica: el manejo de la incertidumbre. Aunque estos temas parezcan diversos, todos convergen en un mismo punto: la IA no es patrimonio exclusivo de expertos o tecnólogos, sino una herramienta con impacto social amplio.
El público al que nos dirigimos es, por lo tanto, deliberadamente amplio. Pensamos en profesionales de la salud, estudiantes, gestores, políticos, pacientes y ciudadanos interesados en comprender qué es y en qué consiste la inteligencia artificial aplicada a los cuidados de la salud. Somos conscientes de la dificultad de divulgar ventajas y riesgos de recursos cuyo valor social se encuentra aún en evolución y debate permanente. Sin embargo, más de cuatro décadas de compromiso profesional con nuestros pacientes nos impulsan a abordar este tema. Como reza una antigua máxima atribuida a los navegantes del mundo clásico, "navegar es necesario": avanzar implica riesgos, pero también los implica no hacerlo.
Una de las dudas más frecuentes -y comprensibles- frente a la incorporación de la IA en los cuidados de la salud es si se convertirá en un colaborador del médico o en su eventual sustituto. Para comenzar a responder esta inquietud conviene aclarar que no toda la inteligencia artificial es igual. Hoy conviven, a grandes rasgos, dos modalidades principales. La primera es la llamada inteligencia artificial "estrecha". Se trata de sistemas diseñados para realizar una tarea específica con notable eficacia. Son extraordinarios en ese campo acotado, pero incapaces de salirse de él. En medicina, este tipo de IA puede identificar patrones en una imagen radiológica, clasificar resultados de laboratorio o detectar anomalías en un electrocardiograma, siempre dentro de parámetros previamente definidos.
La segunda modalidad es la denominada inteligencia artificial "generativa". A diferencia de la anterior, no solo analiza o clasifica información existente, sino que puede generar contenido nuevo: textos, imágenes, audios o resúmenes. En términos médicos, esto implica la capacidad de integrar información dispersa -antecedentes clínicos, estudios de imagen, análisis de laboratorio- y proponer hipótesis diagnósticas o cursos de acción posibles. Esta capacidad explica buena parte del entusiasmo que despierta, pero también la necesidad de mirarla con cautela.
Conviene moderar ese entusiasmo. Aunque el marketing tecnológico suele presentar a la IA generativa como una inteligencia casi humana, la realidad es bastante más modesta y menos espectacular. Estos sistemas no comprenden ni razonan como una persona: funcionan prediciendo, con enorme potencia estadística, la palabra, el dato o la imagen más probable a partir de volúmenes masivos de información. Recordar este límite es fundamental para no perder de vista, a lo largo de toda la lectura, el verdadero alcance -y también las limitaciones- de la inteligencia artificial en medicina.
En la práctica cotidiana, la IA ya ha demostrado gran utilidad en tareas administrativas y de organización de la información. Puede resumir documentos extensos, ordenar historias clínicas confusas y extraer datos relevantes en segundos. Esto libera tiempo del profesional para tareas que siguen siendo irreemplazables: escuchar, interpretar, explicar y acompañar. Dicho de otro modo, la inteligencia artificial ya está en la consulta médica, pero su valor depende de si se la utiliza para mejorar el encuentro clínico o para empobrecerlo.
No es casualidad que los directores ejecutivos (CEO) y responsables tecnológicos de las grandes empresas del sector se refieran a la inteligencia artificial generativa como su "santo grial". Con esta expresión no aluden a algo mágico, sino a una meta largamente buscada, extremadamente valiosa y todavía no alcanzada en plenitud: una tecnología capaz de integrar información compleja, aprender de ella y asistir en decisiones críticas con fiabilidad sostenida. Hoy, la IA generativa se acerca a ese objetivo, pero aún no lo alcanza. Aunque puede sugerir segundas opiniones, simular escenarios clínicos y correlacionar datos de distinto formato, sigue cometiendo errores relevantes.
Estos errores, conocidos en la jerga informática como "alucinaciones", no responden a mala intención, sino al modo en que los modelos priorizan la probabilidad estadística por sobre la exactitud absoluta. En medicina, donde un error puede tener consecuencias serias, este límite resulta especialmente sensible. Estadísticamente, las máquinas no se equivocan más que los humanos; sin embargo, el margen de error tolerado en una persona resulta mucho menos aceptable cuando proviene de una máquina, sobre todo en esta etapa inicial marcada por expectativas exageradas.
Por esta razón existe hoy un consenso amplio: la inteligencia artificial no debe actuar de manera autónoma en decisiones clínicas. El modelo vigente es el llamado "humano debe estar en la cadena". La IA propone, organiza, alerta; el médico evalúa, valida y decide. Esta insistencia no es retórica. Vuelve a subrayar la idea central de esta nota: la inteligencia artificial puede asistir al médico, pero no reemplazarlo.
Un ejemplo sencillo permite ilustrar esta diferencia. Imaginemos un paciente de 68 años que concurre a consulta y ha sido usuario durante décadas de la misma institución. En un sistema tradicional, con historia clínica en papel o con un registro electrónico fragmentado, el médico que lo ve por primera vez debe reconstruir su situación casi a contrarreloj. Revisa hojas dispersas, notas manuscritas, informes incompletos. Pregunta al paciente, que recuerda parcialmente, y a veces a un familiar. Tras varios minutos logra una síntesis trabajosa: potasio elevado, creatinina algo aumentada, mareos al incorporarse, tratamiento con enalapril de cumplimiento irregular, antecedente remoto de reacción cutánea grave a la aspirina, presión arterial elevada en la consulta actual. Con esa información, incompleta y desordenada, debe tomar decisiones.
En un escenario distinto, con un registro clínico electrónico bien diseñado, la experiencia cambia de manera sustancial. Al inicio mismo de la consulta, el médico recibe un resumen estructurado: diagnósticos relevantes, resultados recientes de laboratorio, alertas críticas por alergias conocidas, problemas de adherencia al tratamiento y riesgos potenciales asociados a la medicación actual. En segundos dispone de una visión global del paciente. Nada de esto sustituye su juicio clínico, pero sí lo orienta. Le permite dedicar más tiempo a escuchar, a comprender el contexto y a decidir junto al paciente los pasos a seguir.
La diferencia entre ambos escenarios no es tecnológica, sino clínica y humana. La inteligencia artificial ya está en la consulta médica. El desafío no es evitarla, sino decidir cómo usarla sin perder habilidades, sin delegar el pensamiento crítico y sin empobrecer la relación médico-paciente.
En la próxima entrega analizaremos dos riesgos concretos que ya comienzan a preocupar en la práctica diaria: la pérdida progresiva de habilidades clínicas por exceso de delegación en la tecnología y la llamada "deuda cognitiva", ese costo silencioso que aparece cuando dejamos de pensar por nosotros mismos. El debate recién comienza y merece ser dado sin ingenuidad, pero también sin miedo.
Referencias
1. Lazarus A. Does AI 'De-Skill' Doctors? MedPage Today, January 19,2026
2. Scott IA, Reddy S, Kelly T, Miller T, van der Vegt A. Using generative artificial intelligence in clinical practice: a narrative review and proposed agenda for implementation. Med J Aust. 2025 Dec 8;223(11):664-672.
3. Omiye JA, Gui H, Rezaei SJ, Zou J, Daneshjou R. Large Language Models in Medicine: The Potentials and Pitfalls : A Narrative Review. Ann Intern Med. 2024 Feb;177(2):210-220. Bainbridge L. Ironies of automation. In: Johannsen G, Rijnsdorp JE, editors. Analysis, design and evaluation of man-machine systems. Proceedings of the IFAC/IFIP/IFORS/IEA Conference, Baden-Baden, Federal Republic of Germany, 26-28 September 1982. Oxford: Pergamon Press; 1983. p. 129-35.
Dres. Homero Bagnulo; Carlos Vivas