Desafíos de la Inteligencia Artificial en la medicina actual (II). Homero Bagnulo y Carlos Vivas

02.02.2026

Hace un siglo, el matemático y filósofo Alfred North Whitehead ofrecía una visión esperanzadora del progreso: "la civilización avanza -decía- al automatizar las tareas rutinarias para que la mente humana pudiera elevarse hacia razonamientos más profundos".

Esta promesa, seductora y lógica, ha sido el mantra de la innovación tecnológica durante décadas. Sin embargo, en la intimidad de las consultas médicas y en la dinámica del pensamiento cotidiano, una realidad más compleja y menos benigna se está abriendo paso. Cada herramienta que ahorra un esfuerzo no solo libera, sino que también invita a olvidar. Este olvido progresivo tiene varios nombres -deuda cognitiva, pérdida de habilidades, deskilling- pero un mismo origen: la actitud pasiva y acrítica ante la máquina que auxilia.

Imagine el lector, por un momento, que siempre confiara en el GPS para moverse por la ciudad. Con el tiempo, dejará de notar las calles, los edificios emblemáticos, la dirección del sol al atardecer. El sentido de la orientación, como un músculo que no se usa, se debilita. El día que el dispositivo falle, se encontrará perdido, habiendo intercambiado eficiencia inmediata por autonomía a largo plazo. Este fenómeno, aplicado a las capacidades mentales más complejas, se conoce como deuda cognitiva. Es el costo oculto de delegar nuestro procesamiento mental en sistemas de inteligencia artificial, acumulando un déficit en habilidades como el pensamiento crítico, la síntesis de información o la toma de decisiones éticas. No es que la tecnología sea mala; el peligro está en usarla como un sustituto integral, y no como una herramienta que amplifica una capacidad que debemos seguir ejercitando.

La medicina, campo donde la precisión y el juicio humano son vitales, se ha convertido en el laboratorio perfecto para observar esta dinámica. La inteligencia artificial ya no es ciencia ficción en los hospitales: desde algoritmos que detectan patrones sospechosos en una radiografía con una precisión sobrehumana, hasta sistemas que sugieren diagnósticos y tratamientos cruzando millones de historiales clínicos. Para el médico, es como contar con un asistente infatigable y con una memoria enciclopédica. Para el paciente, es la promesa de una medicina más rápida y certera. Pero bajo esta superficie de eficiencia yace un riesgo silencioso, que la historia ya ha mostrado en otras profesiones: la pérdida de habilidades o deskilling.

El deskilling no es un invento de la era digital. Ocurrió cuando las líneas de montaje fragmentaron oficios artesanales en gestos repetitivos, y cuando las calculadoras suscitaron temores sobre la decadencia del cálculo mental. En cada caso, la habilidad que dejaba de practicarse regularmente no desaparecía por arte de magia, pero se atrofiaba, perdiendo agilidad y precisión. En medicina, este fenómeno es particularmente delicado. Existe la tentación de abandonar la escucha atenta y el examen físico minucioso frente a la aparente objetividad de una prueba de imagen generada por IA. Se puede relegar el razonamiento clínico deductivo -aquel que conecta síntomas, historia y contexto- a un segundo plano, confiando en el protocolo sugerido por un software.

Piénsese en un radiólogo que utiliza durante años un sistema de IA de última generación para analizar mamografías. El software es excepcional, con un porcentaje de acierto envidiable. Con el tiempo, el profesional podría comenzar a depender de su juicio como veredicto final, relegando su propio análisis meticuloso, entrenado durante décadas para detectar las texturas y sombras más sutiles. La intuición clínica, esa voz interna que a veces salva vidas al percibir que "algo no encaja", se iría apagando por falta de uso. Esto es el interés acumulado de la deuda cognitiva: una dependencia sigilosa que mina la autonomía.

Otro ejemplo cotidiano son los historiales clínicos electrónicos con IA integrada. Sugieren automáticamente medicamentos, alertan sobre interacciones peligrosas o pre-llenan partes de un informe. Son una bendición para la gestión del tiempo, pero si el médico se limita a validar esas sugerencias sin procesarlas activamente, se produce una "descarga cognitiva". El acto de recordar, conectar y razonar se externaliza. El conocimiento deja de ser "propio" para convertirse en algo consultado en una pantalla. Estudios del MIT y otras instituciones ya señalan que cuando una herramienta escribe o sintetiza por nosotros, nuestra retención y comprensión profunda se resienten. En medicina, donde cada paciente es un universo único, esta pérdida de "propiedad" del conocimiento puede tener consecuencias graves.

Las señales de alarma son concretas: la erosión del pensamiento crítico, dando paso a un "sesgo de automatización" donde se confía ciegamente en la salida del sistema; un "sedentarismo cognitivo" que reduce la actividad de las áreas cerebrales responsables de la evaluación y el monitoreo de errores; y una dependencia peligrosa que deja al profesional vulnerable cuando la tecnología falla o se enfrenta a un caso atípico para el que no tiene datos.

Sin embargo, enfocarse únicamente en la pérdida es una visión fatalista y parcial. Toda moneda tiene un reverso, y en este proceso de transformación también se abren oportunidades para el reaprendizaje y la elevación profesional (lo que en inglés se denomina reskilling y upskilling). La IA puede liberar al médico de lo exhaustivo y fatigante -como revisar miles de imágenes en busca de un patrón mínimo- para que pueda centrarse en lo irremplazable: la integración clínica, la evaluación de la incertidumbre, la ponderación de los sesgos del algoritmo y, sobre todo, la toma de decisiones responsables ante una persona, no un conjunto de datos.

Paradójicamente, una medicina asistida por IA podría exigir médicos mejor entrenados, no más básicos. Exige que comprendan los límites de los modelos, la probabilística y la ética. Exige que se conviertan en traductores y guías, capaces de explicar a un paciente por qué se sigue o se ignora una recomendación automatizada. La comunicación deja de ser un diálogo simple para convertirse en una interpretación constante entre el dato frío y la realidad humana.

Un ejemplo concreto lo ofrece la endoscopia. Un operador, tras horas de trabajo y frente a una anatomía compleja, sabe que su atención puede flaquear. En ese contexto, una IA que actúa como un segundo par de ojos puede reducir errores por fatiga. El dilema profesional no es "ceder o no ceder" a la máquina, sino saber cuándo el propio juicio está comprometido y cómo usar la tecnología para compensarlo sin abdicar de la responsabilidad última. La IA no debe ser el árbitro, sino el copiloto: alarma, pero no decide.

¿Cómo navegar entonces este camino sin caer en la deuda cognitiva ni en la pérdida irreversible de habilidades? La respuesta no está en rechazar la tecnología -sería como renunciar al telescopio-, sino en adoptar una actitud de co-inteligencia activa. Estrategias sencillas pueden marcar la diferencia: la regla del "primero el criterio propio, luego la IA", donde el médico formula su propia hipótesis antes de contrastarla con el sistema; el establecimiento de "zonas libres de IA" en la práctica diaria para forzar a la mente a sintetizar y razonar por sí misma; y, sobre todo, la verificación activa, tratando cada sugerencia del algoritmo como la hipótesis de un colega muy informado, pero que debe ser escrutada y contextualizada.

Al final, las tecnologías por sí solas no producen ni deskilling ni upskilling. Son instrumentos. Son las instituciones, los sistemas de formación, la cultura profesional y nuestra actitud individual las que deciden el resultado final. Si solo se premia la velocidad y la eficiencia a cualquier costo, se fomentará la dependencia acrítica. Si, en cambio, se entrena y valora el juicio clínico, la supervisión crítica y la sabiduría para decidir cuándo apoyarse en la máquina y cuándo confiar en la intuición entrenada, emergerá una medicina más sofisticada y humana.

La inteligencia artificial no reduce el valor del médico; reduce el valor de la rutina. Y nos obliga, como cada gran tecnología lo ha hecho antes, a redefinir una vez más qué significa ser competente. La advertencia de la deuda cognitiva y la pérdida de habilidades no es una sentencia, es una llamada a la atención. Escucharla, aprender de ella y elegir cómo interactuamos con las máquinas que nos rodean sigue siendo, como siempre, una decisión profundamente humana. Nuestro progreso no debería medirse solo por lo que las máquinas pueden hacer por nosotros, sino por lo que decidimos seguir haciendo, y sabiendo, por nosotros mismos.

 

Nota elaborada con el apoyo de herramientas de IA generativa de lenguaje, bajo supervisión y edición de los autores.

Referencias

1.      Carr NG. The Glass Cage: Automation and Us. New York: W. W. Norton & Company; 2014. Chapter 4, The Degeneration Effect; p. 71-95.

2.      Cabitza F, Rasoini R, Gensini GF. Unintended Consequences of Machine Learning in Medicine. JAMA. 2017 Aug 8;318(6):517-518.

3.      Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019 Jan;25(1):44-56.

Homero Bagnulo y Carlos Vivas
2026-02-02T07:20:00

Dres. Homero Bagnulo; Carlos Vivas