Desafíos de la Inteligencia Artificial en la medicina actual (III). Homero Bagnulo y Carlos Vivas
09.02.2026
Durante décadas, la medicina convivió con una ilusión persistente: que a mayor precisión técnica, menor necesidad de diálogo. La digitalización primero y la inteligencia artificial después desmintieron esa idea con claridad. Hoy, la consulta médica no es un espacio más simple ni más transparente, sino más denso. Hay más datos, más probabilidades, más escenarios posibles. Y, como contrapartida inevitable, más necesidad de comunicación.
Para la mayoría de las personas, el contacto con la medicina ocurre en contextos previsibles: una consulta ambulatoria, un estudio programado, una decisión terapéutica que puede pensarse y repensarse. Es en ese territorio cotidiano -que representa la mayor parte de la experiencia real de pacientes y médicos- donde la inteligencia artificial comienza a influir de manera más silenciosa, pero más frecuente. No irrumpe como alarma, sino como sugerencia; no acelera necesariamente la decisión, pero sí la reconfigura.
La inteligencia artificial (IA) ha demostrado una capacidad notable para ordenar información, detectar patrones complejos y estimar riesgos con mayor precisión que los métodos tradicionales. En la consulta habitual, estas herramientas pueden facilitar la conversación clínica: ayudan a comparar opciones, a visualizar escenarios posibles y a fundamentar decisiones. Pero ese mismo aporte introduce una nueva complejidad. La información ya no se limita a un diagnóstico o una recomendación, sino que incorpora probabilidades, intervalos y modelos predictivos que no siempre son fáciles de explicar ni de comprender.
La toma de decisiones compartidas -entendida como el proceso mediante el cual médico y paciente deliberan juntos sobre alternativas razonables- no se vuelve más simple con la inteligencia artificial. Al contrario: se vuelve más exigente. La IA puede estimar riesgos, pero no puede jerarquizarlos según los valores, las expectativas o la tolerancia a la incertidumbre de cada persona. Ese trabajo sigue siendo humano.
La investigación sobre comunicación del riesgo ha mostrado, desde hace años, que las personas no interpretan los números de manera neutral. Un mismo dato puede generar tranquilidad o alarma según cómo se presente y según la historia personal de quien lo recibe. Decir que un tratamiento reduce un riesgo "en términos relativos" no produce el mismo efecto que explicar cuántas personas se benefician realmente. La inteligencia artificial no corrige estos sesgos; puede amplificarlos si la información se presenta sin mediación clínica.
Aquí aparece un punto central: la IA no decide cómo se comunica. Puede ofrecer recomendaciones o estimaciones, pero no ordena el relato ni calibra el lenguaje. Cuando el médico utiliza estas herramientas para enriquecer la explicación, reconocer la incertidumbre y justificar una decisión, la tecnología puede fortalecer la confianza. Cuando se la presenta como una autoridad incuestionable o se la invoca sin contexto, puede interferir en la relación clínica.
Este fenómeno no es exclusivo de situaciones críticas. En la consulta electiva, muchos pacientes valoran el apoyo tecnológico, pero también expresan incomodidad cuando perciben que su singularidad queda reducida a una estadística. La resistencia a la inteligencia artificial en medicina no suele deberse al rechazo de la tecnología en sí, sino al temor de que no contemple las particularidades individuales. La forma en que el médico introduce y explica el uso de estas herramientas resulta, entonces, decisiva.
Los escenarios de urgencia o internación -menos frecuentes, pero más intensos- funcionan como un caso límite que permite ver estas tensiones con mayor claridad. Allí, la inteligencia artificial puede intervenir en tiempo real, ofreciendo alertas o recomendaciones en un contexto de presión, información incompleta y alto impacto emocional. No son la regla de la experiencia médica, pero sí un espejo amplificado de los dilemas que también existen en la consulta cotidiana: cómo decidir, cómo explicar y cómo asumir responsabilidad.
En esos contextos, el riesgo no es solo técnico. Es comunicacional. La simultaneidad entre decidir y explicar, la presencia de familiares, la carga emocional del momento y la intervención de sistemas automatizados obligan al médico a traducir información compleja sin margen de error. La IA puede ser una aliada valiosa o una interferencia significativa, según cómo se la incorpore al diálogo.
Algo similar ocurre con los sistemas diseñados para registrar automáticamente la consulta y generar notas clínicas. Su promesa es reducir la carga administrativa y liberar tiempo para la conversación. En la práctica, pueden cumplir ese objetivo, pero también plantean riesgos: errores de transcripción, confusión de interlocutores o generación automática de contenidos clínicos sin supervisión. La historia clínica no es una grabación literal, sino una reconstrucción deliberada de lo relevante. Delegar ese proceso sin control afecta tanto la calidad asistencial como la confianza.
Todo esto conduce a una conclusión que empieza a perfilarse con claridad: la inteligencia artificial no reemplaza la comunicación clínica; la vuelve más central. Cuanto más sofisticada es la tecnología, mayor es la necesidad de explicar, contextualizar y deliberar. La responsabilidad última de la decisión no se delega ni al algoritmo ni al paciente. Sigue recayendo en el médico, como garante de que la información sea comprensible, honesta y coherente con los valores de quien consulta.
En la medicina cotidiana -la que la mayoría de las personas conoce- la IA no dramatiza la consulta, pero sí la transforma. No elimina la incertidumbre, pero la hace más explícita. Y en ese escenario, la palabra sigue siendo la herramienta principal. Porque, incluso rodeada de tecnología, la pregunta que estructura la decisión médica sigue siendo la misma: ¿qué significa esto para mí?
Responderla exige datos, sí, pero sobre todo conversación.
Nota elaborada con el apoyo de herramientas de IA generativa de lenguaje, bajo supervisión y edición de los autores.
Referencias
1. Han PKJ, Klein WMP, Arora NK. Varieties of uncertainty in health care: a conceptual taxonomy. Medical Decision Making. 2011;31(6):828-838.
2. Longoni C, Bonezzi A, Morewedge CK. Resistance to medical artificial intelligence. Journal of Consumer Research. 2019;46(4):629-650.
3. Blease C, Bernstein MH, Gaab J, et al. Artificial intelligence and the future of the doctor-patient relationship. The Lancet Digital Health. 2019;1(2):e62-e64.
Dres. Homero Bagnulo; Carlos Vivas