Pacientes y Algoritmos: Navegando la Era de la IA Médica. Homero Bagnulo y Carlos Vivas
09.03.2026
La sociedad está viviendo un cambio de paradigma: la inteligencia artificial (IA) ya no es exclusiva de centros de investigación avanzada. Hoy, los pacientes tienen acceso directo a algoritmos de autodiagnóstico y gestión de salud, lo que plantea tanto oportunidades como riesgos significativos.
La literatura académica reciente destaca el "empoderamiento del paciente" como motor de esta tendencia, promoviendo que el usuario sea cogestor de su salud. Sin embargo, este modelo conlleva riesgos importantes sin una alfabetización digital adecuada. El consenso entre investigadores médicos, psicológicos y sociológicos es claro: la IA debe usarse como "segunda opinión" para preparar la consulta con el profesional de salud, nunca como veredicto diagnóstico.
Entendiendo los modelos de IA en salud
Es fundamental comprender qué tipo de IA utilizamos diariamente. Los chatbots populares como Gemini, ChatGPT, Claude y DeepSeek integran lo que se denomina IA Estrecha. Son modelos generalistas entrenados con casi todo el texto disponible en internet: medicina, leyes, poesía, código y recetas de cocina. Al estar diseñados para satisfacer al gran público, su conocimiento es amplio pero superficial. Si les preguntamos por un síntoma, responden basándose en probabilidades estadísticas de textos médicos, no en razonamiento clínico real.
Por contraste, los modelos especializados como Consensus (búsqueda de bibliografía médica) y Med-PaLM (asesor en consultas e investigación) funcionan con la misma tecnología base, pero su "cerebro" está filtrado o conectado a fuentes de alta fidelidad. Med-PaLM, por ejemplo, está reservado exclusivamente a centros de investigación médica debido a su especialización. En la práctica: quien quiera saber "qué es el colesterol" usa una IA generalista; si busca "qué dice el último estudio sobre estatinas", recurre a una IA especializada. Pero si necesita saber "qué le pasa", debe consultar a un médico.
Existe confusión terminológica cuando la industria habla de IA general (AIG). El término "general" se refiere a cómo funciona esta IA: creando contenido nuevo (texto, imágenes, audio, video) a partir de patrones aprendidos. Sin embargo, la verdadera AIG -aquella que puede aprender cualquier tarea humana de forma autónoma- sigue siendo teórica. Los chatbots actuales se presentan como generalistas y generativos: generalistas porque abordan múltiples temas en segundos, y generativos porque crean contenido nuevo.
La diferencia crucial es que, aunque parezcan "saber de todo", estos sistemas tienen inteligencia probabilística, no cognitiva. Predicen la siguiente palabra más probable en una secuencia. Si se les plantea un problema lógico nunca escrito en internet, es probable que fallen. La futura AIG, en cambio, tendría capacidad de razonamiento desde cero: podría aprender a tocar el piano, luego a operar un corazón y después a programar un satélite, usando comprensión profunda del mundo, no solo de los textos que lo describen.
Experiencias exitosas
IDx-DR, el primer sistema aprobado por la Food and Drug Administration para diagnóstico autónomo, permite screening masivos de retinopatía diabética en centros de atención primaria, derivando solo casos complejos al oftalmólogo (1). En diagnóstico de cáncer de mama, varios sistemas han demostrado reducir falsos positivos y negativos en mamografías (2).
En investigación farmacológica, la IA acelera el descubrimiento de moléculas candidatas y el reclutamiento de pacientes para ensayos clínicos. Es uno de los éxitos menos visibles para el público, pero de enorme impacto (3).
Los chatbots diseñados específicamente para terapia cognitivo-conductual, como Woebot, han mostrado éxito reduciendo síntomas de ansiedad leve y depresión en jóvenes que, por estigma o costo, no acudirían a un psicólogo (4).
Riesgos y daños documentados
Se han documentado casos en Estados Unidos donde algoritmos de gestión de salud puntuaban como "menos graves" a pacientes de comunidades negras frente a pacientes blancos con los mismos síntomas. La causa: el algoritmo se basaba en historial de gasto médico, sistemáticamente menor en población de menores recursos (5). Otro riesgo significativo es que la IA genere información falsa pero convincente (6).
El Emergency Care Research Institute (ECRI) ha señalado a la IA como el mayor peligro en tecnología sanitaria para 2026, ascendiendo desde el quinto puesto en 2025. Las preocupaciones críticas incluyen sesgo en los modelos, respuestas engañosas y falta de adaptabilidad ante nuevas condiciones clínicas (7).
Conclusiones
Los pacientes deben entender que la IA en salud no es un buscador de internet potenciado; es una herramienta estadística. La diferencia entre "asociación" y "causalidad" es algo que la IA aún no maneja tan bien como un médico con experiencia.
El consenso actual de los expertos concuerda: la IA es un excelente asistente, pero un pésimo jefe. Usarla para informarse y formular las preguntas correctas es beneficioso; usarla para reemplazar el juicio clínico sigue siendo, al menos por ahora, un deporte de riesgo.
Decálogo de recomendaciones OMS
Para una interacción segura entre pacientes e IA (8):
1. Preparación, no diagnóstico: Use la IA para organizar síntomas y entender términos antes de la consulta, nunca para reemplazar el veredicto médico.
2. Transparencia médica: Pregunte a su profesional si está utilizando IA para analizar sus pruebas y qué peso tiene esa herramienta en la decisión final.
3. Privacidad de datos: No introduzca datos personales (nombres, DNI, fotos de rostro) en modelos comerciales. Use descripciones anónimas.
4. Verificación de fuentes: Si la IA ofrece un consejo, pídale las fuentes bibliográficas y verifique que existan.
5. Criterio de emergencia: Si siente un síntoma grave (dolor en el pecho, falta de aire), ignore a la IA y busque atención humana inmediata. La IA suele subestimar la urgencia.
6. Consciencia de sesgo: Recuerde que la IA puede estar entrenada con datos que no representan su origen étnico, género o realidad socioeconómica.
7. Segunda opinión humana: Considere la respuesta de la IA como una hipótesis que siempre debe ser validada por un médico.
8. No automedicación: Jamás cambie una dosis o inicie un tratamiento basándose en la sugerencia de un chatbot.
9. Uso de herramientas especializadas: Prefiera IAs diseñadas para investigación (como Consensus o Med-PaLM) sobre IAs generalistas para consultas complejas.
10. Auditoría crítica: Si la respuesta de la IA suena demasiado perfecta o excesivamente alarmista, desconfíe. Mantenga una actitud de escepticismo saludable.
Nota elaborada con el apoyo de herramientas de IA generativa de lenguaje, bajo supervisión y edición de los autores.
Referencias
1. Khan Z, Abhay Gaidhane A, Singh MC, et al. Diagnostic Accuracy of IDX-DR for Detecting Diabetic Retinopathy: A Systematic Review and Meta-Analysis. Am J Ophthalmol. 2025;273:192-204.
2. McKinney SM, Sieniek M, Godbole V, et al. International evaluation of an AI system for breast cancer screening. Nature. 2020;577:89-94.
3. Hutson M. How AI is being used to accelerate clinical trials. Nature. 2024;627(8003):S2-S5.
4. Kang B, Hong M. Digital Interventions for Reducing Loneliness and Depression in Korean College Students: Mixed Methods Evaluation. JMIR Form Res. 2024;8:e58791.
5. Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019;366(6464):447-53.
6. Passerini A, Gema A, Minervini P, Sayin B, Tentori K. Fostering effective hybrid human-LLM reasoning and decision making. Front Artif Intell. 2025;7:1464690.
7. ECRI. Top 10 Health Technology Hazards for 2026: Executive Brief. Plymouth Meeting (PA): ECRI; 2026.
8. World Health Organization. Ethics and governance of artificial intelligence for health. Guidance on large multi-modal models. Geneva: WHO; 2024.
Dres. Homero Bagnulo; Carlos Vivas