IA y bioética en la investigación científica: beneficios, riesgos y desafíos. Homero Bagnulo, Carlos Vivas

16.03.2026

El Hastings Center, fundado en 1969 por el filósofo Daniel Callahan y el psiquiatra Willard Gaylin, es reconocido como la primera institución del mundo dedicada sistemáticamente al estudio de la ética en medicina y biología.

Callahan, doctor en filosofía por la Universidad de Harvard y autor de una vasta obra académica, dirigió el Centro desde su fundación hasta 1996 y continuó publicando activamente hasta su fallecimiento en 2019. Su legado es la bioética como disciplina autónoma: rigurosa, interdisciplinaria y orientada al debate público. Fiel a ese espíritu fundacional, el Hastings Center ha publicado recientemente el artículo "Beneficios y riesgos del uso de agentes de AI en la investigación", que examina uno de los desafíos más urgentes de nuestro tiempo. (1)

La integración de la inteligencia artificial (IA) en la investigación y la práctica biomédica representa uno de los avances más significativos del siglo XXI, con un mercado global que alcanzó los 29.010 millones de dólares en 2024 y que se proyecta supere los 504.000 millones para 2032. Sin embargo, este progreso tecnológico conlleva profundas implicaciones bioéticas, particularmente en torno al principio de autonomía. (2)

Para abordar estas implicaciones es necesario distinguir dos conceptos que suelen emplearse de manera intercambiable. Un modelo de IA, como los modelos de lenguaje de gran tamaño (LLMs) disponibles en plataformas de uso cotidiano como Gemini, ChatGPT o DeepSeek, funciona como una enciclopedia dinámica basada en lenguaje predictivo: responde consultas, genera texto y procesa información. Un agente de IA, en cambio, va más allá: utiliza uno o varios modelos para actuar, tomar decisiones y ejecutar tareas de manera relativamente autónoma, ajustando su flujo de trabajo en respuesta a las entradas de su entorno, manejando consultas con componentes múltiples y coordinando recursos entre distintos sistemas. En esta distinción radica una diferencia sustantiva: el modelo sabe; el agente hace. Cabe aclarar que, en este contexto, el término autonomía no alude a la capacidad moral propia de los seres humanos, sino a la capacidad técnica de actuar sin supervisión o control externo continuo.

Esta autonomía operativa determina que los agentes de IA funcionen frecuentemente como "cajas negras": sistemas cuyos procesos de decisión son opacos incluso para sus propios creadores. Ante este desafío, diversos autores proponen ampliar los cuatro principios clásicos de la bioética -autonomía, beneficencia, no maleficencia y justicia- con un quinto: la explicabilidad. Este principio engloba dos dimensiones: a) la inteligibilidad, entendida como la capacidad de los sistemas de IA para ser comprendidos por los seres humanos; y b) la transparencia, entendida como la obligación de revelar cuándo y cómo se utiliza un sistema de IA en el proceso de investigación. La explicabilidad no es un fin en sí mismo, sino un requisito indispensable para que los investigadores puedan trabajar responsablemente con sistemas autónomos. (3)

Al asumir tareas rutinarias y administrativas, los agentes de IA podrían liberar a los científicos para que se concentren en actividades que demandan mayor atención y perspicacia intelectual, al tiempo que reducirían los errores humanos asociados al descuido, la fatiga, la ejecución incorrecta de experimentos o el incumplimiento de normas de seguridad. No obstante, estas ventajas potenciales deben sopesarse cuidadosamente con los riesgos que se describen a continuación.

Como ocurre con otras herramientas de IA, los agentes son propensos a errores, inexactitudes y sesgos, incluidas las denominadas alucinaciones. La supervisión y verificación humana del trabajo de estos sistemas resulta, por tanto, ineludible. Sin embargo, esta tarea puede demandar, en ciertos casos, mayor esfuerzo que el empleo de las metodologías convencionales, especialmente cuando los errores generados por el agente son sutiles o difíciles de identificar.

Un aspecto central en este sistema sociotécnico es la ausencia de agencia moral en las máquinas. El ser humano puede comprender normas morales y elegir libremente entre alternativas, lo que lo hace responsable de las consecuencias de sus decisiones. Las máquinas, en cambio, carecen de intencionalidad y conciencia moral: ejecutan procesos computacionales dentro de los límites fijados por sus diseñadores. Esta asimetría da lugar a lo que los especialistas denominan brecha de responsabilidad: a medida que los sistemas de IA incrementan su capacidad, sus resultados pueden volverse demasiado complejos para que los humanos los verifiquen cabalmente, con lo que ningún actor, ni la máquina ni el investigador, asumiría responsabilidad plena por los eventuales errores. (4)

La mayoría de las regulaciones vigentes exigen supervisión humana para sistemas de alto riesgo. Sin embargo, esta exigencia presupone que el supervisor sea siempre capaz de ejercerla eficazmente, lo cual no se verifica en la práctica. Cuando el sistema supervisado posee una alta fiabilidad -por ejemplo, un 99% de precisión-, el supervisor humano tiende a incurrir en el sesgo de automatización: el cerebro, ante una tarea monótona, se desconecta y acepta acríticamente las recomendaciones del sistema. Si este falla en ese 1% restante, el supervisor ya no se encuentra en condiciones cognitivas de intervenir a tiempo. Esta asimetría convierte la supervisión, en muchos casos, en una ficción legal. Para que sea genuina, se propone el modelo de supervisión significativa, que requiere que el supervisor comprenda las capacidades y limitaciones del sistema, tenga acceso a información relevante que el sistema no posee, pueda disentir de manera fundamentada y disponga del tiempo y los recursos necesarios para ejercer ese control. (5)

Un riesgo adicional, de especial relevancia para la comunidad académica, es el impacto de la automatización en la formación de nuevos investigadores. Las tareas básicas y repetitivas del trabajo de laboratorio no constituyen un mero trámite operativo: son lo que la psicología cognitiva denomina andamios, es decir, las estructuras que permiten construir el conocimiento tácito e intuitivo que no se adquiere en los manuales sino a través de la práctica reiterada. El error cometido en las etapas iniciales de la formación no es un fracaso, sino una fuente de información invaluable. Al proporcionar directamente la respuesta correcta o el resultado optimizado, los agentes de IA pueden privar al investigador en formación de esa experiencia constitutiva. Este efecto alcanza también a los investigadores con trayectoria consolidada, quienes construyeron sus competencias fundamentales en el trabajo manual. En consecuencia, el científico en formación debe no solo aprender a utilizar la IA, sino también a interrogarla, verificarla y reconocer cuándo desconfiar de ella.

No obstante sus limitaciones actuales, es probable que los agentes de IA mejoren la eficiencia y productividad de la investigación científica. Sin embargo, los marcos éticos y legales vigentes resultan insuficientes para abordar los desafíos que esta transformación plantea. Un paso clave consiste en delimitar qué tareas deberían, y cuáles no deberían, automatizarse. Ciertas actividades de nivel inicial, como la ejecución de experimentos orientados a identificar interacciones entre proteínas, podrían preservarse deliberadamente para que los estudiantes desarrollen el pensamiento crítico necesario para convertirse en investigadores independientes. Alcanzar consensos sobre los grados de autonomía que se asignarán a los sistemas de IA implica, asimismo, negociar con las empresas desarrolladoras, cuyo interés en la eficiencia económica constituye un incentivo poderoso. Por este motivo, se requieren con urgencia estudios empíricos que evalúen el impacto de delegar tareas de investigación a sistemas automatizados.

La autonomía de la IA en biomedicina no es un problema del futuro, sino un desafío presente que exige una respuesta ética proactiva. Para garantizar que la tecnología sirva para potenciar, y no para disminuir, la autonomía humana, se proponen las siguientes líneas de actuación: a) incorporar principios bioéticos desde la fase de diseño y desarrollo de los sistemas de IA, no como un añadido posterior; b) establecer marcos regulatorios y auditorías algorítmicas obligatorias que garanticen la seguridad, eficacia y equidad de las herramientas antes de su implementación clínica; c) mantener circuitos de supervisión humana efectiva en las decisiones críticas, evitando la deferencia acrítica a las recomendaciones automatizadas; y d) fomentar la alfabetización digital y bioética en científicos, profesionales de la salud y ciudadanía en general, promoviendo un diálogo social inclusivo y multidisciplinar -que integre perspectivas éticas, jurídicas, tecnológicas y de los propios pacientes- para orientar el desarrollo de la IA hacia la mejora del bienestar humano.

La tecnología no es neutral. Y la velocidad con la que la IA está entrando en los laboratorios científicos hace que la conversación ética, lejos de ser un freno al progreso, sea la condición más urgente para que ese progreso valga la pena.

Nota elaborada con el apoyo de herramientas de IA generativa de lenguaje, bajo supervisión y edición de los autores.

REFERENCIAS

1) Hosseini M, Murad M, Resnik DB. Benefits and Risks of Using AI Agents in Research. Hastings Cent Rep. 2026 Jan-Feb;56(1):13-17.

2) Tabassum A, Fatima M, Fathima S, Ameer S, Fatima Z, Fatima N, Angelina P, Battul A. Beyond the lab: ethical, legal and social implications in health biotechnology. BIO Web Conf. 2025; 204:01003. Disponible en: https://doi.org/10.1051/bioconf/202520401003

3) Floridi L. The ethics of artificial intelligence: principles, challenges, and opportunities. Oxford: Oxford University Press; 2023. p. 57-66.

4) Matthias A. The responsibility gap: ascribing responsibility for the actions of learning automata. Ethics Inf Technol. 2004;6(3):175-83.

5) World Health Organization. Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization; 2021. 165 p. Disponible en: https://iris.who.int/handle/10665/341996

 

Homero Bagnulo y Carlos Vivas
2026-03-16T06:55:00

Dres. Homero Bagnulo; Carlos Vivas