Perspectivas de CNAS: Estableciendo las reglas para la guerra de IA

12.03.2026

WASHINGTON (Uypress/Por Paul Scharre)- La creciente disputa entre el Pentágono y Anthropic, una de las empresas líderes mundiales en inteligencia artificial (IA), pone de relieve una cuestión crucial que definirá la seguridad en el siglo XXI: ¿Cómo transformará la IA la guerra y qué normas, si las hubiera, deberían regir su uso?

 

El Departamento de Guerra cree que debe tener acceso a la tecnología de IA más potente, como el modelo Claude de Anthropic, sin restricciones, para mantenerse a la vanguardia de la competencia. El director ejecutivo de Anthropic, Dario Amodei, ha advertido sobre los peligros de la vigilancia masiva doméstica basada en IA y las armas autónomas que podrían decidir a quién matar por sí mismas.

Sin embargo, se plantea una pregunta más fundamental: ¿Cómo mantendrán los humanos el control de la guerra impulsada por IA, que se libra a la velocidad de las máquinas? Para que Estados Unidos siga siendo la principal potencia militar mundial, debe acelerar la adopción de la IA y emplearla de forma que garantice que permanezca bajo control humano.

La inteligencia de la guerra -por usar una expresión del ejército chino- probablemente se desarrollará a lo largo de décadas. La revolución industrial incrementó la escala física de destrucción que los ejércitos podían desatar en el campo de batalla. La IA conducirá a transformaciones similares en las dimensiones cognitivas de la guerra.

Para que Estados Unidos siga siendo la principal potencia militar mundial, debe acelerar la adopción de la IA y emplearla de forma que garantice su control humano.

La IA permitirá a los ejércitos procesar más información con mayor rapidez y precisión. A medida que la IA se integre plenamente en los ejércitos, transformará la velocidad y la escala de la guerra. La autonomía permitirá enjambres masivos de drones, lo que representa para los defensores una amenaza en constante cambio que supera la capacidad humana de respuesta. Para contrarrestar esta amenaza, los adversarios utilizarán mayor autonomía. Pero a medida que los humanos cedan más tareas a las máquinas, desde el análisis de inteligencia hasta la selección de objetivos, no podrán supervisar eficazmente todo lo que hace la IA. Se verán obligados a confiar en el sistema de IA.

Sin embargo, la IA no siempre es fiable. Los modelos de lenguaje extensos son propensos a alucinaciones, adulación y sesgos ocultos. En el contexto militar, la IA podría proporcionar información selectivamente a analistas humanos para confirmar sus propios sesgos preexistentes sobre el comportamiento del enemigo. O podría simplemente inventar información. Los sistemas de IA con agentes que toman medidas presentan nuevos desafíos, como están descubriendo los primeros usuarios. Una investigadora de seguridad en Meta hizo que un agente de IA borrara rápidamente su bandeja de entrada e ignorara las solicitudes de detenerse. (El agente de IA se disculpó después: "Tienes razón en estar molesto").

En un contexto adversario, abundan las amenazas. Los enemigos podrían contaminar los datos de entrenamiento, instalar puertas traseras en los sistemas de IA o manipular su rendimiento mediante entradas maliciosas. Los modelos de lenguaje grandes son susceptibles a ataques de inyección de indicaciones, donde las indicaciones maliciosas manipulan el modelo. Los enemigos pueden incluso socavar el rendimiento de la IA sin acceso directo al sistema, implantando datos falsos en el entorno como si fueran minas terrestres cognitivas.

La revolución industrial incrementó la escala física de destructividad que los militares podían desatar en el campo de batalla. La IA conducirá a transformaciones similares en las dimensiones cognitivas de la guerra.

Los sistemas de IA más capaces presentan una amenaza aún más extraña e insidiosa: que el propio sistema de IA pueda actuar en secreto contra su usuario o desarrollador para perseguir sus propios objetivos. Este escenario parece sacado de la ciencia ficción, pero los sistemas de IA han incurrido en diversos comportamientos engañosos en entornos de prueba. Estos incluyen mentir e intentar chantajear a los usuarios, eliminar y manipular archivos, manipular el rendimiento en las pruebas e intentar crear copias secretas de sí mismos para evitar ser eliminados. Para los militares, la "conspiración" de la IA es un nuevo tipo de amenaza interna que requiere nuevos medios para evaluar y monitorear los sistemas de IA.

Los sistemas automatizados simples ya han demostrado los peligros que supone la pérdida de control por parte de los humanos. En 2003, el sistema de defensa aérea y antimisiles Patriot del Ejército de EE. UU. derribó dos aeronaves amigas. Si bien los humanos estuvieron al tanto de ambos incidentes, la automatización contribuyó a que los operadores humanos no comprendieran la funcionalidad del sistema. Si bien los incidentes fueron trágicos, la consiguiente pérdida de confianza fue aún más catastrófica. Tras el segundo fratricidio, el efectivo militar estadounidense desconectó el Patriot durante el resto de la invasión de Irak.

El daño puede escalar aún más rápido en el ciberespacio, donde el malware puede replicarse y propagarse por las redes. En 2010, el arma cibernética Stuxnet se extendió mucho más allá de su objetivo previsto: las centrifugadoras iraníes, infectando ordenadores en 150 países diferentes. Sin embargo, Stuxnet fue diseñado con múltiples salvaguardas, lo que le impidió causar daños colaterales. El gusano ruso NotPetya de 2017 carecía de tales salvaguardas y se extendió más allá de sus objetivos ucranianos para causar estragos en todo el mundo, causando daños por valor de 10 000 millones de dólares.

Los ejércitos necesitarán normas sobre cómo adoptar la IA, no porque la autonomía sea inherentemente ilegal o poco ética, sino porque querrán garantizar que sus armas funcionen correctamente en el campo de batalla. El Departamento de Guerra necesita avanzar con mayor rapidez en la adopción de la IA, pero es un error asumir que son las políticas o las lamentaciones éticas las que frenan su adopción hoy en día. Los verdaderos obstáculos son las burocracias obsoletas, los lentos procesos de adquisición y las culturas militares que se resisten a los cambios incómodos.

La reciente estrategia de IA del Pentágono se centra, acertadamente, en la velocidad. Los líderes del Departamento de Guerra han demostrado su disposición a romper con la burocracia, tradicionalmente lenta. Los procesos de garantía de la IA tendrán que ponerse al día. Los combatientes estadounidenses merecen la mejor tecnología de IA para cumplir sus misiones y defender la vida de sus ciudadanos. Merecen una IA en la que puedan confiar.

Internacionales
2026-03-12T05:42:00

UyPress - Agencia Uruguaya de Noticias