La oveja Dolly no podía matar, la Inteligencia Artificial, sí

08.03.2026

WASHINGTON (Uypress)- Desde hace unos días hay una importante pelea entre Donald Trump y Anthropic, la empresa de inteligencia artificial creadora de Claude. Una discusión que pasó casi inadvertida, pero plantea uno de los problemas centrales que enfrentan las democracias en la era de la IA: para qué pueden usarse, quién pone los límites y, sobre todo, si esos límites los fijan los privados, los Estados, o directamente nadie, según artículo de Julieta Dussel para diario argentino Página12.

 

Esta disputa se remonta a julio de 2025, cuando Anthropic firmó un contrato por 200 millones de dólares con el Pentágono para proveer su IA (Claude). Así se convirtió en el primer laboratorio en ofrecer sus modelos en la red clasificada del Departamento de Defensa de EE.UU.

Las redes clasificadas son sistemas informáticos del gobierno estadounidense que operan físicamente desconectados de internet -lo que se conoce como "air-gap". Allí se almacena información de alto secreto: imágenes satelitales, planes militares, comunicaciones de inteligencia. Dado que ningún agente externo puede acceder a ellas, el software de IA que opera dentro de esas redes queda fuera del control o monitoreo de la empresa que lo creó.

Es decir que Anthropic no le vendió al Pentágono "acceso a Claude.ai". Lo que hizo fue entregar el modelo en sí -el software, la tecnología- para que el Pentágono lo instalara y operara dentro de sus propias redes secretas, sin conexión al exterior. En la práctica, esto significa que los analistas de inteligencia y planificadores militares pueden usar la IA de Anthropic para procesar documentos clasificados, analizar imágenes satelitales, redactar informes secretos, o lo que el Pentágono decida, sin que la empresa tenga ningún control ni conocimiento sobre ese uso.

Como Anthropic sabía que no podría ver ni controlar qué haría el Pentágono con su modelo una vez instalado en esas redes, la empresa quiso que los límites de uso quedaran escritos en el contrato legal. Por eso el contrato original incluía dos prohibiciones concretas: la vigilancia masiva de ciudadanos estadounidenses y el uso en armas autónomas letales -es decir, drones o sistemas que pueden atacar blancos sin intervención humana directa. Durante meses esas cláusulas funcionaron sin conflicto.

El problema se desató en febrero de 2026, cuando el Pentágono exigió reemplazarlas: en lugar de prohibiciones explícitas en el contrato, la administración Trump ofreció poner por escrito que el ejército "reconoce" las leyes federales y las políticas internas que ya prohíben esos usos. Anthropic rechazó eso porque la diferencia es jurídicamente abismal: una cláusula contractual es exigible judicialmente; un "reconocimiento" de leyes existentes es una declaración de buenas intenciones que no obliga a nada nuevo. Solo basta recordar que la vigilancia masiva expuesta por Edward Snowden fue considerada legal durante años, es por eso que esa "garantía" no alcanza.

El canal técnico que une a Claude con el Pentágono es Palantir Technologies, una empresa de tecnología fundada en 2003 que opera como infraestructura digital del ejército estadounidense: sus plataformas son el puente a través del cual el modelo de Anthropic aparece en las pantallas de los analistas militares. Sus herramientas han sido utilizadas para habilitar la guerra con drones, sistemas de vigilancia policial y, en los últimos tiempos, las operaciones de deportación masiva de ICE. Sus ejecutivos no se caracterizan precisamente por la discreción. Su CEO, Alex Karp, se jactó en una reunión de accionistas de matar personas "cuando es necesario". El cofundador Joe Lonsdale reaccionó al anuncio de la captura de Maduro con un tuit que decía: "¿Para qué creen que fundé Palantir?".

Ese tuit no era casual. A mediados de febrero de 2026, los medios revelaron que durante la Operación Resolución Absoluta -el nombre en clave con el que el Pentágono bautizó el secuestro de Nicolás Maduro el 3 de enero en Caracas- se había utilizado la IA de Anthropic a través de la infraestructura de Palantir. Las fuentes indicaron que Claude fue usado no sólo en los preparativos previos, sino también durante la operación activa. No está claro cuál fue su papel preciso, pero en una operación de alto riesgo como esa, una IA puede servir para procesar en segundos miles de documentos de inteligencia, cruzar datos de movimientos de un objetivo, identificar patrones en comunicaciones interceptadas o ayudar a los comandantes a evaluar escenarios en tiempo real. Fue esa revelación la que hizo estallar el conflicto públicamente.

Cuando los medios publicaron la noticia, un ejecutivo senior de Anthropic se puso en contacto con un ejecutivo senior de Palantir para preguntarle si efectivamente el software de Anthropic había sido utilizado en la operación. Parecía una pregunta razonable: una empresa preocupada por los límites de uso de su tecnología quería saber si esos límites habían sido respetados.

Pero según el relato oficial del Pentágono, la pregunta fue planteada de una manera que implicaba que Anthropic podría desaprobar que su software hubiera sido usado, "porque obviamente hubo fuego cinético -disparos, en criollo- durante ese operativo, hubo gente que recibió disparos". El ejecutivo de Palantir terminó informando al Pentágono sobre la pregunta, porque quedó preocupado por las implicancias que podría tener.

Anthropic desmintió esa versión: la empresa negó categóricamente haber discutido el uso de Claude en operaciones específicas con el Departamento de Guerra, ni con ningún socio de la industria fuera de conversaciones técnicas rutinarias. Pero para el Pentágono, el daño ya estaba hecho. La pregunta fue interpretada como una señal de que Anthropic podría querer vetar el uso de su IA en operaciones militares concretas. Y eso, para la administración Trump, era inaceptable.

El martes 25 de febrero, el secretario de Defensa Pete Hegseth se reunió en el Pentágono con el CEO de Anthropic, Dario Amodei. La reunión fue descripta como cordial, pero la situación empeoró después. El jueves 27, Amodei publicó una carta abierta diciendo que "en conciencia no podemos ceder a sus demandas".

El viernes 28 de febrero, el Pentágono fijó un plazo: las 5 de la tarde para que Anthropic aceptara las condiciones. Poco antes del vencimiento, Trump publicó en la red social Truth un post donde llamaba "izquierdistas lunáticos" a Anthropic y ordenó a todas las agencias federales dejar de utilizar su tecnología. Cuando venció el plazo, Hegseth declaró a Anthropic un "riesgo para la cadena de suministro de seguridad nacional" -una designación que normalmente se utiliza para empresas vinculadas a adversarios extranjeros como China o Rusia- y prohibió a todo contratista del ejército realizar actividades comerciales con la empresa.

Esa misma noche, Sam Altman de OpenAI anunció que su empresa había firmado un acuerdo con el Departamento de Guerra para desplegar sus modelos en las mismas redes clasificadas del Pentágono.

Anthropic anunció que demandará judicialmente la decisión de Hegseth de clasificarla como "riesgo para la cadena de suministro de seguridad nacional", calificándola de legalmente infundada y de precedente peligroso: si una empresa privada puede recibir esa etiqueta por negarse a eliminar restricciones éticas de un contrato, ninguna compañía que negocie con el gobierno de EE.UU. tiene garantías de nada.

Esa es la cronología de la pelea por establecer los límites legales y éticos del uso de la inteligencia artificial. No es la primera vez que la humanidad se enfrenta a una tecnología que avanza más rápido que su capacidad de regularla. Cuando la clonación apareció en escena en los años 90, los estados, los parlamentos y los organismos internacionales reaccionaron. Hubo debates, hubo leyes, hubo tratados internacionales. La sociedad, a través de sus instituciones, decidió dónde estaban los límites. No fue el laboratorio que clonó a la oveja Dolly quien definió qué se podía clonar y qué no.

Con la inteligencia artificial estamos fallando en eso. No hay un marco regulatorio global. No hay un tratado internacional. El Congreso de Estados Unidos -la potencia que lidera el desarrollo de estas tecnologías- no aprobó una sola ley sobre el uso de IA. En ese vacío, una empresa privada y el Pentágono (que opera cada vez más por fuera de los controles democráticos) negociaron quién decide si una máquina puede matar de forma autónoma. Y cuando uno de ellos intentó poner límites, el poder político lo eyectó y buscó a otro que no los pusiera.

Dario Amodei, el CEO de Anthropic, dijo algo que debería haber generado un debate mundial: "No podemos en buena conciencia acceder a su pedido." Un CEO diciéndole no al Secretario de Defensa de la primera potencia del mundo. Su argumento puede haber tenido razón o no. Pero la pregunta que importa no es qué pensaba Amodei, sino por qué esa decisión la estaba tomando él.

Es que si la ausencia de regulación ya es preocupante en abstracto, al mirar quiénes son las personas concretas tomando estas decisiones la preocupación se vuelve alarma: Donald Trump y su gabinete, que no necesitan presentación ni calificación. Peter Thiel, cofundador de Palantir, cuyo nombre aparece repetidamente en los Archivos Epstein y que recibió decenas de millones de dólares en inversiones vinculadas a él. Sam Altman, CEO de OpenAI, que hace pocas semanas generó polémica al comparar la energía que consume la IA con la que necesitan los seres humanos -una manera de sugerir que hay gente que sobra.

Estos son los hombres que, en ausencia de un marco regulatorio, están decidiendo los límites del uso de la inteligencia artificial en contextos de vida o muerte. Pero el problema no es solo quiénes son, sino lo que representan: una nueva casta de billonarios, casi todos hombres, casi todos blancos, que en los últimos años fueron acumulando el control de industrias enteras. Entre ellos manejan las redes sociales donde se forma la opinión pública, las plataformas de noticias, la logística global, los motores de búsqueda, la inteligencia artificial y ahora las redes clasificadas del ejército más poderoso del mundo. Amazon, Twitter, TikTok, CNN, OpenAI, Google, Facebook: el mapa del poder real del siglo XXI no está en los parlamentos sino en esas oficinas. Y son ellos, no los estados ni los ciudadanos, quienes están definiendo para qué puede usarse la tecnología más poderosa que existe. No parece la combinación más tranquilizadora.

La oveja Dolly no podía matar. La Inteligencia artificial, sí. Decidir cuales son los límites de lo que puede hacer la inteligencia artificial no le corresponde al mercado. Le corresponde a la democracia. Ojalá estemos a tiempo!

Actualidad
2026-03-08T06:11:00

UyPress - Agencia Uruguaya de Noticias