Deadline militar del Gobierno de Estados Unidos a Anthropic para flexibilizar Claude

El enfrentamiento entre el Departamento de Defensa de Estados Unidos y la empresa de inteligencia artificial Anthropic sigue siendo uno de los debates más intensos del mundo tecnológico.
A medida que se acerca la fecha límite impuesta por el Gobierno para levantar las restricciones que limitan el uso de su modelo de IA Claude en aplicaciones militares, la tensión se mantiene.
Al momento de esta actualización (27 de febrero de 2026), no se ha alcanzado un acuerdo y ambas partes sostienen sus posiciones.

Contexto y trasfondo

Anthropic es uno de los laboratorios pioneros en IA generativa y proveedor del modelo de lenguaje Claude. Desde 2025, la empresa colabora con el Gobierno de EE. UU. a través de contratos para integrar esta tecnología en sistemas de defensa.
Sin embargo, Anthropic estableció dos límites no negociables para el uso de su modelo: no permitir que se emplee para vigilancia masiva de ciudadanos ni para armas autónomas que actúan sin intervención humana.
El Departamento de Defensa, por su parte, argumenta que debe poder usar la herramienta para cualquier propósito legal y considera inapropiado que un proveedor privado defina restricciones más allá de la ley.

american-soldier-military-uniform-preventing-cyber-attack-military-intelligence-center-728x485
Soldado estadounidense con uniforme militar previene un ciberataque en el centro de inteligencia militar.

La tensión se intensificó tras informes de que el modelo de Anthropic se utilizó a través de un socio (Palantir) en la operación para capturar al ex‑presidente venezolano Nicolas Maduro a principios de 2026. Este uso militar de Claude generó un debate global sobre la responsabilidad de las empresas de IA en operaciones beligerantes.

Últimos acontecimientos (27 de febrero 2026)

Hasta la fecha de esta actualización, las negociaciones están en punto muerto. El Departamento de Defensa comunicó que si Anthropic no elimina sus salvaguardas antes de las 5:01 p. m. (hora del Este) del viernes, rescindirá el contrato, declarará a la empresa como riesgo para la cadena de suministro y considerará recurrir a la Ley de Producción para la Defensa para obligar a la firma a cumplir. Esta amenaza se considera sin precedentes y podría derivar en litigios.

  • Declaración del Gobierno: el portavoz del Departamento de Defensa señaló que no desean emplear la IA para vigilancia masiva ni para armas totalmente autónomas, pero insiste en que deben poder usar el modelo para todas las aplicaciones legales. Además, advirtió que no permitirán que ninguna empresa privada dicte cómo se toman decisiones operativas.
  • Respuesta de Anthropic: el CEO Dario Amodei reiteró que la empresa no puede en buena conciencia aceptar la solicitud de eliminar las dos salvaguardas. Indicó que algunos usos de la IA pueden socavar los valores democráticos y que están dispuestos a colaborar con el Gobierno siempre que se respeten sus límites. También destacó que es contradictorio que el Gobierno amenace con etiquetar a Anthropic como riesgo de seguridad al mismo tiempo que considera esencial su tecnología.
  • Posible uso de la Ley de Producción para la Defensa: algunos funcionarios amenazaron con invocar esta ley para obligar a Anthropic a proporcionar su IA sin restricciones, pero expertos jurídicos señalan que sería un uso inédito de esa facultad.
  • Otras empresas: rivales como xAI, OpenAI y Google han aceptado la cláusula de uso ilimitado para sus modelos. Estas decisiones presionan a Anthropic a definirse frente a un mercado en el que la competencia está dispuesta a entregar modelos sin salvaguardas adicionales.

Declaraciones del Gobierno de Estados Unidos

El principal argumento oficial es que las leyes existentes son suficientes para regular el uso de la IA en el ámbito militar. Portavoces del Departamento de Defensa afirman que la IA se emplearía para tareas logísticas, análisis de inteligencia, simulaciones y ciberdefensa. Según ellos, exigir salvaguardas adicionales limita la capacidad operativa y puede poner en riesgo a los soldados. Asimismo, consideran que etiquetar a Anthropic como riesgo de la cadena de suministro sería una medida necesaria si la compañía se niega a cooperar.

Declaraciones de Anthropic

Anthropic mantiene que la tecnología actual no está preparada para responsabilidades críticas como el uso en armas totalmente autónomas ni para la vigilancia masiva de poblaciones.
Dario Amodei y otros directivos subrayan la importancia de proteger los derechos civiles y de evitar que la IA se utilice en contextos que podrían minar la democracia.
La empresa sostiene que seguirá apoyando misiones de seguridad nacional siempre que sus sistemas se utilicen dentro de los límites que considera seguros.

Dario-Almodei-728x485
Dario Amodei CEO Anthropic

Cronología de la disputa

Fecha Evento Descripción
13 feb 2026 Informe sobre uso militar Medios internacionales reportan que Claude fue usado por el Departamento de Defensa durante la operación para capturar al ex‑presidente venezolano, a través de una asociación con Palantir.
25 feb 2026 Reunión en Washington El secretario de Defensa se reúnió con el CEO de Anthropic y fijó una fecha límite para que la empresa elimine sus restricciones. Se amenazó con designarla riesgo para la cadena de suministro y con invocar la Ley de Producción para la Defensa.
26 feb 2026 Comunicados públicos Anthropic divulgó un comunicado diciendo que no puede aceptar las exigencias. Funcionarios del Departamento reiteraron que necesitan acceso total para usos legales y negaron pretender vigilancia masiva o armas sin humanos.
27 feb 2026 Estancamiento Reportes actualizados señalan que las negociaciones siguen sin avance. La amenaza de cancelar el contrato y designar a Anthropic como riesgo de suministro persiste, mientras la empresa reafirma sus dos salvaguardas.

Implicaciones y debates

La disputa refleja el conflicto entre la necesidad de innovar en defensa y la responsabilidad ética en el uso de la IA. Por un lado, el Gobierno busca desplegar modelos avanzados para mantener la superioridad militar y responder a rivales internacionales. Por otro lado, Anthropic argumenta que una regulación insuficiente podría conducir a abusos, especialmente en vigilancia y armas autónomas. La eventual resolución de este conflicto sentará un precedente sobre cómo las empresas privadas pueden establecer sus propios límites cuando trabajan con gobiernos.

Conclusiones

Hasta la mañana del 27 de febrero de 2026, Anthropic y el Departamento de Defensa no han alcanzado un acuerdo. La empresa mantiene sus salvaguardas y el Gobierno insiste en un uso sin restricciones para fines legales.
La proximidad de la fecha límite y la posibilidad de medidas drásticas por parte del Gobierno hacen que este conflicto sea un indicador de cómo se regulará la IA en el futuro.
En Gikplus estaremos atentos a nuevas actualizaciones para comprender si se alcanza un compromiso o si esta situación desemboca en acciones legales y en cambios normativos más amplios.

Noticias relacionadas

Pichai, Altman y el Billón de Dólares: La Cumbre que Cambió el Mundo

Pichai, Altman y el Billón de Dólares: La Cumbre que Cambió el Mundo

Crisis global de memoria RAM: Elon Musk y Tim Cook advierten inflación de precios en computadoras portátiles y teléfonos inteligentes

Crisis global de memoria RAM: Elon Musk y Tim Cook advierten inflación de precios en computadoras portátiles y teléfonos inteligentes