28/02/2026 06:09 - Tecnologia
El gobierno de Donald Trump ordenó el viernes 27 de febrero de 2026 a todas las agencias federales y contratistas militares de Estados Unidos que cesen inmediatamente sus negocios con Anthropic, la empresa desarrolladora del modelo de inteligencia artificial Claude. La decisión responde a la negativa de la compañía de eliminar las restricciones éticas que impedían al Pentágono utilizar su tecnología para armas autónomas y vigilancia masiva de ciudadanos estadounidenses.
El secretario de Defensa, Pete Hegseth, anunció que Anthropic será considerada un "riesgo para la cadena de suministro", una designación que habitualmente se reserva para empresas vinculadas a adversarios extranjeros. Las agencias gubernamentales tienen un plazo de seis meses para eliminar gradualmente el uso de los productos de Anthropic.
Anthropic, fundada por ex investigadores de OpenAI y valorada en aproximadamente USD 380.000 millones, mantenía dos condiciones innegociables en su contrato con el Pentágono:
El CEO de Anthropic, Dario Amodei, declaró: "Las amenazas no cambian nuestra posición: no podemos, en buena conciencia, acceder a su solicitud". Claude fue el primer modelo de IA en operar en las redes clasificadas de las Fuerzas Armadas estadounidenses, con un contrato potencial de hasta USD 200 millones.
El Pentágono argumentó que necesita libertad total para utilizar la tecnología que licencia, sin restricciones impuestas por empresas privadas. El portavoz Sean Parnell declaró en X: "No permitiremos que NINGUNA empresa dicte los términos sobre cómo tomamos decisiones operativas".
El subsecretario de Investigación e Ingeniería, Emil Michael, señaló que estaban en las etapas finales de un acuerdo cuando Anthropic emitió su comunicado de rechazo. Trump calificó la decisión de Anthropic como un "error desastroso" en Truth Social.
En contraste con Anthropic, OpenAI anunció un acuerdo con el Departamento de Defensa para implementar sus modelos de inteligencia artificial en la red clasificada del gobierno federal. El CEO Sam Altman destacó que el pacto establece condiciones estrictas:
| Condición | Descripción |
|---|---|
| Rechazo a vigilancia indiscriminada | No se permitirá el uso masivo de datos ciudadanos. |
| Supervisión humana en armas autónomas | Toda fuerza ejercida por sistemas autónomos requerirá control humano directo. |
| Salvaguardas técnicas | Mecanismos automáticos y manuales para prevenir desviaciones. |
| Despliegue exclusivo en nube | Modelos operarán solo en redes seguras en la nube. |
Altman declaró: "El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo". El subsecretario Emil Michael calificó a OpenAI como un "socio confiable y estable".
Valor del contrato potencial de Anthropic con el Pentágono
Valoración actual de Anthropic
Plazo para eliminar uso de Anthropic en agencias federales
La medida del gobierno envía un mensaje contundente a otras empresas de inteligencia artificial. Adam Connor, vicepresidente de política tecnológica del Center for American Progress, advirtió: "Una gran parte de la base de clientes actual de Anthropic podría desaparecer, ya sea porque tienen contratos gubernamentales o porque podrían desearlos en el futuro".
La Administración de Servicios Generales eliminará a Anthropic de USAi.gov, el campo de pruebas centralizado del gobierno federal para herramientas de IA. Gregory Allen, asesor del Centro de Estudios Estratégicos e Internacionales, cuestionó la decisión: "Tomar a un campeón nacional de IA en un momento en que la Casa Blanca dice que la carrera de IA con China es equivalente a la carrera espacial durante la Guerra Fría... no quieres tomar una de las joyas de la corona de tu industria y prenderle fuego por algo así".
El Pentágono también amenazó con utilizar la Ley de Producción de Defensa de 1950 para forzar a Anthropic a cooperar, legislación que otorga al presidente autoridad de emergencia sobre las industrias nacionales.
El enfrentamiento se intensificó tras reportes sobre el uso de Claude en la captura de Nicolás Maduro en Venezuela, operación que generó debate sobre los límites éticos de la IA en operaciones militares. Mientras Anthropic mantiene sus principios de seguridad, competidores como xAI (Grok de Elon Musk) se ofrecen como alternativas para redes clasificadas, aunque el Pentágono considera a Claude más avanzado técnicamente.
Fuentes: CNN en español, Infobae, declaraciones oficiales del Departamento de Defensa.
Alfredo S. Quiroga
Conspiraciones