27/02/2026 17:05 - Tecnologia
Anthropic, la compañía desarrolladora del chatbot Claude, anunció el jueves 26 de febrero de 2026 que no aceptará las condiciones del Pentágono para el uso irrestricto de su tecnología en operaciones militares. La decisión pone en riesgo un contrato de hasta USD 200 millones y prepara el terreno para un enfrentamiento sin precedentes entre el sector tecnológico y el gobierno estadounidense.
El Departamento de Guerra, encabezado por el secretario Pete Hegseth, impuso un ultimátum con fecha límite del 27 de febrero de 2026 a las 17:01 para que Anthropic elimine las restricciones éticas de Claude. La exigencia incluye:
El CEO Dario Amodei firmó un comunicado donde la empresa se mantiene firme en dos límites infranqueables:
El conflicto se intensificó tras los reportes del uso de Claude en la captura de Nicolás Maduro en Venezuela, según el conocimiento previo disponible. Anthropic habría planteado preguntas sobre cómo se utilizó su tecnología en esa operación, lo que generó fricciones con el Pentágono.
Sean Parnell, portavoz del Pentágono, negó en X (Twitter) que el Departamento de Guerra busque usar IA para vigilancia masiva o armas autónomas, calificando esas acusaciones como "narrativa falsa". Sin embargo, el departamento no ha estado dispuesto a prohibir estos usos en el contrato con Anthropic.
| Actor | Posición | Argumento principal |
|---|---|---|
| Anthropic | No ceder acceso sin restricciones | Armas autónomas y vigilancia masiva son incompatibles con valores democráticos y representan riesgos graves |
| Pentágono | Exige acceso para "cualquier uso legal" | Priorizar velocidad de implementación de IA por sobre restricciones de seguridad |
| Competidores (xAI, Google) | Aceptaron condiciones sin restricciones | Acceso completo a contratos militares |
El contrato de USD 200 millones firmado en julio de 2025 está en juego. Anthropic está dispuesta a perderlo antes de comprometer sus principios éticos.
Si el gobierno utiliza la Ley de Producción de Defensa para forzar el acceso, sentaría un precedente sobre cuánto control tiene el Estado sobre la tecnología privada.
El debate sobre armas autónomas y sistemas de vigilancia masiva tiene implicaciones globales para el futuro de la guerra y la privacidad ciudadana.
Según Anthropic, Claude se utiliza actualmente para:
Anthropic declaró que, de ser excluida del contrato, trabajará para "permitir una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, operaciones u otras misiones críticas". La empresa reafirmó su disposición a "continuar apoyando la seguridad nacional de Estados Unidos siempre que sus salvaguardas permanezcan intactas".
Fecha límite: 27 de febrero de 2026 a las 17:01 hora local.
Fuentes:
Alfredo S. Quiroga
Conspiraciones