Imago Noticias
Falleció Jorge Chemes, histórico dirigente rural y ex presidente de CRA
Rusia cumple 4 años de guerra en Ucrania: el devastador balance de un error de cálculo fatal
Dólar en mínimos históricos pero la dolarización no cede: dos visiones sobre el mercado cambiario
MasterChef Celebrity 2026: cuándo termina y qué viene en Telefe
25/02/2026 00:18 • Tecnologia
La compañía de inteligencia artificial xAI de Elon Musk ha firmado un acuerdo con el Pentágono para proporcionar su modelo Grok para su uso en sistemas militares clasificados, informó Axios el lunes 23 de febrero de 2026, citando la confirmación de un funcionario de defensa.
Este acuerdo convierte a Grok en el segundo modelo de IA disponible para el trabajo de inteligencia más sensible del ejército, el desarrollo de armas y las operaciones en el campo de batalla. Hasta ahora, Claude de Anthropic era el único modelo disponible en estos sistemas clasificados.
El Pentágono está ejerciendo fuerte presión sobre Anthropic en una disputa sobre salvaguardas éticas. La empresa se ha negado a cumplir con la exigencia del Departamento de Defensa de hacer que Claude esté disponible para "todos los propósitos legales", argumentando que esto podría permitir:
En contraste, xAI aceptó el estándar de "todo uso legal", lo que le permitió cerrar el acuerdo con el Departamento de Defensa.
El Secretario de Defensa Pete Hegseth convocó al CEO de Anthropic, Dario Amodei, a una reunión en el Pentágono programada para el martes 24 de febrero de 2026. Fuentes cercanas al asunto indican que Hegseth presentaría un ultimátum: colaborar o enfrentar consecuencias severas.
La amenaza principal es clasificar a Anthropic como un "riesgo para la cadena de suministro", una etiqueta que generalmente se reserva para adversarios extranjeros. Las implicaciones de esta designación serían significativas:
| Consecuencia | Impacto |
|---|---|
| Invalidación del contrato | Pérdida del acuerdo de USD 200 millones firmado en 2025 |
| Bloqueo de socios | Otros contratistas del Pentágono deberían dejar de usar Claude |
| Reputación | Estigma de ser considerada empresa de riesgo para seguridad nacional |
En el verano de 2025, Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Defensa. Según informes, Claude fue utilizado durante una operación especial en enero de 2026 que resultó en la captura de Nicolás Maduro en Venezuela, un evento que expuso las tensiones entre ambas partes.
Claude es un modelo de lenguaje grande desarrollado por Anthropic, considerado uno de los más avanzados en seguridad y alineación con valores humanos. A diferencia de otros modelos, Claude fue diseñado específicamente para ser inofensivo, honesto y útil, con salvaguardas que limitan su uso en aplicaciones potencialmente dañinas.
Grok, por otro lado, es el modelo de IA de xAI, la empresa fundada por Elon Musk, que se caracteriza por tener menos restricciones éticas y un enfoque más directo en respuestas sin filtros.
Aún no está claro si xAI reemplazará completamente a Anthropic o cuánto tiempo tomaría ese proceso. Lo que sí es evidente es que el Pentágono busca diversificar sus opciones en inteligencia artificial militar, y la disputa ética con Anthropic ha abierto una oportunidad para que xAI ingrese a este mercado altamente sensible.
El debate plantea preguntas fundamentales sobre hasta dónde debe llegar la IA en aplicaciones militares y qué controles éticos deben implementarse para evitar usos que podrían vulnerar derechos civiles o generar sistemas de armas autónomos sin supervisión humana adecuada.