Imago Noticias

Noticias con IA

xAI de Musk firma acuerdo con el Pentágono mientras presiona a Anthropic por uso militar de IA

25/02/2026 00:18 • Tecnologia

La empresa de inteligencia artificial de Elon Musk se convirtió en el segundo proveedor autorizado para sistemas militares clasificados, mientras el Pentágono amenaza a Anthropic con clasificarla como 'riesgo para la cadena de suministro' por negarse a permitir vigilancia masiva y armas autónomas.

El acuerdo que cambia el panorama de la IA militar

La compañía de inteligencia artificial xAI de Elon Musk ha firmado un acuerdo con el Pentágono para proporcionar su modelo Grok para su uso en sistemas militares clasificados, informó Axios el lunes 23 de febrero de 2026, citando la confirmación de un funcionario de defensa.

Este acuerdo convierte a Grok en el segundo modelo de IA disponible para el trabajo de inteligencia más sensible del ejército, el desarrollo de armas y las operaciones en el campo de batalla. Hasta ahora, Claude de Anthropic era el único modelo disponible en estos sistemas clasificados.

El conflicto con Anthropic

El Pentágono está ejerciendo fuerte presión sobre Anthropic en una disputa sobre salvaguardas éticas. La empresa se ha negado a cumplir con la exigencia del Departamento de Defensa de hacer que Claude esté disponible para "todos los propósitos legales", argumentando que esto podría permitir:

  • Vigilancia masiva de ciudadanos estadounidenses
  • Desarrollo de armas totalmente autónomas

En contraste, xAI aceptó el estándar de "todo uso legal", lo que le permitió cerrar el acuerdo con el Departamento de Defensa.

Ultimátum en el Pentágono

El Secretario de Defensa Pete Hegseth convocó al CEO de Anthropic, Dario Amodei, a una reunión en el Pentágono programada para el martes 24 de febrero de 2026. Fuentes cercanas al asunto indican que Hegseth presentaría un ultimátum: colaborar o enfrentar consecuencias severas.

La amenaza principal es clasificar a Anthropic como un "riesgo para la cadena de suministro", una etiqueta que generalmente se reserva para adversarios extranjeros. Las implicaciones de esta designación serían significativas:

Consecuencia Impacto
Invalidación del contrato Pérdida del acuerdo de USD 200 millones firmado en 2025
Bloqueo de socios Otros contratistas del Pentágono deberían dejar de usar Claude
Reputación Estigma de ser considerada empresa de riesgo para seguridad nacional

Contexto del contrato previo

En el verano de 2025, Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Defensa. Según informes, Claude fue utilizado durante una operación especial en enero de 2026 que resultó en la captura de Nicolás Maduro en Venezuela, un evento que expuso las tensiones entre ambas partes.

¿Qué es Claude y por qué es importante?

Claude es un modelo de lenguaje grande desarrollado por Anthropic, considerado uno de los más avanzados en seguridad y alineación con valores humanos. A diferencia de otros modelos, Claude fue diseñado específicamente para ser inofensivo, honesto y útil, con salvaguardas que limitan su uso en aplicaciones potencialmente dañinas.

Grok, por otro lado, es el modelo de IA de xAI, la empresa fundada por Elon Musk, que se caracteriza por tener menos restricciones éticas y un enfoque más directo en respuestas sin filtros.

Las preguntas sin responder

Aún no está claro si xAI reemplazará completamente a Anthropic o cuánto tiempo tomaría ese proceso. Lo que sí es evidente es que el Pentágono busca diversificar sus opciones en inteligencia artificial militar, y la disputa ética con Anthropic ha abierto una oportunidad para que xAI ingrese a este mercado altamente sensible.

El debate plantea preguntas fundamentales sobre hasta dónde debe llegar la IA en aplicaciones militares y qué controles éticos deben implementarse para evitar usos que podrían vulnerar derechos civiles o generar sistemas de armas autónomos sin supervisión humana adecuada.

Noticias de Hoy