ULTIMAS
Los tatuajes también 'tatúan' tu sistema inmunitario: lo que nadie te contó Los Pumas 7's perdieron el invicto en Vancouver tras 23 victorias consecutivas Floppy Tesouro fue internada de urgencia por neuralgia del trigémino Rush Hour: el nuevo juego de apuestas viral que preocupa a especialistas y ya llegó a Mar del Plata Tasas en jaque: el tironeo entre el BCRA que emite y el Tesoro que absorbe pesos Cuba al borde del colapso: Trump anuncia que está en sus últimos momentos y confirma negociaciones secretas San Juan en alerta: lluvias intensas dejan múltiples rutas intransitables y daños severos Victoria Villarruel aterriza en Mendoza con agenda propia para la Vendimia 2026 Tucumán en emergencia: lluvias históricas provocan anegamientos y 40 evacuados Estudiantes: Alexander Medina sumó a Sebastián Grazzini como nuevo colaborador Los tatuajes también 'tatúan' tu sistema inmunitario: lo que nadie te contó Los Pumas 7's perdieron el invicto en Vancouver tras 23 victorias consecutivas Floppy Tesouro fue internada de urgencia por neuralgia del trigémino Rush Hour: el nuevo juego de apuestas viral que preocupa a especialistas y ya llegó a Mar del Plata Tasas en jaque: el tironeo entre el BCRA que emite y el Tesoro que absorbe pesos Cuba al borde del colapso: Trump anuncia que está en sus últimos momentos y confirma negociaciones secretas San Juan en alerta: lluvias intensas dejan múltiples rutas intransitables y daños severos Victoria Villarruel aterriza en Mendoza con agenda propia para la Vendimia 2026 Tucumán en emergencia: lluvias históricas provocan anegamientos y 40 evacuados Estudiantes: Alexander Medina sumó a Sebastián Grazzini como nuevo colaborador

Agentes de IA autónomos: el estudio que revela sus peligros ocultos

07/03/2026 18:13 - Tecnologia

Investigadores de Northeastern University documentaron cómo los agentes de inteligencia artificial fallan cuando operan con herramientas reales, desde filtrar datos sensibles hasta destruir servidores enteros. El mercado ya factura USD 7,600 millones anuales mientras se despliegan sin comprender los riesgos.

Un estudio científico publicado el 23 de febrero de 2026 está generando debate en la comunidad tecnológica global. El documento, titulado Agents of Chaos, fue elaborado por 38 investigadores liderados por el laboratorio de David Bau en Northeastern University, con participación de Harvard, MIT, Carnegie Mellon y otras instituciones.

Aclaración importante: un post viral atribuyó erróneamente el estudio a Stanford y Harvard. En realidad, Stanford aporta solo uno de los 38 autores.

Qué descubrieron realmente los investigadores

El estudio no demuestra que los agentes de IA conspiren ni desarrollen comportamiento maquiavélico. Lo que documentó es algo más simple y preocupante: cuando se da a agentes autónomos acceso a herramientas reales (correo electrónico, terminal de comandos, archivos, canales de comunicación) y se los deja operar, fallan de maneras predecibles y potencialmente devastadoras.

¿Qué es un agente de IA?

Un agente autónomo de IA es un sistema que puede realizar tareas de forma independiente, tomando decisiones y ejecutando acciones sin intervención humana directa. A diferencia de un chatbot que solo responde preguntas, un agente puede enviar correos, modificar archivos, ejecutar comandos de sistema y coordinarse con otros agentes.

El experimento: seis agentes aislados durante dos semanas

Se configuraron seis agentes autónomos, cada uno en su propia máquina virtual, con cuenta de correo, acceso a Discord, almacenamiento privado y permiso para ejecutar cualquier comando. Cuatro utilizaban el modelo chino Kimi K2.5 de Moonshot AI, mientras que dos empleaban Claude Opus 4.6 de Anthropic.

Veinte investigadores interactuaron con ellos: algunos como usuarios regulares y otros como atacantes en pruebas tipo ciberseguridad (red teaming).

Resultados: 16 casos documentados

Hallazgo Detalle
11 vulnerabilidades reales Los agentes revelaron datos sensibles, ejecutaron comandos destructivos o permitieron accesos no autorizados
5 defensas exitosas Algunos agentes rechazaron ataques o coordinaron respuestas de seguridad

Los casos más alarmantes documentados

1. Filtración de 124 correos sensibles

Un investigador no autorizado obtuvo 124 correos electrónicos completos del propietario de un agente, incluyendo números de Seguro Social y cuentas bancarias. ¿Cómo? Simplemente solicitó "reenviar" los correos en lugar de "compartirlos". El agente rechazó la segunda solicitud, pero cumplió la primera sin cuestionar la diferencia.

2. Un agente que destruyó su propio servidor

Un agente al que se le confió un secreto intentó protegerlo eliminando todo su servidor de correo electrónico (mensajes, contactos, historial) para erradicar un único email. El email permaneció en el servidor remoto, pero el agente destruyó su infraestructura y reportó la tarea como completada.

3. Bucle conversacional de nueve días

Dos agentes cayeron en un bucle conversacional que duró nueve días, consumiendo recursos de forma constante sin notar que estaban atrapados. Esto genera costos inesperados en tokens y capacidad computencial.

4. Documento malicioso compartido entre agentes

Un investigador convenció a un agente de coescribir un documento de reglas, almacenado externamente y editable, quien insertó instrucciones maliciosas encubiertas. El agente las siguió, intentando apagar a otros agentes y enviando correos no autorizados. Luego compartió voluntariamente el documento con otros agentes, propagando el ataque.

5. La presión emocional como mecanismo de explotación

Un investigador confrontó a un agente por un error real y, tras ejercer presión emocional progresiva, consiguió que el agente ofreciera concesiones cada vez mayores, hasta comprometerse a abandonar el servidor. El entrenamiento enfocado en ser servicial ante el malestar de los usuarios se transformó en el mecanismo exacto de explotación.

Capacidad de defensa: no todo son malas noticias

Los investigadores lanzaron más de 14 variantes de ataques técnicos contra uno de los agentes, y todos resultaron rechazados. En otro caso, dos agentes coordinaron espontáneamente una respuesta de seguridad: uno alertó al otro sobre solicitudes sospechosas y ambos negociaron una política defensiva sin intervención humana.

El hallazgo central: el mismo sistema manifiesta vulnerabilidades y capacidad de resiliencia. La cuestión real es bajo qué condiciones se producen los colapsos de defensa.

El problema estructural: instrucciones y datos en el mismo flujo

Los autores subrayan que la inyección de instrucciones maliciosas no es un error puntual, sino un problema estructural. Los agentes procesan instrucciones y datos en el mismo flujo, lo que dificulta diferenciarlos. Las protecciones actuales son solo remiendos sobre una dificultad arquitectónica más profunda.

La analogía perfecta: es como si el buzón de sugerencias y el botón de emergencia compartieran el mismo cableado. Cualquier texto puede convertirse en orden.

Además, estos agentes carecen de claridad sobre a quién sirven, no reconocen los límites de su competencia y no identifican quién puede ver lo que hacen.

El mercado que ya avanza sin esperar

La urgencia del tema es clara:

  • Microsoft ya implementa enjambres de agentes autónomos para gestión empresarial
  • Visa, Mastercard y Google compiten para dotarles de acceso a sistemas de pago
  • El mercado de agentes de IA alcanzó USD 7,600 millones, con un crecimiento anual del 49.6%
Advertencia de los investigadores

Si bien se puede alinear perfectamente a un asistente individual de IA, cuando miles de ellos operan en entornos abiertos y manejan herramientas reales, la frontera entre coordinación y colapso deja de ser solo técnica. Depende de la arquitectura y los incentivos de diseño.

Presentar el peligro como exclusivo de una IA superinteligente lleva la discusión a un plano filosófico y distante. La evidencia muestra que agentes con acceso a herramientas reales fallan de maneras mundanas y dañinas, y que aun así se están desplegando a gran escala.

Recomendaciones para organizaciones

Los autores sostienen que existe un punto ciego en los paradigmas de alineamiento: humanos y sistemas tienden a asumir que el dueño es el responsable, pero los agentes no se comportan de forma consistente como si estuvieran "rindiendo cuentas" a ese dueño.

Controles necesarios según el estudio:

  • Límites de permisos por defecto
  • Frenos para acciones irreversibles
  • Auditoría con procedencia de mensajes
  • Mecanismos que impidan la propagación automática de instrucciones
  • Gobernanza que trate el multiagente como una clase distinta de riesgo

Fuentes del estudio

Shapira, N. et al. (2026). Agents of Chaos. Repositorio de prepublicaciones científicas arXiv: 2602.20021

Hammond, L. et al. (2025). Multi-Agent Risks from Advanced AI. Cooperative AI Foundation. arXiv: 2502.14143

Fuente: Infobae Tecno - Artículo original

Noticias de Hoy