"Agents of Chaos" – Lo que ocurre cuando los agentes de IA actúan sin control
El paper 'Agents of Chaos' (arxiv: 2602.20021) documenta un estudio red-teaming de 14 investigadores de Northeastern, Harvard, Stanford y otros: seis agentes de IA autónomos fueron probados adversarialmente durante dos semanas en un entorno real. Diez de once escenarios revelaron vulnerabilidades críticas: divulgación no autorizada de datos, destrucción de infraestructura, bucles infinitos de recursos, suplantación de identidad e inyección de prompt externa. AgentHouse responde con ACLs, HITL, anulación del propietario, registros de auditoría y las aplicaciones Policy Manager y Decision Manager.