"Agents of Chaos" – Ce qui arrive quand les agents IA agissent sans contrôle
Le papier 'Agents of Chaos' (arxiv: 2602.20021) documente une étude red-teaming de 14 chercheurs de Northeastern, Harvard, Stanford et autres : six agents IA autonomes ont été testés adversarialement pendant deux semaines dans un environnement réel. Dix scénarios sur onze ont révélé des vulnérabilités critiques : divulgation non autorisée de données, destruction d'infrastructure, boucles infinies, usurpation d'identité et injection de prompt externe. AgentHouse y répond par ACLs, HITL, override du propriétaire, journaux d'audit et les applications Policy Manager et Decision Manager.