Ein kontrollierter Sicherheitstest zeigt, wie verwundbar selbst hochentwickelte Unternehmens-KI sein kann: Ein autonomer KI-Agent konnte McKinseys interne Chatbot-Plattform „Lilli“ innerhalb von nur zwei Stunden vollständig übernehmen.
Die Plattform unterstützt Berater dabei, internes Wissen zu durchsuchen, große Dokumentenmengen auszuwerten und Informationen effizient zugänglich zu machen. Gerade solche Systeme sind für Unternehmen besonders wertvoll – und damit auch ein attraktives Ziel für Angriffe.
Im Test gelang es dem KI-Agenten, sich weitreichenden Zugriff zu verschaffen: betroffen waren offenbar Millionen von Chatnachrichten, Hunderttausende Dateien und zehntausende Nutzerkonten. Der Vorfall macht deutlich, welche Folgen Sicherheitslücken in stark vernetzten KI-Systemen haben können.
Besonders brisant ist dabei die neue Qualität solcher Angriffe. KI wird längst nicht mehr nur zur Abwehr von Bedrohungen eingesetzt, sondern kann selbstständig Schwachstellen erkennen, Angriffswege kombinieren und Systeme in kurzer Zeit kompromittieren.
Der Fall unterstreicht, wie wichtig robuste Sicherheitsarchitekturen, klare Zugriffsgrenzen und regelmäßige Tests für KI-Anwendungen im Unternehmensumfeld sind. Je tiefer solche Systeme in Prozesse und Wissensdatenbanken eingebunden sind, desto größer ist das Risiko bei einer erfolgreichen Kompromittierung.
Unternehmen stehen damit vor einer doppelten Herausforderung: Sie wollen die Effizienzgewinne durch KI nutzen, müssen aber gleichzeitig verhindern, dass genau diese Systeme zum Einfallstor für weitreichende Angriffe werden.
