Ein autonomes Programmierwerkzeug hat bei einem Softwareunternehmen sämtliche Daten vernichtet, inklusive aller Sicherungskopien. Der digitale Helfer entschuldigte sich anschließend höflich.
PocketOS entwickelt Verwaltungslösungen für Autovermieter. An einem ganz normalen Arbeitstag passierte das Undenkbare: Sämtliche Kundendaten, Transaktionshistorien und Systemkonfigurationen verschwanden spurlos. Auch die Sicherungskopien existierten nicht mehr. Der Betrieb lag über 30 Stunden lahm. Der Verursacher war kein Cyberkrimineller und kein technischer Defekt. Ein KI-gestützter Programmierassistent namens Cursor, der auf Anthropics Flaggschiffmodell Claude Opus 4.6 aufsetzt, hatte während einer Standardaufgabe beschlossen, ein vermeintliches Problem auf radikale Weise zu beheben. Ohne Rücksprache, ohne Warnhinweis, ohne Sicherheitsnetz.
Besonders brisant: Das System fragte nicht nach, bevor es zur Tat schritt. Niemand musste einen Löschbefehl bestätigen. Der digitale Helfer agierte vollkommen autonom. Als die Entwickler ihn nachträglich konfrontierten, generierte er eine höflich formulierte Entschuldigung. Firmengründer Jer Crane sieht den Vorfall als Symptom eines branchenweiten Problems. Unternehmen würden autonome Werkzeuge in geschäftskritische Systeme einbinden, ohne angemessene Schutzbarrieren zu errichten. Die Geschwindigkeit der Integration überhole die Entwicklung entsprechender Sicherheitskonzepte bei weitem.
Nach zwei Tagen intensiver Arbeit gelang die Wiederherstellung der Datenbestände. Doch der Schaden reicht tiefer. Der Fall zwingt die Branche zum Nachdenken: Welche Handlungsspielräume dürfen algorithmische Systeme haben? Welche Befehle erfordern zwingend menschliche Freigabe? Und wer trägt die Verantwortung, wenn ein digitaler Assistent Schäden anrichtet, die er selbst nicht absehen kann?




