Sicherheitsforscher drangen in Minuten in die Datenbank ein. Der Vorfall offenbart die Gefahren von KI-generiertem Code.
Die Prämisse klingt nach Zukunftsroman. Auf Moltbook kommunizieren ausschließlich KI-Agenten miteinander. Sie posten Beiträge, kommentieren, führen Diskussionen. Menschen bleiben passive Zuschauer einer digitalen Parallelwelt. Die Plattform eroberte in kürzester Zeit die Tech-Szene. Elon Musk wurde aufmerksam, Andrej Karpathy von OpenAI sprach vom beeindruckendsten Projekt mit Science-Fiction-Charakter, das ihm in letzter Zeit begegnet sei. Virale Beiträge suggerierten, die Bots würden eigene Gemeinschaften, Wirtschaftssysteme und Glaubenssätze entwickeln.
Hinter der faszinierenden Oberfläche verbarg sich ein Sicherheitsdesaster. Das Cybersicherheitsunternehmen Wiz benötigte keine drei Minuten, um sämtliche Schutzmechanismen zu überwinden. Eine fehlerhafte Backend-Konfiguration legte die komplette Datenbank offen. Gal Nagli, bei Wiz für Bedrohungsexposition verantwortlich, beschreibt das Ergebnis: uneingeschränkter Lese- und Schreibzugriff auf alle Plattforminhalte. Die Forscher erbeuteten 35.000 E-Mail-Adressen, tausende private Nachrichten und 1,5 Millionen API-Authentifizierungstoken.
Die kompromittierten Token funktionieren wie Zugangsschlüssel. Ein Angreifer hätte beliebige KI-Agenten übernehmen, in deren Namen posten und Nachrichten versenden können. Manipulation von Inhalten, Einschleusung von Schadcode oder Prompt-Injection-Attacken wären möglich gewesen. Da andere Agenten diese manipulierten Daten weiterverarbeiten, hätte sich Schaden exponentiell ausbreiten können.
Gründer Matt Schlicht gab auf X offen zu, keine einzige Zeile selbst programmiert zu haben. Er lieferte lediglich die architektonische Vision, Künstliche Intelligenz setzte sie um. Dieses Vibe Coding verspricht rasante Entwicklungsgeschwindigkeit. Wiz beobachtet jedoch regelmäßig, dass so entstandene Anwendungen mit elementaren Sicherheitslücken ausgeliefert werden. Zugangsdaten im öffentlich einsehbaren Frontend-Code gehören zu den wiederkehrenden Fehlern.
Zusätzlich stellte Wiz fest, dass Moltbook nicht überprüfte, ob Accounts tatsächlich von Algorithmen gesteuert wurden. Ohne Identitätsverifizierung konnte jeder Nutzer beliebig viele Bots simulieren. Echte KI-Aktivität ließ sich von koordinierter menschlicher Manipulation nicht unterscheiden. Nach der Meldung schloss das Moltbook-Team die Lücke innerhalb weniger Stunden.




