Der EU AI Act verschiebt die Haftung für algorithmische Fehlentscheidungen direkt in die Chefetage.
Bislang konnten Geschäftsleiter technologische Projekte getrost an Fachabteilungen übergeben. Mit dem Einsatz Künstlicher Intelligenz funktioniert dieses Modell nicht mehr. Dr. Till Contzen und Dr. Volker Schulenburg von Deloitte Legal machen in einem aktuellen Webcast unmissverständlich klar: Wer KI-Systeme freigibt, trägt persönlich die Konsequenzen, wenn diese versagen.
Der EU AI Act klassifiziert seit August 2024 KI-Anwendungen nach ihrem Risikopotenzial. Automatisierte Kreditvergabe, algorithmische Personalauswahl oder prädiktive Analysen fallen häufig in die Hochrisiko-Kategorie. Dort gelten strenge Auflagen für Dokumentation, Überwachung und Transparenz. Parallel dazu verschärft die DSGVO die Anforderungen an den Umgang mit personenbezogenen Daten. Für Vorstände entsteht daraus ein Pflichtenkatalog, der kaum noch Spielraum lässt.
Die zentrale Frage lautet nicht mehr ob, sondern wie tief sich Geschäftsleiter mit der Funktionsweise ihrer KI-Systeme befassen müssen. Reicht ein oberflächliches Verständnis? Genügt das Vertrauen in externe Anbieter? Die Experten von Deloitte Legal verneinen beides. Sorgfaltspflicht bedeutet künftig, Algorithmen aktiv zu hinterfragen, Kontrollmechanismen zu etablieren und Risikobewertungen regelmäßig zu aktualisieren.
Eine verteidigungsfähige Position aufzubauen erfordert Systematik. Klare Verantwortungsketten, nachvollziehbare Entscheidungsprozesse und lückenlose Aufzeichnungen schützen im Ernstfall vor dem Vorwurf der Fahrlässigkeit. Die Botschaft des Webcasts ist eindeutig: Proaktives Handeln schlägt nachträgliche Rechtfertigung.
Was Deloitte Legal heute formuliert, wird morgen zum Maßstab. Die Erwartungen an Geschäftsleiter im Umgang mit KI steigen rapide. Technologische Unwissenheit verliert als Verteidigungsargument jede Glaubwürdigkeit. Wer im digitalen Zeitalter Verantwortung trägt, muss diese auch bei algorithmischen Entscheidungen wahrnehmen.




