Die australische Niederlassung der Big-Four-Gesellschaft greift durch: Mitarbeiter dürfen keine vertraulichen Daten mehr in öffentliche KI-Tools eingeben. Auslöser ist eine Häufung von Sicherheitsvorfällen.
Künstliche Intelligenz verspricht Effizienz. Doch was passiert, wenn Mitarbeiter sensible Mandanteninformationen in frei zugängliche Systeme eingeben? Deloitte Australia hat diese Frage nun mit einer klaren Anweisung beantwortet. Per interner E-Mail an die Prüfungsabteilung untersagte die Führungsebene das Hochladen vertraulicher Daten in ChatGPT und vergleichbare Plattformen. Der Grund: ein auffälliger Anstieg von Datenschutzvorfällen in den vergangenen Wochen. Das Problem ist technischer Natur. Wer Informationen in öffentliche KI-Werkzeuge eingibt, überträgt diese auf die Server der Anbieter. Dort werden sie gespeichert und fließen in das Training der Modelle ein. Für eine Wirtschaftsprüfungsgesellschaft, deren Geschäft auf Diskretion beruht, ist das ein gravierendes Risiko. Vertrauliche Mandantendaten könnten in falsche Hände geraten oder unbeabsichtigt in Antworten anderer Nutzer auftauchen.
Deloitte hat längst eigene Lösungen im Einsatz. Im Oktober schloss das Unternehmen eine Partnerschaft mit Anthropic, um das KI-Modell Claude für alle 470.000 Mitarbeiter weltweit bereitzustellen. Diese interne Variante erfüllt die Sicherheitsanforderungen des Unternehmens. Dennoch greifen manche Beschäftigte offenbar lieber zu den öffentlich verfügbaren Versionen. Ein Mitarbeiter, der nicht namentlich genannt werden wollte, vermutet dahinter den Eindruck, die freien Tools seien leistungsfähiger als die genehmigten Alternativen. Die interne Mitteilung adressiert weitere Probleme. Fehlgeleitete E-Mails, die Übertragung von Dateien auf private Konten und die Nutzung nicht freigegebener Technologien werden ebenfalls kritisiert. Die Mitarbeiter wurden aufgefordert, vor dem Absenden von Nachrichten die Empfängeradressen zu überprüfen und sichere Links statt Dateianhänge zu verwenden. Warnhinweise beim Besuch externer Websites sollten nicht ignoriert werden.
Deloitte steht mit diesen Schwierigkeiten nicht allein. Bei KPMG Australia haben seit Mitte des vergangenen Jahres mehr als zwei Dutzend Mitarbeiter KI genutzt, um bei internen Prüfungen zu schummeln. Ein Partner zahlte eine Geldstrafe von über 10.000 Dollar, weil er die Technologie ausgerechnet in einem Kurs über künstliche Intelligenz einsetzte. Deloitte selbst musste kürzlich Honorare an die Regierung zurückzahlen, nachdem KI-generierte Fehler in einem Bericht aufgefallen waren. Eine Sprecherin von Deloitte Australia erklärte, die erwähnten Vorfälle seien administrativer Natur gewesen. Ein Verlust sensibler Mandanteninformationen habe nicht stattgefunden. Das Unternehmen verfüge über robuste Überwachungssysteme, um potenzielle Probleme frühzeitig zu erkennen. Die interne Kommunikation zeige die konsequente Haltung beim Schutz vertraulicher Daten.




