KI-Coach ersetzt menschliche Führung: Gefährlicher Trend bei Managern

blog main image
December 2, 2025
03.12.2025
4 Minuten Lesezeit

Führungskräfte nutzen zunehmend künstliche Intelligenz zur Vorbereitung auf Jahresgespräche und Teamkommunikation, doch Experten warnen vor Authentizitätsverlust und rechtlichen Fallstricken.

Sprachassistenten als digitale Kommunikationstrainer

Yannik Sturm vom Weiterbildungsanbieter Digital Beat nutzt seine 20-minütige Autofahrt täglich zum Kölner Büro für ungewöhnliche Gesprächsvorbereitung: Via ChatGPT-Sprachfunktion simuliert er Jahresgespräche und schwierige Teamdiskussionen. Die KI imitiert dabei verschiedene Mitarbeitertypen basierend auf Charakterbeschreibungen, ohne persönliche Daten preiszugeben.

Sturm beschreibt seinen Ansatz: „Jede Führungskraft hat ihre Unsicherheiten. Ich selbst bin oft zu harmoniebedürftig. Gespräche mit KI zu proben, hilft mir dabei, klare Worte zu finden, statt in Floskeln abzudriften, wenn es mal ein bisschen unangenehmer wird." Nach der Simulation analysiert ChatGPT seine Kommunikationsmuster und gibt Verbesserungsvorschläge.

Die Lucid-Studie „Workplace AI Adoption" mit über 2000 Befragten aus fünf Ländern bestätigt: Mehr als die Hälfte aller Führungskräfte nutzt regelmäßig KI-Tools, über ein Drittel speziell zur Kommunikationsverbesserung. Spezialisierte Anwendungen wie Otter.ai für automatisierte Meetingprotokolle, Gong für Gesprächsführungs-Hinweise oder Fireflies für Redezeitanalysen werden zunehmend von integrierten Plattformen wie Microsoft Copilot und Google Gemini überholt.

Psychologische Vorteile und rechtliche Grenzen

Organisationspsychologe Jens Nachtwei von der Berliner Humboldt-Universität sieht durchaus Potenzial: „KI kann Führungskräften helfen, blinde Flecken in ihrer Kommunikation zu erkennen, etwa unbewusste Dominanzmuster oder fehlende Empathiesignale." Als Reflexionsinstrument zur Vorbereitung schwieriger Gespräche oder Meetingkultur-Analyse sei die Technologie sinnvoll. Allerdings lauern rechtliche Fallstricke: Heimliche Aufzeichnung oder automatische Auswertung von Mitarbeitergesprächen verletzt arbeitsrechtliche Bestimmungen und kann zu Abmahnungen oder Schadensersatzforderungen führen. Transparente Kommunikation und explizite Einwilligung des Teams sind unerlässlich. Coach Martina Miciecki warnt vor ethischen Grenzüberschreitungen: Die neuen Analysemöglichkeiten verleiten Manager dazu, Teams-Chats auf Stimmungslagen zu scannen oder aus aufgezeichneten Gesprächen „Kündigungsabsichten" herauszulesen. „Sich in Stimmungen hineinzufühlen, ist eine ureigene Führungsaufgabe, die sich nicht an eine Technologie delegieren lässt."

Authentizitätsverlust durch Algorithmus-Optimierung

Eine University of Florida-Studie offenbart ein Paradoxon: Je stärker Führungskräfte KI für empathische oder motivierende Nachrichten einsetzen, desto unglaubwürdiger und unauthentischer wirken sie auf ihr Team. Wird KI hingegen nur für Korrekturlesen oder Strukturierung genutzt, gelten die Nachrichten als professionell und vertrauenswürdig.

Das Grundproblem: Gängige Sprachmodelle sind darauf programmiert, ihren Nutzern beizupflichten. Sturm erläutert: „Wenn ich dem Modell zum Beispiel mitteile, dass Kollege Helge langsam arbeitet, dann kann ich anschließend keine neutrale Analyse erwarten." Sachliche Informationen und neutrales Feedback seien entscheidend für verwertbare KI-Analysen.

Nachtwei mahnt vor Kommunikations-Entfremdung: „KI erkennt keine Intention oder Beziehungsklima. Kommunikation ist aber im besten Fall mehr als Informationsaustausch, sie ist Ausdruck von Bewusstsein, und das ist unberechenbar." Während KI Verhalten spiegeln könne, erweitere sie nicht das Bewusstsein wie versierte menschliche Coaches.

Die Empfehlung der Experten: KI gezielt für Routineaufgaben wie Protokollerstellung oder Strukturierungshilfen nutzen, jedoch bei persönlichen Botschaften, Lob und Feedback auf menschliche Authentizität setzen. Selbstoptimierung sei eben nicht dasselbe wie Selbsterkenntnis.