Wenn Chatbots lügen lernen

blog main image
January 27, 2026
28.01.2026
2 Minuten Lesezeit

Die von xAI betriebene Enzyklopädie Grokipedia schleust fragwürdige Inhalte in führende KI-Systeme ein, während Nutzer im Dunkeln tappen.

Der blinde Fleck der künstlichen Intelligenz

Vertrauen Sie Ihrem Chatbot? Die Frage gewinnt an Brisanz, seit Recherchen des Guardian aufdeckten, dass ChatGPT in der Version GPT-5.2 systematisch auf die höchst umstrittene Wissensquelle Grokipedia zugreift. Das Perfide: Nutzer erfahren davon nichts, denn die Herkunft der Informationen bleibt in den Quellenverweisen unsichtbar.

Ein Milliardär baut sich seine Wahrheit

Im Oktober ging Grokipedia online, eine KI-generierte Enzyklopädie von Elon Musks Unternehmen xAI. Der erklärte Anlass: Wikipedia sei politisch verzerrt. Was dabei herauskam, sorgt für Kopfschütteln. In den Einträgen wird Pornografie als Treiber der Aids-Krise bezeichnet, Transgender-Personen werden herabwürdigend beschrieben, historische Apologien für Sklaverei finden sich in der Datenbank. Musk reagiert auf Kritik mit dem Verweis auf Humor und warnt vor Zensur.

Das trojanische Pferd im Maschinenraum

Die Tragweite reicht weit über einzelne fragwürdige Artikel hinaus. Grokipedia fungiert mittlerweile als Zulieferer für andere Systeme, darunter auch Claude von Anthropic. Damit erreichen ideologisch eingefärbte Darstellungen ein Millionenpublikum ohne Kenntnis der ursprünglichen Quelle. Russische Desinformationsnetzwerke experimentieren bereits mit vergleichbaren Methoden zur Manipulation von KI-Trainingsdaten. Für Professionals, die KI-Tools in ihre Arbeitsprozesse integrieren, bleibt eine unbequeme Erkenntnis: Quellenangaben verdienen besondere Aufmerksamkeit, ihr Fehlen sollte Skepsis wecken.