Der ChatGPT-Entwickler schlägt eine internationale Kontrollinstanz nach dem Muster der Atomenergiebehörde vor. Anlass sind Sorgen vor algorithmischen Angriffswaffen.
Normalerweise wehrt sich das Silicon Valley gegen Einmischung von außen. OpenAI bricht mit dieser Tradition. Die Macher von ChatGPT haben einen Entwurf für internationale Algorithmen-Aufsicht vorgelegt. Und sie gehen noch weiter: China soll nicht bekämpft, sondern eingebunden werden. Dass der Vorstoß in dieselbe Woche fällt, in der sich die Staatschefs der beiden Supermächte erstmals seit 2017 persönlich begegnen, dürfte kein Zufall sein.
Wie soll das funktionieren? Chris Lehane, bei OpenAI für Außenpolitik verantwortlich, setzt auf Pragmatismus. Statt eine weitere Weltorganisation zu gründen, will er bestehende Behörden vernetzen. Amerikanische Ämter, europäische Prüfstellen, asiatische Institute, alle tauschen Erkenntnisse aus und entwickeln gemeinsame Standards. Der Kerngedanke laut Lehane: „KI überschreitet traditionelle Handels- und Grenzfragen. Deshalb brauchen wir ein System, in dem alle großen Player – einschließlich China – Teil des Sicherheitsdialogs sind."
Bisher verpflichten sich KI-Labore freiwillig zu Sicherheitschecks. OpenAI will das ändern. Wer ein Spitzenmodell herausbringen möchte, soll es vorher durch unabhängige Prüfungen schicken müssen. Ohne grünes Licht kein Start. Als Inspiration dient die Atomaufsicht IAEA. Die kontrolliert Reaktoren und nukleares Material weltweit. Übersetzt auf Algorithmen: Rechenzentren öffnen für Inspektoren, Modellgewichte offenlegen, globale Mindeststandards einhalten. Zusätzlich schlägt OpenAI Krisentelefone zwischen Regierungen vor. Heiße Drähte wie während des Kalten Krieges, nur für digitale Notfälle.
Der Anstoß kommt nicht von ungefähr. Ein Konkurrenzprodukt namens Mythos, entwickelt von Anthropic, soll massenhaft Schwachstellen in gängiger Software entdeckt haben. In Washington und europäischen Hauptstädten geht die Sorge um, solche Fähigkeiten könnten für großangelegte Cyberangriffe missbraucht werden. Selbst das Weiße Haus räumt ein, dass Gespräche mit anderen Großmächten drängender werden. Wer China ausschließt, könnte einen Rüstungswettlauf bei KI-Waffen auslösen, der Jahrzehnte prägt.
Einfach wird das nicht. Amerika arbeitet gleichzeitig daran, Chinas Zugang zu Hochleistungschips abzuschneiden. Forscher in Peking werfen Washington vor, Sicherheitsbedenken mit Protektionismus zu vermischen. Auch in Brüssel wird es enger. Die schärfsten Auflagen der europäischen KI-Verordnung treten im Sommer 2026 in Kraft. OpenAI hat bereits Kontakt zur EU-Aufsicht aufgenommen.
Einen unterschriftsreifen Vertrag erwartet niemand bald. Doch der Vorschlag steckt einen Pflock ein. Entwickler müssten sich auf einheitliche Prüfungen, transparente Dokumentation und weniger Durcheinander einstellen. Ob die Initiative politisch Fahrt aufnimmt, entscheidet sich in den kommenden Monaten.




