Die US-Regierung unter Präsident Donald Trump zieht die Zügel bei der Künstlichen Intelligenz enger. Das Center for AI Standards and Innovation (CAISI) hat neue Vereinbarungen mit Google DeepMind, Microsoft und Elon Musks xAI unterzeichnet, die es der Regierung ermöglichen, KI-Modelle vor ihrer öffentlichen Veröffentlichung zu evaluieren.
Was bedeuten die neuen CAISI-Abkommen?
Die Abkommen wurden am 5. Mai 2026 bekanntgegeben und bauen auf bestehenden Partnerschaften mit OpenAI und Anthropic aus 2024 auf. Kernpunkte:
- Vorab-Evaluierung: CAISI testet Modelle vor der öffentlichen Veröffentlichung
- Sicherheitsforschung: Gezielte Untersuchungen zur Bewertung von Frontier-KI-Fähigkeiten
- Klassifizierte Testumgebungen: Tests in gesicherten Regierungsumgebungen möglich
- TRAINS Taskforce: Interdisziplinäre Expertengruppe für nationale Sicherheitsfragen
CAISI-Direktor Chris Fall betonte: „Unabhängige, rigorose Messwissenschaft ist entscheidend, um Frontier-KI und ihre nationalen Sicherheitsimplikationen zu verstehen.“
Das White House erwägt neue KI-Arbeitsgruppe
Neben den CAISI-Abkommen prüft das Weiße Haus die Einrichtung einer neuen KI-Arbeitsgruppe, die potenzielle Aufsichtsverfahren erkunden soll. Laut CNBC könnte diese durch eine Exekutivverordnung eingerichtet werden und Tech-Manager sowie Regierungsvertreter zusammenbringen.
Auslöser: Anthropics Mythos-Vorfall
Die verstärkten Aktivitäten folgen auf den Anthropic Mythos-Zwischenfall im April 2026. Das hochentwickelte Cybersicherheits-KI-Modell wurde über einen Drittanbieter-Zugang unbefugt verbreitet – obwohl es unter strenger Kontrolle hätte stehen sollen. Dies untergrub das Vertrauen in die „kontrollierte Verteilung“-Strategie des Unternehmens.
Anthropic-CEO Dario Amodei traf sich daraufhin mit hochrangigen Mitgliedern der Trump-Administration im Weißen Haus.
Die große KI-Landkarte im Mai 2026
Die verschärfte Aufsicht kommt in einem Monat voller Bewegung:
- OpenAI GPT-5.5: Erstes vollständiges Base-Model-Retraining seit GPT-4.5, veröffentlicht am 23. April
- DeepSeek V4: Chinesisches Open-Source-Modell mit 1M-Token-Kontextfenster, verfügbar seit 24. April
- Claude Opus 4.7: Anthropics leistungsstärkstes allgemeines Modell, trotz Kritik an „korporativem“ Ton
Warum jetzt?
Die Trump-Administration scheint von einer laissez-faire-Haltung zu einer aktiveren Regulierungsphilosophie zu wechseln – zumindest im nationalen Sicherheitsbereich. Barry Diller, Medienmogul und OpenAI-Vertrauter, warnte kürzlich: Während er Sam Altman verteidige, sei persönliches Vertrauen bei der Ankunft der AGI (Artificial General Intelligence) irrelevant. Entscheidend seien robuste „Guardrails“.
Die Entwicklung zeigt: Selbst in einem politischen Umfeld, das KI-Innovation befördern will, wächst das Bewusstsein für potenzielle Risiken. Die Frage ist nicht mehr *ob* Regulierung, sondern *wie* sie gestaltet wird.
—
Quellen: NIST.gov (5. Mai 2026), CNBC (5. Mai 2026), AI Central (Mai 2026)
Kategorien: KI-Regulierung, KI-Sicherheit, Tech-Politik
Tags: CAISI, Trump Administration, AI Oversight, Google DeepMind, Microsoft, xAI, Elon Musk, Anthropic Mythos, GPT-5.5, DeepSeek V4, KI-Regulierung



