AGI & Frontier-Modelle
OpenAI legt mit GPT-5.5 nach – mehr Tempo für Tools, Code und Online-Recherche
OpenAI hat mit GPT-5.5 eine neue Hauptversion seines KI-Systems (Basismodell für ChatGPT und die Programmiersuite Codex) vorgestellt.
Laut OpenAI ist das Modell besonders auf Aufgaben ausgelegt, bei denen es mehrere Schritte planen und dabei Werkzeuge nutzen muss – etwa Code schreiben und debuggen, Daten auswerten oder online recherchieren.
In OpenAIs eigenen Messreihen verbessert sich GPT-5.5 gegenüber GPT-5.4 z. B. beim Test Terminal-Bench 2.0 von 75,1% auf 82,7% (ein Praxis-Test, bei dem das Modell Aufgaben in einer Computer-Umgebung lösen muss).
Was bedeutet das: Wenn solche Modelle zuverlässiger mit Software-Tools arbeiten, können Unternehmen mehr Routinearbeit automatisieren – gleichzeitig wächst der Druck, Sicherheitstests und klare Verantwortlichkeiten mitzudenken.
Quelle: OpenAI
KI-Training & Forschung
Nature: „The AI Scientist“ automatisiert Forschung fast komplett – ein KI-Paper schafft es durch die erste Peer-Review-Runde
In Nature wird ein System namens „The AI Scientist“ beschrieben: eine Pipeline, die große Sprachmodelle (Basismodelle) in einem Agenten-System kombiniert, um Forschungsschritte von der Idee bis zum Manuskript zu automatisieren.
Die Autoren berichten, dass eines von drei KI-generierten Manuskripten die erste Begutachtungsrunde (Peer Review) eines Workshops einer großen Machine-Learning-Konferenz überstanden hat; zwei weitere Einsendungen schafften die Hürde nicht.
Das System generiert u. a. Ideen, recherchiert Literatur, schreibt Code, führt Rechen-Experimente aus und erstellt Text samt Grafiken – mit klaren Grenzen: Es produziert laut Paper noch nicht zuverlässig Arbeiten auf Top-Konferenz-Niveau und kann Fehler wie falsche Implementierungen oder ungenaue Zitate machen.
Was bedeutet das: Wenn Forschung teilweise automatisiert werden kann, müssen Wissenschaft und Förderpolitik schneller klären, wie Qualität gesichert wird – und wie man Missbrauch (z. B. „Paper-Flut“) verhindert.
Quelle: Nature
Industrie & Markt
Südkorea diskutiert „KI-Dividende“: Beamter will Chip-Boom-Gewinne teilweise an Bürger umleiten
In Südkorea hat der hochrangige Beamte Kim Yong-beom vorgeschlagen, Bürgerinnen und Bürger an den Gewinnen des KI-Chip-Booms zu beteiligen – also einen Teil des Geldregens aus der Halbleiter-Nachfrage umzuverteilen.
Laut Bericht sollen damit unter anderem Basis-Einkommensprogramme für ländliche Regionen und Start-up-Finanzierung für junge Menschen unterstützt werden; Anleger reagierten nervös.
Hintergrund ist, dass große Chipkonzerne wie Samsung und SK Hynix von der weltweiten KI-Nachfrage stark profitieren – der Vorschlag zielt darauf, gesellschaftliche Akzeptanz für die KI-Wirtschaft zu sichern.
Was bedeutet das: Die Frage, wer von KI-Produktivität und Chipgewinnen profitiert, wird zur politischen Debatte – mit Folgen für Steuern, Sozialpolitik und Investitionsklima.
Quelle: Semafor
Regulierung & Sicherheit
USA bauen Vorab-Checks für KI-Modelle aus: Google, Microsoft und xAI lassen Regierungsstelle vor Release testen
Google (inklusive DeepMind), Microsoft und Elon Musks xAI haben angekündigt, neue KI-Modelle vor ihrer öffentlichen Veröffentlichung von einer US-Regierungsstelle prüfen zu lassen.
Zuständig ist das Center for AI Standards and Innovation (CAISI) im US-Handelsministerium, das nach eigenen Angaben seit 2024 bereits Modelle von OpenAI und Anthropic bewertet und insgesamt 40 Assessments abgeschlossen hat.
Diese „Pre-Deployment Evaluations“ sind Tests vor dem Launch, die helfen sollen zu verstehen, welche Fähigkeiten ein Modell hat – und wo Risiken für nationale Sicherheit entstehen könnten.
Was bedeutet das: Für Bürger und Firmen könnte es mittelfristig mehr Transparenz und Standards geben, bevor sehr leistungsfähige KI breit ausgerollt wird – zugleich hängt viel davon ab, wie unabhängig und streng die Tests tatsächlich sind.
Quelle: The Verge
EU verschiebt wichtige KI-Act-Fristen: Hochrisiko-Pflichten rücken um Monate bis Jahre nach hinten
EU-Abgeordnete haben am 7. Mai 2026 politisch vereinbart, zentrale Umsetzungsfristen des EU-AI-Acts zu verschieben; formal beschlossen ist das Paket laut Briefing aber noch nicht.
Für viele „Hochrisiko“-KI-Systeme (etwa in sensiblen Bereichen wie Arbeit, Bildung oder kritischer Infrastruktur) soll die Frist für „Annex III“-Systeme nun am 2. Dezember 2027 liegen, während „Annex I“-Systeme bis 2. August 2028 Zeit bekommen.
Wichtig: Transparenzpflichten für KI-generierte Inhalte (z. B. technische Kennzeichnung/Wasserzeichen) bleiben früher fällig – im Briefing wird 2. Dezember 2026 genannt.
Was bedeutet das: Unternehmen bekommen mehr Vorbereitungszeit – gleichzeitig bleibt die EU-Linie, dass besonders riskante KI später streng dokumentiert und überwacht werden muss.
Quelle: Travers Smith