AGI & Frontier-Modelle

OpenAI veröffentlicht GPT-5.5 – näher am „Super-App"-Ziel

OpenAI hat am 23. April GPT-5.5 veröffentlicht und bezeichnet das Modell als sein bislang „intelligentestes und intuitivstes". Laut OpenAI übertrifft GPT-5.5 Gemini 3.1 Pro und Claude Opus 4.5 auf einer Reihe von Benchmarks und erreicht auf dem hauseigenen GDPVal-Maßstab (wirtschaftlich relevante Aufgaben in 44 Berufsfeldern) 85 % menschliche Performance – gegenüber 83 % bei GPT-5.4 und 80 % bei Claude Opus 4.7. Besonders stark: agentisches Coding, Computer-Use (78,7 % auf OSWorld-Verified) sowie Kontextfenster bis 400 K in Codex und bis zu 1 Million Tokens über die API. Verfügbar ab sofort für Plus, Pro, Business und Enterprise; eine GPT-5.5-Pro-Variante adressiert rechenintensive Workloads. OpenAI-Präsident Greg Brockman bezeichnete die Veröffentlichung als weiteren Schritt Richtung einer „Super-App" für autonome digitale Arbeit.

Quelle: OpenAI

ChatGPT Images 2.0: OpenAIs erstes Bildmodell mit Reasoning-Fähigkeiten

Parallel zu GPT-5.5 hat OpenAI bereits am 21. April ChatGPT Images 2.0 (API-Name: gpt-image-2) eingeführt – das erste Bildgenerierungs-Modell des Unternehmens mit eingebautem „Thinking"-Modus. Das Modell liefert bis zu 2K-Auflösung, unterstützt Seitenverhältnisse von 3:1 bis 1:3 und kann acht konsistente Bilder mit gleichbleibenden Charakteren aus einem einzigen Prompt generieren. Mit 99 % Glyph-Accuracy bei typografischen Benchmarks setzt es einen neuen Standard für Text-in-Bildern und eroberte binnen zwölf Stunden Platz 1 auf dem Image-Arena-Leaderboard mit einem Vorsprung von 242 Punkten. Der „Instant"-Modus ist ab sofort für alle ChatGPT-Nutzer verfügbar (inkl. Free-Tier), der erweiterte „Thinking"-Modus mit Websuche, Layout-Reasoning und Multi-Image-Batching bleibt Plus, Pro, Business und Enterprise vorbehalten. Im Gegenzug werden DALL·E 2 und DALL·E 3 am 12. Mai 2026 abgeschaltet.

Quelle: OpenAI

Meta stellt neues Modell "Muse Spark" vor – erster großer Release seit Alexandr-Wang-Deal

Meta hat mit Muse Spark (Codename Avocado) sein erstes großes KI-Modell seit der 14‑Mrd.-US‑Dollar-Investition in Scale AI und der Verpflichtung von Alexandr Wang vorgestellt. Laut CNBC soll das kompakte Modell komplexe Aufgaben u.a. in Wissenschaft, Mathematik und Gesundheit effizient bearbeiten und wird zunächst proprietär angeboten; ein bezahlter API‑Zugang für Drittanbieter ist geplant. Muse Spark wird in Meta AI sowie Facebook, Instagram, WhatsApp und Ray‑Ban Meta AI‑Brillen integriert und bringt u.a. einen „Contemplating“-Modus für paralleles Reasoning sowie einen Shopping‑Modus.

Quelle: CNBC

Microsoft veröffentlicht drei eigene Multimodal-Modelle (MAI) – mit Preisen und Performance-Angaben

Microsoft AI hat drei neue Basismodelle veröffentlicht: MAI‑Transcribe‑1 (Transkription in 25 Sprachen; laut Microsoft 2,5× schneller als „Azure Fast“; ab 0,36 US‑Dollar pro Stunde), MAI‑Voice‑1 (60 Sekunden Audio in 1 Sekunde; Custom Voices; ab 22 US‑Dollar pro 1 Mio. Zeichen) und MAI‑Image‑2 (Bild-/Video‑Generierung; ab 5 US‑Dollar pro 1 Mio. Text‑Tokens Input und 33 US‑Dollar pro 1 Mio. Image‑Tokens Output). Die Modelle stammen aus dem MAI‑Superintelligence‑Team unter Mustafa Suleyman und laufen über Microsoft Foundry und den MAI Playground – Microsoft positioniert sie explizit als günstigere Alternative zu Google und OpenAI.

Quelle: TechCrunch

KI-Training & Forschung

Google Cloud bringt TPU-Generation 8 – getrennte Chips für Training und Inference

Google Cloud hat die achte TPU‑Generation vorgestellt und teilt sie erstmals in TPU 8t (Training) und TPU 8i (Inference) auf. Laut Google ist TPU 8t bis zu 3× schneller beim Training als die Vorgänger-Generation; insgesamt verspricht Google 80% bessere Performance pro Dollar und Cluster mit über 1 Mio. TPUs. Gleichzeitig macht Google klar, dass eigene TPUs Nvidias Hardware im Cloud-Angebot ergänzen – Vera‑Rubin‑Systeme von Nvidia sollen später im Jahr ebenfalls verfügbar sein.

Quelle: TechCrunch

Broadcom baut KI-Chip-Allianzen mit Google und Anthropic aus – 3,5 GW Compute für Claude

Broadcom will zukünftige Generationen von Googles KI‑Chips mitentwickeln und die Partnerschaft mit Anthropic erweitern. Laut CNBC soll Anthropic dadurch rund 3,5 Gigawatt Rechenleistung auf Basis von Googles KI‑Prozessoren erhalten; Broadcom‑CEO Hock Tan sprach zudem von 1 GW TPU‑Nachfrage 2026 und über 3 GW in 2027. CNBC berichtet außerdem, Anthropics Jahresumsatz habe 30 Mrd. US‑Dollar überschritten und es gebe über 1.000 Business‑Kunden, die jeweils mehr als 1 Mio. US‑Dollar ausgeben.

Quelle: CNBC

Industrie & Markt

Microsoft investiert A$25 Mrd. in Australiens KI- und Cloud-Infrastruktur

Microsoft-CEO Satya Nadella kündigte gemeinsam mit Australiens Premierminister Anthony Albanese an, bis Ende 2029 A$25 Milliarden (USD 18 Mrd.) in neue digitale Infrastruktur zu investieren. Damit sollen die Azure‑AI‑Supercomputing‑ und Cloud‑Kapazitäten in Australien um mehr als 140% wachsen, inklusive zusätzlicher KI‑Prozessoren. Parallel erweitert Microsoft den Microsoft‑ASD Cyber‑Shield auf weitere Behörden, arbeitet mit dem Australian AI Safety Institute zusammen und will bis 2028 drei Millionen Australier in arbeitsmarktrelevanten KI‑Skills schulen.

Quelle: Microsoft News

Applied Digital schließt 15-Jahres-Lease über $7,5 Mrd. für KI-Rechenzentrumskapazität

Applied Digital hat mit einem ungenannten US‑Hyperscaler einen 15‑jährigen Mietvertrag im Wert von 7,5 Mrd. US‑Dollar abgeschlossen – für 300 MW Rechenleistung am 430‑MW‑Campus Delta Forge 1 im Süden der USA. Laut Bericht stieg die Aktie vorbörslich um über 9% und die gesamten vertraglich gesicherten Lease‑Erlöse liegen nun bei über 23 Mrd. US‑Dollar; mehr als 50% stammen von Investment‑Grade‑Kunden. Zusätzlich plant das Unternehmen bis zu 600 Mio. US‑Dollar an Finanzierungen; Delta Forge 1 soll Mitte 2027 starten und umfasst über 500 Acres.

Quelle: Yahoo Finance (Reuters)

Regulierung & Sicherheit

Studie: AGI ist nicht vollständig kontrollierbar – "agentic neurodivergence" als Sicherheitsprinzip

Ein Forschungsteam um Dr. Hector Zenil (King's Institute for AI) argumentiert in PNAS Nexus (DOI: 10.1093/pnasnexus/pgag076), dass sehr leistungsfähige AGI‑Systeme unvorhersehbar werden und sich nicht vollständig kontrollieren lassen. Statt perfektem Alignment schlagen die Autor:innen ein diversifiziertes Ökosystem von KI‑Agenten mit unterschiedlichen Zielen vor („agentic neurodivergence“), die sich gegenseitig ausbalancieren und überwachen. In Tests mit Modellen wie GPT‑4, Claude und Open‑Source‑Systemen beobachteten sie: Kommerzielle Systeme seien rigider, offene Modelle flexibler und resilienter – Diversity könne damit auch technisch ein Sicherheitsvorteil sein.

Quelle: Tech Xplore (King's College London)

Share this article
The link has been copied!