AGI & Frontier-Modelle

Anthropic stellt Claude Mythos Preview vor – Tausende Zero-Day-Schwachstellen entdeckt

Anthropic hat sein bislang leistungsfähigstes KI-Modell vorgestellt. Claude Mythos Preview wurde am 7. April 2026 offiziell angekündigt, nachdem ein versehentliches Datenleck Ende März seine Existenz enthüllt hatte. Das Modell hat autonom Tausende von Zero-Day-Schwachstellen in allen großen Betriebssystemen und Webbrowsern identifiziert. Der Zugang bleibt auf 12 Sicherheitspartner im Rahmen von "Project Glasswing" beschränkt – Anthropic investiert bis zu 100 Mio. Dollar in das Programm.

🔗 TechCrunch · Petronella Tech

Anthropic-Bewertung übersteigt 800 Milliarden Dollar

Investoren bieten Anthropic Finanzierungsrunden an, die das Unternehmen mit über 800 Milliarden Dollar bewerten würden. Anthropic hat die Angebote bislang zurückgewiesen. Das Unternehmen übertrifft laut aktuellen Daten OpenAI in 70 % der direkten Vergleiche bei Neukunden im Enterprise-Bereich.

🔗 Bloomberg

Google DeepMind: Neues Framework zur Messung des AGI-Fortschritts

Google DeepMind hat eine kognitive Taxonomie zur Bewertung von KI-Systemen auf dem Weg zu AGI vorgestellt. Das Framework identifiziert 10 kognitive Schlüsselfähigkeiten und wird durch einen Kaggle-Hackathon mit 200.000 Dollar Preisgeld ergänzt. DeepMind-CEO Demis Hassabis sieht AGI "innerhalb der nächsten fünf Jahre" am Horizont.

🔗 Google DeepMind Blog · Indian Express

KI-Training & Forschung

MIT: Neue Technik macht KI-Modelle schlanker während des Trainings

MIT-Forscher haben mit "CompreSSM" eine Methode entwickelt, die mithilfe der Kontrolltheorie unnötige Komplexität aus KI-Modellen bereits während des Trainings entfernt. Die Technik senkt Rechenkosten ohne Leistungsverlust und zielt auf State-Space-Modelle ab, die in Sprachverarbeitung, Audio-Generierung und Robotik eingesetzt werden.

🔗 Radical Data Science

Interleaved Head Attention – Transformer-Architektur erhält Upgrade

Ein neuer Ansatz namens "Interleaved Head Attention" (IHA) teilt Informationen zwischen Attention-Heads, statt sie isoliert zu halten. Die Ergebnisse: +5,8 % auf GSM8K, +2,8 % auf MATH-500 und bis zu +112 % auf Long-Context-Benchmarks (RULER 16k). Die Methode ist kompatibel mit FlashAttention.

🔗 Radical Data Science

Googles TurboQuant: 6-fache Speicherreduktion ohne Genauigkeitsverlust

Google hat auf der ICLR 2026 den TurboQuant-Algorithmus vorgestellt, der den KV-Cache auf 3 Bit komprimiert – bei null Genauigkeitsverlust. Das Ergebnis: 6-fache Speicherreduktion und bis zu 8-facher Speedup bei der Attention-Berechnung.

🔗 Devflokers

KI-Agenten

Unternehmen setzen durchschnittlich 12 KI-Agenten ein

Laut dem Belitsoft-Report 2026 betreiben Unternehmen im Schnitt 12 KI-Agenten, doch 50 % davon arbeiten völlig isoliert. Agentic AI wurde von 13 % auf 17,1 % als Top-Technologiepriorität eingestuft – ein Anstieg von 31,5 %. Branchen wie Cybersicherheit (58,7 %), Sales/Marketing (51,3 %) und Supply Chain (47,8 %) treiben die Adoption.

🔗 Barchart / Belitsoft

Zhipu AI stellt GLM-5.1 vor – Agentic Engineering im Fokus

Das chinesische Unternehmen Zhipu AI hat GLM-5.1 veröffentlicht, ein 744B-MoE-Modell unter MIT-Lizenz. Es erreicht State-of-the-Art auf SWE-Bench Pro und kann über Hunderte von Runden und Tausende von Tool-Calls hinweg effektiv arbeiten.

🔗 WhatLLM

Alibaba Qwen 3.6-Plus für agentic Coding

Alibaba hat Qwen 3.6-Plus veröffentlicht, optimiert für agentisches Coding mit einem 1-Million-Token-Kontextfenster und hybriden Reasoning-Modi.

🔗 WhatLLM

Industrie & Markt

ASML hebt Jahresprognose an – KI-Nachfrage treibt Wachstum

ASML, Hersteller von Chipfertigungsmaschinen, hat seine Umsatzprognose für das Gesamtjahr angehoben. Die steigende KI-Nachfrage sorgt für anhaltend starke Bestellungen.

🔗 Bloomberg

Meta erweitert Chip-Partnerschaft mit Broadcom

Meta baut die Milliarden-Partnerschaft mit Broadcom für Custom-KI-Chips aus. Parallel setzt Meta auf den eigenen MTIA-Chip (Meta Training and Inference Accelerator), um die Abhängigkeit von Nvidia zu reduzieren.

🔗 Bloomberg · Devflokers

OpenAI veröffentlicht GPT-5.3 Instant Mini

OpenAI hat GPT-5.3 Instant Mini als neues Fallback-Modell in ChatGPT eingeführt. Es ersetzt GPT-5 Instant Mini mit natürlicherem Gesprächsverhalten, stärkerem Schreibstil und besserem Kontextverständnis.

🔗 OpenAI Release Notes

OpenAI kauft Tech-Medienunternehmen TBPN

OpenAI hat die Übernahme des Technology Business Programming Network (TBPN) bekannt gegeben – die erste Akquisition eines Medienunternehmens durch den KI-Konzern.

🔗 Radical Data Science

Regulierung & Sicherheit

EU AI Act wird 2026 bindend

Viele Regelungen des EU AI Act werden ab 2026 verpflichtend. Unternehmen müssen Risikobewertungen, Dokumentationspflichten, Explainable AI und Governance nachweisen. xAI sieht sich regulatorischen Problemen in der EU und Großbritannien gegenüber.

🔗 Das KIALOG Magazin

KI-Modelle können Trainingsdaten "memorisieren" – Neues Tool "Hubble" erforscht Unlearning

MIT-Forscher haben mit "Hubble" das erste Open-Source-Tool entwickelt, das systematisch untersucht, wie KI-Modelle sensible Trainingsdaten "verlernen" können.

🔗 Radical Data Science

Share this article
The link has been copied!