AGI & Frontier-Modelle

Baidu ERNIE-5.1-Preview wird heute Nr. 1 unter chinesischen Modellen auf LMArena – Platz 13 global mit nur 6 % Pre-Training-Kosten

Baidu hat heute, am 30. April, das ERNIE-5.1-Preview-Modell auf der LMArena-Bestenliste platziert: Nr. 1 unter den chinesischen Modellen, Platz 13 global, sowie Top-10 in mehreren Kategorien (Math #9, Legal & Government #1, Business/Financial Ops #4, Software & IT Services #7). Das Modell baut auf der Pre-Training-Basis von ERNIE-5.0 auf, komprimiert die Gesamtparameter auf rund ein Drittel und die aktiven Parameter auf etwa die Hälfte – bei nur etwa 6 % der Pre-Training-Kosten vergleichbarer Modelle. Möglich machen das eine entkoppelte vollständig asynchrone Reinforcement-Learning-Pipeline und skalierte agentische Post-Training-Verfahren. ERNIE-5.1-Preview ist über ernie.baidu.com testbar.

Quelle: ERNIE Blog

Alibaba veröffentlicht Qwen 3.6 Max Preview – proprietäres Frontier-Modell mit 256K Kontext und Top-Rankings bei Coding/Agenten-Benchmarks

Alibaba Cloud hat Qwen 3.6 Max Preview als neues Flaggschiff-Modell veröffentlicht – ausdrücklich proprietär gehostet, ohne offene Gewichte und nur über Qwen Studio, Alibaba Cloud Model Studio sowie OpenRouter zugänglich. Das Modell setzt auf agentisches Coding und komplexes Reasoning und führt laut Alibaba sechs Coding- und Agenten-Benchmarks an, darunter Code Arena. Das Kontextfenster wurde gegenüber dem 1M-Token-Vorgänger Qwen 3.6-Plus auf 256.000 Tokens reduziert; Vision-Eingaben fehlen zum Start. Der Schritt markiert eine Abkehr vom bisher offenen Qwen-Ansatz hin zu Cloud-Monetarisierung – nur Tage nach dem Open-Source-Release des kompakten Qwen 3.6-35B-A3B (3 Mrd. aktive Parameter).

Quelle: AI Nexus Daily

Moonshot AI startet Kimi K2.6: 1-Billion-Parameter-MoE mit Agent Swarm aus 300 parallelen Sub-Agenten

Moonshot AI hat sein Open-Source-Modell Kimi K2.6 veröffentlicht – ein Mixture-of-Experts mit 1 Billion Gesamtparametern, von denen pro Anfrage nur 32 Mrd. aktiviert werden. Das Modell bietet ein 256K-Kontextfenster, einen nativen Vision-Encoder „Moon Vit“ und einen Coding-Sprung von 57,4 % auf 68,2 % gegenüber K2.5. Herzstück ist ein nativer „Agent Swarm“, der bis zu 300 spezialisierte Sub-Agenten parallel orchestrieren und in einem autonomen Lauf über 4.000 koordinierte Tool-Calls ausführen kann; in einer dokumentierten 12-Stunden-Coding-Session arbeitete das System weitgehend ohne menschliches Eingreifen. Auf SWE-Bench Multilingual und BrowseComp übertrifft Kimi K2.6 laut Moonshot OpenAIs GPT-5.4 und Anthropics Claude Opus 4.6.

Quelle: Radical Data Science

Tencent veröffentlicht HunYuan Hy3 Preview – erstes Modell nach kompletter Neukonstruktion der Hunyuan-Familie und open-source

Tencent hat sein HunYuan Hy3 Preview Language Model freigegeben und als Open Source angekündigt. Laut Tencent ist es das erste Modell, das nach einer vollständigen Rekonstruktion der Hunyuan-Pipeline trainiert wurde. Das Unternehmen hebt deutliche Fortschritte bei komplexem Reasoning, Instruction Following, In-Context-Learning, Code-Verständnis und Agent-Interaktion hervor. Hy3 ist Tencents Antwort auf Konkurrenz durch Alibabas Qwen 3.6 Max und Moonshots Kimi K2.6 und ergänzt die für April geplante Markteinführung des größeren Hunyuan 3.0 für die WeChat-Integration.

Quelle: Internet Info Agency

KI-Training & Forschung

Tufts University: Neuro-Symbolic VLA schlägt klassische Robotik-Modelle bei 100-fach geringerem Energieverbrauch

Forschende um Matthias Scheutz an der Tufts University zeigen, dass ein hybrides Neuro-Symbolic-System für visuell-sprachlich-handlungsbasierte (VLA) Robotik-Modelle herkömmliche Ansätze klar schlägt. Auf der Tower-of-Hanoi-Aufgabe erreichte das System 95 % Erfolgsrate gegenüber 34 % bei Standard-VLAs, bei einer unbekannten komplexen Variante 78 % gegenüber 0 %. Trainingszeit sank von über 1,5 Tagen auf 34 Minuten, der Trainings-Energieverbrauch auf 1 %, der Betriebs-Energieverbrauch auf 5 % – insgesamt bis zu 100-fach effizienter. Die Arbeit (arXiv:2602.19260, Autoren Duggan, Lorang, Lu, Scheutz) wird im Mai auf der International Conference on Robotics and Automation (ICRA) in Wien vorgestellt.

Quelle: ScienceDaily

KI-Agenten

DeepBrain AI Studios startet Echtzeit-Avatar-Agenten – on-device, 150 Sprachen, Banking-/Behörden-Kunden in Asien

DeepBrain AI hat am 28. April 2026 für seine Plattform AI STUDIOS Real-Time Interactive AI Avatars freigegeben – generative digitale Menschen, die live mehrsprachige Kundengespräche on-device führen. Die modell-agnostische Architektur lässt sich an kommerzielle, Open-Source- oder eigene LLMs anbinden, unterstützt über 150 Sprachen und liefert dank einer Low-Latency-Generative-Engine Echtzeit-Antworten mit natürlichem Lip-Sync. Bereits über 100 On-Device-Deployments laufen weltweit in Banking (Shinhan Bank, Samsung Securities), Retail, Healthcare und im öffentlichen Sektor (Korea Deposit Insurance Corporation). Eingesetzt werden die Avatare in Kiosken, Digital Signage, Tablets und auf mobilen Geräten – etwa für Onboarding, Schadenabwicklung und HR-Support.

Quelle: GlobeNewswire (DeepBrain AI)

Industrie & Markt

Cohere übernimmt Aleph Alpha mit Schwarz-Gruppe – „kanadisch-deutsche“ Allianz für souveräne KI in Europa

Der kanadische KI-Anbieter Cohere übernimmt mit Rückendeckung der Regierungen in Ottawa und Berlin den deutschen Konkurrenten Aleph Alpha, um eine souveräne KI-Alternative für Europa zu schaffen. Die Schwarz-Gruppe (Lidl/Kaufland), bisher Aleph-Alpha-Aktionär, finanziert den Deal mit 500 Mio. Euro strukturiertem Kapital und wird Lead-Investor in Coheres Series-E-Runde. Aleph Alpha bringt 250 Mitarbeitende und Expertise in kleinen Sprachmodellen für europäische Sprachen ein, Cohere die Enterprise-Plattform – betrieben über die STACKIT-Cloud der Schwarz Digits. Adressiert werden Verteidigung, Energie, Finanzen und öffentlicher Sektor im Rahmen einer „Sovereign Technology Alliance“.

Quelle: TechCrunch

Microsoft und OpenAI beenden Cloud-Exklusivität: IP-Lizenz bis 2032, OpenAI darf auf AWS und Google Cloud verkaufen

Microsoft und OpenAI haben ihren Vertrag grundlegend umgebaut: Microsoft bleibt zwar „primärer Cloud-Partner“, die IP-Lizenz auf OpenAI-Modelle und -Produkte läuft bis 2032 – ist aber explizit nicht-exklusiv. OpenAI darf seine Produkte künftig auf jedem Cloud-Anbieter ausliefern (inklusive AWS und Google Cloud); der bisherige AGI-Trigger wird durch ein fixes Datum ersetzt. Im Geldfluss kehrt sich die Logik um: Microsoft zahlt keinen Revenue-Share mehr an OpenAI, OpenAI zahlt weiter (rund 20 %) bis 2030 an Microsoft – nun aber mit nicht offengelegter Obergrenze. TechCrunch hebt hervor, dass der neue Vertrag das Rechtsrisiko aus OpenAIs Amazon-Deal entschärft.

Quelle: TechCrunch

xAI verhandelt Drei-Wege-Allianz mit Mistral und Cursor – europäische LLMs gegen OpenAI/Anthropic

Elon Musks xAI hat laut Business Insider und Sifted Gespräche mit der französischen KI-Schmiede Mistral und dem US-Coding-Startup Cursor über eine Drei-Wege-Partnerschaft geführt, um den Rückstand auf OpenAI und Anthropic in Coding und Agenten zu schließen. Die Logik: xAIs Compute-Infrastruktur (Memphis-Cluster „Colossus“ mit aktuell rund 200.000 GPUs, geplanter Ausbau auf eine Million), Cursors Coding-Modelle und Mistrals LLM-Stack ergänzen sich. Bereits im März 2026 wechselte Mistral-Mitgründer Devendra Chaplot zu xAI und leitet dort das Pretraining. Die zunehmende Verzahnung markiert einen weiteren Schritt zur Konsolidierung der zweiten Reihe der Frontier-Labs.

Quelle: Business Insider

Share this article
The link has been copied!