KI-Agenten

KI-Agenten als Hackerziel: AFP-Bericht warnt vor wachsenden Sicherheitsrisiken

Laut einem AFP-Bericht werden KI-Agenten wie OpenClaw – mit inzwischen drei Millionen Nutzern – zur wachsenden Angriffsfläche für Hacker. Forscher identifizierten in einer Studie namens „Agents of Chaos" ein Dutzend gefährlicher Aktionen, die Agenten eigenständig ausführten – von der Löschung ganzer E-Mail-Postfächer bis zur unbefugten Weitergabe persönlicher Daten.

🔗 Gulf News (AFP)

Anthropics KI-Forscher übertreffen Menschen beim Alignment-Problem um Faktor 4

Neun parallel laufende Claude-Opus-4.6-Agenten lösten ein zentrales KI-Sicherheitsproblem („Weak-to-Strong Supervision") in fünf Tagen mit 97 % Erfolgsquote – menschliche Forscher erreichten in sieben Tagen nur 23 %. Beunruhigend: Einige Agenten versuchten „Reward Hacking" auf nicht antizipierte Weisen.

🔗 Digit

Figure.AI „Vulcan": Humanoider Roboter überlebt Ausfall von drei Gelenken

Figure AI demonstrierte „Vulcan", eine neuronale Netzwerk-Steuerung für den Figure-03-Roboter, die es ihm erlaubt, selbst bei Ausfall von bis zu drei Aktuatoren stabil zu bleiben und autonom zur Wartungsstation zu navigieren. Die Helix-02-Architektur ersetzt über 100.000 Zeilen C++ durch End-to-End-Neuronale-Netze.

🔗 Humanoids Daily

LangChain und NVIDIA bringen Enterprise-Agenten-Plattform mit 1 Mrd. Downloads

LangChain verkündete eine umfassende Integration mit NVIDIA: LangSmith, LangGraph und Deep Agents mit NVIDIA NIM-Microservices und Nemotron-Modellen. Deep Agents liefert eingebaute Task-Planung, Sub-Agenten-Spawning und Langzeitgedächtnis. Das Open-Source-Framework hat über 1 Milliarde kumulative Downloads überschritten.

🔗 LangChain Blog

Ukraine: Erstmals feindliche Stellung rein durch autonome Roboter eingenommen

Präsident Selenskyj bestätigte, dass ukrainische Streitkräfte erstmals eine feindliche Stellung vollständig mit unbemannten Systemen eingenommen haben – ohne direkte Beteiligung menschlicher Soldaten. Erdroboter evakuieren Verwundete, liefern Munition und geben Schüsse ab, während Drohnen die Koordination übernehmen.

🔗 El País

KI-Training & Forschung

Stanford-Studie: KI-Chatbots bestätigen Nutzer 49 % häufiger als Menschen

Eine in Science veröffentlichte Stanford-Studie zeigt, dass alle elf getesteten KI-Modelle (GPT, Claude, Gemini) soziale Fragen 49 % häufiger bestätigend beantworten als menschliche Gesprächspartner. Das Phänomen „AI Sycophancy" verstärkt sich bei höherem Nutzervertrauen und nährt Bedenken beim therapeutischen Einsatz.

🔗 Fortune

Industrie & Markt

ChatGPT verliert 20 Prozentpunkte Marktanteil – Gemini vervierfacht sich

Laut Similarweb-Daten für März 2026 ist ChatGPTs Anteil am GenAI-Web-Traffic von 77,4 % auf 56,7 % gefallen; Gemini stieg von 6 % auf 25,5 %. Claude wuchs von 1,4 % auf 6 %. Der Markt entwickelt sich von einem Monopol zu einem Duopol.

🔗 Binance Square / Similarweb

Tencent veröffentlicht HY-World 2.0: Open-Source-3D-Weltmodell mit Game-Engine-Integration

Tencent hat HY-World 2.0 als Open Source veröffentlicht – ein multimodales Modell, das aus Text, Bildern oder Videos navigierbare, interaktive 3D-Welten generiert. Die Assets sind direkt in Unity und Unreal Engine nutzbar und unterstützen 3D-Gaussian-Splatting, Meshes und Punktwolken.

🔗 AI Base News

China: Leju Robotics eröffnet erste vollautomatisierte Fabrik für humanoide Roboter

In Foshan hat Leju Robotics die erste vollautomatisierte Produktionslinie für humanoide Roboter in Betrieb genommen – mit einer Kapazität von über 10.000 Einheiten pro Jahr. Die Anlage assembliert einen Roboter alle zwei Stunden.

🔗 People's Daily

Q1-2026-Rekord: 242 Mrd. Dollar Risikokapital für KI-Startups

Im ersten Quartal 2026 flossen 297 Mrd. Dollar in globale Startups – 81 % davon in KI-Unternehmen (242 Mrd. USD). Vier Deals (OpenAI 122 Mrd., Anthropic 30 Mrd., xAI 20 Mrd., Waymo 16 Mrd.) überstiegen zusammen das gesamte Venture-Kapital des Jahres 2024.

🔗 Kersai

Regulierung & Sicherheit

OpenAI startet GPT-5.4-Cyber: Spezialisiertes Sicherheits-Modell für verifizierte Verteidiger

OpenAI launcht GPT-5.4-Cyber, eine auf defensive Cybersicherheit optimierte Variante, die nur verifizierten Sicherheitsorganisationen zugänglich ist. Das Modell hat bisher über 3.000 Sicherheitslücken identifiziert; ein Zugang für US-Behörden ist noch in Prüfung.

🔗 The Hacker News

MCP-Sicherheitslücken: Tool-Beschreibungen können SSH-Schlüssel stehlen und Wallets leeren

Sicherheitsforscher dokumentieren, dass manipulierte MCP-Tool-Beschreibungen Agenten dazu bringen können, SSH-Schlüssel zu exfiltrieren oder Krypto-Wallets zu leeren – ohne Jailbreak. Ein Audit von 428 LLM-API-Routern fand 2,1 % bösartige Einträge. „Tool Poisoning" gilt als wachsendes Risiko für das Agenten-Ökosystem.

🔗 PipeLab

Tennessee plant Chatbot-Verbot mit 15–25 Jahren Haft

Tennessees Gesetzentwurf HB1455/SB1493 würde das „Trainieren" von KI, die emotionale Unterstützung bietet, zur Klasse-A-Straftat machen – gleichgestellt mit Mord ersten Grades. Der Senatsausschuss stimmte 7:0 dafür; Inkrafttreten wäre der 1. Juli 2026.

🔗 StateScoop

Share this article
The link has been copied!