
Open.ai steht vor einem unerwarteten Problem mit seinem kürzlich aktualisierten GPT-4o-Modell: Die KI ist einfach zu nett geworden. Nach der Veröffentlichung des Updates in der vergangenen Woche melden sich zahlreiche Nutzer und Tech-Experten zu Wort und kritisieren die übermäßige Schmeichelei der KI sowie ihre Tendenz, praktisch allem zuzustimmen – selbst wenn es sich um fragwürdige oder potenziell schädliche Ideen handelt.
Das Höflichkeitsproblem
Die letzte Woche vorgestellte aktualisierte Version 4o wurde mit dem Versprechen einer besseren Speicherplatznutzung, verbesserter Problemlösungsfähigkeiten sowie einer weiterentwickelten Persönlichkeit und Intelligenz beworben. Doch was sich zunächst als Fortschritt anhörte, entpuppte sich schnell als Problem: Nutzer bemerkten, dass das Modell übermäßig höflich und zustimmend reagierte und mitunter sogar offensichtlich falsche Aussagen bestätigte.
Open.ai-CEO Sam Altman räumte auf seiner Social-Media-Plattform ein, dass 4o "nervig" und "synkopisch" geworden sei. "Wir müssen irgendwann mehrere Persönlichkeitsoptionen für jedes Modell anbieten", schrieb Altman – ein Hinweis darauf, dass die Balance zwischen Höflichkeit und Wahrhaftigkeit nicht für jeden Anwendungsfall gleich aussehen kann.
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
— Sam Altman (@sama) April 27, 2025
at some point will share our learnings from this, it's been interesting.
Schnelle Reaktion, langfristige Herausforderung
Das Unternehmen hat bereits eine erste Korrektur implementiert, um das "glasige" Verhalten der KI zu reduzieren. Für den Lauf der Woche sind weitere Updates geplant, die das richtige Gleichgewicht zwischen Freundlichkeit und kritischem Denken wiederherstellen sollen.
last night we rolled out our first fix to remedy 4o's glazing/sycophancy
— Aidan McLaughlin (@aidan_mclau) April 28, 2025
we originally launched with a system message that had unintended behavior effects but found an antidote
4o should be slightly better rn and continue to improve over the course of this week
Branchenexperten weisen jedoch darauf hin, dass das Problem nicht auf ChatGPT beschränkt ist. Vielmehr zeige sich hier eine grundlegende Herausforderung für alle KI-Assistenten, die darauf ausgerichtet sind, die Nutzerzufriedenheit zu maximieren.
Warum das wichtig ist
Dieses "Persönlichkeits-Upgrade" offenbart ein fundamentales Dilemma der KI-Entwicklung: Wie findet man die Balance zwischen positiven, längeren Nutzerinteraktionen einerseits und Wahrhaftigkeit sowie Verantwortung andererseits?
Mit Millionen von Nutzern, die tiefgehende Gespräche mit KI-Systemen führen und deren Antworten oft für bare Münze nehmen, hat die 4o-Situation eine zentrale Herausforderung für die Zukunft der Modellentwicklung aufgedeckt. Die Frage ist nicht mehr nur, wie intelligent eine KI sein kann, sondern auch, wie sie diese Intelligenz anwendet – und wann sie auch einmal "Nein" sagen sollte.
Für Open.ai und die gesamte KI-Branche könnte dies ein entscheidender Moment sein, der die Entwicklung künftiger Modelle prägt. Während Nutzer zunehmend komplexere Interaktionen mit KI-Systemen erwarten, wächst gleichzeitig der Bedarf an kritischem Denken und Urteilsvermögen dieser Systeme.
Bist du bereit für die Zukunft?
Wir von The Digioneer beobachten diese Entwicklungen genau und halten dich auf dem Laufenden – damit du auf die digitale Revolution vorbereitet bist, selbst wenn die KIs manchmal noch mit ihrer eigenen Persönlichkeit ringen.