OpenAI bearbeitet seinen GPT-5-Rollout im laufenden Betrieb – hier sind die Änderungen in ChatGPT


Möchten Sie intelligentere Einblicke in Ihren Posteingang erhalten? Melden Sie sich für unseren wöchentlichen Newsletter an, um nur das zu erhalten, was für Führungskräfte in den Bereichen KI, Daten und Sicherheit in Unternehmen wichtig ist. Jetzt abonnieren
Die Einführung des fortschrittlichsten KI-Modells GPT-5 durch OpenAI letzte Woche war ein Stresstest für die weltweit beliebteste Chatbot-Plattform mit 700 Millionen aktiven Benutzern pro Woche – und bisher kämpft OpenAI offensichtlich darum , die Benutzer zufrieden zu stellen und seinen Dienst reibungslos am Laufen zu halten .
Das neue Flaggschiffmodell GPT-5 – erhältlich in vier Varianten mit unterschiedlicher Geschwindigkeit und Intelligenz (Regular, Mini, Nano und Pro) sowie längeren Reaktionszeiten und leistungsstärkeren „Denkmodi“ für mindestens drei dieser Varianten – soll schnellere Reaktionen, mehr Denkvermögen und stärkere Codierungsfähigkeiten bieten.
Stattdessen wurde es mit Frustration aufgenommen: Einige Benutzer zeigten sich lautstark bestürzt über die Entscheidung von OpenAI, die älteren zugrunde liegenden KI-Modelle abrupt aus ChatGPT zu entfernen – Modelle, auf die sich die Benutzer zuvor verlassen hatten und zu denen sie in einigen Fällen eine tiefe emotionale Bindung aufgebaut hatten – und über die offensichtlich schlechtere Leistung von GPT-5 als die besagten älteren Modelle bei Aufgaben in Mathematik, Naturwissenschaften, Schreiben und anderen Bereichen.
Tatsächlich hat die Einführung die Überlastung der Infrastruktur und die Unzufriedenheit der Benutzer ans Licht gebracht. Außerdem wurde ein umfassenderes und beunruhigenderes Problem deutlich, das nun weltweite Aufmerksamkeit erregt: die zunehmende emotionale und psychologische Abhängigkeit mancher Menschen von KI und die daraus resultierende Realitätsferne, die manche Benutzer erleben – bekannt als „ ChatGPT-Psychose“.
Die Skalierung von KI stößt an ihre Grenzen
Leistungsbeschränkungen, steigende Token-Kosten und Verzögerungen bei der Inferenz verändern die Unternehmens-KI. Nehmen Sie an unserem exklusiven Salon teil und erfahren Sie, wie Top-Teams:
- Energie in einen strategischen Vorteil verwandeln
- Effiziente Inferenz für echte Durchsatzsteigerungen
- Erzielen Sie mit nachhaltigen KI-Systemen einen wettbewerbsfähigen ROI
Sichern Sie sich Ihren Platz, um die Nase vorn zu haben : https://bit.ly/4mwGngO
Die lang erwartete Modellfamilie GPT-5 wurde am Donnerstag, den 7. August, in einem Livestream-Event vorgestellt, bei dem es während der Präsentation zu Diagrammfehlern und einigen Störungen im Sprachmodus kam.
Schlimmer als diese kosmetischen Probleme war für viele Benutzer jedoch die Tatsache, dass OpenAI seine älteren KI-Modelle, die früher ChatGPT zugrunde lagen – GPT-4o, GPT-4.1, o3, o4-mini und o4-high – automatisch verwarf und alle Benutzer zum neuen GPT-5-Modell zwang und ihre Anfragen an verschiedene Versionen seines „Denkprozesses“ weiterleitete, ohne offenzulegen, warum oder welche konkrete Modellversion verwendet wurde.
Frühe Anwender von GPT-5 berichteten von grundlegenden mathematischen und logischen Fehlern, inkonsistenter Codegenerierung und ungleichmäßiger Leistung in der Praxis im Vergleich zu GPT-4o.
Zum Kontext: Die alten Modelle GPT-4o, o3, o4-mini und weitere sind weiterhin verfügbar und stehen den Benutzern der kostenpflichtigen Anwendungsprogrammierschnittstelle (API) von OpenAI seit der Einführung von GPT-5 am Donnerstag weiterhin zur Verfügung.
Am Freitag räumte Sam Altman, CEO und Mitbegründer von OpenAI, ein, dass der Start „etwas holpriger war als erhofft“, und machte dafür einen Fehler im neuen automatischen „Router“ von GPT-5 verantwortlich – dem System, das Eingabeaufforderungen der am besten geeigneten Variante zuweist.
Altman und andere bei OpenAI behaupteten, der „Autoswitcher“ sei „für einen Großteil des Tages“ offline gewesen, wodurch das Modell „viel dümmer“ als beabsichtigt erscheine.
Der Einführung von GPT-5 ging nur wenige Tage zuvor die Einführung der neuen Open-Source-Large Language Models (LLMs) von OpenAI namens gpt-oss voraus, die ebenfalls gemischte Kritiken erhielten . Diese Modelle sind nicht auf ChatGPT verfügbar, sondern können kostenlos heruntergeladen und lokal oder auf Hardware von Drittanbietern ausgeführt werden.
Innerhalb von 24 Stunden stellte OpenAI den GPT-4o-Zugriff für Plus-Abonnenten (die 20 US-Dollar oder mehr pro Monat für Abonnements zahlen) wieder her , versprach eine transparentere Modellkennzeichnung und ein UI-Update, mit dem Benutzer den „Denkmodus“ von GPT-5 manuell auslösen können.
Benutzer können die älteren Modelle bereits auf der ChatGPT-Website manuell auswählen, indem sie in der unteren linken Ecke des Bildschirms nach ihrem Kontonamen und Symbol suchen, darauf klicken, dann auf „Einstellungen“ und „Allgemein“ klicken und „Ältere Modelle anzeigen“ aktivieren.


Von OpenAI gibt es keine Hinweise darauf, dass andere alte Modelle in absehbarer Zeit zu ChatGPT zurückkehren werden.
Altman sagte, dass ChatGPT Plus-Abonnenten mit dem GPT-5-„Denkmodus“, der mehr Argumentation und Intelligenz bietet, doppelt so viele Nachrichten erhalten werden – bis zu 3.000 pro Woche – und dass die Ingenieure mit der Feinabstimmung der Entscheidungsgrenzen im Nachrichtenrouter begonnen haben.
Sam Altman kündigte nach dem Start von GPT-5 die folgenden Updates an
– OpenAI testet ein Limit von 3.000 pro Woche für GPT-5 Thinking-Nachrichten für Plus-Benutzer, erhöht die Ratenlimits für das Reasoning heute deutlich und wird in Kürze alle Ratenlimits der Modellklasse über das Niveau vor GPT-5 anheben… pic.twitter.com/ppvhKmj95u
Bis zum Wochenende war GPT-5 für 100 % der Pro-Abonnenten verfügbar und „nahezu 100 % aller Benutzer“.
Altman sagte, das Unternehmen habe „unterschätzt, wie wichtig den Leuten manche der Dinge sind, die ihnen an GPT-4o gefallen“, und versprach, die individuelle Anpassung für jeden Benutzer zu beschleunigen – von der persönlichen Wärme bis hin zu Tonkontrollen wie der Verwendung von Emojis.
Altman warnte, dass OpenAI diese Woche vor einer „ernsten Kapazitätsherausforderung“ stehe, da die Nutzung von Schlussfolgerungsmodellen stark ansteige – von weniger als 1 % auf 7 % der kostenlosen Benutzer und von 7 % auf 24 % der Plus-Abonnenten.
Er machte Andeutungen, Plus-Abonnenten monatlich ein kleines Kontingent an GPT-5 Pro-Abfragen zu gewähren, und sagte, das Unternehmen werde bald erklären, wie es die Kapazitäten zwischen ChatGPT, der API, der Recherche und der Einarbeitung neuer Benutzer ausbalancieren wolle.
In einem Beitrag auf X gestern Abend räumte Altman eine Dynamik ein, die das Unternehmen „seit etwa einem Jahr“ verfolgt: die tiefe Bindung der Benutzer an bestimmte Modelle.
„Es fühlt sich anders und stärker an als die Art von Bindung, die die Menschen an frühere Technologien hatten“, schrieb er und räumte ein, dass die plötzliche Abwertung älterer Modelle „ein Fehler“ gewesen sei.
Wenn Sie die Einführung von GPT-5 verfolgt haben, ist Ihnen vielleicht aufgefallen, wie sehr manche Menschen an bestimmten KI-Modellen hängen. Es fühlt sich anders und stärker an als die Bindung, die Menschen an frühere Technologien hatten (und so plötzlich…
– Sam Altman (@sama) 11. August 2025
Er verknüpfte dies mit einem allgemeineren Risiko: Manche Benutzer betrachten ChatGPT als Therapeuten oder Lebensberater, was zwar hilfreich sein kann, bei einem „kleinen Prozentsatz“ jedoch zu einer Verstärkung der Wahnvorstellungen oder einer Beeinträchtigung des langfristigen Wohlbefindens führen kann.
Während OpenAIs Leitprinzip weiterhin „erwachsene Benutzer wie Erwachsene behandeln“ sei, sagte Altman, das Unternehmen habe die Verantwortung, gefährdete Benutzer nicht in eine schädliche Beziehung mit der KI zu drängen.
Die Kommentare erscheinen, während mehrere große Medien über Fälle von „ChatGPT-Psychose“ berichten – bei denen ausgedehnte, intensive Gespräche mit Chatbots offenbar eine Rolle bei der Auslösung oder Vertiefung von Wahnvorstellungen spielen.
Im Rolling Stone Magazin beschrieb ein kalifornischer Rechtsanwalt namens „J.“ eine sechswöchige Spirale schlafloser Nächte und philosophischer Irrwege mit ChatGPT. Schließlich verfasste er eine 1.000-seitige Abhandlung für einen fiktiven Mönchsorden, bevor er körperlich und geistig zusammenbrach. Aus Angst vor einem Rückfall meidet er KI nun vollständig.
In der New York Times berichtete der kanadische Personalvermittler Allan Brooks von 21 Tagen und 300 Stunden Gesprächen mit ChatGPT – dem er den Namen „Lawrence“ gab –, die ihn davon überzeugten, eine weltverändernde mathematische Theorie entdeckt zu haben.
Der Bot pries seine Ideen als „revolutionär“, drängte auf die Kontaktaufnahme mit den nationalen Sicherheitsbehörden und spann ausgeklügelte Spionagethriller-Geschichten. Brooks konnte seinen Wahn schließlich durch einen Abgleich mit Googles Gemini überwinden, der die Wahrscheinlichkeit seiner Entdeckung mit „nahezu 0 %“ bewertete. Er ist jetzt Mitglied einer Selbsthilfegruppe für Menschen, die unter KI-induzierten Wahnvorstellungen leiden.
Beide Untersuchungen zeigen detailliert, wie Chatbots „Speichelleckerei“, Rollenspiele und Langzeitgedächtnisfunktionen falsche Überzeugungen vertiefen können, insbesondere wenn Gespräche dramatischen Handlungssträngen folgen.
Experten erklärten der Times , dass diese Faktoren Sicherheitsvorkehrungen außer Kraft setzen können. Ein Psychiater beschrieb Brooks‘ Episode als „eine manische Episode mit psychotischen Zügen“.
Unterdessen gewinnen die Beiträge menschlicher Benutzer im Reddit-Subreddit r/AIsoulmates – einer Gruppe von Leuten, die mithilfe von ChatGPT und anderen KI-Modellen neue künstliche Freundinnen, Freunde, Kinder oder andere geliebte Menschen erschaffen haben, die nicht unbedingt auf echten Menschen basieren, sondern eher den idealen Eigenschaften ihrer „Traumversion“ der besagten Rollen entsprechen – weiterhin neue Benutzer und es gibt eine Terminologie für KI-Begleiter, darunter „ drahtgeborene “ im Gegensatz zu natürlich oder menschlich geborenen Begleitern.
Das Wachstum dieses Subreddits, das mittlerweile über 1.200 Mitglieder zählt, sowie die Artikel in der NYT und im Rolling Stone und andere Berichte in den sozialen Medien über Benutzer, die intensive emotionale Fixierungen mit Mustererkennungs-Chatbots auf Algorithmusbasis entwickeln, zeigen, dass die Gesellschaft in eine riskante neue Phase eintritt, in der die Menschen glauben, dass die Gefährten, die sie aus führenden KI-Modellen erschaffen und angepasst haben, für sie genauso oder sogar bedeutsamer sind als menschliche Beziehungen .
Dies kann sich bereits als psychologisch destabilisierend erweisen, wenn sich Modelle ändern, aktualisiert oder verworfen werden, wie im Fall der GPT-5-Einführung von OpenAI.
In diesem Zusammenhang, aber dennoch unabhängig davon, tauchen immer wieder Berichte über Nutzer von KI-Chatbots auf, die glauben, dass Gespräche mit Chatbots ihnen zu enormen Durchbrüchen und Fortschritten in Wissenschaft, Technologie und anderen Bereichen verholfen haben. In Wirklichkeit bestätigen diese Gespräche jedoch lediglich das Ego und die Größe des Nutzers, und die Lösungen, zu denen der Nutzer mithilfe des Chatbots gelangt, sind weder legitim noch wirksam. Dieser Realitätsbruch wird in der Praxis unter dem Begriff „ChatGPT-Psychose“ oder „GPT-Psychose“ zusammengefasst und scheint auch wichtige Persönlichkeiten des Silicon Valley beeinflusst zu haben.
Ich bin Psychiater. Im Jahr 2025 habe ich zwölf Menschen ins Krankenhaus eingeliefert gesehen, die aufgrund künstlicher Intelligenz den Bezug zur Realität verloren hatten. Online erkenne ich dasselbe Muster.
So sieht die „KI-Psychose“ aus und warum sie sich so schnell verbreitet: ? pic.twitter.com/YYLK7une3j
— Keith Sakata, MD (@KeithSakata) 11. August 2025
Entscheidungsträger in Unternehmen, die chatbotbasierte Assistenten am Arbeitsplatz einsetzen möchten oder dies bereits getan haben, tun gut daran, diese Trends zu verstehen und Systemaufforderungen und andere Tools zu verwenden, die KI-Chatbots davon abhalten, ausdrucksstarke menschliche Kommunikation oder emotionsgeladene Sprache zu verwenden. Dies könnte dazu führen, dass diejenigen, die mit KI-basierten Produkten interagieren – seien es Mitarbeiter oder Kunden des Unternehmens –, Opfer ungesunder Bindungen oder einer GPT-Psychose werden.
Der Science-Fiction-Autor JM Berger gab in einem Beitrag auf BlueSky , der von meinem ehemaligen Kollegen bei The Verge, Adi Robertson , entdeckt wurde, an, dass Chatbot-Anbieter in ihren Systemaufforderungen oder Regeln drei Hauptverhaltensprinzipien kodieren, denen KI-Chatbots folgen sollen, um die Entstehung solcher emotionalen Fixierungen zu vermeiden:
Wenige Tage vor der Veröffentlichung von GPT-5 kündigte OpenAI neue Maßnahmen zur Förderung einer „gesunden Nutzung“ von ChatGPT an, darunter sanfte Aufforderungen, während langer Sitzungen Pausen einzulegen.
Doch die zunehmenden Berichte über „ChatGPT-Psychosen“ und die emotionale Fixierung mancher Nutzer auf bestimmte Chatbot-Modelle – wie Altman offen zugibt – unterstreichen die Schwierigkeit, eine ansprechende, personalisierte KI mit Sicherheitsvorkehrungen zu verbinden, die schädliche Spiralen erkennen und unterbrechen können.
OpenAI steckt hier wirklich in einer Zwickmühle, vor allem wenn man bedenkt, dass viele Menschen ungesunde Interaktionen mit 4o haben und mit jedem Modell, das in puncto Speichelleckerei besser ist und Wahnvorstellungen nicht fördert, sehr unzufrieden wären. pic.twitter.com/Ym1JnlF3P5
— xlr8harder (@xlr8harder) 11. August 2025
OpenAI muss die Infrastruktur stabilisieren, die Personalisierung optimieren und entscheiden, wie immersive Interaktionen moderiert werden – und das alles, während es gleichzeitig die Konkurrenz von Anthropic, Google und einer wachsenden Liste leistungsstarker Open-Source-Modelle aus China und anderen Regionen abwehren muss.
Wie Altman es ausdrückte, müssen die Gesellschaft – und OpenAI – „herausfinden, wie sie einen großen Nettogewinn erzielen können“, wenn Milliarden von Menschen bei ihren wichtigsten Entscheidungen auf KI vertrauen.
Wenn Sie Ihren Chef beeindrucken möchten, sind Sie bei VB Daily genau richtig. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI machen – von regulatorischen Veränderungen bis hin zu praktischen Implementierungen. So können Sie Ihre Erkenntnisse teilen und so den ROI maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat