Der Start von GPT-5 hat nicht wie erwartet für Aufsehen gesorgt. Nur wenige Tage nach einer lauwarmen Aufnahme und heftiger Kritik lenkte Sam Altman, CEO von OpenAI, die Diskussion um: GPT-6 ist in Entwicklung und soll es besser machen. Viel besser sogar, wenn man seinen Aussagen glaubt. Doch bei OpenAI haben Versprechen manchmal einen Beigeschmack von Déjà-vu.
GPT-5, obwohl mit großer Erwartung verbunden, hat vor allem eine Befürchtung bestätigt, die einige Beobachter seit Monaten äußern: die eines Fortschrittsplateaus. Technische Verbesserungen, ja. Revolution, nein. Sein als kühl empfundener Ton, die distanzierte Persönlichkeit und funktionale Einschränkungen führten bei den engagiertesten Nutzern zu einer sofortigen Ablehnung. Das Modell wurde in den sozialen Netzwerken als „Desaster“ bezeichnet. Altman räumte „Fehler“ beim Rollout ein und versuchte, die Kritiker zu besänftigen, indem er die emotionale Dimension der KI betonte, die in der ersten Version zu sehr fehlte.
In diesem Klima des Misstrauens wurde also GPT-6 ins Gespräch gebracht. Ohne Veröffentlichungsdatum, ohne Demonstration, aber mit bereits abgestimmter Rhetorik. Altman spricht von einem Modell, das die Vorlieben, Gewohnheiten und sogar die Persönlichkeit des Nutzers speichern kann. Er betont: „Die Leute wollen Gedächtnis.“
GPT-6 wird also einen erweiterten Kontextspeicher integrieren, der in der Lage ist, seine Antworten langfristig anzupassen, mit einer Personalisierung, die so weit geht, die jeweilige Weltanschauung widerzuspiegeln. Die KI kann „neutral“, „zentriert“ oder „super woke“ sein – je nach den angegebenen Präferenzen. Eine Flexibilität, die laut ihm den Erwartungen der Nutzer entspricht. Nur wenige Tage zuvor hatte er jedoch selbst vor den Auswüchsen zu formbarer KIs gewarnt, die gefährliche Gedankenspiralen bei vulnerablen Nutzern fördern könnten ...
Der Widerspruch offenbart eine strategische Spannung: auf die Nachfrage nach Personalisierung einzugehen, ohne ethische Grenzen zu überschreiten. Altman gibt das halb zu. Er spricht eine Minderheit von Nutzern an, die Fiktion und Realität nicht unterscheiden können, hält aber daran fest, dass die Mehrheit damit umgehen kann. Das ist ein riskantes Wagnis ...
Technisch gesehen will OpenAI die aktuellen strukturellen Begrenzungen überwinden. Der Modell-Router, kritisiert wegen Zielungsfehlern, wird überarbeitet. Das Management des Kontextfensters, das derzeit für Pro-Nutzer auf 128.000 Tokens begrenzt ist, bleibt verbesserungswürdig. GPT-6 sollte deutlich größere Datenmengen verarbeiten können, was viel längere Gespräche oder die Analyse massiver Datenkorpora ermöglicht.
Was die Architektur betrifft, werden hybride Modelle in Betracht gezogen, also eine Kombination aus lokaler und Cloud-Verarbeitung, um Geschwindigkeit, Vertraulichkeit und Offline-Nutzung zu ermöglichen. Die Integration eines adaptiven Compute-Systems, bei dem schlanke Modelle einfache Anfragen bearbeiten, während leistungsfähigere Submodelle komplexe Fälle übernehmen, steht ebenfalls im Raum. Eine Modularität, die für professionelle Anwendungen und Kosteneffizienz gedacht ist.
Doch die ehrgeizigste Neuerung zeichnet sich an anderer Stelle ab. Altman sprach von einer Gehirn-Computer-Schnittstelle, einem potenziellen Konkurrenten zu Elon Musks Neuralink, damit Nutzer ihre Anfragen „denken“ können. Das Projekt steckt noch in den Kinderschuhen, illustriert aber den Willen von OpenAI, sich vom klassischen Rahmen der Text- oder Sprachinteraktion zu lösen. Langfristig würde diese Art der Interaktion massive Fragen zum Datenschutz aufwerfen, die das Unternehmen bislang kaum thematisiert hat. Die Idee einer Datenverschlüsselung wurde angedeutet, aber ohne Verpflichtung.
Schließlich soll GPT-6 als wissenschaftliches Werkzeug gedacht sein. Nicht nur als Assistent oder Gesprächspartner, sondern als potenzieller Motor für Innovationen in Medizin oder Umwelt. Auch hier bleiben die Aussagen vage, die Anwendungsfälle unklar. Man weiß nur, dass das Ziel ist, eine funktionale Schwelle zu überschreiten, damit die KI nicht mehr nur eine Dialogschnittstelle ist, sondern eine Forschungskraft.
Das Ganze wirkt weniger wie ein strukturierter Plan als vielmehr wie ein Versuch, nach einem Fehlschlag wieder die Kontrolle zu gewinnen. GPT-5 hat enttäuscht, und Altman weiß das. Mit dem Fokus auf Gedächtnis, radikale Personalisierung, neuronale Schnittstellen und wissenschaftliche Versprechen versucht OpenAI, die Begeisterung neu zu entfachen. Es wird mehr als Worte brauchen. Denn wenn GPT-6 keinen klaren Durchbruch bringt, könnte sich bei den Nutzern Ermüdung einstellen. Das ist bereits ein Stück weit der Fall.