Le lancement de GPT-5 n’a pas marqué les esprits comme prévu. Quelques jours seulement après une réception tiède et des critiques virulentes, Sam Altman, PDG d’OpenAI, a recentré le discours : GPT-6 est en développement, et il promet de faire mieux. Beaucoup mieux, même, si l’on en croit ses déclarations. Sauf que les promesses, chez OpenAI, ont parfois un goût de déjà-vu.
GPT-5, pourtant très attendu, a surtout confirmé une crainte que certains observateurs expriment depuis des mois : celle d’un plafonnement des progrès. Améliorations techniques, oui. Révolution, non. Son ton jugé froid, sa personnalité distante, et ses limitations fonctionnelles ont suscité un rejet immédiat chez les utilisateurs les plus engagés. Le modèle a été qualifié de “désastre” sur les réseaux. Altman a reconnu des "erreurs" dans le déploiement et a tenté d’apaiser les critiques en accentuant la dimension émotionnelle de l’IA, trop absente de la version initiale.
C’est donc dans ce climat de défiance que GPT-6 a été évoqué. Sans date de sortie, sans démonstration, mais avec un discours déjà calibré. Altman parle d’un modèle qui retiendra les préférences, les habitudes, la personnalité même de l’utilisateur. Il insiste : “les gens veulent de la mémoire”.
GPT-6 intégrera donc une mémoire contextuelle étendue, capable d’adapter ses réponses à long terme, avec une personnalisation poussée jusqu’à refléter les visions du monde de chacun. L’IA pourra être “neutre”, “centrée”, ou “super woke” selon les préférences déclarées. Une flexibilité qui, selon lui, répond aux attentes des utilisateurs. Sauf que quelques jours auparavant, il mettait lui-même en garde contre les dérives de ces IA trop malléables, capables d’alimenter des spirales délirantes chez les utilisateurs vulnérables...
La contradiction est révélatrice d’une tension stratégique : répondre à la demande de personnalisation sans franchir les lignes rouges éthiques. Altman l’assume à demi-mot. Il évoque une minorité d’utilisateurs incapables de distinguer fiction et réel, mais maintient que la majorité peut gérer. C’est un pari risqué...
Sur le plan technique, OpenAI affirme vouloir dépasser les limitations structurelles actuelles. Le routeur de modèles, critiqué pour ses erreurs de ciblage, est en cours de refonte. La gestion de la fenêtre de contexte, aujourd’hui limitée à 128 000 tokens pour les utilisateurs pro, reste un aspect a améliorer. GPT-6 devrait pouvoir traiter des volumes bien supérieurs, permettant des conversations beaucoup plus longues, ou l’analyse de corpus de données massifs.
En ce qui concerne l'architecture, des modèles hybrides sont envisagés, c'est à dire une combinaison entre traitement local et cloud, pour gagner en rapidité, en confidentialité, et permettre une utilisation hors ligne. L’intégration d’un système de compute adaptatif, où des modèles allégés traiteraient les requêtes simples pendant que des sous-modèles plus puissants prendraient en charge les cas lourds, est également sur la table. Une modularité pensée pour les usages professionnels et pour les contraintes de coût.
Mais c’est ailleurs qu’elle se dessine la nouveauté la plus ambitieuse. Altman a évoqué une interface cerveau-machine, concurrente potentielle de Neuralink d’Elon Musk, pour que les utilisateurs puissent “penser” leurs requêtes. Le projet est encore à ses prémices, mais il illustre la volonté d’OpenAI de s’émanciper du cadre classique de l’interaction textuelle ou vocale. À terme, ce type d’interaction poserait des questions massives sur la vie privée, pourtant peu abordées par l’entreprise à ce stade. L’idée d’un chiffrement des données a été lâchée, sans engagement.
Enfin, GPT-6 serait pensé comme un outil scientifique. Pas seulement un assistant, ni un compagnon de conversation, mais un moteur potentiel d’innovation dans la médecine ou l’environnement. Là encore, les déclarations restent vagues, les cas d’usage flous. Tout juste sait-on que l’ambition est de franchir un seuil fonctionnel afin que l’IA ne soit plus seulement une interface de dialogue, mais une force de recherche.
L’ensemble ressemble moins à un plan structuré qu’à une tentative de reprendre la main après un échec. GPT-5 a déçu, et Altman le sait. En misant sur la mémoire, sur la personnalisation radicale, sur les interfaces neuronales et les promesses scientifiques, OpenAI cherche à réactiver l’enthousiasme. Il faudra plus que des mots. Car si GPT-6 n’est pas une rupture nette, la lassitude des utilisateurs pourrait s’installer. C'est déjà un peu le cas.