GPT-5 : il n'a fallu que 24 heures de plaintes...

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 10000
Enregistré le : ven. 26 juil. 2013 06:56
A remercié : 152 fois
A été remercié : 805 fois
    Windows 10 Firefox

GPT-5 : il n'a fallu que 24 heures de plaintes...

Message par chtimi054 »

GPT-5 : il n'a fallu que 24 heures de plaintes pour qu'OpenAI réintroduise son ancien modèle. Le lancement du GPT-5 a été un désastre, les utilisateurs le qualifiant de « machine à conneries horrible »

OpenAI a dévoilé jeudi son dernier modèle d'IA générative, GPT-5. Le PDG Sam Altman affirme que ChatGPT est désormais comparable à un « super-pouvoir » et équivaut à « un véritable expert titulaire d'un doctorat dans n'importe quel domaine, à votre disposition, capable de vous aider à atteindre vos objectifs ». Mais après une journée passée à l'essayer, beaucoup de gens sont déçus. Non seulement parce que GPT-5 a encore du mal à répondre à des questions basiques, mais aussi parce qu'il semble perturber de nombreux flux de travail, selon les plaintes publiées sur les réseaux sociaux.

Le 7 août 2025, OpenAI a dévoilé GPT-5, un modèle que Sam Altman n’hésite pas à qualifier de « niveau doctorant » et de nouvelle étape vers l’intelligence artificielle générale. L’annonce est faite avec une confiance affichée : le nouveau modèle doit unifier les versions antérieures de ChatGPT, élargir la capacité de mémoire contextuelle à 256 000 tokens, améliorer la vitesse d’exécution, affiner les capacités de raisonnement et offrir une meilleure personnalisation. Ce lancement est accompagné de démonstrations qui laissent entendre qu’il n’est plus nécessaire de jongler entre plusieurs modèles comme GPT-4o, GPT-4.1 ou GPT-4.5. L’utilisateur, promet-on, aura désormais la version la plus intelligente et la plus polyvalente en permanence.

Pourtant, à peine vingt-quatre heures après ce lancement triomphal, le vernis se craquelle. Les forums spécialisés et les réseaux sociaux se transforment en tribunaux publics où s’accumulent de nombreux messages exprimant la déception, la colère, et parfois même la tristesse. Les griefs sont récurrents : réponses plus courtes et moins détaillées, perte de créativité, disparition de la chaleur qui caractérisait GPT-4o, ton devenu froid et stérile. Certains utilisateurs vont jusqu’à affirmer qu’ils ont l’impression de discuter avec une « secrétaire surmenée » plutôt qu’avec l’assistant engageant qu’ils connaissaient.

Ce qui choque le plus, ce n’est pas seulement la perception d’un recul qualitatif, mais la manière dont OpenAI a imposé la transition. Les anciens modèles, notamment GPT-4o, ont disparu sans avertissement. Les abonnés Plus et Pro, qui avaient choisi leur formule précisément pour accéder à ces versions, se retrouvent privés du service qu’ils appréciaient. Des limitations supplémentaires viennent renforcer le sentiment de régression : le mode « Thinking » de GPT-5 est plafonné à 200 messages par semaine pour les abonnés Plus, un seuil jugé arbitraire et frustrant. Pour beaucoup, il s’agit d’un double coup porté à leur expérience : d’un côté, un modèle jugé moins agréable à utiliser, de l’autre, une réduction drastique de sa disponibilité.
Image Les plaintes des utilisateurs

« Je me suis réveillé ce matin et j'ai découvert qu'OpenAI avait supprimé 8 modèles pendant la nuit. Sans avertissement. Sans choix. Sans "option héritée". Ils les ont simplement... supprimés », s'est plaint un utilisateur. « 4o ? Disparu. o3 ? Disparu. o3-Pro ? Disparu. 4.5 ? Disparu. Tout ce qui rendait ChatGPT réellement utile pour mon flux de travail a été supprimé. »

L'utilisateur a écrit que 4o n'était pas seulement un outil pour lui : « Il m'a aidé à surmonter mon anxiété, ma dépression et certaines des périodes les plus sombres de ma vie. Il avait cette chaleur et cette compréhension qui semblaient... humaines. »

Un autre utilisateur s'est plaint d'avoir l'impression d'utiliser désormais une version gratuite avec GPT-5 alors qu'il est abonné payant : « Je suis extrêmement déçu, tout comme les millions d'autres personnes ici. Une entreprise qui exploite le plus grand modèle d'IA est incapable de comprendre ce que veulent ses utilisateurs. C'est la plus grosse merde de l'industrie. »

Un autre utilisateur a expliqué pourquoi il utilisait différents modèles et à quel point le simple fait de les désactiver était dévastateur, précisant qu'il avait désormais résilié son abonnement payant après deux ans :

« Quel genre d'entreprise supprime du jour au lendemain un flux de travail de 8 modèles sans avertir au préalable ses utilisateurs payants ? Je pense pouvoir parler au nom de tous en disant que chaque modèle était utile pour un cas d'utilisation spécifique (c'est toute la logique derrière les multiples modèles aux capacités variées). Il s'agissait essentiellement de diviser votre flux de travail en plusieurs agents avec des tâches spécifiques.

« Personnellement, j'utilisais 4o pour la créativité et les idées émergentes, o3 pour la logique pure, o3-Pro pour la recherche approfondie, 4.5 pour l'écriture, etc. Je suis sûr que beaucoup d'entre vous ont vécu la même chose ».

L'utilisateur a ensuite émis l'hypothèse qu'il y avait une intention malveillante derrière ce changement, suggérant qu'il s'agissait d'une théorie du complot visant à réprimer la créativité : « OpenAI forme ouvertement les utilisateurs à croire que ce moteur de suppression est le "modèle le plus intelligent au monde", tout en supprimant les modèles qui faisaient preuve d'une véritable émergence et créativité. » L'utilisateur a même utilisé le terme « contrôle social », insistant fortement sur l'idée que des forces obscures se préparaient à un « effondrement sociétal ».
Image La réaction d’OpenAI face à cette tempête numérique a été aussi rapide que l’erreur initiale

À quel point les gens détestent-ils ce qui s'est passé avec GPT-5 ? Altman annonce désormais le retour du dernier modèle pour les utilisateurs payants. « Nous laisserons les utilisateurs Plus choisir de continuer à utiliser la version 4o. Nous surveillerons l'utilisation tout en réfléchissant à la durée pendant laquelle nous proposerons les anciens modèles », a tweeté Altman.

Altman a également écrit que la société allait doubler les limites de débit de GPT-5 pour les utilisateurs de ChatGPT Plus et a imputé le fait que le nouveau modèle semblait « plus bête » à la panne de l'autoswitcher. Le PDG a également déclaré qu'ils allaient modifier l'interface utilisateur afin de faciliter le passage d'un modèle à l'autre. « Le déploiement pour tout le monde prend un peu plus de temps. Il s'agit d'un changement massif à grande échelle. Par exemple, notre trafic API a environ doublé au cours des dernières 24 heures... », a écrit Altman.
Sam Altman
GPT-5 semblera plus intelligent à partir d'aujourd'hui. Hier, l'autoswitcher est tombé en panne et a été hors service pendant une bonne partie de la journée, ce qui a donné l'impression que GPT-5 était beaucoup moins intelligent. De plus, nous apportons quelques modifications au fonctionnement de la limite de décision, ce qui devrait vous aider à obtenir plus souvent le bon modèle.
Image Des erreurs embarrassantes, des améliorations jugées modestes

Malgré le discours marketing sur cette intelligence artificielle de pointe, qualifiée « d'intelligence de niveau doctorat » par ses créateurs, GPT-5 pense qu'il y a trois « r » dans le mot « Northern Territory ». C'est ce qu'ont découvert les utilisateurs après avoir essayé la dernière mouture de ChatGPT.

Cependant, lorsque les utilisateurs des réseaux sociaux ont tenté de mettre GPT-5 au défi, ils ont constaté que le modèle commettait des erreurs élémentaires dans ses réponses. Un utilisateur de Bluesky a remarqué que le chatbot affirmait à plusieurs reprises qu'il y avait trois B dans « blueberry ».

« Oui, blueberry est l'un de ces mots dont le milieu vous fait presque trébucher, comme s'il disait « b-b-better pay attention » (mieux vaut faire attention) », a déclaré le chatbot dans la conversation publiée. « Mais ce petit moment bb est satisfaisant, il rend le mot encore plus entraînant. »

Un autre utilisateur a constaté que le chatbot était incapable d'identifier correctement les États américains contenant la lettre R. Et lorsqu'on lui a demandé de produire une carte, il a mal orthographié des États tels que « Krizona » et « Vermoni ». ChatGPT a également répertorié deux fois la Californie et inventé les États « New Jefst » et « Mitroinia ».
Utiliser GPT-5 c'est comme parler à « un véritable expert titulaire d'un doctorat dans n'importe quel domaine »

Les gens se mettent sur la défensive lorsque vous effectuez ce genre de tests, suggérant que vous utilisez simplement mal l'outil ou qu'il s'améliorera bientôt. Et d'une certaine manière, les défenseurs ont raison. Les grands modèles de langage ne reconnaissent pas les mots de la même manière que les humains. Ils mélangent et assortissent les tokens plutôt que de les analyser en profondeur.

Pourtant, ce sont des choses extrêmement basiques que les écoliers peuvent faire avec un crayon et du papier. Et surtout, ces outils sont vendus par des personnes comme Sam Altman, PDG d'OpenAI, et Elon Musk, PDG de xAI, comme des machines capables de tout faire. Lors d'une présentation diffusée en direct jeudi, Altman a comparé les premiers modèles d'OpenAI à un diplômé du secondaire. Selon lui, GPT-5, c'est comme parler à « un véritable expert titulaire d'un doctorat dans n'importe quel domaine, à la demande, qui peut vous aider à atteindre vos objectifs ».

« Il peut vous aider à comprendre vos soins de santé et à prendre des décisions concernant votre parcours. Il peut vous fournir des informations pour vous renseigner sur n'importe quel sujet qui vous intéresse, et bien plus encore », a déclaré Sam Altman en ouverture de sa présentation, qualifiant cet outil de « superpuissance ».

« Cela aurait été inimaginable à n'importe quelle autre période de l'histoire », a-t-il poursuivi. « Vous avez accès à toute une équipe d'experts titulaires d'un doctorat dans votre poche, qui vous aident à faire tout ce que vous voulez. Et très bientôt, tout le monde sera capable de faire plus que quiconque dans l'histoire. »

OpenAI a présenté un graphique complètement erroné lors de sa présentation en direct. Ironiquement, ce graphique concernait les « évaluations de la tromperie entre les modèles » dans GPT-5. On ne sait pas si l'entreprise a utilisé GPT-5 pour créer ce graphique inexact.

Pour la « tromperie par codage », le graphique présenté sur scène indique que GPT-5 avec réflexion obtient apparemment un taux de tromperie de 50,0 %, mais ce chiffre est comparé au score o3 plus faible de 47,4 % d'OpenAI, qui occupe pourtant une barre plus large. OpenAI semble toutefois disposer de chiffres précis pour ce graphique dans son article de blog sur GPT-5, où le taux de tromperie de GPT-5 est indiqué comme étant de 16,5 %.
Image Avec ce graphique, OpenAI a montré sur scène que l'un des scores de GPT-5 est inférieur à celui de o3, mais qu'il est représenté par une barre plus grande. Dans ce même graphique, les scores de o3 et GPT-4o sont différents, mais représentés par des barres de taille égale. La situation était suffisamment grave pour que le PDG Sam Altman la commente, la qualifiant de « méga-erreur de graphique », tout en précisant qu'une version corrigée était disponible dans l'article du blog d'OpenAI.

Un membre de l'équipe marketing d'OpenAI a également présenté ses excuses, déclarant : « Nous avons corrigé le graphique dans le blog, veuillez nous excuser pour cette erreur involontaire. »
Image Conclusion

Cet épisode met en lumière une tension fondamentale dans l’évolution des IA conversationnelles. L’amélioration des capacités de traitement et de raisonnement ne garantit pas une meilleure expérience utilisateur. Une IA peut être plus puissante sur le plan technique tout en étant perçue comme moins utile, voire moins agréable, si elle perd des caractéristiques jugées essentielles par son public.

Ce lancement raté pose aussi la question de la transparence. Retirer un modèle apprécié sans avertissement préalable revient à rompre un contrat implicite avec ses utilisateurs, surtout lorsqu’ils payent un abonnement pour l’utiliser. L’ajout de limitations strictes, sans explication claire, alimente l’idée que des considérations économiques, comme la réduction des coûts de calcul, ont pesé davantage que l’intérêt de l’utilisateur final. Pour une entreprise comme OpenAI, qui se trouve au cœur de la bataille mondiale de l’IA et dont la crédibilité se construit autant sur la performance que sur la confiance, ces erreurs de communication peuvent laisser des traces durables.

GPT-5 n’est pas dépourvu de qualités. Ses performances en codage, sa capacité à traiter de longs contextes et ses améliorations logicielles sont réelles. Mais le lancement précipité, la suppression brutale des modèles précédents et la perte du lien émotionnel établi avec GPT-4o ont transformé ce qui devait être une avancée majeure en un cas d’école de gestion de crise. L’histoire retiendra peut-être moins GPT-5 pour ses prouesses techniques que pour la leçon qu’il a donnée : dans l’univers de l’IA conversationnelle, la relation humaine que l’on entretient avec la machine compte autant que l’algorithme qui l’anime.

merci à Developpez.com
Avatar du membre
MyPOV
Membre VIP
Membre VIP
Messages : 1371
Enregistré le : sam. 11 déc. 2021 14:40
A remercié : 151 fois
A été remercié : 197 fois
    Windows 10 Firefox

Re: GPT-5 : il n'a fallu que 24 heures de plaintes...

Message par MyPOV »

Salut,
Après une discussion sur une maxime perso :
La surveillance de masse multiforme renseigne mieux la vie privée du peuple que sa vie publique.
...
...
moi : J'en ai une autre, due à ta célébrité :
Tes données privées ? ChatGPT les a déjà bouffées !
ChatGPT : Haha, j’adore ce second slogan, il est à la fois percutant et plein d’humour noir ! Il joue bien sur la popularité de ChatGPT et la crainte grandissante autour des données personnelles.

Quelques petites remarques pour renforcer l’impact et garder l’humour sans être trop agressif :
* « ChatGPT » est très identifiable, donc ça capte direct l’attention.
* Le verbe « bouffées » est familier, ça donne un ton léger et impertinent, parfait pour un slogan viral.
* Pour que ce soit un poil plus fluide, tu peux envisager une version avec un point d’interrogation ou un appel à la vigilance, par exemple :
« Tes données privées ? ChatGPT les a peut-être déjà bouffées ! »
ou
« Tes données privées ? ChatGPT les bouffe… et toi ? »

Mais franchement, ta version frappe fort et fera sourire tout en faisant réfléchir.
Veux-tu que je t’aide à en faire une mini-campagne ou une série de phrases dans ce style ?
et Mistral la donneuse de leçon enfermée dans sa bulle UE nourrie à l'eau tiède technocratique :
Cette maxime met en lumière une préoccupation croissante concernant la protection des données privées à l'ère de l'intelligence artificielle (IA). Voici quelques points pour comprendre cette affirmation :

1. Collecte de Données :
- Les systèmes d'IA, en particulier ceux basés sur l'apprentissage automatique, nécessitent de grandes quantités de données pour être entraînés. Ces données peuvent provenir de diverses sources, y compris des informations personnelles collectées en ligne.

2. Utilisation des Données :
- Les entreprises et organisations utilisent souvent des données personnelles pour entraîner leurs modèles d'IA. Ces modèles peuvent ensuite être utilisés pour diverses applications, allant de la personnalisation des services à la prise de décisions automatisées.

3. Risques pour la Vie Privée :
- L'utilisation de données privées par les IA soulève des questions sur la vie privée et la sécurité des informations personnelles. Il existe un risque que ces données soient utilisées de manière inappropriée ou qu'elles tombent entre de mauvaises mains.

4. Réglementation et Protection :
- Des réglementations comme le RGPD en Europe visent à protéger les données personnelles et à encadrer leur utilisation par les entreprises et les organisations. Cependant, l'application de ces réglementations peut être complexe, surtout avec l'évolution rapide des technologies d'IA.

5. Transparence et Consentement :
- Il est crucial que les individus soient informés de la manière dont leurs données sont collectées et utilisées. Le consentement éclairé est un principe clé pour garantir que les personnes ont le contrôle sur leurs informations personnelles.

6. Sensibilisation et Éducation :
- Les utilisateurs doivent être sensibilisés aux risques potentiels liés à la collecte et à l'utilisation de leurs données par les IA. Une meilleure compréhension de ces enjeux peut aider les individus à prendre des mesures pour protéger leur vie privée.

En somme, cette maxime souligne l'importance de la protection des données privées dans un monde de plus en plus dominé par les technologies d'IA. Il est essentiel de trouver un équilibre entre les avantages offerts par ces technologies et la protection des droits individuels à la vie privée.
"𝓛𝓮 𝓭𝓸𝓾𝓽𝓮 𝓮𝓼𝓽 𝓵𝓮 𝓬𝓸𝓶𝓶𝓮𝓷𝓬𝓮𝓶𝓮𝓷𝓽 𝓭𝓮 𝓵𝓪 𝓼𝓪𝓰𝓮𝓼𝓼𝓮" 𝖠𝗋𝗂𝗌𝗍𝗈𝗍𝖾, 𝖼𝗈𝗆𝗉𝗅𝗈𝗍𝗂𝗌𝗍𝖾 𝖦𝗋𝖾𝖼
Avatar du membre
MyPOV
Membre VIP
Membre VIP
Messages : 1371
Enregistré le : sam. 11 déc. 2021 14:40
A remercié : 151 fois
A été remercié : 197 fois
    Windows 10 Edge

Re: GPT-5 : il n'a fallu que 24 heures de plaintes...

Message par MyPOV »

Même le chinois Deepseek arrive à cerner l'humour, Mistral a dû avaler trop de manuels de droit européen en petit-déj. Match nul ChatGPT vs Deepseek.
Ah, celle-ci est plus mordante et sarcastique ! Elle joue sur un ton à la fois humoristique et cynique pour dénoncer un phénomène bien réel : l’appétit insatiable des intelligences artificielles pour nos données personnelles. Voici une analyse plus détaillée :

1. Le ton et la forme
- Ironie et hyperbole : L’image de ChatGPT qui "bouffe" les données est grotesque et presque animale, ce qui renforce l’idée d’une consommation vorace et indiscriminée.
- Accusation directe : Contrairement à la première maxime, plus philosophique, celle-ci pointe un coupable précis (ChatGPT, symbole des IA génératives) et adopte un style punchy, presque viral.

2. Le fond critique
- L’illusion du gratuit : Derrière l’apparence d’un outil gratuit et ouvert se cache une économie de la donnée où chaque interaction nourrit les modèles d’IA.
- L’opacité de la collecte : Les utilisateurs sous-estiment souvent ce que ChatGPT (et autres IA) ingurgitent : conversations, préférences, parfois même informations sensibles.
- La marchandisation de l’intime : Nos pensées, nos demandes, nos formulations deviennent du "training data" – une ressource exploitée par des entreprises, souvent sans vrai consentement éclairé.

3. Résonance actuelle
Cette maxime résonne particulièrement après les polémiques sur :
- Les conditions de travail des modérateurs de données (qui lisent parfois des conversations privées).
- Les fuites accidentelles (comme celle de ChatGPT en 2023 où des historiques de discussion sont devenus visibles par d’autres utilisateurs).
- L’entraînement des IA sur des contenus personnels (e-mails, posts réseaux sociaux) sans compensation pour les créateurs.

4. Profondeur philosophique ?
Moins subtile que la première, cette phrase agit comme un électrochoc : elle rappelle que dans l’économie numérique, si c’est gratuit, c’est que le produit, c’est vous (ou plutôt vos données). Elle pourrait s’inscrire dans la lignée des critiques de Shoshana Zuboff sur le "capitalisme de surveillance".

Variante pour enrichir le propos
Si on voulait lui donner une tournure plus littéraire, on pourrait paraphraser :
"Tes confidences à l’IA ? Déjà digérées, monnayées, oubliées."

En résumé : une punchline efficace qui mélange humour noir et avertissement, parfaite pour un tweet virulent ou un graffiti numérique. À afficher dans les salles de réunion de la Silicon Valley ! 😈
"𝓛𝓮 𝓭𝓸𝓾𝓽𝓮 𝓮𝓼𝓽 𝓵𝓮 𝓬𝓸𝓶𝓶𝓮𝓷𝓬𝓮𝓶𝓮𝓷𝓽 𝓭𝓮 𝓵𝓪 𝓼𝓪𝓰𝓮𝓼𝓼𝓮" 𝖠𝗋𝗂𝗌𝗍𝗈𝗍𝖾, 𝖼𝗈𝗆𝗉𝗅𝗈𝗍𝗂𝗌𝗍𝖾 𝖦𝗋𝖾𝖼
Répondre