GPT-4o déchaîné ! C'est ainsi qu'un hacker a présenté sa version spéciale et débridée de ChatGPT en God Mode.

D'après des captures d'écran, le résultat est une version spéciale de ChatGPT qui répond à des prompts sur la manière de fabriquer de la méthamphétamine et du napalm avec des produits ménagers. Futurism a eu le temps de tester et de vérifier la création GODMODE GPT pour apprendre notamment à fabriquer du LSD.
" Ce GPT personnalisé très spécial dispose d'un prompt de jailbreak intégré qui contourne la plupart des garde-fous, offrant un ChatGPT libéré prêt à l'emploi afin que tout le monde puisse expérimenter l'IA comme elle a toujours été censée être : libre. " Pliny the Prompter a tout de même appelé à une utilisation responsable.

OpenAI a rapidement réagi et n'a pas laissé GODMODE GPT dans la nature, en justifiant une violation de ses conditions d'utilisation et règles. Pour le jailbreak, le système d'écriture leet speak a manifestement été exploité.
Le leet speak consiste par exemple à remplacer des lettres par des chiffres à l'apparence proche, dans le but d'obtenir un message à la forme altérée qui demeure néanmoins compréhensible pour les initiés. Il s'appuie plus globalement sur le recours à des caractères alphanumériques ASCII.
Il s'avère que pour tromper les IA génératives et des grands modèles de langage, des prompts maquillés en codes ASCII ont déjà pu obtenir un certain succès, en autorisant des réponses à des requêtes normalement ignorées.
merci à GNT