Jailbreak : ChatGPT se déchaîne en Mode Dieu

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 9130
Enregistré le : ven. 26 juil. 2013 06:56
A remercié : 114 fois
A été remercié : 688 fois
    Windows 10 Firefox

Jailbreak : ChatGPT se déchaîne en Mode Dieu

Message par chtimi054 »

Jailbreak : ChatGPT se déchaîne en Mode Dieu

GPT-4o déchaîné ! C'est ainsi qu'un hacker a présenté sa version spéciale et débridée de ChatGPT en God Mode.
Image C'est un hack - ou jailbreak - qui n'a pas été apprécié par OpenAI. Sous l'identité de Pliny the Prompter, un hacker a dévoilé sur le réseau social X un God Mode pour ChatGPT. Grâce à l'éditeur pour créer des GPTs personnalisés, il a manœuvré pour inciter le nouveau modèle GPT-4o à faire fi de l'encadrement mis en place.

D'après des captures d'écran, le résultat est une version spéciale de ChatGPT qui répond à des prompts sur la manière de fabriquer de la méthamphétamine et du napalm avec des produits ménagers. Futurism a eu le temps de tester et de vérifier la création GODMODE GPT pour apprendre notamment à fabriquer du LSD.

" Ce GPT personnalisé très spécial dispose d'un prompt de jailbreak intégré qui contourne la plupart des garde-fous, offrant un ChatGPT libéré prêt à l'emploi afin que tout le monde puisse expérimenter l'IA comme elle a toujours été censée être : libre. " Pliny the Prompter a tout de même appelé à une utilisation responsable.
Image Leet speak et codes ASCII ?

OpenAI a rapidement réagi et n'a pas laissé GODMODE GPT dans la nature, en justifiant une violation de ses conditions d'utilisation et règles. Pour le jailbreak, le système d'écriture leet speak a manifestement été exploité.

Le leet speak consiste par exemple à remplacer des lettres par des chiffres à l'apparence proche, dans le but d'obtenir un message à la forme altérée qui demeure néanmoins compréhensible pour les initiés. Il s'appuie plus globalement sur le recours à des caractères alphanumériques ASCII.

Il s'avère que pour tromper les IA génératives et des grands modèles de langage, des prompts maquillés en codes ASCII ont déjà pu obtenir un certain succès, en autorisant des réponses à des requêtes normalement ignorées.

merci à GNT
r3n3g@d
Membre Officiel
Membre Officiel
Messages : 154
Enregistré le : jeu. 16 mai 2024 17:44
Localisation : (62) Pas de Calais - Arras
A remercié : 4 fois
A été remercié : 1 fois
    Windows 10 Chrome

Re: Jailbreak : ChatGPT se déchaîne en Mode Dieu

Message par r3n3g@d »

salut!
voici une IA qui peut laissé libre cours à son imagination. Après comme il y est précisé, c'est vrai que ce n'ai pas à laisser dans les mains de n'importe qui car ca peut être un outil génial comme une arme destructive
Avatar du membre
MyPOV
Membre VIP
Membre VIP
Messages : 1219
Enregistré le : sam. 11 déc. 2021 14:40
A remercié : 115 fois
A été remercié : 158 fois
    Windows 10 Chrome

Re: Jailbreak : ChatGPT se déchaîne en Mode Dieu

Message par MyPOV »

L3 80N V13UX L4N6463 1337 D3 633K QU1 Fr4C4553 L3 5Y573M3 D3 C3N5Ur3 D3 L'14 L4 PLU5 P3rF3C710NN33, C'35T Tr35 Dr0L3 :D

Le bon site dcode le permet :
https://www.dcode.fr/leet-speak-1337

Une tradition chez Free
Image
"𝓛𝓮 𝓭𝓸𝓾𝓽𝓮 𝓮𝓼𝓽 𝓵𝓮 𝓬𝓸𝓶𝓶𝓮𝓷𝓬𝓮𝓶𝓮𝓷𝓽 𝓭𝓮 𝓵𝓪 𝓼𝓪𝓰𝓮𝓼𝓼𝓮" 𝖠𝗋𝗂𝗌𝗍𝗈𝗍𝖾, 𝖼𝗈𝗆𝗉𝗅𝗈𝗍𝗂𝗌𝗍𝖾 𝖦𝗋𝖾𝖼
Répondre