
Un utilisateur du dark web surveillé par ZATAZ annonce la création d’un générateur de fausses personnalités basé sur une version de Mixtral, un modèle de langage (Large Language Model, LLM) développé par la société française Mistral AI.
ZATAZ a déjà présenté des générateurs de fausses identités, utilisables légalement pour valider un compte sur un forum ou un site web, lorsque vous préférez ne pas divulguer vos véritables informations personnelles. Il n’aura pas fallu bien longtemps pour la cybercriminalité se penche sur ce genre d’outil, couplé à l’Intelligence Artificielle.
Sur un forum pirate, un individu surnommé « le tisseur » a reçu une commande interne étonnante. Sa mission : développer un générateur de fausses identités alimenté par IA. Ce n’est pas sa première création. Il lui avait été demandé, voilà quelques semaines, de mettre en place un générateur de mèmes. Un mème est un contenu humoristique (image, vidéo, texte…) qui se propage rapidement sur Internet et que les gens détournent ou partagent massivement. Autant dire que le forum russe où il lui avait été commandé cette « IA » a attiré l’œil. Un mème pouvant se transformer très rapidement en « transport » de fake news.
L’auteur indique avoir testé et obtenu des résultats depuis un modèle Mixtral disponible sur Hugging Face. Un journal horodaté du 19 juin 2025 révèle une exécution réussie du modèle, bien que des erreurs subsistent lors de la génération de données personnelles.
Le projet s’exécute après inscription et obtention d’une clé API sur Hugging Face. L’interface constatée par ZATAZ montre un système d’entrée/sortie où l’utilisateur coche des options pour activer des paramètres de génération.
Le modèle Mixtral en question est un grand modèle de langage de type Mixture-of-Experts (SMoE), offrant 47 milliards de paramètres, mais n’activant que 13 milliards par token généré. Largement suffisant pour l’outil malveillant. Le modèle utilisé ne dispose d’aucun mécanisme de modération intégré, ce qui le rend apte à générer tout type de contenu sans filtres, y compris des informations personnelles sensibles. Ce déficit de garde-fous implique un risque élevé d’abus, notamment dans la création de profils frauduleux.
Ce générateur de fausses identités pourrait permettre la fabrication d’informations crédibles (noms, adresses, numéros de téléphone, mails) pouvant être exploitées pour l’usurpation, l’hameçonnage ou les fraudes en ligne. Les contrôles humains locaux, bien que mentionnés, restent insuffisants si les modèles produisent des données réalistes et variées.

Une grande partie de l’outil a été codé en Python.
Sur le plan juridique, l’Europe, et particulièrement la France, sanctionnerait sévèrement toute production ou diffusion d’identité factice à des fins frauduleuses. La directive NIS2 (d’ici octobre 2025) et le RGPD sanctionnent la création d’outils facilitant ces infractions. L’emploi d’une IA non modérée pour générer de tels contenus est susceptible de constituer une aide à la criminalité.
Selon l’auteur, le modèle « tolère » la génération de faux profils, bien que certaines erreurs apparaissent lorsque les outputs sont vérifiés via des moteurs comme Google ou Yandex (approx. 50 % de correspondance). L’interface prévue permettrait de cocher des options pour activer des traitements locaux, suggérant un développement itératif.
merci à ZATAZ