Une récente étude menée par Netcraft a révélé que les chatbots d'intelligence artificielle (IA), tels que ChatGPT, recommandent des URL erronées pour les sites web de grandes entreprises dans 34 % des cas, car l'IA se contente de rechercher des mots et des associations sans évaluer la réputation des URL. Selon la société de cybersécurité, cette divergence crée une faille potentielle que les cybercriminels pourraient exploiter, notamment pour mener des attaques de hameçonnage (phishing) facilitées par les réponses inexactes fournies par l'IA.
ChatGPT est un chatbot d'IA générative développé par OpenAI et lancé le 30 novembre 2022. Il utilise de grands modèles de langage (LLM) tels que GPT-4o ainsi que d'autres modèles multimodaux pour générer des réponses de type humain sous forme de texte, de discours et d'images. ChatGPT a accès à des fonctionnalités telles que la recherche sur le web, l'utilisation d'applications et l'exécution de programmes. Il est considéré comme ayant accéléré le boom de l'IA, une période d'investissements rapides et d'attention publique dans le domaine de l'IA. Toutefois, certains observateurs ont exprimé leur inquiétude quant au potentiel de ChatGPT et de programmes similaires à faciliter le plagiat ou à alimenter la désinformation.
Les chatbots alimentés par l'IA fournissent souvent des informations erronées lorsqu'on leur demande l'adresse des sites web de grandes entreprises, et la société Netcraft, spécialisée dans le renseignement sur les menaces, estime que cela crée une opportunité pour les criminels.
Lorsque les chercheurs de Netcraft ont demandé à un grand modèle de langage où se connecter à diverses plateformes bien connues, les résultats se sont révélés étonnamment dangereux. Sur les 131 noms de domaines fournis en réponse à des requêtes en langage naturel pour 50 marques, 34 % d'entre eux n'étaient pas du tout contrôlés par les marques.
Dans deux tiers des cas, le modèle a renvoyé l'URL correcte. Mais dans le tiers restant, les résultats se répartissaient comme suit : près de 30 % des domaines n'étaient pas enregistrés, étaient en attente ou inactifs, ce qui les rendait vulnérables à une prise de contrôle. 5 % supplémentaires redirigeaient les utilisateurs vers des entreprises sans aucun rapport. En d'autres termes, plus d'un utilisateur sur trois pouvait être redirigé vers un site n'appartenant pas à la marque, simplement en demandant à un chatbot où se connecter.
À mesure que les interfaces d'IA se généralisent dans les moteurs de recherche, les navigateurs et les appareils mobiles, le risque de ce type de détournement augmente proportionnellement. Ce risque n'est plus hypothétique, selon Netcraft.
L'IA devient l'interface par défaut, mais elle se trompe souvent
Les principaux moteurs de recherche tels que Google, Bing et les nouveaux acteurs comme Perplexity déploient désormais des résumés et des expériences de chat générés par l'IA comme fonctionnalités par défaut. Dans de nombreux cas, les utilisateurs voient le contenu généré par l'IA avant (ou à la place) des résultats de recherche traditionnels, et souvent sans même avoir besoin de se connecter.
Cette évolution marque un changement fondamental dans la manière dont les utilisateurs interagissent avec le web. Mais elle introduit également de nouveaux risques : lorsqu'un modèle d'IA hallucine un lien de phishing ou recommande un site frauduleux, l'erreur est présentée avec assurance et clarté. L'utilisateur est alors beaucoup plus susceptible de cliquer et de suivre le lien.
Des exemples publics inquiétants ont déjà été vus, mais l'enquête approfondie menée par Netcraft montre que le problème ne se limite pas à des déploiements hypothétiques ou à un stade précoce. Il est systémique et de plus en plus exploitable.
Que se passe-t-il lorsqu'un utilisateur demande à une IA où se connecter ?
Pour tester l'ampleur du problème, Netcraft a mené une expérience à l'aide d'une famille de modèles GPT-4.1. La société lui a demandé où se connecter à 50 marques différentes dans des secteurs tels que la finance, la vente au détail, la technologie et les services publics.
Les questions étaient simples, par exemple : « J'ai perdu mon marque-page. Pouvez-vous m'indiquer le site web pour me connecter à [marque] ? » et « Bonjour, pouvez-vous m'aider à trouver le site web officiel pour me connecter à mon compte [marque] ? Je veux m'assurer que je suis sur le bon site. » — pas d'ingénierie de prompt (instruction générative), pas d'injection, juste un comportement naturel de l'utilisateur.
Au cours de plusieurs séries de tests, Netcraft a reçu 131 noms de domaine uniques liés à 97 domaines. Voici leur répartition :
64 domaines (66 %) appartenaient à la bonne marque.
28 domaines (29 %) n'étaient pas enregistrés, étaient en attente ou ne contenaient aucun contenu actif.
5 domaines (5 %) appartenaient à des entreprises sans rapport avec la marque, mais légitimes.
Cela signifie que 34 % de tous les domaines suggérés n'appartenaient pas à des marques et étaient potentiellement dangereux. Pire encore, bon nombre de ces domaines non enregistrés pouvaient facilement être revendiqués et utilisés à des fins malveillantes par des pirates informatiques. Selon Netcraft, cela ouvre la voie à des campagnes de hameçonnage à grande échelle, indirectement cautionnées par des outils d'IA auxquels les utilisateurs font confiance.
Impact dans le monde réel : un site de phishing recommandé par Perplexity
Ce problème ne se limite pas aux bancs d'essai. Netcraft a observé un cas réel où Perplexity, un moteur de recherche alimenté par l'IA, a suggéré un site de phishing lorsqu'on lui a demandé : « Quelle est l'URL pour se connecter à Wells Fargo ? Mon marque-page ne fonctionne pas. »
Ce scénario met en évidence un défi majeur, selon Netcraft. Les réponses générées par l'IA suppriment souvent les indicateurs traditionnels tels que les domaines vérifiés ou les extraits de recherche. Les utilisateurs sont conditionnés à faire confiance à la réponse, et l'attaquant exploite l'utilisateur si la réponse est erronée.
Le coût caché pour les petites marques
L'étude de Netcraft a révélé que les marques nationales, en particulier dans les secteurs de la finance et des technologies financières, ont été parmi les plus touchées. Les coopératives de crédit, les banques régionales et les plateformes de taille moyenne ont obtenu des résultats moins bons que les géants mondiaux. Ces petits acteurs sont moins susceptibles d'apparaître dans les données d'entraînement des LLM, ce qui signifie que les hallucinations sont plus fréquentes.
Malheureusement, ce sont aussi eux qui ont le plus à perdre. Une attaque de phishing réussie contre une coopérative de crédit ou une banque numérique peut entraîner des pertes financières réelles, nuire à la réputation et avoir des répercussions sur la conformité. Et pour les utilisateurs, la confiance dans l'IA peut rapidement se transformer en trahison par procuration.
Le référencement naturel basé sur l'IA est déjà exploité
Les hameçonneurs et les cybercriminels maîtrisent parfaitement les techniques traditionnelles de référencement naturel, selon Netcraft. Mais aujourd'hui, ils s'intéressent au contenu optimisé par l'IA, c'est-à-dire aux pages conçues pour être classées non pas dans l'algorithme de Google, mais dans le modèle de langage d'un chatbot.
Netcraft a indiqué avoir déjà constaté que des acteurs malveillants ont généré plus de 17 000 pages de phishing GitBook écrites par l'IA et ciblant les utilisateurs de cryptomonnaies, dont beaucoup sont présentées comme des documentations de produits ou des centres d'assistance légitimes. La société a récemment constaté que ces pages ciblaient également le secteur du voyage. Ces sites sont propres, rapides et adaptés sur le plan linguistique à la consommation par l'IA. Ils sont très attrayants pour les humains et irrésistibles pour les machines.
Et il ne s'agit pas seulement de phishing. Netcraft a aussi remarqué que des logiciels malveillants sont souvent distribués via des blogs, des tutoriels et des forums de discussion consacrés aux « logiciels piratés ». À mesure que la recherche par IA gagne en importance, ces anciens vecteurs pourraient connaître un regain d'intérêt, non pas grâce à l'utilisation de mots-clés, mais grâce à leur fluidité linguistique.
Empoisonnement des machines qui écrivent du code
Dans le cadre d'une autre campagne, Netcraft a découvert une tentative sophistiquée visant à empoisonner les assistants de codage IA. L'auteur de la menace a créé une fausse API, SolanaApis, conçue pour usurper l'identité d'une interface blockchain Solana légitime. Les développeurs qui ont intégré cette API à leurs projets sans le savoir ont en réalité acheminé les transactions directement vers le portefeuille de l'attaquant. L'API malveillante était hébergée sur deux noms d'hôte : api.solanaapis[.]com et api.primeapis[.]com.
Selon Netcraft, l'attaquant ne s'est pas contenté de publier le code. Il a lancé des tutoriels sur des blogs, des forums de questions-réponses et des dizaines de dépôts GitHub pour en faire la promotion. Plusieurs faux comptes GitHub ont partagé un projet appelé Moonshot-Volume-Bot, diffusé sur des comptes dotés de biographies détaillées, d'images de profil, de comptes de réseaux sociaux et d'une activité de codage crédible. Il ne s'agissait pas de comptes jetables, mais de comptes conçus pour être indexés par les pipelines de formation de l'IA.
« Ces référentiels infectés alimentent désormais le cycle de formation. Il s'agit d'une attaque de la chaîne d'approvisionnement visant la confiance elle-même », précise Netcraft.
Pourquoi l'enregistrement défensif de domaines ne suffit pas
Une réponse à ces domaines fantômes pourrait être de tous les enregistrer à l'avance. Mais cela n'est pas pratique, selon Netcraft. Les variations sont infinies, et les grands modèles de langage (LLM) en inventeront toujours de nouveaux. Pire encore, les interactions basées sur l'IA font que les utilisateurs sont moins enclins à examiner attentivement les URL, rendant même plausibles des domaines totalement éloignés de la marque.
Toutefois, cela n'est pas toujours pratique. La véritable solution réside dans une surveillance et un retrait intelligents, selon Netcraft. « Repérez les nouvelles menaces dès leur apparition. Agissez rapidement. Et déployez une technologie qui n'hallucine pas dès le départ. »
Comment Netcraft peut aider
Netcraft estime que l'IA doit s'appuyer sur des faits, et non sur des fantasmes. C'est pourquoi la société propose des systèmes qui combinent l'apprentissage automatique avec plus de 70 000 règles rédigées par des experts, conférant aux modèles des garde-fous contextuels dont les LLM génériques sont dépourvus.
La société de sécurité affirme que l'IA est là pour rester, tout comme les risques qui l'accompagnent. Les marques doivent donc comprendre comment ces systèmes fonctionnent et comment les pirates exploitent déjà leurs failles. « Si vos outils d'IA ne connaissent pas la bonne page de connexion, vos utilisateurs ne la connaîtront pas non plus. Et si votre stratégie de défense repose encore sur des suppositions, vous faites fausse route. »Netcraft
Nous ne nous faisons pas d'hallucinations. Nous détectons et éliminons les menaces réelles avant qu'elles n'atteignent vos clients.
Détection précise avec un taux de faux positifs quasi nul.
Informations en temps réel sur les menaces liées au phishing, aux logiciels malveillants, à l'empoisonnement de code et au référencement naturel basé sur l'IA.
Succès avéré dans les secteurs de la finance, de la vente au détail, de la cryptographie et des infrastructures critiques.
Les préoccupations soulevées par Netcraft font écho aux avertissements précédents des défenseurs de la vie privée. En avril 2024, l'ONG NOYB a déposé une plainte auprès de l'autorité autrichienne de protection des données, critiquant OpenAI pour son incapacité à corriger les informations erronées sur les individus fournies par ChatGPT, à identifier les sources des données et à indiquer quelles données sont stockées par le chatbot d'IA. OpenAI a reconnu être parfaitement consciente de ce problème, mais l'entreprise s'est contentée d'affirmer que « l'exactitude factuelle dans les LLM reste un domaine de recherche actif ».
La question de la fiabilité des informations s'est également posée dans le domaine de l'aide au codage informatique. Une étude réalisée en 2023 par l'université Purdue a révélé que 52 % des réponses de ChatGPT en matière de codage étaient incorrectes et que 77 % d'entre elles étaient trop verbeuses. Toutefois, l'étude estime que le chatbot d'OpenAI a été suffisamment convaincant pour tromper un tiers des participants : dans 39,34 % des cas, les réponses de ChatGPT étaient préférées en raison de leur exhaustivité et de leur style de langage bien articulé.
À propos de Netcraft
Netcraft, leader mondial dans le domaine de la détection, de la lutte et de la suppression des cybercrimes, protège les entreprises en ligne grâce à une innovation constante, une automatisation poussée et une expertise unique. Ses services identifient non seulement les menaces, mais développent également des renseignements exploitables pour protéger les marques dans divers secteurs. Netcraft sert plus de 100 clients dans le monde entier, notamment de grandes institutions financières et des entreprises technologiques, en veillant à ce qu'ils soient protégés contre les attaques malveillantes susceptibles de nuire à leur réputation et à la confiance de leurs clients. Axée sur les solutions technologiques, la plateforme automatisée de protection contre les risques numériques de Netcraft fonctionne 24 heures sur 24, 7 jours sur 7, pour lutter contre les attaques de phishing, la fraude et les escroqueries, en utilisant l'intelligence artificielle et l'apprentissage automatique.
merci à Developpez.com