
Depuis plusieurs mois, des milliers de pseudo-sites d’actualité automatisés s’imposent dans les résultats de recherche Google. Ces plateformes, dont les contenus sont rédigés sans intervention humaine, trompent les internautes en se présentant comme des sources journalistiques crédibles. Elles alimentent la désinformation à l’échelle mondiale, tout en générant des revenus publicitaires considérables pour leurs créateurs, au détriment des médias traditionnels et de l’intégrité de l’information en ligne.
Une multiplication inquiétante et difficilement traçable
Le phénomène a pris une ampleur difficilement mesurable comme je l’ai expliqué dans le journal de RTL [09/06/2025], mais certains chiffres offrent un aperçu de la gravité de la situation. Le 5 mai 2025, le site spécialisé NewsGuard publiait une étude documentant l’existence de 1 271 sites d’actualité générés par IA dans au moins 16 langues, dont le français. Ces plateformes portent des noms anodins, comme iBusiness Day, Daily Time, viral news ou encore Top News, qui leur confèrent une apparence légitime. Pourtant, derrière ces façades se cachent des systèmes automatisés, dépourvus de toute supervision éditoriale humaine.

Un site généré par l’IA – Capture écran : zataz.com Ces « news farms » publient chaque jour des dizaines, parfois des centaines d’articles sur des thématiques variées allant de la politique au divertissement, souvent recyclés, traduits ou entièrement fictifs. Des contenus erronés circulent en masse : faux décès de célébrités, événements inventés ou encore vieilles informations présentées comme récentes.
L’imagerie générée par IA ajoute à cette mécanique. Des illustrations incohérentes accompagnent souvent les articles, comme une image de la finale de Roland-Garros 2025 représentant un court de tennis bordé de maisons haussmanniennes, une scène qui n’existe pas. Autre signe distinctif : des titres formatés avec des majuscules à chaque mot, trahissant une absence de correction éditoriale. ZATAZ vous affiche ce genre de « faux » dans les captures écrans, ci-dessous.
Le tout est ensuite relayé via les moteurs de recherche ou les réseaux sociaux, où ces pages sont souvent promues au même titre que celles des médias reconnus.
.En mai 2025, NewsGuard a identifié 1 271 sites d’information automatisés fonctionnant sans supervision humaine, dans 16 langues différentes
L’impact de ces faux sites dépasse la simple nuisance informationnelle. Leur structure optimise les recettes publicitaires via des réseaux de publicité programmatique. Ces systèmes automatisés placent des annonces sans égard pour la fiabilité du site, exposant parfois des marques de premier plan sur des pages diffusant des informations mensongères. Résultat, des créateurs peuvent générer jusqu’à 100 000 dollars (environ 93 000 euros) dès lors que leur plateforme atteint les 10 millions de visiteurs, selon une simulation interne réalisée par Google.

Un site généré par l’IA – Capture écran : zataz.com L’effet amplificateur des algorithmes de Google
L’un des éléments les plus troublants reste l’implication indirecte des moteurs de recherche. Les algorithmes de Google, optimisés pour la fraîcheur et la fréquence de publication, privilégient souvent les contenus générés en masse. Les sites automatisés exploitent cette logique en produisant un flux constant d’articles, boostant ainsi leur référencement. Cette stratégie permet à ces plateformes de se hisser en haut des résultats, éclipsant les sources fiables et mettant à mal l’écosystème des médias traditionnels.
Une enquête menée en février 2025 par Next et Libération recensait déjà plus de 1 000 sites francophones prétendant être l’œuvre de journalistes ou d’experts, alors qu’ils sont en réalité pilotés par des IA. Aucun avertissement ne signale cette automatisation. Le résultat est une confusion grandissante chez les lecteurs, qui ne distinguent plus aisément les contenus authentiques des productions artificielles. Cinq mois plus tard, c’est 4 000 faux sites à avoir été référencés.
Pour les spécialistes de l’information, cette situation constitue une double menace : d’un côté, elle mine la confiance du public envers les médias, et de l’autre, elle fragilise économiquement les rédactions traditionnelles qui investissent dans le travail d’enquête, la vérification des sources et la responsabilité éditoriale.

Publicité dirigeant vers un site généré par l’IA – Capture écran : zataz.com
Une désinformation globale, parfois orchestréeFaux sites pour la publicité trompeuse
Derrière l’apparence de médias crédibles, de nombreux sites générés par intelligence artificielle servent en réalité à diffuser des contenus publicitaires douteux. Certains font la promotion de produits amaigrissants inexistants ou redirigent vers des plateformes de jeux d’argent illégales. D’autres usurpent l’identité de grands titres de presse pour vanter des offres de trading prétendument miracles. Le contenu, entièrement automatisé, sert à appâter l’internaute avec des fausses promesses de richesse rapide ou d’informations exclusives. En vérité, ces sites n’ont qu’un seul objectif : générer du trafic pour rentabiliser des campagnes publicitaires mensongères, quand ce n'est pas pour tout simplement vous voler des informations personnelles ou vous arnaquer !
Les enjeux ne sont pas seulement économiques. La facilité avec laquelle ces systèmes propagent de fausses informations ouvre la voie à des manipulations d’envergure. NewsGuard cite par exemple un réseau de 167 sites liés à la Russie, déguisés en médias locaux, publiant des articles mensongers sur la guerre en Ukraine. Ces plateformes utilisent l’intelligence artificielle pour générer des textes trompeurs à grande échelle, parfois en coordination avec des campagnes de désinformation étatiques.
Dans un autre cas, NewsGuard a identifié un site affilié au gouvernement chinois diffusant un article affirmant que les États-Unis exploiteraient un laboratoire d’armes biologiques au Kazakhstan, censé infecter les chameaux pour nuire à la population chinoise. Le contenu avait été entièrement rédigé par IA, mais présenté comme une information vérifiée.
Des réseaux entiers de désinformation utilisent des sites automatisés pour diffuser des récits fictifs, souvent liés à des intérêts géopolitiques.

Un site généré par l’IA – Capture écran : zataz.com Une réponse encore embryonnaire
Malgré l’ampleur du problème, les mesures pour enrayer cette propagation restent timides. Du côté des grandes plateformes, peu d’actions concrètes ont été prises pour identifier ou déclasser systématiquement ces faux sites. Les mécanismes de vérification de qualité se heurtent à la sophistication des outils d’IA, capables de produire des contenus au style fluide et difficile à différencier de ceux créés par des humains.
Certaines marques, alertées par NewsGuard, ont commencé à exclure les sites non fiables de leurs campagnes publicitaires, mais ces initiatives restent marginales. En l’absence d’une régulation claire ou de standards imposés, le modèle économique des sites générés par IA continue de prospérer. À cela s’ajoute un vide juridique : peu de pays disposent de lois précises encadrant l’utilisation de l’IA dans la production de contenus journalistiques ou la transparence sur leur origine.
Comme l’explique Le Parisien, les observateurs appellent à une mobilisation urgente des acteurs de la tech, des pouvoirs publics et des médias pour créer des mécanismes de labellisation, renforcer la modération algorithmique et instaurer une transparence obligatoire sur l’origine des textes. Sans intervention, le risque est de voir l’environnement numérique saturé de contenus mensongers ou trompeurs, amplifiés à une échelle industrielle. Le site Viral Mag, par exemple, voit certains de ces journalistes (ils n’existent pas) produire plusieurs dizaines d’articles par jour !
Une crise de l’information à l’ère algorithmique
La montée en puissance de ces faux médias n’est pas simplement un épiphénomène du numérique. Elle traduit une bascule plus profonde dans notre rapport à l’information. À mesure que les outils d’intelligence artificielle deviennent plus accessibles, la production de contenus perd son ancrage dans la réalité et dans le travail journalistique rigoureux. Le contenu devient un produit de consommation algorithmique, dont la vérité n’est plus la finalité.
En exploitant les failles du système, les créateurs de ces sites automatisés transforment la désinformation en modèle d’affaires rentable, en se fondant dans un écosystème qui ne distingue plus clairement le vrai du faux. Ce phénomène souligne l’urgence de repenser la gouvernance de l’information à l’heure des IA génératives, et d’inventer de nouveaux garde-fous capables de préserver la fiabilité du discours public.
Des solutions existent, comme celle proposée par Oren Etzioni, expert en intelligence artificielle. Fondé en janvier 2024 l’organisation à but non lucratif TrueMedia tente de répondre aux inquiétudes sur l’impact de l’IA lors des élections. Composée de chercheurs, d’ingénieurs et de spécialistes en sciences sociales, TrueMedia développe des outils relevant de la « sociotechnologie » : résoudre des problèmes sociétaux.
De son côté, la plateforme française Vera de LaReponse.tech se distingue par sa connexion en temps réel à plus de 300 sites de fact-checking. Maintenant, il faut que les internautes veuillent se servir de ces outils pour combattre la désinformation. Et ça, c’est une autre histoire !
merci à ZATAZ