
Le Conseil de l’Union européenne débat à nouveau du projet Chat Control, une législation visant à scanner communications et images pour lutter contre les abus sexuels sur mineurs. Présentée comme un compromis, la dernière mouture danoise conserve toutefois le principe du scannage côté client et la possibilité d’étendre la surveillance aux messages texte et audio. Des chercheurs comme Bart Preneel (KU Leuven) dénoncent une atteinte grave au chiffrement de bout en bout et aux droits fondamentaux. Après quatre lettres ouvertes et plusieurs tentatives de compromis, le projet reste contesté. Le vote du 15 octobre déterminera si l’UE choisit la protection de la vie privée ou la surveillance préventive.Contexte
Première proposition Chat Control : 2021
Lettres ouvertes successives : 2021, mai 2024, automne 2024, septembre 2025
Présidences impliquées : Belgique, Hongrie, Danemark
Principale cible : WhatsApp, Signal, Messenger, autres applis chiffrées
Vote attendu au Conseil de l’UE : 15 octobre 2025
Soutiens : France, Autriche, 13 autres pays
Oppositions : Pays-Bas, Pologne, Belgique indécise
Version allégée adoptée par le Parlement : octobre 2023
Un retour contesté malgré les compromis
Chat Control est revenu dans le débat européen en 2024 après un bref recul. La proposition entend contraindre les applications de messagerie à activer un scannage sur l’appareil de l’expéditeur, afin de bloquer l’envoi de contenus connus comme CSAM (Child Sexual Abuse Material). Mais cela signifie aussi l’analyse systématique d’images privées, y compris de photos familiales anodines.
Sous présidence belge, puis hongroise, plusieurs compromis ont circulé. Chaque fois, chercheurs et scientifiques ont réagi par une lettre ouverte. En 2021, plus de 150 signataires avaient exprimé leurs inquiétudes. En mai 2024, une deuxième lettre regroupait 250 experts. À l’automne 2024, une nouvelle version prétendait atténuer le projet. Mais Preneel dénonce des « mesures fictives » qui laissent intacte la logique de surveillance.
Pour lui, le chiffrement de bout en bout, comparable à une enveloppe fermée, perd tout sens si un algorithme inspecte le message avant envoi. « C’est comme si une entreprise postale installait une caméra chez vous pour vérifier ce que vous mettez dans l’enveloppe », résume-t-il dans les colonnes du journal Belge, LeVif.
Des failles technologiques et juridiques
La dernière proposition danoise de juillet 2025 exclut provisoirement les messages texte et audio du périmètre, pour se concentrer sur les images et les URL. Mais le texte prévoit que ces formats pourront être ajoutés ultérieurement. Pour les chercheurs, il s’agit d’une manœuvre destinée à réduire les critiques, sans changer le fond.
Autre innovation : la catégorie « services à haut risque », soumise à des obligations de détection. Elle inclut toutefois les principales applications de messagerie chiffrée utilisées par des centaines de millions d’Européens. Le dispositif ne cible donc pas des services marginaux, mais les canaux de communication quotidiens.
Le recours à l’intelligence artificielle pour détecter de nouvelles images suscite aussi de fortes critiques. Déjà abandonné dans un compromis en 2024, ce mécanisme refait surface. Pour Preneel, il est technologiquement incertain et risque de générer une masse de faux positifs, transformant des photos médicales ou familiales en preuves suspectes. Les forces de l’ordre seraient submergées, tandis que des milliers d’utilisateurs innocents se retrouveraient signalés.
Enfin, l’obligation de vérification de l’âge est pointée comme un facteur de complexité et de vulnérabilité. Elle compromettrait l’anonymat et ouvrirait la voie à la censure. Les contournements via VPN ou comptes tiers la rendraient inefficace, tout en fragilisant les systèmes.
Un risque démocratique
Au-delà des aspects techniques, Preneel alerte sur une pente glissante. Chat Control débute avec la lutte contre les abus sexuels, mais une fois la technologie en place, rien n’empêchera son extension à d’autres usages. « Aujourd’hui, c’est le CSAM. Demain, ce sera le terrorisme. Après-demain, les dissidents politiques », avertit-il.
Il rappelle qu’Apple avait tenté en 2021 d’introduire un dispositif similaire de scannage côté client avant d’y renoncer, jugeant la mise en œuvre trop complexe et risquée. « Si cette intention est maintenue, la législation manquera son objectif », conclut-il.
Pour les signataires des lettres ouvertes, la véritable réponse se trouve ailleurs : éducation, prévention, soutien aux victimes, et moyens renforcés pour les centres spécialisés. Le scannage généralisé, selon eux, n’arrêtera pas les abus à la source.
Malgré trois ans de négociations, le projet conserve le scannage côté client qui rend le chiffrement inopérant. La question centrale demeure : l’Europe peut-elle concilier protection des mineurs et préservation d’un chiffrement inviolable, sans basculer vers une surveillance généralisée ?
merci à ZATAZ