Meta continue de violer les règles du RGPD...

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 9282
Enregistré le : ven. 26 juil. 2013 06:56
A remercié : 117 fois
A été remercié : 643 fois
    Windows 10 Firefox

Meta continue de violer les règles du RGPD...

Message par chtimi054 »

Meta continue de violer les règles du RGPD avec son dernier plan pour former l'IA en utilisant vos données personnelles privées d'Instagram et de Facebook sans votre consentement
Selon Noyb

Meta continue de violer les règles du RGPD avec son dernier plan pour former l'IA en utilisant vos données personnelles privées d'Instagram et de Facebook pour former ses nouveaux systèmes d'IA sans votre consentement, selon Noyb. Ce n'est pas la première fois que Noyb conteste le projet de Meta d'entraîner son IA à partir des messages et commentaires publics des utilisateurs de l'UE. Dans l'affaire réglée en juin 2024, Meta a accepté d'interrompre la formation de l'IA dans l'UE/EEE.

En juin 2024, un rapport a révélé que Meta prévoyait d'utiliser des données personnelles pour entraîner ses modèles d'IA sans demander de consentement. Le groupe de défense Noyb a demandé à 11 autorités de protection des données dans l'Europe de mettre immédiatement un terme à l'utilisation abusive des données personnelles par Meta à des fins d'intelligence artificielle.

Récemment, le groupe de défense Noyb a déclaré que Meta continue de violer les règles du RGPD avec son dernier projet d'entraînement de l'IA à partir de données d'utilisateurs de l'UE. Selon Noyb, l' "intérêt légitime" évoqué par Meta ne tient pas la route, alors que l'entreprise de Mark Zuckerberg prétend que les activistes veulent "retarder l'innovation en matière d'IA".

Max Schrems de Noyb a envoyé une lettre de cessation et d'abstention à Meta le 14 mai 2025. La lettre de Noyb indique à la société mère de Facebook que, s'il choisit de ne pas discuter de la question ou d'accepter que les données des utilisateurs pour l'entraînement des données d'IA fassent l'objet d'un consentement explicite, par opposition à l'approche opt-out que Meta poursuit actuellement, le groupe de défense sont prêts à déposer une injonction, ou même à porter l'affaire devant les tribunaux dans le cadre d'une action collective.
Ce n'est pas la première fois que Noyb conteste le projet de Meta d'entraîner son IA à partir des messages et commentaires publics des utilisateurs de l'UE. Dans l'affaire réglée en juin 2024, Meta a accepté d'interrompre la formation de l'IA dans l'UE/EEE à la suite de 11 plaintes déposées par noyb auprès de la Commission irlandaise de protection des données (DPC).

Le Conseil européen de la protection des données (EDPB) a déclaré en décembre, dans un avis demandé par la DPC, qu'il existait des moyens appropriés pour former l'IA aux données des médias sociaux des citoyens de l'UE/EEE. Cependant, la lettre récente envoyée par noyb à Meta indique clairement qu'elle ne croit pas que la dernière tentative de l'entreprise de réintroduire la collecte de formation soit conforme au règlement général sur la protection des données (RGPD) de l'UE.

Pour rappel, en février 2024, le Bureau européen des unions de consommateurs (BEUC), qui regroupe 45 associations de consommateurs, a indiqué que huit d'entre elles déposaient également des plaintes auprès de leurs autorités nationales respectives chargées de la protection des données. Les groupes affirment que Meta recueille une quantité inutile d'informations sur ses utilisateurs - telles que des données utilisées pour déduire leur orientation sexuelle, leur état émotionnel ou même leur susceptibilité à la dépendance - auxquelles ils ne sont pas en mesure de consentir librement.

Voici les informations partagées par Noyb concernant la situation :

Noyb envoie à Meta une lettre de cessation et d'abstention concernant la formation à l'IA. Un recours collectif européen comme prochaine étape potentielle

Meta a annoncé qu'elle utiliserait les données personnelles européennes des utilisateurs d'Instagram et de Facebook pour former ses nouveaux systèmes d'IA à partir du 27 mai. Au lieu de demander le consentement des consommateurs, Meta s'appuie sur un prétendu "intérêt légitime" pour aspirer toutes les données des utilisateurs.

La nouvelle directive européenne sur les recours collectifs permet aux entités qualifiées telles que noyb d'émettre des injonctions à l'échelle de l'UE. Dans un premier temps, noyb a envoyé à Meta une proposition de règlement formelle sous la forme d'une lettre de cessation et d'abstention. D'autres groupes de consommateurs prennent également des mesures.

Si des injonctions sont déposées et remportées, Meta pourrait également être tenu responsable des dommages subis par les consommateurs, ce qui pourrait faire l'objet d'une action collective distincte à l'échelle de l'UE. Les dommages et intérêts pourraient s'élever à plusieurs milliards. En résumé, Meta pourrait être confrontée à des risques juridiques considérables, simplement parce qu'elle s'appuie sur un système d' "opt-out" au lieu d'un système d' "opt-in" pour la formation à l'IA.
Image L'IA de Meta n'est pas conforme au RGPD

Pour utiliser des données à caractère personnel, les entreprises doivent se conformer à l'une des six bases juridiques prévues à l'article 6, paragraphe 1, du RGPD. L'une d'entre elles est le consentement explicite, ce qui signifie que les utilisateurs peuvent choisir de donner un "oui" librement consenti, spécifique, éclairé et univoque au traitement de leurs données - ou de dire non ou même de garder le silence. Toutefois, les entreprises peuvent également invoquer un "intérêt légitime" pour traiter des données à caractère personnel. Un voleur, par exemple, ne consentira pas à être filmé par une caméra de vidéosurveillance, mais une banque peut néanmoins avoir un "intérêt légitime" à disposer de caméras de vidéosurveillance.

Au lieu de permettre aux utilisateurs de choisir entre "Oui" et "Non", Meta prétend qu'elle a un tel "intérêt légitime" à prendre leurs données pour l'entraînement à l'IA. Cela ne laisse aux utilisateurs que le droit de s'opposer (opt-out) en vertu de l'article 21 du RGPD. Mais Meta limite même ce droit (statutaire) en disant qu'il ne s'applique que si les personnes s'y opposent avant que la formation n'ait commencé.

Meta ne sera probablement pas en mesure de respecter d'autres droits prévus par le RGPD (comme le droit à l'oubli, le droit à la rectification des données incorrectes ou l'accès des utilisateurs à leurs données dans un système d'IA). En outre, Meta fournit des modèles d'IA (tels que Llama) sous forme de logiciels open-source que tout le monde peut télécharger et utiliser. Cela signifie que Meta peut difficilement rappeler ou mettre à jour un modèle une fois qu'il est publié.
Max Schrems
La Cour de justice des Communautés européennes a déjà estimé que Meta ne pouvait se prévaloir d'un "intérêt légitime" pour cibler les utilisateurs avec de la publicité. Comment pourrait-elle avoir un "intérêt légitime" à aspirer toutes les données pour l'entraînement de l'IA ? Bien que l'évaluation de l' "intérêt légitime" soit toujours un test à plusieurs facteurs, tous les facteurs semblent pointer dans la mauvaise direction pour Meta. Meta dit simplement que son intérêt à gagner de l'argent est plus important que les droits de ses utilisateurs.
La solution est simple : Demander le consentement des utilisateurs !

Alors que Meta tente de faire croire que le respect du RGPD rendrait impossible la formation à l'IA dans l'UE, la solution juridique dans le cadre du RGPD est simple : Meta n'aurait qu'à demander à ses utilisateurs de consentir à l'utilisation de leurs données personnelles pour la formation à l'IA (au lieu de s'y opposer). Étant donné que Meta compte un grand nombre d'utilisateurs, le fait que 10 % ou plus d'entre eux acceptent une telle formation serait déjà clairement suffisant pour apprendre les langues de l'UE et d'autres langues similaires. Si Meta était clair sur les conditions de la formation (par exemple l'anonymisation, etc.), il est probable que les utilisateurs fourniraient leurs données.

Il est toutefois totalement absurde d'affirmer que Meta a besoin des données personnelles de toutes les personnes qui ont utilisé Facebook ou Instagram au cours des 20 dernières années pour former l'IA. La plupart des autres fournisseurs d'IA (comme OpenAI ou le français Mistral) n'ont aucun accès aux données des médias sociaux et surpassent toujours les systèmes d'IA de Meta.
Max Schrems
Ce combat porte essentiellement sur la question de savoir s'il faut demander le consentement des gens ou simplement prendre leurs données sans leur consentement. Meta entame un combat énorme juste pour avoir un système d'opt-out au lieu d'un système d'opt-in. Au lieu de cela, ils s'appuient sur un prétendu "intérêt légitime" pour prendre les données et s'en servir. Ce n'est ni légal ni nécessaire. Les affirmations absurdes de Meta selon lesquelles le vol des données personnelles de chacun est nécessaire à l'entraînement de l'IA sont risibles. D'autres fournisseurs d'IA n'utilisent pas les données des réseaux sociaux et génèrent des modèles encore meilleurs que ceux de Meta.
Recours en injonction et actions collectives potentielles

En tant qu'entité qualifiée au titre de la nouvelle directive européenne sur les recours collectifs, noyb peut demander une injonction pour mettre fin à une pratique illégale d'une entreprise comme Meta. Ces actions peuvent être intentées dans différentes juridictions, et pas seulement au siège de Meta en Irlande. Si une injonction est accordée par le tribunal compétent, Meta devra non seulement cesser le traitement, mais aussi supprimer tout système d'IA formé illégalement. Si des données européennes sont "mélangées" à des données non européennes, l'ensemble du modèle d'IA devra être supprimé.

Toute injonction arrêterait également le délai pendant lequel les personnes peuvent intenter une action en dommages et intérêts ("délai de prescription"). Cela signifie que chaque jour où Meta continue d'utiliser des données européennes pour l'entraînement de l'IA, elle augmente les demandes potentielles de dommages et intérêts de la part des utilisateurs. Le RGPD autorise des dommages et intérêts non matériels qui se chiffrent généralement en centaines ou en milliers par utilisateur.

Outre une simple injonction, toute entité qualifiée peut également intenter une action en réparation (similaire à une action collective américaine) afin de récupérer ces dommages pour de grands groupes d'utilisateurs. noyb ou toute autre entité qualifiée de l'UE aurait des années pour intenter une telle action si Meta ne change pas de cap. Si le préjudice moral n'était que de 500 euros par utilisateur, il s'élèverait à environ 200 milliards d'euros pour les quelque 400 millions d'utilisateurs mensuels actifs de Meta en Europe.
Max Schrems
Nous évaluons actuellement nos possibilités de déposer des injonctions, mais nous avons également la possibilité d'engager une action collective pour des dommages immatériels. Si vous pensez aux plus de 400 millions d'utilisateurs européens de Meta qui pourraient tous demander des dommages et intérêts d'environ 500 euros, vous pouvez faire le calcul. Nous sommes très surpris que Meta prenne ce risque simplement pour éviter de demander le consentement des utilisateurs.
Injonctions dans d'autres juridictions de l'UE

Alors que la réaction à la violation flagrante du RGPD par Meta se développe rapidement, noyb comprend que divers groupes dans l'UE examinent les options de litige. Les organisations de consommateurs allemandes (dirigées par la Verbraucherzentrale in North-Rhine-Westphalia, « VZ NRW ») ont déjà rendu publique leur intention d'intenter une action. On peut également s'attendre à ce que de nombreux particuliers intentent une action contre Meta pour l'utilisation de leurs données à des fins d'entraînement à l'IA.
Max Schrems
Nous nous attendons à ce que l'utilisation des données des médias sociaux pour l'apprentissage de l'IA déclenche de nombreux litiges dans l'ensemble de l'UE. Le simple fait de gérer ces litiges constituera une tâche énorme pour Meta.

Les autorités de protection des données ne semblent pas approuver

Les autorités nationales de protection des données (DPA) devraient - théoriquement - prendre des mesures coercitives en cas de non-respect du RGPD. Cependant, dans un climat où l'UE fait pression pour moins de réglementation et plus d' "innovation" à tout prix, on observe maintenant que les autorités de protection des données dans certains pays de l'UE fonctionnent en grande partie comme un messager pour Meta : De nombreuses autorités de protection des données viennent d' "informer" les gens qu'ils devraient de toute urgence se retirer de la formation à l'IA de Meta. Cela revient à faire porter la responsabilité aux utilisateurs plutôt qu'à Meta.

Meta affirme aussi publiquement s'être "engagée" avec les régulateurs de l'UE sur l'utilisation des données des médias sociaux pour l'entraînement à l'IA. Cependant, d'après les informations dont dispose noyb, les autorités de protection des données sont restées largement silencieuses sur la légalité de l'entraînement à l'IA sans consentement. Il semble donc que Meta soit allée de l'avant malgré tout, en prenant un autre risque juridique énorme dans l'UE et en foulant aux pieds les droits des utilisateurs.
Max Schrems
D'après ce que nous avons entendu, Meta s'est "engagé" auprès des autorités, mais cela n'a abouti à aucun "feu vert". Il semble que Meta aille tout simplement de l'avant et ignore les autorités européennes chargées de la protection des données. Les autorités, quant à elles, semblent rester silencieuses et disent aux utilisateurs de se protéger. Nous constatons que les autorités chargées de la protection des données perdent de plus en plus de leur pertinence et que les ONG doivent agir devant les tribunaux.

À propos de Noyb

noyb est une ONG financée par des dons et basée à Vienne, en Autriche, qui travaille à l'application des lois sur la protection des données, en particulier le RGPD et la directive ePrivacy. Actuellement, une équipe de plus de 20 experts juridiques et informatiques de toute l'Europe travaille à garantir que le droit fondamental à la vie privée est respecté par le secteur privé. Plus de 5 000 membres soutiennent son travail.


merci à Developpez.com
Répondre