La France s'intéresse à la création d'un cadre de responsabilisation des réseaux sociaux

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 12102
Enregistré le : ven. 26 juil. 2013 06:56

La France s'intéresse à la création d'un cadre de responsabilisation des réseaux sociaux

Message par chtimi054 » jeu. 16 mai 2019 06:44

La France s'intéresse à la création d'un cadre de responsabilisation des réseaux sociaux
Estimant que la règle européenne actuelle est inefficace

Les réseaux sociaux permettent à tout citoyen de publier les contenus de son choix et de les partager avec d’autres utilisateurs du réseau. Ils ont ainsi révolutionné l’industrie des médias et les modes de communication en offrant aux citoyens et à la société civile un support d’expression directe. Le recours aux médias classiques n’est plus obligatoire pour communiquer publiquement. La possibilité pour les citoyens d’exercer leurs libertés d’expression, de communication, et de s’informer sont donc considérablement accrues par ces services.

Néanmoins, les capacités offertes par les réseaux sociaux suscitent des abus de ces libertés jugés inacceptables par le gouvernement. « Ces abus sont le fait d’individus isolés ou de groupes organisés auxquels les grands réseaux sociaux, Facebook, YouTube, Twitter ou Snap, pour ne citer qu’eux, n’apportent pas de réponse pleinement satisfaisante à ce jour. Or, par l’ordonnancement qu’ils réalisent des contenus publiés et par leur politique de modération, les réseaux sociaux sont en mesure d’agir directement sur ces abus les plus manifestes pour les prévenir ou y répondre et limiter ainsi les dommages en termes de cohésion sociale ».

C’est la raison pour laquelle une intervention publique pour que les plus grands acteurs adoptent une attitude plus responsable et plus protectrice de la cohésion de nos sociétés apparaît légitime aux yeux de l’Etat. Compte tenu des enjeux de libertés publiques, cette intervention doit faire l’objet de précautions particulières. Elle doit (i) respecter la diversité des modèles de réseaux sociaux, qui forment un ensemble particulièrement hétéroclite, (ii) faire preuve de transparence, notamment en y associant la société civile, (iii) viser un objectif d’intervention minimum conformément aux principes de nécessité et de proportionnalité et (iv) s’en remettre aux juridictions pour la qualification de la licéité des contenus pris individuellement.

La démarche actuelle d’autorégulation des réseaux sociaux est intéressante en ce qu’elle démontre que les plateformes peuvent faire partie de la solution aux problèmes constatés. Elles ont inventé des réponses variées et agiles : retrait, moindre exposition, rappel à la règle commune, pédagogie, accompagnement des victimes. Toutefois, l’autorégulation est toujours en développement. Elle se contente trop souvent de proposer une réponse ex-post (après l’apparition du dommage). Elle manque de crédibilité, du fait de l’asymétrie extrême d’information, provoquant un sentiment de « story telling » qui suscite une suspicion sur la réalité de l’action de la plateforme.

Pour le gouvernement, l’intervention publique doit reposer sur un équilibre entre une politique répressive, indispensable pour lutter efficacement contre les auteurs des abus, et une logique de responsabilisation accrue des réseaux sociaux fondée sur une régulation ex ante, pour capitaliser sur la logique de prévention et la capacité d’autorégulation des plateformes.

Compte tenu de l’unicité et de l’ubiquité des réseaux sociaux, qui dépassent les frontières des États membres – un service unique accessible sur plusieurs géographies – cette régulation ex ante doit s’inscrire dans une dynamique et un cadre européens. Néanmoins, la règle actuelle dite du pays d’installation, selon laquelle seul le pays qui accueille le siège du réseau social peut intervenir pour réguler ce réseau, s’avère inefficace. Par les excès qu’ils permettent, les réseaux sociaux créent des dommages dans d’autres États membres, et difficilement observables par l’Etat membre d’installation.

Toute initiative française devra donc avoir pour ambition d’inverser la logique européenne actuelle au profit d’une logique du pays de destination, selon laquelle la plateforme est responsable devant l’État membre où le dommage se produit, pour renforcer la capacité de chacun des États membres à maîtriser les conséquences de la globalisation. Cet objectif doit être pris en compte dès la conception d’une fonction de régulation des réseaux sociaux pour que le dispositif apparaisse pertinent aux yeux de nos partenaires européens, alors même que la politique en matière de régulation des industries de médias diffère sensiblement d’un pays à l’autre.

« Régulation des réseaux sociaux – Expérimentation Facebook »

Commandée en mars 2019 par Mounir Mahjoubi, la mission a eu pour objet de préfigurer un cadre général de régulation des réseaux sociaux, en partant de la lutte contre la haine en ligne et en s’appuyant sur la collaboration volontaire, et hors de tout cadre juridique, de la société Facebook. Elle avait donc pour objectif de créer un cadre français de responsabilisation de ces services en ligne, estimant que le régime actuel n’est plus adapté. Ce rapport a été remis à Cédric O, secrétaire d’État en charge du Numérique.

En clair, la finalité de cette expérimentation consiste à imaginer comment une nouvelle fonction de régulation des réseaux sociaux pourrait être mise en place pour compléter les instruments actuels et permettre de mieux atteindre les objectifs de politique publique en termes de conciliation des libertés publiques et de sauvegarde de l’ordre public sur les réseaux sociaux. Les échanges avec Facebook ont ainsi été centrés sur les contenus haineux, mais la réflexion de la mission peut s’appliquer à l’ensemble des problématiques soulevées par la publication de contenus sur les réseaux sociaux.

Cette mission interministérielle a mobilisé sept experts de haut niveau et trois rapporteurs permanents provenant de services des ministères de la Culture, de l’Intérieur, de la Justice, de l’Économie, des services du Premier ministre – DILCRAH3 et DINSIC4 – et d’autorités administratives indépendantes – ARCEP5 et CSA6 .

Durant les mois de janvier et de février, des échanges ont eu lieu entre la mission et la société Facebook à l’occasion de plusieurs journées de travail à Paris, Dublin (où se situe le siège européen de Facebook) et Barcelone (où se situe l’un des centres de modération). Les représentants de la société ont présenté sa politique de modération des contenus haineux, son organisation, les moyens qu’elle y consacre et ses processus internes. Des réunions de travail d’approfondissement ont eu lieu en mars sur des sujets spécifiques tels que le recours aux algorithmes de détection de contenus haineux dans la fonction de modération ou les principes de base des algorithmes d’ordonnancement des contenus pour l’usager de Facebook.

Selon le rapport, la mise en place d’une régulation ex ante devrait respecter trois conditions : (i) suivre une logique de conformité selon laquelle le régulateur supervise la bonne mise en œuvre de mesures préventives ou correctrices, sans se focaliser sur la matérialisation des risques ni chercher à réglementer lui-même le service fourni, (ii) se concentrer sur les acteurs systémiques capables de créer des dommages conséquents dans nos sociétés sans créer de barrière à l’entrée pour de nouveaux acteurs européens, (iii) rester agile pour affronter les enjeux futurs dans un environnement numérique particulièrement évolutif. Le dispositif législatif devra donc viser à créer une capacité institutionnelle à réguler et non une régulation figée sur les problèmes actuels.

Cette régulation pourrait reposer sur les cinq piliers suivants :

Premier pilier : Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes.
Deuxième pilier : Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante, reposant sur trois obligations incombant aux plateformes :
transparence de la fonction d’ordonnancement des contenus ;
transparence de la fonction de mise en œuvre des CGU et de modération des contenus ;
un devoir de diligence vis-à-vis de ses utilisateurs.
Troisième pilier : Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile.
Quatrième pilier : Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile.
Cinquième pilier : Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque État membre.

Image

Premier pilier : Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes

Pour fédérer les énergies politiques tant au niveau national qu’au niveau européen, et rassembler les institutions politiques et la société civile, ce schéma de régulation doit avoir pour objectifs de défendre l’exercice des droits et des libertés sur les plateformes de réseaux sociaux :

la liberté d’expression et de communication des utilisateurs, qui sont à ce titre en droit de savoir si la plateforme respecte cette liberté d’expression ;
le droit des utilisateurs au respect de leur intégrité physique et morale, y compris sur les réseaux sociaux et dans l’espace numérique ;
la liberté d’entreprendre des réseaux sociaux, y compris le droit à édicter et appliquer des CGU, à exercer une fonction d’ordonnancement libre de l’information, et à innover (en particulier pour les plus petits acteurs).


D’autres objectifs pourraient également être pris en compte :

le pluralisme des services de réseaux sociaux qui implique notamment de veiller à ne pas créer de barrières à l’entrée via une politique de régulation trop contraignante pour des nouveaux acteurs ;
la cohésion sociale en encourageant les réseaux sociaux à développer des usages « positifs » de leurs services, i.e. contribuant au renforcement du lien social.

Image

Deuxième pilier : Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante

Une régulation prescriptive limitée aux plateformes structurantes au niveau de chaque État membre avec deux seuils de déclenchement :
La régulation s’appliquerait d’office pour les services dont le nombre mensuel d’utilisateurs dépasse un certain pourcentage de la population de l'État membre (entre 10 % et 20 %) ;
Elle s’appliquerait uniquement sur décision motivée du régulateur en cas de défaillance constatée et persistante pour les services dont le nombre mensuel d’utilisateurs se situerait entre 0 % et 5 % de la population de l'État membre. Il convient de noter que plus ce second seuil d’application est bas plus le test d’impact devra être strict et exigeant pour respecter un principe général de proportionnalité ;
En deçà, la régulation n’est pas applicable mais le droit commun de la LCEN demeure et permet de mettre en cause la responsabilité civile et pénale des acteurs en cas de manquements.
Des obligations de transparence qui porteraient sur les fonctions clés des réseaux sociaux :
la « fonction d’ordonnancement des contenus, c’est-à-dire les modalités de présentation, de hiérarchisation et de ciblage des contenus publiés par les utilisateurs, y compris lorsqu’ils sont promus par la plateforme ou par un tiers en contrepartie d’une rémunération ;
la fonction de mise en œuvre des CGU et de modération des contenus, incluant les modalités d’élaboration de ces règles communautaires, les procédures, les moyens humains et technologiques mis en œuvre pour assurer le respect de ces CGU et pour lutter contre les contenus illicites. Cette fonction doit être auditable par le régulateur et/ou par un auditeur indépendant de la plateforme. La transparence se traduirait par exemple par :
l’obligation pour le service de notifier sa décision à l’auteur du contenu modéré (sauf exceptions légitimes : besoins des autorités publique de poursuite) et l’auteur du signalement (s’il existe) ; mécanisme indépendant et extra-judiciaire de réexamen de la décision de la plateforme (sans préjudice d’un recours juridictionnel) ;
des informations sur le recours aux outils de traitement automatisés : quels outils sont utilisés, pour quels types de contenus, avec quelle supervision humaine ? Comment leur efficacité et leur précision est-elle évaluée ?
des éléments sur les modalités de coopération avec des « partenaires de confiance » (« trusted flaggers ») : liste, modalités de sélection, « privilèges » attachés à ce statut, données statistiques sur le nombre de signalement examinés, le nombre de contenus détectés proactivement, les suites données (retrait, maintien ou autre), les recours traités, etc.
des statistiques sur l’efficacité de la modération : délais de décision (quelle qu’elle soit), taux de faux positif / négatif, viralité / audience des contenus contraires aux standards avant qu’ils soient retirés (cf. notion de prévalence), etc.
Un devoir de diligence du réseau social vis-à-vis de ses utilisateurs : par cette obligation qui s’approche du « duty of care » anglo-saxon, les réseaux sociaux s’engageraient à assumer une responsabilité vis-à-vis de leurs utilisateurs concernant des abus d’autres membres et des tentatives de manipulation de la plateforme par des tiers. Une telle obligation de moyen permettrait une intervention de la puissance publique s’il apparaît que la démarche, volontaire à ce jour, des plateformes de veiller à ce que leurs usagers puissent se sentir en confiance, via la création de fonction dites de « Trust and safety » (« confiance et sécurité ») ou la fonction de modération manquaient de moyens.



Troisième pilier : Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile

Le gouvernement, via son pouvoir règlementaire, fixerait les seuils de déclenchement des obligations et définirait les modalités des obligations de transparence des fonctions d’ordonnancement des contenus et de mise en œuvre des CGU ainsi que l’obligation de défendre l’intégrité du réseau social et de ses membres.
Le gouvernement homologuerait les décisions à caractère règlementaire du régulateur.
Le gouvernement organiserait le dialogue politique avec les réseaux sociaux en y associant le régulateur et la société civile.
La portée et l’effectivité du dialogue politique serait enrichie par l’action ciblée du régulateur visant à responsabiliser des réseaux sociaux. Le gouvernement serait alors en mesure de poursuivre son action via le dialogue politique sur l’ensemble des questions de société avec les réseaux sociaux en y associant la société civile (monde associatif, territoires, communauté éducative, monde académique) .
Les administrations centrales accompagneraient le gouvernement dans son dialogue politique en tirant partie de la réduction de l’asymétrie d’information entre plateformes et institutions politiques du fait de la régulation prescriptive.
Les plateformes prendraient, le cas échéant, des engagements volontaires auprès du gouvernement, contrôlables et opposables devant le régulateur (mise en œuvre d’un plan d’actions face à une dérive nouvellement identifiée, amélioration des métriques de transparence pour l’année à venir, etc)


Quatrième pilier : Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile

Dans le schéma de régulation proposé, l’autorité administrative indépendante serait garante de la responsabilisation des réseaux sociaux au bénéfice du gouvernement et de la société civile.
Elle mettrait en œuvre la régulation coercitive de manière autonome sans être autarcique ni hégémonique. Elle serait le régulateur de la responsabilisation des principaux réseaux sociaux via le contrôle des obligations de transparence des fonctions d’ordonnancement et de modération des contenus, et de devoir de diligence leur incombant. Elle ne serait ni le régulateur des réseaux sociaux dans leur globalité, ni le régulateur des contenus qui y sont publiés. Elle ne serait pas compétente pour qualifier les contenus pris individuellement. Elle coopèrerait avec les services de l’État placés sous l’autorité du gouvernement et les services judiciaires.
Elle n’imposerait pas directement de contrainte sur la définition des services de réseaux sociaux, mais elle leur imposerait la transmission et la publication d’informations, dont elle qualifierait la véracité et la pertinence, en associant la société civile (monde associatif, communauté éducative, monde académique). Elle contrôlerait l’effectivité des moyens déployés pour mettre en œuvre le devoir de diligence du réseau social vis-à-vis de ses membres.
Elle devrait être dotée de larges pouvoirs d’accès à l’information détenue par les plateformes, via la possibilité d’utiliser des identités d’emprunt et d’imposer des accès privilégiés aux algorithmes pour vérifier la sincérité de la description publiée par le réseau social. Elle ne pourrait se voir opposer le secret des affaires ni la protection des données personnelles, sans préjudice de son obligation de protéger les données qu’elle requiert conformément au RGPD et aux lois sur les secrets commerciaux.
Elle devrait également être dotée d’un pouvoir de sanction administrative permettant d’imposer (i) des mesures de publicité sur le réseau social à destination de ces utilisateurs incluant ses partenaires commerciaux (notamment les annonceurs), et (ii) des sanctions pécuniaires pouvant atteindre [4 %] du chiffre d’affaire mondial de l’acteur qui fournit le réseau social. Ces pouvoirs de sanction ne pourraient être exercés qu’après mise en demeure publique.


Cinquième pilier : Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque État membre

Face à la puissance des plateformes globales, la mission propose que l’Union Européenne puisse organiser la capacité des gouvernements et de leurs sociétés civiles à travailler en réseau en conjuguant leurs forces. Cette architecture renforce les Etats membres dans leur rôle de garants de la cohésion et du lien social dans un monde globalisé. Cette articulation au niveau européenne devrait reposer sur :

un règlement européen afin de reconnaître le caractère global des plateformes numériques, de rendre pleinement effective une action coordonnée des autorités nationales face à des acteurs globaux (notamment via des procédures communes, des APIs communes, etc.), de réduire les risques de mise en œuvre dans chaque État membre ;
une mise en œuvre nationale suivant la règle du pays de destination pour rendre les plateformes responsables localement devant chaque Etat membre et dans les géographies où elles peuvent créer des dommages ;
des actions concertées entre autorités nationales et ouvertes à la société civile permettant de rendre plus efficace le contrôle de la transparence des plateformes ;
des mécanismes européens de réduction des risques de régulation excessive par un Etat membre (« check and balance »), corollaire indispensable de la compétence concurrente de chaque État membre : consultation publique nationale et européenne pour les décisions à caractère réglementaire ou les recommandations, mécanisme de saisine pour avis du régulateur national des données personnelles, coordination et cohérence des décisions des régulateurs nationaux par un organe collégial rassemblant les régulateurs nationaux et la Commission européenne.

merci à Developpez.com
Image

Répondre