Après la décapitation d’un professeur, la ministre déléguée à la Citoyenneté, Marlène Schiappa, rencontre mardi 20 octobre les responsables des réseaux sociaux.
C’est ce vecteur qu’a utilisé, à plusieurs reprises, le père d’une des élèves de Samuel Paty pour stigmatiser la victime. La question du difficile contrôle des contenus diffusés par ces plateformes est à nouveau soulevée.
La décapitation du professeur Samuel Paty soulève une nouvelle fois la difficile question de la surveillance des contenus diffusés sur les réseaux sociaux. La ministre déléguée à la Citoyenneté, Marlène Schiappa, rencontre ce mardi 20 octobre les responsables de ces plateformes.
C’est ce vecteur qu’a utilisé à plusieurs reprises le père d’une des élèves de Samuel Paty pour mettre en cause le professeur. Et, après la décapitation, la plateforme Pharos, créée en 2009 par le ministère de l’Intérieur, a identifié quatre-vingts messages de soutiens diffusés sur les réseaux sociaux, qui devaient faire l’objet de contrôle des policiers et gendarmes, hier.
Quel cadre juridique contre la haine en ligne ?
La loi de 2004 sur la confiance dans l’économie numérique impose aux plateformes de retirer les contenus illicites dans un délai raisonnable . Au printemps, une proposition de loi de la députée de Paris LREM Laetitia Avia prévoyait d’obliger les plateformes à supprimer les contenus haineux qui lui étaient signalés en 24 heures. Et ceux à caractère terroriste ou pédopornographique en une heure. Avec, à la clef, des amendes pouvant dépasser le million d’euros. Mais elle a été retoquée. En juin, le conseil constitutionnel a considéré que le texte portait une atteinte à l’exercice de la liberté d’expression et de communication qui n’est pas nécessaire, adaptée et proportionnée . Plusieurs associations et politiques avaient aussi considéré que la loi Avia revenait à donner un pouvoir de censure aux Gafam (Google, Amazon, Facebook, Apple et Microsoft).
Et demain ?
Le gouvernement dit travailler à un « dispositif juridique de lutte contre la haine sur les réseaux sociaux ». Une nouvelle loi Avia ? « Même si elle présentait un risque du point de vue de la liberté d’expression, elle était bien dans l’air du temps, elle correspondait bien à la temporalité des réseaux sociaux », qui vont à toute vitesse, estime l’avocate spécialiste du numérique, Delphine Meillet.
Agacement, au contraire, de Thomas Rohmer, président de l’association Open qui promeut notamment l’éducation au numérique. Pour lui, la loi Avia cédait au culte de « l’immédiateté et de l’émotionnel. Retirer un contenu en une heure n’est pas raisonnable. Le suspendre temporairement, avant d’en faire un examen approfondi, serait plus habile », suggère-t-il. Le spécialiste applaudit en revanche le travail formidable mené par la plateforme Pharos, mais déplore les moyens dérisoires qui lui sont donnés. Et, plus globalement, il critique les politiques tentés de « faire porter aux réseaux sociaux tous les maux de notre société, alors qu’ils n’en sont qu’un reflet. La racine du problème est ailleurs ».
De son côté, la commission européenne doit, d’ici à la fin de l’année, finaliser un texte Digital service act , qui prévoit d’imposer aux réseaux sociaux des obligations graduées en matière de signalement et de retrait de jugement jugés nocifs.
Une quantité de messages incontrôlables
Plus d’un million de messages publiés chaque seconde sur Facebook. Plus de 400 heures de vidéo diffusées sur YouTube chaque minute… La quantité de messages publiés sur les réseaux sociaux est si stratosphérique qu’un contrôle strict des contenus paraît totalement illusoire. Le contrôle dépend beaucoup de la vigilance des utilisateurs eux-mêmes. Mais les plateformes sont régulièrement mises en cause pour ne pas agir efficacement contre les contenus haineux qui leur sont signalés. Les derniers chiffres de la commission européenne, publiés fin juin, tirant le bilan du code de bonne conduire sur la haine en ligne, indiquaient notamment que sur 1 400 signalements envoyés à Twitter, seuls 36 % ont été retirés. De son côté, YouTube avait retiré 80 % des contenus signalés, Facebook 87 %.
Un procès en cours
Hasard de calendrier, lundi 19 octobre, plusieurs associations dont l’Union des étudiants juifs de France et SOS racisme assignaient Twitter, estimant que le réseau social manquait de manière ancienne et persistante à ses obligations en matière de modération des contenus. Les associations avaient lancé un testing : plus de 1 100 signalements avaient été envoyés à Twitter, allant de sale juif à bougnoule et seulement 12 % avaient été retirés au bout de trois à cinq jours. La justice française a ordonné une médiation. Prochaine audience le 1er décembre.