Dans un contexte où Facebook vient d’indiquer qu’elle entend se doter d’une « Cour suprême » pour la modération de ses contenus et qu’elle  va transmettre les adresses IP à la justice française, la lutte contre les contenus haineux sur internet continue de nourrir la controverse à la fois sur le fond, en raison des risques qu’elle comporte pour la liberté d’expression, sur la forme qu’elle doit revêtir et les rôles respectifs de la loi, du juge judiciaire, de la régulation administrative ou de l’initiative privée dans ce combat.

Décryptage par Valérie Laure Bénabou, professeur à l’Université d’Aix-Marseille.

« L’entrecroisement des initiatives privées et publiques est susceptible de réduire de manière substantielle la liberté d’expression sur internet »

Quel est le choix opéré pour la régulation des contenus haineux sur Internet ?

Ces annonces se télescopent avec l’adoption de proposition de loi « Avia » par l’Assemblée nationale le 9 juillet à une large majorité de 434 voix, transmise au Sénat selon la procédure accélérée. En effet, un nouvel article 6-2 de la Loi pour la Confiance dans l’Économie numérique (LCEN) instaurerait une obligation pour les réseaux sociaux et les moteurs de recherche de retirer ou de rendre inaccessible, dans un délai de 24 heures après notification les contenus manifestement haineux ou de faire cesser, dans le même délai, leur référencement, sous la menace de sanctions pouvant aller jusqu’à 4% du chiffre d’affaires mondial de ces opérateurs. Un tel processus est de nature à court-circuiter la voie judiciaire pour régler les difficultés liées à ces expressions de haine, car les victimes préféreront sans doute utiliser ce dispositif rapide de retrait plutôt que de s’engager dans un contentieux. Ainsi, la transmission des adresses IP dans un cadre judiciaire risque de n’intervenir, concrètement, que dans de très rares hypothèses.

Toutefois, l’entrecroisement des initiatives privées et publiques est susceptible de réduire de manière substantielle la liberté d’expression sur internet. La proposition de loi a suscité plusieurs réactions négatives car le champ d’application de l’obligation de retrait est source d’incertitudes, la notion de contenus « haineux » figurant dans le titre de la loi ne faisant l’objet d’aucune définition. Si l’apologie des crimes contre l’humanité, d’actes de terrorisme, l’incitation à la haine raciale ou en raison du sexe, orientation ou identité sexuelle ou du handicap constituent bien le cœur de la mesure, s’y ajoutent, par renvois, l’apologie des crimes de réduction en esclavage, de collaboration avec l’ennemi, le harcèlement sexuel, la traite des êtres humains, le proxénétisme, le délit de discrimination et, selon l’article 227-24 du Code pénal, les messages à caractère violent incitant au terrorisme, pornographique ou de nature à porter gravement atteinte à la dignité humaine ou à inciter des mineurs à se livrer à des jeux les mettant physiquement en danger. En revanche, pour des raisons prétendument liées à son caractère non manifeste, le négationnisme n’est, bizarrement, pas visé.

L’obligation pesant sur les plateformes va donc s’exercer sur un nombre particulièrement élevé d’expressions et de délits dont certains ont peu à voir avec la haine. Cette extension floue, fondée sur le principe de dignité de la personne humaine, a été la cible d’une lettre ouverte signée par plusieurs organisations de défense des droits de l’Homme, de réactions du CNB et du CNNUM, dénonçant les risques d’une telle approche fourre-tout et la marginalisation du rôle du juge. Sauf intervention du sénat, c’est donc in fine surtout aux plateformes qu’il reviendra d’apprécier, en urgence, et sous peine de sanctions considérables, les contenus contrevenant « manifestement » aux infractions énumérées et de décider ce qui peut rester en ligne et ce qui doit disparaître.

Quelle efficacité du dispositif ?

Cette charge est lourde et il n’est pas sûr qu’elles puissent s’en acquitter correctement. Plusieurs commentateurs du texte dont la Quadrature du Net ont critiqué l’abandon dans la loi du principe dit de subsidiarité prévu dans la LCEN, qui supposait de s’adresser d’abord à l’auteur principal avant de se tourner vers l’hébergeur. Ici, tous les contenus notifiés doivent être instruits. Le mécanisme de responsabilité contributive qu’avait instauré la LCEN cède progressivement le pas à un système de responsabilité directe mis à la charge des « gros » opérateurs avec le risque que seuls ces derniers puissent faire face aux obligations légales, en développant eux-mêmes des instances de décision quasi-juridictionnelles, marginalisant ainsi peu à peu le rôle de l’État et éradiquant la concurrence des petites plateformes.

La proposition de loi entend, certes, encadrer les plateformes en attribuant au CSA un rôle de régulation et en créant un observatoire de la haine en ligne pour les aider à développer des codes de conduite ou des bonnes pratiques. Mais le dispositif est encore flottant car certains points sont renvoyés au décret et le rôle précis de l’observatoire demeure incertain. Les organisations professionnelles telles que l’ASIC ont dénoncé le risque d’inefficacité du texte en raison de la multiplication des « contenus gris », pour lesquels il est difficile de déterminer, dans une extrême urgence, s’ils doivent ou non être retirés. Par exemple, le délit de harcèlement suppose une répétition qu’il est difficile d’identifier. Eu égard à la gravité des sanctions pour les plateformes et à l’indétermination des contenus objets de la loi, le risque de sur-blocage n’est pas à exclure.

Qu’est-ce qui va changer pour les victimes ?

La décision de Facebook de communiquer les adresses IP liées à l’existence de contenus haineux allège substantiellement la difficulté pour la justice d’obtenir cette information car elle évite de passer par une procédure d’entraide internationale longue et mal adaptée à la nécessité de retirer promptement les contenus en ligne. En outre, la définition des contenus concernés retenue par la petite loi est susceptible d’inciter les opérateurs à transmettre massivement les données au juge. En ce sens, c’est une bonne nouvelle pour les victimes.

Mais, la voie judiciaire risque d’être finalement peu explorée dès lors que la petite loi encourage plutôt le recours au signalement et au retrait direct par les plateformes, en dehors de tout procès. Ces dernières doivent adopter un dispositif « harmonisé », c’est-à-dire un bouton unique pour éviter que la victime ne doive multiplier les signalements. Le notifiant doit seulement s’identifier, décrire le contenu litigieux et indiquer la catégorie à laquelle il se rattache et les motifs pour lesquels il doit être retiré, rendu inaccessible ou déréférencé. Il n’est même pas obligé de préciser où le contenu haineux est rendu accessible, ce qui fait qu’il appartiendra aux opérateurs d’identifier le ou les sites miroir sur lesquels ce contenu apparaît. Cette tâche de repérage, titanesque, est susceptible de conduire à une surveillance généralisée et mécanique des contenus ainsi qu’à une suspension préventive de certains d’entre eux.

Nombre de personnes vont utiliser ce système, eu égard à la simplicité du signalement, même si la menace de sanction prévue lorsqu’une personne notifie de mauvaise foi un contenu haineux constitue un éventuel garde-fou contre les notifications abusives. Mais cette facilité n’est pas sans revers puisqu’elle peut conduire à une réduction drastique du champ des expressions exposées sur Internet. Or, l’obsession d’une réponse rapide à des situations préjudiciables aux victimes ne doit pas sacrifier aux équilibres démocratiques. La délégation des tâches régaliennes aux opérateurs privés est une mauvaise idée ; ils n’ont pas à juger de ce qui peut ou non être échangé entre les hommes. Il faut que l’État prenne ses responsabilités et dote l’appareil judiciaire des moyens idoines.

Pour aller plus loin :

Par Valérie Laure Bénabou.