Par Valérie-Laure Benabou, Professeur de droit, Université Paris-Saclay/UVSQ

Donald Trump a fait les frais d’une police -tardive- de ses interventions sur les réseaux sociaux dont il était si friand. Après l’avoir laissé répandre fake news et discours haineux pendant l’essentiel de son mandat, ces derniers se sont trouvés soudain soucieux de limiter ces expressions en allant jusqu’à l’exclusion sine die de certaines plateformes. Ce type de mesures n’est pas sans soulever des questions sur la légitimité des acteurs privés à « censurer » une expression – même excessive – venant d’une personne publique d’une telle importance politique. La décision du Conseil de Surveillance (Oversight Board) de Facebook visant à limiter la durée du « bannissement » de Donald Trump et son « acquiescement » par la plateforme fournissent l’opportunité de les poser.

En quoi consiste le Conseil de Surveillance de Facebook et quelle est l’autorité de ces décisions ?

Sans renoncer à se prévaloir de son statut de simple hébergeur, Facebook a décidé d’assumer publiquement la police des contenus qu’elle opère auprès de ses usagers au regard de ses conditions générales d’utilisation. Afin de conférer à cette politique une légitimité accrue, l’entreprise s’est notamment dotée d’un Conseil de Surveillance – qualifié parfois abusivement de Cour Suprême – constitué de personnes sélectionnées pour leur expertise sur les questions de liberté d’expression. Ce panel d’experts mis en place en 2020 compte pour l’heure dix-neuf membres : professeurs de droit, journalistes, représentants d’ONG spécialisées dans la défense des droits de l’homme ou personnes emblématiques telles que la prix Nobel de la paix yémenite Tawakkol Karman. Bien que le renom de ces personnes laisse augurer de leur liberté d’opinion, le fait qu’elles soient rémunérées généreusement pour exercer leurs fonctions par un trust constitué par la firme interpelle quant à l’indépendance de ce Conseil vis-à-vis de Facebook.

Le Conseil n’est pas une instance d’appel systématique des décisions de modération prises par Facebook ou Instagram. La procédure, prévue par une Charte du Conseil de surveillance, est réservée aux titulaires d’un compte actif et à certaines décisions susceptibles d’appel qui ont déjà fait l’objet d’une révision finale par les équipes de Facebook. En outre, parmi ces recours, le Conseil se saisit des seuls cas « éligibles » en raison de leur complexité, de leur pertinence à l’échelle mondiale et de leur capacité à faire jurisprudence, système qui n’est pas sans rappeler la procédure du writ of certiorari pratiqué par la Cour Suprême des Etats-Unis. Une fois la décision adoptée, elle fait l’objet d’une publication sur le site du Conseil.  A date, sur plus de trente mille appels, seule douze décisions ont été publiées. Selon la Charte, la décision sera « exécutoire, ce qui signifie que Facebook sera tenu de la mettre en œuvre, sauf si cela risque d’enfreindre la loi ». Le Conseil peut donc infirmer une décision de modération prise par l’entreprise qui s’engage unilatéralement à se soumettre à l’avis du Conseil de surveillance. Toutefois la force contraignante de sa « jurisprudence » est relative puisque, notamment, la réserve du respect de la loi permet à Facebook de l’invoquer pour s’y soustraire.

La décision de « bannissement » de Donald Trump a fait l’objet d’une « réformation » partielle par le Conseil de Surveillance. Sur quels fondements ?

Par sa décision du 5 mai 2021, le Conseil a confirmé partiellement la décision de Facebook et d’Instagram de limiter l’accès de Donald Trump à la publication sur ses comptes. La décision de Facebook avait été prise, le 7 janvier 2021, de suspendre, jusqu’à nouvel ordre, la publication de contenus par Donald Trump, suite aux commentaires du président qui avaient entouré l’assaut du Capitole la veille. C’est Facebook qui avait décidé, le 21 janvier, de saisir le Conseil de Surveillance de l’opportunité de sa décision et d’une demande de recommandation à suivre sur les suspensions lorsque l’utilisateur concerné est un dirigeant politique. Le Conseil a estimé qu’une décision de suspension non limitée dans le temps s’apparentait à une sanction indéterminée et arbitraire et a enjoint Facebook d’adopter, dans les six mois, une réponse proportionnée et conforme aux règles appliquées aux autres utilisateurs de la plateforme. Facebook a décidé, le 4 juin dernier, de réduire la durée de la sanction de suspension à deux ans.

Le Conseil de Surveillance s’est fondé non seulement sur les soit-disants « standards de la communauté » et les valeurs de Facebook – dont la liberté, la sécurité et la dignité – mais également sur les règles de droit international protectrices des droits de l’homme. Il a aussi tenu compte des 9666 commentaires publics relatifs au cas qui ont été suscités par son appel à contribution.

S’agissant des règles internes, le Conseil a rappelé que la sanction entreprise ne figurait pas dans les conditions générales et qu’il n’existait pas de raison de déroger à ces règles au seul motif qu’il s’agissait d’un dirigeant politique. Il a cependant estimé que la vaste audience d’un utilisateur influent pouvait être prise en considération pour déterminer la « dangerosité » des contenus et le risque d’atteinte à l’ordre public. Le Conseil a encouragé Facebook à dissiper les zones de flou qui entourent son intervention liée à un critère « d’intérêt médiatique » et lui a recommandé plusieurs actions à mener comme se doter d’une équipe ad hoc, soustraite à toute interférence politique ou économique indue et renforcer la transparence de son action.

S’agissant des normes relatives aux droits de l’homme, le Conseil – qui les vise désormais de manière systématique dans ses différentes décisions – rappelle l’engagement souscrit le 16 mars 2021 par Facebook de respecter les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU) et souligne qu’il est appelé à évaluer la décision de Facebook au regard de ces normes, soit s’agissant de la liberté d’expression, les articles 19 et 20 du Pacte international relatif aux droits civils et politiques (PIDCP), tels qu’interprétés dans l’Observation générale n° 34 du Comité des droits de l’homme (2011) ; le Plan d’action de Rabat, HCDH (2012) ; le rapport A/HRC/38/35 du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression (2018) ; la déclaration conjointe des observateurs internationaux sur la liberté d’expression en temps de COVID-19 (mars 2020). Si le Conseil de Surveillance ne retient pas le premier amendement de la Constitution américaine, il s’inspire également des interprétations dont il fait l’objet.

Cela signifie-t-il que désormais Facebook n’est plus libre de prendre des décisions de modération selon ses seuls critères ?

Le Conseil se livre à une appréciation assez sévère des standards de Facebook et de leur conformité au respect de la liberté d’expression. Après avoir souligné le caractère essentiel de Facebook en tant que « média » devenu « pratiquement indispensable au discours politique, en particulier en période électorale », il en infère qu’il « lui incombe à la fois de permettre l’expression politique et d’éviter les potentielles répercussions négatives sur d’autres droits de l’homme ». Ainsi, s’agissant en particulier de limiter les discours politiques, la plateforme doit répondre au moins à trois exigences : ses règles doivent être claires et accessibles ; viser un objectif légitime ; être nécessaires et proportionnées au risque de préjudice. Or, sur deux des trois critères, Facebook loupe la marche. En effet, le Conseil considère notamment que « la clarté du Standard sur le soutien et l’éloge des individus et organismes dangereux laisse trop à désirer, » même si son application n’était pas douteuse en l’espèce. Quant à la diversité des règles applicables aux sanctions en cas d’infraction, elle « soulève des problèmes de légalité et ne permet pas aux utilisateurs de comprendre clairement pourquoi et quand Facebook restreint l’accès à certains comptes ». Le Conseil rejette ainsi la demande de Facebook d’approuver des restrictions sine die imposées et levées sans critères explicites et estime que « des limites adéquates aux pouvoirs discrétionnaires sont essentielles pour en distinguer l’usage légitime ». S’agissant du critère de nécessité et de proportionnalité, le Conseil suggère, enfin, selon un système de riposte graduée, de développer des mécanismes efficaces pour éviter d’amplifier les discours qui présentent des risques de violence imminente, de discrimination ou d’autres actions illégales, lorsque cela est possible et proportionné, plutôt que de les interdire purement et simplement.

Toutefois, lorsque le Conseil a interrogé Facebook sur la possibilité que les choix de conception de la plateforme (comprenant les algorithmes) aient pu contribuer à cette amplification, il s’est heurté à un refus de répondre à ses questions. Le Conseil conclut donc qu’iI lui est difficile « d’évaluer si des mesures moins sévères, prises plus tôt, auraient pu être suffisantes pour protéger les droits d’autrui » montrant ainsi toutes les limites de ce mécanisme de compliance lorsqu’il se heurte au secret et à la mauvaise volonté de l’entreprise.

[vcex_button url= »https://www.leclubdesjuristes.com/newsletter/ » title= »Abonnement à la newsletter » style= »flat » align= »center » color= »black » size= »medium » target= » rel= »none »]En savoir plus…[/vcex_button]