Deux élus, Marie-Pierre Vieu et Pierre Ouzoulias, avaient demandé le retrait du tweet de Christophe Castaner qui évoquait une « attaque » de l’hôpital de la Pitié-Salpêtrière et des personnels soignants « agressés » le 1er mai dernier. Ils avaient assigné en référé la société Twitter « en vue d’obtenir le retrait du tweet mensonger » publié sur le réseau social. Le 21 mai dernier, ils ont été déboutés.

Décryptage par Evan Raschel, professeur à l’Université Clermont Auvergne, directeur adjoint du Centre Michel de l’Hospital EA 4232.

« La loi n’a pas été pensée en réaction à ce type de communication, mais pour prévenir toute tentative de déstabilisation d’une campagne électorale par la diffusion d’informations relevant notamment de l’intelligence artificielle »

Que contient la loi « Fake news » ?

La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information contient de nombreux apports, centrés autour de l’objectif affiché d’assurer la clarté du débat électoral et le respect du principe (constitutionnel) de sincérité du scrutin. Celui invoqué dans le cas de l’affaire en question est la création du nouvel article L. 163-2 du Code électoral, qui dispose que « Pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises, lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive (…)le juge des référés peut prescrire (…) toutes mesures proportionnées et nécessaires pour faire cesser cette diffusion ». En raison de l’urgence de la situation, le juge des référés – le tribunal de grande instance (TGI) de Paris est exclusivement compétent – doit se prononcer dans un délai de 48 heures (ce qui est déjà long, au regard de la vitesse de dispersion d’une information sur les réseaux sociaux). Il s’agit d’une mesure de cessation de l’illicite, ici de retrait d’un tweet litigieux ; cet article ne permet en revanche pas d’engager la responsabilité (ni civile ni pénale) de son auteur.

Statuant a priori le 20 décembre, le Conseil constitutionnel a validé ce dispositif, en précisant toutefois certains points. Il en résulte notamment que :

  • d’une part, les allégations ou imputations litigieuses « ne recouvrent ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations. Elles sont celles dont il est possible de démontrer la fausseté de manière objective »;
  • d’autre part, une réserve d’interprétation est émise, selon laquelle leur caractère inexact ou trompeur doit être « manifeste », de même que le risque d’altération de la sincérité du scrutin. Ceci confirmant l’office du juge des référés, juge de l’évidence.

Pourquoi le TGI a-t-il rejeté la demande de retrait ?

Le tribunal avance pas moins de trois arguments, dont chacun aurait seul suffi à ne pas prescrire de mesures de cessation de diffusion. Si les deux premiers relèvent d’une appréciation du juge des référés – qui peut ne pas convaincre – le troisième paraît indiscutable.

D’abord, « la condition selon laquelle l’allégation doit être manifestement inexacte ou trompeuse n’est pas remplie ». Certes, le ministre de l’Intérieur a lui-même rapidement reconnu que l’utilisation du terme d’ « attaque » n’était pas appropriée mais cette information n’est « pas dénuée de tout lien avec des faits réels », puisqu’il y a bien eu intrusion de manifestants dans l’enceinte de l’hôpital. Partant, il ne s’agit – pour le tribunal – que d’une exagération, précisément exclue par le Conseil constitutionnel du dispositif.

Ensuite, c’est le risque d’altération du scrutin qui ne paraît pas manifeste aux yeux du juge des référés. Pour les demandeurs, les propos du ministre de l’Intérieur visaient à faire croire à un climat de violence pour jouer sur la peur et perturber ainsi la campagne des élections européennes. Mais pour le tribunal, le tweet n’a pas occulté le débat, ayant été immédiatement et largement contesté, de sorte que chaque électeur a pu se faire une opinion éclairée de la question. Cette solution paraît conforme à celle retenue classiquement dans le contentieux électoral.

Enfin, et au-delà du contenu de l’information diffusée, le Code électoral exige encore que la diffusion soit cumulativement massive, artificielle ou automatisée, et délibérée. Ainsi que cela ressort des travaux parlementaires, sont visés les contenus sponsorisés (par le paiement de tiers chargés d’étendre artificiellement la diffusion de l’information) et les contenus promus par des outils et robots automatisés (« bots »). C’est par exemple le cas de l’achat de « retweets » auprès de faux comptes Twitter pour accroître la résonance d’un message. Or, aucun élément n’est venu étayer cette hypothèse, de sorte que cette condition, nécessaire à la mise en œuvre de l’article L. 163-2, n’est pas remplie.

Peut-on soutenir, comme les deux parlementaires à l’origine de cette affaire, que celle-ci démontre que « la loi sur les fausses nouvelles qui devait tout régler ne règle rien » ?

Cette formule est exagérée car la loi du 22 décembre 2018 a donné lieu à d’indéniables apports mais il est vrai que ce nouvel article L. 163-2 du Code électoral, tel qu’interprété par le Conseil constitutionnel, a des conditions d’application (contextuelles notamment, puisqu’il faut une élection à venir) très restreintes – ce que démontre effectivement la présente affaire.

Ce qui est certain, c’est que dans cette situation d’un tweet dont la visibilité n’a pas été artificiellement augmentée, la procédure est inapplicable, le message en question contiendrait-il des mensonges éhontés. Il faut bien comprendre que la loi n’a pas été pensée en réaction à ce type de communication, mais pour prévenir toute tentative de déstabilisation d’une campagne électorale par la diffusion d’informations relevant notamment de l’intelligence artificielle.

Sur le fond, il est vrai que le caractère manifeste de la manipulation de l’information est particulièrement délicat à prouver – encore que cela ne soit pas impossible : tel eût été le cas du tweet litigieux si aucun manifestant n’était rentré dans l’hôpital… – , de même que le risque de manipulation du scrutin : comment prouver qu’une information peut véritablement altérer une élection qui, par hypothèse, n’a pas encore eu lieu ? Le risque est de considérer que toute information liée à un sujet de campagne est concernée, auquel cas cette condition serait vidée de tout intérêt.

Mentionnons une autre difficulté, que la présente affaire ne soulevait pas : la mise en œuvre de la procédure de l’article L. 163-2 suppose également que la diffusion soit « massive », donc… que le mal soit déjà fait. Le référé de droit commun permet au contraire des mesures destinées à prévenir un « dommage imminent » ; de même que le référé dit « LCEN » est d’une application bien plus large.

Enfin, ce n’est pas Twitter France mais Twitter Irlande qui aurait dû être visé. Or la domiciliation à l’étranger de l’hébergeur (cas le plus fréquent) est un réel obstacle à la mise en œuvre de la cessation de la diffusion dans un délai réduit.

Pour aller plus loin :

Par Evan Raschel.