En bref

Loi Cyberhaine : vers le développement d’une censure algorithmique

La loi contre les contenus haineux sur internet mènera à une censure algorithmique sans précédent qui inspire de fortes craintes pour la liberté d’expression.

Attention : cette loi a (heureusement) été largement censurée par le Conseil constitutionnel depuis la parution de cet article. Quel flair n’est-ce pas ?

Le contrôle de l’information est le nerf de la guerre dans une société toujours plus numérique. Bien que nous jouissions de la liberté d’expression, c’est loin d’être un droit absolu : de nombreuses limites existent depuis bien longtemps. Diffamation, injures publiques, mais aussi apologie de crimes de guerre ou du terrorisme, incitation à la haine raciale, ethnique, religieuse et autres propos discriminatoires sont exclus de cette liberté et donc réprimés par la loi. Ces propos font l’objet d’une censure. Mais très loin de nous est le temps où les journaux pouvaient être interceptés avant leur arrivée aux points de vente.

Dans un espace numérique où l’information va de plus en plus vite, notamment par de plus en plus d’orateurs vers de plus en plus de destinataires (les internautes), les solutions classiques paraissent archaïques, lentes et impuissantes.

Devant la nécessité pour l’Etat de ne pas laisser sombrer l’espace numérique grandissant en une zone de non-droit, on observe un développement d’une cyber-censure sur internet. Une censure qui ne touche pas tant les organes de presse classiques, désormais bien présents sur internet, mais plutôt ses utilisateurs. On ne compte plus les scandales sur les réseaux sociaux, les posts insultants qui deviennent viraux et autres commentaires virulents. L’émergence du cyber-harcèlement, et de diverses affaires qui ont choqué l’opinion (coucou Mila) et qui ont parfois détruit des vies rend cette mission encore plus urgente pour l’Etat, qui justifie son existence par l’action.

Dans cet article je vous montrerai que cette nouvelle forme de censure entraîne de très fortes craintes pour la liberté d’expression. C’est une censure dans laquelle le juge est éjecté du circuit, et qui tend à être de plus en plus automatisée par le biais d’algorithmes.

La responsabilité des plateformes du web

Il faut revenir à une période préhistorique d’internet. C’est l’âge d’or des blogs et des forums, sur lesquels – et c’était nouveau – n’importe qui pouvait exprimer n’importe quoi. Il fallait un cadre permettant d’appliquer la loi sur les contenus postés par les internautes, sans tuer tout le business qui se développait après l’éclatement de la bulle d’internet. C’est ce qui a mené à créer le statut très protecteur d’hébergeur, qui est traditionnellement un intermédiaire technique, l’administrateur des infrastructures du web (serveurs). Il s’oppose au statut d’éditeur, qui traditionnellement produit et contrôle le contenu, et qui en est donc responsable.

On peut appréhender ça avec l’exemple de Skyblog, une plateforme qui met à disposition des internautes ses infrastructures pour qu’ils créent des blogs et publient ce qu’ils veulent dessus. Les internautes s’emparent du service et éditent du contenu. Les internautes sont responsables du contenu qu’ils publient, pas la plateforme. Mais la plateforme devient elle aussi responsable lorsqu’elle sait qu’elle héberge du contenu illégal. Sinon, il aurait fallu tout bêtement et simplement fermer en France tous les services de blogs, les espaces commentaires, et les réseaux sociaux naissants. Et comment reprocher aux employés de la société Skyblog de ne pas savoir en permanence tout ce qui se dit dans les articles et commentaires de ces blogs en réaction aux fameux « Lach T Komz » ?

Cependant, il a fallu créer un mécanisme raisonnable pour tout de même forcer les plateformes à supprimer le contenu illégal posté par les internautes. Cette responsabilité des plateformes a été consacrée il y a des années par l’article 6-1 de la Loi pour la confiance dans l’économie numérique (LCEN) de 2004. Depuis cette loi, les hébergeurs/plateformes sont obligés de supprimer les contenus illicites lorsqu’ils leur sont notifiés.

Le principe de la LCEN

L’hébergeur ne pouvant donc matériellement avoir connaissance de tous les contenus hébergés sur son site, la LCEN a mis en place une procédure de notification des contenus par des personnes les estimant « manifestement illicites ». En l’absence d’une telle notification, la responsabilité de l’hébergeur ne peut être engagée. Attention, retenez votre souffle :

« Les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ne peuvent pas voir leur responsabilité civile engagée du fait des activités ou des informations stockées à la demande d’un destinataire de ces services si elles n’avaient pas effectivement connaissance de leur caractère illicite ou de faits et circonstances faisant apparaître ce caractère ou si, dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l’accès impossible. »

LCEN et censure algorithmique

La Loi pour la confiance dans l’économie numérique (LCEN), votée en France en 2004, a consacré la responsabilité des plateformes du web lorsqu’elles hébergent des contenus illicites. Mais cette responsabilité était plutôt difficile à engager.

C’est là une consécration de fait de l’engagement de la responsabilité civile des hébergeurs, uniquement dans le cas d’une connaissance avérée de leur part de la présence d’informations illicites au regard de la loi.

Le préjugé de la licéité d’un contenu

Il faut aussi insister sur cette expression très juridique qu’est « contenu manifestement illicite ». Elle exprime le fait qu’en principe, seul le juge, en dernier ressort, a autorité pour estimer qu’un contenu est licite ou non. Pour le commun des mortels, et ici sont visés à la fois la personne qui signalera un contenu et l’hébergeur qui recevra ce signalement, ils ne peuvent qu’estimer l’illicéité d’un contenu, de manière immédiate et apparente, d’où le « manifestement illicite ». Ils doivent donc préjuger la licéité du contenu et agir en fonction à leur échelle : l’internaute se demande s’il faut signaler le contenu, l’hébergeur se demande s’il faut en effet le supprimer.

Estimer la licéité de propos ou de contenus sur internet, avec leur contexte propre, n’est pas une mince affaire. Mais le juge n’interviendra que bien plus tard, en cas de litige donc préjugeons car on a pas le temps de niaiser.

Cette procédure est très largement inspirée de la procédure de « notice and take down » introduite aux États-Unis par le Digital Millennium Copyright Act (1998). Elle répond aux exigences de transposition de la directive européenne du 8 juin 2000 sur le commerce électronique.

Un formalisme de signalement excessif

Cette procédure imposait un certain formalisme qui, bien que servant de garde-fou pour éviter aux plateformes de crouler sous les demandes de retrait de contenu peu sérieuses, était plus qu’excessif.  Selon l’article 6-1 5e de la LCEN, il fallait transmettre à l’hébergeur ces informations :

– La date de notification
– Les éléments permettant l’identification du notifiant
– Les éléments d’identification du destinataire de la notification
– La description des faits litigieux et leur location précise
– Les motifs pour lesquels les contenus doivent être retirés comprenant la mention des dispositions légales et des justifications de fait
– La copie de la correspondance adressée à l’auteur ou à l’éditeur des informations ou activités litigieuses demandant leur interruption, leur retrait ou leur modification, ou la justification de ce que l’auteur ou l’éditeur n’a pu être contacté.

Il fallait donc carrément contacter soi-même l’auteur du contenu de haine en question, avant de se tourner vers la plateforme !! Imaginez l’absurdité : il fallait d’abord envoyer un message privé à Nazi92 pour lui dire de retirer son commentaire enjoignant les juifs à mourir par le feu, avant de signaler la présence de ce message dans les bonnes formes à l’hébergeur du forum !

La jurisprudence imposait jusqu’ici que la notification à l’hébergeur soit faite strictement dans ces formes prévues à cet article de la LCEN même si la loi ne l’imposait pas explicitement comme condition de l’engagement de la responsabilité des hébergeurs. Cela signifie aussi que les boutons de signalement que l’on trouve depuis longtemps sur les réseaux sociaux et autres sites communautaires ne représentent pas un signalement dans les formes légales permettant d’engager leur responsabilité. Il s’agit là plus de systèmes de signalement mis à disposition volontairement par les plateformes pour régler les petites affaires en famille.

Cette position s’explique certainement par le fait que la responsabilité des hébergeurs ne doit pas pouvoir être engagée sur la base d’une connaissance simplement potentielle de la présence d’informations illicites. La connaissance du caractère manifestement illicite du contenu en cause doit en effet être effective. C’est une garantie forte de la liberté d’expression, mais c’est peu efficace dans une optique répressive !

C’était la préhistoire l’ancien temps, en 2004 les plateformes bénéficiaient donc de ce statut très protecteur d’hébergeur, qui s’oppose au statut d’éditeur, car elles ne pouvaient pas raisonnablement être tenues responsables de ce que les utilisateurs y postaient. Les fils d’actualités personnalisés que l’on retrouve partout aujourd’hui, et donc les algorithmes d’analyse et de sélection de contenus, demeuraient encore à l’état embryonnaire. En 16 ans, la technologie a beaucoup évolué et c’est ce que prend en compte la loi Cyberhaine, dite Loi Avia.

Vers une censure de plus en plus automatisée : la proposition de loi Cyberhaine

La loi Avia, ou Cyberhaine, est décriée depuis le début de son existence, soit l’année dernière. Cette loi porte le nom de la députée rapporteuse du texte, Laetitia Avia, avocate, élue LREM de la 8e circonscription de Paris, et porte-parole du parti.

Il y a une cyber-censure beaucoup plus répressive et, là encore, sans intervention d’un juge ! Le texte vise à lutter contre les contenus haineux sur internet, et a été adopté par l’Assemblée nationale le 22 janvier. La navette parlementaire n’est pas encore terminée à l’heure où j’écris ces lignes. Mais les députés ayant le dernier mot, il y a bien peu de chances que le texte ne change fondamentalement avant son adoption définitive.

Loi Avia Cybercensure et censure algorithmique

C’est Laetita Avia, avocate et députée LREM, qui porte le projet de loi “Haine” ; mission qui lui a été confiée par le Premier ministre Edouard Philippe. Cette loi va pousser les plateformes à massivement utiliser des algorithmes de censure.

Les mesures phares de la Loi Avia

Avant de présenter des mesures répressives, la loi prévoit de lutter contre les contenus haineux en ligne en amont.

La loi prévoit tout d’abord, il faut le rappeler, de lutter contre la cyber-haine en amont. Son article 6 prévoit par exemple d’inscrire dans le programme scolaire des modules de « lutte contre la diffusion de messages haineux en ligne » et de former à « l’utilisation responsable des outils et des ressources numériques scolaires ». Même chose pour les professeurs, dont la formation « en matière de lutte contre les contenus haineux en ligne » sera renforcée.

Un observatoire de la haine en ligne sera créé pour veiller au bon respect de la loi et examiner l’évolution du discours de haine en ligne. Ce nouvel organisme sera mis sous la tutelle du CSA qui, en plus de récupérer bientôt les pouvoirs de la Hadopi, va jouer un large rôle dans la construction et l’application de cette loi. Espérons que cet observatoire sera plus qu’une coquille vide pour placer les copains…

Mais le coeur du réacteur se trouve dans ses mesures répressives

L’obligation de fournir un moyen de notification

L’article 2 de la loi Avia exige que les plateformes susceptibles d’héberger des contenus manifestement illicites offrent obligatoirement un moyen de notification « uniforme, directement accessible et facile d’utilisation ». Hors de question donc de devoir plonger dans des sous-menus pour signaler un contenu : le bouton doit être trouvable par tout le monde.

Il s’agit d’un grand pas depuis la LCEN de 2004 : d’abord on arrête avec cette notification au formalisme excessif pour la notification permettant d’engager la responsabilité d’une plateforme qu’on aurait dit conçue pour les avocats. Désormais c’est le bouton de signalement que la plateforme est désormais obligée de proposer, qui permettra de lui notifier légalement la présence du contenu manifestement illicite et qui fera foi devant la Justice

Si la plateforme refuse de supprimer un contenu manifestement illicite ou si elle le fait trop tard, son représentant fera l’objet d’un délit pénal puni d’un an d’emprisonnement et de 250 000 euros d’amende (article 3 bis). L’amende pourra être portée à 1,25 million d’euros dans le cas d’une personne morale. Le Conseil supérieur de l’audiovisuel (CSA) pourra également lui infliger une sanction administrative qui pouvait atteindre jusqu’à 4 % de son chiffre d’affaires annuel mondial (article 4). C’est potentiellement extrêmement sévère, et ça nous rappelle un certain RGPD ! Sans oublier le signalement abusif qui lui sera puni d’un an d’emprisonnement et de 15 000 euros d’amende (article 1 ter).

Le retrait des contenus sous 24 h

C’est à la foi le cœur du texte et le point qui provoque le plus de tensions : l’obligation pour les plateformes de retirer un contenu manifestement illicite dans un délais de 24 heures après un signalement. Dans le cas où un contenu viole la loi française (discrimination, appel à la haine, harcèlement, etc.), les plateformes du web devront le retirer en une journée, sous peine d’amende sévère. C’est un laps de temps très court !

En gros, on va laisser à Facebook, Twitter, Google et toute la bande la responsabilité de juger de la légalité ou non des contenus. Car c’est bien ça, le manifestement illicite, comme je l’ai décrit un peu plus haut. Et comme ils ne veulent pas de cette responsabilité, mais qu’ils sont rationnels, les GAFA prendront le moins de risques possible. Pour minimiser le risque juridique, les géants du net vont donc être tentés d’avoir une vision très restreinte de la liberté d’expression. Il est souvent très compliqué de savoir où poser la limite entre ce que l’on peut dire ou non, alors mieux vaut se protéger.

Mais les GAFA sortiront également grands gagnants de cette loi contre la haine en ligne. Les délais sont intenables humainement, mais il n’y a pas qu’eux qui sont concernés. Tous les autres acteurs du web risquent de faire appel à eux pour censurer automatiquement les contenus à risque. Cela les mettra probablement en situation de quasi monopole pour fournir ce nouveau marché de la censure algorithmique. L’efficacité de cette censure sera un enjeu crucial pour maîtriser le risque juridique que courent ces acteurs.

Ce sera laisse aussi présager un cercle vicieux : il faut beaucoup de contenu pour « entrainer » un algorithme de censure. L’ensemble des acteurs fera appel aux mêmes producteurs d’algorithmes, dont l’efficacité augmente à mesure qu’ils atteignent une situation monopolistique. Enfin, maîtres d’un produit très demandé, ces producteurs d’algorithmes maintiendront leur code fermé et leurs secrets bien gardés (j’y reviendrais).

Cette mesure conduit donc à une consécration de fait de la privatisation de la censure. Pas choquant pour Google, dont le droit de censure vient d’être reconnu conforme à la Constitution américaine par la cour d’appel de San Francisco.

Retrait des contenus sous 1h

Critiqué de toute part pour son absence de recours à un juge, cet article que beaucoup imaginent être le début d’une censure systématique du web, a gagné un amendement encore plus polémique lors de l’examen par les députés.

En effet, les contenus pédocriminels et terroristes (signalés par la police, cette fois) devront être retirés sous 1 h sous peine de blocage administratif. C’est à dire que les opérateurs bloqueront l’accès au site web en question depuis la France. C’est donc un délai qui semble intenable puisque cela exige que les plateformes visées soient disponibles 24 h/24 et 7 j/7 sous peine de disparition pure et simple. Intenable humainement pour les grandes entreprises, mais alors que penser des services web fournis par des petites entreprises ou par le milieu associatif ?

Pharos et censure algorithmique

La police pourra signaler aux plateformes la présence de certains contenus illégaux critiques (pédopornographie…). Elles disposeront alors d’une heure pour les supprimer, sous peine d’amende et de blocage administratif. Comment tenir un délai aussi court, mais vital, sans automatisation ?

La Quadrature du Net, qui n’a jamais caché son hostilité pour le texte, dénonce ce changement qui obligera les plateformes à censurer automatiquement et à tour de bras pour ne pas prendre de risques :

« Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. »

Cette mesure présente également une concentration totale des pouvoirs dans les mains de la police. C’est d’abord elle qui décidera quelles plateformes cibler. Ensuite, c’est encore la police qui qualifiera un contenu comme étant illégal aux yeux de la loi. Enfin, c’est encore et toujours la police qui mettra en oeuvre la sanction.

On peut aisément imaginer des personnes malveillantes (un concurrent, voire la police elle-même) poster des contenus illégaux sur une plateforme qu’elles souhaitent couler ; et la voir se faire sanctionner et bloquer car incapable de détecter et supprimer le contenu une heure après le signalement par la police. La France va globalement dans le sens d’un fort recul des libertés sur internet, dans la même lignée que la loi renseignement de 2015 contre laquelle j’étais déjà très remonté à l’époque.

L’asphyxie économique des sites miroirs

Pour éviter qu’après un blocage d’un site contenant des propos « haineux », d’autres sites miroirs sortent de l’ombre (à l’image des sites de streaming illégal), les policiers pourront exiger leur blocage, car « reprenant le contenu du service visé par ladite décision en totalité ou de manière substantielle ».

La liste des sites mis au ban sera tenue à disposition des annonceurs et régies publicitaires pour encourager ces derniers à ne pas passer leurs réclames chez eux. C’est du bon sens, c’est une manière de tarir la manne des revenus publicitaires et d’asphyxier les sites concernés. Les annonceurs ne se pliant pas à cette règle seront tenus « de rendre publique au minimum une fois par an sur leurs sites internet l’existence de ces relations ». Mauvaise pub assurée !

Vers une censure algorithmique

De nombreux députés ont pointé le rôle exorbitant que la loi Avia donnait aux géants du numérique :

« Vous confiez la censure à Google, Facebook et Twitter. Cette censure algorithmique m’inquiète. Je crains qu’ils éliminent les contenus politiques ou polémiques, que cela réduise les réseaux sociaux aux chatons et à la marchandise, que cela instaure une tranquillité artificielle, un couvercle de plus sur la marmite France » a défendu François Ruffin (LFI) lors d’une motion de rejet préalable (juillet 2019).

La réalité, c’est que la masse des données générées sur les réseaux sociaux ne peut être traitée que par la machine. L’appréciation humaine n’intervient qu’à titre d’arbitrage une fois que le « mal » est fait. Ce sont d’obscurs algorithmes qui décident de ce qui peut rester en ligne ou pas. C’est donc la censure algorithmique qui se chargera, hâtivement mais aussi massivement, de juger au cas par cas de la légitimité et de la légalité des contenus postés par les internautes. Comment cette censure pourra-t-elle par exemple évaluer la légalité de propos humoristiques, avec leur contexte ou leurs références ? Qu’en sera-t-il de l’ironie ou de l’humour noir qui ne doivent pas être pris au premier degré ?

Les réseaux sociaux ont cependant leurs propres valeurs quand il s’agit de politiquement correct. Facebook s’est en effet montré jusqu’ici beaucoup plus enclin à censurer l’Origine du monde de Gustave Courbet (une affaire qui a duré 8 ans !) que l’apologie du terrorisme ou le harcèlement.

Algorithme de censure : l’effet boite noire

L’algorithme tirant les ficelles des mesures de censure est extrêmement opaque.

Son opacité de forme correspond au secret des affaires, et à la propriété intellectuelle férocement gardée de la multinationale qui aura déboursé des sommes folles pendant des années pour arriver à le développer. Pour ce problème qui ne date pas d’hier, le développement du logiciel open source est une solution très intéressante : un code en libre accès, que chacun pourrait consulter et étudier.

Mais son opacité résulte aussi de sa nature : quelle personne sur terre serait capable de tirer la substantifique moelle du code se trouvant derrière l’algorithme de censure ? Il s’agit de l’oeuvre de centaines voire de milliers d’ingénieurs de pointe pendant de nombreuses années ! Il n’est même pas donné qu’un faible nombre d’experts dans le monde ne possède, individuellement, les compétences pour analyser ce code.

Il s’agit ici du problème majeur de l’explicabilité des décisions algorithmiques : comment rendre une IA transparente ?. C’est un problème que nous n’avons pas fini d’explorer, et qui se pose majoritairement pour les décisions administratives automatisées qui ont un fort impact sur la vie des citoyens. L’explicabilité de ces décisions est d’ailleurs devenue une obligation légale depuis la Loi pour une République Numérique (LRN) de 2016. La décision automatisée de censurer un contenu sur internet, par nature, en est-elle si éloignée ?

C’est un sujet qui mériterait amplement un article dédié, en attendant je vous propose cette piste de réflexion fort intéressante d’un chercheur en IA renommé :

Cette censure déshumanisée ne pourra peut-être jamais être expliquée, en tout cas pas sans étude au cas par cas, pourvu qu’elle soit efficace.

Censure algorithmique : est-ce seulement nouveau ?

La censure automatisée de texte mais aussi de photos et vidéos existe déjà !

Alors que ça paraît déjà compliqué de censurer des posts et commentaires, les photos qui sont plus complexes à appréhender que du simple texte, sont modérées par les algorithmes depuis longtemps. On connait bien le cas de Facebook et son puritanisme voulant systématiquement censurer les photos de nudité. Il y a eu cependant une évolution : exception est maintenant faite pour les photos de chirurgie réparatrice, de maternité, etc.

Sur Instagram, si l’algorithme juge indécent pour une femme de montrer sa poitrine, il en fait de même pour une petite fille qui poserait sans haut. L’algorithme d’Instagram avait même fait scandale après avoir supprimé automatiquement les photos de petits garçons aux cheveux longs, posant torse nu sur la plage, parce qu’ils ressemblaient à des petites filles. Cela avait révélé que le système était configuré pour différencier visuellement les petits garçons des petites filles et appliquer la censure le cas échéant ! Un phénomène qui questionne peut-être les standards de normalité ou de moralité édictés par les réseaux sociaux, mais qui en dit surtout long sur leur fonctionnement en coulisses…

La cyber-censure mène aussi… à l’autocensure !

Qui se sait surveillé change de comportement. C’est la même chose dans le cas d’une censure algorithmique. Un exemple édifiant est celui de Youtube, qui exerce depuis des années une censure sur les contenus vidéo. Il s’agit pour la plateforme de Google de protéger les ayants-droits en censurant les vidéos présentant des contenus soumis à droit d’auteur (via le système maison Content ID), mais aussi de contenter les annonceurs, qui je le rappelle, sont sa principale source de rémunération.

Les Youtubers font preuve depuis longtemps d’une forte autocensure dans leurs vidéos. Ces vidéastes, pour éviter le « strike » de Content ID qui veille au grain sur le droit de la propriété intellectuelle, ont parfois recours à différentes astuces pour ne pas se faire griller. C’est devenu un meme, un délire récurrent chez certains d’entre eux, comme MisterJDay qui produit de nombreuses parodies de clips de musique ou de publicités. En effet, en droit français et européen, ce type d’œuvre bénéficie normalement d’une exception au droit d’auteur pour parodie. Mais en pratique, avec Youtube, il n’en est rien…

Le système Content ID de Youtube, pour des raisons techniques (et peut-être aussi économiques), ne fait pas la différence et censure massivement. C’est d’ailleurs le cas en général pour ce type d’œuvre en agrégeant d’autres. Certains vidéastes ne peuvent pas prendre le risque de perdre les revenus publicitaires de leurs vidéos même s’ils sont dans leur bon droit, mais sont bien seuls face à la machine infernale et sont contraints de s’autocensurer. De manière générale, l’algorithme de censure mais aussi de sélection du contenu sur Youtube est de plus en plus contesté par les vidéastes, qui l’accusent d’aseptiser la création.

Un monde numérique censuré par des algorithmes dont les secrets sont gardés par des multinationales, et parfois même une censure exercée par une police qui concentre tous les pouvoirs, laissent entrevoir de très nombreuses dérives et atteintes à la liberté d’expression. La loi Avia, bien que très bien intentionnée et répondant parfois efficacement au phénomène du harcèlement en ligne, dépasse ce cadre. Cette loi va pousser à la censure automatisée de l’ensemble des contenus du web qui sont postés par les internautes. Pour faire genre je veux grave vous faire réfléchir, voici une citation d’Elsa Godart, psychanalyste :
« L’algorithme modifie effectivement notre rapport à la parole et à la pensée, et donc à notre rapport à la moralité : ce que l’on s’autorise ou pas ».

C’est pour tout cela que l’on peut dès maintenant clairement l’affirmer : Malgré les lois, l’Etat a abandonné aux réseaux sociaux l’arbitrage de la liberté d’expression.

Il faut faire d’Internet un espace de droit : entre peste et choléra, censure algorithmique et abolition de l’anonymat, l’Etat a fait son choix. Mais il continue de lorgner des deux côtés. []

______

Timothée Fournié-Taillant, le Pixel Conscient

A propos Timothée Fournié-Taillant (19 articles)
Étudiant en droit, passionné de nouvelles technologies, j'ai créé mon blog Pixel Conscient pour y publier mes réflexions et articles de fond sur l'ère numérique. Je souhaite devenir juriste spécialisé en droit des NTIC. Contact timothee(at)pixelconscient.net
Contact : Site webTwitter

1 commentaire sur Loi Cyberhaine : vers le développement d’une censure algorithmique

  1. Le cas de Laetitia Avia n’est pas sans rappeler celui d’un certain M’jid El Guerrab député LREM qui s’est illustré il y a peu par une tentative d’assassinat (en bonne et due forme) sur la personne de Boris Faure,responsable du parti socialiste de la région parisienne.Comme cela est la règle en macronie les délinquants n’ont pas été jugés ni condamnés.Le modus operandi est toujours le même :menace,insulte,harcèlement et violence,parfois inouïe à l’encontre des contradicteurs de la LREM.La France est ainsi gouvernée par de pseudo « responsables » qui n’hésitent pas à recourir à des moyens particulièrement persuasifs pour masquer leur incompétence crasse.La violente répression conduite par les pouvoirs publics à l’encontre des gilets jaunes l’a montré de façon définitive puisque les nervis de la police de macron n’ont pas hésité à recourir aux mutilations pour faire taire les opposants .La violence et le mépris de la vie humaine sont consubstantielles au dangereux populisme qu’est le macronisme.Quand on sait que la macronie est un avatar du parti socialiste et que ce même parti socialiste a bruyamment appelé à voter pour M.Macron au 2ème tour des élections présidentielles on ne peut que constater la mort clinique de la gauche néolibérale.C’est ironique et cruel aussi.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*