Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Deuxième analyse de la loi « haine »

Thu, 27 Jun 2019 14:25:15 +0000 - (source)

Le 3 juillet, l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet », déjà adoptée sans grand changement en commission des lois le 19 juin (lire notre réaction).

La Quadrature du Net a envoyé aux 577 députés l’analyse juridique reproduite ci-dessous (aussi en PDF), qui met à jour l’analyse envoyée à la commission des lois avant le vote de celle-ci.

Lettre aux députés : PPL Avia, refusez les mesures inutiles et dangereuses

Mesdames, Messieurs les députées,

Vous examinerez mercredi prochain la proposition de loi « contre la haine sur Internet ». En l’état, cette proposition ne permettra pas d’atteindre l’objectif qu’elle se donne mais renforcera uniquement les risques de censure politique.

La Quadrature du Net vous appelle à supprimer son article 1er et à modifier la loi tel qu’exposé ci-après.

Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir « interopérables » pour permettre aux victimes de se libérer des modèles économiques favorisant la haine.

A. Le champ personnel excessif du retrait en 24h

En droit, toute restriction de libertés, telle que la liberté de communication, n’est valide que si elle est strictement nécessaire à la réalisation de l’objectif qu’elle poursuit1Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007)..

L’objectif poursuivi par cette PPL est de contenir la multiplication des discours de haine et de harcèlement survenue sur les grandes plateformes commerciales — Facebook, Youtube et Twitter. Pour ce faire, son article 1er exige le retrait en 24h des contenus signalés qui sont manifestement illicites, restreignant la liberté de communication tant de ces plateformes que de leurs utilisateurs.

Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L111-7 du code de consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (qu’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale tel que Wikipédia seront aussi concernés. Pourtant, leur modèle de modération qui repose sur une communauté bénévole et investie a su se montrer bien plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par Mme Avia ni par le gouvernement.

Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par cette PPL. Pourtant, n’ayant pas de modérateurs professionnels, elles ne pourront en respecter l’article 1er et devront cesser leur activité devant la menace de sanctions inévitables. Cette restriction de leur liberté de communication est inutile et donc juridiquement invalide.

B. Un délai de 24h contre-productif

En droit, une mesure est invalide si elle restreint davantage de libertés que ne le ferait une autre mesure capable d’atteindre aussi efficacement l’objectif qu’elle poursuit2Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil)..

En l’espèce, imposer un délai de 24h pour retirer un contenu manifestement illicite est susceptible de provoquer d’importantes restrictions de libertés, tel que le sur-blocage de propos licites ou le dévoiement de la mesure à des fins de censure politique. Ce délai fixe produit un autre effet nocif : il empêche les plateformes d’examiner en priorité les contenus les plus graves ou les plus partagés, car elles doivent traiter tous les signalements, même les moins graves, dans un même et unique délai.

À l’inverse, le droit actuel (la loi pour la confiance dans l’économie numérique de 2004, LCEN) n’exige le retrait des contenus manifestement illicites que dans un délai « prompt » : proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Ceci permet de traiter en priorité les situations les plus nocives, ce qui est bien plus efficace pour atteindre l’objectif poursuivi par la loi, tout en réduisant les risques de sur-blocage et de censure politique.

Par ailleurs, imposer un délai de 24h serait d’autant plus inutile qu’il est matériellement irréaliste : dans bien des cas, il ne pourra être respecté par aucune plateforme et ne sera donc pas sanctionné. Exemple sinistre mais probant, la vidéo de la tuerie de Christchurch a été dupliquée 1,5 millions de fois sur Facebook dans les 24h suivant l’attentat, au cour desquelles 300.000 copies auraient entièrement échappé aux outils de modération automatisés de l’entreprise, de l’aveu même de celle-ci3« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand. Cet événement a démontré l’incapacité structurelle des outils de modération automatisés à faire face à de telles menaces en 24h. La loi perdrait toute emprise sur le réel en exigeant l’inverse.

À l’inverse, le droit actuel a déjà pu s’appliquer concrètement contre un hébergeur ayant échoué à retirer en 24h un contenu illicite dans le cas où un tel délai était réaliste et où la situation le justifiait spécifiquement4Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi..

En conclusion, imposer un délai de 24h serait moins efficace qu’un délai apprécié au cas par cas, tel que prévu actuellement par la LCEN, car cela empêcherait de traiter les situations les plus graves en priorité tout en étant matériellement irréaliste, privant la loi de son lien au réel. Puisqu’une telle mesure restreindrait davantage de libertés que celles prévues actuellement par la LCEN, elle serait inutile et donc invalide.

C. Un délai de 24h favorisant la censure politique

En droit, le principe de la séparation des pouvoir exige que l’autorité qui poursuit les auteurs d’infractions (le pouvoir exécutif) soit distincte de celle qui constate ces infractions (pouvoir judiciaire) et que cette seconde autorité soit indépendante de la première5Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. ».

En l’espèce, le délai de 24h pour retirer les contenus est si court qu’il empêchera les plateformes d’examiner tous les signalements avec le même niveau de diligence. Dans ces conditions, elles n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs utilisateurs jugés les plus fiables. Vraisemblablement, les contenus signalés par les comptes des services de la police seront traités de façon expéditive : Facebook ou Twitter seraient bien peu pragmatiques s’ils « perdaient du temps » à examiner les signalements de la police alors que des milliers de signalements à l’origine bien plus incertaine et complexe devront être examinés en urgence dans la même journée.

Ce pouvoir « de fait » de la police a déjà été dévoyé à des fins de censure politique. Dernier exemple en date : en réponse à une demande CADA de La Quadrature du Net, la police a expliqué avoir signalé à Google le 13 janvier 2019 une image caricaturant Emmanuel Macron sous les traites du dictateur Pinochet. Dans les documents transmis, le signalement est enregistré dans la catégorie « injures et diffamations xénophobes ou discriminatoires »6Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron. Cette qualification, en plus d’être une aberration juridique, entre exactement dans le champ des infractions que la PPL Avia imposera de retirer en 24h.

En conclusion, l’article 1er de la PPL Avia, en exigeant d’évaluer la licéité des contenus signalés dans un délai de 24h, décuplera les risques de retrait de contenus signalés par la police qui, tout en étant licites, vexeraient le pouvoir exécutif. En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les « infractions » contre lesquelles il prétend lutter et imposant cette qualification aux plateformes qui, menacées de lourdes sanctions, lui sont largement soumises et nullement indépendantes. Ce délai n’étant par ailleurs pas nécessaire, il est d’autant moins valide qu’il accroît sensiblement les risques de violation de la séparation des pouvoirs.

D. Une lutte illégitime contre les travailleuses du sexe

L’article 1 de la PPL, telle que complété en commission des lois, entend désormais lutter contre les infractions définies aux articles 227-23 et 227-24 du code pénale, qui punissent les faits « d’aider, d’assister ou de protéger la prostitution d’autrui » ou bien « de faire office d’intermédiaire entre deux personnes dont l’une se livre à la prostitution et l’autre exploite ou rémunère la prostitution d’autrui ».

Cet ajout poussera encore davantage Facebook et Twitter à exclure activement de leurs plateformes les travailleuses du sexe ainsi que leurs groupes d’entraide, leur fermant une alternative au travail en extérieur où elles seront exposées à bien plus de violences. Une telle situation trahit l’objectif de cette PPL qui prétend défendre les victimes de violences.

E. La conservation des données renforcée, en violation du droit de l’Union

L’article 3 bis du texte adopté en commission des lois propose d’augmenter la sanction des fournisseurs d’accès à Internet et des hébergeurs qui ne conservent pas les données de connexion de l’ensemble de leurs utilisateurs (adresses IP notamment), telle que fixée au 1 du VI de l’article 6 de la LCEN.

Dans son arrêt Tele27L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2, la Cour de justice de l’Union européenne a déclaré qu’une telle mesure de surveillance de masse est contraire à la Charte des droits fondamentaux de l’Union et que seules des mesures de conservation ciblée sur des personnes soupçonnées peuvent être autorisées. La Quadrature a contesté la conformité de l’obligation française devant le Conseil d’État, dont le rapporteur public a reconnu l’absence de conformité du droit français au droit de l’Union et conduit le Conseil à transmettre des questions préjudicielles à la Cour de justice de l’Union européenne à ce sujet8Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1.

Dans l’attente de la réponse de cette dernière, la moindre des choses de la part du législateur serait de ne pas aggraver la violation par la France du droit de l’Union en renforçant la sanction de cette obligation inconventionnelle. Cet article doit être supprimé.

F. L’absence de garde fou à la lutte contre les sites miroirs

L’article 6 de la PPL permet à la police d’ordonner aux opérateurs Internet de bloquer un site sur lequel est reproduit un contenu illicite dont un juge a interdit « la reprise totale ou partielle ».

Ces nouveaux pouvoirs donnés à la police comportent de graves risques de dévoiement à des fins de censure politique. L’exemple donné plus haut de la vidéo de Christchurch en donne une illustration parfaite. Si un juge, doté des pouvoirs prévus par cet article 6, avait interdit « la reprise totale ou partielle » de la vidéo du massacre de Christchurch (hypothèse crédible), la police aurait eu toute liberté pour exiger le blocage de l’ensemble du site Facebook, dans la mesure où Facebook a été incapable de supprimer la vidéo, dont au moins 300 000 copies ont échappé à sa modération.

Mme Avia semble parfaitement ignorer cette réalité : il est impossible pour un hébergeur d’éviter que ses utilisateurs ne partagent la moindre copie d’un contenu interdit. Une poignée d’amateurs l’a parfaitement démontré en modifiant légèrement la durée, la couleur ou le son de la vidéo de Christchurch pour contourner presque entièrement les algorithmes de Facebook.

Si la « reprise totale ou partielle » d’un contenu était interdite par un juge, en application de cet article 6, absolument tout hébergeur serait virtuellement en violation de cette obligation du fait de certains des ses utilisateurs, sans qu’il ne puisse rien y faire. La police se trouvera seule à décider lesquels de ces sites seront censurés, entièrement libre de dévoyer ce choix arbitraire à des fins politiques. Hypothèse concrète : la police ne demanderait pas la blocage de la plupart des sites hébergeant un contenu interdit par un juge (tels que Facebook ou Youtube) mais exigerait le blocage de plateformes critiquant la politique du gouvernement et où un utilisateur malveillant aurait insidieusement publié le contenu interdit. Cette hypothèse est des plus crédibles lorsqu’on rappelle que l’OCLCTIC a déjà dévoyé de façon illégale ses pouvoirs de lutte contre le terrorisme pour tenter de censurer des plateformes d’extrême-gauche telles que Indymedia (voir le jugement du 31 janvier 2019 du tribunal administratif de Cergy-Pontoise, qui reconnaît cet abus de la police).

Une garantie classique contre cette dérive est le « principe de subsidiarité », déjà prévu de façon imparfaite (mais prévu toutefois) à l’article 6-1 de la LCEN en matière de censure administrative des contenus terroristes et pédopornographiques. Ce principe veut que les pouvoirs publics demandent d’abord à l’hébergeur de retirer le contenu interdit. Ce n’est que dans le cas où celui-ci refuse clairement de coopérer, lorsque lui a été laissé un délai suffisant pour ce faire et que sa défaillance ne résulte que d’une faute lourde et manifeste, que son blocage par les opérateurs Internet peut être considéré.

Sans rendre les mesures de censure efficaces ou légitimes, cette garantie est la moindre des choses requises. Il serait inconcevable que la lutte contre la haine soit encadrée de moins de garanties que la lutte contre le terrorisme.

G. La disparition du principe de subsidiarité en matière de signalement

L’article 1 bis du texte adopté en commission des lois crée un formalisme spécifique pour signaler les contenus visés à l’article 1 de la PPL. Ce formalisme est considérablement allégé comparé à celui du droit commun, tel que décrit à l’article 6, I, 5, de la LCEN.

La principale nouveauté de ce formalisme spécifique est que l’auteur d’un signalement n’aura plus à justifier avoir contacté au préalable l’auteur du propos problématique pour lui demander de le corriger. La suppression de cette exigence constitue un autre renoncement au « principe de subsidiarité », pourtant au cœur du mécanisme de signalement de la LCEN.

Ce principe veut que les utilisateurs tentent de régler les situations problématiques d’abord entre eux, notamment pour dissiper les simples malentendus ou confusions qui auraient pris l’apparence du conflit. Ce n’est que lorsque cette tentative a échoué que la plateforme doit être contactée pour résoudre le conflit. Ceci permet à la plateforme de se concentrer sur les cas les plus graves sans être retardée par des cas que les utilisateurs auraient résolus plus efficacement eux-mêmes.

Exemple typique : une personne cite sur Twitter un propos haineux pour le dénoncer ; un tiers est choqué par ce propos et n’est pas certain s’il s’agit d’un propos original ou d’une citation critique ; plutôt que de signaler le propos à Twitter, qui peine déjà tant à traiter les très nombreux signalements qu’il reçoit, il serait plus efficace que le tiers contacte lui-même l’utilisateur initial, afin que celui-ci dissipe la confusion et corrige son message initial pour le rendre moins ambigu.

La suppression de ce principe de proportionnalité dessert l’objectif de lutte contre les propos oppressifs, car surchargerait inutilement les plateformes de signalements qui auraient été plus efficacement traités autrement. Cet article 1 bis doit être supprimé.

H. L’interopérabilité, une solution plus efficace que la répression

Les mesures restrictives de libertés sont d’autant moins nécessaires, et donc valides, si le législateur pouvait adopter d’autres mesures qui, ne limitant aucune liberté, permettraient de se rapprocher davantage de l’objectif poursuivi. L’objectif de cette PPL n’est pas de sanctionner les auteurs de propos haineux mais uniquement de limiter la façon dont le public, et plus particulièrement les victimes, y sont exposées.

Comme vu ci-avant, le délai de 24h est contre-productif pour atteindre cet objectif. Son inefficacité résulte du fait qu’il ne cherche à traiter que les symptômes et non les causes. Or, deux des causes du problème que la PPL souhaite résoudre peuvent être efficacement traitées par le législateur.

1. Deux causes

Première cause : le nombre de personnes réunies sur les plateformes commerciales géantes facilite les stratégies de harcèlement, plaçant les victimes à portée immédiate de leurs oppresseurs. Leur taille est si importante qu’elle empêche toute modération crédible : Facebook ne pourra jamais embaucher assez de modérateurs pour ses 2 milliards d’utilisateurs revendiqués et ses outils automatisés ont prouvé leur inefficacité intrinsèque avec l’événement de Christchurch.

Seconde cause : Mme Avia dénonce elle-même le « lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible »9Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
. Ce que nous appelons « culture du buzz » ou « économie de l’attention » est au cœur du modèle des grandes plateformes commerciales, dont la raison d’être est de capter l’attention du plus grand nombre de personnes possible, le plus longtemps possible, afin de leur afficher de la publicité.

D’après Youtube, 70% des vidéo visionnées sur la plateforme le sont sur recommandation de son algorithme10« YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan. Guillaume Chaslot, ancien employé de l’entreprise, explique que cet algorithme favorise avant tout les vidéos regardées le plus longtemps, indépendamment de leur contenu ou de leur réception par le public (pouces bleus et rouges). En étudiant ces recommandations, il constate que l’algorithme favorise les contenus agressifs, diffamants, choquants ou complotistes : « C’est comme une bagarre dans la rue, la plupart des gens s’arrêtent pour regarder, quasiment tout le monde réagit »11Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.. Par leur effet sidérant, ces contenus retiendraient efficacement notre attention. Pour être mieux référencées, les vidéastes se retrouvent implicitement incités à en produire.

Twitter provoque une situation similaire : le fonctionnement de son « fil d’actualité », la brièveté des messages qu’il impose ainsi que ses mécanismes de citation favorisent l’invective, le buzz, le conflit, tout en rendant quasiment impossibles les propos d’apaisement et de compréhension qui peuvent rarement se tenir en 280 caractères. Quant à Facebook, pour séduire les annonceurs, il se vante directement d’être capable d’altérer l’humeur de ses utilisateurs en manipulant leur « fil d’actualité »12« Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html, ce qui permet de faire naître les attentes et angoisses propices à la publicité tout en faisant rester les utilisateurs plus longtemps.

2. Une solution

Ces deux sources de mal-être (la taille ingérable des plateformes et leur culture du buzz) contribuent sensiblement au ressenti de « haine en ligne » contre lequel la PPL Avia entend lutter, sans toutefois rien proposer pour le résoudre efficacement. Une solution législative concrète serait de permettre aux utilisateurs de ces plateformes d’en partir : aujourd’hui, partir de Facebook ou de Twitter implique de ne plus communiquer avec toutes les personnes (famille, amis, soutiens) qui s’y trouvent. De nombreuses personnes sont donc contraintes de rester dans ces environnements toxiques, propices aux conflits et au harcèlement, car le coût social à payer pour s’en libérer est trop important.

Pour faire disparaître ce coût et permettre aux victimes de se protéger librement, la loi devrait obliger les grandes plateformes commerciales à devenir « interopérables » : qu’elles permettent à leurs utilisateurs de communiquer avec les utilisateurs d’autres plateformes similaires (dans le cas de Twitter, par exemples, ces « autres plateformes similaires » pourraient être les milliers de services utilisant le logiciel de micro-blogging décentralisé Mastodon). Ces autres plateformes, déjà nombreuses, offrent des règles de modérations variées et, ainsi, adaptées aux besoins et envies de chaque personne, allant de lieux « sanctuaires » ou non-mixtes à des espaces de discussions libres moins strictement modérés. Chaque personne peut librement choisir le type de modération correspondant à ses besoins.

D’un point de vue technique, respecter cette obligation serait facilité par les nombreux développements récents en matière de réseaux sociaux décentralisés, que ce soit de la part des acteurs du logiciel libre (GNU Social, Mastodon, Plemora, PeerTube…) ou des organisations internationales de normalisation, tel que le W3C (World-Wide Web Consortium) ayant publié en 2018 un protocole pour réseaux sociaux décentralisés, « ActivityPub ».

Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir interopérables pour permettre aux victimes de se libérer de leur modèle économique favorisant la haine.

References   [ + ]

1. Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).
2. Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).
3. « Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand
4. Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.
5. Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »
6. Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron
7. L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2
8. Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1
9. Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
10. « YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan
11. Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.
12. « Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html

Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles