Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Règlement terroriste européen : nous saisissons la Défenseure des droits

Wed, 20 Jan 2021 15:33:04 +0000 - (source)

Le 11 janvier dernier, la commission LIBE du Parlement européen (pour Commission des libertés civiles, de la justice et des affaires intérieures) a voté le règlement sur le retrait des contenus « à caractère terroriste ». C’est la dernière étape avant le vote en plénière au Parlement, peut-être dès le mois d’avril.

Un silence assourdissant

Ce texte prévoit que n’importe quelle autorité d’un Etat membre de l’Union européenne puisse imposer à n’importe quel hébergeur sur Internet de retirer en une heure un contenu que cette autorité aura considéré comme étant à « caractère terroriste ». Concrètement, en France, cela permettra à la police de faire censurer en une heure n’importe quel texte ou vidéo sans l’autorisation préalable d’un juge.

Outre les dangers de surveillance et de censure politique que nous soulignons depuis plusieurs années, cette obligation de retrait en une heure est exactement celle qui, au sein de la loi Avia, a été censurée par le Conseil constitutionnel en juin 2020 dans le cadre de sa décision sur la loi Avia.

Le vote en commission LIBE de lundi ne donne pourtant lieu qu’à un silence assourdissant. Côté presse, la dernière actualité est celle d’un communiqué de l’AFP intervenu à la suite du compromis trouvé entre le Parlement et le gouvernement européens sur le texte. On y voit le gouvernement français se féliciter de cet accord, sans aucune mention du débat extrêmement vif qu’avait suscité la réplique de ce texte dans la loi Avia ni, évidemment, de la décision du Conseil constitutionnel de juin 2020.

À part ce communiqué, bien pauvre et partiel… rien. La suppression du compte de Donald Trump était manifestement un sujet plus léger et agréable à discuter que la censure de milliers de militants européens qu’il faudra redouter dès que l’ensemble du Web sera soumis à l’arbitraire de toutes les polices européennes.

Côté gouvernement par contre, on se félicite de cette situation. Que ce soit Clément Beaune, le secrétaire d’Etat aux affaires européennes, qui parle sans gêne d’une « avancée majeure, portée par la France ». Ou Emmanuel Macron qui se félicite de l’aboutissement d’un processus qu’il a engagé en 2017. Impossible aussi de ne pas mentionner les parlementaires français du Parlement européen qui se sont vantés de cette adoption, telles que Nathalie Loiseau et Fabienne Keller. Comme si tout l’appareil gouvernemental n’avait plus honte à admettre instrumentaliser l’Union européenne pour contourner la Constitution française et violer frontalement nos libertés.

Une saisine pour préparer le vote final

Nous avons donc décidé de saisir la Défenseure des droits sur ce sujet. Elle est en effet compétente pour veiller « au respect des droits et libertés par les administrations de l’Etat ». Or, le gouvernement français, et particulièrement le secrétaire d’Etat aux affaires européennes, Clément Beaune, a activement participé à faire avancer le processus d’adoption de dispositions déclarées en juin 2020 comme violant la Constitution.

Nous espérons également que, devant ce silence médiatique et ces abus anticonstitutionnels du gouvernement, toutes les organisations et journalistes qui étaient montés au créneau contre les dangers de la loi Avia feront de même sur ce dossier.


Nos données n’appartiennent qu’à notre humanité

Sun, 17 Jan 2021 08:43:00 +0000 - (source)

Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.

« – Et que fais-tu de ces étoiles ?
(…)
Rien. Je les possède.
(…)
Mais j’ai déjà vu un roi qui…
Les rois ne possèdent pas. Ils « règnent » sur. C’est très différent. »

Antoine de Saint-Exupéry,
« Le Petit Prince », Chapitre XIII
1

Une donnée est une information. Dans l’environnement informatique, la donnée est constituée d’une séquence de chiffres. L’ordonnancement de ces chiffres leur confère un sens particulier. Mais, la donnée subsiste aussi indépendamment de son support informatique. L’information brute existe, indépendamment de tout encodage numérique.

Lorsque cette information est susceptible d’être reliée, directement ou indirectement, à une personne physique, elle constitue une donnée personnelle2.

Les débats entourant le droit gouvernant les données personnelles voient régulièrement apparaître des propositions tendant à faire entrer ces données dans le champ du droit de propriété. Les positions les plus extrêmes, issues de cercles ultralibéraux, estiment même opportun de créer un droit de propriété privée sur les données personnelles afin que les individus puissent en négocier l’usage auprès des grands acteurs numériques contre une rémunération. Ces propositions sont présentées comme un moyen plus efficace de lutter contre le « pillage de nos données » que la législation actuelle en vigueur.

Pour séduisante qu’une telle proposition puisse paraître au premier abord, « l’application du concept de propriété est contestable philosophiquement et juridiquement, et n’apporte pas de réponses adéquates »3, ainsi que l’a parfaitement résumé la Commission nationale consultative des droits de l’homme (CNCDH).

Idée contestable (1) et efficacité hasardeuse (2), ce qui explique probablement pourquoi, au-delà de la CNCDH, nos institutions s’étant penchées sur la question ont, dans une rare unanimité – Conseil d’État4, CNIL5, CNNum6 –, rejeté l’idée de faire entrer les données personnelles dans le champ du droit de propriété. Il en va de même de la doctrine la plus éclairée en la matière7.

La Quadrature du Net rejette également la thèse de la patrimonialité des données personnelles. Elle considère que la protection de la vie privée et des données personnelles constitue un droit fondamental8 et que l’enjeu principal consiste à mettre fin à leur exploitation débridée, et non simplement à organiser une compensation monétaire par des tiers.

1.- Une idée contestable

En droit civil, la propriété est le droit de jouir et disposer des choses de la manière la plus absolue, pourvu qu’on n’en fasse pas un usage prohibé par les lois ou par les règlements9. Ses attributs sont classiquement assimilés à l’usus (le droit d’user de la chose), le fructus (le droit de percevoir les fruits de la chose) et l’abusus (le droit de disposer de la chose, notamment par l’aliénation ou la destruction).

En l’état du droit, il n’existe aucun droit de propriété sur les données brutes10. Un droit sui generis est certes reconnu au producteur d’une base de données11 lorsque la constitution, la vérification ou la présentation de son contenu atteste d’un investissement financier, matériel ou humain substantiel12 sur le plan quantitatif ou qualitatif.

Mais la donnée en elle-même est insusceptible de faire l’objet d’un droit de propriété. À l’instar des idées, qui sont de libre parcours13], les données ne sont susceptibles de faire l’objet d’un droit de propriété incorporelle que lorsqu’elles constituent en réalité une œuvre de l’esprit, revêtant un caractère original14. Elles rentrent alors dans le champ du droit d’auteur.

Partant, les personnes physiques ne disposent d’aucun droit de propriété sur leurs données personnelles15.

Il est vrai que certains arrêts récents de la Cour de cassation ont pu faire planer un doute sur la possibilité, pour de simples données, de faire l’objet d’un droit de propriété16. Mais si le doute est toujours permis, il est probable que si la juridiction avait souhaité consacrer un changement aussi important de paradigme, en dehors de toute base légale, elle aurait destiné ses décisions à une plus grande publicité – au-delà de la seule publication au Bulletin – et certains auteurs y ont vu plus que ce qu’il fallait y voir.

Le droit de propriété est une formidable fiction, qui prend ses racines dans des temps immémoriaux et répond à un besoin social. Il s’agit d’une forme d’exercice du pouvoir sur une chose. Mais c’est loin d’être la seule.

Lorsque les pouvoirs publics lèvent des impôts, ils exercent leur pouvoir sur des individus, des biens et des activités. Pourtant, la nature du droit qui leur permet d’exercer ce pouvoir n’est pas un droit de propriété. Lorsque l’État exige des personnes résidant régulièrement sur son territoire de s’acquitter d’un impôt sur leurs revenus ; des propriétaires de biens immobiliers présents sur son sol, ou même des habitants résidant sur son territoire, de s’acquitter d’un impôt foncier ou local ; ou encore, que des droits de douane lui soient versés pour les marchandises traversant ses frontières, il exerce un droit qui n’est pas un droit de propriété.

De même, les liens réciproques entre l’État et les personnes disposant de sa nationalité, qui peuvent avoir des effets mutuels très importants – service militaire ou civique, protection consulaire, etc. – ne sont pas constitutifs d’un quelconque droit de propriété.

La conclusion s’impose rapidement : il existe d’autres droits, outre le droit de propriété, qui permettent d’assurer aussi bien, voire nettement mieux, des finalités variées. C’est ainsi que depuis 1978 – et la loi Informatique et Libertés -, le législateur a fait le choix de protéger les données personnelles en tant qu’élément de la personnalité des individus. Cette approche « personnaliste » imprègne également le RGPD (Réglement général sur la protection des données) adopté au niveau de l’Union européenne, dont les dispositions s’opposent frontalement à l’hypothèse « propriétariste ».
2.- Une efficacité hasardeuse

À l’échelle individuelle, les données sont dépourvues d’une valeur économique significative. C’est l’agrégation massive de données, à partir d’une granularité très fine, combinée à un traitement toujours plus rapide, à l’aide d’algorithmes de plus en plus sophistiqués et de machines de plus en plus performantes, qui permet de créer des modèles, d’anticiper et d’influencer les comportements. C’est ce pouvoir d’anticipation et d’influence qui confère une valeur économique aux données. Croire qu’un individu isolé pourrait retirer des revenus importants de la vente de ses seules données constitue donc une illusion et la légitimé économique de l’approche patrimoniale est pour le moins contestable17.

Le droit à la protection des données personnelles existe pour protéger les personnes dans des rapports asymétriques, notamment dans leur rapport avec les entreprises et avec les administrations. Il existe pour rééquilibrer des rapports de forces par essence très fortement défavorables aux individus.

Les mécanismes qui engendrent de la valeur à partir de la collecte et du traitement des données personnelles sont, en pratique, bien souvent illégaux et contraires aux droits fondamentaux. En l’état actuel du droit, lorsqu’une personne consent à ce que l’on utilise des données la concernant, elle conserve un certain nombre de droits (accès, rectification, opposition, effacement, etc.), notamment celui de délimiter l’autorisation accordée à une finalité précise. Dans un système où les données seraient « vendues », ces facultés des individus à contrôler seraient affaiblies, puisque la transaction organiserait un transfert de propriété.

Se placer sur le terrain de la compensation monétaire équivaut donc en réalité à abdiquer ses droits fondamentaux. Doit-on accepter que les droits à la vie privée et à la protection de ses données personnelles soient rétrogradés du rang de droits fondamentaux à de simples biens échangeables sur un marché ?

Les données personnelles existent à la frontière de l’être et de l’avoir18. Elles constituent un attribut de la personnalité, une émanation immatérielle de l’individu, une prolongation incorporelle de soi-même.

Ces données revêtent, en outre, un caractère dual, janusien : elles oscillent entre intimité et sphère sociale. On occulte en effet bien trop souvent la dimension collective des données personnelles. Ou plutôt, leurs dimensions collectives : médiates et plus immédiates.

La première concerne par exemple nos données génétiques, susceptibles de révéler des informations sur nos parents, mais aussi sur l’humanité tout entière19. Au-delà des données génétiques, il s’agit encore de données plus triviales, mais qui, dès lors que massivement agglomérées et traitées, permettent d’établir des « modèles » susceptibles de révéler des informations parfois très intimes sur des tiers.

La seconde concerne plus largement l’ensemble des données qui permettent d’être reliées, directement, à plusieurs personnes. À titre d’exemple, on pourrait citer un accident de voiture entre deux véhicules ou un rendez-vous entre deux personnes, l’un et l’autre susceptibles de révéler une multitude d’informations, parfois très précises, sur l’ensemble des protagonistes.

Aussi, contrairement à cette première intuition qui nous anime, les données personnelles ne sont que bien rarement strictement individuelles. Bien souvent, il s’agit en réalité de données collectives, sociales, à même de révéler des informations extrêmement précises et nombreuses, souvent intimes, sur une multitude d’individus. La voie de la patrimonialisation des données personnelles reviendrait à reconnaître un droit de propriété sur une chose qui ne nous appartient pas en propre.

Nos données personnelles permettent de tracer nos « graphes sociaux »20, d’y entrelacer des nœuds et d’esquisser les liens entre eux. C’est d’ailleurs pour avoir compris l’importance de cette dimension réticulaire des données personnelles que des entreprises comme Google ou Facebook ont pu construire leurs empires grâce à la publicité ciblée. Les données permettent de tisser la trame de nos sociétés et de nouer les points aux carrefours desquels nos relations sociales s’entrecroisent, en sorte qu’il s’agit de véritables « coordonnées sociales »21.

Si le droit actuel arrive à saisir les données personnelles dans la relation à l’individu, il reste encore assez largement impuissant à reconnaître et à protéger ce qui en fait la dimension collective. Contrairement à ce que soutient la thèse « patrimonialiste », renforcer encore l’approche individualiste en créant un droit de propriété privée ne constituera pas une solution, mais renforcera encore le problème.

Céder nos données reviendrait en réalité à vendre les clés permettant de nous emprisonner dans des bulles de filtre, de capter notre attention afin d’influencer notre perception de la réalité et, in fine, d’influer sur notre comportement à des fins marchandes, voire sociales et même politiques22.

Modéliser des comportements. Les anticiper. Et, surtout, les influencer. D’abord, afin d’engendrer un acte économique : l’achat. Ensuite, un acte social : gommer les comportements sociaux considérés négatifs ou favoriser ceux que l’on considère positifs. Ou enfin, un acte politique : le vote.

Justifier de telles pratiques pourrait bien saper les fondements mêmes de notre société, de nos démocraties et de nos États de droit23.

Le marketing économique, la publicité marchande, la propagande politique existent certes depuis des temps immémoriaux. Il est probable que ces activités aient toujours existé dans l’ombre de l’humanité. Mais l’ampleur, la puissance, l’efficacité de ces phénomènes n’ont probablement jamais été aussi importantes.

Face à ces enjeux, l’approche de la Quadrature du Net consiste à rester fidèle à la vision philosophique qui conçoit la protection des données comme un droit fondamental de la personne humaine, tout en ayant conscience de l’importance de nous organiser collectivement pour faire valoir ces droits. C’est la raison pour laquelle l’association, dès l’entrée en vigueur du RGPD, a lancé une série d’actions de groupe, mobilisant plus de 12 000 citoyens pour réclamer le respect de nos droits face aux pratiques des GAFAM (Google, Apple, Facebook, Amazon, Microsoft).

Ces recours collectifs, qui ont été rendus possibles par le RGPD, sont une manière de faire corps ensemble pour le respect de nos droits, mais ils restent encore davantage une agrégation de demandes individuelles plus qu’une défense de la dimension collective des données. Pour aller plus loin et faire évoluer le droit, il devient de plus en plus urgent de reconnaître un droit à l’interopérabilité, qui permettrait aux internautes de quitter les plateformes dominantes et rejoindre des alternatives plus respectueuses de leurs droits, tout en continuant à communiquer avec leurs contacts. Une telle évolution permettrait de protéger les données, non plus uniquement en tant que relation à soi, mais aussi comme relation aux autres.

***

Nos données personnelles nous définissent. Elles révèlent notre intimité la plus profonde.

Les effets néfastes de la théorie propriétariste sont légion24.

Il y a un peu plus de 40 ans, à l’heure où l’informatique en était encore à ses prémisses, le législateur eu la sagesse de proclamer, à l’orée de la première loi relative à l’informatique, aux fichiers et aux libertés, que l’informatique devait être au service de chaque citoyen, sans porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques25.

Au lieu de s’aventurer avec légèreté sur les terra incognita de la patrimonialisation de nos données personnelles, il serait préférable de s’interroger sur ce qui serait inévitablement défait pour tenter, probablement en vain, de poursuivre des finalités qui peuvent être atteintes par des voies plus sûres.

References

1 La référence à ce passage du Petit Prince d’Antoine de Saint-Exupéry pour illustrer la différence entre « régner » et « posséder » et, plus largement, l’existence d’autres liens juridiques que le droit de propriété pour exercer du pouvoir sur une chose, est empruntée à la professeure Valérie-Laure Benabou, qui y recourra magistralement lors d’une conférence-débat coorganisée par le réseau Galatea et l’Ordre des avocats au Conseil d’État et à la Cour de cassation, qui se tint le 26 juin 2018 dans la bibliothèque de l’Ordre. Outre la professeur Valérie-Laure Benabou, les participants à ce débat étaient M. Jean Lessi, M. Gaspard Koenig, Me Emmanuelle Trichet et Me Isabelle Landreau. La vidéo de cette conférence-débat est consultable à cette adresse : https://www.youtube.com/watch?v=bbhr80OvSxI&t=3616s
2 Les textes recourent plutôt au vocable, plus lourd, de « données à caractère personnel ».
3 CNCDH, avis du 22 mai 2018 sur la protection de la vie privée à l’ère du numérique, adopté à l’unanimité par l’Assemblée plénière de la Commission, pt. 32.
4 Conseil d’État, Le numérique et les droits fondamentaux, Étude annuelle 2014, p. 264 ;
https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf ;
Mme Nicole Belloubet, garde des sceaux, faisait sienne la position du Conseil d’État dans les débats qui se sont tenus au Sénat le 21 mars 2018, sur le projet qui deviendra la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles, en réponse à un amendement qui visait à insérer un second alinéa à l’article L. 341-1 du code de la propriété intellectuelle, ainsi rédigé : « Le citoyen, entendu comme la personne humaine qui consent à faire exploiter ses données, jouit des droits moraux sur les données personnelles qu’il génère individuellement ou par l’intermédiaire des outils numériques qu’il utilise. »
5 CNIL, rapport d’activité 2017, p. 52 ; https://www.cnil.fr/sites/default/files/atoms/files/cnil-38e_rapport_annuel_2017.pdf
6 CNNum, rapport sur la « Neutralité des plateformes » (mai 2014), p. 37 ; CNNum, avis sur « La libre circulation des données dans l’Union européenne » (avril 2017).
7 Judith Rochfeld. Contre l’hypothèse de la qualification des données personnelles comme des biens, in : Les biens numériques, éd CEPRISCA, 2015, pp.221-23 ; http://www.ceprisca.fr/wp-content/uploads/2016/03/2015-CEPRISCA-BIENS-NUMERIQUES.pdf
8 Premier considérant du RGPD. 2) de l’article 1er du RGPD. Voir également, CE, ord. réf., 18 mai 2020, La Quadrature du Net e.a., n° 440442, 440445, pt. 6.
9 Article 544 du code civil.
10 Conseil d’État, « Le numérique et les droits fondamentaux », Étude annuelle 2014, p. 264 ;
https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf
11 Dont la notion juridique est définie à l’article L. 112-3 du code de la propriété intellectuelle.
12 Article L. 341-1 du code de la propriété intellectuelle.
13 Par ex. Civ. 1ère, 5 juillet 2006, n° 04-16.687.
14 Article L. 111-1 du code de la propriété intellectuelle.
15 Conseil d’État, Le numérique et les droits fondamentaux, Étude annuelle 2014, p. 264 ;
https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf ; Pierre Truche, Jean-Paul Faugère, Patrice Flichy, « Administration électronique et protection des données personnelles. Livre blanc. », février 2002]. Cela vaut, a fortiori, pour les personnes morales, s’agissant des données de personnes physiques[[Thibault Verbiest, « Smart cities et données », JT 2019, n° 221, p. 31.
16 Un fichier de clientèle informatisé contenant des données à caractère personnel, qui n’a pas été déclaré auprès de la CNIL, n’est pas dans le commerce, et sa vente a un objet illicite (cf. Com., 25 juin 2013, n° 12-17.037, Bull. civ., IV, n° 108). Le détournement de fichiers informatiques contenant des informations confidentielles peut être constitutif d’un abus de confiance (cf. Crim., 22 octobre 2014, n° 13-82.630). Le téléchargement, effectué sans le consentement de leur propriétaire, de données que le prévenu savait protégées caractérise la soustraction frauduleuse constitutive du vol (cf. Crim., 20 mai 2015, n° 14-81.336, Bull. crim., 2015, n° 119).
17 Arnaud Anciaux, Joëlle Farchy et Cécile Méadel, « L’instauration de droits de propriété sur les données personnelles : une légitimité économique contestable », Revue d’économie industrielle, 158 | 2017, 9-41 ; mis en ligne le 15 juin 2019, consulté le 24 décembre 2019. URL : http://journals.openedition.org/rei/6540 ; DOI : 10.4000/rei.6540 ; Fabrice Rochelandet, Economie des données personnelles et de la vie privée, 2010, La Découverte, Repères.
18 Arnaud Anciaux, Joëlle Farchy et Cécile Méadel, « L’instauration de droits de propriété sur les données personnelles : une légitimité économique contestable », Revue d’économie industrielle, 158 | 2017, 9-41 ; mis en ligne le 15 juin 2019, consulté le 24 décembre 2019. URL : http://journals.openedition.org/rei/6540 ; DOI : 10.4000/rei.6540 ; Fabrice Rochelandet, Economie des données personnelles et de la vie privée, 2010, La Découverte, Repères.
19 CNIL, Les données génétiques, 2017, La documentation française, Collection Point CNIL, 216 p. ; https://slate.com/technology/2019/12/gedmatch-verogen-genetic-genealogy-law-enforcement.html.
20 https://en.wikipedia.org/wiki/Social_graph
21 Lionel Maurel, « Calimaq », https://scinfolex.com/2018/06/28/google-les-donnees-sociales-et-la-caverne-des-habitus/ ; https://scinfolex.com/2018/05/25/rgpd-la-protection-de-nos-vies-numeriques-est-un-enjeu-collectif-tribune-le-monde/
22 https://fr.wikipedia.org/wiki/Cambridge_Analytica
23 En 2002, M. Michel Gentot écrivait déjà que, dans l’esprit du législateur, le droit à la protection des données personnelles « excédait très largement le seul registre de la protection de la vie privée et touchait aux fondements mêmes de l’État de droit. » (M. Gentot, « La protection des données personnelles à la croisée des chemins », in P. Taraboni (dir.), La protection de la vie privée dans la société de l’information, t. III, PUF, 2002, p. 25 s., spéc. p. 31).
24 Yann Padova, « Notre vie privée n’a pas de prix ! », Les Echos, 28 mars 2019 ; https://www.lesechos.fr/idees-debats/cercle/notre-vie-privee-na-pas-de-prix-1004389.
25 Article 1er de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

Règlement terroriste : la commission LIBE vote pour la censure sécuritaire

Tue, 12 Jan 2021 15:39:44 +0000 - (source)

Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme « terroriste » par la police, et ce sans intervention préalable d’un juge.

Comme nous le répétons depuis maintenant deux ans :

Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.

Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.

Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).

La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.


Règlement terroriste : le Parlement européen doit s’opposer à la censure sécuritaire

Fri, 08 Jan 2021 14:36:42 +0000 - (source)

Lundi 11 janvier, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen va voter sur le règlement dit « antiterroriste ».

Ce texte (disponible ici en anglais, version non consolidée) vise à soumettre l’ensemble des acteurs de l’Internet à des obligations aussi strictes qu’absurdes.

La principale obligation sera de permettre aux autorités de n’importe quel État membre de l’Union européenne (que ce soit la police ou un juge) de demander le retrait de n’importe quel contenu qu’elle considère comme « terroriste » à un acteur du Web dans un délai d’une heure.

La loi Avia prévoyait l’exacte même obligation et le Conseil constitutionnel l’a censuré en juin dernier. Cette victoire nous avait laissé espérer que le texte européen soit profondément modifié. Ce n’est pourtant pas le cas. Après sa défaite nationale, le gouvernement français démontre clairement vouloir utiliser l’Union européenne pour faire passer des textes anticonstitutionnels.

Introduit en septembre 2018 par la Commission européenne, le règlement antiterroriste a été adopté en décembre 2018 par le Conseil de l’Union européenne puis adopté en première lecture par le parlement européen en avril 2019. Après des négociations en trilogue (entre les trois institutions européennes), il est maintenant de retour devant le Parlement pour un dernier vote (vous pouvez retrouver le bilan de nos actions sur ce texte en avril 2019 ici).

La Quadrature du Net a envoyé le message suivant aux membres de la Commission LIBE pour leur demander de rejeter ce texte.

Chers membres de la Commission LIBE,

Lundi 11 janvier prochain, vous allez voter sur le règlement « relatif à la prévention de la diffusion des contenus à caractère terroriste en ligne ». Nous vous demandons de rejeter ce texte dangereux qui ne pourra que conduire à une surveillance massive de nos communications en ligne et à une censure privée et automatisée de l’information.

En premier lieu, ce texte imposera à tout acteur du Web de bloquer en une heure n’importe quel contenu signalé comme « terroriste » par un juge ou par la police. Les exceptions prévues dans ce texte sont purement hypothétiques et ne protégeront pas en pratique nos libertés.

Le délai d’une heure est irréaliste et seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook.

En France et dans d’autres pays membres de l’Union européenne, ce pouvoir sera donné à la police, sans contrôle préalable d’un juge. Un tel pouvoir pourrait mener à la censure d’opposants politiques et de mouvements sociaux.

En France, cette même disposition, obligeant des acteurs de l’Internet à retirer en une heure un contenu considéré comme « terroriste » par la police, a été considérée contraire à la Constitution en juin 2020. Le Conseil Constitutionnel a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication. L’adoption de ce texte serait faite donc en violation de la Constitution française et conduirait à amoindrir considérablement la confiance dans l’Union européenne.

En second lieu, le texte sur lequel vous devez vous prononcer est bien différent du texte adopté par le Parlement européen en avril 2019. L’article 4 permet ainsi à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse.

Demander aux membres du Parlement de voter dans un délai aussi court et sur un texte aussi important ne peut que vous encourager à rejeter ce texte et à exiger, sur des questions aussi complexes, un débat véritablement démocratique.

Les idéologies meurtrières ne peuvent être combattues que par des changements structurels et sociétaux. Ce texte joue sur la peur du terrorisme pour mieux contrôler la liberté d’expression sur Internet et limiter les oppositions politiques.

La Quadrature du Net vous demande de rejeter ce texte.


Terrorist Regulation : the EU Parliament must oppose authoritarian censorship

Fri, 08 Jan 2021 11:36:08 +0000 - (source)

On Monday 11 January, the LIBE Committee (Committee on Civil Liberties, Justice and Home Affairs) from the European Parliament will vote on the « anti-terrorism » Regulation.

This text aims at submitting all of the actors of the Internet to strict and absurd obligations. The main obligation is to allow the authorities of any Member State of the European Union (whether the police or a court) to force a hosting service provider to remove within one hour content that the authority has considered terrorist.

Introduced in September 2018 by the European Commission, the text was adopted in December 2018 by the EU Council and adopted (with some changes) by the EU Parliament in April 2019. After negotiations in trilogue (between the three institutions), this text is now back in the Parliament for a final vote.

La Quadrature du Net sends the following message to members of the LIBE Committee urging them to reject this text.

Dear Member of the LIBE Committee,

Next Monday, 11 January, you will vote on the Regulation on « preventing the dissemination of terrorist content online ». We urge you to reject this dangerous text which could only lead to mass surveillance of our online communications, to private and automated censorship of information.

First, this text will force any hosting provider to block within one hour any content reported as “terrorist” by a court or the police. The so-called « exceptions » provided in the text are purely hypothetical and will not protect our freedoms in practice.

The one hour deadline is unrealistic and only big economic platforms will be capable of complying with such strict obligations. With the threat of heavy fines and because most of them will not be able to comply whithin the removal orders, this Regulation will force Web actors to censor proactively any potentially illegal content upstream, using automated tools of mass surveillance developed by Google and Facebook.

In France and other Member States, the power to order removal will be given to the police, acting without the prior authorisation of a court. Such a power can easily lead to the censorship of political opponents and social movements.

In France, the very same obligation to remove within one hour any « terrorist » content notified by the police has been deemed unconstitutional by the Constitutional Court in June 2020. The Court decided that such an obligation was a disproportionate infringement to the freedom of expression. Adopting this EU Regulation would be in violation with the French Constitution and deeply undermine the trust of French citizens in the European Union.

Secondly, the text that you will vote upon is clearly different from the text adopted by the EU Parliament in April 2019. Article 4 allows an authority from any Member State to order removal in another Member State. Such cross-border removal orders are not only unrealistic but can only worsen the danger of mass political censorship.

Asking Members of the Parliament to vote on such short notice, on such an important text without the time needed to study in depth the impact of such changes can only encourage you to reject this text and to require a truly democratic debate on such complex matters.

Murderous ideologies can only be fought through structural and societal changes. This regulation plays on the fear of terrorism to further control freedom of speech on the Internet and limit possible political opposition.

For these reasons, La Quadrature du Net urges you to reject this text.


Décrets PASP : première bataille perdue contre le fichage massif des militants politiques

Thu, 07 Jan 2021 13:58:47 +0000 - (source)

Le 4 janvier 2021, le Conseil d’Etat a rejeté les recours formés en urgence par plusieurs associations (et dans lesquels nous étions intervenus) contre les trois décrets PASP, GIPASP et EASP (plus d’explications ici).

Le fichage massif des militantes et militants politiques, de leur entourage, de leurs opinions politiques, de leurs données de santé ne sera donc pas suspendu. Comme il s’agit de fichiers étendus par un texte réglementaire, seul le Conseil d’État avait le pouvoir de freiner les ambitions sécuritaires du gouvernement – ce qu’il vient de refuser de faire, au moins pour l’instant. Ce refus révèle toute la défaillance du système qui prétend encadrer les fichiers de police : le seul contre-pouvoir placé face aux ambitions de la police est un Conseil d’État qui, sur les questions sécuritaires, démontre régulièrement son manque d’indépendance idéologique vis-à-vis du gouvernement et un certaine largesse dans l’application du droit (tel que dans la présente décision, où la démonstration juridique est aussi sommaire que confuse).

Cette décision marque par ailleurs une nouvelle étape dans la déchéance de la CNIL : outre ses avis bien timides sur les fichiers (avis non contraignants), la CNIL avait néanmoins émis un communiqué pour critiquer le fait qu’elle n’avait pu donner son avis sur le fichage des opinions politiques, convictions religieuses et appartenances syndicales. Le Conseil d’État a balayé cet argument en un paragraphe, sans réelle explication.

Ce n’est cependant qu’une décision visant le recours en référé-suspension (c’est-à-dire une demande visant à suspendre les décrets le temps que le juge administratif puisse examiner les recours au fond), qui n’augure en rien d’une possible annulation des décrets sur le fond. La bataille n’est donc pas entièrement perdue. Nous avons déposé fin décembre, en même temps que de nombreuses associations, nos trois recours contre ces décrets. Une décision devrait donc être rendue, sur le fond cette fois-ci, dans quelques mois.


Liberté pour Julian Assange

Tue, 05 Jan 2021 16:47:32 +0000 - (source)

Hier, la justice britannique a refusé la demande d’extradition de Julien Assange vers les États-Unis. Nous nous réjouissons de cette décision, qui soulève cependant quelques questions. Car rappelons-le, Julian Assange est aujourd’hui inquiété du fait de son activité de journaliste, qui l’a amené à rendre publics notamment les crimes de guerre commis par l’armée américaine dans le cadre de ses opérations en Irak, mais aussi d’autres dossiers d’intérêt public.


Nous déplorons que le verdict ne s’appuie que sur les seuls risques qu’une extradition aurait engendrée sur l’état de santé mentale d’Assange. Nous rejoignons ainsi les critiques rappelant que le jugement n’a pas rejeté la demande américaine sur le fond, validant ainsi la pratique de procès politique remettant en question la liberté de la presse et le droit à l’information, principes pourtant au cœur de cette affaire. 

Nous appelons donc à la libération de Julian Assange dès aujourd’hui, pour lui permettre de continuer d’informer librement, et d’être jugé de manière équitable, sans subir les pressions des États-Unis, qui rappelons-le, ont déjà persécuté de nombreux lanceurs et lanceuses d’alerte telles que Chelsea Manning.


Afin d’assurer sa protection, l’asile politique lui a été offert par le gouvernement mexicain, ce que nous saluons également. Nous regrettons que des pays dits « démocratiques » ne lui aient pas, eux aussi, offert asile.

Article de l’EFF sur le sujet : https://www.eff.org/deeplinks/2021/01/eff-statement-british-courts-rejection-trump-administrations-extradition-request
Notre article précédent en soutien à Assange : https://www.laquadrature.net/2020/09/08/freeassange/


Technopolice, villes et vies sous surveillance

Sun, 03 Jan 2021 08:41:00 +0000 - (source)

Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.

Depuis plusieurs années, des projets de « Smart Cities » se développent en France, prétendant se fonder sur les nouvelles technologies du « Big Data » et de l’« Intelligence Artificielle » pour améliorer notre quotidien urbain. Derrière ce vernis de ces villes soi-disant « intelligentes », se cachent des dispositifs souvent dangereusement sécuritaires.

D’une part, car l’idée de multiplier les capteurs au sein d’une ville, d’interconnecter l’ensemble de ses réseaux et d’en gérer l’entièreté depuis un centre unique et hyper-technologique ne peut qu’entraîner une surveillance accrue de ses habitant·es. Mais d’autre part, car les promoteurs de tels projets ne s’en cachent pas et considèrent que le premier objectif d’une « ville intelligente » doit être la sécurité de ses habitant·es. C’est ainsi que Caroline Pozmentier, l’adjointe au maire de Marseille considère que : « La safe city est la première brique de la smart city », ou, que Marc Darmon, directeur général adjoint de Thales déclare que : « La sécurité est, avec la mobilité, le pilier le plus réaliste de la Smart City. »

Panorama de la Technopolice en France

Un ensemble de nouvelles technologies visant à la surveillance totale de l’espace public sont ainsi expérimentées en toute opacité sur le territoire français. C’est le cas de la vidéosurveillance automatisée (dit vidéosurveillance « intelligente ») qui vise à détecter certains comportements considérés comme suspects par ses promoteurs : détection de mouvement de foule, de personnes se mettant subitement à courir, ou suivi de silhouettes ou de démarches… De tels projets sont déjà à l’essai à Valenciennes, Toulouse, Nice et bientôt à Marseille. [1] La reconnaissance faciale est par ailleurs un type de vidéosurveillance automatisée qui connaît un développement inquiétant : au niveau national avec le TAJ (le fichier des « Traitements des Antécédents Judiciaires) qui concerne plusieurs millions de personne mais aussi à Nice, où la technologie a été testée sur la voie publique en 2019 ou dans la région Sud où un projet de portiques de reconnaissance faciale dans des lycées est encore en discussion.

Les drones font également partie intégrante de ces projets techno-policiers. Ils participent à l’idée de multiplier les flux de vidéo (avec les caméras fixes et les caméras-piétons) pour ne plus laisser aucun espace à l’abri du regard tout-puissant des autorités. L’image ne leur suffit d’ailleurs pas : les dispositifs de détection de sons se multiplient à leur tour. C’est ainsi que le projet « Serenicity » à Saint-Etienne, aujourd’hui abandonné, prévoyait d’installer des microphones dans les rues pour détecter les « bruits suspects » et aider à l’intervention automatisée de la police.

D’autres projets plus globaux sont en préparation. À Marseille, la ville cherche, à travers son projet d’ « Observatoire de la tranquillité publique », à agréger l’ensemble des données issues des services municipaux pour détecter et prévoir les incidents, dans l’objectif de « façonner la ville quasi-idéale ». À Nice, encore une fois, le projet « Safe City », porté par Thalès, veut « anticiper les incidents et les crises » et « collecter le maximum de données existantes » et « effectuer des corrélations et de rechercher des signaux faibles ».

Le fantasme d’une ville sécurisée

Le même objectif se retrouve à chaque fois dans ces différents projets : celui d’une ville totalement sécurisée, surveillée et fluidifiée à l’aide d’outils technologiques soi-disant miraculeux : reconnaissance faciale, vidéosurveillance « intelligente », police prédictive, application mobile de dénonciation citoyenne… Ces outils participent à la transformation de la ville en un espace où le hasard n’a plus sa place, où l’intelligence artificielle servira, comme l’annonçait Gérard Collomb, à « repérer dans la foule des individus au comportement bizarre », où l’on parle de l’« optimisation de la gestion [des] flux » : une ville finalement où l’humain n’a plus sa place mais devient un capteur comme les autres, pour un maire qui se voit maintenant qualifié de « CEO de la ville »…

Car c’est l’un des pendants du développement de ces projets : la délégation à des entreprises privées de la gestion de la ville. Se retrouvent dans l’administration de nos espaces publics des logiques de marché, de concurrence, de normalisation qui y sont totalement étrangères et qui ne peuvent conduire qu’à des dérives, la première étant d’en faire des terrains d’expérimentations pour ces start-up qui peuvent développer en toute impunité leurs outils de surveillance. Caroline Pozmentier, encore elle, n’hésite ainsi même pas à déclarer que « les villes sont des laboratoires » pour ces outils technologiques de surveillance.

Un autre pendant de ces projets, c’est la militarisation de notre espace public : les drones sont avant tout un outil militaire dont l’utilisation commence pourtant à se normaliser au cœur de nos villes. Qui était ainsi derrière le projet de « Serenicity » à Saint-Etienne ? L’entreprise Verney Carron, fabricant d’armes et fournisseur de lanceurs de balle de défense Flash-balls pour la police et la gendarmerie nationale.

Terrorisme et nouveaux marchés industriels

Pourquoi ces projets sont-ils mis en place ? La première réponse à apporter est devenue une évidence dans le contexte politique des dernières années : la « menace terroriste », érigée en grand ennemi public face auxquels tous les Français·es ont le devoir de se rallier, s’est imposée comme un argument politique imparable. C’est en son nom qu’ont été notamment adoptées la loi Renseignement en 2015 ou la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » en 2017. Ces textes, ainsi que d’autres à venir, nous amputent pourtant chaque fois d’un peu plus de liberté. Au nom de la lutte contre le terrorisme, tout est maintenant acceptable car la lutte contre le terrorisme fait élire.

Désormais tout ce qui permet aux élu·es de se revendiquer de la « sécurité » vaut le coup. Les caméras de surveillance, qui sont présentes par dizaines de milliers dans nos villes, n’ont jamais réellement fournit la preuve de leur efficacité mais continuent pourtant de se multiplier. Nice est la ville la plus équipée en caméras de France, et elle l’était déjà en juillet 2016 lors de l’attentat sur la promenade des Anglais, sans qu’elle n’ait permis d’éviter quoi que ce soit.

Qu’importe, les choix d’augmentation des dispositifs de surveillance ne sont jamais faits dans le but d’augmenter de façon effective la sécurité. Si c’était le cas, cet argent serait orienté vers la rénovation des immeubles proches de l’effondrement à Marseille au lieu de l’être dans le projet de l’ « Observatoire de la tranquillité publique ». Le but des élu·es est finalement beaucoup plus clair : augmenter le sentiment de sécurité, et cela dans un objectif purement électoraliste.

La deuxième réponse est d’ordre économique. Derrière la mise en place de ces technologies se cache l’ouverture de nouveaux marchés : Thalès, Cisco, Huawei et d’autres industriels préparent ces projets depuis longtemps avec la volonté de vendre, clés en main, de nouveaux équipements aux villes qui le souhaiteraient. L’idée est de généraliser ces systèmes au maximum. Thalès a par exemple finalisé en avril le rachat de l’entreprise Gemalto, à l’origine du système PARAFE, qui gère le contrôle d’identité aux frontières dans les aéroports afin de se positionner en leader de la sécurité de la surveillance. Pour s’ouvrir à ce marché des villes sécuritaires, les industriels, les élu·es et les start-ups nous inondent de discours sur la ville intelligente et leur progrès technique inéluctable au service d’une soi-disante sécurité.

Enfin le dernier argument – le plus inquiétants au regard du respect de nos droits et libertés – est d’ordre politique. Ces technologies ont pour but de rendre l’espace urbain plus contrôlable et prévisible. Pour certain·es élu·es, les technologies de surveillance couplées à l’intelligence artificielle sont les outils parfaits pour l’exécution de leur fantasme sécuritaire. Christian Estrosi déclare ainsi vouloir « suivre, grâce au logiciel de reconnaissance faciale dont est équipé [le] centre de supervision urbain [de Nice], toutes les allées et venues des [fichés S] ». Dans le cadre de mouvements sociaux de plus en plus difficiles à réprimer, les outils de surveillance ont un impact normatif sur la société dont les dirigeant·es sont bien conscient·es : se savoir surveillé·e est en effet bien souvent aussi efficace que la surveillance en elle-même.

Dans cette atmosphère de progrès technologique fantasmé, les solutions techno-sécuritaires pré-fabriquées proposées par ces différents industriels se présentent comme la solution de facilité pour se faire élire et contenir plus facilement la population. Les argumentaires de lutte contre le terrorisme et de développement économique finissent d’entériner l’idée de contrôle total et massif de l’espace public.

Technopolice contre surveillance

La campagne Technopolice, lancée en septembre 2019 par La Quadrature du Net et d’autres associations, a pour objectif de mettre en lumière le développement de ces dispositifs, de partager les informations et de mettre en place la résistance nécessaire face à ces nouveaux outils de surveillance. De telles mobilisations ont déjà porté leurs fruits : les projets de portiques de reconnaissance faciale à Nice et de microphones dans les rues de Saint-Etienne ont été pour l’instant arrêtés en France par la Cnil. Ces projets craignent en effet la lumière, et le débat public peut y mettre un premier frein. Aux États-Unis, des mobilisations semblables ont par exemple conduit de nombreuses villes à prendre des arrêtés interdisant l’utilisation de la reconnaissance faciale.

Le but de la plateforme Technopolice est ainsi double : documenter de la manière la plus rigoureuse possible le déploiement de ces projets de surveillance à travers le pays, et construire ensemble des outils et des stratégies de mobilisation capables de les tenir en échec. L’enjeu, c’est de parvenir à organiser des résistances locales en les fédérant afin qu’elles puissent se nourrir les unes les autres. Vous pouvez dès à présent nous rejoindre sur forum.technopolice.fr pour participer à l’analyse et à la lutte contre le développement de ces projets sécuritaires.

Contre cette dystopie que préparent ceux qui prétendent nous gouverner, nous appelons à une résistance systématique.


Interdiction des drones : victoire totale contre le gouvernement

Tue, 22 Dec 2020 14:25:19 +0000 - (source)

Le Conseil d’État vient d’exiger que la préfecture de police de Paris cesse sa surveillance par drones des manifestations (voir sa décision). Allant encore plus loin que son interdiction de mai dernier, la plus haute juridiction administrative est particulièrement virulente contre l’utilisation de drones en manifestation, laissant peu de place au gouvernement pour autoriser ceux-ci dans sa PPL Sécurité Globale. Le rapport de force s’inverse enfin : engouffrons-nous dans la brèche !

Comme nous le racontions, à la suite de la première interdiction exigée par le Conseil d’État en mai dernier, la préfecture de police de Paris a continué à utiliser les drones pour surveiller, notamment, les manifestations. Nous avons été donc forcé·es de former un nouveau recours contre cette surveillance illégale, recours que nous venons donc de gagner devant le Conseil d’Etat.

La préfecture de police avait tenté, pour contourner l’interdiction faite par le Conseil d’État d’utiliser des drones, d’ajouter un dispositif de floutage par intelligence artificielle. Aujourd’hui, le Conseil d’État a entièrement rejeté cette tentative grotesque d’esquiver la loi. La préfecture de police est donc enjointe d’arrêter immédiatement le déploiement de drones en manifestation.

Le Conseil d’État va même plus loin et dénonce le dispositif dans son essence : « le ministre n’apporte pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement, dans les circonstances actuelles, en l’absence de recours à des drones ».

En droit des données personnelles, si l’utilité d’un dispositif de surveillance n’est pas clairement démontrée, il ne peut jamais être autorisé (en matière de données sensibles, telles que les opinions politiques captées en manifestation, il faut même que le dispositif soit « absolument nécessaire » au maintien de l’ordre).

En dénonçant l’absence d’une telle preuve, le Conseil d’État prive donc l’article 22 de la proposition de loi Sécurité Globale de tout fondement. Cette décision du Conseil d’État est une double claque pour le gouvernement : non seulement les drones sont interdits, mais le gouvernement a perdu toute légitimité juridique à vouloir les autoriser dans la loi (à moins d’apporter l’impossible preuve d’une « nécessité absolue »).

Après de longues semaines douloureuses à subir une série de projets autoritaires et de violences en manifestation, il se pourrait que le rapport de force commence enfin à s’inverser, le camp sécuritaire connaissant sa première défaite majeure. L’année 2021 commencera dans cette optique et, avec vous, nous vaincrons !

Pour documenter la lutte, nous détaillons ci-dessous l’ensemble du débat juridique contre le gouvernement qui, commençant il y a 6 mois, a conduit à la victoire d’aujourd’hui.

Premier confinement : le déploiement sauvage de drones déclaré illégal

En avril 2020, alors que la France connaissait un premier confinement , nous documentions comment les différentes forces de police en profitaient pour mettre à l’essai un usage totalement sauvage et opaque des drones. La tentation sécuritaire derrière cette initiative était très forte et assumée : celle de surveiller tout, tout le temps, par des moyens toujours plus intrusifs. C’est début mai, suite à un article de Mediapart qui avait obtenu des détails sur les drones parisiens, que nous attaquions en urgence cet usage aux côtés de la Ligue des droits de l’Homme dans la ville de Paris. Au-delà de ce cas particulier, le but de ce recours était d’obtenir une décision de justice démontrant l’illégalité de l’ensemble des déploiements de drones.

Le Conseil d’État nous a donné raison. Par une ordonnance de mai 2020, il enjoignait ainsi à la préfecture de police de Paris de cesser d’utiliser ses drones pour faire respecter les mesures sanitaires. Le juge estimait que les drones, en l’absence de tout encadrement, portaient atteinte aux libertés fondamentales et devaient être interdits. Si la décision de mai ne concernait que les drones utilisés à Paris pour faire respecter les règles propres au confinement, le raisonnement affiché par le Conseil d’Etat pouvait être utilisé de façon plus large et s’appliquer contre tout type d’usage. Ce qui n’a pas empêché le préfet Lallement de l’ignorer de façon délibérée.

Les manifestations : nouveau terrain de surveillance par drones

Avec l’assouplissement des mesures sanitaires et la ré-autorisation des manifestations, la préfecture de police ne s’est pas privée d’utiliser les drones pour surveiller ces rassemblements. Cet usage n’était pas nouveau (les manifestations de gilets jaunes ont quelquesfois été surveillées par drones avant le confinement), mais il venait cette fois-ci violer frontalement la décision du Conseil d’État qui venait de déclarer leur utilisation illégale quelques semaines plus tôt.

C’est grâce à votre aide que nous avons pu documenter cet usage par la préfecture de police : en juin, juillet, septembre, octobre. Lors de la procédure, la préfecture de police n’a jamais contesté cette utilisation systématique des drones en manifestation.

Surtout, si cette surveillance des manifestations restait illégale, elle questionnait l’usage des drones sous un angle nouveau : les opinions politiques n’ont pas à être surveillées. C’est pour cela que nous avons déposé un nouveau recours en urgence devant le Tribunal administratif de Paris.

Le floutage des personnes : un artifice dangereux

Grâce à cette nouvelle procédure, il nous a été révélé que la préfecture de police de Paris a tenté de contourner la première ordonnance de mai en mettant en place un dispositif de floutage par intelligence artificielle : une fois captées, les images des drones étaient transmises à un serveur chargé de flouter les personnes, avant de retransmettre les informations (images floutées et non-floutées) au centre de commandement de la police.

Mediapart analysait en novembre les documents de la préfecture tentant de justifier et d’expliquer ce procédé. Ce dispositif de floutage, réversible et soumis au seul bon vouloir de la police, était une tentative grossière de la préfecture de police de tromper les juges. Le Conseil d’État, contrairement au tribunal administratif de Paris, n’est pas tombé dans le piège : le rapporteur public1 estimait à l’audience que la préfecture de police avait commis une erreur de lecture de l’ordonnance de mai et que le fait de flouter les personnes souligne le problème intrinsèque aux drones : ce genre de dispositif a bien une capacité très importante de surveillance et un floutage a posteriori n’enlève rien à cela.

La CNIL doit mettre fin à la mauvaise foi de la police

Cette affaire met en lumière l’incroyable mauvaise foi de la préfecture de police qui, durant toute la procédure, a tenté de sauver son dispositif à l’aide d’indignes pirouettes, faisant ainsi évoluer sa doctrine d’utilisation des drones au gré des débats2, ou n’hésitant pas à contredire de manière éhontée ses propres documents quand nous les retournions contre elle pour appuyer l’illégalité du déploiement des drones.

La préfecture de police est en roue libre et il est fondamental de mettre fin à cette impunité. Le préfet de police a par exemple attendu près de deux mois pour appliquer (faussement vient de dire le Conseil d’État) la décision de mai. Combien de temps lui faudra-t-il cette fois-ci ? La CNIL doit passer à l’action et sanctionner les forces de police nationale et de gendarmerie qui continuent d’utiliser des drones ou des hélicoptères pour surveiller les manifestations ou faire appliquer les règles sanitaires. Nous lui avons mâché le travail, à elle de prendre le relais.

Cette nouvelle interdiction des drones intervient alors que la proposition de loi Sécurité Globale a déjà été votée en première lecture à l’Assemblée nationale et arrivera à la rentrée devant le Sénat. Après les critiques des rapporteur·es des Nations Unies de la Défenseure des droits et de 188 organisations, et les manifestations qui ont eu lieu partout en France contre ce texte, son rejet est d’autant plus important. Non seulement cette loi légalise les usages policiers de drones et accentue une fois de plus la pression sécuritaire sur les citoyen·nes, mais elle fait également fi de la protection la plus élémentaire des libertés fondamentales.

References

1 Le rapporteur public est un membre de la formation de jugement
chargé de donner une première analyse juridique de l’affaire, avant que le Conseil d’État rende sa décision.
2 Fort heureusement, comme en mai dernier, le Conseil d’État n’a donné aucune valeur à cette doctrine qui n’a aucune portée juridique.

Contre la politique de maintien de l’ordre en ligne

Mon, 21 Dec 2020 17:24:35 +0000 - (source)
Photo by Ralph (Ravi) Kayden on Unsplash

Depuis un mois nous vous parlons de la loi Sécurité Globale, de fichiers de police étendus, des nouveaux moyens donnés à la police pour réprimer les manifestants et des moyens de dénonciation des violences policières qui leur sont retirés. Aujourd’hui nous abordons les stratégies de maintien de l’ordre en ligne.

La censure, première arme de maintien de l’ordre sur internet

Depuis la création d’Internet, il semble que nos gouvernants n’aient eu de cesse de le présenter comme un « espace de non-droit » qu’il faudrait au plus vite « re-civiliser », y rétablir l’ordre. Si l’année 2000 a d’abord vu apparaître un statut européen protecteur des hébergeurs, préservant ces derniers de toute obligation de contrôle actif des contenus publiés sur leurs infrastructures sauf à « retirer promptement un contenu manifestement illicite qui leur aurait été désigné », différentes lois se sont enchaînées depuis pour renforcer la censure d’État.

La police est ainsi la première entité à bénéficier d’un très fort pouvoir de censure au prétexte de lutter contre le « terrorisme ». Lorsque la police demande à ce qu’un contenu soit censuré, elle s’adresse directement à l’hébergeur. Aucun juge n’intervient alors à ce stade et la police est la seule à décider de la nature d’un contenu qu’elle veut faire censurer, sur la base d’une notion de « terrorisme » particulièrement large, floue et sujette à l’arbitraire. Le seul recours offert est la contestation devant les tribunaux de la demande de censure mais cette possibilité est dérisoire : le juge arrive après la demande de la police, des mois voire des années plus tard. Ce mécanisme, dans lequel le juge n’intervient qu’en cas de contestation, prive les hébergeurs de toute marge de manœuvre quant à ces demandes, et les place dans une position de faiblesse. De l’autre coté, ce système offre à la police de vastes capacités d’abus et de censures politiques1.

Les géants du Net, bras armé de l’État

Loi haine, Règlement européen de censure terroriste, loi Fake News, Directive Copyright, toutes les lois de censure de ces dernières années remettent en question la protection du statut d’hébergeur, en leur confiant le rôle de police sur Internet. 1h pour censurer les contenus considérés comme « terroristes », 24h pour censurer les contenus ciblés comme « haineux », la mission confiée ici aux géants du web à travers cette exigence de délais si courts est de créer une police robotisée pour automatiser la censure. Sous couvert de lutte contre la haine ou le terrorisme, ce sont bien souvent les opposants politiques qui sont visés.

Lire notre article Une loi contre la haine anti-macron ? »

Les géants, tout à fait enclins à obéir aux États tant qu’ils conservent leur position dominante sur le marché illégal des données personnelles, font même du zèle, appliquant ces lois avant même leurs applications.

Contre la censure et la surveillance en ligne, la décentralisation

Depuis quelques jours nous avons vu s’inscrire sur notre instance Mastodon, mamot.fr, plus de mille personnes ayant souffert de la censure politique de Twitter. Beaucoup d’entre eux nous ont demandé quelle était notre politique de conservation des données et de censure. Il y a trois ans nous avons fait l’objet d’une réquisition concernant les données personnelles d’un utilisateur de mamot. Si la loi française « pour la confiance en l’économie numérique » demande aux hébergeurs de conserver les données des utilisateur·ices pendant un an, La Quadrature a choisi de respecter le droit européen et de ne conserver ces données que 14 jours.

Lire notre article Réquisition de mamot.fr, LQDN s’en tient aux droits fondamentaux

Qu’il s’agisse de régime de conservation et de communication à la police de données personnelles ou de modération et de filtrage des contenus publiés, nous gagnerons toujours à avoir une diversité d’hébergeurs et à lutter contre la centralisation des contenus et des personnes. C’est pourquoi, même si les nouv·elles venu·es sur mamot.fr sont les bienvenu·es, nous vous encourageons à ne pas vous concentrer sur ce serveur : de nombreuses instances existent et vous pouvez aussi créer les vôtres afin d’utiliser les nombreuses possibilités de modération qu’offre la décentralisation, et surtout créer des espaces dont vous choisissez les règles. Nous envisageons d’ailleurs de clore bientôt les inscriptions sur mamot.fr afin d’éviter qu’elle ne devienne une instance trop grosse.

Interopérabilité

Sur tous les réseaux, le poids de l’organisation verticale décidée unilatéralement se fait de plus en plus sentir. Il nous revient à toutses de créer ou de trouver des espaces pour communiquer qui ne soient plus assujettis aux principes économiques des plateformes ou aux principes sécuritaires des États. Mais quitter les plateformes des géants revient souvent à abandonner des liens importants, et nombreux sont ceux qui choisissent de céder un peu de leurs libertés pour préserver ces liens.
Pour permettre à tout le monde de préserver ses liens sociaux et ses libertés, La Quadrature propose depuis deux ans de contraindre les géants à devenir interopérables. C’est-à-dire, de les forcer à communiquer avec l’extérieur comme c’est le cas pour le mail : peut importe votre hébergeur mail, vous pouvez écrire à n’importe quelle autre adresse email car le protocole est ouvert.
Pour les réseaux sociaux c’est possible aussi : le protocole ActivityPub permet par exemple aux différentes instances Mastodon de communiquer entre elles. Ce protocole permet même de faire communiquer des réseaux qui ont des activités différentes (publications d’images, de vidéos, de billets de blogs…). Si les plateformes géantes étaient interopérables, il deviendrait possible de supprimer nos compte et de refuser de se soumettre entièrement à leur Conditions Générales d’Utilisation, pour passer sur des services qui respectent nos droits, voire même héberger soi-même son propre compte !

Lire notre lettre commune Pour l’interopérabilité des géants du web

Forcer les géants du Net à devenir interopérable est un projet probablement aussi ambitieux que d’imposer la neutralité du Net. L’Union européenne pourrait commencer à se saisir de cet enjeu dans son récent Digital Market Act, qu’il faudra pleinement investir dans les mois à venir.

Depuis 2008, La Quadrature se bat contre la surveillance et la censure sur Internet, nous dénonçons les lois liberticides et tentons de faire pression sur nos représentant·es pour qu’iels préservent nos droits. Pour que La Quadrature continue ses combats nous avons besoin d’énergie et d’argent. Pour nous aider à lutter contre ces futurs sécuritaires, parlez de nos combats autour de vous et faites un don si vous le pouvez sur laquadrature.net/donner

References

1 L’affaire d’IndyMedia Nantes un exemple d’abus assez parlant : la police voulait censurer une revendication de sabotage et la justice, parce que l’hébergeur est allé jusqu’au bout et a tenu, le tribunal administratif a fini par déclarer abusive la demande de la police.

Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles