Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Health Data Hub : du fantasme de l’intelligence artificielle à la privatisation de nos données de santé

Wed, 17 Mar 2021 12:18:46 +0000 - (source)

Projet central du « Plan national pour l’intelligence artificielle » (surnommé « AI for humanity« ), le « Health Data Hub » (HDH) est un projet visant à centraliser l’ensemble des données de santé de la population française. Il est prévu que le HDH regroupe, entre autres, les données de la médecine de ville, des pharmacies, du système hospitalier, des laboratoires de biologie médicale, du dossier médical partagé, de la médecine du travail, des EHPAD ou encore les données des programmes de séquençage de l’ADN [1].

Le HDH se substitue à une structure existante, le Système National de Données de Santé, avec deux principales modifications : un large élargissement des données collectées et un accès facilité, en particulier pour le secteur privé (GAFAM, « medtechs », startup, assureurs…), à ces dernières. A noter que les décrets officialisant les critères de sélection des projets ayant accès aux données ne sont toujours pas parus. Son objectif est donc, via leur centralisation, de faciliter l’utilisation de nos données de santé par le plus grand nombre d’acteurs de manière à, selon ses promoteurs-rices, « faire de la France un pays leader de l’intelligence artificielle » [2].

Ce projet, mené sans réelle concertation publique, est au centre de nombreuses controverses. Le choix du gouvernement de confier son hébergement à Microsoft, dans l’opacité la plus totale et malgré un avis particulièrement sévère de la CNIL, a soulevé de nombreuses protestations. Alors même que les critiques s’intensifiaient, le gouvernement a profité de l’état d’urgence sanitaire pour accélérer son développement, décision qui fut attaquée en justice par le collectif Interhop. Edward Snowden lui-même a pris position contre ce projet en dénonçant une capitulation du gouvernement devant « le cartel du Cloud ».

Sans remettre en question le droit à l’accès aux données médicales à des fins de recherche publique, ce texte se propose d’interroger les ressorts idéologiques du HDH et la vision du système de santé qu’il traduit, en l’inscrivant dans le contexte plus large de l’utilisation grandissante des techniques d’Intelligence Artificielle (IA) dans notre société. En effet, du système éducatif et social à la justice, en passant par la police, l’agriculture ou la santé, aucun domaine n’est aujourd’hui épargné. Alors que l’introduction de cette technologie est présentée comme inéluctable, et le recours à celle-ci comme intrinsèquement un progrès, les risques associés à son recours à outrance dans nos sociétés sont nombreux : déshumanisation [3], perte d’autonomie [4], usage contre les intérêts des patients, et, comme souvent lors de la création de nouvelles bases de données, une surveillance accrue [5]…

Aux origines du HDH : le rapport Villani ou l’IA fantasmée

La création du HDH fut initialement proposée dans le rapport Villani, publié en 2018. C’est sur la base de ce dernier que s’est construite la stratégie gouvernementale en matière d’IA.

Sa lecture permet d’appréhender la vision que se fait l’État des enjeux posés par l’IA, son positionnement par rapport à ces derniers et les risques que cette politique implique en terme de protection des données personnelles, tout particulièrement dans le domaine de la santé.

L’IA : « Une chance inouïe d’accélérer le calcul réservé à Dieu »

C’est en ces termes[6] qu’Emmanuel Macron, évoquant la philosophie de Leibniz[7], introduit le discours qu’il prononce à l’occasion de la publication du rapport Villani. L’IA, ajoute-t-il, « nous donnerait la capacité de réaliser nous-mêmes » le calcul du « meilleur des mondes possibles » que le philosophe réserve à Dieu. Selon lui, grâce à cette technique, nous serons bientôt en mesure de « parcourir beaucoup plus rapidement les chemins du malheur pour choisir le bon chemin […] plus tôt et […] plus rapidement » [6].

On retrouve ici toute la fascination exercée par les technologies, et l’informatique en particulier, sur nos dirigeant-e-s. Pour Jacques Ellul [8], ce sont d’ailleurs les politiques qui « paraissent plus que tous autres fascinés par cet instrument fabuleux », parce qu’ils-elles se trouvent « enfin maître(s) d’un instrument d’une puissance absolue » grâce auquel « tout va devenir possible ».

Après l’informatique, c’est donc à l’IA d’entretenir le mythe d’une technologie révolutionnaire et salvatrice. Comme l’écrivait André Vitalis en 1981 [9], l’IA et l’informatique sont des domaines si vastes que « dès lors, toutes les spéculations sont possibles, et à la place d’une appréciation raisonnée des possibilités de la machine, on est en présence d’une croyance à priori, en un pouvoir assez général ». Il ajoute à ce sujet que « ceci définit parfaitement une croyance magique ».

Une politique au service de finalités impensées

Cette fascination de nos dirigeant-e-s pour l’IA les empêche de prendre le recul nécessaire pour penser l’intégration de cette technique au sein d’un projet politique. Le rôle de l’Etat se limite à mettre tous les moyens à sa disposition pour préparer la France à « la révolution promise par l’IA », la faciliter, et ce, sans jamais questionner ni ses finalités ni ses moyens.

Ainsi, le rapport Villani plaide pour une véritable « transformation de l’Etat » et préconise d’adapter tant la commande publique que nos lois ou l’organisation de nos systèmes de santé et éducatif afin de lever les « freins » au développement de l’IA, « libérer la donnée » et « faire émerger une culture commune de l’innovation » [10]. Le cœur du rapport s’attache uniquement à préciser les actions à réaliser pour que la société s’adapte aux besoins techniques de l’IA.

Dans le même temps, la question de la limitation et de l’encadrement des usages de cette technologie y est quasi absente, tout comme la définition d’objectifs précis auxquels pourraient répondre une politique publique centrée autour de quelques grands projets de recherche publique. Ceux affichés par le « plan national pour l’IA » sont au contraire très vagues : permettre à la France de trouver une place parmi les « leaders » de ce domaine, ou encore « construire la véritable renaissance dont l’Europe a besoin » [6]

Il s’agit dès lors pour le pouvoir, non pas de questionner l’IA, mais de trouver de quels avantages dispose la France pour concurrencer les puissances dominantes (GAFAM, États-Unis, Chine) dans ce domaine. En se plaçant dans une logique concurrentielle, l’État embrasse implicitement le modèle défini par ces dernières et soustrait au débat public le choix de nos orientations technologiques.

Nos données de santé : un « avantage compétitif »

Les implications de ce choix vis-à-vis du HDH apparaissent rapidement. Comme Cédric Villani le précise [10] : « La situation actuelle est caractérisée par une asymétrie critique entre les acteurs de premier plan – les GAFAM […] – qui ont fait de la collecte et de la valorisation des données la raison de leur prééminence ; et les autres – entreprises et administrations – dont la survie à terme est menacée » .

Dans cette course à l’IA, l’État semble aujourd’hui dépassé par les GAFAM et les prodigieuses quantités de données qu’elles ont accumulé. A un tel point que Cédric Villani juge son existence mise en péril…

Toutefois, le rapport Villani se veut rassurant : si « le premier acte de la bataille de l’IA portait sur les données à caractère personnel » , et a été « remportée par les grandes plateformes » , le second acte va porter sur les « données sectorielles », dont le secteur de la santé est un parfait exemple. Or « c’est sur celles-ci que la France et l’Europe peuvent se différencier ».

Comment ? Grâce aux données à disposition de l’Etat français : celles collectées pour le développement de la sécurité sociale [11]. Comme l’explique clairement Emmanuel Macron : « Nous avons un véritable avantage, c’est que nous possédons un système de santé […] très centralisé, avec des bases de données d’une richesse exceptionnelle, notamment celle de l’Assurance-maladie et des hôpitaux ».

Tout est dit : pour que la France trouve sa place sur le marché de l’IA, l’État doit brader nos données de santé.

Un système de santé déshumanisé

Si le HDH est donc présenté comme un moyen de permettre à notre industrie nationale de « jouer un rôle de premier plan au niveau mondial et concurrencer les géants extra-européens » [10], il s’inscrit dans une vision plus globale d’un système de santé toujours plus quantifié et automatisé. Le rapport Villani permet en effet d’en cerner les contours : un système médical transformé pour être mis au service de l’IA, le recul des rapports humains, une médecine personnalisée basée sur l’exploitation à outrance de données personnelles et le transfert de la gestion de nouveaux pans de notre vie à des algorithmes opaques et privés.

« Hospital as a Platform » : Le corps médical au service de l’IA

L’ « Hospital as a Platform »[10], c’est ainsi que l’hôpital est désigné par le rapport Villani. Les lieux de soins y sont perçus comme de simples plateformes de données, des fournisseurs de matières premières pour les algorithmes des « medtechs ». Au delà de la violence d’une telle vision de notre système de soin, « producteur de données » [10], cela entraîne des conséquences directes tant pour le corps médical que pour la pratique de la médecine.

Puisque « les données cliniques renseignées par les médecins sont des sources d’apprentissage permanentes des IA », il devient « nécessaire que les professionnels de santé soient sensibilisés et formés pour encoder ces informations de manière à les rendre lisibles et réutilisables par la machine » [10].

Ainsi, jusqu’à présent, les soignants produisaient majoritairement des informations destinées à d’autres soignant-e-s et/ou patient-e-s. La quantification de chaque soin, introduite par la réforme de la T2A (tarification à l’activité) en 2003, avait déjà radicalement changé le rapport du soignant-e à la patient-e, tout en impactant les décisions médicales. Mais aujourd’hui c’est désormais l’ensemble de la production du personnel médical qui sera destiné à la machine. En inscrivant les relations patient-e/soignant-e dans des processus de rationalisation et de normalisation informatique, c’est le système lui-même que l’on déshumanise.

On renforce par ailleurs la charge de travail et les contraintes bureaucratiques du personnel médical, transformé à son tour en « travailleur-se du clic » pour reprendre l’expression d’Antonio Casilli [16], deux préoccupations au centre des récents mouvements de protestations [13] dans les milieux hospitaliers.

Marchandisation des données de santé

La stratégie gouvernementale prévoit la mise en place d’incitations fortes de manière à ce que le corps médical accepte ce changement de paradigme. Plusieurs pistes sont avancées :

Le rapport de préfiguration du HDH [14] indique par exemple que « les financements publics devraient être systématiquement conditionnés à la reconnaissance et au respect du principe de partage ». Un établissement médical refusant de partager les données de ses patient-e-s avec le HDH pourrait ainsi se voir ainsi privé de fonds.

Mais le coeur de la stratégie se veut plus doux. Il repose sur la rémunération des producteurs de données (hôpitaux, Ehpad, laboratoires…) par les utilisateurs-rices du HDH. Car comme le précise la mission de préfiguration, nos données de santé ont « un fort potentiel de valorisation économique » qui « se concentre principalement autour des industriels de santé, laboratoires pharmaceutiques et medtech » [14]. Ce que propose ainsi le rapport de préfiguration du HDH n’est rien de moins qu’une marchandisation de nos données de santé.

La mission de préfiguration rappelle par ailleurs qu’il sera nécessaire de « procéder à la large diffusion d’une culture de la donnée », afin de lever les freins culturels au développement de la technologie. Cette culture devra être infusée tant au niveau des responsables médicaux que des patients eux-mêmes. Et d’ajouter : « N’attendons pas d’être souffrants pour épouser cet état d’esprit » [14] …

Aujourd’hui pourtant, cette « culture de la donnée » française et européenne repose sur plusieurs textes tels la loi informatique et libertés de 1978 ou le RGPD (2018), qui visent au contraire à protéger cette donnée, et particulièrement la donnée de santé, dite « sensible » au même titre que l’orientation politique ou sexuelle. Maintenant que le contexte technique permet une analyse extrêmement pointue de ces données, il faudrait donc cesser de la protéger ?

« Deep Patient » : Du smartphone aux laboratoires d’analyses médicales

Pour Cédric Villani, les capteurs individuels de santé permettraient de participer à l’amélioration des outils d’IA, glissant vers une médecine individualisée à l’extrême, se basant sur la collecte d’une quantité toujours plus importante de données personnelles. Une médecine dans laquelle, selon lui, « le recueil des symptômes ne se fait plus seulement lors de la consultation de son médecin, mais à travers un ensemble de capteurs intégrés à l’individu (objets de « quantified self », apps de santé sur le smartphone, véritable « laboratoire d’analyses médicales distribuées ») ou à son environnement » [10].

Ce qu’évoque ici le rapport Villani, c’est le rêve d’une mesure de chaque aspect de notre vie (sommeil, alimentation, activité physique…), idéologie portée par le mouvement né aux Etats-Unis dit du « quantified self » [15]. Rêve accessible grâce à ces smartphones à qui incombe la responsabilité de collecte des données. Il est ainsi précisé que le « suivi en temps réel du patient et des traces qu’il produit » permet de « retracer une image précise du patient », constituant ce que le rapport désigne par l’expression de « deep patient » [10].

Le modèle proposé est donc celui de la délégation de notre système de santé à des applications se basant sur des algorithmes développés par le secteur privé, grâce aux données du HDH. La consultation de FAQ remplace petit à petit les consultations médicales, trop onéreuses et inefficientes, pendant qu’un avatar électronique remplace la médecin de famille.

Aucun recul n’est pris par rapport aux risques qu’engendre une privatisation croissante de notre système de santé. Aucune critique n’est faite du modèle économique des GAFAM basé sur la prédation des données personnelles. Il s’agit au contraire pour l’état d’accentuer le mouvement initié par ces derniers, de les concurrencer.

Se dessine alors une médecine personnalisée à l’extrême, atomisée, où la machine est reine et les interactions avec le corps médical marginalisées. Une médecine dans laquelle les questions collectives sont poussées en arrière plan et dans laquelle des pans entiers de notre système de santé sont délégués au secteur du numérique.

Conclusion

Nous refusons que nos données de santé soient utilisées pour la construction d’une médecine déshumanisée et individualisée à l’extrême. Nous refusons qu’elles servent à l’enrichissement de quelques structures privées ou à l’apparition de GAFAM français du domaine de la santé. Nous refusons qu’elles participent à l’avènement d’une société du « Quantified Self » dans laquelle la collecte de données personnelles de santé serait favorisée et valorisée. Nous refusons enfin une société où notre système de soin deviendrait un auxiliaire au service de technologies dont la place n’a pas fait l’objet d’un débat public.

Nous demandons donc :

– L’arrêt du développement du HDH, dans l’attente d’une remise à plat de ses objectifs et son fonctionnement ;
– L’arrêt du contrat d’hébergement conclu avec Microsoft ;
– Un changement de paradigme faisant de l’accès aux données de santé de la population française par le secteur privé l’exception plutôt que la norme.

[1]: Pour une liste exhaustive, se reporter à la Partie 5 « Patrimoine de Données » du Rapport de la mission de préfiguration du HDH : https://solidarites-sante.gouv.fr/IMG/pdf/181012_-_rapport_health_data_hub.pdf
[2]: https://www.aiforhumanity.fr/
[3]: Les films « Moi, Daniel Blake » ou « Effacer l’historique » offrent une belle, et triste, illustration d’un système social informatisé et bureaucratisé jusqu’à en perdre toute humanité
[4]: Voir à ce sujet « La liberté dans le coma » du Groupe Marcuse/ Sushana Zuboff
[5]: Voir à ce sujet le projet Technopolice: www.technopolice.fr
[6]: Discours prononcé le 29 mars 2018 par Emmanuel Macron à l’occasion de la publication du rapport Villani accessible ici
[7]: Macron évoque ici les réflexions de Leibnitz, philosophe du dix-septième siècle autour de la question suivante: « Si Dieu est omnibénévolent, omnipotent et omniscient, comment pouvons-nous rendre compte de la souffrance et de l’injustice qui existent dans le monde? » (citation wikipedia)
[8]: Lire à ce sujet le chapitre préliminaire du livre ‘Informatique, Pouvoir et Libertés’ d’André Vitalis et sa préface écrite par Jacques Ellul
[9]: « Pouvoir et Libertés », André Vitalis, Chapitre préliminaire,
[10]: Rapport Villani, accessible ici p.196
[11]: Sur le développement conjoint, et les besoins en matière de collecte de données, de l’état policier et de l’état providence, voir « La liberté dans le Coma », p57-75
[12]: Sur le concept de « travailleurs du clic », voir le livre « En attendant les robots. Enquête sur le travail du clic » d’Antonio Casili.
[13]: Voir par exemple cet article de Libération ici
[14]: Mission de préfiguration du HDH. Rapport disponible ici
[15]: Pour plus de détail sur ce mouvement, voir la page wikipedia ainsi que le chapitre 7 du livre « To Save Everything, Click Here: The Folly of Technological Solutionism » d’Evgeny Morozov.
[16]: Voir « En attendant les robots. Enquête sur le travail du clic. » d’Antonio A. Casilli.


Le Sénat doit s’opposer à la reconnaissance faciale des masques

Mon, 15 Mar 2021 13:48:44 +0000 - (source)

Le 10 mars 2021, le ministre des transports M. Djebbari a autorisé par décret les gestionnaires de gares, de métro et de bus à déployer sur leurs caméras de surveillance des logiciels de détection de masque, prétextant un besoin statistique dans la lutte contre le Covid.

Ce décret est illégal : d’abord, seul le Parlement aurait le pouvoir d’autoriser un tel traitement, par exemple dans la loi Sécurité Globale actuellement débattue. Surtout, un débat démocratique aurait fait apparaître que cette surveillance, en plus d’être une atteinte supplémentaire à nos libertés, est inutile et donc injustifiable.

Le gouvernement a préféré contourner le Parlement et la loi en passant par décret, remettant entièrement en cause l’autorité du pouvoir législatif. Le Sénat doit contenir cette offensive anti-démocratique en adoptant l’amendement de la loi Sécurité globale qui propose un moratoire de 2 ans pour tout système d’analyse d’image automatisée.

Nous manifesterons pour cela devant le Sénat mardi 16 mars à 16h, square Poulenc à Paris, le jour où commenceront les débats en séance publique sur cette loi.

Un décret pour une start-up

Le 6 mai 2020, profitant de la panique sanitaire, la start-up française Datakalab avait tenté un coup d’éclat médiatique en offrant à la RATP, l’exploitant des transports parisiens, un logiciel de détection de masque déployé dans la station de métro Châtelet. Si l’opération avait réussi à faire parler de Datakalab, elle avait aussi attiré la CNIL qui fit savoir que ce dispositif était illégal pour défaut d’encadrement juridique. Dans ces conditions, avoir déployé ce logiciel constituait un délit puni de 5 ans de prison. Le logiciel a donc été remballé le 12 juin (le tout sans qu’aucune poursuite pénale ne soit engagée).

Ensuite, la RATP et Datakalab ont manifestement cherché du soutien auprès du gouvernement afin de bricoler ce « cadre juridique » qui leur permettrait de poursuivre leur expérimentation. C’est ainsi que M. Djebbari a adopté le décret du 10 mars 2021, tout en saluant publiquement Datakalab, pour qui ce décret était clairement pris. En retour, Datakalab remerciait le ministre dans une franchise symptomatique des sociétés autoritaires.

Difficile de savoir exactement pourquoi M. Djebbari souhaite autoriser l’activité illégale d’une start-up, mais on peut au moins constater une chose : cela renforce la stratégie globale du gouvernement visant à éroder la large opposition populaire contre la surveillance biométrique en rendant celle-ci de plus en plus présente dans nos vies.

Le contenu du décret

Dans les grandes lignes, le décret se contente de décrire l’expérience menée illégalement par Datakalab en mai 2020, puis de l’autoriser. Désormais, les gestionnaires de gares, de métro et de bus peuvent installer sur leurs caméras de surveillance un logiciel qui comptera deux choses : le nombre de personnes filmées et le nombre parmi celles-ci qui portent un masque. Un pourcentage est donné pour des tranches d’au moins 20 minutes et le décret prétend pour l’instant que le logiciel ne pourra servir qu’à faire des statistiques en ne visant ni à punir ni à identifier les personnes ne portant pas de masque.

En pratique, c’est le visage de l’ensemble des personnes filmées qui sera évalué par un logiciel d’analyse automatisée. De façon assez classique en matière de surveillance, le consentement ne sera pas demandé et les personnes ne pourront pas s’y opposer.

Difficile de savoir si la RATP souhaitera retenter son aventure avec une start-up délinquante. On peut le supposer. Mais Datakalab pourra aussi prospecter d’autres villes, notamment Cannes où elle avait commencé à déployer ses premières démonstrations de force dans la vidéosurveillance automatisée. Dans tous les cas, la start-up gagnera en réputation et améliorera son dispositif en l’entraînant sur nos corps mis gratuitement à sa disposition, et il faut redouter que d’autres start-up ne lui emboitent le pas.

L’illégalité du décret

Deux arguments juridiques suffisent à comprendre que ce décret est illégal.

Premièrement, la loi (l’article L251-2 du code de la sécurité intérieure) liste de façon limitée les objectifs que les caméras de surveillance peuvent poursuivre (lutte contre les vols, les incendies, les agressions, etc). La loi ne liste pas l’objectif statistique poursuivi par le décret, qui est donc contraire au droit. Pour être légal, le décret aurait du être précédé par une modification de la loi pour y ajouter cette finalité statistique.

Ensuite, l’article 4 de la loi de 1978 et l’article 5 du RGPD, ainsi que la Constitution, exigent que toute mesure de surveillance soit « nécessaire » à la finalité qu’elle poursuit. Elle ne peut être autorisée que si l’objectif poursuivi ne peut pas être atteint par une mesure moins dangereuse pour les libertés. Dans notre cas, il n’est absolument pas nécessaire d’analyser constamment le visage de l’ensemble de la population afin de faire des statistiques. Un comptage réalisé par des humains et sur la base d’échantillons est un procédé aussi facile que fiable.

Surtout, à écouter M. Djebbari lui-même, un tel comptage, qu’il soit réalisé par des machines ou des humains, est largement inutile pour lutter contre le Covid puisque selon lui : « les transports en commun ne sont pas un lieu de contamination particulier », notamment car « le port du masque est totalement respecté dans ces lieux ». La nécessité de l’installation de caméras d’analyse de visages, autre critère juridique fondamental, fait donc clairement défaut.

Le Parlement contourné

On comprend que c’est précisément car cette mesure de surveillance est inutile pour lutter contre le Covid que le gouvernement a préféré passer par décret. En effet, il aurait eu bien du mal à convaincre le Parlement d’autoriser une mesure aussi inutile qu’impopulaire. Et pour cause, sous la pression populaire, le Sénat lui-même a déjà commencé à repousser ce type de surveillance.

Dans sa position adoptée le 3 mars, la commission des lois du Sénat a précisé que les drones ne devaient pas servir à faire de la reconnaissance faciale, a limité la façon dont les agents de sécurité des transports peuvent accéder aux caméras de surveillance et a rejeté un amendement visant à généraliser la reconnaissance faciale sur les caméras de surveillance.

Si ces trois positions sont bien en-deçà de ce que le Sénat devrait faire pour corriger la loi Sécurité Globale dans son ensemble (voir nos critiques), elles se révèlent suffisantes pour dissuader le gouvernement d’essayer d’obtenir l’autorisation du Parlement afin de déployer des logiciels de reconnaissance de masques. Il a donc acté de le contourner, afin de décider seul par décret. Le message est clair : le gouvernement n’a besoin ni de loi, ni de Parlement ni de la moindre légitimité démocratique pour repousser chaque fois davantage les frontières de la Technopolice.

Contenir l’offensive autoritaire

Le gouvernement a en effet pris l’habitude de se passer de l’autorisation du Parlement pour déployer sa Technopolice : autorisation de la reconnaissance faciale massive en 2012 dans le fichier TAJ, centralisation des visages de toute la population dans le fichier TES, déploiement de caméras par hélicoptères et par drones, fichage politique des militants dans les fichiers PASP et GIPASP… 

Certes, aujourd’hui, suite à notre victoire au Conseil d’État, le gouvernement se retrouve obligé de demander au Parlement d’autoriser les caméras mouvantes dans la loi Sécurité Globale. Mais pour le reste, il a continué d’usurper le pouvoir législatif en autorisant des mesures de surveillance qui auraient du faire l’objet d’un débat démocratique puis être soumises au vote du Parlement, qui aurait probablement conclu au rejet de ces mesures injustifiables. Tant que personne ne l’arrêtera, le gouvernement continuera encore et encore à s’accaparer le pouvoir législatif tant les ambitions sécuritaires qu’il s’est fixé pour les Jeux Olympiques de 2024 sont immenses.

Le devoir du Parlement est d’obliger fermement le gouvernement à revenir devant lui chaque fois qu’il souhaitera étendre ses appareils de surveillance. Au Sénat, la gauche a proposé un amendement qui irait précisément dans ce sens en suspendant par principe et pendant 2 ans toute nouvelle extension des systèmes de vidéosurveillance. 


Sauf à renoncer à son rôle démocratique, le Sénat doit impérativement adopter cet amendement. S’il n’en fait rien, nous devrons probablement pallier la démission du Parlement en attaquant nous-même ce décret devant le Conseil d’État. Et puisque le Parlement n’a pas encore envisagé de léguer son budget aux nombreuses associations qui reprennent son rôle de contre-pouvoir, n’oubliez pas de nous soutenir si vous le pouvez !


Une vidéosurveillance peut en cacher une autre

Fri, 12 Mar 2021 12:43:05 +0000 - (source)

Ce serait enfoncer une porte ouverte que de dire que la vidéosurveillance est partout. Alors que la Cour des comptes critique l’absence totale d’efficacité de ces dispositifs, celle-ci est sans cesse promue comme une solution magique à des problèmes que l’on ne veut pas regarder en face. Pourtant, derrière l’effrayante banalité de la vidéosurveillance peut se cacher l’effarante illégalité de la vidéosurveillance automatisée, ou algorithmique.

C’est l’histoire d’une banale histoire de vidéosurveillance

L’AN2V, le lobby de la vidéosurveillance, faisait la promotion, dans l’édition 2020 de son guide annuel, de la vidéosurveillance automatisée (VSA). Véritable démonstration des possibilités sécuritaires, ce document regroupe des articles sur l’analyse algorithmique de nos vies et rêve de futurs toujours plus sombres. Mais ce « Pixel 2020 », comme il se fait appeler, donne également la parole aux revendeurs d’un des logiciels les plus utilisés dans le domaine de la VSA : Briefcam.

Quelle ne fut pas notre surprise en découvrant dans ce guide qu’un petit bourg d’à peine 7000 habitant·es, Moirans, pas très loin de Grenoble, utilise le logiciel Briefcam pour faire de l’analyse algorithmique à partir des images captées par les caméras de vidéosurveillance. Il est de notoriété publique que beaucoup de collectivités locales de tailles importantes utilisent ce logiciel, mais nous découvrions ici qu’un petit village peut également se l’offrir.

En 2016, la mairie de Moirans, sous l’impulsion d’un maire « divers droite » et profitant d’un fait divers récupéré par le Premier ministre et le ministre de l’Intérieur de l’époque pour faire la promotion du solutionnisme technologique qu’est la vidéosurveillance, décida de s’équiper d’une soixantaine de caméras. Heureusement que l’État était là, puisqu’une subvention de 80 % du coût total par le Fonds Interministériel de Prévention de la Délinquance (FIPD), les plus de 400 000 € du projet ne furent que relativement peu supportés par le budget communal. Mais jusque là, personne n’avait encore entendu parler de Briefcam à Moirans…

Un Briefcam sauvage apparaît !

Après quelques invectives en conseil municipal, la ville de Moirans décida de s’équiper de vidéosurveillance et passa un marché public pour cela. Comme pour tout marché public, elle rédigea un cahier des clauses techniques particulières (CCTP). Celui-ci était assez classique : des caméras de haute résolution, la possibilité de lire une plaque minéralogique jusqu’à une vitesse de 90 km/h (alors même que la configuration du centre-ville rend périlleuses les vitesses au-delà des 30), des poteaux, des fibres, des écrans pour consulter les images et des serveurs pour les enregistrer, etc. Jusque-ici, aucune trace d’analyse algorithmique.

C’est finalement en lisant les rapports de suivi des travaux que nous découvrîmes le pot aux roses. Au moment de l’exécution du marché public, l’entreprise qui avait obtenu le projet proposa d’inclure le logiciel Briefcam, alors même que les fonctionnalités de VSA n’étaient pas demandées par la ville dans le CCTP. Une démonstration fut organisée par l’entreprise qui avait obtenu le marché public, le budget fut modifié pour tenir compte de cet ajout, et depuis 2019 Briefcam surveille. Emballé, c’est pesé.

Quelles leçons en tirer ?

Jusqu’alors nous cherchions la VSA là où elle s’affiche, comme à Marseille et son CCTP dédié à la VSA, mais nous nous sommes rendu compte qu’une simple vidéosurveillance, aussi classique soit-elle, peut cacher de la vidéosurveillance automatisée. Bien entendu, le journal municipal de Moirans se garde bien d’annoncer que la ville est équipée d’un logiciel capable de faire de l’analyse biométrique des personnes (ce qui n’empêche pas le journal municipal de vanter les bienfaits supposés de la vidéosurveillance « classique »). La CNIL n’a également jamais entendu parlé d’une quelconque étude d’impact à Moirans, étape pourtant obligatoire à la mise en place d’un traitement de données — a fortiori ici de données sensibles que sont les données biométriques. La première leçon à tirer est donc qu’il est vital de documenter le moindre projet de vidéosurveillance, même celui qui semble le plus classique. Bonne nouvelle, nous avons mis à jour nos guides pour vous aider à le faire dans votre ville !

La deuxième leçon à tirer est que Briefcam se cache là où on ne l’attend pas. L’entreprise qui a décroché le marché public à Moirans et a refourgué du Briefcam sous le manteau s’appelle SPIE. Il s’agit d’un industriel du BTP, qui a pignon sur rue mais qui n’est pas un fabricant de logiciel de VSA. En réalité, SPIE a sous-traité la VSA à Moirans à une autre entreprise, nommée Nomadys, qui elle-même revend Briefcam, logiciel développé par l’entreprise du même nom.

Que la chasse à Briefcam soit ouverte !

Fin janvier, nous avons identifié une douzaine d’administrations ayant passé un marché public de vidéosurveillance avec l’entreprise SPIE. Le Bulletin officiel des annonces de marché public (BOAMP) permet d’obtenir facilement une telle liste (certes très incomplète). Nous leur avons envoyé à chacune une demande CADA réclamant la communication des documents relatifs à ces marchés publics. Très peu ont répondu, et les quelques réponses reçues, lorsqu’elles ne sont pas caviardées à outrance, restent silencieuses sur les logiciels revendus par SPIE et utilisés. En particulier, aucune n’a accepté de nous communiquer les manuels d’utilisation des logiciels utilisés, en prétextant un soi-disant secret industriel. Si l’article L. 311-5 du code des relations entre le public et l’administration permet en effet à une administration de refuser de communiquer un document qui contiendrait un secret protégé par la loi, comme un secret industriel ou commercial, les manuels d’utilisation que nous demandions n’indiquent pas comment fonctionnent ces logiciels, mais ce qu’ils sont capables de faire. Ce type de document est par ailleurs communicable aux États-Unis en application de règles légales similaires à celles servant en France à faire des demande CADA. Il nous reste encore à analyser en détails les réponses, et nous saisirons ensuite la CADA sur ces refus. Et peut-être que nous irons plus loin, qui sait ?

Vous aussi de votre côté vous pouvez nous rejoindre dans cette chasse à Briefcam ! Nous avons mis à jour nos guides pour faire des demandes CADA et vous pouvez nous rejoindre sur le forum Technopolice pour partager vos découvertes. Et, comme toujours, vous pouvez aussi nous aider en nous faisant un don.


Technopolice: les bailleurs sociaux en première ligne

Wed, 10 Mar 2021 15:29:00 +0000 - (source)

On sait que les quartiers les plus défavorisés sont des lieux privilégiés d’expérimentation de la technopolice et de la répression policière. Caméras-piétons, LBD, drones : autant d’exemples de techniques largement déployées sur les populations les plus précaires avant d’être généralisées.

Le rapport annuel 2021 de l’Association Nationale de la Vidéoprotection, le grand lobby national de la vidéosurveillance, apporte de nouveaux éléments sur les rapports entretenus entre la Technopolice et les quartiers populaires.

Plusieurs pages sont dédiées aux sombres pratiques du plus grand bailleur de logements sociaux en France, le Groupe 3F . Y sont en particulier décrits trois exemples d’utilisation de la vidéosurveillance par le groupe. Tous concernent des « Quartiers de reconquête républicaine » (QRR) et portent des noms de code militaires, tels « Opération JULIETT » ou encore « Opération ALPHA ».

L’utilisation de caméras cachées

Le premier cas concerne l’installation de caméras de vidéosurveillance dans le 19e arrondissement de Paris, dans le quartier de Crimée. Il s’agissait de lutter contre des regroupements de personnes répondant à « des logiques de trafic [..] ou ethniques » (sic).

On apprend que la reconquête du parking « Jumeau » a ainsi impliqué l’installation de caméras « anti-vandales » mais aussi de caméras factices et de caméras « pin-hole ».

Ces dernières sont conçues pour être quasiment indétectables à l’œil nu et sont normalement utilisées pour espionner une ou plusieurs personnes à leur insu. Elles peuvent par exemple être installées dans de faux détecteurs anti-incendies, de faux détecteurs de mouvement ou simplement dans de fausses vis ! En voici deux exemplaires trouvés sur internet :

Une caméra dans un détecteur de fumée :

Une caméra dans une prise électrique :

La retransmission en temps réel aux services de police

La deuxième spécificité des systèmes de vidéosurveillance mis en place par le bailleur social est la transmission des images en temps réel aux Centres de Supervision Urbaine (CSU) des forces de l’ordre.

Si ce déport vidéo est autorisé, il faut toutefois préciser que cette pratique est strictement encadrée par la loi LOPPSI 2. Elle n’est en particulier autorisée qu’en cas « de circonstances faisant redouter la commission imminente d’une atteinte grave » et limitée au « temps nécessaire à l’intervention des services de la police ou de la gendarmerie ».

Notons d’ailleurs que dans le cadre de la loi « Sécurité Globale », le gouvernement cherche à faciliter ce déport en le permettant dès lors qu’il y a « occupation par des personnes qui entravent l’accès et la libre circulation des locataires (…)». L’article 20 bis du projet de loi de Sécurité Globale voté par l’Assemblée Nationale prévoit de supprimer le critère d' »atteinte grave » et de le remplacer par « en cas d’occupation par des personnes qui entravent l’accès et la libre circulation des locataires ou empêchent le bon fonctionnement des dispositifs de sécurité et de sûreté ou nuisent à la tranquillité des lieux » (voir notre billet à ce sujet). Cet article a été supprimé par le Sénat mais devrait malheureusement revenir au moment des débats en commission mixte paritaire.

Mais à Aulnay, dans le cadre de l’opération « ALPHA », Immobilière 3F ne semble pas faire grand cas de cet encadrement. Il est ainsi prévu que le déport vidéo vers le CSU d’Aulnay puisse être activé à la demande des policiers. Rien ne permet de comprendre comment le cadre législatif sera respecté.

Opération « Chicha »

Dernière illustration de la banalisation de l’utilisation de la vidéosurveillance des habitants de logements sociaux ? Le bailleur social se vante d’utiliser des caméras nomades pour lutter contre… les fumeurs de chicha.

Tout cela ne fait que souligner la surveillance permanente, et pernicieuse, des populations défavorisées. Comme les migrants aux frontières, elles sont les premières à souffrir de la fuite en avant technopolicière de notre société.

Une fuite en avant

Ces expérimentations donnent, de nouveau, à voir l’infiltration permanente de la surveillance dans notre société : aux caméras-fixes dans la rue, se superpose une surveillance par les airs (drones), à hauteur d’hommes (caméras-piétons), surveillance qui nous poursuit désormais jusque dans les halls d’immeubles. A quand nos portes d’entrée ou nos chambres ?

La possibilité de transmettre ces vidéos dans des centres de commandement, centralisant et analysant l’ensemble de ces flux, est désormais facilitée et encouragée alors même qu’elle était initialement strictement encadrée.

Que dire enfin des caméras de type « pin-hole » ? Alors que la législation mettait au cœur de l’équilibre du système l’information des personnes sur l’existence des caméras (qui devaient être visibles pour tout le monde), on constate le développement de caméras discrètes, cachées, invisibles. Une surveillance qui ne s’assume plus, qui se veut invisible, pernicieuse et incontestable…


MaDada : exigeons les documents de la Technopolice

Mon, 08 Mar 2021 12:25:39 +0000 - (source)

MaDada.fr est une plateforme web citoyenne, ouverte à tous, qui facilite et permet à tout un chacun de faire des demandes d’accès aux documents administratifs. Demandons les documents de la Technopolice partout autour de nous, exigeons la transparence, afin de mieux lutter contre ces dispositifs.

La campagne Technopolice vise à analyser et documenter les dispositifs de surveillance policière qui se propagent dans nos villes et nos vies, afin de mieux les contrer. Ce travail de veille et de recherche d’information, nous l’effectuons ensemble, de façon décentralisée, le forum Technopolice, ouvert à tous, nous servant de lieu où nous nous retrouvons, et où toutes ces informations se croisent, s’échangent et sont analysées collectivement. Le site data.technopolice.fr est lui un lieu de sauvegarde et d’organisation des documents issus de nos recherches.

Ces recherches et analyses nourrissent nos actions pour contrer la surveillance : elles nous aident à porter et appuyer des contentieux, à organiser des actions collaboratives (carte de la Technopolice, lettre ouverte pour les municipales) ou des actions de sensibilisation (expositions et ateliers Technopolice à Avignon, Marseille ou Nice ). Lire notre boîte à outils pour en savoir plus sur nos outils et modes d’actions.

Une source très importante d’informations pour la campagne Technopolice sont les « demandes d’accès aux documents administratifs », (parfois appelées « demandes CADA » par abus de langage, du nom de l’autorité chargée de rendre des avis sur la communicabilité des documents administratifs). La Technopolice avance vite, se répand et évolue en permanence, mais elle avance masquée, sans études préliminaires, sans débat ni concertation citoyennes et dans un manque profond de transparence et de démocratie. C’est à travers des informations recueillies par des demandes CADA que nous avons pu attaquer et faire interdire les portiques de reconnaissance faciale à Marseille et Nice, ou bien que l’écoute sonore à Saint-Étienne est apparue délirante.

Faisons valoir notre droit d’accès aux informations publiques

L’article 15 de la Déclaration des droits de l’homme et du citoyen de 1789 mentionne que « La société a le droit de demander des comptes à tout Agent public de son administration ». Le droit d’accès aux informations publiques est donc un droit constitutionnel. Ce droit est précisé et garanti par la loi n° 78-753 du 17 juillet 1978, codifiée au livre III du code des relations entre le public et l’administration (CRPA), qui institue le principe de la liberté d’accès aux documents administratifs à toute personne qui en fait la demande.

Notre Guide de demandes CADA vous propose un modèle de lettre et donne des indications détaillées sur la rédaction des demandes de documents administratifs.

MaDada.fr : une plateforme collaborative qui facilite les demandes

Une fois que l’on a identifié la demande à faire, les documents à demander et l’administration à laquelle l’adresser, on peut passer par Ma Dada. Il s’agit d’une plateforme web citoyenne, initiative de l’association Open Knowledge Foundation France, qui permet d’acheminer les demandes en maintenant à jour l’annuaire des administrations, d’y recevoir les réponses éventuelles, de recevoir des notifications en cas de dépassement des délais légaux de réponse et d’effectuer les rappels et les recours amiables dans ce cas. Elle permet le suivi des demandes, la duplication de celles-ci et l’envoi de demandes en série à plusieurs administrations à la fois (demandes par paquets de la fonctionnalité avancée MaDada++). En cas de non réponse après le délai légal d’un mois, afin de faciliter la saisine de la Commission d’accès aux documents administratifs (CADA), elle permet d’avoir accès à l’échange complet de la demande via son lien web public, ou d’en exporter une copie dans un fichier PDF.

Par défaut, les demandes sur Ma Dada sont publiques, leur réponses également. La plateforme joue ainsi le rôle d’une base de connaissances ouverte collective, un document demandé par un utilisateur profitant à tous les autres. Certaines peuvent néanmoins être rendues privées (fonctionnalités avancées MaDada++) pour les besoins d’une enquête ou d’analyse avant publication, ou pour celles et ceux qui ne souhaitent pas s’exposer.

Une demande d’accès aux documents administratifs doit obligatoirement comporter l’identité de la personne qui en fait la demande ou, pour une association, le nom de l’association et son numéro RNA. Ainsi, si dans le cadre de la campagne Technopolice vous souhaitez faire des demandes tout en restant anonyme, n’hésitez pas à nous l’indiquer sur le forum Technopolice. Ma Dada peut également, sur demande ou signalisation, censurer des informations personnelles qui paraissent sur le site.

Mettons à nue la Technopolice

Pour la Technopolice, nous avons commencé à utiliser Ma Dada. Il est ainsi possible s’inspirer de demandes existantes : en voici par exemple une qui demande tous les documents relatifs à l’audit du système de surveillance à Marseille ; ou encore une autre concernant la sécurité des grands événements et des JO de Paris 2024 . Voici également cette demande par paquets adressée à chacune des villes de la Technocarte pour y obtenir les arrêtés préfectoraux d’autorisation des emplacements des caméras de surveillance.

Restez connectés, nous publierons dans les jours qui viennent différents exemples et résultats d’analyses de demandes CADA qui nous ont été utiles dans la campagne Technopolice !


La police en hélicoptère, ou la surveillance militaire des citoyens

Fri, 05 Mar 2021 11:05:25 +0000 - (source)

Ce article a été d’abord publié sur le blog de notre site de campagne Technopolice.

Depuis plusieurs années, les hélicoptères de la gendarmerie sont régulièrement déployés pour des missions de surveillance de l’espace public, et ce en toute illégalité. Dotés d’un matériel d’abord développé dans un contexte militaire, la police se vante de leur capacité d’espionnage bien supérieure à celles des drones : caméras thermiques avec zoom ultra-puissant, suivi automatisé des suspects, transmission en temps-réel des images à des postes de commandement…

Leur usage n’a pourtant jamais été sanctionné – ni par le juge ni par la Cnil. Le gouvernement veut maintenant les légaliser dans la PPL « Sécurité Globale » – dont les débats ont repris début mars au Sénat.

Difficile de remonter aux premières utilisations d’hélicoptères par la police à des fins de surveillance de l’espace public. En octobre 2000, une question écrite au Sénat laisse déjà deviner une utilisation régulière d’hélicoptères équipés de « caméras vidéo thermiques embarquées » par la police et la gendarmerie.

Aujourd’hui en tous cas, la police et la gendarmerie sont fières de leurs capacités de surveillance. Pendant le confinement, elles vantaient ainsi que l’hélicoptère « ne peut être ni vu ni entendu par les personnes au sol » et est doté de caméras « capables de deviner à des centaines de mètres la présence d’êtres humains ou d’animaux ». En 2018, il était précisé que la caméra pouvait même « identifier un individu à 1,5 km de distance » avec retransmission « en direct et suivi depuis le centre interministériel de crise du ministère de l’Intérieur ».

En 2017, le commandant des « forces aériennes de la gendarmerie nationale » parle d’un « énorme zoom qui permet de lire à 300 mètres d’altitude une plaque d’immatriculation située à un kilomètre, d’identifier une personne à 2 km et un véhicule à 4 km », précisant qu’il peut « demander à la caméra de suivre automatiquement un objectif, quelle que soit la position ou la trajectoire de l’hélicoptère ».

Un matériel militaire pour de la surveillance interne

Plus que le type d’hélicoptère utilisé (apparemment, des « EC-135 » que la gendarmerie prête à la police quand celle-ci en a besoin), c’est le type de caméra qui importe.

Depuis au moins 2010, la gendarmerie utilise un dispositif nommé « Wescam MX-15 » – qui n’est même plus qualifié de « simple caméra » mais de « boule optronique ». C’est cet objet, avec sa caméra thermique et son zoom surpuissant, qui permet à la police de filmer, traquer, identifier (de jour comme de nuit) et de retransmettre en direct le flux vidéo, avec une « qualité d’image comparable à celle que le public connaît pour le Tour de France ».

C’est un appareil clairement militaire, utilisé dans des zones de guerre et répertorié en tant que tel sur des sites d’armement. Il est pourtant déployé depuis plusieurs années au-dessus des villes en France. Comme pour d’autres outils de la Technopolice (drones, vidéosurveillance automatisée…), il y a encore ici cette porosité entre les technologies militaires utilisées dans les pays en guerre, celles expérimentées aux frontières et celles déployées pour la surveillance des villes – soit une militarisation progressive de nos espaces publics.

Pour le futur, les hélicoptères devraient être équipés chez Safran, avec une « boule optronique » dite « Euroflir 410 » : un zoom encore plus puissant, des détecteurs de mouvement, un ordinateur intégré… Bref, un ensemble de technologies que la police ne manquera pas d’utiliser pour nous espionner au plus près. Comme pour les drones, ce type de technologies couplé à de l’analyse logicielle des images concrétise la société fantasmée par le ministère de l’Intérieur dans son


livre blanc publié en novembre dernier : celui d’une surveillance automatisée et totale. L’objectif est que ce nouveau dispositif soit « opérationnel avant les JO de Paris 2024 ».

Surveillance des manifestations et identification des « suspects »

Les utilisations des hélicoptères semblent encore plus larges que celles des drones : surveillance du confinement et des manifestations, surtout pendant celles des gilets-jaunes. En mars 2019, la gendarmerie annonce d’ailleurs avoir effectué 717 heures de vol au-dessus des manifestations, pour un coût total de 1 million d’euros.

En 2010, déjà, la gendarmerie se vantait de sa surveillance des manifestations, car les hélicoptères sont, selon elle, «  les mieux placés pour détecter les débordements, incidents ou intrusions dans les cortèges » avec des « images transmises en direct dans les salles de commandement (…) permettant aux responsables de faire intervenir immédiatement les effectifs au sol ».

Au-delà de le surveillance des machines, c’est aussi sur leur capacité d’intimidation que mise la police quand elle dit « faire du bruit » au dessus des manifestations ou qu’elle multiplie les survols menaçants et continus au-dessus des ZAD.

Illégalité et impunité de la surveillance

Tout ce pouvoir de surveillance n’a jamais été, et n’est toujours pas, encadré par le moindre texte de loi. Il n’existe aucune limite à ce qu’a pu faire et ce que peut faire aujourd’hui la police en termes de surveillance de la voie publique par hélicoptères : durée de conservation des données, types de lieux pouvant être filmés, accès aux images, information sur la captation…

C’est exactement la même illégalité que nous avions soulevé concernant les drones et qui a conduit à leur interdiction en France, par le Conseil d’Etat d’abord, par la Cnil ensuite : l’absence de texte législatif ou réglementaire permettant à la police de capter des données personnelles. Rien de tel malheureusement pour les hélicoptères : malgré leur utilisation régulière, aucune autorité n’est venue rappeler le droit à la police.

Le gouvernement, les parlementaires et la police en sont bien conscients. Ils veulent donc profiter de la proposition de loi « Sécurité globale » pour légaliser le dispositif – plusieurs dizaines d’années plus tard.

La proposition de loi « Sécurité globale » revient en ce moment devant le Sénat. En plus d’intensifier la vidéosurveillance fixe, elle veut légitimer la vidéosurveillance mouvante : les drones, les caméras-piétons, les caméras embarquées et donc, les hélicoptères. Les parlementaires doivent refuser la militarisation de la surveillance de l’espace public.


La loi Sécurité Globale validée en commission au Sénat

Wed, 03 Mar 2021 14:03:12 +0000 - (source)

La commission des lois du Sénat a adopté ce matin sa position sur la proposition de loi Sécurité Globale. Il ne faut pas se laisser abuser par les modifications apportées au texte et dont se vanteront sans doute les rapporteurs, MM Hervé et Daubresse. Le texte adopté ce matin est aussi sécuritaire que celui adopté par l’Assemblée nationale.

Un débat à huis clos

Première mauvaise surprise : le débat en commission des lois s’est déroulé derrière des portes closes (sans retransmission vidéo) et a été d’une rapidité surprenante. Commencé à 8h30, l’examen du texte s’est terminé à 11h30. Il n’aura fallu que trois heures aux sénateurs pour voter leur version de la proposition de loi. Et, en toute opacité donc, réécrire l’article 24, légaliser les drones et les caméras embarquées, intensifier la vidéosurveillance fixe.

Article 24

Comme annoncé, les rapporteurs ont tenté de neutraliser l’article 24 qui, dans sa version initiale, aurait empêché de documenter les violences policières. Désormais, cet article se divise en deux infractions : une première sanctionne « la provocation, dans le but manifeste qu’il soit porté atteinte à son intégrité physique ou psychique, à l’identification » d’un policier ou d’un militaire ; une deuxième infraction sanctionne le fait de réaliser un traitement de données personnelles concernant des fonctionnaires sans respecter le RGPD et la loi informatique et liberté.

Ces nouvelles formules sont si confuses et redondantes avec le droit existant qu’il faut regretter que l’article n’ait pas été entièrement supprimé. On peut toutefois espérer que, ainsi modifié, l’article 24 ne fasse plus diversion et que le débat puisse enfin se recentrer sur les mesures de surveillance au cœur de la proposition de loi.

Vidéosurveillance

Le code de la sécurité intérieure limite actuellement le visionnage des images de vidéosurveillance aux seuls agents de la gendarmerie et de la police nationale. Ce matin, le Sénat a validé les articles 20, 20 bis A et 20 ter de la loi Sécurité Globale qui étendraient cet accès aux agents de la police municipale et de la ville de Paris, des communes, des communautés de communes et groupements similaires ainsi que des services de sécurité de la SNCF et de la RATP. Les sénateurs se sont contentés de quelques modifications de façade (ici, ici et ) qui, prétendant suivre l’avis d’une CNIL démissionnaire (relire nos critiques), ne changeront rien à l’extension injustifiable des personnes pouvant accéder aux images de vidéosurveillance.

Il n’y a bien qu’une seule véritable (et maigre) avancée en matière de vidéosurveillance : la commission des lois a supprimé l’article « 20 bis ». Celui-ci prévoyait de faciliter la retransmission en direct des images filmées par les caméras posées dans les halls d’immeubles. Comme nous l’avions souligné dans notre analyse juridique, en plus d’être une mesure de surveillance extrêmement invasive, cette disposition était clairement inconstitutionnelle.

Les rapporteurs ne pouvaient donc que l’enlever. La disposition risque malheureusement de réapparaître en commission mixte paritaire au moment des discussions avec l’Assemblée nationale.

Drones

S’agissant des drones, les rapporteurs ont appliqué une technique éculée en matière de faux-semblants législatifs : réécrire un article pour lui faire dire la même chose avec des mots à peine différents. Si l’amendement adopté semble dense, les différences avec le texte initial sont presque nulles : la police et la gendarmerie pourront tout aussi facilement déployer leurs drones pour maintenir leur politique de surveillance massive et de répressions des libertés par la violence (relire notre analyse).

La seule avancée obtenue ce matin est l’interdiction explicite de l’audiosurveillance et de la reconnaissance faciale par drone. Les rapporteurs prétendent vouloir «  réaffirmer, à ce stade, la prohibition des techniques qui ne sont pas expressément autorisées par le législateur (captation des sons, reconnaissance faciale, interconnexions automatisées de données) ». Bien que cette interdiction explicite ne soit pas nécessaire (le droit interdit déjà ces pratiques), ce positionnement symbolique du Sénat est bienvenu face à des industriels qui invitent déjà les autorités à recourir à ces techniques.

Caméra-piétons

La victoire symbolique obtenue sur les drones doit être largement relativisée : si nous redoutions le déploiement massif de la reconnaissance faciale, ce n’est pas tant sur les drones que sur les caméras-piétons, bientôt largement déployées en France et dont les images seront transmises en temps réel au centre de contrôle en application de la loi Sécurité Globale. Les rapporteurs n’ont rien fait pour contrer ce risque pourtant bien plus actuel et immédiat que celui posé par les drones, plus lointain. Comme si leur souhait de « réaffirmer » l’interdiction de la reconnaissance faciale était limité aux scénarios les plus abstraits mais que, pour les choses que la police réclame concrètement, le législateur devrait baisser les yeux et la laisser faire.

Ici encore, l’amendement adopté ce matin se contente de réécrire sans rien changer, en prétendant suivre l’avis de la CNIL qui, elle même, ne proposait rien de concret ou de juridique.

Reconnaissance faciale

La commission des lois a rejeté les amendements que nous dénoncions hier comme tentant d’instaurer un système de reconnaissance faciale généralisé. La provocation politique était sans doute trop importante. Et pourtant, dans le même temps, les sénateurs ont aussi rejeté l’amendement qui proposait d’interdire pendant deux ans les dispositifs de biométrie policière.

Comment comprendre ces deux positions qui, en apparence, s’opposent ? La situation semble identique à celle constatée à l’Assemblée nationale l’an dernier : la majorité et la droite souhaitent bien que la loi Sécurité Globale renforce le dispositif de reconnaissance faciale autorisé depuis 2012 par décret, mais pas grand monde ne semble prêt à assumer la responsabilité d’autoriser explicitement un tel régime dans la loi. L’hypocrisie est totale quand les rapporteurs prétendent interdire ce dispositif sur les drones mais refusent toute interdiction plus large.

Prochaine étape : la discussion en séance publique qui aura lieu les 16, 17 et 18 mars prochains. Il sera plus que jamais nécessaire de maintenir la pression sur les sénateurs pour qu’ils aillent beaucoup plus loin que les rapporteurs et mettent un coup d’arrêt définitif à ce texte.


Sécurité Globale : la droite appelle à la reconnaissance faciale

Tue, 02 Mar 2021 14:24:40 +0000 - (source)

Demain 3 mars, la commission des lois du Sénat examinera la loi Sécurité Globale, déjà adoptée en novembre par l’Assemblée nationale (relire notre réaction). Alors que le texte était déjà largement contraire à la Constitution et au droit européen (relire notre analyse), les sénateurs et sénatrices de droite et du centre souhaitent s’enfoncer encore plus loin dans l’autoritarisme en officialisant un système jusqu’alors implicite dans la loi : instaurer un vaste régime de reconnaissance faciale.

Dans le cadre du vote de la loi Sécurité globale, 68 sénateurs et sénatrices proposent d’inscrire la reconnaissance faciale au livre VIII du code de la sécurité intérieure qui, créé en 2015 par la loi renseignement, avait autorisé la surveillance de masse des communications électroniques (voir notre analyse). Cette surveillance de masse s’étendrait désormais à nos rues : tous les visages filmés par les 75 000 caméras de vidéosurveillance françaises pourraient être analysés sur simple autorisation du Premier ministre, afin de retrouver des personnes recherchées pour terrorisme. Cette apparente limitation aux menaces terroristes ne doit rassurer personne : la police et les services de renseignement qualifient seuls ce qui relève du terrorisme, sans le contrôle préalable d’un juge, ce qui permet déjà de viser des militants politiques (relire notre analyse concernant la censure des mouvements sociaux). Surtout, qu’elle soit soupçonnée ou non de terrorisme, l’ensemble de la population aurait son visage analysé, soumis à un contrôle d’identité invisible et permanent.

Un second amendement, signé par 19 sénateurs, propose déjà d’étendre ce système au-delà des seules menaces terroristes afin d’identifier toutes les personnes fichées dans le FAED (fichier automatisé des empreintes digitales – qui recueille aussi des photos de face des « relevés de signalétiques ») et le fichier des personnes recherchées, pour n’importe quelle finalité.

Ces initiatives n’ont rien de bien nouveau (c’est un classique de la droite la plus dure) et il faut espérer que ces amendements ne survivent pas bien longtemps tant ils sont liberticides et contraires à la Constitution et au droit européen (les signataires de ces amendements ignorent manifestement l’exigence de « nécessité absolue » requise par la directive 2016/680 en matière de biométrie). Hélas, peu importe que ces amendement perdurent ou non, car l’important soutien qu’ils ont reçu suffit à établir un terrible rapport de force : alors que, depuis plusieurs mois, une large partie de la population dénonce le risque que la vidéosurveillance et les caméras-piétons n’aboutissent à un système de reconnaissance faciale généralisée, Les Républicains (et leurs alliés centristes) tentent de s’approprier ce thème autoritaire pour en faire leur horizon politique immédiat.

En contraste, cette offensive autoritaire spectaculaire permet aux rapporteurs du texte, MM. Hervé et Daubresse, de se donner des airs de modérés à peu de frais. Ainsi leurs amendements sur les drones, les caméras-piétons et l’extension de la vidéosurveillance valident les objectifs répressifs de Gérald Darmanin en les saupoudrant de « garde-fous » de façade qui ne changent rien aux critiques politiques et juridiques si nombreuses à faire contre ce texte.

Dans ces conditions, difficile d’espérer un débat législatif capable de prendre en compte nos libertés. Comme trop souvent, il faudra très certainement se tourner vers le Conseil constitutionnel ou d’autres juridictions pour espérer cela, ou rejoindre le niveau européen par la pétition en cours contre la biométrie policière. En attendant, on peut saluer les amendements de la gauche qui, en minorité, propose de retirer l’autorisation des drones et de suspendre pendant 2 ans tous les dispositifs d’analyse biométrique automatisée.

Nous nous retrouverons demain dans la matinée pour suivre et commenter le vote du texte en commission. Comme pour souligner l’ampleur de l’offensive sécuritaire que nous subissons actuellement, ce vote sera suivi par l’audition de Gérald Darmanin, de Marlène Shiappa et d’Éric Dupond-Moretti sur la loi « séparatisme » – l’autre grande loi autoritaire qui vise, entre autres choses, à renforcer les pouvoirs du gouvernement pour dissoudre et entraver les associations militantes (voir notre position).


Partage de données : les services de renseignement violent la Constitution

Mon, 01 Mar 2021 12:58:38 +0000 - (source)

La Quadrature du Net vient de demander au Conseil d’État de saisir le Conseil constitutionnel d’une Question prioritaire de constitutionnalité (QPC) contre une disposition de la loi renseignement, l’article L. 863-2 du code de la sécurité intérieure. Comme le révélait le journal Le Monde il y a près de deux ans, un data-center attenant au siège de la DGSE permet aux services de renseignement d’échanger des données collectées dans le cadre de leurs activités de surveillance, et ce en contournant certaines des garanties inscrites dans la loi renseignement, déjà bien maigres. Ces activités illégales posent de nouveau la question de l’impunité des responsables du renseignement français, et des autorités de contrôle qui les couvrent.

En juin 2019, La Quadrature déposait un recours au Conseil d’État contre « l’entrepôt », dont l’existence venait d’être révélée dans la presse. Comme nous l’expliquions alors, « les activités de surveillance relèvent de régimes plus ou moins permissifs », avec des garanties plus ou moins importantes accordées aux droits fondamentaux selon les régimes.

Autant de garanties écartées d’un revers de main dès lors que les données sont versées dans ce pot commun dans lequel peuvent potentiellement venir piocher des dizaines de milliers d’agents, relevant de services aux compétences et aux missions très diverses (TRACFIN, douanes, direction du renseignement de la préfecture de police de Paris, bureau central du renseignement pénitentiaire, ANSSI, service central du renseignement territorial, etc.). En pratique, l’entrepôt permet à un service donné d’accéder à des données qu’il n’aurait légalement pas le droit de collecter et d’exploiter dans le cadre des procédures prévues par la loi.

Ces échanges de données se fondent sur une disposition inscrite en 2015 dans la loi renseignement : l’article L. 863-2 de code de la sécurité intérieure. Or, celui-ci ne fournit aucun encadrement spécifique : le législateur s’était alors défaussé en renvoyant à un décret d’application, mais celui-ci n’est jamais paru. Une source du Monde évoquait pour s’en expliquer un « défaut de base constitutionnelle ». Or, c’est bien à la loi d’encadrer ces pratiques, raison pour laquelle l’article L. 863-2 est tout simplement inconstitutionnel.

Depuis l’introduction de notre recours devant le Conseil d’État, des rapports parlementaires sont venus corroborer les révélation du Monde. Dans le rapport d’activité 2019 publié l’été dernier, la Délégation parlementaire au renseignement note ainsi :

(…) il ressort des travaux conduits par la délégation que l’absence de cadre réglementaire n’a pas empêché les services de procéder à des partages réguliers non seulement de renseignements exploités, c’est-à-dire d’extractions et de transcriptions, mais également de renseignements collectés, c’est-à-dire de données brutes recueillies dans le cadre d’une technique de renseignement.

La délégation a ainsi été informée de l’existence d’une procédure dite d’extension, qui permet la communication de transcriptions effectuées au sein du GIC [le Groupement interministériel de contrôle] à un service autre que celui qui a fait la demande initiale de technique de renseignement (…). La délégation regrette de n’avoir pu obtenir, en revanche, d’informations plus précises sur les conditions juridiques et opérationnelles dans lesquelles il est procédé à des partages de données brutes.

Dans ce rapport, la Délégation parlementaire au renseignement estimait également « urgent qu’un encadrement précis de ces échanges soit réalisé », notant à juste titre que « le renvoi simple à un décret pourrait se révéler insuffisant et placer le législateur en situation d’incompétence négative ».

Nous espérons que le Conseil d’État acceptera de transmettre notre QPC au Conseil constitutionnel afin de que celui-ci mette fin à cette violation manifeste de la Constitution, malheureusement caractéristique du renseignement français. Un autre exemple flagrant d’illégalité est le partage de données entre les services français et leurs homologues étrangers, qui porte sur des volumes colossaux et n’est nullement encadré par la loi. Pire, celle-ci interdit explicitement à la CNCTR, la commission de contrôle des activités de surveillance des services, de contrôler ces activités.

L’illégalité persistante du renseignement français et l’impunité dont bénéficient ses responsables sont d’autant plus problématiques que l’espionnage politique constitue désormais une priorité assumée des services de renseignement la surveillance des groupes militants ayant vu sa part plus que doubler entre 2017 et 2019 (passant de 6 à 14% du total des mesures de surveillance autorisées).

Téléchargez notre mémoire QPC


L’Internet des personnes

Sun, 28 Feb 2021 09:18:00 +0000 - (source)

Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.

Monde connecté.

Nous vivons dans un monde connecté. Que nous le voulions ou non, nous vivons dans des sociétés construites par la réduction du coût de connexion entre les personnes, les ressources et les idées. Connecter des choses, c’est établir un lien entre celles-ci afin de transférer de l’information entre elles. Connecter des choses, c’est leur permettre de s’influencer mutuellement via la transmission de cette information. C’est permettre à ces entités de prendre en compte l’autre et d’adapter son comportement aux conditions par l’intermédiaire de boucles de rétroaction. Ces boucles de rétroactions sont des informations sur l’état du système utilisé pour adapter son comportement. Par exemple, un radiateur adapte son comportement en fonction de la consigne de température que lui fournit le thermostat, et, dans le même temps, le thermostat modifie sa consigne en fonction de la température de la pièce dans laquelle il se trouve.

L’étude de ces connexions et de leur fonctionnement est décrite par la cybernétique. Cette science analytique permet de décrire un système non pas par ses composants internes, mais par ses connexions à son environnement. La fonction, et donc la place dans le monde, d’une entité se fait par les connexions de celle-ci aux autres. C’est-à-dire que la fonction est définie par l’ensemble des connexions d’une entité. Il n’est pas possible pour un radiateur de maintenir une température de 19°C sans connexion à un système de mesure de température par exemple, et il ne peut donc pas remplir sa fonction.

Afin de simplifier ces connexions, on utilise des standards formels. Le radiateur sait qu’il n’est pas encore arrivé à température parce qu’il n’a pas reçu un signal très spécifique qui lui est adressé. Et c’est cette description des méthodes de connexion qu’on appelle un protocole. Pour que la connexion s’établisse, il faut que les parties impliquées sachent comment échanger des informations et comment décoder celles qu’elles reçoivent. Le protocole utilisé pour une connexion va donc définir les types d’informations, et la fonction des parties impliquées dans ces échanges.

Ces protocoles sont souvent empilés les uns dans les autres, afin de pouvoir multiplier les niveaux de communication et d’information. Par exemple, pour lire cet article, vous vous êtes connectés avec votre machine, utilisant un système d’affichage et d’écriture — une interface humain·e-machine, pilotée par le système d’exploitation de votre machine et qui alloue différentes ressources (affichage, mémoire interne, etc.) à votre connexion. Il établit également d’autres connexions avec les éléments matériels de votre machine — processeurs, mémoire vive, périphériques de stockages — qui sont ensuite connectés entre eux par d’autres protocoles, etc. De la même façon, votre ordinateur est également connecté par une carte réseau à un point d’accès Internet, en utilisant un protocole — avec ou sans fil (au rang desquels le Wifi, mais aussi la 4G par exemple), cet appareil est lui-même connecté à un répartiteur, connecté à un cœur de réseau, puis à un entrepôt de données, et ainsi de suite, jusqu’à ce que, de connexion en connexion, de protocoles imbriqués les uns dans les autres, vous ayez établi un lien jusqu’à cet article et qu’il puisse s’afficher sur votre écran afin que vous puissiez le lire.

Cette imbrication de protocoles permet à des appareils ayant des fonctions différentes de pouvoir travailler collectivement et former une entité plus grande qu’eux, fournissant une interface plus souple sur laquelle agir. On ne s’occupe que rarement des détails des connexions entre votre carte graphique et votre processeur par exemple, mais on sait qu’il est possible de s’en servir pour afficher n’importe quel texte ou n’importe quelle image, animée ou non, sans se soucier de respecter très strictement un protocole spécifique.

Ce travail collaboratif n’est rendu possible que parce que ces protocoles sont disponibles pour tous. N’importe qui désirant connecter quelque chose à Internet peut le faire, et ce sans demander une certification préalable. Il est même possible de ne pas respecter l’intégralité du protocole défini ou de vouloir s’attaquer à l’intégrité de ce réseau. C’est un bon moyen de ne pas se faire apprécier des autres personnes connectées à Internet, mais il est possible de le faire, car le protocole nécessaire (IP dans sa version 4 ou 6) est ouvert, documenté, standardisé, et suffisamment simple pour faire en sorte que n’importe quelle machine puisse le parler. Ce protocole IP permet de transporter des données entre deux machines connectées entre elles, en ne précisant que peu de choses sur le contenu de la donnée elle-même.

À l’inverse, le protocole HTTP, que vous avez utilisé avec votre navigateur, est un protocole plus complexe, autorisant plus de choses, mais plus sensible aux erreurs. C’est un protocole de type client-serveur, dans lequel un client demande une ressource à un serveur, serveur qui la restitue ensuite au client. HTTP ne s’occupe pas de savoir comment la donnée est transmise, c’est le rôle d’IP (et de son siamois TCP) pas le sien. Ce n’est pas non plus son rôle de mettre en page le contenu, c’est celui du navigateur qui, en utilisant le protocole (x)HTML pourra afficher correctement le texte, et créer des liens entre eux. Le standard (x)HTML a une fonction structurante et se base lui-même sur un autre protocole, appelé XML, et ainsi de suite.

Internet des cultures

Dans notre vie quotidienne, nous utilisons des protocoles de haut niveau, et relativement bien définis, pour communiquer les uns avec les autres. Les conventions sociales et culturelles, par exemple celle de serrer la main ou de s’embrasser, varient d’un endroit à l’autre. Ce sont ces conventions sociales que les parents essayent d’inculquer à leurs enfants, afin que ces derniers puissent comprendre le monde dans lequel ils grandissent. Ce sont aussi ces conventions sociales qui amènent à la structure du langage naturel, des langues que nous utilisons pour parler les uns aux autres et faire société ensemble. Ces protocoles permettent de décrire des choses beaucoup plus complexes et abstraites que ne le peuvent les systèmes numériques, mais décrivent tout autant la personne qui en fait usage. Un des exemples qui me vient en tête est le vouvoiement. C’est un protocole typiquement français que les anglo-saxons, par exemple, ne comprennent pas, et qui les amène à faire de nombreuses erreurs protocolaires, nous poussant parfois à les considérer comme malpolis. Du moins, pour les personnes reconnaissant la pertinence de ce protocole.

Notre pensée et notre langue sont inextricablement liées. Sans nécessairement chercher à résoudre qui de la langue et de la pensée arrive en premier, la langue que l’on utilise reflète notre pensée. Les protocoles que j’utilise au quotidien pour communiquer avec les autres sont définis par une part commune de nos pensées, cette partie qui constitue la culture. La connexion entre nous nous permet de partager partiellement nos pensées, et la dialectique, par exemple, est un des protocoles que l’on peut utiliser pour communiquer de manière structurée avec les autres. Cela nécessite que le champ lexical disponible, la grammaire utilisée, les éléments descriptifs des protocoles donc, limitent les pensées que l’on peut échanger. C’est toute la difficulté de la pédagogie par exemple, il faut transmettre une idée à quelqu’un qui ne la connaît pas, et donc formaliser l’échange. C’est pour cette raison que, dans de nombreux domaines, des jargons apparaissent, transcendant parfois les langues locales des personnes, afin de permettre une transmission de connaissance. C’est aussi la standardisation de la langue qui est, par exemple, au cœur des préoccupations d’Orwell lorsqu’il décrit la novlangue dans 1984. C’est une langue très appauvrie, ne contenant qu’un nombre limité de mots et de fonctions, et qui rend, de fait, coûteuse la discussion sur des sujets politiques. Comment parler de liberté si vous n’avez pas de mots pour décrire ce concept autre que penséecrime ? Il vous faudra l’expliquer avec cette langue commune, contenant peu de mots, lui associant ensuite un mot que seuls vous et votre interlocuteur·rice connaîtrez. Et il faudra recommencer à chaque fois que vous voulez expliquer votre idée à quelqu’un·e d’autre.

Contrôler la langue permet donc de contrôler les échanges entre les personnes, leurs dialogues et leur rapport au monde. La langue française a, par exemple, été ainsi standardisée par l’Académie Nationale au XVII° siècle et est, depuis, au centre de nombreux combats entre conservateurs et réformateurs, notamment sur le rôle de l’académie dans la mise en avant du genre masculin par défaut (contrairement à l’anglais par exemple, ou à de nombreuses langues) ou s’opposant à la modernisation de la langue. Il n’est d’ailleurs pas innocent que cette académie ait été créée par Richelieu afin d’étendre son influence sur la société française de l’époque.

Contrôler les protocoles de communications permet donc de contrôler l’échange d’information entre individus. C’est conscientes de ce pouvoir que les personnes qui ont participé à la création et à l’émergence d’Internet ont fait attention à créer des protocoles agnostiques, c’est à dire dont le comportement ne change pas en fonction du contenu. C’est le principe à la base de la neutralité des réseaux. C’est une neutralité idéologique — le réseau ne prend pas parti pour tel ou tel contenu —, mais pas une neutralité sociale. L’existence de réseaux interconnectés qui utilisent ces protocoles agnostiques rend possible l’échange d’une multitude d’informations, et permet donc de laisser aux personnes le contrôle sur leurs connexions avec leurs pairs. La gestion collective de ce bien commun mondial qu’est ce réseau de réseaux n’est rendue possible que parce que les protocoles utilisés, et leur ouverture, permettent à tout le monde de participer à sa gouvernance. Et le fonctionnement des organes de gouvernance dont s’est doté ce réseau obéissent aussi à des protocoles précis et détaillés, garantissant que leur contrôle ne pourra pas tomber directement entre les mains d’un seul acteur hégémonique.

Émergence des titans

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) ont cependant, petit à petit, rachat par rachat, infiltré et pris le contrôle partiel de ces organes. Sous couvert d’améliorer la sécurité des personnes, de réduire la pollution ou de lutter contre la contrefaçon, ils ont transformé ces protocoles agnostiques en portail de validation et d’identification. Plus moyen d’envoyer un mail à Google sans avoir au préalable installé des protocoles ayant pour but de montrer patte blanche. Plus moyen de pouvoir poster un message sur Facebook en utilisant une application non officielle. En vendant les mythes de la performance, de la nécessité d’avoir des contenus dans des définitions supérieures à celle que peut détecter notre œil et de l’instantanéité, les GAFAM ont créé des silos étanches, auxquels on ne peut se connecter qu’en utilisant leurs protocoles.

Ces silos — ces plateformes — permettent aux GAFAM de contrôler nos connexions avec les autres, leur permettant non pas de savoir qui nous sommes, mais bel et bien de décider comment l’on pense. Cela se voit aussi bien par la suppression de certains propos politiques, tout en faisant la promotion de contenus de haine, que par l’enfermement des personnes travaillant dans cet écosystème à n’utiliser que des protocoles dont la fonction est de rendre financièrement rentable la captation des utilisateur·rices. Si j’ai un marteau en main, mes problèmes tendent à ressembler à des clous dit-on. Si j’ai en main un protocole de surveillance, de mesure et de contrôle de la pensée, alors tous mes problèmes deviennent des problèmes de quantification et d’analyse de données.

D’un ensemble vivant et évoluant sans cesse, décrit par des protocoles permettant de ne pas hiérarchiser ou classifier le contenu et les idées, nous avons une novlangue protocolaire écrite par les GAFAM et dont le seul but et de promouvoir leurs visions conservatrices et capitalistes1Okhin – La Quadrature du Net, « De la modération », 22 juil. 2019, https://www.laquadrature.net/2019/07/22/de-la-moderation/. Il ne m’est pas possible de quitter Facebook, car j’entretiens des connexions avec des personnes qui y sont, et que, de fait, je suis présent sur Facebook, sans même y avoir de compte. Il n’est pas possible de trouver une plateforme alternative, car l’on se retrouve alors avec le même problème : une plateforme qui va se retrouver en charge de choisir les connexions qu’elle effectue avec le monde, et donc de décider comment les personnes qui utilisent ses services voient le monde et se définissent. Ces plateformes alternatives, utilisant souvent une gouvernance fédérée (partagée entre les participant·es et acteurs de la plateforme), sont un premier pas intéressant, mais qui utilise toujours les outils des GAFAM : des protocoles chargés de trier le bon contenu du mauvais, en rendant obligatoire l’utilisation de contrôle d’accès par exemple, ou en favorisant les contenus largement demandés aux autres et en perpétuant la chasse aux Likes et autres Retweet.

La solution est la suppression des plateformes. Il nous faut réutiliser des protocoles agnostiques, ne requérant pas de certification préalable, permettant à n’importe quelle machine participant au réseau d’être acteur de celui-ci et non un simple consommateur de données. Ces protocoles existent déjà : ce sont tous les protocoles fonctionnant en pair-à-pair. Le protocole BitTorrent, par exemple, permet de s’échanger des fichiers sans passer par un serveur central. Avec l’avantage supplémentaire que, à chaque fois que je veux lire le contenu de ce fichier, je n’ai besoin ni d’être connecté à Internet ni de retélécharger intégralement le fichier (ce qui est le cas des plateformes de streaming par exemple). Le fonctionnement en pair-à-pair permet également de mobiliser l’ensemble des ressources des participant·es du réseau, au lieu du modèle actuel dans lequel nos machines sont passives le plus clair de leur temps.

Effectivement, la surveillance des connexions, sans plateformes par laquelle on peut passer, rend complexe et coûteuse l’observation des groupes sociaux. Mais ces systèmes en pair-à-pair permettent à chacun de pouvoir se déterminer, en fonction des liens qu’il entretient avec le monde, liens qui reviennent partiellement sous son contrôle dans un tel modèle. Cet internet des protocoles permet de pouvoir penser librement, de se définir comme on l’entend, de se documenter sur le monde pour essayer de le comprendre, sans s’inféoder aux décisions politiques et arbitraires d’entités ne rendant de compte à personne d’autre que leurs investisseurs et actionnaires.

References

1 Okhin – La Quadrature du Net, « De la modération », 22 juil. 2019, https://www.laquadrature.net/2019/07/22/de-la-moderation/

Powered by VroumVroumBlog 0.1.32 - RSS Feed
Download config articles