Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Gendnotes, faciliter le fichage policier et la reconnaissance faciale

Tue, 25 Feb 2020 14:29:16 +0000 - (source)

Le gouvernement vient d’autoriser la gendarmerie à déployer une application mobile qui facilite la collecte de photos et d’informations sensibles (religion, politique, sexualité, prétendue origine raciale) et leur transfert dans des fichiers extérieurs – tel que le TAJ, qui permet la reconnaissance faciale, ou les fiches des services de renseignement, qui ont une activité de surveillance politique.

Samedi, a été publié un décret qui autorise les gendarmes à utiliser sur leur tablette l’application Gendnotes.

Cette application existe et est utilisée depuis plusieurs années sans cadre juridique : elle remplace la prise de note sur papier (qui devait être copiée sur ordinateur une fois rentré à la gendarmerie) par une prise de note directement informatique réalisée depuis le terrain.

Le décret précise désormais que, avec Gendnotes, les gendarmes peuvent prendre en photo n’importe quelle personne qu’ils suspectent d’avoir commis une infraction. Ils peuvent aussi enregistrer des informations sur leur religion, politique, sexualité ou prétendue origine raciale, à la simple condition que de telles informations soient « absolument nécessaires » aux fichiers de police judiciaire (pour lutter contre les crimes, délits, et certaines contraventions, telles que le « trouble à la sécurité » ou « l’atteinte à l’autorité de l’État ») ou de police administrative (les fiches des services de renseignement, doit-on redouter). Cette absolue nécessité n’est, en pratique, jamais vérifiée. La CNIL précise aussi « que l’enregistrement du code PIN ou du code PUK pourra être réalisé dans le cadre d’enquêtes afin de déverrouiller l’appareil », sans qu’il n’apparaisse clairement si cet enregistrement est toujours prévu ou non dans le décret.

Comme l’explique la CNIL, ces photos et informations sont au moins transmises au LRPGN (le logiciel de rédaction des PV de la gendarmerie)1La CNIL explique dans son avis du 3 octobre 2019 que Gendnotes « vise à dématérialiser la prise de notes […] en vue notamment d’alimenter de manière automatisée l’application métier « Logiciel de Rédaction des Procédures de la Gendarmerie Nationale » dénommée LRPGN »., qui les transmet à son tour au TAJ (traitement des antécédents judiciaires) si les gendarmes décident d’ouvrir une procédure2La CNIL explique dans son avis du 11 octobre 2012 que « les logiciels de rédaction des procédures de la police (LRPPN) et de la gendarmerie (LRPGN) alimentent, en début de procédure, le traitement d’antécédents TAJ ».. Dans ce cas, les informations seront conservées dans le TAJ pendant 20 ans, accessibles par toute la police et la gendarmerie et les photos pourront être utilisées ultérieurement par un système de reconnaissance faciale pour identifier des personnes (si l’application Gendnotes n’intègre pas de logiciel de reconnaissance faciale, elle facilite le transfert des photos vers le TAJ qui, lui, l’organise).

Par exemple, lors d’une manifestation ou d’un contrôle routier, les gendarmes pourront, lors d’une fouille, d’un contrôle d’identité ou autre interaction avec une personne qu’ils jugent suspecte, inscrire une identité et/ou une photo, avec si besoin plus d’informations, au sein de cette application. Si les gendarmes décident ensuite d’ouvrir une procédure, ces informations seront inscrites au TAJ.

Le décret semble au moins illégal en ce qu’il échoue à définir sa finalité ou en quoi il serait absolument nécessaire au travail des gendarmes. Il indique que le but de Gendnotes est de faciliter la transmission des données enregistrées vers « d’autres traitements de données », sans définir ni limiter ces autres traitements (ce que la CNIL lui avait pourtant demandé de faire). On peut redouter que Gendnotes vienne nourrir une infinité de fichiers, des services de renseignements par exemple, et soit dévoyé à des fins de surveillance politique.

Les conséquences d’un tel dévoiement sont considérablement aggravées par l’automatisation des ces enregistrement et échanges d’informations. Jusqu’alors, le risque de surveillance politique était mécaniquement limité par la dépendance au papier. Cette limite matérielle disparaît aujourd’hui. Les fichiers se multiplient et on automatise les facilités d’échanges entre ces différents fichiers en démultipliant à chaque fois les possibilités d’abus. Encore une fois ce ne sont pas les décrets qui encadrent les pratiques policières, mais les pratiques de la police qui font loi.

References   [ + ]

1. La CNIL explique dans son avis du 3 octobre 2019 que Gendnotes « vise à dématérialiser la prise de notes […] en vue notamment d’alimenter de manière automatisée l’application métier « Logiciel de Rédaction des Procédures de la Gendarmerie Nationale » dénommée LRPGN ».
2. La CNIL explique dans son avis du 11 octobre 2012 que « les logiciels de rédaction des procédures de la police (LRPPN) et de la gendarmerie (LRPGN) alimentent, en début de procédure, le traitement d’antécédents TAJ ».

Tremble, HADOPI !

Mon, 24 Feb 2020 10:37:49 +0000 - (source)

Le 12 février dernier, le Conseil d’État a accepté notre demande de transmettre au Conseil constitutionnel une question sur la constitutionnalité des pouvoirs de la HADOPI. Cette question porte sur le pouvoir donné à ses agents pour accéder aux données permettant d’identifier les internautes à partir de leur adresse IP. Ce même pouvoir qu’à plusieurs reprises, la Cour de justice de l’Union européenne et le Conseil constitutionnel ont déjà jugé contraire aux droits fondamentaux dans d’autres cas semblables. Il ne reste plus au Conseil Constitutionnel qu’à prendre la même décision pour la HADOPI – et ainsi l’enterrer pour de bon !.

Une décision positive du Conseil constitutionnel constituerait une victoire historique. Elle serait un nouveau clou dans le cercueil de la HADOPI, institution que nous combattons depuis sa création il y a plus de dix ans et dont le fonctionnement repose sur la surveillance de masse de la population. Elle serait aussi l’aboutissement d’une longue bataille menée devant les juridictions françaises et européennes et qui pèsera, quoiqu’il arrive, dans le projet de loi audiovisuelle débattu en ce moment à l’Assemblée nationale, lequel vise à fusionner l’HADOPI et le CSA au sein d’une nouvelle instance, l’ARCOM.

Retour au 28 octobre 2009 : la loi Hadopi 2 ») vient d’être promulguée. Elle fait suite à la loi « favorisant la diffusion et la protection de la création sur Internet », adoptée quelques mois plus tôt (dite loi « Hadopi 1 »). Ensemble, ces deux lois créent la HADOPI (pour « Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet ») et, avec elle, le système de « riposte graduée ».

Avec ce système, l’objectif affiché par le gouvernement est le suivant : « assurer le respect du droit d’auteur sur Internet, d’abord par l’envoi d’avertissements et, en cas d’échec, par la transmission à l’autorité judiciaire du dossier révélant des faits de nature à caractériser une infraction ». Ou plutôt, comme nous le disions déjà à l’époque : permettre, sur la base de dénonciations d’acteurs privés, « la tenue de campagnes de traque, d’avertissements et de répression de masse ciblant les internautes partageant sur internet de la musique et des films sans autorisation ». Le tout fait suite à plusieurs mois de débats intenses au Parlement et devant le Conseil constitutionnel. Débats sur l’absurdité et les dangers de cette autorité pour nos libertés. Débats qui continueront après la création de la HADOPI et tout au long de ses années de fonctionnement (voir ici pour l’historique du dossier et la liste des articles publiés par LQDN sur le sujet).

Pour comprendre l’importance de notre recours et de la décision à venir du Conseil constitutionnel, il faut revenir sur le fonctionnement de cette « riposte graduée ».

Riposte graduée, comment ça marche ?

Comment fait la HADOPI pour retrouver une personne ayant partagé une œuvre ? La première étape consiste à collecter l’adresse IP des personnes qui partagent sur un réseau Peer-to-Peer une œuvre soumise à droit d’auteur (la HADOPI ne s’intéresse en effet qu’au partage d’œuvres par réseau Peer-to-Peer). Cette collecte n’est pas faite directement par la HADOPI mais par une entreprise privée, mandatée par les ayants droit (en 2014, il s’agissait de la société TMG, pour « Trend Media Guard »).

À partir de cette collecte, la HADOPI contacte les fournisseurs d’accès à Internet (Orange, SFR, Bouygues, Free) pour leur demander l’identité des personnes derrière chaque adresse IP. C’est seulement sur la base de ces informations (nom, adresse, contact) que la HADOPI peut ensuite envoyer à la personne concernée un premier courriel d’avertissement qui pourra être suivi, si besoin, d’un deuxième courrier, puis d’une lettre de notification et même transmis en fin de course au procureur de la République (voir le schéma et les explications détaillées sur le site de l’autorité). L’étape qui nous intéresse pour notre action contentieuse est celle qui autorise la HADOPI à obtenir, auprès des opérateurs, le nom des personnes à partir des adresses IP. Ce pouvoir lui est donné par l’article L331-21 du code de la propriété intellectuelle.

C’est la constitutionnalité de cet article, qui donne aux « agents publics assermentés » de la HADOPI un accès aux données de connexion conservées par les fournisseurs d’accès à Internet, qui sera discuté, à notre demande, devant le Conseil constitutionnel. Comme on le voit, cette disposition est au centre de la « riposte graduée » de la HADOPI : sans elle, aucun moyen pour l’autorité de remonter à l’identité de la personne ayant partagé une œuvre. Et donc aucun moyen de la contacter et d’envoyer les mails d’avertissement.

Pour comprendre pourquoi cet article du code de la propriété intellectuelle risque une censure, il faut de nouveau revenir en arrière.

La question de l’accès aux données de connexion

L’article L. 331-21 du code de la propriété intellectuelle fait directement référence aux articles du CPCE ( pour « code des postes et communications électroniques ») et la LCEN (pour « loi pour la confiance dans l’économie numérique ») qui organisent le régime français de conservation des données de connexion. En résumé, ce régime impose aux fournisseurs d’accès à Internet et aux hébergeurs Web de conserver pendant un an les données de connexion de l’ensemble de la population. Ce sont ces données qui permettent à la HADOPI d’identifier les personnes à partir de leur adresse IP.

Or, la Cour de Justice de l’Union européenne s’est, par deux arrêts de 2014 et 2016 (les arrêts dits « Digital Rights Ireland » et « Télé 2 Sverige AB »), opposée à un tel régime de conservation généralisée et indifférenciée des données de connexion. Elle a aussi considéré que l’accès par les autorités nationales à ces données de connexion devrait être limité « aux seules fins de lutte contre la criminalité grave », et « subordonné à un contrôle préalable effectué soit par une juridiction soit par une entité administrative indépendante ».

Bien entendu, le régime français de conservation des données, et les accès à ces données par certains agents de l’administration (dont la HADOPI) ne respectent nullement ces obligations (c’est d’ailleurs l’objet d’un autre de nos contentieux porté en ce moment devant la Cour de Justice de l’Union européenne qui tend à faire annuler les lois françaises relatives à de telles obligations de conservation).

En parallèle de ces arrêts de la Cour de Justice de l’Union européenne, le Conseil constitutionnel a commencé lui aussi, et dès 2015, à censurer des dispositions législatives sur le droit d’accès des agents de l’administration à ces données de connexion, en considérant notamment que ces accès n’étaient pas entourés des garanties propres à « assurer une conciliation équilibrée entre, d’une part, le droit au respect de la vie privée et, d’autre part, la prévention des atteintes à l’ordre public et la recherche des auteurs d’infractions ». C’est le cas donc en 2015 sur l’accès aux données de connexion pour les agents de l’Autorité de la concurrence. Même chose en 2017 pour la possibilité des agents de l’Autorité des marchés financiers de se faire communiquer les données de connexion. En février 2019 pour les douanes. Et en juin 2019 pour les agents des organismes de sécurité sociale.

Au fur et à mesure, le Conseil constitutionnel a donc dégagé une position claire et ferme quant à l’inconstitutionnalité des lois autorisant de tels accès aux métadonnées. La HADOPI, qui dispose d’un pouvoir d’accès semblable, devrait être la prochaine sur la liste.

Hadopi et surveillance de masse

Du côté de La Quadrature du Net et des fournisseurs d’accès à Internet associatifs (FFDN, Franciliens.net et FDN) , la stratégie était du coup plutôt enthousiasmante, ces décisions ne laissant pas trop de doute quant à l'[il]légalité de la « riposte graduée » de la HADOPI. Nous sommes donc intervenus à plusieurs reprises devant le Conseil constitutionnel sur ses décisions citées plus haut concernant l’accès aux données de connexion, l’objectif étant de renforcer sa position sur les garanties à apporter à ces accès (voir notamment notre article de février 2019 sur la censure de l’article 65 du code des douanes).

Enfin, en août 2019, La Quadrature, avec FFDN, Franciliens.net et FDN, ont attaqué devant le Conseil d’État le décret n°2010-236 du 5 mars 2010, un des décrets d’application de loi « Hadopi 1 ». Et c’est dans le cadre de ce contentieux que nous en avons demandé au Conseil d’État de poser au Conseil constitutionnel une « question prioritaire de constitutionnalité » sur l’article L. 331-21 du code de propriété intellectuelle. Ce que le Conseil d’État a accepté de faire dans sa décision du 12 février.

Dans notre demande, nous rappelons les jurisprudences citées plus haut sur l’obligation de prévoir des garanties sur l’accès de l’administration aux données de connexion – et nous soulignons que ces garanties sont inexistantes pour la HADOPI (comme pour les autres autorités). Nous y rappelons surtout que, et contrairement à ce qu’exige l’Union européenne, il ne s’agit pas ici de criminalité grave. Au contraire, il ne s’agit, au sens du code pénal, ni d’un crime, ni même d’un délit, mais seulement d’une contravention. Plus précisément, il s’agit sanctionner le manquement à l’obligation de surveillance de son accès à Internet (c’est-à-dire de vérifier que celui-ci n’est pas utilisé pour du partage d’œuvres contraire au droit d’auteur).

Bref, autant de raisons qui nous laissent espérer que le Conseil constitutionnel prendra ici la même décision qu’il a déjà pris pour des cas semblables. Et, du même coup, mettre à mal un des rouages essentiels de la HADOPI en la privant de son pouvoir de surveillance de masse.

Car la « riposte graduée » de la HADOPI est un outil de surveillance de masse. Selon ses propres chiffres, la HADOPI a ainsi envoyé, rien qu’entre les mois de février et août 2019, 319 175 mails de 1er avertissement, ce qui correspond donc à 319 175 personnes identifiées. Or, un tel traitement massif ne peut justement fonctionner que parce que la HADOPI est fondée sur la surveillance massive de la population. En cas de décision en notre faveur du Conseil constitutionnel, il sera d’ailleurs bien difficile au gouvernement de corriger ou d’encadrer une telle pratique : en théorie, un juge pourrait autoriser l’identification de chacune des 300 000 personnes, une à une ; en pratique, cela semble impossible, alors mêmes qu’il s’agirait de la seule correction juridiquement valide.

Interférences dans la loi audiovisuelle

Le timing de notre action n’est évidemment pas innocent : la jurisprudence étant claire depuis plusieurs années, nous aurions pu le faire avant, mais l’objectif est de peser dans les débats législatifs déjà en cours sur le projet de loi audiovisuel. Ce texte est en ce moment en discussion devant la commission des affaires culturelles de l’Assemblée nationale – il concerne de multiples sujets, de la transposition de la directive Copyright (voir notre dernier article sur cette directive), au blocage des sites miroirs en passant donc par la création d’une nouvelle autorité, résultat de la fusion entre le CSA et la HADOPI : l’ARCOM (pour « Autorité de régulation de la communication audiovisuelle et numérique »).

Or, les articles 22 (alinéa 20) et 25 de ce texte organisent justement le transfert des pouvoirs illégitimes de la HADOPI à la nouvelle ARCOM. Ces dispositions, comme d’autres du projet de loi (et sur lesquels nous reviendrons bientôt), doivent donc être supprimées pour que cette autorité, quel que soit son nom, respecte enfin le droit européen et la Constitution. Il sera d’ailleurs intéressant de suivre la réaction de l’actuel ministre de la Culture, Franck Riester, à la décision à venir du Conseil, lui qui porte aujourd’hui ce projet de loi et qui était il y a dix ans… rapporteur des lois HADOPI.

La décision à venir du Conseil constitutionnel pourrait être d’une importance majeure. Elle pourrait participer à la fin d’une autorité absurde et à la destruction de ses pouvoirs fondés sur la surveillance de masse. Elle pourrait aussi réparer l’erreur faite il y a dix ans : celle de refuser l’idée d’une contribution créative et de sanctionner les échanges non marchands d’oeuvres culturelles sur les réseaux P2P.


La Quadrature du Net a besoin de vos dons

Wed, 19 Feb 2020 15:49:43 +0000 - (source)

Depuis 2008 La Quadrature du Net existe grâce à vos dons. Merci à vous !

Douze ans plus tard, l’équipe des fondateurs a laissé la place à un collège de membres bénévoles et à une équipe de salarié·es qui font vivre l’association au quotidien : parce que les sujets sont innombrables, parce que le numérique est désormais présent dans chaque aspect de nos vies et dans chaque texte de loi, en France comme en Europe, et qu’il faut être au travail tous les jours pour analyser les lois, les faits sociaux, l’évolution des techniques et leur exploitation dévoyée.

Pas chers, mais pas riches

Cette structure a un coût. Notre budget pour une année est d’environ 300 000 € : les deux tiers en salaires et cotisations sociales pour les 6 salarié·es, le reste pour les déplacements, la communication et les locaux. Les salaires sont modestes, le loyer aussi (mais on va devoir déménager avant l’été 2020), quand on sillonne le pays on se loge à l’économie (souvent chez les copains, merci à vous !) et les billets de train sont les moins chers possibles. Bref, ni homard ni champagne à La Quadrature, de toute façon il paraît que ça donne mal à la tête.

Un cinquième du budget

Cette année comme chaque année, au mois de décembre, nous avons donc lancé une campagne de dons dans l’espoir de réunir l’argent nécessaire pour tenir une année de plus. Chaque année on croise les doigts, on se demande si ça va passer, et chaque année jusqu’à présent c’est passé, on est arrivé à boucler le budget et l’année.

Mais chaque année on est inquiet, et ça rend le travail encore plus compliqué. Cette année, par exemple, c’est très lent : on a lancé la campagne de dons le 6 décembre, elle a bien tourné jusqu’au 31 décembre, mais depuis le 1er janvier c’est le calme plat. Nous recevons encore quelques nouveaux dons chaque jour, trois ou quatre environ, merci à vous ! Mais ça ne suffit pas.

Mi-février, on a rassemblé environ 20 % du financement de l’année, un cinquième du budget seulement, l’équivalent d’à peu près 2 mois et demi d’activité… Si on veut que La Quadrature continue d’exister, il faut que les dons reprennent.

Nous avons donc décidé de poursuivre notre appel à dons de manière continue sur toute l’année 2020.

Campagne permanente

Mais on ne peut pas passer notre temps en campagne de dons, sinon on ne fait plus rien d’autre, ce serait absurde. Alors on a besoin de vous ! Vous pouvez nous aider à faire connaître autour de vous La Quadrature et ses combats.

Le matériel qu’on a créé pour animer notre campagne de dons, en décembre, est toujours disponible. Il y a plein de vidéos sur notre plateforme PeerTube, pour faire connaître nos sujets d’action, et aussi des vidéos (légères) de campagne :
* Comment lutter contre la reconnaissance faciale ?
* Comment lutter contre la surveillance en manif ?
* Comment lutter contre la censure sur Internet ?

Ne vous fiez pas au faible compteur de vue, en fait ces vidéos ont fait des milliers de vues sur les réseaux sociaux et elles marchent très bien parce qu’elles sont drôles 🙂

Il y a aussi des « threads » à retweeter sur notre compte Twitter, sur notre compte Mastodon, ou sur notre page Facebook.

Abonnez-vous, partagez-les, faites-les tourner, commentez-les, discutez-en avec vos proches et les inconnu·es de passage ! Nos luttes croisent l’actualité sans cesse, il y a mille façons de glisser le nom de La Quadrature du Net dans une conversation. On compte sur vous <3

Comment nous faire un don ?

Et bien sûr, si vous avez gagné au loto, vous pouvez nous faire un don, c’est ici : laquadrature.net/donner.

Blague à part, on sait que c’est difficile. Notre cas n’est pas isolé, toutes les associations à but non lucratif, même les plus grandes, même les plus prestigieuses, se plaignent de la baisse des dons de soutien.

Les personnes généreuses ne sont pas moins nombreuses qu’avant, mais elles sont fauchées… Alors tous les dons sont les bienvenus, même 10 €, même 5 € !
Nous avons bien sûr une grosse préférence pour les dons mensuels : si vous nous donnez 5 € ou 10 € par mois, c’est presque indolore pour vous, et ça nous permet d’envisager l’année qui vient avec une meilleure visibilité. La perspective d’une somme qui arrive chaque mois permet de faire des plans à plus long terme.
Et vous pouvez bien sûr arrêter vos dons mensuels à tout moment en nous envoyant un mail ou en les bloquant du côté de votre banque.

Rendez vous sur laquadrature.net/donner!


Appel aux candidat·es aux municipales à s’opposer à la reconnaissance faciale

Tue, 28 Jan 2020 14:04:48 +0000 - (source)

En cette Journée de protection des données, l’Observatoire des libertés numériques1Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM). envoie formellement la lettre ouverte demandant l’interdiction de la reconnaissance faciale sécuritaire au gouvernement ainsi qu’aux parlementaires. Cette lettre est désormais signée par 124 organisations.

Dans le même temps, l’OLN invite les listes candidates aux élections municipales à rejoindre cet appel et à s’engager contre ces logiques.

Au delà de la reconnaissance faciale, il est également essentiel d’attirer l’attention des listes candidates sur les autres technologies sécuritaires qui sont aujourd’hui en développement en France (voir à ce titre la campagne Technopolice). C’est le cas notamment pour la vidéosurveillance automatisée qui fait l’objet de nombreux contrats entre industriels et collectivités (et que La Quadrature du Net et la Ligue des Droits de l’Homme viennent d’attaquer en justice à Marseille).

Nous invitons donc également toutes personnes sensibilisées à ces enjeux à contacter les listes candidates aux élections municipales pour leur demander de s’engager contre la reconnaissance faciale sécuritaire par la signature de cette lettre, mais également de prendre position contre l’expansion de la vidéosurveillance et les techniques de vidéosurveillance automatisée.

Pour les organisations et listes candidates souhaitant signer cette lettre, envoyez un message à contact@laquadrature.net en indiquant la ville concernée, son code postal et le nom de la liste ainsi qu’un lien de référence.

Lettre commune : Interdisez la reconnaissance faciale sécuritaire

Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.

Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.

La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.

La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.

Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant·es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.

C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.

Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.

Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.

Liste des signataires :

References   [ + ]

1. Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).

Coup d’État sur la « loi haine »

Wed, 22 Jan 2020 11:17:48 +0000 - (source)

La loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un amendement de dernière minute proposé par le gouvernement et adopté par les députés serviles de l’Assemblée nationale. Ce coup de force du gouvernement, imposé in extremis, est une nouvelle démonstration d’anti-parlementarisme. L’honneur des députés exige qu’ils rejettent la loi dans son ensemble.

Alors que la loi exigeait initialement de retirer les contenus illicites en 24 heures, elle impose désormais aux plateformes de retirer en une heure les contenus que la police lui signalera comme relevant du terrorisme ou d’abus sur mineurs. La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge. On l’a déjà vu abuser illégalement de ce pouvoir pour qualifier des propos militants de « terroristes » afin de les faire censurer – la justice avait alors attendu plus d’une année pour dénoncer ces abus de la police.

De plus, alors que la loi ne concernait initialement que les plateformes ayant plusieurs millions de visiteurs par mois (Facebook, Twitter, Youtube…), les nouvelles mesures « anti-terroristes » visent désormais n’importe quelle plateforme, de toute taille. Il pourra s’agir du forum de n’importe quel site de presse, d’une plateforme militante, d’un petit hébergeur associatif ou de tout nœud d’un réseau social décentralisé tel que Mastodon ou PeerTube.

Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. Dans tous les cas, les grands vainqueurs seront ces deux dernières entreprises, dont la concurrence sera anéantie ou mise sous leur joug.

Enfin, alors que la loi initiale ne prévoyait que des sanctions financières, les nouvelles mesures prévoient des sanctions concrètes, drastiques. Si une plateforme ne censure pas un contenu dans l’heure qui suit sa notification par la police, la police pourra exiger que les fournisseurs d’accès à Internet empêchent l’accès à cette plateforme depuis la France.

Une concentration totale des pouvoirs

La concentration des pouvoirs dans les mains de la police est totale : c’est à la fois elle qui décide quelles plateformes attaquer, qui qualifie un contenu comme étant illégal et qui met en œuvre sa sanction. L’ensemble du Web français est à sa merci.

Si la police était mal intentionnée, il lui suffirait de publier anonymement et au milieu de la nuit des messages « terroristes » sur les plateformes de son choix pour les faire censurer (car presque aucune plateforme ne peut avoir des modérateurs réveillés toute la nuit pour répondre dans l’heure à la police). Rien dans la loi n’empêche de tels abus.

Notons que cette situation n’est pas entièrement nouvelle : c’est la loi anti-terroriste de 2014 qui avait créé ce dispositif de censure policière. À l’époque toutefois, le délai pour répondre à la police était de 24 heures. Il passe aujourd’hui à 1 heure, démultipliant les risques d’abus.

Un coup de force anti-parlementaire

Le Parlement n’a jamais eu l’occasion de débattre des dangers de ce nouveau délai d’une heure imposé à l’ensemble du Web. Le Parlement n’a même pas eu l’occasion d’en prendre connaissance. Pendant des mois de débats sur la proposition de loi « contre la haine », le Parlement n’a parlé que de sujets bien éloignés du terrorisme. Ce n’est qu’au dernier moment, en séance publique lors de la 2ème lecture à l’Assemblée nationale, et alors que le sujet n’avait pas été abordé en commission des lois, que le gouvernement est parvenu à lui imposer ces changements, par surprise et par ignorance. Il aurait pourtant fallu en débattre pendant des mois, en auditionnant des dizaines d’acteurs, pour prétendre respecter nos principes démocratiques.

La situation a tout pour rappeler un autre dossier : le règlement européen contre les contenus terroristes, qui prévoit lui aussi un délai de retrait en une heure. L’an dernier, la Commission européenne et les États membres avaient exercé une terrible pression sur le Parlement européen pour qu’il adopte en première lecture un texte en urgence avant les élections européennes (voir notre page de campagne). Tout avait été fait pour empêcher un véritable débat, mais il avait pu au moins durer quelques semaines – permettant notamment de limiter la censure policière par l’autorisation préalable d’un juge ou d’une autorité indépendante (et la loi française serait ici contraire à la position du Parlement européen).

Hier, le débat n’a même pas eu lieu.

Le gouvernement semble s’être lassé de la comédie démocratique. L’avis des parlementaires n’a plus aucune conséquence sur le processus législatif : à quoi bon leur permettre de s’en faire un ? Autant gagner du temps et leur demander de tout signer à la dernière minute et sans leur expliquer.

Si les députés ont encore un semblant de respect pour leurs fonctions démocratiques, ils doivent s’opposer à cette proposition de loi. Au moins du fait que le gouvernement a entièrement nié et insulté celles-ci hier. Et du fait, aussi, que le gouvernement a manipulé diverses volontés et associations luttant contre la haine afin de dévoyer au final la loi vers ses objectifs purement sécuritaires.

Formellement, l’Assemblée nationale doit encore décider d’adopter ou non cette proposition de loi dans son ensemble aujourd’hui. Tout député qui ne votera pas contre cette loi actera que le gouvernement l’a démis de ses fonctions.


Safe City à Marseille : Premier recours contre la vidéosurveillance automatisée

Mon, 20 Jan 2020 08:59:51 +0000 - (source)

Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé « vidéoprotection intelligente »). Ce dispositif, décidé par la ville de Marseille, prévoit la mise en place de nouvelles technologies de surveillance dans l’espace public qui, pour l’essentiel, relèvent d’une surveillance biométrique généralisée : détection de comportements anormaux, suivi de silhouettes ou d’individus, captations sonores…

D’autres dispositifs similaires sont déjà installés en France ou sont en train de l’être, le tout dans l’opacité la plus complète. Leurs promoteurs considèrent que le cadre juridique de la vidéosurveillance leur suffit. Au même titre que la reconnaissance faciale, qui n’est qu’une des nombreuses couches applicatives de la vidéosurveillance automatisée, ces dispositifs participent pourtant à la mise sous surveillance totale de nos villes.

MAJ-2 : L’audience publique devant le tribunal administratif de Marseille se tiendra le 2 mars à 14h30

MAJ : Le 7 février 2020, le Tribunal administratif de Marseille a rejeté notre requête en référé-suspension. Il a considéré que l’article d’Olivier Tesquet, sur lequel nous nous fondions, ne suffisait pas « à révéler l’existence, à la date alléguée, d’une décision administrative ». Néanmoins, depuis notre recours, nous avons reçu de nouveaux documents, cette fois-ci directement de la part de la mairie de Marseille et qui confirment la décision administrative de mise en place du dispositif. Nous avons donc déposé un nouveau référé sur la base de ces éléments. Par ailleurs, il ne faut pas oublier que la procédure en référé n’est qu’une procédure d’urgence faite à partir de notre demande d’annulation au fond. Cette demande d’annulation faite au fond est elle toujours bien d’actualité et n’a fait l’objet d’aucun rejet.

La Technopolice continue de se déployer en France, et la vidéosurveillance automatisée (ou « vidéoprotection intelligente » selon ses promoteurs) [1] est une de ses principales émanations. Fondée sur l’utilisation d’algorithmes déployés sur un système de vidéosurveillance, ces dispositifs promettent de détecter automatiquement dans l’espace public des objets abandonnés, des mouvements de foule, des « comportements anormaux » (gestes brusques, maraudages, agression…), de faciliter le suivi d’individus (par la silhouette, la démarche…), ou de faire des recherches par « filtres » sur des images enregistrées (à partir de photos d’un individu qu’il s’agirait de retrouver dans les milliers de flux vidéos afin de suivre son parcours). Après la multiplication des caméras de vidéosurveillance sur le territoire français, plusieurs entreprises cherchent à vendre aux collectivités ce système de « vidéo intelligente ». Comme l’expliquent les industriels, l’intérêt consiste à « pallier le manque récurrent de personnel disponible pour visionner les images de vidéoprotection ainsi que la capacité de concentration de ces agents », de « de limiter leur travail à une simple confirmation d’alertes ». Il est même avancé que «  la vidéoprotection ne saurait être efficace sans un système auto-intelligent permettant de trier et filtrer les images à analyser, et ce à une grande échelle ». Depuis plus de 10 ans, la vidéosurveillance a déferlé sans but sur nos villes : il semble temps de la rendre opérationnelle à travers l’automatisation.

De tels dispositifs mettent gravement en danger nos droits et libertés. Ils accroissent considérablement la capacité des services de police à nous identifier et à nous surveiller en permanence dans l’espace public. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible et indolore de la population, considérée comme suspecte de facto. Construits dans l’opacité la plus complète, il est par ailleurs impossible de comprendre ce qu’ils détectent avec exactitude : que veut dire Thalès quand il parle de « comportement inhabituel » et de suivi de « personnes suspectes » ? Que sous-entend l’entreprise Huawei quand, dans la description de son projet à Valenciennes, elle laisse inachevée sa liste des cas d’alerte relevés par la machine ( « traitement intelligent de l’image avec détection des mouvements de foules, objets abandonnés, situations inhabituelles…  ») ? Enfin, le suivi de « personnes suspectes » comprend-t-il la reconnaissance de démarches, donnée extrêmement individualisante et qui est bien plus difficile à dissimuler qu’un visage ?

Des systèmes de vidéosurveillance automatisée sont pourtant déjà en place en France, à Valenciennes donc, mais aussi à Nice, à Toulouse, à La Défense et bientôt dans les Yvelines. D’autres projets sont sûrement en cours, mais les informations sont difficiles à trouver. Leurs promoteurs considèrent en effet que, dans la plupart des cas, ces nouveaux ajouts à la vidéosurveillance rentrent dans le cadre de la « vidéosurveillance classique » et n’ont pas à être rendus publics.

Marseille, ville-test

Dans le cadre de la campagne Technopolice, et à travers des demandes d’accès aux documents administratifs, nous avons appris qu’en 2015, la mairie de Marseille avait lancé un appel d’offres pour installer un de ces systèmes de vidéosurveillance automatisée dans sa ville et qu’en novembre 2018, ce marché avait été attribué à une entreprise. Croisée au salon Milipol, l’adjointe au maire de Marseille en charge de la sécurité, Caroline Pozmentier, nous a confirmé qu’il s’agissait du groupe SNEF, un intégrateur de solutions de vidéosurveillance basé dans la citée phocéenne. Nous avons fini par avoir communication de certains documents liés à ce marché, dont le « Programme Fonctionnel Technique final » qui détaille précisément ce que la mairie entend mettre en place.

Dans ce document, il est ainsi indiqué que « les opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation ». Parmi les fonctionnalités envisagées, se trouve le « traitement automatique de donnés (…) afin de détecter des anomalies/incidents/faits remarquables », la « détection d’anomalies non identifiables par un opérateur » et la « gestion de l’espace public, analyse des piétons/véhicules ainsi que des comportements ». On y retrouve les mêmes cas d’usage que dans d’autres systèmes : détection d’ « objets abandonnés », de « TAG » (graffitis) et de « vol/disparition/destruction de mobilier urbain ». Il est aussi précisé que l’outil doit aider dans le cadre d’affaires judiciaires et permettre de « faire des recherches à l’aide de filtres », l’un de ces filtres étant « individu (description, avatar, photo) ». Une dernière partie intitulée « Fourniture et intégration de fonctionnalités complémentaires » indique que la mairie se réserve la possibilité d’ajouter de nouvelles fonctionnalités dont la « détection sonore » (explosion, coup de feu…), la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).

Le mois dernier, dans un article de Télérama, le journaliste Olivier Tesquet révélait que le dispositif devait être installé à Marseille « d’ici à la fin de l’année 2019 » et que « la Cnil n’a jamais entendu parler de ce projet ».

L’étendue de ce projet, la description extensive de ses fonctionnalités et sa récente mise en place nous ont poussé à agir le plus vite possible.

Un recours contre la vidéosurveillance automatisée, premier du genre en France

Dans notre recours déposé lundi devant le tribunal administratif de Marseille, nous reprenons certains des arguments déjà développés dans notre recours contre les portiques de reconnaissance faciale dans deux lycées de la région PACA (un projet depuis entravé par la CNIL). Nous soulignons ainsi que la décision de la mairie de mettre en place ce dispositif n’a été précédée d’aucune analyse d’impact ou de consultation de la CNIL, contrairement à ce qui est prévu dans la directive dite « police-justice » qui encadre les pouvoirs de surveillance des autorités publiques dans l’Union européenne. Nous soulignons également que la vidéosurveillance automatisé n’est encadrée par aucun texte juridique alors qu’il s’agit d’un type d’ingérence dans la vie privée tout-à-fait nouveau, et bien différent de la vidéosurveillance « classique » : l’automatisation transforme la nature de l’ingérence induite par la vidéosurveillance. Les nouveaux équipements déployés à Marseille disposent en outre de capteurs sonores (ces mêmes capteurs sonores que dénonçait la Cnil dans le projet de Saint-Etienne). De manière générale, le système entier conduit à passer d’une surveillance « passive » à une surveillance « active »). Comme pour les lycées, nous avons aussi attaqué le caractère manifestement excessif et non justifié de la collecte de données.

Le recours démontre par ailleurs que la grande majorité du traitement de données qui est fait dans ce dispositif est un traitement de données biométriques, donc soumis aux dispositions spécifiques de la directive police-justice sur les données sensibles (dont l’utilisation est beaucoup moins permissive que pour les autres types de données personnelles). En effet, les données biométriques sont définies comme des données personnelles « résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique ». Or, comme l’a souligné le Comité européen de protection des données, une « identification unique » n’implique pas nécessairement de révéler l’état civil d’une personne mais, plus largement, de pouvoir individualiser une personne au sein d’un groupe, ce qui est bien le cas en espèce. Or, une fois la qualité de donnée biométrique établie, la directive police-justice exige une « nécessité absolue » pour les analyser. Ce qui n’est clairement pas le cas ici : d’autres moyens, humains, existent déjà pour analyser les images et mener les enquêtes.

Enfin, dans ce recours, nous détaillons pourquoi, en confiant à la SNEF et à ses algorithmes, l’identification, la catégorisation et la détection d’incidents, d’anomalies et de comportements suspects sur la voie publique (certains explicitement « non identifiables par un opérateur »), et en faisant de son outil une véritable « aide à la décision » pour la police municipale, la mairie a délégué à une entreprise privée une mission de surveillance généralisée de la voie publique. Ce qui, selon le Conseil Constitutionnel est contraire à « l’exigence, résultant de l’article 12 de la Déclaration des droits de l’homme et du citoyen de 1789, selon laquelle la garantie des droits est assurée par une « force publique » ».

Encore une fois : d’autres dispositifs semblables sont actuellement déployés en France ou s’apprêtent à l’être : Nice, Toulouse, Valenciennes, La Défense… Nous vous invitons à réutiliser nos arguments pour multiplier les contentieux et tenir en échec l’expansion de la surveillance algorithmique de nos villes et de nos vies.

Rejoignez Technopolice.fr pour participer à la veille, l’analyse et la lutte de ces nouveaux dispositifs.

[1] Si les termes peuvent paraître proches, il est important de refuser de considérer un tel système comme « intelligent »


Lettre commune contre la loi « haine »

Thu, 16 Jan 2020 17:56:48 +0000 - (source)

Nous venons d’envoyer aux députés la lettre reproduite ci-dessous, pour s’opposer à la loi « haine ».

Nous la signons aux côtés de :

La loi sera examinée par l’Assemblée nationale ce mardi 21 janvier. Vous aussi, contactez les députés pour leur demander de rejeter ce texte en visitant cette page.

Objet : Appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne – Proposition de loi visant à lutter contre la haine sur Internet

Madame la garde des Sceaux,
Monsieur le secrétaire d’État chargé du Numérique,
Madame la Rapporteure,
Mesdames et Messieurs les Député(e)s

En tant que principaux représentants de la société civile numérique française, acteurs de la défense des droits et de la mobilisation citoyenne en ligne, nous partageons une profonde inquiétude quant au risque que ferait encourir à nos droits et libertés fondamentaux la proposition de loi visant à lutter contre la haine sur Internet, si elle imposait aux opérateurs de plateformes un délai de 24h pour décider du retrait des contenus qui leur seront signalés. À l’occasion de sa nouvelle discussion au sein de l’Assemblée nationale, nous portons un appel fort à tenir compte, dans la version finale du texte, des alertes que chacune de nos organisations a pu individuellement ou collectivement porter.

Les opérateurs de plateformes participent désormais grandement à la structuration de l’espace public en ligne. Engagés dans la préservation d’un espace en ligne libre et respectueux de nos valeurs démocratiques et de nos droits fondamentaux, nous partageons la nécessité de questionner le rôle des grandes plateformes dans la lutte contre les contenus haineux sur Internet. Paradoxalement, cette exigence se traduit, dans le texte discuté, par le renforcement du rôle de ces mêmes acteurs dans le contrôle de notre espace public au détriment du premier garant de nos libertés individuelles qu’est le juge. De plus, cette logique tend à renforcer une situation d’oligopole dans laquelle nous nous trouvons déjà, par un encouragement à l’usage de solutions détenues par les acteurs aux ressources les plus grandes.

En contournant les prérogatives du juge judiciaire, l’obligation de retrait des contenus haineux par les opérateurs de plateformes dans un délai de 24 heures porte atteinte aux garanties qui nous permettent aujourd’hui de préserver l’équilibre de nos droits et libertés fondamentaux. Au regard des dispositions du texte, les opérateurs de plateformes seront incités à opter pour de la surcensure afin d’éviter d’être sanctionnés. À ce titre, nous nous inquiétons du rôle confié à des dispositifs technologiques de filtrage automatisés, qui font encore preuve de limites techniques profondes dans leur capacité à modérer, y compris parmi ceux les plus avancés. Ces limites sont d’autant plus prégnantes en ce qui concerne les contenus haineux dont la caractérisation juridique est souvent complexe. Or, le texte porte une acception particulièrement large de ces derniers.

Au regard de ses conséquences sur notre société, et en premier lieu sur les victimes de ces atteintes à la dignité humaine, nous devons considérer avec gravité le phénomène de propagation des contenus haineux en ligne. Il est, à cet égard, primordial d’engager un plan ambitieux d’éducation au numérique et de penser de manière plus transversale la régulation du numérique. Par ailleurs, alors que la France entend jouer un rôle majeur dans la politique numérique future de l’Union européenne, il est essentiel que la proposition visant à lutter contre la haine en ligne puisse se faire en adéquation avec le droit européen, au risque sinon de fragiliser nos dispositifs juridiques ainsi que de fragmenter toujours plus la stratégie numérique pour l’Europe et de mettre à mal son efficience. L’Union européenne se doit de rester au premier rang de la défense de nos valeurs fondamentales dans le champ numérique, et la France se doit d’en demeurer le porte-voix.

Nous vous savons attentifs à l’équilibre entre nos droits fondamentaux, ainsi qu’à la préservation de notre souveraineté. Aussi, nous nous associons collectivement pour vous appeler à en tenir compte dans le cadre de cette nouvelle lecture.

Restant à votre disposition pour contribuer à vos réflexions, nous vous prions d’agréer, Madame la garde des Sceaux, Monsieur le secrétaire d’État chargé du Numérique, Madame la Rapporteure, Mesdames et Messieurs les Député(e)s, l’expression de notre très haute considération.


La pire version de la loi haine, adoptée en commission des lois de l’Assemblée nationale

Wed, 15 Jan 2020 11:35:17 +0000 - (source)

Sans beaucoup de surprise, ce que nous redoutions s’est bien réalisé. Hier soir, en commission des lois de l’Assemblée nationale, Laetitia Avia est parvenue à rétablir la même version du texte (à quelques modifications près) qu’elle avait fait adopter l’été dernier par l’Assemblée nationale. Les timides corrections que le Sénat avait introduites le mois dernier ont été balayées.

Qu’importe : en démocratie, c’est l’Assemblée nationale, entièrement tenue par les fidèles du gouvernement, qui décide seule des lois à adopter. Comme pour la loi « fakenews » de 2018 (adoptée en procédure accélérée et contre deux votes contraires du Sénat), la loi « contre la haine » passera le 30 janvier une dernière fois au Sénat (pour rien) avant un dernier vote final à l’Assemblée nationale début février. C’est ce dernier vote qui aura le dernier mot.

Avant cela toutefois, le 21 janvier, l’Assemblée nationale devra encore confirmer le texte adopté hier en commission des lois. Si nous échouons à l’en dissuader, les chances d’y parvenir en février semblent bien minces.

Et pourtant, en dehors du Parlement, ce texte fait l’unanimité contre lui : Commission européenne, CNNum, ARCEP, ONU, associations de défense des personnes que cette loi prétend défendre (relire notre bilan).

Appelons les députés pour exiger qu’ils rejettent cette loi aussi dangereuse pour nos libertés que contre-productive pour lutter contre la haine.

Rendez-vous sur cette page pour les contacter et relire nos arguments contre ce texte.


Le Conseil constitutionnel autorise le fisc à la surveillance de masse

Mon, 30 Dec 2019 07:01:11 +0000 - (source)

Le Conseil constitutionnel, dans sa décision rendue vendredi dernier, vient de considérer que la surveillance généralisée des réseaux sociaux prévue par l’article 154, ex-57, de la loi de finances pour 2020 est conforme à la Constitution.

Comme nous le dénoncions, cet article prévoit une collecte puis une analyse de masse des données publiques des réseaux sociaux. Des données sensibles seront collectées, par exemple sur notre vie sexuelle, politique ou religieuse. Au point 87 de sa décision, le Conseil constitutionnel s’est contenté d’interdire la seule exploitation des données sensibles, laissant possible leur collecte en masse, ce qui est tout aussi dangereux et contraire au droit européen.

L’article 10 de la directive police-justice n° 2016/680 interdit tout traitement de données sensibles qui ne soient pas justifié par une « nécessité absolue ». En l’espèce, la lutte contre les infractions fiscales peut être réalisée par bien d’autres moyens humains déjà mis en œuvre. Ni le gouvernement, ni le Conseil n’ont été capables d’expliquer en quoi la surveillance algorithmique est nécessaire à la lutte contre la fraude fiscale.

Enfin, le Conseil constitutionnel prétend que les contrôles fiscaux ne seront pas déclenchés automatiquement par les algorithmes de détection de fraude, mais reposeraient sur un travail humain. Cette affirmation traduit une grande naïveté et laisse en tout état de cause la porte ouverte à plus d’arbitraire dans les décisions administratives : comment contrôler le résultat d’un algorithme qui ne peut être expliqué et reproduit1Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé. ?

La boîte de Pandore a été ouverte. En validant le principe de surveillance de masse des réseaux sociaux, le Conseil constitutionnel permet aux autres administrations de pouvoir réclamer leur part de surveillance généralisée, voire de se servir directement dans les données collectées par le fisc. Le ministre de l’action et des comptes publics, Gérald Darmanin, défend inlassablement cette nouvelle surveillance et promettait 10 millions d’euros par an pour seulement deux algorithmes. Son joujou désormais approuvé constitue un pas supplémentaire pour remplacer l’humain·e par la machine, le·la citoyen·ne par une ligne dans un tableur.

References   [ + ]

1. Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.

Flicage fiscal des réseaux sociaux : les parlementaires doivent saisir le Conseil constitutionnel

Mon, 23 Dec 2019 11:05:36 +0000 - (source)

Le projet de loi de finances pour 2020 a été adopté la semaine dernière en dernière lecture par l’Assemblée nationale. Il comporte toujours son article 57, désormais 154, qui prévoit une surveillance généralisée des réseaux sociaux afin de lutter contre certains délits fiscaux. Nous appelons aujourd’hui les parlementaires à saisir le Conseil constitutionnel afin de lui demander sa suppression.

Comme nous l’indiquions, le désormais article 154 de la loi de finances pour 2020 prévoit une collecte « de masse » (selon les propres mots du gouvernement) et une analyse des informations publiques des réseaux sociaux. L’objectif du gouvernement est d’autoriser Bercy et les douanes à procéder à de la surveillance algorithmique pour détecter quelques fraudeur·euses. Maintenant que la loi a été adoptée, la prochaine étape se passe devant le Conseil constitutionnel qui se prononcera sur la conformité à la Constitution. Nous avons déposé aujourd’hui au greffe du Conseil constitutionnel une contribution extérieure dans laquelle nous développons nos arguments relatifs à l’atteinte au droit à la vie privée et au droit à la liberté d’expression pour en conclure que cet article doit être supprimé.

Nous y avons souligné que cet article 154 est une atteinte disproportionnée au droit à la vie privée et au droit à la liberté d’expression. Il amplifie la surveillance généralisée sur Internet en permettant à l’administration de traiter des informations qu’elle ne devrait pas connaître : les opinions politiques, religieuses, philosophiques, les appartenances syndicales, les orientations sexuelles, etc., seront analysées. Pire ! L’Assemblée a rétabli une conservation de ces données sensibles inutiles alors que la version du Sénat, à défaut de s’opposer à la collecte, prévoyait une suppression immédiate de ces données.

Également, nous expliquons dans notre contribution extérieure que la surveillance algorithmique que veut le gouvernement conduira in fine à faire confiance aveuglément aux algorithmes. Le Conseil constitutionnel avait déjà indiqué en 2018 que l’administration ne peut prendre de décision individuelle fondée exclusivement sur un algorithme dont elle ne peut expliquer le fonctionnement : cela interdit l’usage d’algorithmes auto-apprenants. Pourtant, aujourd’hui, le fisc et les douanes veulent recourir à ce même type d’algorithme pour lever des alertes sur de potentielles fraudes fiscales. Ces algorithmes sont pudiquement appelés « aide à la prise de décision » alors qu’il ne fait pas de doute qu’ils restent l’élément clé conduisant à une décision de contrôle fiscal : face à un algorithme auto-apprenant dont la nature même est de ne pas pouvoir expliquer ses résultats, que pourront faire les agents du fisc à part déclencher un contrôle en cas de résultat positif ? Nous invitons le Conseil constitutionnel à faire preuve de pragmatisme et à interdire les algorithmes d’aide à la prise de décision auto-apprenants.

Alors que certains groupes parlementaires s’étaient opposés à cet article, nous attendons désormais des actes. Nous regrettons déjà l’hypocrisie du groupe LR de l’Assemblée nationale qui, après avoir déposé plusieurs amendements de suppression dont on savait qu’ils ne seraient pas votés en raison du blocage de la majorité présidentielle, « oublie » d’inclure dans sa saisine du Conseil constitutionnel les éléments de fond justifiant que le Conseil censure cet article.

Nous invitons les élu·es de l’Assemblée nationale et du Sénat à saisir le Conseil constitutionnel sur le fond de cet article et à s’inspirer de nos arguments disponibles dans notre contribution extérieure. Il n’est pas suffisant de s’opposer en hémicycle : aujourd’hui, la balle est dans le camp des oppositions parlementaires.


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles