Autoblog de la La quadrature du nethttp://www.laquadrature.net/http://www.laquadrature.net/ [RFI] Reconnaissance faciale, sécurité ou liberté en danger ?https://www.laquadrature.net/?p=15028http://streisand.me.thican.net/laquadrature.net/index.php?20191112_110000__RFI__Reconnaissance_faciale__securite_ou_liberte_en_danger___Tue, 12 Nov 2019 10:00:00 +0000[…] La reconnaissance faciale fait déjà partie du quotidien de nombreuses personnes, ne serait-ce que débloquer son téléphone, mais les expériences se multiplient pour d’autres usages : l’identification pour accéder aux sites internet administratifs, pour embarquer dans un avion, mais aussi pour des raisons de sécurité dans l’espace public ou comme en Chine pour mettre en place un outil de contrôle social. Et c’est cela qui inquiète, au point que certaines villes américaines ont interdit l’utilisation par leur forces de sécurité. Reconnaissance faciale, sécurité ou liberté en danger ? C’est la question du jour.

Pour en débattre :

  • Benoit Piédallu, membre de la Quadrature du Net
  • Didier Baichère, député (LRM) des Yvelines, vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques.

http://www.rfi.fr/emission/20191104-reconnaissance-faciale-securite-libe…

NDLRP – Extrait à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[20Minutes] Reconnaissance faciale : « C’est un outil de surveillance de masse qui va déshumaniser les rapports sociaux », estime la Quadrature du Nethttps://www.laquadrature.net/?p=15014http://streisand.me.thican.net/laquadrature.net/index.php?20191108_130000__20Minutes__Reconnaissance_faciale________C___est_un_outil_de_surveillance_de_masse_qui_va_deshumaniser_les_rapports_sociaux______estime_la_Quadrature_du_NetFri, 08 Nov 2019 12:00:00 +0000INTERVIEW. Benjamin Sonntag, co-fondateur de la Quadrature du Net, explique à « 20 Minutes » pourquoi la mise en place de dispositifs de reconnaissance faciale un peu partout en France peut s’avérer très dangereuse pour les citoyens. […]

« Les dispositifs de reconnaissance faciale sont surtout un outil de surveillance de masse, de surveillance généralisée à la Big Brother. Ils exploitent votre visage – quelque chose que vous ne pouvez pas cacher – ce qui fait que vous êtes surveillé constamment dans l’espace public, sans pouvoir vous y opposer. Ces technologies biométriques augurent un réel changement de paradigme dans l’histoire de la surveillance. Ce sont des dispositifs totalement disproportionnés et liberticides… » […]

https://www.20minutes.fr/high-tech/2642419-20191104-reconnaissance-facia…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[RFI] La France entre dans l’ère de la reconnaissance facialehttps://www.laquadrature.net/?p=15015http://streisand.me.thican.net/laquadrature.net/index.php?20191108_120000__RFI__La_France_entre_dans_l___ere_de_la_reconnaissance_facialeFri, 08 Nov 2019 11:00:00 +0000La France veut devenir le premier pays européen à utiliser la reconnaissance faciale. La Commission nationale de l’informatique et des libertés a jugé illégale la demande effectuée par la Région Sud de l’utiliser dans différents lycées, mais le ministère de l’Intérieur teste déjà une application appelée Alicem pour Authentification en ligne certifiée sur mobile. […]

http://www.rfi.fr/emission/20191030-france-entre-ere-reconnaissance-faciale

NDLRP – Extrait du reportage avec Martin Drago à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Telerama] Des micros dans la rue : la CNIL tire les oreilles (intelligentes) de Saint-Etiennehttps://www.laquadrature.net/?p=15016http://streisand.me.thican.net/laquadrature.net/index.php?20191108_110000__Telerama__Des_micros_dans_la_rue____la_CNIL_tire_les_oreilles__intelligentes__de_Saint-EtienneFri, 08 Nov 2019 10:00:00 +0000Le gendarme des données personnelles a adressé un avertissement à la métropole de la Loire, qui a développé un système d’écoute dans l’espace public. […]

En cause ? Un dispositif de captation et d’analyse des sons que la mairie envisage de déployer sur la voie publique. Révélée en mars dernier par Le Parisien, cette expérimentation inédite en France consiste en l’installation d’une cinquantaine de micros « pas plus gros qu’une pièce de deux euros », à l’affût du moindre bruit suspect, qu’il s’agisse de cris, de verre brisé, de klaxons, de crépitements ou de coups de feu (la Quadrature du Net dresse une liste exhaustive ici). Une fois enregistrés, ceux-ci sont passés à la moulinette d’un algorithme qui les compare avec « l’un des modèles préenregistrés dans la mémoire du nano-ordinateur embarqué dans le boîtier », détaille encore la CNIL dans sa lettre courroucée. […]

https://www.telerama.fr/medias/la-cnil-tire-les-oreilles-intelligentes-d…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInter] L’intelligence artificielle est-elle notre ennemie ?https://www.laquadrature.net/?p=15011http://streisand.me.thican.net/laquadrature.net/index.php?20191107_130000__FranceInter__L___intelligence_artificielle_est-elle_notre_ennemie___Thu, 07 Nov 2019 12:00:00 +0000Mardi, la CNIL a fait savoir qu’elle s’opposait à la mise en place de systèmes de reconnaissance faciale dans les lycées. C’est indéniable : les algorithmes font partie de nos vies. Mais sont-ils compatibles avec l’éthique, avec nos libertés ? […]

L’intelligence artificielle a quelque chose de fascinant, mais aussi quelque part, de dangereux. Comment peut-on concilier ces technologies nouvelles avec les libertés individuelles ? Jusqu’où ces algorithmes vont-ils s’infiltrer dans notre quotidien ? Faut-il réguler l’IA ? Est-ce vraiment possible ?

Les invités

  • Arthur Messaud Juriste pour la Quadrature du Net (association de défense des droits et libertés fondamentales à l’ère du numérique)
  • Laurence Devillers Chercheuse au CNRS et maître de Conférences HDR en informatique

https://www.franceinter.fr/emissions/le-telephone-sonne/le-telephone-son…

NDLRP – Extrait d’une intervention d’Arthur Messaud à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FrenchWeb] [DECODE] Reconnaissance faciale: une technologie qui vous veut du bien ?https://www.laquadrature.net/?p=15012http://streisand.me.thican.net/laquadrature.net/index.php?20191107_120000__FrenchWeb___DECODE__Reconnaissance_faciale__une_technologie_qui_vous_veut_du_bien___Thu, 07 Nov 2019 11:00:00 +0000Le gouvernement français compte s’emparer très rapidement de la reconnaissance faciale. Il teste en ce moment l’application Alicem qui permettra à chaque citoyen de se créer une identité numérique en ligne en passant par cette technologie. Que faut-il savoir sur Alicem ? Et où en est-on réellement en France vis-à-vis de l’utilisation de la reconnaissance faciale ?

Décryptage avec Martin Drago, chargé d’analyses juridiques et politique pour La Quadrature du Net, l’association de défense des droits et libertés des citoyens sur Internet, et Guillaume Vassault-Houlière, CEO de la plateforme de bug bounty Yes We Hack. […]

https://www.frenchweb.fr/decode-reconnaissance-faciale-une-technologie-q…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[BFM/RMC] ‘Une arnaque totale !’ : la Cnil retoque un projet de reconnaissance faciale dans les lycéeshttps://www.laquadrature.net/?p=15013http://streisand.me.thican.net/laquadrature.net/index.php?20191107_110000__BFM_RMC_____Une_arnaque_totale__________la_Cnil_retoque_un_projet_de_reconnaissance_faciale_dans_les_lyceesThu, 07 Nov 2019 10:00:00 +0000La Cnil a jugé illégale la mise en place de portiques de reconnaissance faciale dans les lycées, destinés à empêcher les intrusions et les usurpations d’identité. […]

Une victoire pour Arthur Messaud, juriste au sein de l’association « La quadrature du Net », qui défend les droits et libertés sur internet: « Ce qui nous peine le plus c’est de voir que les enfants sont instrumentalisés pour rendre acceptable une technologie parce qu’on prétend que c’est pour les protéger et que la technologie est pour les plus faibles« . […]

https://rmc.bfmtv.com/emission/une-arnaque-totale-la-cnil-retoque-un-pro…

NDLRP – Vidéo à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInfo] Reconnaissance faciale : ‘Il va falloir qu’on arrête de considérer les citoyens comme des cobayes’, estime La Quadrature du Nethttps://www.laquadrature.net/?p=15008http://streisand.me.thican.net/laquadrature.net/index.php?20191106_130000__FranceInfo__Reconnaissance_faciale_______Il_va_falloir_qu___on_arrete_de_considerer_les_citoyens_comme_des_cobayes_____estime_La_Quadrature_du_NetWed, 06 Nov 2019 12:00:00 +0000La Cnil s’oppose à l’expérimentation du dispositif dans deux lycées à Nice et Marseille. Benoît Piedallu, membre de La Quadrature du Net juge que « cette technologie est inacceptable dans notre champ politique » et « ne doit pas être utilisée« . […]

La reconaissance faciale à l’entrée des lycées porte une atteinte trop grande à la vie privée selon la Cnil, le gendarme français des données personnelles, qui s’oppose mercredi 30 octobre à une expérimentation qui devait avoir lieu dans deux lycées de la région Paca, à Nice et à Marseille. « Il va falloir qu’on arrête de considérer les citoyens comme des cobayes« , estime mercredi 30 octobre sur franceinfo Benoît Piedallu, membre de la Quadrature du Net, l’une des associations qui ont formé un recours contre ce dispositif. […]

https://www.francetvinfo.fr/economie/emploi/metiers/armee-et-securite/re…

NDLRP – Intervention à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Usbek&Rica] Données biométriques : menace ou sécurité ?https://www.laquadrature.net/?p=15009http://streisand.me.thican.net/laquadrature.net/index.php?20191106_120000__Usbek_Rica__Donnees_biometriques____menace_ou_securite___Wed, 06 Nov 2019 11:00:00 +0000Reconnaissance faciale, empreinte digitale, reconnaissance vocale… Quels risques représentent vraiment les données biométriques ? Comment les prévenir ? Et la biométrie pourrait-elle être utilisée à des fins de sécurité dans un cadre protégé ? À l’occasion des Assises de la Sécurité, rendez-vous annuel des experts de la cybersécurité qui s’est tenu du 9 au 12 octobre à Monaco, nous avons tenté de faire le point sur le sujet. […]

Une réflexion d’autant plus cruciale que se pose aussi la question de l’efficacité-même des dispositifs biométriques. Dans une tribune publiée dans Le Monde, le juriste Martin Drago et le chercheur Félix Tréguer, s’inquiètent ainsi d’un manque de prise de recul sur le sujet, et de garanties encore « illusoires ». « En dépit de leurs effets politiques délétères, ces coûteuses machines seront incapables d’apporter la sécurité vantée par leurs promoteurs, écrivent-ils. Les milliards d’euros dépensés depuis plus de vingt ans au nom du “solutionnisme technologique” en vogue dans les milieux de la sécurité devraient là encore nous en convaincre : la technologie s’est avérée inopérante pour enrayer les formes de violence qui traversent nos sociétés. » […]

https://usbeketrica.com/article/donnees-biometriques-menace-ou-securite

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Jusqu’où ira la reconnaissance faciale ?https://www.laquadrature.net/?p=15002http://streisand.me.thican.net/laquadrature.net/index.php?20191105_130000__FranceCulture__Jusqu___ou_ira_la_reconnaissance_faciale___Tue, 05 Nov 2019 12:00:00 +0000#ReconnaissanceFacialePourLeMeilleurOuPourLePire |C’est une technologie déjà omniprésente en Chine. Là-bas, la reconnaissance faciale permet de payer, d’ouvrir des portes à l’hôtel mais aussi de verbaliser les piétons qui traversent au feu rouge. En France, le système s’implante petit à petit et suscite de nombreuses interrogations. […]

La Quadrature du Net a par ailleurs aussi exercé un recours devant le juge administratif contre l’expérimentation d’un portique à reconnaissance faciale souhaitée dans deux lycées de Marseille et Nice. Martin Drago, juriste à la Quadrature juge la technologie « trop attentatoire à nos libertés« , « dangereuse » car « basée sur notre corps, notre visage« . […]

https://www.franceculture.fr/emissions/hashtag/jusquou-ira-la-reconnaiss…

NDLRP – Intervention à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Mediapart] La Cnil juge illégale la reconnaissance faciale à l’entrée des lycéeshttps://www.laquadrature.net/?p=15003http://streisand.me.thican.net/laquadrature.net/index.php?20191105_120000__Mediapart__La_Cnil_juge_illegale_la_reconnaissance_faciale_a_l___entree_des_lyceesTue, 05 Nov 2019 11:00:00 +0000La Région Sud avait demandé à la Cnil d’analyser son projet d’installation de dispositifs biométriques à l’entrée de deux lycées situés à Nice et à Marseille. « Ce dispositif ne saurait être légalement mis en œuvre », affirme la Commission dans sa réponse, obtenue par Mediapart. […]

Contacté par Mediapart, Martin Drago, de la Quadrature du Net, fait part de sa satisfaction. « C’est une très bonne analyse très large et contraignante de la Cnil, se réjouit-il. Mais on peut souligner qu’elle ne fait que rappeler les dispositions du RGPD et de la loi de 1978 et que cela fait des mois que nous avançons ces mêmes arguments sans succès. Cependant, la Cnil fait son travail et on ne peut que s’en réjouir. » […]

https://www.mediapart.fr/journal/france/281019/la-cnil-juge-illegale-la-…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Le Parlement doit rejeter le flicage fiscal des réseaux sociauxhttps://www.laquadrature.net/?p=14986http://streisand.me.thican.net/laquadrature.net/index.php?20191105_113404_Le_Parlement_doit_rejeter_le_flicage_fiscal_des_reseaux_sociauxTue, 05 Nov 2019 10:34:04 +0000Le gouvernement, à travers l’article 57 du projet de loi de finances pour 2020 (PLF2020), veut permettre à l’administration fiscale et aux douanes de surveiller les plateformes Internet. Le texte est encore en discussion à l’Assemblée nationale mais cet article 57 doit être rejeté en bloc. Auditionné·es la semaine dernière à ce sujet par le rapporteur (Philippe Latombe, groupe MoDem) de la commission des lois, saisie pour avis, nous avons demandé la suppression de cet article. Notre appel n’a pas été entendu et nous le déplorons fortement. Désormais, nous appelons l’ensemble des député·es à supprimer cet article.

Ce que prévoit l’article 57 du PLF2020

L’article 57 du PLF2020 devrait permettre, en l’état actuel des discussions parlementaires, de surveiller les plateformes sur Internet (sites de e-commerce et réseaux sociaux) afin de lutter contre la fraude fiscale. Sont visés de très nombreux délits, listés de manière exhaustive par l’article de loi dont, par exemple, le fait d’omettre des éléments pour minorer son impôt, ou encore la vente illicite de produits comme le tabac. Le gouvernement veut ainsi autoriser l’administration fiscale et les douanes à collecter toutes les informations publiquement accessibles sur les plateformes en ligne, pour ensuite les faire analyser par leurs algorithmes.

La CNIL, saisie en urgence en août, a rendu un avis particulièrement critique, estimant que le texte comporte d’importants risques d’atteinte disproportionnée aux droits et libertés dont le droit à la vie privée et le droit à la liberté d’expression. Nous partageons ses craintes et sommes encore plus explicites : ces risques ne peuvent être évités d’aucune autre façon qu’en rejetant ce texte. Le gouvernement explique lui-même dans l’exposé des motifs de la loi que les données publiquement accessibles des sites web visés seront collectées « en masse » et analysées par l’administration. Cela signifie que la totalité des internautes utilisant ces sites seront potentiellement concerné·es, peu importe leur nationalité, peu importe la nature des propos tenus, peu importe que les propos aient été retirés de la place publique ensuite, peu importe l’utilité et la pertinence des données collectées. Cela signifie également que l’administration traitera des données sensibles, y compris celles pouvant révéler une opinion politique, philosophique ou religieuse, y compris des propos relatifs à l’orientation sexuelle des personnes, y compris des propos mis par erreur sur la place publique. Il est inévitable que d’une telle surveillance résultera une auto-censure. Également, puisque l’administration pourra traiter des données privées qui n’ont pas été rendues publiques par les personnes directement concernées, l’atteinte au droit à la vie privée sera massive. Ce que dira votre voisin·e pourra être retenu contre vous.

Il s’agit ici de prendre un bazooka pour tuer une mouche. Les types de délits sont précis — bien que trop nombreux — mais, pour cela, le gouvernement sort la grosse artillerie. L’outil qu’il envisage est disproportionné, avec les risques d’atteintes à nos droits et libertés qui s’en suivent.

Certes, la lutte contre la fraude fiscale est légitime et reconnue par le Conseil constitutionnel comme un objectif de valeur constitutionnelle. À ce titre, il est juridiquement possible d’admettre certaines atteintes aux droits et libertés pour poursuivre un tel objectif. Mais ce que nous propose le gouvernement est contraire à la Constitution, au droit de l’Union européenne et au droit de la CEDH. Au-delà du juridique, accepter ce texte serait une grave faute morale : il n’est pas admissible, dans une démocratie, d’accepter de surveiller toute une population pour retrouver, éventuellement, quelques fraudeur·euses.

Rejeter ce texte n’est pas un cadeau aux fraudeur·euses

Le gouvernement veut nous faire croire que cet article de loi lui permettra de découvrir des fraudeur·ses jusqu’alors inconnu·es de l’administration fiscale et douanière. Pourtant, l’exposé des motifs est laconique. Aucun chiffre, aucune évaluation. Le gouvernement est bien incapable d’estimer les effets positifs de sa mesure.

Les gains en efficacité pourraient donc être nuls, l’administration pouvant déjà faire ce travail de lutte contre la fraude fiscale correctement. Ce qui est envisagé dans le PLF2020 est déjà fait manuellement : les fonctionnaires du fisc et des douanes scrutent déjà les fraudeur·euses sur internet, manuellement, au cas par cas, et dans le respect des droits et libertés. Une analyse humaine permet de préserver la qualité de la collecte et le respect des droits de chacun·e. L’automatisation d’un tel travail risque simplement d’augmenter les faux positifs à vérifier et de détourner l’administration de sa mission concrète.

Il serait désastreux, dans un contexte de réduction drastique des effectifs chargés de la lutte contre la fraude fiscale, de laisser croire au législateur et à l’opinion publique que la surveillance généralisée et automatisée, confiée à des algorithmes approximatifs et grossiers, peut remplacer le savoir-faire de contrôleur·ses expérimenté·es.

En outre, la loi du 23 octobre 2018 de lutte contre la fraude impose déjà aux plateformes de e-commerce de transmettre au fisc et aux douanes des données relatives à l’activité commerciale des utilisateur·rices. Ces données sont limitées, contrairement au système de surveillance que veut imposer le gouvernement. Pourtant, cette loi de 2018 comportait déjà d’importants risques pour les libertés fondamentales : plutôt que de l’évaluer convenablement, d’en mesurer les risques et les bénéfices afin, éventuellement, de la remettre en cause, le gouvernement s’empresse d’y ajouter un système inutile et encore plus dangereux. Le Parlement doit s’opposer à cet empressement absurde.

La commission des lois n’a pas fait son travail

Le rapporteur de l’article 57 pour la commission des lois, Philippe Latombe, a rendu un avis le 28 octobre 2019 dans lequel il recommandait à la commission la suppression de cet article. Pour lui, l’atteinte aux droits et libertés était disproportionnée à l’objectif poursuivi. C’était également son discours la semaine dernière lorsqu’il nous a reçu·es.

Mais, devant ses collègues de la commission des lois, changement de ton : certes, le texte est toujours une atteinte disproportionnée, mais il n’était désormais plus question de le supprimer. Le rapporteur a retiré son amendement de suppression et donné un avis défavorable à celui, identique, de ses collègues du groupe LR. Il a appelé, à travers des amendements presque tous rejetés, à augmenter l’encadrement de cette surveillance, sans s’y opposer par principe.

Le rapporteur l’avait annoncé au début de la séance de la commission des lois : s’il n’est pas possible de mieux encadrer le texte lors des travaux de sa commission, il proposera un amendement de suppression pour la séance en hémicycle. Nous attendons donc désormais des actes : non seulement cet article existe toujours dans l’avis de la commission des lois, mais les quelques modifications apportées ne changeront rien à la gravité des atteintes aux droits et libertés.

Dans l’avis de la commission des lois, les données inutiles (et potentiellement sensibles car relatives aux opinions politiques, religieuses, philosophiques, à l’orientation sexuelle, etc.) sont toujours conservées 30 jours alors que l’administration n’a pas le droit de les collecter. Les données rendues publiques par d’autres personnes que celles concernées sont toujours exploitables. L’intelligence artificielle (alors même que ses résultats ne sont pas reproductibles car fortement dépendants de la manière dont l’algorithme a été entraîné) est toujours permise, et même envisagée si l’on en croit la majorité présidentielle. Les personnes trouvées par l’algorithme ne sont toujours pas notifiées. L’administration n’est toujours pas soumise à un contrôle extérieur de sa manière de collecter et de traiter les données. L’algorithme utilisé n’est toujours pas transparent.

Mais il importe probablement assez peu que toutes ces choses ne soient pas corrigées : c’est le principe même de cet article qu’il faut rejeter. Il est présenté comme une « expérimentation » dont le but est d’évaluer les risques et bénéfices de la pratique qu’il autorise. En vérité, il ne s’agit en rien d’une expérimentation : déployée pendant 3 ans sur l’ensemble du territoire et des sites concernés, contre toute la population, il s’agit d’une pure et simple autorisation. Un blanc-seing donné avant toute évaluation concrète, et donc toute discussion possible — l’inverse de la logique du RGPD et du débat démocratique. La commission des lois aurait dû rejeter le texte pour cette seule raison.

Elle a seulement proposé, dans son avis, de limiter cette surveillance aux sites de e-commerce, alors qu’étaient auparavant également visés les réseaux sociaux. Cette limitation est largement insuffisante puisque l’objectif du gouvernement est de surveiller les communications publiques. La suppression de l’article est la seule issue satisfaisante.

Les discussions en commission des lois ont montré un groupe MoDem sans aucun courage et un groupe LaREM hostile à tout encadrement. Le groupe présidentiel veut imposer coûte que coûte cette surveillance de masse. La stratégie du rapporteur en commission des lois était surprenante, puisqu’il relevait lui-même dans son rapport les risques d’absence de conformité à la Constitution, au droit de l’Union européenne, et à la CEDH. Nous attendons que, face à ce blocage du groupe LaREM en commission des lois, le rapporteur et son groupe MoDem actent de l’impossibilité d’encadrer cet article et proposent la suppression de l’article 57 du PLF2020.

C’est désormais au tour de la commission des finances d’étudier cet article. La commission des lois a été incapable de comprendre l’erreur que serait l’adoption de cet article. Nous appelons la commission des finances à le supprimer.

L’écoute des plateformes reste un outil de surveillance de masse. Autoriser son utilisation pour lutter contre la fraude fiscale n’est que la première étape d’un plan de surveillance globale de la population. Demain, cette méthode pourrait être utilisée pour repérer la fraude aux allocations, pour identifier des résidents étrangers ou encore faire du fichage politique — si ce n’est pas déjà le cas.

]]>
[Marianne] Lancement de la reconnaissance faciale en France : mais qu’allons-nous faire dans cette galère ?https://www.laquadrature.net/?p=15004http://streisand.me.thican.net/laquadrature.net/index.php?20191105_110000__Marianne__Lancement_de_la_reconnaissance_faciale_en_France____mais_qu___allons-nous_faire_dans_cette_galere___Tue, 05 Nov 2019 10:00:00 +0000Alicem, le projet d’identification par reconnaissance faciale de l’Etat français, est attendu dans les mois à venir. Curieux, que la France se porte à la pointe d’une telle technologie tandis qu’en Californie, par exemple, plusieurs villes interdisent déjà son usage par les services publics au nom des libertés civiles… […]

Encore en phase de test, Alicem attise déjà les inquiétudes. Le 15 juillet, La Quadrature du Net a déposé un recours devant le Conseil d’Etat pour annuler le dispositif. L’association de défense des libertés sur Internet s’alarme du traitement des données biométriques (c’est-à-dire des caractéristiques physiques propres à un individu) « ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat« . Avant même la publication du décret introduisant Alicem, en octobre, la Commission nationale de l’informatique et des libertés (Cnil) avait elle aussi rendu un avis sceptique, s’alarmant déjà de l’absence d’alternative à l’identification par reconnaissance faciale sur le portail. Une telle mise en œuvre, prévenait la Cnil, serait non-conforme au règlement européen de protection des données (RGPD), entré en application en mai 2018. […]

https://www.marianne.net/societe/lancement-de-la-reconnaissance-faciale-…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[France24] Reconnaissance faciale : la résistance s’organisehttps://www.laquadrature.net/?p=14980http://streisand.me.thican.net/laquadrature.net/index.php?20191104_130000__France24__Reconnaissance_faciale____la_resistance_s___organiseMon, 04 Nov 2019 12:00:00 +0000Vous connecter aux impôts, à la sécurité sociale ou encore à la caisse de retraite grâce à votre visage : en France, ce sera possible dès janvier 2020. Une première en Europe. Mais la reconnaissance faciale n’est pas du goût du tout le monde. De Paris à Hong Kong, en passant par San Francisco, associations, artistes et startups organisent la résistance. Quadrature du Net dénonce notamment une banalisation du recours à l’identification faciale. Son juriste, Martin Drago, nous en dit plus. […]

https://www.france24.com/fr/20191018-tech24-reconnaissance-faciale-alice…

NDLRP – Extrait vidéo à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[DigitalSociety] « La défense du projet émancipateur lié à Internet a échoué »https://www.laquadrature.net/?p=14981http://streisand.me.thican.net/laquadrature.net/index.php?20191104_120000__DigitalSociety______La_defense_du_projet_emancipateur_lie_a_Internet_a_echoue____Mon, 04 Nov 2019 11:00:00 +0000Chercheur et militant, Félix Tréguer a longtemps cru dur comme fer aux pouvoirs émancipateurs de l’Internet. Aujourd’hui, l’enthousiaste des années 2000 est devenu technocritique. Pour comprendre comment le médium de tous les possibles des années 1990 est devenu si intrinsèquement lié à la surveillance, il a adopté une démarche d’historien. Il en a tiré une thèse et un ouvrage passionnant, L’Utopie déchue : une contre-histoire d’Internet (Fayard). Entretien. […]

https://digital-society-forum.orange.com/fr/les-actus/1252-la-defense-du…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Lycées Nice Marseille : première victoire contre la reconnaissance facialehttps://www.laquadrature.net/?p=14972http://streisand.me.thican.net/laquadrature.net/index.php?20191028_210057_Lycees_Nice_Marseille____premiere_victoire_contre_la_reconnaissance_facialeMon, 28 Oct 2019 20:00:57 +0000La CNIL vient de rendre un avis déclarant que le système de reconnaissance faciale dans deux lycées de la région Sud « ne saurait être légalement mis en œuvre ». La CNIL ne propose pas de correctif et rejette par principe le dispositif. Cette première victoire contre la reconnaissance faciale en France ne peut que nous rendre optimistes dans la lutte qui nous oppose aux systèmes déjà existants (comme la reconnaissance faciale dans les aéroports via PARAFE) ou futurs (l’application d’identité numérique Alicem).

Nous en parlions encore la semaine dernière : en décembre 2018, le conseil de la région Sud a autorisé une expérimentation pour installer des portiques de reconnaissance faciale dans deux lycées, Les Eucalyptus à Nice et Ampère à Marseille. Cette expérimentation est entièrement financée par l’entreprise américaine Cisco qui profite ici de la politique sécuritaire des élus locaux pour tester ses technologies de surveillance sur les lycéens de l’établissement. L’objectif affiché par le conseil régional, et en particulier par son président Christian Estrosi, était d’étendre, au terme de cette expérimentation, ce dispositif à l’ensemble des lycées de la région.

En février 2019, La Quadrature du Net, la Ligue des Droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes ont déposé un recours devant le tribunal administratif de Marseille pour demander l’annulation de cette délibération. Les arguments s’appuient essentiellement sur le règlement général sur la protection des données personnelles (RGPD) : absence d’analyse d’impact en amont du processus, absence de cadre juridique à la reconnaissance faciale, traitement des données biométriques manifestement disproportionné par rapport à l’objectif poursuivi…

C’est ce dernier argument qu’a repris la CNIL dans le cinglant avis qu’elle a rendu aujourd’hui : « Les dispositifs de reconnaissance faciale envisagés, quand bien même ceux-ci seraient mis en œuvre à titre expérimental et reposeraient sur le consentement des élèves, pour contrôler l’accès à deux lycées de votre région, ne sont pas conformes aux principes de proportionnalité ».

La CNIL considère en effet que la finalité de ce système de reconnaissance faciale, qui consiste soi-disant à « sécuriser et fluidifier les entrées au sein des deux lycées », aurait pu être « raisonnablement atteinte par d’autres moyens » tels que « la présence de surveillants à l’entrée des lycées ».

C’est le principe même de la reconnaissance faciale qui pourrait être ainsi rejeté : trop dangereux pour nos libertés, ces systèmes automatisés devraient toujours être écartés au profit de pratiques humaines1Même si la CNIL met en avant la présence de surveillants humains en alternative préférable à la reconnaissance faciale, il faut regretter qu’elle propose aussi, comme exemple d’alternative à la reconnaissance faciale, le recours à un système de badges qui causerait pourtant, lui aussi, une atteinte excessive et non nécessaire à la vie privée des lycéens..

Il ne s’agit ici que d’un avis de la CNIL : la région peut toujours décider de ne pas le respecter et de continuer son expérimentation. Néanmoins, il serait très risqué pour la Région de ne pas en tenir compte, et cela notamment au vu de la conclusion de l’autorité qui a clairement énoncé que : « il résulte de cet examen que ce dispositif ne saurait être légalement mis en œuvre ». Et même dans le cas où la Région passerait outre, nous ne manquerions pas d’utiliser cet avis dans le contentieux qui nous oppose à elle devant le tribunal administratif de Marseille.

Hélas, l’autorisation de la CNIL n’est plus requise depuis le RGPD pour autoriser de tels systèmes, et nous devrons saisir la justice chaque fois qu’une région ou une administration décidera de violer la loi de nouveau. Toutefois, il faut anticiper que le gouvernement pourra difficilement se satisfaire de cette situation et qu’il devra réagir. L’avis de la CNIL conteste largement la légalité de sa stratégie en matière de reconnaissance faciale, qu’il s’agisse de son projet d’identification en ligne Alicem ou même de systèmes plus anciens, telle que la reconnaissance faciale dans les aéroports (via PARAFE) contre laquelle s’appliqueraient à l’identique les reproches retenus aujourd’hui par la CNIL contre les lycées.

Certes, la décision d’aujourd’hui semble tardive : elle n’intervient qu’après de multiples appels des défenseurs des libertés. La CNIL n’a eu qu’à rappeler la lettre du RGPD, chose qu’on attendrait plus souvent de sa part. Mais cette décision est suffisamment ferme pour stopper les velléités de recourir à la reconnaissance faciale et pour contraindre l’État à légiférer s’il veut poursuivre sa stratégie. La bataille sera ardue, et nous sommes nombreu·ses à l’attendre de pied ferme.

Rejoignez nous sur Technopolice.fr pour documenter et lutter contre l’usage policier des nouvelles technologies.

References   [ + ]

1. Même si la CNIL met en avant la présence de surveillants humains en alternative préférable à la reconnaissance faciale, il faut regretter qu’elle propose aussi, comme exemple d’alternative à la reconnaissance faciale, le recours à un système de badges qui causerait pourtant, lui aussi, une atteinte excessive et non nécessaire à la vie privée des lycéens.
]]>
Pour imposer la reconnaissance faciale, l’État et les industriels main dans la mainhttps://www.laquadrature.net/?p=14967http://streisand.me.thican.net/laquadrature.net/index.php?20191025_164357_Pour_imposer_la_reconnaissance_faciale__l___Etat_et_les_industriels_main_dans_la_mainFri, 25 Oct 2019 14:43:57 +0000Nous republions la tribune de Félix Tréguer et Martin Drago parue dans Le Monde du 25 octobre 2019.

L’inévitable débat sur la reconnaissance faciale arrive enfin en France, et le gouvernement esquisse sa réponse. Dans un entretien paru dans Le Monde du 15 octobre, le secrétaire d’Etat au numérique Cédric O, ancien cadre du groupe Safran, a notamment estimé qu’« expérimenter » la reconnaissance faciale était « nécessaire pour que nos industriels progressent ».

Mais cette prise de parole au plus haut niveau politique n’est que la partie émergée de l’iceberg. Car depuis des mois, notes et rapports officiels se succèdent pour souligner le défi que constitue l’« acceptabilité sociale » de ces technologies. Pour leurs auteurs, l’objectif est clair : désarmer les résistances à ces nouvelles modalités d’authentification et d’identification biométriques dont la prolifération est jugée inéluctable, et permettre à des industriels français comme Thales ou Idemia [une entreprise de sécurité numérique] de se positionner face à la concurrence chinoise, américaine ou israélienne.

L’enjeu est d’autant plus pressant que, contrairement à ce que laisse entendre Cédric O, les dispositifs de reconnaissance faciale sont déjà en place sur le territoire français. Depuis plusieurs années, des entreprises développent et testent ces technologies grâce à l’accompagnement de l’Etat et l’argent du contribuable. Le tout sans réel encadrement ni transparence.

La campagne participative de recherche-action Technopolice.fr, lancée début septembre par des associations de défense des libertés, a commencé à documenter les projets lancés au niveau national et local – à Paris, Nice, Marseille, Toulouse, Valenciennes et Metz notamment. Outre la reconnaissance faciale, d’autres applications greffées aux flux de vidéosurveillance et fondées elles aussi sur des techniques d’« intelligence artificielle » font également l’objet d’expérimentations, comme l’analyse des émotions ou la détection de « comportements suspects ».

« Rassurer » l’opinion publique

Alors, face aux oppositions portées sur le terrain et jusque devant les tribunaux par les collectifs mobilisés contre ces déploiements, les représentants de l’Etat et les industriels font front commun. Leur but n’est pas tant d’expérimenter que de tenter de « rassurer » l’opinion publique, le temps d’œuvrer à la banalisation de ces technologies et de mettre la population devant le fait accompli.

Les garanties mises en avant dans la communication gouvernementale – instance de supervision sous l’égide de la Commission nationale de l’informatique et des libertés (CNIL), pseudo-consultation et adoption future de règles juridiques qui dessineraient un modèle « acceptable » de reconnaissance faciale « à la française » – sont tout bonnement illusoires. L’histoire récente l’illustre amplement. La loi « informatique et libertés », adoptée en 1978 en réaction aux premiers scandales liés au fichage d’Etat, n’a de toute évidence pas permis, comme c’était pourtant son objectif, de juguler l’avènement d’une société de surveillance.

Pire, dans ce domaine, la CNIL a vu ses pouvoirs systématiquement rognés depuis quinze ans, donnant le change à des présidents successifs ayant souvent contribué à cette impuissance. Quant à l’exemple des fichiers de police, il suffirait à démontrer que, même une fois inscrites dans la loi, les dispositions destinées à protéger les droits fondamentaux sont systématiquement contournées.

Or ces technologies biométriques augurent un changement de paradigme dans l’histoire de la surveillance. A terme, elles reviennent à instaurer un contrôle d’identité permanent et généralisé, exigeant de chaque personne qu’elle se promène en arborant une carte d’identité infalsifiable, qui pourra être lue sans qu’elle ne le sache par n’importe quel agent de police. L’histoire devrait nous servir de leçon : si nos grands-mères et nos grands-pères avaient dû vivre au début des années 1940 dans un monde saturé de tels dispositifs, ils n’auraient pas pu tisser des réseaux clandestins capables de résister au régime nazi.

Déshumaniser les rapports sociaux

En dépit de leurs effets politiques délétères, ces coûteuses machines seront incapables d’apporter la sécurité vantée par leurs promoteurs. Les milliards d’euros dépensés depuis plus de vingt ans au nom du « solutionnisme technologique » en vogue dans les milieux de la sécurité devraient là encore nous en convaincre : la technologie s’est avérée inopérante pour enrayer les formes de violence qui traversent nos sociétés. Sous couvert d’efficacité et de commodité, elle conduit à déshumaniser encore davantage les rapports sociaux, tout en éludant les questions politiques fondamentales qui sous-tendent des phénomènes tels que la criminalité.

C’est pourquoi, contre cette offensive concertée de l’Etat et des industriels qui, à tout prix, cherchent à imposer la reconnaissance faciale, nous devons dire notre refus. Aux Etats-Unis, après les mobilisations citoyennes, plusieurs municipalités, ainsi que l’Etat de Californie, ont commencé à en proscrire les usages policiers.

A notre tour, nous appelons à l’interdiction de la reconnaissance faciale.

]]>
Le Conseil d’État autorise la CNIL à ignorer le RGPDhttps://www.laquadrature.net/?p=14910http://streisand.me.thican.net/laquadrature.net/index.php?20191017_135112_Le_Conseil_d___Etat_autorise_la_CNIL_a_ignorer_le_RGPDThu, 17 Oct 2019 11:51:12 +0000Hier, le Conseil d’État a rejeté notre demande contre la CNIL en matière de consentement au dépôt de cookie. En sous-titre, le Conseil d’État pourrait désavouer la CNIL dans son rôle de protectrice des libertés, réservant ce rôle aux seuls juges judiciaires.

Ce revirement historique s’inscrit dans une série de démissions opérées ces derniers mois par la CNIL. Il est urgent d’exiger collectivement que celle-ci redevienne ce pour quoi elle a été créée : pour nous défendre du fichage d’entreprises et de l’État.

La décision

En juillet 2019, la CNIL publiait (enfin !) de nouvelles lignes directrice pour rappeler que le RGPD, en application depuis mai 2018, exige que le dépôt de cookie et autres traceurs se fasse avec notre « consentement explicite ». Les bandeaux du type « En poursuivant votre navigation sur ce site, vous acceptez d’être surveillé⋅e – Ok » sont illégaux. Toutefois, la CNIL annonçait en même temps qu’elle ne sanctionnerait cette illégalité qu’après mi-2020.

Nous avons attaqué cette décision devant le Conseil d’État, qui vient de rejeter notre demande. Il considère que la décision de la CNIL n’est pas une violation excessive du RGPD : le délai d’un an ne serait pas si long, et la CNIL continuerait de sanctionner d’autres atteintes au RGPD. Certes, mais le caractère explicite du consentement a été une des rares avancées du RGPD, qui se trouve de facto privée d’effet pendant deux ans (de mai 2018 à juillet 2020).

Que dire à toutes les entreprises qui ont investi pour se mettre entièrement en conformité au RGPD dès 2018 ? Si ces règles sont systématiquement repoussées, comment faire peser une menace sérieuse contre toutes les autres entreprises qui, elles, n’ont jamais respecté le RGPD ? Rien. Le Conseil d’État ne répond même pas à ces questions.

Une autorité administrative est désormais capable de décider seule qu’une règle votée par des élu·es ne s’appliquera à personne pendant un an.

Le juge judiciaire, voie de secours

Le Conseil d’État ne détaille pas beaucoup son raisonnement dans sa décision, mais celle-ci suit fidèlement les conclusions présentées par son rapporteur public lors de l’audience du 30 septembre. Le rapporteur public est un membre du Conseil d’État qui assiste celui-ci en analysant les affaires et en lui proposant une solution, généralement suivie, comme c’est le cas ici.

À l’audience, donc, le rapporteur public a extensivement détaillé son raisonnement. Parmi les éléments qui l’ont convaincu de conclure au rejet de notre demande, et ce après de multiples hésitations clairement exprimées, il a invoqué un argument particulièrement surprenant et intéressant. Est-il vraiment si grave que la CNIL renonce à ses pouvoirs de sanction si, dans le même temps, l’autorité judiciaire peut aussi sanctionner les mêmes manquements ? Autrement dit, est-il grave qu’une autorité établie pour s’acquitter d’une tâche se donne le droit d’y renoncer si une autre autorité est compétente ?

En effet, le code pénal, par ses articles 226-16 à 226-24, sanctionne lourdement un certain nombre d’infractions qui, ensemble, couvrent une large partie des compétences de la CNIL. En plus du juge pénal, le juge civil est aussi compétent pour ordonner à une entreprise de cesser une atteinte au RGPD.

Somme toute, voilà un argument qui n’est pas si absurde : la CNIL peut bien renoncer à sa mission historique, qu’importe, nous pouvons toujours saisir la justice pour défendre nos libertés.

Mais quel abandon ! La CNIL a remis sa lettre de démission, nous l’avons contestée devant le Conseil d’État. Celui-ci l’a malheureusement acceptée, considérant que ses services n’étaient plus requis…

C’est d’ailleurs ce que vient confirmer une phrase très explicite de la décision du Conseil d’État qui considère que « l’exercice du pouvoir de sanction ne serait, en tout état de cause, pas susceptible de faire respecter plus rapidement » le RGPD. Comprendre : selon le Conseil d’État, le pouvoir de sanction de la CNIL ne serait pas requis pour faire respecter les droits auxquels elle a pourtant la charge de veiller.

Une série du démissions

Cette démission n’a rien de surprenant. Depuis un an, l’autorité enchaîne les renoncements à sa mission.

Notre plainte collective de plus de 10 000 personnes contre Google, après avoir entraîné une première et relativement faible sanction de 50 millions d’euros, semble au point mort. La CNIL est manifestement incapable de se décider à confier ou non l’affaire à son homologue irlandaise, alors même que celle-ci croule sous les affaires visant les géants du Web en dépit de ses effectifs encore plus réduits qu’en France.

Alors que la reconnaissance faciale commence à être expérimentée et installée un peu partout en France, la CNIL s’est empressée d’exiger un débat public sur la question, comme si elle renonçait par avance à mener ici la défense de nos libertés. Son renoncement s’est depuis confirmé. Quand la ville de Nice a annoncé déployer cette technologie au cours de son carnaval, au mépris de la loi, la CNIL s’est contentée d’un simple tweet réprobateur… Quand, à Nice ou à Marseille, la reconnaissance faciale a été annoncée pour s’imposer à des lycéens, elle s’est contentée de conseiller et d’accompagner.

Quand le gouvernement a adopté son décret Alicem en dépit de l’avis négatif de la CNIL, celle-ci s’en est tenue là (voir notre article). Elle a refusé d’utiliser le pouvoir que lui confère l’article 58, §5, du RGPD de saisir la justice pour faire annuler ce décret. À la place, elle a préféré laisser partir au front une petite association de six salarié⋅es (La Quadrature du Net) pour attaquer Alicem afin, ensuite, tel que nous l’avons appris avant-hier, de venir se greffer à la procédure en tant qu’« observatrice ».

Sur tous les fronts, la CNIL semble avoir abandonné son rôle de gendarme, ce que la décision du Conseil d’État confirme.

Quel avenir pour la CNIL ?

La tentation est grande d’oublier la CNIL et de ne plus se tourner que vers la justice pour faire appliquer le RGPD. L’option est clairement envisageable au moins en matière de cookies et de traceurs en ligne. Le rapporteur public du Conseil d’État nous y a clairement invité. Nous y reviendrons sûrement bientôt.

Toutefois, faut-il définitivement enterrer la CNIL ? Nous espérons qu’elle soit encore utile dans la bataille qui s’ouvre contre la reconnaissance faciale. Qu’elle soit utile pour faire appliquer le RGPD au sein de l’Union européenne, notamment pour imposer sa vision historiquement forte des libertés (en théorie du moins…) à ses homologues européens, dont certains seraient tentées de s’offrir en forum shopping aux GAFAM et ce contre quoi la justice seule ne peut rien. Dans tous les cas et quel que soit le sujet, mettre tous nos œufs dans l’unique panier judiciaire serait un pari bien risqué.

Si enterrer la CNIL n’est pas une option idéale, l’urgence serait donc de la sortir de sa torpeur. C’est ainsi, notamment, que nous avons accepté l’invitation de la CNIL de participer depuis deux mois à l’élaboration de ses nouvelles recommandations en matière de consentement aux cookies. Oui, ces mêmes recommandations qui détermineront la fin du « blanc-seing » que nous attaquions au même moment devant le Conseil d’État. Nous exigeons que les autorités mises en places pour faire respecter nos libertés fondamentales fassent leur travail et fassent appliquer la loi.

Si notre attitude peut sembler paradoxale, elle marque surtout notre refus d’accepter les pires situations. La lâcheté récurrente des dirigeant·es de la CNIL est aussi la conséquence des manques de moyens chroniques de l’administration et de la diminution récente de ses pouvoirs par la loi. Nous serons moins lâches que ses dirigeant·es et ne démissionnerons pas de notre volonté de la rappeler à l’ordre aussi régulièrement et fermement qu’il le faudra. Nous espérons que le contentieux qui vient de s’achever devant le Conseil d’État, même si nous l’avons formellement perdu, y aura contribué.

]]>
[RevueProjet] Okhin, hacker battanthttps://www.laquadrature.net/?p=14904http://streisand.me.thican.net/laquadrature.net/index.php?20191016_130000__RevueProjet__Okhin__hacker_battantWed, 16 Oct 2019 11:00:00 +0000Okhin est un « hacktiviste » : il détourne, contourne, défait les systèmes qui contreviennent aux libertés des citoyens sur Internet. Pour tenter de changer le monde avec des lignes de code. […]

Grand et fin, une casquette de la NSA sur sa crête de cheveux orangés, Okhin parle vite, très vite. Il dénote quelque peu dans les locaux sages de la Revue Projet. Entre deux gorgées de café, il raconte l’univers dans lequel il évolue depuis presque vingt ans, du ministère de l’Intérieur à la Quadrature du Net. Il parle de ses engagements, de ses victoires, de ses coups durs… Bienvenue dans le monde des pirates informatiques ! […]

https://www.revue-projet.com/articles/2019-09-de-mullenheim-okhin-hacker…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LaReleveetlaPeste] Un logiciel de reconnaissance faciale déployé par le gouvernement va arriver en Francehttps://www.laquadrature.net/?p=14905http://streisand.me.thican.net/laquadrature.net/index.php?20191016_120000__LaReleveetlaPeste__Un_logiciel_de_reconnaissance_faciale_deploye_par_le_gouvernement_va_arriver_en_FranceWed, 16 Oct 2019 10:00:00 +0000Conçue par le ministère de l’Intérieur, Alicem est une application mobile destinée à s’identifier via une photo ou vidéo pour faire ses démarches administratives. […]

« Sur Alicem, la CNIL (le gendarme des données personnelles) a bien dit que le décret n’est pas conforme à la loi, donc illégal. Pourtant, le gouvernement a quand même lancé son utilisation. Et la CNIL, plutôt que de saisir le Conseil d’Etat, n’a rien fait. Elle n’a pas rempli sa mission. C’est pourquoi la Quadrature du Net a déposé un recours devant le Conseil d’Etat pour demander l’annulation du décret en juillet. » explique Arthur Messaud, juriste pour La Quadrature du Net, à La Relève et La Peste. […]

https://lareleveetlapeste.fr/un-logiciel-de-reconnaissance-faciale-deplo…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Quand la France se lance dans la reconnaissance facialehttps://www.laquadrature.net/?p=14906http://streisand.me.thican.net/laquadrature.net/index.php?20191016_110000__NextINpact__Quand_la_France_se_lance_dans_la_reconnaissance_facialeWed, 16 Oct 2019 09:00:00 +0000Si des expériences locales de reconnaissance faciale ont été fortement médiatisées, d’autres pratiques restent plus discrètes. En coulisses, les industriels poussent pour que la France ne soit pas à la traîne et l’Intérieur est sensible aux arguments. L’idée d’une loi pour encadrer les expérimentations progresse rapidement et selon nos informations, un texte pourrait être déposé dès cet automne. Enquête.

La reconnaissance faciale n’est pas quelque chose d’inédit en France. Récemment, le décret qui impose cette technologie pour l’outil d’authentification en ligne ALICEM a été attaqué par La Quadrature du Net. […]

https://www.nextinpact.com/news/108256-quand-france-se-lance-dans-reconn…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Reconnaissance faciale dans les lycées : débat impossible ?https://www.laquadrature.net/?p=14896http://streisand.me.thican.net/laquadrature.net/index.php?20191015_175755_Reconnaissance_faciale_dans_les_lycees____debat_impossible___Tue, 15 Oct 2019 15:57:55 +0000En septembre dernier, La Quadrature du Net, avec des militants locaux associés à la campagne Technopolice.fr, est allée rencontrer des lycéennes et des lycéens de l’établissement Ampère à Marseille, où doit avoir prochainement lieu une expérimentation de reconnaissance faciale. Retour sur cette action et point d’étape sur notre recours contre ce projet de la région Sud.

En décembre 2018, le conseil de la région Sud (anciennement PACA) a autorisé une expérimentation pour installer des portiques de reconnaissance faciale dans deux lycées : le lycée des Eucalyptus à Nice et le lycée Ampère à Marseille. Comme nous l’expliquions dans un article en décembre, et à l’aide de l’analyse des documents obtenus auprès de la CNIL, cette expérimentation est entièrement financée par l’entreprise américaine Cisco qui profite ici de la politique sécuritaire des élus locaux pour tester ses technologies de surveillance sur les lycéens de l’établissement. L’objectif affiché par le conseil régional, et en particulier par son président Christian Estrosi, était on ne peut plus clair : étendre, au terme de cette expérimentation, ce dispositif à l’ensemble des lycées de la région.

Le recours formé contre l’expérimentation

Le 19 février 2019, La Quadrature du Net, la Ligue des Droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes ont déposé un recours devant le tribunal administratif de Marseille pour demander l’annulation de cette délibération. Les arguments s’appuient essentiellement sur le règlement général sur la protection des données personnelles (RGPD) : absence d’analyse d’impact en amont du processus, absence de cadre juridique à la reconnaissance faciale, traitement des données biométriques manifestement disproportionné par rapport à l’objectif poursuivi… Nous n’avons toujours aucune réponse de la Région dans le cadre de ce contentieux. Pendant ce temps, des travaux ont commencé devant le lycée des Eucalyptus à Nice : de nouvelles barrières ont été construites, mais elles ne contiennent pas encore les caméras nécessaires à la reconnaissance faciale.

L’actualité récente pourrait néanmoins laisser penser que notre recours a des chances d’aboutir. Le 21 août dernier, l’autorité suédoise de protection des données personnelles (l’équivalent de la CNIL) a sanctionné une expérimentation de reconnaissance faciale ayant eu lieu dans une école. Cette expérimentation avait pour objectif de mesurer l’assiduité des élèves en classe. Outre des manquements dans l’analyse d’impact, l’autorité a également souligné que le consentement des élèves, sur lequel se fondait l’expérimentation, était intrinsèquement biaisé. En effet, comme ce consentement était demandé par l’administration du lycée et que cette administration avait une autorité sur les élèves, le consentement de ceux-ci ne peut donc pas être libre au sens du RGPD : « Pour garantir que le consentement est donné librement, il convient que celui-ci ne constitue pas un fondement juridique valable pour le traitement de données à caractère personnel dans un cas particulier lorsqu’il existe un déséquilibre manifeste entre la personne concernée et le responsable du traitement (…) » (Considérant 43). Un tel raisonnement est parfaitement applicable à l’expérimentation à venir dans les lycées de la région Sud qui se revendiquent également du consentement des élèves.

Cette décision va donc dans le sens de nos revendications, à savoir l’annulation pure et simple de cette expérimentation qui participe à la normalisation et à la banalisation d’une technologie destinée à la surveillance de masse.

Technopolice.fr contre reconnaissance faciale

Dans le cadre de la campagne Technopolice.fr, nous avons participé à une action de sensibilisation et d’information à destination des lycéennes et lycéens d’un des établissements visés, le lycée Ampère à Marseille. L’action a été proposée et discutée sur le forum dédié et un tract a été rédigé de manière collaborative pour inviter les élèves à refuser de participer à ces expérimentations (le tract finalisé et distribué à l’entrée du lycée est disponible sur data.technopolice.fr).

Présents aux abords du lycée les 3 et 6 septembre derniers, nous avons pu parler à certains lycéennes et lycéens, ainsi qu’à des membres du personnel et au proviseur adjoint du lycée. À de rares exceptions près, les élèves n’avaient pas entendu parler de ce projet et ils se sont montrés sensibles à notre démarche, nombre d’entre eux indiquant clairement vouloir refuser de jouer le rôle de cobayes. Nous avons réalisé à cette occasion une courte vidéo de cette action.

Plus récemment, nous avons appris que le proviseur du lycée des Eucalyptus organisait, ce mardi 15 octobre, une table-ronde sur le sujet des portiques de reconnaissance faciale. Le proviseur a d’abord refusé que La Quadrature du Net soit invitée à cette table-ronde qui réunit pourtant l’ensemble des acteurs concernés : la Région, l’entreprise Cisco et les promoteurs de la reconnaissance faciale… Puis, invité à se montrer plus ouvert mais manifestement gêné par les propos contenus dans le tract distribué devant les lycées, il a conditionné notre participation aux règles prescrites dans l’invitation : « placés au sein d’un établissement scolaire, les échanges devront respecter les règles élémentaires de respect des personnes et des opinions et une totale neutralité politique ».

C’est oublier que la mise en place de la reconnaissance faciale à l’entrée d’un lycée est une décision éminemment politique, inspirée d’une idéologie de contrôle sécuritaire. Quoi qu’il en soit, dans ces conditions et compte tenu du fait que nous avons été prévenu à la dernière minute, nous avons finalement décidé ne pas participer à ce débat.

D’autres expérimentions ont lieu en ce moment en France et d’autres dispositifs de surveillance sont déjà en place : reconnaissance faciale, micros dans les rues, plateforme de « Safe City », détection par vidéosurveillance de comportements suspects… Une première description de ces dispositifs est disponible sur le site Technopolice.fr. D’autres projets sont en discussion sur le forum et des analyses sont en cours sur le Carré.

Pour aider à les documenter, et préparer ensemble des actions capables de résister à ces projets, rendez-vous sur Technopolice.fr.

]]>
[Regards] Martin Drago : « La reconnaissance faciale est l’outil final de surveillance de masse »https://www.laquadrature.net/?p=14893http://streisand.me.thican.net/laquadrature.net/index.php?20191015_130000__Regards__Martin_Drago________La_reconnaissance_faciale_est_l___outil_final_de_surveillance_de_masse____Tue, 15 Oct 2019 11:00:00 +0000En novembre, la France veut lancer son dispositif ALICEM de reconnaissance faciale pour accéder eux services publics en ligne. Pour la Quadrature du net, mais aussi la CNIL, ce dispositif n’est pas compatible avec le règlement général sur les données personnelles. Nos libertés sont-elles en danger ? Martin Drago, juriste et membre de la Quadrature du Net, est l’invité de #LaMidinale.

http://www.regards.fr/la-midinale/article/martin-drago-la-reconnaissance…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LesNumeriques] La Quadrature du Net s’attaque à la Technopolice, “outil ultime de surveillance de la population”https://www.laquadrature.net/?p=14894http://streisand.me.thican.net/laquadrature.net/index.php?20191015_120000__LesNumeriques__La_Quadrature_du_Net_s___attaque_a_la_Technopolice_____outil_ultime_de_surveillance_de_la_population___Tue, 15 Oct 2019 10:00:00 +0000Depuis presque dix ans, les grands centres urbains se métamorphosent avec l’aide des nouvelles technologies. Vidéosurveillance, reconnaissance faciale et big data sont autant d’outils qui témoignent d’une dérive sécuritaire selon la Quadrature du Net. […]

Dans son exposé de la situation rédigé début septembre, l’association annonce la couleur : son combat a pour but d’empêcher la construction de “smartcities policières”. Derrière le vocable accrocheur se cache un ensemble de batailles qui ont toutes un ennemi commun, à savoir la société de surveillance dans les villes de demain. […]

https://www.lesnumeriques.com/vie-du-net/la-quadrature-du-net-s-attaque-…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Telerama] La reconnaissance faciale débarque en France et vous n’y échapperez pashttps://www.laquadrature.net/?p=14895http://streisand.me.thican.net/laquadrature.net/index.php?20191015_110000__Telerama__La_reconnaissance_faciale_debarque_en_France_et_vous_n___y_echapperez_pasTue, 15 Oct 2019 09:00:00 +0000Alors que l’ombre de l’exemple chinois et de son “crédit social” plane sur les libertés publiques, la France s’apprête à déployer ALICEM, un système de reconnaissance faciale pour accéder aux services publics en ligne. Malgré de nombreuses réticences… […]

En pointe sur la défense des libertés publiques dans un monde interconnecté, la Quadrature du Net a attaqué le décret au mois de juillet. Rappelant que le Règlement européen sur la protection des données personnelles (RGPD) « a posé un principe d’interdiction de traitement des données biométriques », l’association dénonce un passage en force : « À l’heure où les expérimentations de reconnaissance faciale se multiplient sans qu’aucune analyse ne soit réalisée sur les conséquences d’un tel dispositif pour notre société et nos libertés […] le gouvernement français cherche au contraire à l’imposer à tous les citoyens via des outils d’identification numérique. » […]

https://www.telerama.fr/medias/la-reconnaissance-faciale-debarque-en-fra…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Maisoùvaleweb] De l’imprimerie à l’internet, la contre-histoire des médias de Félix Tréguerhttps://www.laquadrature.net/?p=14889http://streisand.me.thican.net/laquadrature.net/index.php?20191014_130000__Maisouvaleweb__De_l___imprimerie_a_l___internet__la_contre-histoire_des_medias_de_Felix_TreguerMon, 14 Oct 2019 11:00:00 +0000Dans son ouvrage L’utopie déchue, Une contre-histoire d’Internet (XVe-XXIe siècle) – Fayard, 2019, le sociologue Félix Tréguer retrace l’histoire longue des moyens de communication, que la censure d’Etat rattrape inlassablement. De l’imprimerie à l’informatique, le même schéma semble se répéter. Ce constat amer interroge au plus près l’efficacité des nouvelles formes de résistance ainsi que la sensibilité des citoyens aux questions de liberté. Tréguer, chercheur et membre de la Quadrature du Net, nous rappelle la nécessité de cultiver une technocritique vive et de lutter coûte que coûte contre nos mémoires trop courtes. Nous avons échangé quelques mots. […]

http://maisouvaleweb.fr/de-limprimerie-a-linternet-contre-histoire-media…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[BFM] Alicem: pourquoi l’application de reconnaissance faciale du gouvernement fait débathttps://www.laquadrature.net/?p=14890http://streisand.me.thican.net/laquadrature.net/index.php?20191014_110000__BFM__Alicem__pourquoi_l___application_de_reconnaissance_faciale_du_gouvernement_fait_debatMon, 14 Oct 2019 09:00:00 +0000Très controversé, le projet du gouvernement obligerait toute personne voulant se doter d’une identité numérique à fournir ses données faciales. […]

La Quadrature du Net, une association de défense des droits et libertés sur internet, a déposé en juillet un recours devant le Conseil d’Etat pour faire annuler le décret du 13 mai qui autorise le dispositif. L’association affirme qu’Alicem va à l’encontre du Règlement général sur la protection des données (RGPD) car il oblige toute personne voulant utiliser le service à fournir ses données faciales. […]

https://www.bfmtv.com/tech/alicem-pourquoi-l-application-de-reconnaissan…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] La France : premier pays d’Europe à généraliser la reconnaissance facialehttps://www.laquadrature.net/?p=14884http://streisand.me.thican.net/laquadrature.net/index.php?20191013_130000__FranceCulture__La_France____premier_pays_d___Europe_a_generaliser_la_reconnaissance_facialeSun, 13 Oct 2019 11:00:00 +0000On assiste en France à de plus en plus d’expérimentations sur la reconnaissance faciale, les portiques biométriques dans les lycées, au carnaval de Nice, ou encore dans les aéroports… Le Ministère de l’Intérieur et l’Agence Nationale des Titres Sécurisés lance une nouvelle application sur Android : Alicem. Elle propose aux citoyens de se créer une identité numérique pour tout ce qui est procédure administrative en ligne et ce, à partir de la reconnaissance faciale. Selon les révélations de Bloomberg hier, elle sera lancée dès novembre.

La France sera donc le premier pays de l’Union Européenne à utiliser la reconnaissance faciale pour donner aux citoyens une identité numérique. Mais cela pose de nombreuses questions, notamment sur la protection des données personnelles. Nous avons tenté de joindre le Ministère de l’intérieur qui n’a pas pu répondre à nos questions. Interview avec Martin Drago, juriste à la Quadrature du net, l’association de défense des droits et libertés des citoyens sur Internet. Il engage une action en justice contre l’Etat. […]

https://www.franceculture.fr/emissions/le-journal-des-sciences/le-journa…

NDLRP – Entretien à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Science&Vie] Reconnaissance faciale : le grand malaisehttps://www.laquadrature.net/?p=14885http://streisand.me.thican.net/laquadrature.net/index.php?20191013_110000__Science_Vie__Reconnaissance_faciale____le_grand_malaiseSun, 13 Oct 2019 09:00:00 +0000Que ce soit pour circuler, consommer ou accéder à des données, le visage sert de plus en plus de passeport. Or, la reconnaissance faciale ne s’arrête pas à l’authentification : elle peut aussi servir à contrôler les gens à distance et même à décrypter leur caractère ou leur orientation sexuelle. Une « inquisition » qui inquiète jusqu’aux chercheurs en I.A. […]

Mais comment faire autrement ? « La reconnaissance faciale est désormais installée comme un choix par défaut dans de nombreux services, que ce soit sur Facebook ou pour l’enregistrement de billets d’avion aux États-Unis, observe Jameson Spivack. Et, bien souvent, il n’y a pas d’autre option possible… » La stricte réglementation européenne a beau exiger le consentement de l’utilisateur, les premières digues sont en train de sauter. Un exemple : l’application Alicem du gouvernement français ne propose, pour l’heure, aucune alternative à la reconnaissance faciale pour s’authentifier en ligne – un recours a été déposé devant le Conseil d’État. « Le problème, c’est que la banalisation en cours de cette technologie risque d’être une première étape vers une surveillance de masse de la population« , évoque Martin Drago, de l’association de défense des droits dans l’environnement numérique La Quadrature du Net. Une crainte largement partagée… […]

https://www.science-et-vie.com/technos-et-futur/reconnaissance-faciale-l…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ?https://www.laquadrature.net/?p=14881http://streisand.me.thican.net/laquadrature.net/index.php?20191012_130000__FranceCulture__Internet_et_libertes_publiques____qu___est_ce_qui_a_change_depuis_Snowden___Sat, 12 Oct 2019 11:00:00 +0000Les révélations d’Edward Snowden ont-elles provoqué plus qu’une prise de conscience ? Que nous disent-elles de l’utopie déchue d’internet ? Félix Tréguer, co-fondateur de la Quadrature du net, nous en parle dans « L’utopie déchue » » (Fayard, 2019).

Alors qu’internet devait permettre l’émergence d’une société plus libre et plus démocratique, c’est, dit-il, tout l’inverse qui s’est produit. Chercheur associé au Centre Internet et Société du CNRS, membre fondateur de l’association La Quadrature du Net, qui défend les libertés numériques en France, Félix Tréguer déplore la chute de l’utopie émancipatrice et révolutionnaire que représentait l’Internet des origines. […]

https://www.franceculture.fr/emissions/la-grande-table-idees/internet-et…

NDLRP – VExtrait à retrouver sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[OuestFrance] Le Mans. « Google te connaît mieux que ta mère »https://www.laquadrature.net/?p=14882http://streisand.me.thican.net/laquadrature.net/index.php?20191012_120000__OuestFrance__Le_Mans._____Google_te_connait_mieux_que_ta_mere____Sat, 12 Oct 2019 10:00:00 +0000Alerter les adolescents sur les données personnelles qu’ils laissent sur Internet en utlisant les réseaux sociaux. C’était le thème d’une mini-conférence organisée par le Service Jeunesse, mardi 17 septembre, au Mans. Quatre cents collégiens de 3e y participaient. […]

Klorydryk, membre du Collectif la Quadrature du Net (association de défense des droits et libertés des citoyens sur Internet) leur a rappelé que ces applications, gratuites pour leurs utilisateurs, n’ont qu’un seul but : « capter le plus longtemps possible votre attention, pour que vous soyez rentables. Parce qu’entre une photo de chat mignon et de licorne, elles glissent une publicité. C’est ainsi qu’elles gagnent de l’argent. » […]

https://www.ouest-france.fr/pays-de-la-loire/le-mans-72000/video-le-mans…

NDLRP – Vidéo à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeFigaro] Surveillance, données… Des parents d’élèves et des associations s’unissent contre les villes intelligenteshttps://www.laquadrature.net/?p=14880http://streisand.me.thican.net/laquadrature.net/index.php?20191012_110000__LeFigaro__Surveillance__donnees____Des_parents_d___eleves_et_des_associations_s___unissent_contre_les_villes_intelligentesSat, 12 Oct 2019 09:00:00 +0000[LeFigaro] Surveillance, données… Des parents d’élèves et des associations s’unissent contre les villes intelligentes

Quatre associations dont la FCPE et la Ligue des droits de l’Homme s’associent pour créer « La campagne contre la Technopolice ». Ils s’inquiètent de l’utilisation de la reconnaissance faciale et de la collecte massive de données privées.

Quatre associations françaises refusent que Big Brother devienne réalité. Lundi 16 septembre, dans un communiqué commun, la Ligue des droits de l’Homme, la Quadrature du Net, la CGT-Educ et la Fédération des conseils de parents d’élèves ont lancé un appel pour rejoindre la campagne « Technopolice ». L’objectif est de lutter collectivement contre les systèmes de reconnaissance faciale et de récolte de données numériques, testés dans différentes villes de France comme Nice ou Marseille. Les membres fondateurs estiment que ces expérimentations sont à l’origine d’une « mise sous surveillance de l’espace urbain ». De telles technologies sont déployées pour renforcer la sécurité d’une ville ou d’un quartier. Elles permettent de repérer une personne recherchée ou un comportement anormal dans une foule. C’est la Quadrature du Net, organisme qui promeut et défend les libertés fondamentales sur Internet, qui est à l’origine de la campagne. […]

https://www.lefigaro.fr/secteur/high-tech/surveillance-donnees-des-paren…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Recours contre le renseignement : compte-rendu de notre audience devant la Cour de Justice de l’Union européennehttps://www.laquadrature.net/?p=14849http://streisand.me.thican.net/laquadrature.net/index.php?20191011_134631_Recours_contre_le_renseignement____compte-rendu_de_notre_audience_devant_la_Cour_de_Justice_de_l___Union_europeenneFri, 11 Oct 2019 11:46:31 +0000Les 9 et 10 septembre, La Quadrature était aux côtés de Privacy International, FDN, FFDN, igwan.net, et le Center for Democracy & Technology (CDT) pour plaider devant la Cour de Justice de l’Union européenne (CJUE), contre le régime français de conservation généralisée des données de connexion et loi Renseignement. Voici un bref compte-rendu de cette audience (vous trouverez ici les notes plus complètes prises par Bastien, qui a récemment rejoint les membres de La Quadrature, pour son laboratoire).

Véritable pilier du renseignement, la conservation des données de connexion — ou métadonnées, c’est-à-dire ce qui entoure une communication, comme sa date, l’expéditeur et le destinataire, l’adresse IP utilisée, etc. — concerne tout le monde : la loi française impose aux opérateurs de conserver toutes les informations nous concernant à chaque communication. Cette audience devant la CJUE est l’aboutissement de quatre années de procédures. Dans cette affaire, et depuis 2015, La Quadrature demande quelque chose d’extrêmement simple : maintenir et réaffirmer la jurisprudence actuelle de la Cour suprême de l’UE qui interdit sans ambiguïté une conservation généralisée des données de connexion. C’est parce que les États membres de l’Union européenne, dont la France, refusent de respecter cette règle claire du juge européen que nous plaidions contre cette surveillance de masse.

Cette audience n’avait pas comme seul but de dénoncer la conservation généralisée des données de connexion. Depuis 2015, La Quadrature s’érige contre la dérive sécuritaire du renseignement français. La conservation des données de connexion n’est qu’un symptôme parmi d’autres d’une loi liberticide qui offre aux services de renseignement des pouvoirs qu’ils ne devraient pas avoir. Dans l’opacité la plus totale, les services français peuvent s’introduire dans nos ordinateurs, lire nos conversations, ou encore poser des mouchards. Et ce pour des raisons tellement floues qu’elle recouvrent potentiellement toute action dérangeante pour l’État : sont ainsi mis au même rang la prévention du terrorisme et la défense des « intérêts économiques, industriels et scientifiques majeurs de la France » ou encore les « atteintes à la forme républicaine des institutions ». Comme nous l’avons développé devant les juges européens, cette loi permet aujourd’hui de mettre sous surveillance les contestations sociales comme les gilets jaunes ou les revendications écologiques, bien loin de ce qui avait été vendu en 2015 lors de l’élaboration de cette loi.

La France veut maintenir sa surveillance de masse

Pendant les deux jours d’audience devant les juges de la CJUE, nous avons assisté à un déni de l’État de droit : la France, suivie par les autres pays européens, a expliqué qu’elle ne respecte pas la jurisprudence actuelle de la Cour de Justice en conservant de façon généralisée les données de connexion, mais également qu’elle ne la respectera pas à l’avenir si celle-ci était maintenue. La loi française et son application par les services de renseignement constituent bel et bien de la surveillance de masse, contrairement aux affirmations fausses du gouvernement devant la Cour. Mensonges et mauvaise foi ont été la ligne de défense de la France et de beaucoup d’autres États.

La représentation française a ainsi maintenu son affirmation selon laquelle la surveillance française des données de connexion ne concerne jamais le contenu des communications. Nous avions pourtant déjà démontré que, au moins avec le cas des adresses des sites Web, lorsque les services de renseignement analysent en temps réel les données de connexion, ils peuvent analyser les adresses Web (URL) des sites visités. Or, cela ne se limite pas au seul nom de domaine (ex : lemonde.fr), mais bien à l’intégralité de l’adresse. Il est ainsi possible, avec cette adresse complète, de savoir quel article de presse est lu, à quelle conversation l’internaute est en train de participer, quels sont ses centres d’intérêts, etc., il y a également une surveillance du contenu. Les États ont également tenté grossièrement d’émouvoir les juges avec une liste à n’en plus finir de faits divers dont leur conclusion serait d’attribuer une certaine utilité pratique à la surveillance de masse : il ne s’agissait pourtant que d’exemples isolés, rarement relatifs à la lutte contre le terrorisme (ce qu’ont rappelé certains juges, mettant ainsi les États face à leurs propres contradictions).

Surtout, la Commission n’a jamais cherché, de ses propres dires, à démontrer concrètement, par statistiques ou études exhaustives, en quoi la conservation des données de connexion serait nécessaire, indispensable, et pas simplement « utile », à la lutte contre la criminalité ou la prévention du terrorisme, ce qu’exige pourtant le droit de l’UE. Commission et États étaient bien embarrassés lorsque les juges ont pointé cette faille dans leur principal argument.

De notre côté, dans notre plaidoirie aux côtés de la FFDN, igwan.net et le CDT, nous avons voulu ramener le débat à des éléments concrets, clairs et pertinents. Nous avons rappelé en quoi le système français de renseignement est un système de surveillance généralisée. La France conserve bien une partie des communications traitées, sur toute la population. Elle a une législation en matière de renseignement tellement permissive que chacun·e peut faire l’objet d’une surveillance. Elle n’a pas non plus d’organe de contrôle efficace ni de procédure de recours respectueux des droits de la défense. Nous avons rappelé les nombreuses études sociologiques qui démontrent un affaiblissement de la démocratie lorsque l’on se sent surveillé. Le sujet auquel nous nous attaquons n’est pas une question technique ni d’initié·e·s : les enjeux sont ceux du choix de société que nous voulons. Nous ne voulons pas d’une société dans laquelle toute revendication serait muselée ou dans laquelle les minorités seraient contraintes de se taire.

Face à cette levée de boucliers des États, nous avons appelé la Cour à ne pas céder. Les gouvernements font preuve d’une audace que nos sociétés démocratiques ne doivent pas laisser passer. Nous nous félicitons des questions des juges qui ont démontré l’entière maîtrise du sujet par la Cour. Les questions posées ont mis à plusieurs reprises les États, la Commission et le Contrôleur européen de la protection des données – ces deux derniers partageant sur de nombreux points les positions des États – en difficulté et ont montré les failles grossières du raisonnement déployé par les gouvernements. En réponse à ces épineuses interrogations, les États ont échoué dans leur tentative d’amadouer les juges.

Enfin, nous avons invité la CJUE à, naturellement, maintenir sa jurisprudence. La seule solution aux dérives actuelles est d’interdire la conservation généralisée des données de connexion. Nous avons également invité les juges à s’inspirer d’un régime de « conservation spontanée » : les opérateurs conservent, pour des raisons légitimes (principalement d’ordre technique), les données de connexion, et il s’agit de la seule conservation acceptable car non généralisée. De manière plus large, nous invitons la Cour à contredire les États dans leur manière de penser le renseignement : il n’est pas acceptable que de telles possibilités de surveillance de masse, pour des finalités aussi larges et imprécises, soit maintenues.

Rendez-vous fin décembre, puisque l’avocat général devrait rendre à la fin de l’année ses conclusions !

Ci-dessous, les notes écrites sur lesquelles s’est basée la plaidoirie d’Alexis, notre avocat, qui a plaidé devant la Cour pour nous ainsi que pour FFDN, Igwan.net et CDT. Dans sa plaidoirie, il répondait aux questions parfois assez précises posées à l’avance par la Cour, donc certains passages sont assez longs et techniques.

Notre plaidoirie

Monsieur le Président,

Mesdames et Messieurs les membres de la Cour,

Monsieur l’Avocat général,

Je représente les associations françaises La Quadrature du Net, la Fédération des fournisseurs d’accès à Internet associatifs, Igwan.net, ainsi que Center for democracy and technology (CDT), ONG basée aux Etats-Unis.

Je répondrai, pour l’essentiel dans l’ordre, aux neuf questions posées par la Cour, qui permettent de largement couvrir les enjeux de l’affaire qui nous a conduit ici.

Introduction

Avant d’en venir au droit, je souhaite brièvement aborder deux éléments matériels survenus depuis nos dernières observations écrites.

Premier élément matériel: en avril dernier, la CNCTR – l’autorité française de contrôle des services de renseignement – a publié son rapport d’activité pour l’année 2018.

Ce rapport est une source d’informations précieuses, et j’en soulignerai une en particulier : en 2018, plus de 22 000 personnes ont été surveillées sur le territoire national.

Les deux tiers de ces 22 000 personnes l’ont été au nom de la lutte contre le terrorisme ou de la lutte contre la criminalité et la délinquance organisée.

Un tiers, 8 048 personnes exactement, l’a été pour une autre fin. Parmi ces finalités se trouve la lutte contre les violences collectives qui couvre la lutte contre les manifestations interdites, non-déclarée ou mal-déclarée. S’y trouve aussi les intérêts internationaux, économiques et scientifiques de la France. Finalité particulièrement large et imprécise.

Second élément matériel : en juillet dernier, la Présidence de la République française a publié sa « stratégie nationale du renseignement », qui annonce ses perspectives pour les cinq années à venir. La lutte contre les manifestations y trouve une place singulière. Je cite : « l’anticipation, l’analyse et le suivi des mouvements sociaux (…) par les services de Renseignement constituent une priorité ».

Cette perspective de lutte contre les manifestations violentes ne serait pas tellement surprenante si la Présidence se bornait à viser les seules destructions de biens survenant dans certaines manifestations. Mais la Présidence va bien plus loin.

Il est en effet extrêmement préoccupant de lire la Présidence de la République affirmer que ses services de renseignement doivent surveiller les « affirmations de vie en société » d’ordre éthique « qui peuvent exacerber les tensions au sein du corps social ». Cette formule est susceptible de viser n’importe quel mouvement politique qui contesterait l’action du Gouvernement ou de la majorité.

Aussi bien, dans la présente affaire, les associations que je représente ne sont pas animées par la crainte de dérives futures et abstraites que les faiblesses du droit français rendraient simplement probables.

Non, elles sont animées par une crainte actuelle et matérialisée, nourrie d’abus et d’atteintes, qui se constatent quotidiennement en France, notamment par la pratique des « gardes à vue préventives » qui se sont multipliées ces derniers mois ou par la crainte généralisée de chaque citoyen de ne pouvoir exercer paisiblement et librement, c’est-à-dire sans être indument surveillés, son droit fondamental de participer à la vie politique et sociale de son pays.

Ces éléments de contexte étant précisés, je vais désormais répondre à la première question soumise par la Cour et qui concerne le champ d’application de la directive 2002/58.

1. Champ d’application de la directive ePrivacy

Le champ d’application de la directive dite « ePrivacy » est un sujet récurrent dans la jurisprudence de la Cour concernant la surveillance étatique.

La Cour a déjà jugé, notamment dans son arrêt Tele2, que l’article 5, §1 de la directive, qui interdit l’interception de communications électroniques et de données de trafic y afférentes, s’applique « à toute personne », y compris aux entités étatiques.

Pour définir ce champ d’application, la Cour n’a jamais exigé que cette interception soit réalisée avec la collaboration active des opérateurs de télécommunications.

A bien y regarder, toute interprétation contraire ôterait tout effet utile à la directive.

Revenons en détails sur ce point.

Selon son article 3, la directive « s’applique au traitement de données à caractère personnel dans le cadre de la fourniture de services de communications électroniques accessibles au public sur les réseaux de communications publics ».

Contrairement à ce que prétend la France, cet article ne limite en rien le champ personnel des acteurs concernés, mais se borne à poser une simple limite matérielle : pour être soumis à la directive, il faut et il suffit que le traitement de données ait été réalisé « dans le cadre » d’un service de télécommunications fourni à la personne concernée, c’est-à-dire « au moyen de ».

L’article 3 n’exige en aucun cas que, pour y être soumis, un acteur souhaitant réaliser un traitement de données ait obtenu la collaboration active de l’opérateur de télécommunications de la personne concernée. Une telle interprétation viderait d’ailleurs de sens les autres dispositions de la directive, notamment celles concernant les cookies et les communications non-sollicitées.

En effet, en premier lieu, l’article 5, §3, de la directive ePrivacy prohibe à toute personne d’utiliser le service de télécommunications fourni à un utilisateur afin de déposer ou de lire sans son consentement des informations sur son terminal. Cette disposition est celle qui fonde toute la lutte contre l’utilisation abusive de cookies et autres traceurs. En pratique, ces activités n’impliquent jamais la collaboration active d’opérateurs de télécommunications. Les cookies sont déposés par des sites Web et des régies publicitaires, lors de la navigation sur le Web. C’est tout. La lutte contre le dépôt abusif de cookies deviendrait ipso factoimpossible et absurde s’il en allait autrement. Il en va de même pour les activités étatiques.

En deuxième lieu, l’article 13 de la directive défend à toute personne d’utiliser le service de télécommunications fourni à un utilisateur afin de lui faire parvenir des communications non-sollicitées. Ici encore, il serait absurde que cette interdiction ne s’applique que dans la situation improbable et rocambolesque où cette communication non-sollicitée serait faite avec la collaboration active des opérateurs de télécommunications.

Et pour cause : exiger un rôle actif d’un FAI porterait nécessairement atteinte à la neutralité de l’Internet, pourtant garantit par le règlement de 2015 sur l’Internet ouvert.

Ainsi, interpréter le champ de la directive comme exigeant leur collaboration active priverait de tout effet ses articles 5, §3, et 13, ce qui dépouillerait le texte de toute cohérence.

On rappellera que si la directive avait entendu limiter son champ d’application aux seuls opérateurs de télécommunications, elle l’aurait expressément prévu, ainsi qu’elle l’a d’ailleurs fait aux articles 4, 6 et 8, uniquement pour certaines activités limitativement énumérées.

On rappellera, enfin, que la Cour n’a jamais exigé la collaboration active des opérateurs pour interdire aux entités étatiques d’intercepter les communications électroniques et données de trafic y afférentes en application de l’article 5, §1, de cette directive qui, d’après sa lettre, s’applique effectivement « à toute autre personne que les utilisateurs ».

En l’espèce, la directive ePrivacy s’applique donc à l’utilisation d’« IMSI Catcher », que je mentionnais tout à l’heure. Cet outil de surveillance non-ciblée permet aux services de renseignements de surveiller les communications de tous les téléphones portables dans une zone géographique déterminée. Pour cela, cet outil se fait passer pour l’infrastructure d’un opérateur de téléphonie, attirant prioritairement les connexions des téléphones alentours, en lieu et place de l’antenne téléphonique légitime.

A l’évidence, cette technique de surveillance ne peut être menée que dans le cas où un service de télécommunications est fourni aux personnes surveillées : si aucun service ne leur était fourni, l’attaque serait matériellement impossible (de même qu’il serait impossible de déposer un cookie sur le terminal d’un utilisateur ou de lui envoyer des communications non-sollicitées si aucun service de télécommunications ne lui était fourni).

De même, la directive s’applique à la conservation de données imposée par la loi française aux hébergeurs, dans la mesure où ces données sont, par hypothèse, systématiquement collectées et traitées au moyen du service des télécommunications fourni à leurs utilisateurs. Prétendre l’inverse serait arguer que les dispositions sur les cookies ne s’appliquent pas aux hébergeurs et donc à leur dénier toute portée.

Plus largement, et a fortiori, la détermination du champ d’application de la directive n’est pas indispensable pour traiter, en droit de l’Union, des activités nationales de renseignement.

En effet, ces activités sont toutes directement soumises à d’autres normes issues de l’ordre juridique de l’Union, notamment la directive 2016/680 et le RGPD.

S’agissant des activités de renseignement qui poursuivent des finalités extérieures au champ de compétence de l’Union, celles-ci sont, en toutes hypothèses, couvertes par la Charte. En effet, ces activités ne peuvent être mises en œuvre que dans le cadre des exceptions prévues par la directive ePrivacy ainsi que par le RGPD ou la directive 2016/680. Or, selon la jurisprudence1CJUE, 30 avril 2014, Pfleger e.a., aff. n° C-390/12, pts. 33, 35 et 36 ; CJUE, 14 juin 2017, Online Games e.a., aff. n° C-685/15, pts. 54-57 ; CJUE, 21 mai 2019, Commission c/ Hongrie (Usufruits sur terres agricoles), aff. n° 235/17 constante de la Cour, la mise en œuvre d’une exception prévue par le droit de l’Union constitue pleinement une « mise en œuvre du droit de l’Union » au sens de l’article 52 de la Charte et conduit donc celle-ci à s’y appliquer directement.

Or, la Charte reprend la substance des dispositions de la directive ePrivacy, du RGPD et de la directive 2016/680, qui trouve ainsi à s’appliquer à toute activité de renseignement, quel que soit la mesure examinée.

2. Accès limité aux données de connexion

Par sa deuxième question, la Cour semble s’interroger sur la nécessité d’interdire en amont la conservation de masse de données si, en aval, l’accès à ces données n’était que ciblé, chaque fois limité par un lien à l’objectif poursuivi.

D’abord, cette question procède du postulat erroné suivant lequel la seule conservation des données ne constituerait pas en soi, une atteinte disproportionnée aux droits des personnes concernées. Rappelons, d’emblée, que cette conservation massive concerne la totalité de la population, y compris les personnes sans lien avec les objectifs poursuivis par les services de renseignement.

La seule conservation, massive, généralisée et indifférenciée, de ces données, constitue une atteinte injustifiée et radicalement disproportionnée dans les libertés fondamentales de la population.

Les termes de l’arrêt Klass de la Cour européenne des droits de l’Homme ont conservé, plus de 40 ans plus tard, tout leur éclat et une brûlante actualité :

« La législation elle-même crée par sa simple existence, pour tous ceux auxquels on pourrait l’appliquer, une menace de surveillance entravant forcément la liberté de communication (…) »

Je reviendrai plus en détails sur ce sujet pour répondre à la quatrième question posée par la Cour.

La conservation généralisée et indifférenciée des données irait frontalement à l’encontre de la jurisprudence établie par votre Cour. Dans l’arrêt Tele2 notamment, la Cour opère un contrôle de proportionnalité qui, appliqué à l’hypothèse d’une conservation généralisée, conduit inévitablement à condamner une telle mesure.

En effet, toute ingérence dans un droit fondamental doit être proportionnée, c’est-à-dire nécessaire, adaptée et proportionnée stricto sensu.

La conservation généralisée des données n’est jamais nécessaire : il est possible de parvenir au même objectif à l’aide d’une ingérence plus modérée et plus conforme à l’Etat de droit, à l’instar d’une conservation ciblée – j’y reviendrai, tout à l’heure, afin de répondre à la huitième question posée par la Cour.

Par ailleurs, elle n’est ni adaptée, ni proportionnée dès lors qu’il s’agit de conserver les données de la totalité de la population, y compris des personnes dépourvues de tout lien avec les objectifs poursuivis.

Ensuite, autoriser une telle conservation, sous condition d’un accès ultérieur suffisamment encadré, repose sur l’hypothèse systématiquement infirmée, selon laquelle l’Etat n’abuserait pas de ses pouvoirs ou prévoirait des procédures de contrôle fiables et effectives.

En pratique, interdire la conservation de masse est une mesure indispensable prise en amont afin de limiter les abus, constants et systématiques, en aval.

En effet, en premier lieu, ces dernières années ont révélé combien l’encadrement de l’accès administratif aux données de connexion était défaillant. Depuis 2015, le Conseil constitutionnel a censuré les dispositions législatives donnant ces accès aux agents de l’Autorité de la concurrence, de l’Autorité des marchés financiers, de la Haute autorité pour la transparence de la vie publique, des douanes et de la sécurité sociale.

En second lieu, le droit français n’offre aucune garantie effective quant aux contrôles des accès aux données de connexion. Dans son rapport de 2018, la CNCTR explique ainsi avoir eu à examiner 73 298 demandes de techniques de renseignement en un an. Or, la loi exige que ces demandes soient examinées par l’un des quatre seuls magistrats membres de la CNCTR. Dans l’hypothèse, généreuse, où ces quatre magistrats dédieraient l’entièreté de leur temps de travail à ces examens – ce qui, en pratique, est loin de la réalité -, ils passeraient alors moins de 5 minutes en moyenne pour examiner chaque demande.

Parmi les 73 298 demandes, la CNCTR explique que 30 000 d’entre elles ont concerné des accès à des données de connexion aux fins d’identifications d’abonnés ou de recensement de numéros d’abonnement. Face à l’engorgement organisé de son activité, la CNCTR admet, que le contrôle qu’elle exerce est, je cite, « d’une faible valeur ajoutée » et, faute de moyens, je cite à nouveau, se « borne le plus souvent à vérifier que la motivation de la demande comporte des éléments concernant les intérêts fondamentaux de la Nation invoqués. Le contrôle de proportionnalité ne trouve pas matière à s’appliquer ». Il s’agit donc d’un contrôle purement formel et non réel et effectif, bien éloigné des strictes exigences du droit de l’Union en la matière.

Ce constat suffit pour répondre à la question posée par la Cour : il est impensable de permettre une conservation de masse dans la mesure où l’accès aux données est dépourvu de tout contrôle effectif.

3. Importance des métadonnées

Par sa troisième question, la Cour s’interroge sur le caractère intrusif de l’accès aux données de connexion en comparaison avec un accès au contenu des communications.

En termes informatiques, le contenu des communications forme un ensemble de données non-structurées et difficilement structurables. C’est la forme de données la plus complexe à analyser. Il s’agit de comprendre qu’un mot ne désigne pas la même chose, ne signifie pas la même chose, en fonction du contexte dans lequel il est utilisé. Analyser du contenu demande une informatique de pointe, des algorithmes très performants, et le plus souvent des humains2A. Casili, « En attendant les robots. Enquête sur le travail du clic. », Seuil, 2019. D. Cardon et A. Casili, « Qu’est-ce que le Digital Labor ? », INA, 2015. pour traiter le contenu et lever les ambiguïtés. En outre, l’exploitation du contenu des communications nécessite de connaître la langue utilisée.

À l’opposé, l’exploitation des métadonnées est aisée et ne requiert aucune traduction. Ce sont des informations qui sont déjà structurées, qui sont produites en continu, à grande échelle, par des systèmes automatiques et conçues pour être traitées informatiquement, de manière massive et à très grande vitesse. Il est aisé de les corréler.

Prenons un exemple : établir à quels moments deux individus sont susceptibles de s’être rencontrés. Si l’on se fonde uniquement sur l’analyse du contenu des échanges, il s’agit d’un problème complexe.

En revanche, si l’on se fonde sur les métadonnées, par exemple les données de géolocalisation, le problème devient enfantin à traiter : il suffit d’analyser les positions de deux téléphones portables. Les données extraites du contenu ne peuvent que difficilement offrir une telle intrusion dans la vie privée des individus.

Au-delà de cet exemple, les seules métadonnées sur les messages échangés – date et heure des échanges, nature technique du message – permettent d’avoir une lecture fine des relations humaines. C’est par exemple sur ces informations-là que Facebook a démontré, en 20143https://www.facebook.com/notes/facebook-data-science/the-formation-of-love/10152064609253859 ; https://www.journaldunet.com/ebusiness/le-net/1135019-facebook-sait-avant-vous-quand-vous-tombez-amoureux/, qu’il pouvait détecter les changements dans la vie sentimentale des utilisateurs avant même que ceux-ci n’en aient conscience. Et j’emploie le terme conscience, et non connaissance, à dessein.

Dès lors qu’il faut redouter que l’automatisation de la surveillance en décuple les risques d’abus – j’y reviendrai ultérieurement -, les données de connexion constituent le cœur des dangers que le droit doit repousser pour les années à venir.

4. Limite à la liberté d’expression

La Cour demande par une quatrième question de revenir sur les conséquences de la surveillance « sur l’exercice des droits à la liberté d’expression, de se former une opinion, ainsi qu’à la liberté de réunion et d’association ».

S’agissant de la liberté de réunion et d’association, je l’ai déjà abordée dans mon propos liminaire. La Présidence de la République française déclare elle-même surveiller les manifestants. Un de ses buts est bien de dissuader la population de se rendre en manifestations. Il s’agit de la suite logique de la politique du gouvernement français de ces derniers mois.

Sur le droit à la liberté d’expression et de se former une opinion, les effets sont plus diffus et complexes à évaluer. Toutefois, plusieurs études confirment le constat dressé il y a 40 ans dans l’arrêt Klass de la Cour européenne.

Une étude publiée en 2016 dans une revue juridique de la faculté de droit de l’Université de Berkeley4Chilling effects: Online surveillance and Wikipedia use (JW Penney – Berkeley Tech. LJ), est revenue sur un des effets des révélations d’Edward Snowden sur la fréquentation de certaines pages Wikipédia. Elle conclut à une « réduction significative du trafic des articles sensibles en termes de vie privée après juin 2013, et qu’il y a eu un changement de long terme dans la tendance générale du trafic de tels articles ».

Une autre étude publiée en 2015 dans une revue du MIT5Government Surveillance and Internet Search Behavior (Alex Marthews & Catherine Tucker, MIT), conclut à « une réduction significative (…) dans les recherches Google pour certains termes sensibles en termes de vie privée après juin 2013 ».

Déjà, en 2007, une étude publiée dans une revue de l’Université du Maryland6The chilling effect of government surveillance programs on the use of the internet by Muslim-Americans (DS Sidhu – U. a décrit les effets de la surveillance sur les populations se sentant les plus surveillées. Plus de 8 % des personnes sondées – uniquement des résidents américains de confession musulmane – expliquaient avoir changé leur utilisation d’Internet par crainte que le gouvernement ne surveille l’activité des musulmans en ligne à la suite du 11 septembre 2001.

La surveillance de masse engendre ainsi une « spirale du silence »7https://en.wikipedia.org/wiki/Spiral_of_silence .

5. Accès généralisé aux données

La cinquième question posée par la Cour concerne l’accès généralisé aux données de l’ensemble des utilisateurs. Autrement dit, la surveillance de masse.

La Cour demande si une telle mesure peut exister, si elle peut être permise, sans risque d’abus. La Cour a déjà répondu fermement par la négative à cette question par sa jurisprudence constante, et l’exposé que je vais faire de la surveillance française ne peut que la conforter dans cette position.

En droit français, il existe quatre types possibles de surveillance de masse. Les deux premiers types sont explicites alors que les deux autres sont plus insidieux.

La première mesure de surveillance de masse française est celle qui fait spécifiquement l’objet de la sixième question posée par la Cour et qui concerne la collecte et l’analyse automatisée des données de l’ensemble des utilisateurs d’un réseau. Ce qui a familièrement été appelé « boites noires » par le gouvernement. J’y reviendrai après avoir répondu à la présente question.

La deuxième mesure de surveillance de masse en droit français est celle qui concerne la surveillance internationale. Les associations l’ont déjà longuement détaillée dans leurs observations écrites, je me bornerai donc à un rappel sommaire.

Le caractère massif de cette surveillance concerne tant la collecte que l’exploitation des données. Et ces dernières sont relatives tant au contenu des communications qu’aux données de connexion afférentes. Ces communications sont celles de la totalité d’une population dans une zone géographique donnée – un quartier, une ville, un pays, un continent…

Enfin, dernier rappel, et pas des moindres, : les personnes surveillées n’ont aucune voie de recours juridictionnelle pour contester une telle mesure.

Le troisième type de surveillance de masse permis en droit français est plus indirect : il résulte de la collaboration des services de renseignement français avec des services étrangers. Cette collaboration n’est soumise à aucun encadrement juridique en droit français.

Qu’il s’agisse du transfert de renseignement par les services français vers les services étrangers, ou l’inverse, ces transferts ne sont soumis à aucune condition, ni aucun contrôle. Dans son dernier rapport, la CNCTR, elle-même, le déplore soulignant que de tels échanges sont soustraits à tout encadrement juridique et à tout contrôle. Cette pratique est bien réelle et a, entre autres, été analysée par les sociologues Bauman, Bigo, Esteves, Guild, Jabri, Lyon et Walker, dans un article publié en 2015 dans la revue Culture & Conflits8Zygmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild, Vivienne Jabri, David Lyon et R. B. J. (Rob) Walker, « Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance », Cultures & Conflits [En ligne], 98 | été 2015, mis en ligne le 15 octobre 2016, consulté le 07 septembre 2019. URL : http://journals.openedition.org/conflits/19033 ; DOI : 10.4000/conflits.19033. Ils concluent à l’absence de pertinence de la distinction entre surveillance intérieure et surveillance extérieure et décrivent une sorte de « forum shopping » opéré entre États partenaires.

Plus grave, la CNCTR est explicitement interdite de consulter les renseignements transmis par les services étrangers.

Les deux derniers types de surveillance de masse dont je viens de vous parler reposent chacun sur le flou habituellement et habilement entretenu en France quant aux bornes de la surveillance de masse et à l’application des garanties associées.

Un exemple typique et récent des conséquences de cette confusion a été donné par un article du journal Le Monde du 24 avril dernier, qui révèle l’existence de ce que les services français appelleraient « l’entrepôt ».

Cet entrepôt constitue ce que l’on appelle, dans le milieu du renseignement, un « fusion center ». Il s’agit d’une structure visant à mutualiser les renseignements obtenus par les différents services. Les renseignements recueillis sur le territoire français se trouvent ainsi mélangés avec ceux collectés et exploitables de façon massive via les techniques de surveillance internationale. Les garanties associées aux différents régimes sont rendues caduques par ces mutualisations de données.

La loi française avait prévu un décret, notamment pour définir la façon dont ces deux types d’informations seraient séparées, mais ce décret n’a jamais été adopté. Un agent des services a expliqué au Monde, sous couvert d’anonymat, qu’un tel décret ne pouvait pas être adopté « pour défaut de base constitutionnelle ». Comprendre : décrire le système conduirait à en avouer les dérives.

Le danger intrinsèque des mesures de surveillance de masse est là : en pratique, il est impossible d’en délimiter effectivement les bornes. De tels logiques et fonctionnement « de masse » contamine nécessairement l’ensemble des activités de renseignement. Nous en avons ici une démonstration actuelle et concrète. La Quadrature du Net a déposé un recours contre « l’entrepôt » devant le Conseil d’État, et la décision de la Cour dans la présente affaire y sera décisive.

Enfin, le quatrième et dernier type de surveillance de masse dont je dois vous parler ne concerne plus ces aspects internationaux. Il a trait aux finalités qui, en droit français, autorisent la mise en œuvre de techniques de renseignement, tant sur le territoire national qu’à l’étranger.

Certaines finalités permettent théoriquement de surveiller toute la population et de transformer quasiment n’importe quelle technique de renseignement en mesure de surveillance de masse, qu’il s’agisse d’accéder au contenu des communications ou à leurs données de connexion.

Il en va ainsi de la défense des intérêts économiques et industriels de la France, qui sont définis arbitrairement par le Gouvernement, de la lutte contre l’usage de stupéfiants ou de l’organisation de manifestations non-déclarées. L’étendue de cette dernière finalité est d’autant plus inquiétante au regard des prétentions de la Présidence de la République dont je vous ai parlées plus tôt.

Un dernier point quant à ces finalités concerne les personnes qu’elles permettent de surveiller. À une seule exception près, à savoir, l’accès en temps réel aux données de connexion, toutes les techniques françaises de renseignement peuvent être réalisées au sujet de personnes à l’encontre desquelles il n’existe aucun soupçon de présenter une menace pour la société. Pour surveiller une personne, il suffit que sa surveillance soit susceptible de révéler des informations utiles à l’une des nombreuses et vagues finalités que les services peuvent poursuivre.

Ces deux éléments cumulés – des finalités indéfiniment larges et l’absence de toute exigence quant à de véritables soupçons – permettent à l’ensemble du dispositif de renseignement français de se muer en un système éprouvé, aux rouages parfaitement huilés, de surveillance de masse.

À l’inverse, la jurisprudence de la Cour exige des finalités strictement définies selon des critères objectifs et un véritable lien entre les personnes surveillées et les finalités poursuivies.

J’appelle donc la Cour à réaffirmer sa jurisprudence et à la renforcer, notamment en l’appliquant le plus concrètement possible aux cas d’espèces révélés par la présente affaire.

6. Analyse automatisée

La sixième question de la Cour concerne la première mesure de surveillance de masse que j’ai rapidement évoquée plus tôt pour la renvoyer aux développements que je vais faire à présent. La Cour nous interroge sur les abus rendus par l’analyse automatisée des données de l’ensemble des utilisateurs des moyens de communications électroniques.

Ici encore, il suffit de décrire la situation française pour répondre précisément à la question.

L’article L. 851-3 du code de la sécurité intérieure français autorise les services de renseignement à poser un dispositif, familièrement appelé « boites noires », à n’importe quel point du réseau d’un opérateur de télécommunications ou à l’entrée d’un serveur géré par un hébergeur.

Ces boites noires collectent et analysent automatiquement les données de toutes les communications qui transitent par ce point du réseau afin de détecter des comportements préalablement définis par les services comme étant suspects. Les données analysées concernent indifféremment toutes les personnes qui communiquent via ce point du réseau.

L’automatisation de l’analyse des communications fait légitimement craindre que l’État ne puisse, à brève échéance, surveiller l’ensemble de la population de certains quartiers, villes ou de l’ensemble du pays, ce qui serait impossible en ne reposant que sur un travail humain.

Le passage à l’échelle permis par l’automatisation informatique rend parfaitement concret les risques de surveillance de masse qui, en France, ne pouvaient sembler qu’assez théoriques il y a encore quelques années.

Quand la Cour a précisément demandé au gouvernement français de confirmer ou d’infirmer si les boites noires analysaient ou non les données de l’ensemble des communications qui passent par elles, le gouvernement, est resté taisant. Son silence ne peut être compris que comme valant confirmation, d’autant plus que le gouvernement n’a jamais cherché à dissimuler ce point par ailleurs. Néanmoins, la réponse écrite qu’a donné le gouvernement, bien que ne répondant pas à cette question, mérite d’être examinée.

Aux points 46 et 47 de ses réponses écrites, le gouvernement a écrit que les données analysées par les boites noires ne concernaient en aucun cas le contenu des communications.

Cette présentation est inexacte.

Les données analysées par les boites noires sont définies à l’article R. 851-5 du code de la sécurité intérieure. Ces données sont principalement des données de connexion que les opérateurs de télécommunications et les hébergeurs ont l’obligation de conserver. Mais pas seulement. Il s’agit aussi de données que les hébergeurs n’ont pas l’obligation de conserver mais qu’ils traitent à un moment ou un autre pour fournir leur service. Parmi ces données se trouvent « les données techniques […] relatives à l’identification […] d’un service de communication au public en ligne ».

Un « service de communication au public en ligne », défini à l’article premier de la loi pour la confiance dans l’économie numérique de 2004, est ce qu’on appelle couramment un « site Web ». Les boites noires sont donc autorisées à analyser « les données techniques relatives à l’identification » d’un site Web. Il s’agit typiquement du nom domaine ou de l’adresse d’une page Web. Or, ces informations concernent directement le contenu des correspondances ainsi que les informations consultées. Bien souvent, la simple adresse d’une page Web contient, à elle seule, l’ensemble du titre d’un article de presse. Ainsi, le droit français permet aux boites noires d’être configurées pour repérer toutes les personnes qui consultent des pages Web dont le nom de domaine ou l’adresse contient certains mots-clefs.

La réponse du gouvernement français aux questions de la Cour est contraire à la lettre du droit français.

D’ailleurs, le gouvernement lui-même le reconnaissait expressément, il y a tout juste un an, dans ses écritures qu’il présentait devant le Conseil d’Etat à propos des affaires ayant donné lieu aux présentes questions préjudicielles.

Dans ses ultimes observations en réplique du 26 juin 2018, dans l’affaire n° 397851 devant le Conseil d’État qui a mené à certaines des questions préjudicielles examinées par la Cour, le ministère de l’intérieur, admettait expressément, page 10, que les boites noires analysent des données qui relèvent du contenu des communications. Je le cite, tant son propos est clair, limpide et dépourvu de toute ambiguïté.

« Certaines données de connexion peuvent, en raison de leurs caractéristiques intrinsèques, également permettre l’identification de contenu. (…) certaines données peuvent révéler le contenu, de manière indirecte, de correspondances ou d’informations échangées. (…) les dispositions du décret ont prévu que ces données mixtes ne pouvaient être recueillies qu’en cas (…) de la mise en œuvre d’un algorithme. »

On ne peut que s’interroger sur les motifs, probablement peu avouables, qui ont poussé le gouvernement français à affirmer à la Cour l’exact inverse de ce qu’il reconnaissait devant le Conseil d’État un an plus tôt dans la même affaire.

Hélas !, la confusion ne s’arrête pas là. Aux points 80 et 81 de ses réponses à la Cour, la France prétend encore que le droit français interdit que les traitements identifient les personnes auxquelles les informations ou documents se rapportent.

Pourtant, ici encore, l’article R. 851-5 du CSI prévoit explicitement que les boites noires peuvent accéder à toute données « relatives à l’identification et à l’authentification d’un utilisateur ». La lettre de cette disposition contredit frontalement et radicalement les allégations de la France.

Enfin, au point 73 de ses réponses écrites, la France prétend que les boîtes noires « ne pourrai[en]t avoir ni pour objet ni pour effet de recueillir et de révéler des données telles que l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale des personnes physiques, qui sont, par définition, des données de contenu ».

Mes précédentes explications suffisent à infirmer cette allégation : les boites noires peuvent cibler certains mots, tant dais l’adresse des pages Web visitées que dans les pseudonymes des personnes. Ces mots peuvent largement suffire à cibler, ou simplement à révéler certaines origines ethniques, opinions politiques ou convictions religieuses.

Ma conclusion sur les boites noires sera donc la même que celle sur la surveillance internationale : en pratique, aucune mesure de surveillance de masse ne peut être effectivement bornée. Une telle mesure contamine nécessairement l’ensemble du système de renseignement. Les risques d’abus sont intrinsèques à cette technique, qui ne peut être que purement et simplement interdite.

Une autre affaire portée par deux des associations requérantes devant le Conseil d’État illustre parfaitement cette conclusion. L’ANSSI, l’administration française chargée de la sécurité informatique de l’État, a récemment reçu de la loi le pouvoir de déployer des boites noires qui fonctionnent de la même façon mais, cette fois-ci, dont la finalité est de détecter des attaques informatiques. Ici encore, M. Guillaume Poupard, directeur de l’ANSSI, admettait lors de son audition par l’Assemblée nationale, que ces boites noires analyseraient nécessairement le contenu des communications.

Je le cite : « Il va donc de soi que nous traitons des données, y compris des données personnelles. (…) nous y touchons de fait. (…) Prenons un exemple : le travail de détection consiste parfois à chercher au fin fond de pièces jointes, dans des courriers électroniques, pour y détecter un éventuel virus caché. ».

Une fois encore, la décision de la Cour sera déterminante dans cette autre affaire.

7. Distinction entre prévention et répression

Par sa septième question, la Cour demande s’il y a lieu de faire une distinction entre les mesures de prévention et de répression.

En matière de surveillance, le droit de l’Union a déjà tranché. La directive 2016/680 encadre tout traitement de données personnelles mise en œuvre par l’État qui est réalisé, pour faire court, en matière pénale. Aucune des obligations posées par cette directive ne fluctue selon qu’elle s’impose à des mesures de prévention ou de répression.

Cette homogénéité est inévitable tant les activités de prévention et de répression sont difficilement dissociables en pratique. Il est certes vrai qu’en droit français il existe une distinction entre la police administrative chargée de la prévention et la police judiciaire, chargée de la répression. Mais il est tout aussi vrai que cette distinction théorique est dans la pratique beaucoup plus incertaine – la jurisprudence du Tribunal des conflits le démontre – et conduit le juge à décider au cas par cas du régime applicable. Il convient, en outre, de rappeler que police administrative et police judiciaire sont exercées par les mêmes organes, dès lors qu’il ne s’agit que d’un critère matériel.

Il est ainsi impossible tant d’un point de vue théorique que pratique de prévoir des régimes ou justifications différentes selon que les mesures de surveillance sont réalisées à des fins préventives ou répressives.

8. Mesures alternatives à la conservation généralisée

Par sa huitième question, la Cour s’interroge sur l’existence de mesures légitimes qui pourraient être des alternatives efficaces à la conservation généralisée des données de connexion.

S’agissant de la conservation généralisée des données de connexion, les États membres ont systématiquement échoué à apporter le moindre élément matériel démontrant que les données volontairement conservées par les opérateurs, pour des raisons de sécurité ou de facturation, ne seraient pas suffisantes à la poursuite de leurs objectifs.

Au-delà de quelques enquêtes choisies spécifiquement par les États où l’accès à des données de connexion a été simplement utile, ils n’ont jamais démontré que cet accès était indispensable ni que les données nécessaires à la résolution des enquêtes ne seraient pas spontanément conservées par les opérateurs. La charge de la preuve repose sur les États. Cette charge ne saurait être renversée au prétexte de leur défaillance.

Il suffit de constater l’incapacité des États membres à poursuivre la réforme de la directive ePrivacy depuis déjà deux ans, précisément à cause de cette défaillance, pour réaliser que la démonstration qu’ils cherchent vainement à effectuer est impossible. La conservation généralisée des données de connexion n’est pas nécessaire et ne saurait donc jamais être proportionnée.

En contraste, l’avancée des débats sur le paquet dit « eEvidence » illustre un mouvement inverse : ces nouvelles dispositions vont notamment permettre aux autorités publiques d’émettre des injonctions de conservation aux prestataires techniques afin que ceux-ci conservent des données de connexion pour une durée allant jusqu’à 60 jours, empêchant « l’effacement, la suppression ou la modification des données concernées ».

S’agissant de la conservation généralisée des données de connexion par les hébergeurs, tel qu’imposée en droit français, l’absence de nécessité est encore plus flagrante. Le RGPD permet aux hébergeurs de traiter et de conserver un grand nombre de données personnelles pour de vastes catégories de finalité. De plus, et contrairement aux opérateurs de télécommunications, chaque personne est l’utilisatrice d’un très grand nombre de services rendus par des hébergeurs, qu’il s’agisse de réseaux sociaux, de sites de partages de vidéo ou de fichiers, etc.

Cette multitude d’acteurs rend l’identification des personnes, extrêmement simplifiée pour l’administration. Cette multiplicité accroît aussi considérablement la précision et la diversité des informations accessibles sur chaque personne. L’ampleur et la granularité des données ainsi disponibles pour l’administration ne dépend pas de l’obligation imposée aux hébergeurs mais de leur simple activité volontaire.

9. Surveillance des innocents

Par sa neuvième et dernière question, la Cour nous demande de définir les circonstances dans lesquelles des mesures de surveillance peuvent viser des personnes à l’encontre desquelles ne pèse aucun soupçon de représenter une menace.

La jurisprudence de la Cour prévoit que ce cas doit demeurer exceptionnel, la règle étant que seules les personnes soupçonnées de représenter une menace sont susceptible d’être surveillées. Comme je l’ai déjà dit, en droit français, cette exception est au contraire la règle : l’existence de soupçons à l’encontre d’une personne n’est jamais une condition à la mise en œuvre d’une technique de renseignement la concernant.

Il m’est alors impossible de décrire en droit français les conditions qui rendraient raisonnable de surveiller des personnes hors de tout soupçon tant ce scénario est étranger à la situation actuelle. Il est toutefois manifeste que plusieurs des conditions requises par le droit de l’Union pour une telle surveillance ne seraient pas remplies en droit français. Parmi les conditions indispensables absentes en droit français se trouve celles liées à (i) l’information des personnes concernées, (ii) au contrôle préalable et (iii) au droit à un recours effectif.

Il est parfaitement inadmissible que, les innocents surveillés ne soient jamais informés des mesures qu’ils ont subies. Cette obligation d’information est déjà imposée par la directive 2016/680, sans exception, peu importe qu’il existe ou non des soupçons contre les personnes concernées. A ce jour, s’agissant des activités de renseignement cette directive n’a pas été transposée en France, contrairement à ce qu’elle prétend devant la Commission.

De même, les risques d’abus liés à la surveillance de personne totalement innocentes sont décuplés en l’absence de contrôle indépendant préalable à la mise en œuvre de techniques de renseignement à l’encontre de ceux-ci.

La CNCTR ne dispose d’aucun pouvoir de contrôle préalable : ses seuls pouvoirs n’interviennent qu’après qu’une technique a été mise en œuvre et se limitent à la saisine de la formation spécialisée du Conseil d’État, alors même que cette saisine est dépourvue de tout effet suspensif.

L’administration peut donc librement collecter des renseignements sur une personne totalement innocente de façon illégale pendant une durée substantielle sans qu’aucune autorité indépendante ne puisse l’en empêcher. Le Conseil d’État ne peut que lui demander a posteriori de supprimer les données collectées, une fois que l’atteinte illicite est caractérisée et l’illégalité consommée.

Enfin, il est inadmissible que les innocents surveillés n’aient pas accès à l’entier dossier les concernant lorsqu’ils saisissent eux-mêmes la formation spécialisée du Conseil d’État, afin de contester la validité d’une mesure qu’ils ont subi. Ce droit au recours effectif est reconnu à toute personne surveillée, même celles à l’encontre desquelles pèsent des soupçons. Mais la gravité de son défaut devient encore plus flagrante s’agissant de personne hors de tout soupçon.

A titre d’exemple une journaliste française, Mme Camille Polloni, à l’issue d’une bien trop longue procédure et semée d’embûches, a finalement vu reconnaitre, par le Conseil d’Etat, qu’elle avait été illégalement fichée par la Direction du Renseignement Militaire, mais n’a jamais pu savoir ni comment, ni pourquoi, ni obtenir la moindre information, compensation ou enquête sur ce fichage, pourtant manifestement illégal.

Pour répondre précisément à la dernière question de la Cour, je me bornerai donc à donner ces trois éléments comme conditions indispensables, mais non exhaustives, à la surveillance de personnes qui ne font l’objet d’aucun soupçon : (i) information systématique de la surveillance subie une fois que l’enquête a pris fin ; (ii) contrôle préalable indépendant ; (iii) recours effectif, qui implique notamment l’accès à l’entier dossier.

Conclusion

Dans le contexte actuel, marqué par l’émergence de nouvelles formes de surveillance exploratoires, qui tendent notamment à reconnaître, dans l’espace public urbain, des individus et des comportements suspects – reconnaissance faciale ou, encore, police prédictive – le bras de fer qui oppose plusieurs Etats européens à votre Cour est fondamental pour le futur de la démocratie et de l’Etat de droit.

Dans ce bras de fer, le Conseil d’Etat français a clairement pris parti en refusant d’appliquer votre jurisprudence, pour vous inviter fermement à en changer. Je vous appelle à tenir votre position, fondée sur des principes fondamentaux, et à réitérer votre rejet de la surveillance de masse et votre attachement au droit à vivre sans être surveillé.

C’est dans le sens de ces observations que je vous invite à statuer. Je reste à votre entière disposition pour répondre à vos éventuelles questions.

References   [ + ]

1. CJUE, 30 avril 2014, Pfleger e.a., aff. n° C-390/12, pts. 33, 35 et 36 ; CJUE, 14 juin 2017, Online Games e.a., aff. n° C-685/15, pts. 54-57 ; CJUE, 21 mai 2019, Commission c/ Hongrie (Usufruits sur terres agricoles), aff. n° 235/17
2. A. Casili, « En attendant les robots. Enquête sur le travail du clic. », Seuil, 2019. D. Cardon et A. Casili, « Qu’est-ce que le Digital Labor ? », INA, 2015.
3. https://www.facebook.com/notes/facebook-data-science/the-formation-of-love/10152064609253859 ; https://www.journaldunet.com/ebusiness/le-net/1135019-facebook-sait-avant-vous-quand-vous-tombez-amoureux/
4. Chilling effects: Online surveillance and Wikipedia use (JW Penney – Berkeley Tech. LJ)
5. Government Surveillance and Internet Search Behavior (Alex Marthews & Catherine Tucker, MIT)
6. The chilling effect of government surveillance programs on the use of the internet by Muslim-Americans (DS Sidhu – U.
7. https://en.wikipedia.org/wiki/Spiral_of_silence
8. Zygmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild, Vivienne Jabri, David Lyon et R. B. J. (Rob) Walker, « Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance », Cultures & Conflits [En ligne], 98 | été 2015, mis en ligne le 15 octobre 2016, consulté le 07 septembre 2019. URL : http://journals.openedition.org/conflits/19033 ; DOI : 10.4000/conflits.19033
]]>
[CNET] À l’ère de la reconnaissance faciale, faut-il aussi protéger nos visages ?https://www.laquadrature.net/?p=14866http://streisand.me.thican.net/laquadrature.net/index.php?20191011_130000__CNET__A_l___ere_de_la_reconnaissance_faciale__faut-il_aussi_proteger_nos_visages___Fri, 11 Oct 2019 11:00:00 +0000Nos visages méritent-ils d’être autant protégés que nos informations personnelles ? La reconnaissance faciale débarque, sans réel encadrement, et la protection des données biométriques reste plus que jamais essentielle… […]

« La reconnaissance faciale, c’est pour nous un outil de surveillance de masse. Elle exploite votre visage – quelque chose que vous ne pouvez pas cacher -, ce qui fait que vous êtes reconnu et surveillé constamment dans l’espace public, sans pouvoir vous y opposer, contrairement au principe du libre consentement du RGPD« , affirme Martin Drago, avocat spécialisé dans le droit des données personnelles et membre de la Quadrature du Net. […]

https://www.cnetfrance.fr/news/l-ere-de-la-reconnaissance-faciale-faut-i…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[20Minutes] Nice : Caméra, reconnaissance faciale, détecteur de bruits… Un collectif lancé pour « résister à la surveillance »https://www.laquadrature.net/?p=14868http://streisand.me.thican.net/laquadrature.net/index.php?20191011_120000__20Minutes__Nice____Camera__reconnaissance_faciale__detecteur_de_bruits____Un_collectif_lance_pour_____resister_a_la_surveillance____Fri, 11 Oct 2019 10:00:00 +0000La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des conseils de parents d’élèves s’associent.

Dans une petite salle sans fenêtre du centre-ville de Nice, ça cause « big data », « smart-city » et « intelligence artificielle ». Des mots qui, accolés aux questions de sécurité, inquiètent les responsables de la Quadrature du Net, de la Ligue des droits de l’Homme, de la FCPE 06 et de la CGT 06. Ces quatre organisations lancent « Technopolice », une campagne « contre la surveillance technologique de l’espace urbain à des fins policières ». Le mouvement entend « résister à la surveillance totale de nos villes et de nos vies ». […]

https://www.20minutes.fr/nice/2605395-20190917-nice-camera-reconnaissanc…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[CNET] Avec « Technopolice », la Quadrature du Net prend les armes contre les « smart cities »https://www.laquadrature.net/?p=14867http://streisand.me.thican.net/laquadrature.net/index.php?20191011_110000__CNET__Avec_____Technopolice______la_Quadrature_du_Net_prend_les_armes_contre_les_____smart_cities____Fri, 11 Oct 2019 09:00:00 +0000Avec la plateforme « Technopolice », l’association appelle à la mobilisation contre la surveillance des citoyens dans les nouvelles « villes intelligentes ». Ses militants s’insurgent contre la présence grandissante des nouvelles technologies dans l’espace urbain. […)

Reconnaissance faciale, capteurs sonores, police prédictive… lesdites technologies sont nombreuses et envisagées par un nombre croissant de municipalité. La QDN veut alerter contre leur généralisation et les risques qu’elles représenteraient pour les libertés de chacun. […]

https://www.cnetfrance.fr/news/avec-technopolice-la-quadrature-du-net-pr…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FrequenceProtestante] Internet et sa gouvernancehttps://www.laquadrature.net/?p=14775http://streisand.me.thican.net/laquadrature.net/index.php?20191010_130000__FrequenceProtestante__Internet_et_sa_gouvernanceThu, 10 Oct 2019 11:00:00 +0000[NDLRP : Sylvain Steer du CECIL et de La Quadrature du Net dans l’émission enregistrée le 14 juin et dont la deuxième partie a été diffusée le 22 septembre 2019, dans l’émission Parole aux associations de Fréquence protestante avec Nathalie Zanon.]

https://frequenceprotestante.com/diffusion/mouvement-international-de-la…

NDLRP – Vidéo à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Mediapart] Le collectif Technopolice appelle à la mobilisation contre les « safe cities »https://www.laquadrature.net/?p=14776http://streisand.me.thican.net/laquadrature.net/index.php?20191010_120000__Mediapart__Le_collectif_Technopolice_appelle_a_la_mobilisation_contre_les_____safe_cities____Thu, 10 Oct 2019 10:00:00 +0000Un collectif d’associations et de syndicats, dont la Quadrature du Net, la CGT, la LDH et la FCPE, lance une campagne de mobilisation contre les nouveaux outils de surveillance urbains tels que la vidéosurveillance intelligente, la reconnaissance faciale, l’analyse du big data ou encore les capteurs sonores. […]

« Depuis presque deux ans, la Quadrature du Net et d’autres associations se sont intéressées au développement des soi-disant “villes intelligentes”, les “smart cities” comme on les appelle, et surtout à leurs aspects sécuritaires, a expliqué Martin Drago de LQDN. Avec les dernières avancées, en intelligence artificielle, en big data, on a constaté le développement d’outils de surveillance, de divers projets un peu partout en France. » […]

https://www.mediapart.fr/journal/france/160919/le-collectif-technopolice…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[GQ] Vidéosurveillance : les drones sont-ils vraiment nos alliés ?https://www.laquadrature.net/?p=14777http://streisand.me.thican.net/laquadrature.net/index.php?20191010_110000__GQ__Videosurveillance____les_drones_sont-ils_vraiment_nos_allies___Thu, 10 Oct 2019 09:00:00 +0000Le drone s’impose peu à peu comme la solution de surveillance ultime. Mais la prolifération de ces engins pose certaines questions juridiques et éthiques. […]

[…] Derrière l’argument de « tranquillité urbaine », Martin Drago, juriste à La Quadrature du Net – le collectif militant qui a révélé l’étendue du projet – pointe une dérive qui menace nos libertés individuelles. « Après la prolifération des caméras fixes, on arrive au second stade de la “safe city” avec la reconnaissance faciale et la multiplication des caméras mobiles, notamment les drones. Alors que l’efficacité de la vidéosurveillance est contestée et avant même qu’un débat soit organisé, on applique la deuxième couche. Or, est-ce que les propriétés privées sont bien floutées comme l’exige la loi ? Combien de temps sont gardées les images ? Même la CNIL a dit en octobre 2018 qu’en l’absence de cadre juridique, elle est dépassée et n’a donc plus le pouvoir de dire non. Autrement dit, on utilise de nouveaux outils et on applique de nouvelles méthodes sans autorité de contrôle. » […]

https://www.gqmagazine.fr/lifestyle/article/videosurveillance-les-drones…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[France3] Des associations réunies à Nice pour dénoncer la surveillance technologique des villeshttps://www.laquadrature.net/?p=14751http://streisand.me.thican.net/laquadrature.net/index.php?20191009_130000__France3__Des_associations_reunies_a_Nice_pour_denoncer_la_surveillance_technologique_des_villesWed, 09 Oct 2019 11:00:00 +0000[…] Une campagne contre la prolifération « sans débat ni contrôle » de projets utilisant les nouvelles technologies à des fins policières a été lancée à Nice, ville championne de la vidéosurveillance, par quatre associations et syndicats (Quadrature du net, CGT, Ligue des Droits de l’Homme et FCPE).

A l’image de la reconnaissance faciale testée au Carnaval de Nice en février, en forçant la main à la Commission nationale de l’Informatique et des libertés (Cnil), « ces outils de surveillance se développent sans débat public et sans contrôle (…) », explique Martin Drago, juriste de l’ONG La Quadrature du net. […]

https://france3-regions.francetvinfo.fr/provence-alpes-cote-d-azur/alpes…

NDLRP – Vidéo à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInter] Félix Tréguer: « L’Utopie déchue, une contre-histoire d’Internet »https://www.laquadrature.net/?p=14752http://streisand.me.thican.net/laquadrature.net/index.php?20191009_120000__FranceInter__Felix_Treguer______L___Utopie_dechue__une_contre-histoire_d___Internet____Wed, 09 Oct 2019 10:00:00 +0000Le chercheur associé au Centre Internet et Société du CNRS et membre fondateur de la Quadrature du Net est l’invité de Patricia Martin pour son ouvrage « L’Utopie déchue, une contre-histoire d’Internet ».

https://www.franceinter.fr/emissions/la-personnalite-de-la-semaine/la-pe…

NDLRP – Entretien à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Mediapart] Internet: face à « l’utopie déchue », « débrancher les machines »https://www.laquadrature.net/?p=14753http://streisand.me.thican.net/laquadrature.net/index.php?20191009_110000__Mediapart__Internet__face_a_____l___utopie_dechue__________debrancher_les_machines____Wed, 09 Oct 2019 09:00:00 +0000Dans L’Utopie déchue. Une contre-histoire d’Internet, le sociologue et hacktiviste Félix Tréguer tire les conséquences de l’échec des mouvements nés des contre-cultures numériques et propose de renouveler la technocritique. « Ce qu’il nous faut d’abord et avant tout, c’est débrancher la machine. » […]

En définitive, c’est au contraire un livre enthousiasmant, qui tente de refonder la technocritique pour trouver de nouvelles stratégies. « Face à ceux qui, découragés par l’apparente incommensurabilité de Big Brother, seraient tentés de verser dans l’apathie », écrit Félix Tréguer, Gilles Deleuze « affirmait qu’entre la souveraineté, les disciplines ou le contrôle, “il n’y a pas lieu de demander quel est le régime le plus dur, ou le plus tolérable, car c’est en chacun d’eux que s’affrontent les libérations et les asservissements”. Ce qu’il faut, expliquait-il, c’est “chercher de nouvelles armes” ». […]

https://www.mediapart.fr/journal/culture-idees/140919/internet-face-l-ut…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] La conservation généralisée des données de connexion devant la justice européennehttps://www.laquadrature.net/?p=14754http://streisand.me.thican.net/laquadrature.net/index.php?20191008_130000__NextINpact__La_conservation_generalisee_des_donnees_de_connexion_devant_la_justice_europeenneTue, 08 Oct 2019 11:00:00 +0000Trois affaires importantes sont audiencées aujourd’hui à partir de 9h30 devant la Cour de justice de l’Union européenne. La grande chambre de la juridiction examinera d’abord l’affaire « C-623-17 Privacy International ». […]

Dans les affaires jointes « C-511/18 La Quadrature du Net » et « C-512/18 French Data Network », les deux organisations s’opposent cette fois à certains pouvoirs des services du renseignement français. […]

Plus largement, ces deux procédures visent à demander si l’obligation de conservation généralisée des données de connexion est justifiée sur l’autel du droit européen. Enfin, dans l’affaire C-520/18 dite « Ordre des barreaux francophones et germanophones », c’est cette fois le droit belge qui est visé. […]

https://www.nextinpact.com/brief/la-conservation-generalisee-des-donnees…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Facebook, il ne lui manque plus que la monnaiehttps://www.laquadrature.net/?p=14755http://streisand.me.thican.net/laquadrature.net/index.php?20191008_120000__FranceCulture__Facebook__il_ne_lui_manque_plus_que_la_monnaieTue, 08 Oct 2019 10:00:00 +0000Quelles sont les caractéristiques du libra, la nouvelle cryptomonnaie proposée par Facebook ? En quoi le lancement du libra peut-il être considéré comme une innovation de rupture ? Comment va-t-il impacter le monde des cryptomonnaies ? […]

Reportage Céline Loozen : blockchain et algorithme de consensus derrière le Libra avec Axel Simon.

https://www.franceculture.fr/emissions/la-methode-scientifique/facebook-…

NDLRP – Entretien à retrouver aussi sur le Peertube de La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LesEchos] Facebook relance le débat sur la portabilité des donnéeshttps://www.laquadrature.net/?p=14756http://streisand.me.thican.net/laquadrature.net/index.php?20191008_110000__LesEchos__Facebook_relance_le_debat_sur_la_portabilite_des_donneesTue, 08 Oct 2019 09:00:00 +0000Le réseau social a publié ce mercredi un livre blanc sur ce nouveau droit instauré par le RGPD. Facebook espère ainsi clarifier certains points techniques avec les gouvernements tout en gagnant, assez habilement, du temps sur le sujet. […]

Mais certaines associations, comme La Quadrature du Net, plaident pour une interopérabilité complète. Ce qui permettrait par exemple à un utilisateur de Messenger de dialoguer avec un utilisateur de Twitter, de la même façon qu’un client Orange peut appeler un abonné SFR. « Sans ça, la portabilité ne sert strictement à rien, car on reste captif des Gafam », estime Martin Drago, juriste au sein de l’association. […]

https://www.lesechos.fr/tech-medias/hightech/facebook-relance-le-debat-s…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMonde] « Portabilité des données » : sous pression, Facebook ripostehttps://www.laquadrature.net/?p=14757http://streisand.me.thican.net/laquadrature.net/index.php?20191007_130000__LeMonde______Portabilite_des_donnees________sous_pression__Facebook_riposteMon, 07 Oct 2019 11:00:00 +0000Sommée de rendre possible de quitter le réseau social en emmenant ses contacts et ses contenus, l’entreprise publie un Livre blanc qui soulève des objections. […]

La Quadrature du Net n’est toutefois pas convaincue : « Voir Facebook donner des leçons sur la vie privée, c’est ironique… L’interopérabilité, c’est justement l’idée que les gens puissent contrôler quelles données ils mettent sur quel réseau social, explique Martin Drago, juriste de l’association. Et l’interopérabilité entre Orange et SFR, pour le téléphone, ou entre Gmail et La Poste, pour les e-mails, cela n’a pas vraiment posé de question de vie privée… » Le volontarisme de Facebook sur la portabilité des données est en tout cas un signe que les débats sur ce thème vont s’animer.

https://www.lemonde.fr/economie/article/2019/09/04/portabilite-des-donne…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[EconomieNumerique] La Quadrature du Net s’attaque à l’entrepôt de données du renseignementhttps://www.laquadrature.net/?p=14758http://streisand.me.thican.net/laquadrature.net/index.php?20191007_120000__EconomieNumerique__La_Quadrature_du_Net_s___attaque_a_l___entrepot_de_donnees_du_renseignementMon, 07 Oct 2019 10:00:00 +0000Sur fond de lutte anti-terroriste, les services de renseignement français peuvent accéder à des données personnelles. Plusieurs lois ont offert un cadre juridique à ces pratiques de surveillance. Un « entrepôt » centralisant des données collectées par les services de renseignement a récemment été révélé dans les colonnes du Monde. Cet entrepôt ne repose pourtant sur aucun encadrement légal. […]

Face à un tel constat, l’association la Quadrature du Net, association de défense des droits et libertés des citoyens sur Internet a donc entrepris d’attaquer ce dispositif devant le Conseil d’Etat en juin 2019. […]

http://blog.economie-numerique.net/2019/09/02/la-quadrature-du-net-satta…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[CAPITAL] Données perso : 10 réflexes à adopter pour protéger votre vie privéehttps://www.laquadrature.net/?p=14759http://streisand.me.thican.net/laquadrature.net/index.php?20191007_110000__CAPITAL__Donnees_perso____10_reflexes_a_adopter_pour_proteger_votre_vie_priveeMon, 07 Oct 2019 09:00:00 +0000[…] « On a beau reconnaître tous les droits qu’on veut, il faut que les gens s’en saisissent pour qu’il y ait des effets », souligne Alexis, membre de La Quadrature du Net. En 2018, cette dernière a ainsi déposé devant la Cnil une plainte réunissant 12.000 personnes contre les Gafam. En janvier dernier, l’instance a sanctionné Google à hauteur de 50 millions d’euros, argumentant que le ciblage publicitaire d’Android n’était pas conforme au RGPD, la loi européenne entrée en application le 25 mai 2018. De même, pensez à vous adresser à la Cnil en cas de soupçon de violation de vos droits. Par exemple, lorsque vous tombez sur des sites qui conditionnent leur accès à l’acceptation des conditions d’utilisation, ce qui est contraire au RGPD.

https://www.capital.fr/lifestyle/donnees-perso-10-reflexes-a-adopter-pou…

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Ce que nous avions à dire à ceux qui bâtissent la technopolicehttps://www.laquadrature.net/?p=14721http://streisand.me.thican.net/laquadrature.net/index.php?20190927_160211_Ce_que_nous_avions_a_dire_a_ceux_qui_batissent_la_technopoliceFri, 27 Sep 2019 14:02:11 +0000Rappel : La reconnaissance faciale s’apprête à déferler en France. Pour documenter et résister à ces déploiements, rendez-vous sur technopolice.fr et son forum !

Mardi 24 septembre, La Quadrature était conviée à la « vingt-quatrième journée technico-opérationnelle de la sécurité intérieure », qui se tenait dans un amphithéâtre bondé de la Direction générale de la gendarmerie nationale. Ces rencontres sont organisées tous les six mois par le ministère de l’intérieur, et celle-ci avait pour thème : « reconnaissance faciale : applications – acceptabilité – prospective ».

Les rencontres « technopolice » sont marquées par un fort entre-soi, mêlant fonctionnaires du ministère de l’intérieur, chercheurs et industriels de la sécurité (à l’exception de la Quadrature, un avocat critique était également invité, ainsi que deux personnes de la CNIL qui s’en sont tenu à un simple rappel du droit applicable). Et dans cette atmosphère feutrée, notre intervention semble avoir détonné, comme en témoigne le compte-rendu de cette journée publié par l’Essor, le journal des gendarmes.

Nous étions sincèrement reconnaissants de l’invitation, et contents d’assister à des présentations fournissant des informations de première main qui sont autrement très difficiles d’accès pour les militants ou chercheurs travaillant sur ces questions. Nous l’avons rappelé en introduction de notre propos. Mais pour nous, l’enjeu était aussi de faire valoir une parole dissonante et de rappeler que, au moment où la reconnaissance faciale s’apprête à déferler dans nos sociétés, ces échanges entre opérationnels et développeurs industriels devaient faire l’épreuve de la controverse.

Voici donc une sorte de verbatim plus ou moins fidèle de notre intervention…

« Merci de votre invitation. De tels échanges sont trop rares. Et en dépit des désaccords fondamentaux, ils ont le mérite de créer un peu de porosité entre nos mondes.

La Quadrature du Net est une association fondée en 2008 pour résister aux formes de contrôle d’Internet qui allaient à l’encontre des libertés publiques. Aujourd’hui, nous nous rendons pleinement compte de la justesse des combats des années 1960 et 1970, où des groupes militants associaient l’informatique à la domination bureaucratique. Ils l’associaient à un régime technocratique plutôt que démocratique, non pas fondé sur l’autonomie et la liberté mais sur l’expertise alléguée de quelques hauts pontes formés dans les écoles d’élite.

Ce régime technocratique est toujours le nôtre. L’insistance mise sur le critères d’efficacité lors de cette journée l’illustre de bien, de même que l’extrême faiblesse de la prise en compte des aspects non seulement juridiques et éthiques, mais aussi proprement politiques de technologies comme la reconnaissance faciale.

La domination technocratique évite la confrontation démocratique. Ces 24ème rencontres « Technopolice » en fournissent là encore un exemple : aucune information ne doit filtrer, les participants étant astreints à un « engagement de non-divulgation ». De même, la présence en ligne de ces rencontres qui existent depuis années est quasi nulle. De fait, aucune information ne filtre. Une confidentialité qui entache tout ce dont on discute ici d’un grave déficit de légitimité démocratique, alors même que tout cela est incontestablement d’intérêt public.

Indirectement, l’extrême discrétion qui entoure cet événement nous a été utile, nous permettant d’utiliser le mot « technopolice » pour lancer, avec d’autres acteurs associatifs, notre propre campagne le 16 septembre dernier. En inscrivant le terme dans un moteur de recherche pour voir si nous étions les premiers à vouloir l’utiliser, nous avions découvert des traces de ces rencontres, mais si peu nombreuses que nous avions alors pensé que ce n’était pas un problème que de reprendre ce terme à notre compte (et ce n’est que quelques mois plus tard que nous recevions votre invitation à venir ici aujourd’hui…).

En écoutant vos présentations, nous mesurons une nouvelle fois le fossé qui sépare la réalité des usages de l’informatique dans le cadre de la surveillance d’État, et les informations publiques qui filtrent à leur sujet. C’est justement contre ce secret que notre campagne vise à documenter les projets technopoliciers, et à permettre à chacun de se mobiliser pour dire notre refus collectif de ces outils de contrôle qui essaiment partout en France.

Ces technologies sont très largement développées dans le cadre de la recherche publique, parfois au travers un contournement assumé du cadre juridique applicable en Europe. C’est par exemple le cas lorsque des chercheurs français travaillent avec des homologues chinois pour perfectionner leurs algorithmes de reconnaissance faciale grâce aux bases de données de visages de citoyens chinois. Ou, comme on l’a appris ce matin, quand le gouvernement français passe un accord de sécurité avec celui de Singapour afin qu’un industriel français puisse passer outre les réserves de la CNIL et expérimenter le scan en temps réel sur les visages d’une foule dans un hub de transport de la ville-État. On ne peut s’empêcher de voir dans ces manœuvres un écho pas si lointain des expérimentations et mesures d’exception pratiquées à l’époque coloniale sur les peuples colonisés, avant d’être réimportées en métropole.

Outre la recherche publique, ces développements technologiques sont pilotés par des personnes en situation relevant plus ou moins directement du conflit d’intérêt, avec de nombreux croisements et hybridations entre secteur public et privé. Ils aboutissent aujourd’hui à des expérimentations locales hautement subventionnées pour assurer la compétitivité des industriels français sur ce marché porteur. Le tout, là encore, sans information transparente ni vrai débat public. Rien ne doit entraver le progrès de la technopolice.

La question de la légalité de ces outils est aussi largement éludée. Et quand elle est abordée, c’est toujours pour évoquer les restrictions que le cadre juridique existant imposerait à leur développement, et non sur les atteintes graves et injustifiables que ces outils portent à nos libertés fondamentales. Nos libertés d’expression, de manifestation, d’aller et venir sont pourtant bien en jeu ici, tout comme notre droit à la vie privée. Il faut s’interroger sur l’atteinte intrinsèquement disproportionnée à nos libertés que représente un outil comme la reconnaissance faciale, disproportion que souligne d’ailleurs la ville de San Francisco dans son ordonnance qui en interdit l’usage à ses policiers : « La propension de la technologie de reconnaissance faciale à mettre en danger les droits civils et les libertés civiles l’emporte largement sur les avantages escomptés (…) ». Il faut aussi s’interroger sur la compatibilité des dispositifs fantasmés par la Préfecture de police de Paris et bien d’autres avec la jurisprudence du Conseil Constitutionnel qui soulignait, déjà en 1993, l’illégalité de « pratique de contrôles d’identité généralisés et discrétionnaires ».

C’est pour cette raison que nous avons déjà déposé deux recours, pour lutter contre la normalisation et la banalisation d’un tel outil : l’un contre la délibération de la Région Sud autorisant une expérimentation de portiques biométriques dans deux lycées, l’autre contre l’application AliceM, développée par le ministère de l’Intérieur, et qui veut faire de la reconnaissance faciale une la clé de voûte d’une future identité numérique.

Sans doute aimeriez-vous que, face à l’inéluctabilité de nouvelles lois destinées à encadrer les dispositifs présentés aujourd’hui, nous puissions offrir des conseils sur ce que seraient des lois « socialement acceptables » et « juridiquement soutenables » ? Le Forum Économique Mondial et le Conseil national du numérique nous ont eux aussi proposé (sans succès) de participer à une série de dialogues sur l’encadrement de la reconnaissance faciale. Un peu plus de transparence, un semblant de contrôle par la CNIL, une réduction des biais racistes et autres obstacles apparemment « techniques » auxquels se heurtent ces technologies, et l’on croit possible d’assurer un compromis « éthique » entre la défense automatisée de l’ordre public et l’État de droit.

Ces projets de loi viendront. Le pouvoir politique y sera réticent car, sauf à instrumentaliser les enjeux de sécurité (ce dont il est certes désormais coutumier), il n’y a généralement pas grand-chose à gagner à faire passer des lois de surveillance. Pour notre part, il est probable nous soyons une nouvelle fois contraints de travailler sur ces projets de loi sécuritaires, pour défendre les droits humains et limiter la casse. Pour utiliser le droit dans le but d’entraver au maximum l’usage de ces technologies.

Mais nous vous le disons tout net : après y avoir réfléchi, nous considérons que la reconnaissance faciale et autres technologies technopolicières doivent être proscrites. Elles mènent l’humanité vers une pente dangereuse, en permettant d’insidieuses formes de contrôle au bénéfice de quelques maîtres, seuls capables de « réviser les paramètres » des machines à leur service.

Plutôt que de discuter des modalités d’un « encadrement approprié », nous exprimons donc notre refus vis-à-vis de ces technologies policières. Nous pensons à nos grand-mères et à nos grand-pères qui, s’ils avaient du vivre au début des années 1940 dans un monde saturé des technologies que vous fabriquez, n’auraient pas survécu plus de trois semaines dans la clandestinité, et n’auraient donc pas pu organiser des réseaux de solidarité dissidents pour résister au régime nazi.

Nous disons notre refus car pour nous, la sécurité c’est d’abord des logements dignes, un air sain, la paix économique et sociale, l’accès à l’éducation, la participation politique, l’autonomie patiemment construite. Et que ces technologies n’apportent rien de tout cela. Elles semblent d’abord et avant tout conçues pour vider nos régimes politiques de tout essence démocratique en assurant un téléguidage de nos conduites. Sous prétexte d’efficacité, elles aboutissent à déshumaniser encore davantage les rapports qu’entretiennent les bureaucraties policières avec la population.

C’est peut être l’une des premières fois que, vous tous qui travaillez depuis longtemps sur ces déploiements technologiques, vous êtes confrontés a une opinion réellement dissonante. Peut être y verrez-vous le signe de l’inutilité de ce type d’échanges. Nous espérons qu’au contraire, vous comprendrez qu’il s’agit d’une confrontation nécessaire trop longtemps retardée – retardée jusqu’à nous mettre pratiquement dans la situation du fait accompli. Vous ne pourrez plus y échapper. Vous devez entendre notre refus ».

]]>
La Quadrature du Net ouvre la bataille contre la Technopolicehttps://www.laquadrature.net/?p=14713http://streisand.me.thican.net/laquadrature.net/index.php?20190916_110453_La_Quadrature_du_Net_ouvre_la_bataille_contre_la_TechnopoliceMon, 16 Sep 2019 09:04:53 +0000Appel à participation : rejoignez la campagne Technopolice !

En lien avec la conférence de presse tenue à Nice ce matin avec la Ligue des Droits de l’Homme, la FCPE et CGT-Educ, La Quadrature du Net lance un appel à rejoindre la campagne « Technopolice » pour s’opposer aux « Smart City » policières. Elle invite également toutes les organisations intéressées à signer le manifeste associé à cette campagne pour résister à la mise sous surveillance totale de nos villes et de nos vies.

La Smart City révèle enfin son vrai visage : celui d’une mise sous surveillance totale de l’espace urbain à des fins de contrôle. De Nice à Valenciennes en passant par Toulouse, Saint-Étienne, Strasbourg ou Paris, la surveillance massive s’ancre dans l’urbanité. Reconnaissance faciale, police prédictive, surveillance en temps réel des réseaux sociaux : les industriels de la sécurité s’allient aux inconséquents qui peuplent trop souvent nos mairies pour tester et déployer leurs derniers gadgets sécuritaires.

Depuis près d’un an, grâce à des lanceu·ses.rs d’alerte qui nous ont fait parvenir des documents ou en utilisant les lois en matière de transparence administrative, La Quadrature a commencé à documenter ces projets (par exemple à Nice et à Marseille). Après quelques réunions publiques, et après avoir rencontré la CNIL et constaté son coupable laisser-faire, nous avons lancé une première action en justice contre l’expérimentation de la reconnaissance faciale dans les lycées de la région Sud, en lien avec la Ligue des Droits de l’Homme, la CGT-Educ et la FCPE.

Ces initiatives ne font que lever le voile sur ces projets et expérimentations. Pour vraiment porter, elles doivent être démultipliées. C’est dans ce but que nous avons lancé aujourd’hui une plateforme collaborative permettant de fédérer des collectifs d’opposition à la Technopolice.

L’objectif de la plateforme Technopolice sera double : documenter de la manière la plus rigoureuse possible le déploiement de ces projets de surveillance à travers le pays, et construire ensemble des outils et des stratégies de mobilisation capables de les tenir en échec. L’enjeu, c’est de parvenir à organiser des résistances locales en les fédérant afin qu’elles puissent se nourrir les unes les autres.

Seules, ni la petite équipe de La Quadrature du Net ni même les quelques personnes et organisations aujourd’hui mobilisées sur le terrain ne pourront pas grand-chose. Il nous faut réunir un maximum de gens pour faire vivre cette campagne, en particulier au niveau local chaque fois qu’un projet de Smart City sécuritaire verra le jour.

C’est pourquoi nous lançons un appel à participation. Certains de ces groupes locaux pré-existent, par exemple ceux qui se sont engagés contre la vidéosurveillance ces dix dernières années. Dans d’autres cas, ils sont déjà en voie de formation. Et parfois, ils restent à construire. Mais dans tous les cas, la plateforme Technopolice et les outils associés permettront de faciliter leur travail ainsi que leur coordination.

Si vous partagez le constat et le projet du manifeste Technopolice, vous pouvez dès à présent rejoindre le forum dédié au sein duquel nous travaillons à cette campagne : forum.technopolice.fr. Les manières de contribuer sont très variées (animation militante, analyses politiques et juridiques, maintenance d’outils techniques, etc.) et toutes les bonnes volontés sont bienvenues.

Et si vous êtes lié·e à une organisation qui souhaite s’associer à cette campagne, le manifeste est évidemment ouvert à signature (envoyer le nom de la structure, l’URL du site et un logo à contact [at] technopolice.fr).

Le site Technopolice dispose aussi d’une base documentaire consacrée aux projets de Safe City en France et au cadre juridique afférant (data.technopolice.fr), ainsi que, bientôt, d’une plateforme dédiée à la fuite de documents.

Rejoignez cette campagne et faites-la vivre !
La Technopolice ne passera pas !

]]>
[LaCroix] Des données fiscales trafiquées après un piratage informatiquehttps://www.laquadrature.net/?p=14708http://streisand.me.thican.net/laquadrature.net/index.php?20190829_130000__LaCroix__Des_donnees_fiscales_trafiquees_apres_un_piratage_informatiqueThu, 29 Aug 2019 11:00:00 +0000Environ 2 000 déclarations d’impôts ont été modifiées, en juin, par des pirates informatiques. L’attaque a été rapidement détectée mais cet épisode pose à nouveau la question de la sécurité des données personnelles. […]

« La centralisation de toutes ces données par l’État est dangereuse, estime le juriste de la Quadrature du Net. Hacker un hôpital ou une banque est une chose, mais hacker à l’échelle d’un pays peut être très intéressant, que ce soit pour déstabiliser ou pour gagner de l’argent. »

https://www.la-croix.com/France/donnees-fiscales-trafiquees-piratage-informatique-2019-08-21-1201042256

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Konbini] ALICEM, future appli du gouvernement et ‘carte d’identité’ en ligne, est-elle une atteinte grave à nos libertés ?https://www.laquadrature.net/?p=14709http://streisand.me.thican.net/laquadrature.net/index.php?20190829_110000__Konbini__ALICEM__future_appli_du_gouvernement_et____carte_d___identite____en_ligne__est-elle_une_atteinte_grave_a_nos_libertes___Thu, 29 Aug 2019 09:00:00 +0000Imposer la reconnaissance faciale et conserver vos données personnelles pendant six ans…

ALICEM, future appli du gouvernement et « carte d’identité » en ligne, est-elle une atteinte grave à nos libertés ? Réponse avec @laquadrature.

https://twitter.com/konbinitechno/status/1164216026801823744

NDLRP – Diffusé le 21 août sur les supports de konbini.com, Martin Drago, juriste à La Quadrature du Net, évoque les enjeux autour d’ALICEM, et le recours porté par LQDN. Sujet réalisé par Thibault Prévost. À retrouver aussi sur le Peertube de La Quadrature du Net :

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[SudOuest] Assistants vocaux : les précautions à prendre pour éviter d’être écoutéhttps://www.laquadrature.net/?p=14710http://streisand.me.thican.net/laquadrature.net/index.php?20190828_130000__SudOuest__Assistants_vocaux____les_precautions_a_prendre_pour_eviter_d___etre_ecouteWed, 28 Aug 2019 11:00:00 +0000Google, Apple, Facebook, Amazon, Microsoft… ces firmes ont récemment reconnu avoir écouté des conversations d’utilisateurs à partir d’enceintes connectées ou de smartphones dans le but d’améliorer les performances de leurs systèmes. […]

Malgré toutes ces précautions, « le simple fait d’avoir une enceinte connectée comporte un danger sur l’utilisation des extraits vocaux », met en garde Martin Drago, juriste à la Quadrature du net. Aroua Biri, experte en cybersécurité, file la métaphore : « l’enceinte connectée, c’est une personne qui peut nous écouter du matin au soir. Ce que l’on dit en sa présence doit pouvoir être dit devant une assemblée ». […]

https://www.sudouest.fr/2019/08/14/assistants-vocaux-les-precautions-a-prendre-pour-eviter-d-etre-ecoute-6445182-4725.php

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInter] Protéger les établissements, surveiller les élèves… la reconnaissance faciale est entrée dans les écoleshttps://www.laquadrature.net/?p=14702http://streisand.me.thican.net/laquadrature.net/index.php?20190828_110000__FranceInter__Proteger_les_etablissements__surveiller_les_eleves____la_reconnaissance_faciale_est_entree_dans_les_ecolesWed, 28 Aug 2019 09:00:00 +0000La reconnaissance faciale s’implante dans les écoles du monde entier. En Chine, aux États-Unis et bientôt en France, le dispositif est présent pour protéger les élèves mais aussi pour surveiller leur assiduité d’après les pouvoirs publics. […]

La loi sur la reconnaissance faciale reste floue en France et une fois notre accord donné, notre visage est répertorié ce qui fait qu’on pourrait être « reconnu et surveillé constamment dans l’espace public, sans pouvoir [s’y] opposer, contrairement au principe du libre consentement du Règlement général sur la protection des données (RGPD) » explique Martin Drago, avocat spécialisé dans le droit des données personnelles au média en ligne Cnet. Il est donc urgent de légiférer avant de procéder au déploiement de ces technologies sur la France entière.

https://www.franceinter.fr/societe/proteger-les-etablissements-surveiller-les-eleves-la-reconnaissance-faciale-est-entree-dans-les-ecoles

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInter] Données personnelles : sommes-nous des victimes consentantes ?https://www.laquadrature.net/?p=14703http://streisand.me.thican.net/laquadrature.net/index.php?20190827_130000__FranceInter__Donnees_personnelles____sommes-nous_des_victimes_consentantes___Tue, 27 Aug 2019 11:00:00 +0000Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ? […]

Autour de la table ce lundi pour en parler, Arthur Messaud, juriste de la Quadrature du net, association de défense des droits et libertés des citoyens sur Internet, Edouard Fillias, vice-président de Génération Libre, think tank qui défend un projet de société libérale. et coauteur du “Manuel de survie sur internet, 100 questions/réponses”, sorti en janvier aux éditions Ellipses et Aloïs Brunel, cofondateur de Deepomatic, entreprise qui vend des solutions aux entreprises qui permet aux entreprises d’automatiser des tâches visuelles comme automatiser l’encaissement des plateaux repas dans une cantine. […]

https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-12-aout-2019

NDLRP – Pastille d’une intervention d’Arthur à retrouver aussi sur le Peertube de La Quadrature du Net :

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LaCroix] Reconnaissance faciale, entre craintes et fascinationhttps://www.laquadrature.net/?p=14704http://streisand.me.thican.net/laquadrature.net/index.php?20190827_110000__LaCroix__Reconnaissance_faciale__entre_craintes_et_fascinationTue, 27 Aug 2019 09:00:00 +0000Depuis plusieurs années, la reconnaissance faciale suscite l’interêt des autorités françaises, encouragées par des industriels souhaitant promouvoir des solutions censées améliorer la sécurité. Cependant, ces technologies soulèvent les craintes des défenseurs des libertés publiques. […]

« L’application passe par la collecte de données très sensibles et on ne peut plus personnelles », alerte Benoît Piédallu, membre de La Quadrature du Net. D’autant que les vidéos envoyées par les utilisateurs permettent une reconnaissance bien plus précise qu’une simple photo.

« Que se passera-t-il en cas de fuite de données ? Et si, dans quelques années, un gouvernement moins regardant sur le droit des citoyens dispose d’une base regroupant l’identité faciale de toute la population et souhaite y recourir pour identifier manifestants ou opposants, qu’est-ce qui l’empêchera de le faire ? Il lui suffira d’adopter un décret pour accéder à cette base. » Ce militant met en garde contre la banalisation de telles technologies. […]

https://www.la-croix.com/France/Securite/Reconnaissance-faciale-entre-craintes-fascination-2019-08-13-1201040781

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] La vidéosurveillance par drone à Istreshttps://www.laquadrature.net/?p=14705http://streisand.me.thican.net/laquadrature.net/index.php?20190826_130000__FranceCulture__La_videosurveillance_par_drone_a_IstresMon, 26 Aug 2019 11:00:00 +0000L’utilisation des drones peut parfois conduire à des dérives. A Istres dans le Bouches-du-Rhône, la police municipale est soupçonnée d’utiliser les appareils pour faire de la surveillance en tout genre. On verra ça avec Maxime Fayolle. […]

NDLRP: Le reportage complet est à retrouver dans le podcast du journal, de 8 minutes 20′ à 10 minutes 26′.

https://www.franceculture.fr/emissions/journal-de-8-h/journal-de-8h-du-lundi-12-aout-2019

NDLRP2 – Passage de Martin Drago, juriste à La Quadrature du Net, dans le reportage de Maxime Fayolle diffusé dans le journal de 8H sur France Culture le lundi 12 août 2019 à retrouver aussi sur le Peertube de La Quadrature du Net :

Réaction faisant suite à la demande CADA réalisée par La Quadrature du Net à propos de l’utilisation des drones par la ville d’Istres, où LQDN s’est aperçue que 77% du temps de leur utilisation avait été consacrée à la surveillance des manifestations.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Societe.com] Facebook met en pratique ses résolutionshttps://www.laquadrature.net/?p=14706http://streisand.me.thican.net/laquadrature.net/index.php?20190826_110000__Societe.com__Facebook_met_en_pratique_ses_resolutionsMon, 26 Aug 2019 09:00:00 +0000Vendredi, le site The Information annonçait un premier pas de Facebook vers la clarification de ses activités. Le groupe commence à raccorder ses applications avec la mention « par Facebook ». […]

« Ils vont pouvoir entrecroiser les plateformes techniques et continuer à en savoir plus », s’alarme Axel Simon, membre de l’association La Quadrature du Net. Parmi les motivations derrière cette opération, celui-ci évoque une défense face aux autorités de la concurrence et une volonté de redorer leur image, Instagram n’ayant pas pâti des mêmes scandales que Facebook. Il soulève également des risques au niveau de la modération, ces plateformes étant déjà conséquentes individuellement.

https://www.societe.com/actualites/facebook_met_en_pratique_ses_resolutions-37848.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Surveillance publicitaire : compte-rendu du référé contre la CNILhttps://www.laquadrature.net/?p=14693http://streisand.me.thican.net/laquadrature.net/index.php?20190821_160241_Surveillance_publicitaire____compte-rendu_du_refere_contre_la_CNILWed, 21 Aug 2019 14:02:41 +0000Le 14 août se tenait au Conseil d’État l’audience de référé de notre affaire contre la CNIL. Nous demandions à ce que soit suspendue dans l’urgence son autorisation donnée aux sites Web de nous tracer à des fins publicitaires sans notre consentement « explicite » pendant un an. Le Conseil d’État a rendu sa décision extrêmement rapidement : il a considéré qu’il n’y avait pas d’urgence à trancher le débat « en référé » car l’audience « au fond » a finalement été fixée au 30 septembre 2019, ce qui est aussi extrêmement rapide et nous satisfait presque tout autant.

Expliquons en détail ce qui s’est déroulé.

Rappel des épisodes précédents

La CNIL a publié deux articles, les 28 juin et 18 juillet, dans lesquelles elle annonçait ceci : le fait de continuer de consulter un site Web après avoir été informé·e de la présence de traceurs publicitaire (via un « bandeau cookie ») pourra être considéré comme une façon « acceptable » de donner notre consentement, et ce jusqu’à l’été 2020. Comme nous l’expliquions, cette annonce est parfaitement contraire au RGPD, qui exige un consentement « explicite » : nous devons cliquer sur un bouton « j’accepte », notre silence ne vaut pas acceptation. La CNIL n’a aucun pouvoir pour en décider autrement.

Le 29 juillet, nous déposions une requête en référé suspension contre cette décision devant le Conseil d’État. Comme nous l’expliquions alors, nous avons choisi d’agir en référé (c’est à dire dans l’urgence) de peur que la décision du Conseil d’État intervienne trop tard, au-delà du terme de la « période de tolérance » d’un an laissée par la CNIL. En effet, dans nos autres affaires portées devant le Conseil d’État, nous devons généralement attendre deux ou trois années avant d’être entendu·es en audience (voir par exemple le récit de nos actions contre la loi renseignement et la conservation généralisée des données de connexion).

L’audience en référé

L’audience a été fixée tôt, au 14 août, alors que nous jonglions tou·tes entre nos vacances et la préparation d’autres affaires.

D’habitude, devant le Conseil d’État, l’oralité a très peu de place : les débats se font principalement à l’écrit et les parties (c’est à dire les personnes ou organisations en désaccord) ne reprennent pas leurs arguments à l’oral lors de l’audience. En matière de référé, les choses sont bien différentes : les parties ayant eu peu de temps pour développer leurs arguments à l’écrit, c’est à l’audience et à l’oral que se tient tout le débat ou presque. Typiquement, dans notre cas, nous avons rédigé notre requête en dix jours et la CNIL y a répondu dix jours plus tard, le 9 août, ne nous laissant pas assez de temps pour y répliquer convenablement à l’écrit.

L’audience est ainsi organisée pour favoriser ces échanges oraux : un·e unique juge reçoit les deux parties autour d’une table et prend le temps de soulever dans le détail chaque point de débat. Dans notre cas, cela aura pris deux heures, de 11h à 13h.

De notre côté, nous étions assisté·es par Me Ricard, avocat aux conseils de permanence (dans certaines affaires devant le Conseil d’État ou devant la Cour de cassation, seul·es des avocat·es spécialisé·es, dit·es « avocats aux conseils », peuvent plaider – ce n’était pas le cas dans notre affaire de référé, mais nous avons préféré être assisté·es d’un tel avocat par soucis du bon usage). Me Ricard partageait la parole avec Alexis et Benjamin, deux de nos membres, et Arthur, l’un de nos salarié·es. Alexis, avocat spécialisé en droit public, a pu répondre aux points formels les plus spécifiques. Benjamin, ingénieur, a fait un exposé sur les traceurs présents sur le site du Monde, pour ancrer le débat dans le réel et en pointer les enjeux concrets. Arthur, qui suit le développement de ces textes au quotidien, a pu détailler l’articulation entre le RGPD et la directive ePrivacy, qui est l’une des spécificités de cette affaire.

En face, la CNIL était représentée par cinq personnes, dont une seule a pris la parole. Curieusement, elle a dit regretter de ne pas être assistée d’un expert technique, contrairement à nous. Tout aussi curieusement, elle prenait le soin de rappeler régulièrement qu’une des missions de la CNIL est d’accompagner les entreprises, alors que nous lui reprochions précisément de ne pas assez prendre en compte les droits fondamentaux de la population.

Une quinzaine de personnes étaient venues assister à l’audience dans le public.

Les points débattus

Durant les deux heures de débats, la question de fond, à savoir si la décision de la CNIL est légale ou justifiée, a finalement été peu abordée. L’essentiel des échanges visait à déterminer s’il fallait ou non que le Conseil d’État se prononce dans l’urgence. Pour cela, nous avons rappelé que, s’il en était autrement, les délais de procédures habituels rendraient notre action inutile, nous privant de « recours effectif ».

Mais ce n’est pas tout : il fallait aussi démontrer que l’acte que nous attaquons cause un préjudice suffisamment grave. Dans une procédure « normale », ce n’est pas nécessairement un point central du débat : un acte de la CNIL peut être annulé du simple fait qu’il est illégal, sans avoir à évaluer la gravité des torts qu’il cause. Il en va autrement en référé : pour justifier que les juges agissent dans l’urgence, il faut que les effets concrets de l’acte soient particulièrement graves. Ainsi, la CNIL a défendu que sa décision ne causait en elle-même aucune réduction de notre droit à la protection des données. Elle a prétendu que de nombreux sites Web ne respectent pas notre consentement « explicite » depuis des années et que prolonger cet état de fait n’était pas une « aggravation » de la situation mais le simple maintien d’un statu quo qui, aussi nuisible soit-il, ne serait pas du fait de la CNIL.

Nous avons pu expliquer que c’était faux : depuis des années, diverses autorités européennes ont très clairement dit que les cookies et autres traceurs ne pouvaient être utilisés à des fins publicitaires qu’avec notre consentement explicite et que la « poursuite de la navigation » n’était plus un mode d’expression valable du consentement au regard du RGPD. De nombreux acteurs économiques ont à leur tour repris ce discours pour inviter à une évolution de la pratique (voir par exemple ces articles publiés par un conseiller spécialisé dans la publicité en ligne, une agence de développement Web, un conseiller en conformité RGPD ou un site d’actualité de droit du numérique).

Ainsi, la décision de la CNIL que nous attaquons a bien aggravé la situation : de nombreux acteurs jusqu’alors convaincus de devoir obtenir un consentement explicite sont désormais assurés par la CNIL de pouvoir se satisfaire d’un simple « qui ne dit mot consent », diminuant notre droit à la protection des données et défavorisant les acteurs respectueux du droit face à leurs concurrents.

La décision

Juste après l’audience, le jour même, le juge des référés a rendu sa décision, qui nous est parvenue deux jours plus tard. La rapidité de sa décision s’explique par sa simplicité : il n’y avait plus d’urgence à trancher en référé car l’audience « au fond » venait d’être fixée au 30 septembre, 40 jours plus tard.

En matière de référé-suspension, qui est la procédure que nous avons choisie, toute demande de décision urgente accompagne nécessairement une demande principale, dite « au fond ». Si le juge des référés estime que l’illégalité pointée par le requérant est suffisamment urgente et conséquente, il suspendra, de façon provisoire, les effets de l’acte attaqué jusqu’à la publication de la décision définitive au fond. Dans l’hypothèse inverse, le juge rejettera le référé et l’affaire reprend sa voie « normale », « au fond », soumise aux délais et à la procédure habituelle de la juridiction. C’est ce qui s’est passé pour nous. Toutefois, l’audience au fond (non urgente) a été fixée extrêmement tôt, au 30 septembre.

Les craintes qui nous avaient poussé·es à choisir la voie du référé avaient disparues. Il n’y avait plus urgence à obtenir une décision du juge des référés, qui s’en est donc abstenu, pour ce seul motif. Formellement, il rejette notre demande. Concrètement, il nous renvoie à l’audience du 30 septembre.

La suite

Un point demeure curieux : pourquoi l’audience au fond a-t-elle était fixée si tôt, défiant tous les délais habituels du Conseil d’État ? Une piste de réflexion pourrait être que la question que nous soulevons est assez grave, au point que le Conseil d’État a souhaité en décharger le juge des référés, qui aurait pu décider seul et de façon provisoire, pour s’en saisir pleinement et en détail par une décision définitive et collégiale (par plusieurs juges, selon la procédure « normale »).

En effet, répondre à notre question pourrait avoir d’importantes conséquences juridiques, dépassant le seul cas de la CNIL : une autorité administrative indépendante peut-elle décider de n’appliquer une disposition légale à aucun des cas qu’elle est sensée contrôler ? Certes, les autorités de contrôle, de même que les procureur·es, disposent d’un certains « pouvoir d’opportunité » pour apprécier au cas par cas si telle ou telle affaire mérite d’être poursuivie. Mais la décision qu’a pris la CNIL dans notre cas est bien plus large que du « cas par cas ». Pendant un an, elle refuse de poursuivre n’importe quel site Web violant l’exigence de consentement explicite. Une telle décision a une portée générale et abstraite, ce qui est normalement le monopole du pouvoir législatif. Cette décision, et sa publicité, a aussi pour effet d’inciter les acteurs à violer la loi, en contradiction des missions de la CNIL.

Nous sommes impatient·es d’entendre les conclusions du rapporteur public (il s’agit du membre de la formation de jugement chargé d’examiner les affaires et de conseiller les juridictions administratives, dont les avis sont très généralement suivis). L’audience étant publique, nous vous y retrouverons avec plaisir ! Le 30 septembre, 1 place du Palais Royal à Paris. Nous communiquerons l’heure exacte dès que nous l’aurons !

]]>
Recours contre le renseignement français : audience devant la Cour de Justice de l’Union européenne le 9 septembre 2019https://www.laquadrature.net/?p=14666http://streisand.me.thican.net/laquadrature.net/index.php?20190812_131509_Recours_contre_le_renseignement_fran__ais____audience_devant_la_Cour_de_Justice_de_l___Union_europeenne_le_9_septembre_2019Mon, 12 Aug 2019 11:15:09 +0000Le 9 septembre prochain, se tiendra à Luxembourg, devant la Grande chambre de la Cour de Justice de l’Union européenne, l’audience sur la loi Renseignement française et l’obligation de conservation généralisée des données de connexion.

Cette audience marque l’aboutissement de presque quatre années de procédures, engagées depuis le 30 novembre 2015 par La Quadrature du Net, FDN et FFDN, au travers des Exégètes amateurs, rejoints par Igwan.net.

Le résultat pourrait bouleverser tout le régime de surveillance français.

Pour rappel, il s’agit d’un contentieux qui concerne la conformité du régime français de surveillance au regard du droit de l’Union européenne. A la suite de nos procédures devant les juridictions françaises depuis 2015, le Conseil d’État a accepté l’année dernière de poser à la Cour de Justice de l’Union européenne cinq questions sur cette conformité : trois questions qui concernent la loi Renseignement votée en France en 2015 et deux questions qui concernent l’obligation pour les acteurs de l’Internet de conserver pendant un an les données de connexion sur l’ensemble de la population (voir à cette occasion le site de campagne que nous avions lancé).

Nous étions déjà longuement revenu dans plusieurs articles sur ce contentieux, n’hésitez pas à les relire pour bien comprendre les enjeux de ce dossier :

  • dans cet article du 10 juillet 2018, à l’occasion de deux audiences devant le Conseil d’État, nous rappelons tout l’historique de ce contentieux. Il y a d’un côté, la loi Renseignement adoptée en juillet 2015 (nous avons attaqué avec FDN et FFDN les décrets d’application de cette loi dès le 30 novembre 2015). Il y a de l’autre côté, le régime de conservation des données de connexion de l’ensemble de la population imposé aux acteurs de l’Internet (que nous avons attaqué en septembre 2015, également avec FDN et FFDN) ;
  • dans ces articles du 26 juillet 2018 et du 27 novembre 2018, nous revenons, à la suite de cette audience, sur la décision du Conseil d’État qui a enfin accepté de poser à la Cour de justice de l’Union européenne les cinq questions citées plus haut qui sont susceptibles de remettre en cause la compatibilité du droit français au droit de l’Union ;
  • enfin, dans cet article du 13 décembre 2018, nous détaillons les arguments que nous avons soulevés devant la Cour de Justice de l’Union européenne et qui seront donc discutés lors de l’audience à venir.

L’audience du 9 (et peut-être 10 si l’audience se prolonge) septembre sera donc d’une importance capitale : son issue pourrait remettre en cause l’ensemble du régime de surveillance en France. La participation de La Quadrature du Net a un coût (transport et hébergement) qui n’était pas prévu dans notre budget annuel, alors même que notre objectif de dons annuel n’est toujours pas atteint.

Pour nous aider sur cette action et pour que La Quadrature du Net puisse continuer son combat, faites un don sur don.laquadrature.net.

]]>
[Numerama] La Quadrature du Net tient parole : elle attaque la CNIL pour sa frilosité à appliquer le RGPDhttps://www.laquadrature.net/?p=14664http://streisand.me.thican.net/laquadrature.net/index.php?20190807_130000__Numerama__La_Quadrature_du_Net_tient_parole____elle_attaque_la_CNIL_pour_sa_frilosite_a_appliquer_le_RGPDWed, 07 Aug 2019 11:00:00 +0000Le 14 août se tiendra une audience devant le Conseil d’État. La Quadrature du Net veut contraindre la CNIL à appliquer le RGPD sous toutes ses dimensions et ne plus accorder de périodes transitoires. […]

« La justification avancée par la CNIL d’ « exigence juridique de prévisibilité » ne tient donc aucunement : les acteurs de l’Internet ont eu plus de deux ans pour se conformer à ces nouvelles obligations. La lettre du RGPD est parfaitement claire, déjà expliquée en long, en large et en travers : la protection de nos libertés fondamentales ne peut connaître aucun nouveau sursis », déclare l’association. […]

https://www.numerama.com/politique/538171-la-quadrature-du-net-tient-parole-elle-attaque-la-cnil-pour-sa-frilosite-a-appliquer-le-rgpd.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LesEchos] Apple admet écouter certaines conversations privées via Sirihttps://www.laquadrature.net/?p=14663http://streisand.me.thican.net/laquadrature.net/index.php?20190807_110000__LesEchos__Apple_admet_ecouter_certaines_conversations_privees_via_SiriWed, 07 Aug 2019 09:00:00 +0000Un ancien sous-traitant de l’entreprise a révélé que des contractuels sont chargés d’écouter des enregistrements réalisés par l’outil de commande vocale Siri à l’insu des utilisateurs. Une manœuvre qui serait destinée à « améliorer les performances » du dispositif, mais qui contraste avec la position stricte d’Apple en matière de respect des données personnelles. […]

Un avis partagé par un membre de l’association œuvrant pour la défense des libertés numériques La Quadrature du Net et connu sous le pseudonyme « Klorydryk». révèle aussi que les Gafam sont plus humanisés qu’on ne le croit. « Les Gafam nous avaient fait des promesses sur le plan technique » estime-t-il. « L’une d’entre elles consistait à ce que les données soient surtout traduites par des robots… Pourtant, de nombreux cas, comme le fait que des tiers soient ici employés par Apple, nous prouvent que ce n’est pas vrai, ce dont on se doutait déjà après le scandale autour des écoutes réalisées par Amazon grâce à Alexa. »

https://www.lesechos.fr/tech-medias/hightech/apple-admet-ecouter-certaines-conversations-privees-via-siri-1041502

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeFigaro] En France, la reconnaissance faciale attestera bientôt de votre « identité numérique »https://www.laquadrature.net/?p=14659http://streisand.me.thican.net/laquadrature.net/index.php?20190806_130000__LeFigaro__En_France__la_reconnaissance_faciale_attestera_bientot_de_votre_____identite_numerique____Tue, 06 Aug 2019 11:00:00 +0000Un décret du gouvernement a officialisé le développement d’une application mobile d’authentification d’identité. Baptisée « AliceM », elle fait appel à un dispositif de reconnaissance faciale. Certaines associations s’inquiètent. […]

La Commission propose de mettre en place des solutions alternatives à la reconnaissance faciale pour garantir un consentement libre comme un face-à-face en préfecture ou un appel vidéo avec un agent de l’ANTS. Des solutions qui n’ont pas été retenues par le gouvernement dans son décret. « Le plus inquiétant dans cette procédure, c’est que nous constatons une perte de pouvoir de la CNIL. Si même le gouvernement ne l’écoute plus, qui va le faire ? » s’interroge Martin Drago, juriste au sein de la Quadrature du Net, contacté par Le Figaro […].

http://www.lefigaro.fr/secteur/high-tech/en-france-la-reconnaissance-faciale-attestera-bientot-de-votre-identite-numerique-20190729

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Mediapart] Dans le ventilateur à données de l’appli Météo-Francehttps://www.laquadrature.net/?p=14660http://streisand.me.thican.net/laquadrature.net/index.php?20190806_110000__Mediapart__Dans_le_ventilateur_a_donnees_de_l___appli_Meteo-FranceTue, 06 Aug 2019 09:00:00 +0000Il suffit d’une autorisation donnée à une entreprise de la publicité en ligne pour qu’aussitôt nos données personnelles soient transmises à tous les acteurs du marché, et traversent frontières et océans. Mediapart s’est penché sur le cas de l’appli Météo-France, dans laquelle la publicité abonde, et qui alimente via sa régie plus de cinquante acteurs et Facebook. […]

Dans ses toutes nouvelles « lignes directrices », la Cnil rappelle aux acteurs de ce marché publicitaire que « les opérateurs doivent respecter le caractère préalable du consentement au dépôt de traceurs. Ils doivent laisser la possibilité d’accéder au service même en cas de refus de consentir. Ils doivent fournir un dispositif de retrait du consentement facile d’accès et d’usage ». Elle leur laisse encore un délai de plusieurs mois pour se mettre en conformité avec les règles du RGPD, au grand dam de la Quadrature du Net, l’association en pointe dans la lutte pour la protection des données personnelles, qui déplore un « mépris total du droit européen ». […]

https://www.mediapart.fr/journal/economie/250719/dans-le-ventilateur-donnees-de-l-appli-meteo-france

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInfo] ‘Libra’, la monnaie virtuelle de Facebook, ‘peut potentiellement détrôner de très grandes monnaies’https://www.laquadrature.net/?p=14657http://streisand.me.thican.net/laquadrature.net/index.php?20190805_130000__FranceInfo_____Libra_____la_monnaie_virtuelle_de_Facebook_____peut_potentiellement_detroner_de_tres_grandes_monnaies___Mon, 05 Aug 2019 11:00:00 +0000Pour Mark Zuckerberg, le patron du réseau social américain, il s’agit de rendre le transfert d’argent sur sa plateforme aussi facile que le partage d’une photo.

Alors que le G7 Finances s’alarme des risques que Libra, le projet de crypto-monnaie de Facebook, ferait courir au système monétaire international, elle « peut potentiellement détrôner de très grandes monnaies », selon Gilles Babinet, le vice-président du Conseil national du numérique Gilles Babinet. Selon lui, « la portée sera sans doute bien supérieure aux achats en ligne ». […]

https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/libra-la-monnaie-virtuelle-de-facebook-peut-potentiellement-detroner-de-tres-grandes-monnaies_3541641.html

NDLRP: Et à retrouver sur le peertube de LQDN, l’entretien sur le sujet avec Axel Simon de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Surfer vaut consentement aux cookies : la tolérance de la CNIL attaquée au Conseil d’Étathttps://www.laquadrature.net/?p=14656http://streisand.me.thican.net/laquadrature.net/index.php?20190805_110000__NextINpact__Surfer_vaut_consentement_aux_cookies____la_tolerance_de_la_CNIL_attaquee_au_Conseil_d___EtatMon, 05 Aug 2019 09:00:00 +0000La CNIL a décidé que pendant une période transitoire d’un an, la poursuite de la navigation vaudra expression du consentement à l’installation des cookies. Intolérables pour la Quadrature du Net et Caliopen qui, dans un recours au Conseil d’État, lui opposent le RGPD. […]

Selon elles, le choix de la CNIL prive finalement « tant la loi française que des normes issues de l’ordre juridique de l’Union européenne de tout effet dissuasif contre l’utilisation illicite de cookies et autres traceurs en ligne pour surveiller les personnes sans leur consentement explicite ». […]

https://www.nextinpact.com/news/108110-surfer-vaut-consentement-aux-cookies-tolerance-cnil-attaquee-au-conseil-detat.htm

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMonde] La reconnaissance faciale pour s’identifier en ligne inquiète les défenseurs des libertés numériqueshttps://www.laquadrature.net/?p=14654http://streisand.me.thican.net/laquadrature.net/index.php?20190804_130000__LeMonde__La_reconnaissance_faciale_pour_s___identifier_en_ligne_inquiete_les_defenseurs_des_libertes_numeriquesSun, 04 Aug 2019 11:00:00 +0000Un recours a été déposé devant le Conseil d’Etat pour faire annuler le décret autorisant l’application AliceM. […]

Le 15 juillet, l’association spécialisée La Quadrature du Net a déposé un recours devant le Conseil d’Etat pour annuler le décret du 13 mai autorisant le dispositif. Elle dénonce un traitement intrusif de données biométriques « ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat  ». […]

https://www.lemonde.fr/societe/article/2019/07/27/la-reconnaissance-faciale-pour-s-identifier-en-ligne-inquiete-les-defenseurs-des-libertes-numeriques_5494076_3224.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FrequenceProtestante] Vidéosurveillance et fichagehttps://www.laquadrature.net/?p=14655http://streisand.me.thican.net/laquadrature.net/index.php?20190804_110000__FrequenceProtestante__Videosurveillance_et_fichageSun, 04 Aug 2019 09:00:00 +0000[NDLRP : Sylvain Steer de La Quadrature du Net dans l’émission enregistrée le 14 juin et dont la première partie a été diffusée le 23 juin 2019, dans l’émission Parole aux associations de Fréquence protestante avec Nathalie Zanon.]

https://frequenceprotestante.com/diffusion/mouvement-international-de-la-reconciliation-m-i-r-du-23-06-2019/

À retrouver aussi sur le peertube de La Quadrature du Net :

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LaTribune] Pourquoi la loi Avia sur la haine en ligne fait l’unanimité contre ellehttps://www.laquadrature.net/?p=14652http://streisand.me.thican.net/laquadrature.net/index.php?20190803_130000__LaTribune__Pourquoi_la_loi_Avia_sur_la_haine_en_ligne_fait_l___unanimite_contre_elleSat, 03 Aug 2019 11:00:00 +0000Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne, actuellement débattue à l’Assemblée nationale. Explications. […]

Pour les défenseurs des libertés, notamment La Quadrature du Net, les plateformes seront en fait poussées à « sur-modérer », c’est-à-dire à censurer des contenus contestables « par précaution », simplement pour ne pas prendre le risque de se voir infliger l’amende. Avec un risque d’instrumentalisation par le pouvoir politique. Occupés à trier les contenus de la zone grise, c’est-à-dire les contenus choquants, contestables mais pas forcément illégaux, les plateformes pourraient censurer d’office tout contenu signalé par une autorité officielle, comme la police, craint l’association. […]

https://www.latribune.fr/technos-medias/internet/pourquoi-la-loi-avia-sur-la-haine-en-ligne-fait-l-unanimite-contre-elle-822462.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[01net] Quand le renseignement français collecte des informations… en toute illégalitéhttps://www.laquadrature.net/?p=14653http://streisand.me.thican.net/laquadrature.net/index.php?20190803_110000__01net__Quand_le_renseignement_fran__ais_collecte_des_informations____en_toute_illegaliteSat, 03 Aug 2019 09:00:00 +0000Sous couvert de lutte contre le terrorisme, les services secrets français collectent et partagent leurs informations, en l’absence de cadre juridique. La Quadrature du Net vient de saisir le Conseil d’État concernant l’existence de cet « entrepôt » ultraconfidentiel. […]

La prophétie s’est finalement réalisée mardi 25 juin. La Quadrature du Net (LQDN), une association qui défend les droits numériques et n’en est pas à son coup d’essai, a déposé un recours devant le Conseil d’État. Le motif : « les activités illégales de partage de données entre services de renseignement ». […]

https://www.01net.com/actualites/quand-le-renseignement-francais-collecte-des-informations-en-toute-illegalite-1724035.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Reporterre] Avec la 5G, demain, tous surveilléshttps://www.laquadrature.net/?p=14640http://streisand.me.thican.net/laquadrature.net/index.php?20190802_130000__Reporterre__Avec_la_5G__demain__tous_surveillesFri, 02 Aug 2019 11:00:00 +0000Sous ses atours attrayants, la 5G pose des problèmes de sécurité du réseau, de confidentialité des conversations, de neutralité d’internet et de surveillance des populations. Sans débat démocratique autour de son déploiement, ces questions demeurent sans réponse. […]

Pour la Quadrature du Net, une association de défense des droits et libertés des citoyens sur internet, il ne s’agit que de considérations commerciales. « Les opérateurs estiment que certains sites, comme Netflix ou YouTube, se font de l’argent sur leur dos en utilisant leurs infrastructures. Ils aimeraient proposer une connexion internet de base et faire payer plus cher l’accès à certains services. Dans ce cas, qui va décider des choses à prioriser ? Ce n’est pas aux fournisseurs d’accès à internet de dire qui peut s’exprimer en ligne, d’estimer le volume de données raisonnables. Vous vous rendez compte du pouvoir que cela leur donnerait ? Il y a ici un fort enjeu de liberté », explique Alexis O Cobhthaigh, avocat et membre de la Quadrature du Net […]

https://reporterre.net/Avec-la-5G-demain-tous-surveilles

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Surveillance publicitaire : La Quadrature du Net attaque la CNIL en référéhttps://www.laquadrature.net/?p=14642http://streisand.me.thican.net/laquadrature.net/index.php?20190802_112521_Surveillance_publicitaire____La_Quadrature_du_Net_attaque_la_CNIL_en_refereFri, 02 Aug 2019 09:25:21 +0000Ce lundi 29 juillet, comme annoncé, nous avons déposé devant le Conseil d’État, avec l’association Caliopen, un recours contre la décision de la CNIL d’autoriser la « poursuite de la navigation » comme mode d’expression du consentement en matière de cookies et de traceurs en ligne jusqu’à mi-2020.

Sur le fond, nous avions déjà présenté les principaux points de contexte de ce recours dans notre article du 28 juin 2019.

Pour rappel, le 28 juin 2019, la CNIL publie un article sur son site où elle annonce l’adoption de futures lignes directrices en matière de cookies et de traceurs en ligne. Elle précise que « la CNIL laissera aux acteurs une période transitoire de 12 mois » durant laquelle « la poursuite de la navigation comme expression du consentement sera donc considérée par la CNIL comme acceptable ». Le 4 juillet, la CNIL adopte les lignes directrices annoncées. Le 18 juillet, elle publie un second article dans laquelle elle déclare que les lignes directrices seront suivies d’une nouvelle recommandation au premier trimestre 2020 (venant préciser ces lignes directrices) et qu’ « une période d’adaptation, s’achevant six mois après la publication de la future recommandation, sera laissée aux acteurs afin de leur donner le temps d’intégrer les nouvelles règles ».

C’est cette décision que nous attaquons. Non pas les nouvelles lignes directrices ou les futures recommandations, mais celle, qui nous a été confirmé directement par la CNIL, d’autoriser la « poursuite de la navigation » comme mode d’expression du consentement en matière de cookies et de traceurs en ligne jusqu’à mi-2020.

Pourquoi nous attaquons cette décision ?

Parce que, comme nous l’expliquions déjà, elle est totalement illégale. Vous pouvez lire l’avant-propos de notre recours qui reprend tous nos arguments.

Reprenons rapidement : la directive 2002/58 (dite « directive ePrivacy ») prévoit que les «  Les États membres garantissent que le stockage d’informations, ou l’obtention de l’accès à des informations déjà stockées, dans l’équipement terminal d’un abonné ou d’un utilisateur n’est permis qu’à condition que l’abonné ou l’utilisateur ait donné son accord », c’est à dire : l’utilisation de cookies n’est possible qu’avec le consentement de chaque personne concernée. Cette directive ePrivacy prévoit que ce consentement doit respecter les mêmes garanties que celles définies dans l’ancienne directive 95/46 (cette directive 95/46 a depuis été remplacée par Règlement général sur la protection de données, dit « RGPD »). Or, la directive de 95 acceptait qu’un consentement puisse être implicite. Et cela avait ainsi permis à la CNIL, dans une recommandation de 2013, de dire que, sur un site Internet, « la poursuite de sa navigation vaut accord au dépôt de cookies ».

Mais, depuis l’entrée en vigueur du RGPD, cela a totalement changé. Maintenant, le consentement doit être explicite et cette modification est d’effet immédiat sur la directive ePrivacy : la recommandation de 2013 de la CNIL est alors devenue caduque. D’ailleurs, en avril 2018, un mois avant l’entrée en vigueur du RGPD, le « groupe de l’article 29 » (G29, devenu depuis « Comité européen de protection des données », ou EDPB) a ainsi publié des lignes directrices sur le consentement dans lequel il précise que « faire défiler une page ou naviguer sur un site Internet ne satisfait pas à l’exigence d’un acte positif clair ».

Cela veut donc dire que dès l’entrée en vigueur du RGPD, c’est-à-dire mai 2018, il avait déjà clairement été énoncé que la « poursuite de la navigation » ne valait pas comme mode d’expression du consentement. La justification avancée par la CNIL d’ « exigence juridique de prévisibilité » ne tient donc aucunement : les acteurs de l’Internet ont eu plus de deux ans pour se conformer à ces nouvelles obligations. La lettre du RGPD est parfaitement claire, déjà expliquée en long, en large et en travers : la protection de nos libertés fondamentales ne peut connaître aucun nouveau sursis.

Le choix du référé-suspension

Nous avons cette fois choisi d’agir en urgence en utilisant la procédure du référé-suspension. Il s’agit, quand on demande l’annulation d’une décision administrative, de demander en plus au juge de suspendre cette décision le plus rapidement possible, avant qu’il fasse droit, ou non, à la demande d’annulation. En effet, il se passe plusieurs mois et parfois plusieurs années avant que le juge ait pu statuer sur la demande d’annulation. Le référé permet ainsi de suspendre temporairement une décision. Deux conditions pour cela : prouver l’urgence et le doute sérieux sur la légalité de la décision.

Sur l’urgence : en disant que personne ne sera sanctionné sur ce fondement jusqu’à l’année prochaine, nous avons souligné que la décision de la CNIL produisait déjà des effets préjudiciables car elle encourageait dès maintenant l’utilisation illicite de cookies et traceurs sans notre consentement explicite. Il est donc important de la suspendre au plus vite.

Quant au doute sérieux sur la légalité : nous avons expliqué, en lien avec les arguments précisés ci-dessus, que la CNIL n’avait aucun pouvoir pour prendre une telle décision qui revient, encore une fois, à encourager la surveillance des personnes en ligne sans leur consentement explicite. Une telle décision constitue une atteinte grave à notre droit à la vie privée et à la protection des données personnelles et ne peut en aucun être justifiée par le principe de prévisibilité. Elle rentre en totale contradiction avec le RGPD que la CNIL est justement censée faire respecter.

Il reste maintenant à attendre la décision du Conseil d’État. L’audience de référé se tiendra le 14 août. Il devra ensuite se prononcer rapidement (normalement dans quelques semaines) sur notre référé-suspension puis se prononcer sur notre recours au fond. Considérer la poursuite de la navigation comme une expression valable du consentement constitue un dévoiement de nos libertés extrêmement décevant de la part de la CNIL. Cette décision doit donc être urgemment suspendue, puis annulée au plus vite.

]]>
[LeMonde] « Il ne faut pas réguler Facebook ou Google mais s’en libérer »https://www.laquadrature.net/?p=14641http://streisand.me.thican.net/laquadrature.net/index.php?20190802_110000__LeMonde______Il_ne_faut_pas_reguler_Facebook_ou_Google_mais_s___en_liberer____Fri, 02 Aug 2019 09:00:00 +0000Pour l’association la Quadrature du Net, la régulation des contenus haineux par les géants du Web est vouée à l’échec.

La proposition de loi de la députée LRM Laetitia Avia, qui impose le retrait sous 24 heures des contenus haineux signalés aux réseaux sociaux, sous peine de lourdes sanctions, n’est autre qu’une « privatisation de la justice » au profit de Facebook, Google et Twitter, qui décideront ce qu’on a le droit de dire sur Internet, critique Arthur Messaud, juriste de la Quadrature du Net […]

https://www.lemonde.fr/economie/article/2019/06/22/il-ne-faut-pas-reguler-facebook-ou-google-mais-s-en-liberer_5480100_3234.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
De la modérationhttps://www.laquadrature.net/?p=14621http://streisand.me.thican.net/laquadrature.net/index.php?20190722_145058_De_la_moderationMon, 22 Jul 2019 12:50:58 +0000Une tribune d’Okhin

Le sujet fleurit dans tous les espaces. Les GAFAM demandent à cor et à cri des règles de modération qu’ils pourraient appliquer, se contentant pour le moment de leurs « règles communautaires » qui ne sont au final ni des règles — dans le sens où elles ne sont appliquées que partialement — ni communautaires — car personne d’autre que les GAFAM n’a été impliqué dans leur processus de rédaction. À la dernière RightsCon à Tunis, de nombreuses discussions tournaient autour des problèmes liés à la gestion de la haine en ligne et à la modération de contenu, et autour du rôle que les plateformes devraient tenir vis-à-vis de leurs utilisatrices. Les systèmes fédératifs se jettent aussi dans la discussion : Mastodon a instauré un critère de Safe Space[1], demandant à chaque instance voulant être listée sur https://joinmastodon.org de mettre en place des mesures de modération active dans le but de lutter contre les discriminations. Nous-même, au sein de La Quadrature, sommes en pleines discussions, parfois houleuses, vis-à-vis de la modération de notre instance Mamot.fr (qui n’est donc, pour l’instant, pas listée sur https://joinmastodon.org). Les gouvernements veulent, encore une fois, combattre la haine en ligne (voir par exemple, la proposition de loi de la députée Avia pour combattre la haine en ligne) et la radicalisation et cherchent à s’en remettre aux pouvoirs privés des GAFAM.

Le débat s’est centré sur la régulation de la parole en ligne. S’appuyant sur le fait qu’il faut bien faire quelque chose, et suite à l’attaque terroriste commise par un militant identitaire contre deux mosquées à Christchurch en Nouvelle-Zélande, les États et les plateformes géantes se sont alliées dans un vibrant appel de Christchurch[2]. Cet appel se contente de promouvoir la solution magique de la suppression de contenu en ligne, sans se poser la question de ce qui a poussé nos sociétés vers cette violence extrême. En refusant de voir les menaces posées par la coordination des groupes promouvant la culture de la haine de l’autre et de les considérer dans leur globalité, en les réduisant aux seuls espaces des médias sociaux, les États et plateformes montrent que leur intérêt n’est pas de combattre la haine, mais de réguler la pensée. Car se reposer sur les systèmes mis en place par les plateformes pour filtrer le débat, leur déléguer la tâche de déterminer ce qui est une parole haineuse c’est établir que, d’une part, les États abandonnent totalement leur rôle de protection des personnes minorisées, et que, d’autre part, ce qui est publié sur les plateformes, et qui reste en ligne, n’est pas une parole de haine.

La marginalisation des minorités

Réduire l’émergence d’une culture de la haine à un simple problème pouvant être résolu par des maths, à un problème spécifique aux médias sociaux, c’est nier l’implication des différents gouvernants et autres personnes publiques et politiques dans la propagation et la tolérance des idées de cette culture de la haine. C’est considérer qu’il ne s’agit que d’un phénomène marginal, qui peut se régler avec un filtre, faisant magiquement disparaître cette culture. Le débat sur le contrôle de la parole en ligne n’est pas, au final, celui de la lutte contre les discriminations et la haine. C’est certes une tendance inquiétante de nos sociétés, et ces cultures de la haine doivent être combattues, en ligne comme hors ligne, mais la régulation de la parole sur des plateformes monolithiques et hégémoniques ne fait que renforcer les cultures mises en avant par ces plateformes, au détriment des personnes et cultures minorisées. Que ce soit en démonétisant le contenu produit par les membres de ces communautés (comme le fait YouTube), en bannissant les personnes répondant à leurs agresseurs (comme le fait Twitter) ou par la suppression massive du contenu non-conforme (comme l’a fait Tumblr), les principales personnes victimes de cette suppression de la parole sont toujours les personnes censées être protégées par ces mesures. Ce sont les activistes, journalistes et chercheurs qui pâtissent le plus de la suppression du contenu « faisant l’apologie du terrorisme », pas les organisations terroristes.

Les termes du débat ne sont pas ceux de la modération ou de la protection des personnes victimes de violences. Ce sont ceux de l’abandon de la diversité culturelle au profit d’une méga-culture dominante et prédatrice, promue par quelques intérêts privés ; de la consécration par les plateformes du modèle culturel des identitaires, des suprémacistes et des conservateurs, reléguant quiconque refuse leur vision du monde dans les marges. Mais c’est aussi l’entretien de la confusion entre publier et promouvoir. Confusion derrière laquelle les GAFAM se cachent pour continuer leurs opérations d’éradication des cultures non-voulues et de monétisation de la haine. Il y a pourtant une différence importante qui, dans la loi Française, est la différence entre le statut d’hébergeur et celui d’éditeur. La différence est sur l’intentionnalité. Publier un contenu, c’est à dire le mettre à disposition du public, est fondamentalement différent de promouvoir ce contenu. La promotion ce n’est pas mettre à disposition du public. C’est prioriser un contenu, pour le mettre en avant et le diffuser activement au plus grand nombre de personnes possibles. Laisser les GAFAM faire croire qu’ils ne font que publier du contenu c’est leur permettre de faire pencher le débat en leur faveur, car ce n’est alors pas de leur faute si des identitaires s’en vont tuer des personnes à l’arme automatique, vu qu’elles n’ont pas promu le contenu.

La modération, en tant que pratique culturelle

Mais qu’est-ce que la modération ? Il s’agit d’un ensemble de pratiques, plus ou moins informelles, permettant à chacune de participer au développement culturel des communautés — choisies ou non — auxquelles elle appartient tout en réduisant les violences en son sein. Son but n’est pas la suppression des contenus ou des personnes, mais la réduction des violences. Elle s’inscrit dans le cadre d’une culture et est donc nécessairement liée aux contextes dans lequel elle prend place, faisant de la modération une pratique nécessairement interprétative. Ce n’est pas du « tone policing » ou de la censure. La modération reconnaît que l’on puisse être énervé, virulent ou maladroit. Au cœur de toute interaction sociale, elle reconnaît nos imperfections, nos sentiments mais aussi nos capacités de raisonnement et cherche activement à réduire les comportements violents, blessants et destructeurs. Elle nous permet de faire ensemble, de créer des communautés. Dans un contexte de destruction et de réduction culturelle au profit d’une hégémonie, il paraît impossible de parler de modération. Une pratique renforçant et soutenant les violences commises au nom d’une culture ne saurait être de la modération. Comme la modération, c’est une forme de contrôle social. Mais utilisée dans le but de détruire et blesser un ou plusieurs groupes culturels ou communautés.

Oui c’est une pratique active qui nécessite une implication forte dans les communautés concernées, et donc une compréhension de celles-ci. Et une communauté, ça se cultive, ça se travaille. Un peu comme un jardin : Il faut parfois favoriser une plante un peu faible vis à vis d’autres envahissantes, mais la plupart du temps, il suffit de laisser faire et de s’assurer que chacune dispose des ressources nécessaires à son développement. Vouloir modérer les plateformes des GAFAM, selon les termes qu’ils nous proposent, c’est faire de l’agriculture industrielle : destruction de la diversité, destruction des sols, maximisation des profits et uniformisation des semences.

Les gardiens de la morale

Les GAFAM cherchent d’ailleurs à se positionner en garants de la morale, de la bonne tenue des débats et s’octroient le droit de déterminer ce qui est autorisé à exister. Ils prétendent pouvoir accomplir la titanesque tâche de comprendre l’intégralité du contexte associé à chaque morceau d’information entreposé dans leurs silos étanches. Le tout dans la plus grande opacité, sans aucun contre-pouvoir ni processus d’appel effectif et dans des conditions de travail difficiles et précaires pour les personnes chargées de valider les contenus. Ce modèle n’est pas celui de la modération. C’est celui de la domination, de la promotion d’une seule et unique culture et de la suppression de toutes les autres. Maintenir l’illusion que cette domination est une modération met en danger toutes les personnes qui s’opposeraient à cette domination.

Un tweet peut être légal aux États Unis, et illégal en France. Ou, plus exactement, la promotion du contenu d’un tweet faisant « l’apologie du terrorisme » est illégale en France. Charge aux plateformes de se débrouiller avec ces codes pénaux incompatibles entre eux, quitte à faire du zèle (une grande partie des contenus supprimés dans le cadre de la lutte anti-terroriste sont, en fait, des contenus postés par des activistes cherchant à documenter ce qu’il se passe sur le terrain [3]) ou à rejeter leurs responsabilité sur les algorithmes fermés et opaques, structures mathématiques quasi-divines auxquelles les GAFAM vouent un culte dogmatique. Ou alors, elles vont magouiller pour ne pas être tenues responsables, tout en continuant impunément de promouvoir les contenus qui rapportent à leurs clients publicitaires. Et donc les contenus dépourvus de complexité et de nuances. Et c’est ce qui est en réalité au cœur des débats en ce moment : le modèle d’affaire, basé sur la mesure de l’engagement de ces entreprises.

Un Internet des polémistes ?

En utilisant la mobilisation, ou l’engagement, des utilisateurs (et donc, en comptant le nombre de vues, de repartage, de réponses) comme mesure du capital et de la richesse des personnes, on met en avant les interactions avec le contenu, quel que soit le contenu ou l’interaction. Comme de nombreux polémistes en font régulièrement la preuve, il est bien plus facile de mobiliser massivement en tenant un discours polarisant, émotionnel, simplificateur et clivant que de le faire en faisant preuve de démonstrations rigoureuses, en s’appuyant sur des faisceaux de faits, ou en usant de subtilité et de nuance. Les mesures d’engagement ont donc pour but de créer des comportements agressifs et haineux afin de maximiser le profit des GAFAM.

Proposer une métrique différente pourrait favoriser les contenus qui rendent les utilisateurs heureux — du moins pour une certaine définition de heureux, mais on se retrouverait alors à n’avoir que du contenu « mignon » et des plateformes sur lesquelles il serait impossible de demander de l’aide psychologique ou médicale par exemple. C’est le modèle au cœur de Facebook et basé sur le « like » supposé encourager les comportements vertueux. Et, en cas de conflit, les utilisatrices se retrouvent à la merci du dieu tout puissant qui administre la plateforme et décide seul et sans aucune transparence de ce qui est considéré comme du contenu acceptable, sans processus d’appel. Changer la métrique et le modèle d’affaire n’est pas suffisant. Le problème est qu’il existe des dieux, des entités ayant tout pouvoir sur le contenu existant sur leurs machines, décidant de ce qu’ils acceptent de publier et de promouvoir et imposant leurs décisions aux membres de leurs plateformes.

Pour stopper la propagation de propos haineux, il faut cesser d’en faire la promotion. C’est évident pour quiconque critique les chaînes d’information en continu qui invitent ad nauseam les mêmes polémistes « ne pouvant s’exprimer nulle part ». Les techniques de harcèlement en ligne sont basées sur la promotion de contenu spécifique à destination d’une personne, ou de ses cercles d’amis. Que ce soit en le partageant et en le repartageant ou en mobilisant une armée de bots pour inonder les mentions d’une personne de contenu haineux, les médias sociaux servent d’amplificateurs. Ils sont conçus pour amplifier votre voix, votre message, quel qu’il soit mais à condition qu’il puisse être monétisé. Si vous atteignez un certain volume de messages, vous pouvez créer une tendance, tendance qui générera encore plus d’engagement. Comme dans le système du capitalisme financier, plus vous avez d’engagement, plus vous avez d’engagement. Tant que le modèle d’affaire de ces entreprises sera basé sur la promotion — la mise en avant — de contenu, alors elles n’ont aucun intérêt à donner aux communautés les moyens de décider elles-mêmes de comment elles souhaitent gérer le contenu.

Un Internet des protocoles : libre, décentralisé et ouvert

C’est pourtant la seule solution pour construire un Internet permettant à tout le monde de pouvoir exister et d’être ce qu’elles ont envie d’être, d’échapper à une certaine forme de déterminisme. En fournissant des outils aux communautés d’utilisatrices et en acceptant que plusieurs cultures doivent coexister sur une même plateforme, alors il devient possible d’envisager une modération de contenu convenant aux communautés. Ce n’est pas pour autant que chacune de ces communautés deviendra un havre de paix, et qu’il n’y aura plus aucun conflit en ligne, mais chacune disposera de moyens pour réduire les violences infligées par celles qui abusent du système. Chacune de ces communautés pourra améliorer les systèmes qui lui semblent imparfaits, décider des règles qu’elles veulent suivre, sans pouvoir les imposer aux autres. Chacune d’entre elle pourra contribuer au fragile édifice qu’est Internet, et bénéficier des contributions des autres.

Et pour que ces outils existent, il faut séparer les rôles techniques (administratrices système, développeuses) de ceux de la gestion du contenu (éditrices, modératrices, contributrices). Il faut que le transit de données, et leur stockage, soit fonctionnellement séparés de la gestion de contenu, de la promotion de celui-ci et des éventuels filtrages. Il faut des outils permettant de pouvoir communiquer avec les plateformes, existantes et à venir, d’interagir avec leur contenu, sans nécessiter une intervention d’une administratrice technique. Des outils interopérables, permettant à chacune de contribuer, de construire, de forker et d’améliorer cet Internet, non plus basé sur des silos de données étanches, des apps ou des plateformes hégémoniques, mais basés sur des protocoles servant de substrat à de multiples cultures. La bonne nouvelle, c’est que ces outils existent. Le partage de fichier en pair à pair en est un bon exemple. Des messageries qui fonctionnent par-dessus des systèmes de distribution de trafic réseau tels que Tor ou GNUNet apparaissent un peu partout. En se concentrant sur l’interopérabilité, ainsi qu’en utilisant des systèmes ne reposant pas sur une identification centralisée, tout en retirant aux administratrices les capacités de promotion ou de suppression de contenu, alors il devient possible de créer des filtres, des agrégateurs collectifs, ou toute autre solution qu’une communauté pourra juger pertinente pour son cas d’usage. Il devient possible de construire des systèmes multi-culturels et réduisant les violences, et donc d’effectuer une modération pertinente et nécessaire à la vie saine des groupes de personnes partageant au moins une part de ces cultures.

Non, il n’est pas possible de modérer les plateformes hégémoniques monoculturelles. Mais ce n’est pas pour autant qu’il n’est pas possible de créer des espaces modérés en ligne, choisis et définis par leurs membres et non par des dieux techniciens jugeant de ce qu’ils doivent promouvoir ou publier.


  1.  https://joinmastodon.org/covenant
  2.  https://www.appeldechristchurch.com/
  3.  https://www.wired.com/story/facebooks-hate-speech-policies-censor-marginalized-users/
]]>
La Quadrature du Net attaque l’application ALICEM, contre la généralisation de la reconnaissance facialehttps://www.laquadrature.net/?p=14598http://streisand.me.thican.net/laquadrature.net/index.php?20190717_152805_La_Quadrature_du_Net_attaque_l___application_ALICEM__contre_la_generalisation_de_la_reconnaissance_facialeWed, 17 Jul 2019 13:28:05 +0000Lundi dernier, La Quadrature du Net a déposé un recours devant le Conseil d’État pour demander l’annulation du décret autorisant la création de l’application mobile intitulée « ALICEM », pour « Authentification en ligne certifiée sur mobile ». En y conditionnant la création d’une identité numérique à un traitement de reconnaissance faciale obligatoire, le gouvernement participe à la banalisation de cette technologie, et cela au mépris de l’avis préalable de la CNIL qui avait pourtant souligné son illégalité. Les récentes déclarations de Christophe Castaner qui a mis en avant cette application pour lutter contre l’anonymat et la haine sur Internet ne peuvent qu’alerter.

L’application ALICEM, développée par l’Agence des Titres Sécurisés (ANTS), vise à permettre aux détenteurs d’un passeport biométrique (ou d’un titre de séjour électronique) de se créer une identité numérique pour faciliter l’accès à certains services sur Internet, administratifs ou commerciaux. Comme l’explique la notice même du décret qui en autorise la création, « ce traitement automatisé de données à caractère personnel vise à permettre une identification électronique et une authentification pour l’accès à des services en ligne en respectant les exigences relatives au niveau de garantie requis par le service en ligne concerné au sens du règlement européen « eIDAS » (…). Le moyen d’identification électronique peut être utilisé prioritairement pour l’accès à des services dont les fournisseurs sont liés par convention à FranceConnect » (par exemple, impots.gouv, l’Assurance maladie… voir une liste des partenaires ici).

Concrètement, cela fonctionne ainsi : une personne détenant un titre avec une puce biométrique (passeport ou titre de séjour) télécharge l’application sur son smartphone (pour l’instant seulement sur les téléphones Android), pour y créer un compte. Pour cela, il doit procéder à la lecture avec son téléphone de la puce de son titre électronique. L’application a alors accès aux données qui y sont stockées, hors les empreintes digitales (notons que le décret du fichier TES est donc modifié pour permettre la lecture des informations stockées sur la puce électronique). Enfin, pour activer le compte, il faut se subordonner à un dispositif de reconnaissance faciale (dit « statique » et « dynamique », c’est à dire une photo et une vidéo avec des gestes à accomplir devant la caméra) pour vérifier l’identité. Alors seulement, l’identité numérique est générée et la personne peut utiliser ALICEM pour s’identifier auprès de fournisseurs de services en ligne [1].

Reconnaissance faciale obligatoire

Alors pourquoi l’attaquer ? Car l’application ALICEM oblige, au moment de l’activation du compte, de recourir à ce dispositif de reconnaissance faciale, sans laisser aucun autre choix à l’utilisatrice ou l’utilisateur. L’article 13 du décret énonce ainsi que l’ANTS informe l’usager « concernant l’utilisation d’un dispositif de reconnaissance faciale statique et de reconnaissance faciale dynamique et au recueil de son consentement au traitement de ses données biométriques ». Or, au sens du règlement général sur la protection des données (RGPD), pour qu’un consentement soit valide, il doit être libre, c’est-à-dire qu’il ne peut pas être contraint : « le consentement ne devrait pas être considéré comme ayant été donné librement si la personne concernée ne dispose pas d’une véritable liberté de choix » (Considérant 42). Ici, la personne voulant utiliser ALICEM n’a pas le choix de passer ou non par ce dispositif de reconnaissance faciale et le consentement dont se revendique le gouvernement n’est donc pas valable.

Cette analyse est d’ailleurs celle de la CNIL qui a rendu un avis sur ce décret, préalablement à sa publication. Dans cet avis, elle énonce clairement que, vu que la reconnaissance faciale est obligatoire et qu’il n’existe aucune autre alternative pour se créer une identité via ALICEM, « le consentement au traitement des données biométriques ne peut être regardé comme libre et comme étant par suite susceptible de lever l’interdiction posée par l’article 9.1 du RGPD ». Malgré cet avis et les alternatives imaginées par la CNIL au dispositif de reconnaissance faciale, le gouvernement n’a pas modifié son décret en le publiant.

À l’heure où les expérimentations de reconnaissance faciale se multiplient sans qu’aucune analyse ou débat public ne soit réalisée sur les conséquences d’un tel dispositif pour notre société et nos libertés [2], en général dans une large illégalité, et alors que des villes aux États-Unis en interdisent explicitement l’utilisation pour les services municipaux [3], le gouvernement français cherche au contraire à l’imposer à tous les citoyens via des outils d’identification numérique. Et même s’il ne s’agit ici pas de reconnaissance faciale « en temps réel » par des caméras de surveillance, il s’agit néanmoins bien de normaliser la reconnaissance faciale comme outil d’identification, en passant outre la seule condition qui devrait être acceptable pour son utilisation : notre consentement libre et explicite. Le gouvernement révèle par ailleurs son mépris pour la CNIL, dont l’influence semble diminuer de plus en plus. Fléchissant il y a quelques mois devant les publicitaires en leur laissant encore un an de plus pour respecter le RGPD (voir notre article), elle apparaît ici plus faible que jamais quand elle alerte le gouvernement sur la violation du consentement d’une personne quand au traitement de ses données biométriques et que le gouvernement ne la respecte clairement pas.

La haine, l’anonymat et ALICEM

Attaquer ce décret est d’autant plus nécessaire quand on voit les dangereux liens que tisse le ministre de l’Intérieur Christophe Castaner entre anonymat, haine et identité numérique. Il écrit ainsi, en tête de son rapport « État de la menace liée au numérique en 2019 » : « La liberté, justement, voilà tout le paradoxe d’internet. L’anonymat protège tous ceux qui répandent des contenus haineux et permet à des faux-comptes de se multiplier pour propager toutes sortes de contenus. Nous ne pouvons pas laisser les publications illicites se multiplier. Nous devons donc relever le défi de l’identité numérique pour que chaque Français, dès 2020, puisse prouver son identité et savoir avec qui il correspond vraiment ». Et quand il parle, plus loin, d’identité numérique, c’est pour directement mentionner le dispositif ALICEM. Le débat sur l’identité numérique arrive donc à grande vitesse et l’utilisation que souhaite en faire le gouvernement ne peut qu’alerter : un outil non pas au service du citoyen mais contre lui, pour lutter contre l’anonymat en ligne, pourtant fondamental pour l’exercice de nos droits sur Internet.

Un projet d’identité numérique, fondé sur un dispositif de reconnaissance faciale obligatoire (au mépris du RGPD) et ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat ne peut qu’être combattu. C’est l’objet de ce recours.

[1] Voir également l’analyse de Marc Rees sur Next Inpact.

[2] Lire notre analyse des enjeux politiques de la reconnaissance faciale.

[3] La ville de San Francisco a récemment adopté une telle interdiction, bientôt rejointe par une autre ville du Massachusetts.

]]>
[Arte] Internet : comment agir contre la cyberhaine ?https://www.laquadrature.net/?p=14590http://streisand.me.thican.net/laquadrature.net/index.php?20190712_130000__Arte__Internet____comment_agir_contre_la_cyberhaine___Fri, 12 Jul 2019 11:00:00 +0000Les députés de l’Assemblée nationale devraient adopter ce mardi une proposition de loi contre les messages de haine sur Internet. La loi Avia, du nom de la députée La République En Marche Laetitia Avia, qui défend le projet, s’inspire du système allemand. Son but est d’imposer de nouvelles obligations aux principaux réseaux sociaux, qui risqueront une amende pouvant aller jusqu’à 1,25 million d’euros s’ils ne suppriment pas sous vingt-quatre heures les messages à caractère haineux, ayant des références illicites notamment à la race, la religion, le sexe, ou encore le handicap. Mais le projet est très critiqué par l’opposition et son efficacité en Allemagne est incertaine à ce jour. Comment agir contre la cyberhaine ? On en parle dans « 28 Minutes ».

https://www.arte.tv/fr/videos/088473-007-A/28-minutes/

NDLRP – Extraits des propos de Benjamin Bayart à retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[RMC] 24 heures pour supprimer les contenus haineux: pourquoi la loi Avia semble difficilement applicablehttps://www.laquadrature.net/?p=14591http://streisand.me.thican.net/laquadrature.net/index.php?20190712_120000__RMC__24_heures_pour_supprimer_les_contenus_haineux__pourquoi_la_loi_Avia_semble_difficilement_applicableFri, 12 Jul 2019 10:00:00 +0000L’Assemblée nationale a voté jeudi l’obligation pour les plateformes internet de retirer en 24 heures les contenus haineux signalés, mesure-clé d’une proposition de loi LREM. Sous peine d’une condamnation à des amendes jusqu’à 1,25 million d’euros. […]

« La définition de ce qu’est un propos haineux a évolué presque chaque semaine depuis le début des débats sur cette loi extrêmement confuse« , explique Arthur Messaud, juriste à la Quadrature du Net. […]

https://rmc.bfmtv.com/emission/24-heures-pour-supprimer-les-contenus-haineux-pourquoi-la-loi-avia-semble-difficilement-applicable-1725403.html

NDLRP – Extraits des propos d’Arthur Messaud à retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LCI] Loi contre la haine en ligne : Demander à retirer en 24 heures les contenus, c’est extrêmement dangereuxhttps://www.laquadrature.net/?p=14589http://streisand.me.thican.net/laquadrature.net/index.php?20190712_110000__LCI__Loi_contre_la_haine_en_ligne____Demander_a_retirer_en_24_heures_les_contenus__c___est_extremement_dangereuxFri, 12 Jul 2019 09:00:00 +0000INTERVIEW – Examinée mercredi 3 juin [lire juillet, NDLRP] par l’Assemblée nationale, la proposition de loi « contre la haine en ligne » forcerait les plateformes et autres réseaux sociaux à supprimer les contenus haineux sous 24 heures. Est-ce efficace ? Est-ce seulement possible ? On a posé la question à l’association La Quadrature du Net.

Responsabiliser les grandes plateformes du Web (Facebook, Twitter, Youtube etc.) et durcir la lutte contre la haine sur internet, tel est l’objectif de la proposition de loi portée par la députée LREM Laetitia Avia, dont l’examen à l’Assemblée nationale a débuté ce mercredi 3 juin [juillet, NDLRP]. Ce texte suscite l’inquiétude des grandes plateformes mais aussi de La Quadrature du Net. L’association française de défense des libertés en ligne dénonce un texte « dangereux« . Benoit Piédallu, membre de l’association détaille les risques que peut créer la loi. […]

https://www.lci.fr/politique/cyberharcelement-loi-contre-la-haine-en-ligne-demander-a-retirer-en-24-heures-les-contenus-c-est-extremement-dangereux-2125992.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LInformaticien] Cookies : le drôle de jeu de la Cnilhttps://www.laquadrature.net/?p=14572http://streisand.me.thican.net/laquadrature.net/index.php?20190711_130000__LInformaticien__Cookies____le_drole_de_jeu_de_la_CnilThu, 11 Jul 2019 11:00:00 +0000Les sites français ont droit à un sursis d’un an quant au recueil du consentement de leurs visiteurs à se faire traquer. Cette période transitoire offerte par la Cnil aux éditeurs fait enrager les défenseurs de la vie privée et pourrait valoir au régulateur un remontage de bretelles au niveau européen. […]

L’association [La Quadrature du Net, NDLRP] assure que cette décision est le résultat de négociations entre la Cnil et le GESTE, syndicat d’éditeurs de contenus en ligne). « Aujourd’hui, la CNIL semble vouloir appliquer un droit différent entre Google et les médias français qui, eux, pourraient se contenter d’un consentement « implicite », violant tranquillement nos libertés fondamentales dans la poursuite de profits publicitaires intolérables » écrit la Quadrature, qui n’exclut pas de former un recours devant le Conseil d’Etat.

https://www.linformaticien.com/actualites/id/52348/cookies-le-drole-de-jeu-de-la-cnil.aspx

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMedia] Référendum ADP : le sabotage du gouvernement – Benjamin Sonntaghttps://www.laquadrature.net/?p=14573http://streisand.me.thican.net/laquadrature.net/index.php?20190711_120000__LeMedia__Referendum_ADP____le_sabotage_du_gouvernement_____Benjamin_SonntagThu, 11 Jul 2019 10:00:00 +0000Difficile de signer la pétition pour le référendum d’initiative partagée contre la privatisation d’aéroports de Paris : l’interface est difficile à utiliser, le référencement mauvais, les bugs nombreux. Y a-t-il clairement sabotage ? Quelles données sont accessibles au public ? Qu’aurait pu (et du) faire le gouvernement ? Pour en parler, Théophile Kouamouo reçoit Benjamin Sonntag, ingénieur réseau et activiste, co-fondateur La Quadrature du Net.

https://www.youtube.com/watch?v=elbgH5-YSX0l

NDLRP – À retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[CNET] La reconnaissance faciale arrive dans nos lycées : doit-on se méfier ?https://www.laquadrature.net/?p=14574http://streisand.me.thican.net/laquadrature.net/index.php?20190711_110000__CNET__La_reconnaissance_faciale_arrive_dans_nos_lycees____doit-on_se_mefier___Thu, 11 Jul 2019 09:00:00 +0000Vide juridique et banalisation de la surveillance ? En septembre, la reconnaissance faciale devrait faire son entrée dans deux lycées du sud de la France pour contrôler les allées et venues des lycéens. Faut-il s’inquiéter ? […]

À la Quadrature du Net, Martin Drago, avocat spécialisé dans le droit des données personnelles, s’inquiète d’un risque de banalisation de la reconnaissance faciale,  » alors même que cette technologie n’a fait l’objet, en France, d’aucun véritable débat /strong> » sur la pertinence de son usage.  » La reconnaissance faciale, c’est pour nous un outil de surveillance de masse, fait pour ça, pour nous surveiller constamment. Elle exploite votre visage – quelque chose que vous ne pouvez pas cacher -, ce qui fait que vous êtes reconnu et surveillé constamment dans l’espace public, sans pouvoir vous y opposer, contrairement au principe du libre consentement du RGPD. Ce qui est grave avec cette expérience dans des lycées, c’est qu’on touche des mineurs. On les habitue à une surveillance biométrique, on les accoutume, et cela participe à banaliser tous les projets présents et futurs de vidéosurveillance dopés à la reconnaissance faciale sur notre territoire « , explique le juriste […]

https://www.cnetfrance.fr/news/la-reconnaissance-faciale-arrive-dans-nos-lycees-doit-on-se-mefier-39886397.htm

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Franceinfo] Haine sur Internet : le gouvernement veut faire semblant d’agir et renforcer les moyens de la police pour défendre son image sur Internethttps://www.laquadrature.net/?p=14569http://streisand.me.thican.net/laquadrature.net/index.php?20190710_130000__Franceinfo__Haine_sur_Internet____le_gouvernement_veut_faire_semblant_d___agir_et_renforcer_les_moyens_de_la_police_pour_defendre_son_image_sur_InternetWed, 10 Jul 2019 11:00:00 +0000Arthur Messaud, de l’association La Quadrature du Net, réagit à la proposition de loi étudiée à l’Assemblée nationale, qui prévoit de renforcer la lutte contre les propos haineux sur internet. […]

« Le harcèlement en ligne, les idéologies oppressives qui se répandent, ce sont de vrais problèmes. Mais ce qui nous inquiète dans cette proposition de loi, c’est qu’elle ne propose aucune solution. Elle se moque des victimes, en faisant croire qu’il suffit d’aller serrer la main à Mark Zuckerberg, le président de Facebook, pour régler la situation. »  […]

https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/haine-sur-internet-le-gouvernement-veut-faire-semblant-d-agir-et-renforcer-les-moyens-de-la-police-pour-defendre-son-image-sur-internet_3519157.html

NDLRP – À retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Mediapart] Liberté d’expression: Nicole Belloubet veut s’attaquer à la loi de 1881https://www.laquadrature.net/?p=14570http://streisand.me.thican.net/laquadrature.net/index.php?20190710_120000__Mediapart__Liberte_d___expression__Nicole_Belloubet_veut_s___attaquer_a_la_loi_de_1881Wed, 10 Jul 2019 10:00:00 +0000La ministre de la justice veut lancer une réflexion sur la sortie de la loi sur la liberté de la presse des infractions liées aux « propos haineux » sur internet, qui pourraient ainsi par exemple être jugées en comparution immédiate. Au risque de créer « une nouvelle bureaucratie de la censure », voire de « privatiser » le contrôle de la liberté d’expression, estiment ses détracteurs. […]

« Nous sommes en train de créer une nouvelle bureaucratie de la censure, avec des relations de plus en plus poussées et des collaborations extralégales avec les entreprises privées », dénonce Félix Tréguer. « Nous vivons la fin de l’idéologie libérale, au sens du XIXe siècle. » […]

https://www.mediapart.fr/journal/france/180619/liberte-d-expression-nicole-belloubet-veut-s-attaquer-la-loi-de-1881

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[EnjeuxNumeriques] Filtrage automatique et libertés : peut-on sortir d’un internet centralisé ?https://www.laquadrature.net/?p=14571http://streisand.me.thican.net/laquadrature.net/index.php?20190710_110000__EnjeuxNumeriques__Filtrage_automatique_et_libertes____peut-on_sortir_d___un_internet_centralise___Wed, 10 Jul 2019 09:00:00 +0000Par Lionel Maurel.

Que ce soit au niveau français ou européen, on assiste aujourd’hui à une multiplication des projets de réglementations visant à imposer aux grandes plateformes centralisées des mesures de filtrage automatique des contenus, qu’il s’agisse de lutter contre la contrefaçon, la haine en ligne ou l’apologie du terrorisme. Ces dispositifs techniques sont susceptibles de compromettre l’exercice des libertés, notamment en modifiant en profondeur les règles applicables en matière de responsabilité des intermédiaires techniques. Mais ils risquent aussi paradoxalement de renforcer la domination des grands acteurs – type GAFAM – en compromettant la possibilité de décentraliser à nouveau les usages sur Internet. […]

http://www.annales.org/enjeux-numeriques/2019/resumes/juin/05-en-resum-FR-AN-juin-2019.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
L’Assemblée nationale adopte et aggrave la loi « haine »https://www.laquadrature.net/?p=14558http://streisand.me.thican.net/laquadrature.net/index.php?20190709_162253_L___Assemblee_nationale_adopte_et_aggrave_la_loi_____haine____Tue, 09 Jul 2019 14:22:53 +0000L’Assemblée Nationale a adopté aujourd’hui la loi « haine », débattue mercredi et jeudi derniers. Le texte n’a pas été amélioré mais au contraire aggravé, avec des ajouts absurdes et dangereux.

Sur les dangers de ce texte tel qu’issu des travaux en commission des lois (avant son passage en séance plénière), nous avions déjà écrit plusieurs articles à ce sujet. Ces dangers n’ont pas disparu et sont toujours d’actualité.

Le texte adopté aujourd’hui a malheureusement ajouté par amendements une série de dispositions qui aggrave largement la situation, qu’il nous faudra collectivement veiller à faire corriger au Sénat lors des débats à la rentrée.

Création d’une base de données de la haine

L’ajout le plus absurde et délétère concerne l’obligation faite aux plateformes d’ « empêcher la rediffusion de contenus » manifestement illicites. Concrètement, cela signifie qu’une fois qu’une plateforme a retiré un contenu qu’elle a considéré comme « manifestement illicite » (seule, sans le contrôle d’une juge) et qui rentre dans le champ d’application de la loi (allant du sexisme à l’apologie du terrorisme, en passant par l’entraide entre travailleuses du sexe et la diffusion d’images pornographiques accessibles aux mineurs), la plateforme doit tout faire pour en empêcher la rediffusion (avec la menace de la sanction de 4% du chiffre d’affaires par le CSA). Une telle obligation force donc les plateformes à surveiller l’ensemble des contenus postés par ses utilisateurs et à les comparer avec le contenu auparavant retiré. Comme nous l’avions indiqué, cela est strictement interdit par le droit de l’Union européenne qui, dans sa directive e-commerce, interdit depuis 2000 aux États de forcer de tels acteurs à mettre en place « une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Espérons que le Sénat soit plus au courant du droit européen que l’Assemblée. Sans cela, nous devrons, une fois encore, attaquer la loi française devant les juridictions de l’Union.

Une telle obligation est à rapprocher d’un autre amendement adopté et qui donne au CSA un nouveau pouvoir. Celui-ci doit maintenant encourager « les opérateurs de plateforme en ligne […] dans la mise en œuvre d’outils de coopération dans la lutte contre les contenus à caractère haineux ». Cela fait tout de suite penser au règlement anti-terroriste contre lequel La Quadrature du Net a lutté ces derniers mois (et luttera dans les mois à venir et ce n’est pas fini) : ce texte cherche à étendre à l’ensemble des acteurs de l’Internet la « base d’empreintes numériques » créée par les géants du Web et mise en avant par la Commission européenne.

Comme nous l’expliquons, il s’agit d’une base de données nourrie par les géants du Web qui se partagent l’empreinte numérique des contenus « à caractère terroriste » qu’ils censurent pour éviter qu’ils ne réapparaissent ailleurs. La Commission européenne et les États membres voient dans cette solution algorithmique la solution magique contre la diffusion des contenus terroristes en ligne (refusant de voir les dangers qu’il y a à déléguer tant de pouvoirs à des algorithmes opaques inventés par des sociétés privées hégémoniques). On retrouve ici presque la même idée, avec une base de données partagée entre plateformes pour censurer, préalablement à leur mise en ligne, des contenus qui auraient déjà été considérés comme manifestement illicites et retirés par une autre plateforme. Le juge national et indépendant est remplacé par les décisions de Facebook et Google destinées à s’imposer à tous les internautes et toutes les plateformes ou presque.

Les seuils

Autre ajout alarmant : la précision selon laquelle le gouvernement pourra fixer plusieurs seuils de connexions au-delà desquels les plateformes devront respecter les obligations fixées par cette loi. Deux amendements identiques ont été adoptés à ce sujet. Mais si l’amendement tel que présenté par la majorité parlait de prise en compte de la « diversité des activités des acteurs » visés par le texte (car celui-ci vise aussi bien des réseaux sociaux que des moteurs de recherche), d’autres députés présentaient donc le même amendement dans une formulation plus grave de conséquences. En effet, si cette loi a été pensée au départ pour ne viser que les très grandes plateformes, les députés expliquent ici que ces géants du Web respectent en réalité déjà l’ensemble des obligations de la loi et qu’il faut alors viser les « plus petits opérateurs, moins scrupuleux, mais très actifs dans la propagation des contenus haineux sur internet ». C’était exactement la même justification qui était à l’œuvre pour le règlement européen anti-terroriste. Un tel amendement, autre que de risquer de soumettre beaucoup d’acteurs aux obligations de cette loi, laisse ainsi au gouvernement une grande marge de manœuvre dans l’application du texte car il reviendra à lui-seul d’en décider, par décret, le ou les champs d’application. Ensuite, comme dit plus haut, le CSA aura tout pouvoir pour obliger tous ces nouveaux acteurs à se soumettre aux listes noires édictées arbitrairement par Facebook et Google.

Recul du juge

D’autres amendements révèlent la dérive d’ensemble de ce projet politique. L’Assemblée veut ainsi créer un « Observatoire de la haine en ligne », qui « assure le suivi et l’analyse de l’évolution des contenus visés à l’article premier de la présente loi, en lien avec les opérateurs, associations et chercheurs concernés ». Une telle institution ne peut apparaître que comme un échelon supplémentaire entre l’appréciation du contenu et le juge judiciaire, pourtant seul à même d’en décider le caractère manifestement illicite ou non. Ce dernier disparaît encore un peu plus, passant après la plateforme, le CSA et maintenant l’Observatoire. D’ailleurs, les débats à l’Assemblée n’ont cessé de le rappeler : la jurisprudence dégagée par l’institution judiciaire serait trop éparpillée, ne raisonnant qu’au cas par cas (et c’est en effet bien son rôle) et il faudrait donc trouver un moyen pour construire une jurisprudence extra-judiciaire capable de distinguer le licite et l’illicite, efficacement (comprendre : sans juge, sans appréciation concrète et sans procédure contradictoire).

L’interopérabilité, une voie de sortie au débat

Le sujet de l’interopérabilité a été abordé au travers de sept amendements proposés par une multitude de députés, marquant une vision fortement transpartisane sur le sujet. Malgré la lettre signée par plus de 70 organisations françaises et européennes, et malgré la conviction des élues qui ont essayé de faire comprendre à la rapporteure et au gouvernement le rôle profondément néfaste de l’économie de l’attention dans la diffusion des contenus haineux, Laetitia Avia et Cédric O ont tout refusé en bloc. Cédric O a encore une fois fait part de sa crainte de s’attaquer trop frontalement à ce modèle économique, craignant les représailles des États-Unis. La démission politique est si complète qu’elle n’est même plus dissimulée.

De son côté, Madame Avia a enchaîné les mauvaises comparaisons (utilisant ainsi à mauvais escient le souvenir de Rosa Parks) pour expliquer que ce n’était pas à la victime de partir mais à l’endroit de changer. C’est oublier que l’endroit, en l’espèce la plateforme, est intrinsèquement biaisé, fondé sur la culture du buzz et la mise en avant justement de contenus « à clics ». Si l’on devait utiliser les mêmes métaphores que la rapporteure, on pourrait répondre qu’il ne paraît pas non plus judicieux de confiner les bourreaux et les victimes dans la même plateforme, surtout quand le directeur de la plateforme organise matériellement les combats. Et Mme Avia semble aussi oublier que, si l’intention de corriger les géants du Net est louable, ce sont bien les militant·es des libertés numériques qui s’y attellent, en utilisant notamment le RGPD pour déconstruire leur modèle toxique (voir nos plaintes collectives), et non elle, avec qui Facebook, Google et Twitter annoncent fièrement collaborer pour écrire la loi. Difficile de ne pas lire la position de Mme Avia et de M. O comme autre chose que la défense d’entreprises hégémoniques partageant leurs idéaux économiques et autoritaires.

Quoi qu’il en soit, les débats sur l’interopérabilité à l’Assemblée sont apparus comme la seule voie de sortie crédible pour les parlementaires qui prétendent vouloir lutter contre la haine en ligne. La véhémence des désaccords entre la majorité et ses adversaires (ou même certains de ses alliés) a marqué l’importance du sujet. De quoi nous laisser enthousiastes pour poursuivre ces efforts au Sénat en septembre.

Rappelons que le gouvernement a engagé la procédure accélérée sur ce texte, cela signifiant qu’il ne peut y avoir qu’une seule lecture du texte par chambre (avec intervention de la commission mixte paritaire si les deux chambres ne sont pas d’accord).

Alors que l’ensemble des acteurs du monde numérique (plateformes, associations, Conseil National du Numérique, journalistes…), accompagnés notamment par le Conseil national du barreau, ont souligné les dangers et l’absurdité de ce texte, Madame Laetitia Avia et le gouvernement continuent leur processus de destruction de l’Internet, tout en échouant à repousser avec sérieux les arguments qui leur sont opposés.

]]>
[FranceInfo] Objectif, utilisation, dangers… On vous explique Libra, la cryptomonnaie que Facebook veut lancer en 2020https://www.laquadrature.net/?p=14562http://streisand.me.thican.net/laquadrature.net/index.php?20190709_130000__FranceInfo__Objectif__utilisation__dangers____On_vous_explique_Libra__la_cryptomonnaie_que_Facebook_veut_lancer_en_2020Tue, 09 Jul 2019 11:00:00 +0000Le réseau social s’est associé à plusieurs grandes entreprises pour ce projet qui devrait voir le jour l’année prochaine. […]

L’arrivée de cette nouvelle cryptomonnaie n’est pas forcément vue d’un bon œil par tout le monde. Le réseau social ne ferait que renforcer sa position dominante, selon Benoît Piédallu, membre de la Quadrature du net, association qui défend les libertés individuelles sur Internet.

« Facebook est déjà extrêmement présent dans la vie des citoyens du monde, donc c’est un élément supplémentaire dans son hégémonie, et ça c’est un vrai problème parce que ça rajoute à sa capacité de nuisance, ça augmente son pouvoir sur les utilisateurs. » […]

https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/objectif-utilisation-dangers-on-vous-explique-libra-la-cryptomonnaie-que-facebook-veut-lancer-en-2020_3491259.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInfo] En lançant sa cryptomonnaie, Facebook va augmenter son pouvoir sur les utilisateurshttps://www.laquadrature.net/?p=14563http://streisand.me.thican.net/laquadrature.net/index.php?20190709_120000__FranceInfo__En_lan__ant_sa_cryptomonnaie__Facebook_va_augmenter_son_pouvoir_sur_les_utilisateursTue, 09 Jul 2019 10:00:00 +0000Pour l’association la Quadrature du net, la nouvelle monnaie lancée par Facebook va encore étendre l’hégémonie et le pouvoir du réseau social sur ses utilisateurs. […]

Benoit Piédallu, membre de la Quadrature du net, association qui défend les libertés individuelles sur Internet, craint que cette monnaie soit « un élément supplémentaire dans l’hégémonie » de Facebook, et estime que cela va « augmenter son pouvoir sur les utilisateurs« . […]

https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/en-lancant-sa-cryptomonnaie-facebook-va-augmenter-son-pouvoir-sur-les-utilisateurs_3490463.html

NDLRP – À retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMedia] Facebook est-il votre prochaine banque ?https://www.laquadrature.net/?p=14564http://streisand.me.thican.net/laquadrature.net/index.php?20190709_110000__LeMedia__Facebook_est-il_votre_prochaine_banque___Tue, 09 Jul 2019 09:00:00 +0000Facebook. Un géant du numérique, et une des multinationales les plus influentes du monde, serait en passe d’émettre sa propre monnaie privée. La multinationale a-t-elle intérêt à entrer dans l’univers si particulier des cryptomonnaies ? Quels sont les dangers pour nos libertés à l’heure du capitalisme de surveillance ? […]

https://www.youtube.com/watch?v=m4pQjWx_sas

NDLRP – Sujet diffusé le 8 avril 2019, avant l’annonce du Libra par Facebook, dressant un panorama des enjeux des cryptomonnaies. Extraits avec Axel Simon de La Quadrature du Net à retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Arthur Messaud dénonce une loi « inutile » qui donnerait de nouveaux pouvoirs à la policehttps://www.laquadrature.net/?p=14539http://streisand.me.thican.net/laquadrature.net/index.php?20190708_130000__FranceCulture__Arthur_Messaud_denonce_une_loi_____inutile_____qui_donnerait_de_nouveaux_pouvoirs_a_la_policeMon, 08 Jul 2019 11:00:00 +0000 […] La commission des Lois de l’Assemblée a adopté hier la proposition de loi contre la haine en ligne. Un texte porté par la députée LREM Laetitia Avia qui vise à supprimer les contenus haineux sur internet. Concrètement, les opérateurs, à commencer par les plateformes type Facebook, Twitter ou YouTube, auront 24 heures pour retirer ces contenus. Il s’agit notamment de l’incitation à la haine raciale ou de l’apologie du terrorisme. Mais ce projet de loi est loin de faire l’unanimité. Invité de ce journal, Arthur Messaud, juriste à la Quadrature du Net, association mobilisée pour la liberté sur internet […]

https://www.franceculture.fr/emissions/journal-de-22h/journal-de-22h-du-jeudi-20-juin-2019

NDLRP – À retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LaCroix] L’autorégulation des plates-formes est dangereuse et inefficacehttps://www.laquadrature.net/?p=14540http://streisand.me.thican.net/laquadrature.net/index.php?20190708_120000__LaCroix__L___autoregulation_des_plates-formes_est_dangereuse_et_inefficaceMon, 08 Jul 2019 10:00:00 +0000Entretien. Arthur Messaud, juriste de l’association La Quadrature du Net.

Laisser aux géants de l’Internet la mission de réguler leurs contenus est à la fois inefficace et liberticide. Facebook veut rassurer ses utilisateurs et passer pour une plate-forme sécurisée, pour que ces derniers continuent de l’utiliser. L’entreprise investit donc déjà des moyens importants au service de la modération. À ce titre, elle prétend utiliser des outils de pointe tels que l’intelligence artificielle, avec entre autres la reconnaissance automatique d’image, afin de repérer les publications haineuses ou les fausses informations. […]

https://www.la-croix.com/Debats/Forum-et-debats/Lautoregulation-plates-formes-dangereuse-inefficace-2019-06-18-1201029715

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMoutonNumerique] Moutonery Report : quand la police prédictive entre dans nos vieshttps://www.laquadrature.net/?p=14541http://streisand.me.thican.net/laquadrature.net/index.php?20190708_110000__LeMoutonNumerique__Moutonery_Report____quand_la_police_predictive_entre_dans_nos_viesMon, 08 Jul 2019 09:00:00 +0000Félix Tréguer est chercheur associé au Centre Internet et Société du CNRS, post-doctorant au Centre de recherches internationales (CERI Sciences Po), et membre fondateur de l’association La Quadrature du Net.

Il nous a rejoint pour ce premier podcast qui interroge un sujet essentiel pour l’organisation de nos sociétés technologiques : la police prédictive et le pré-crime. […]

http://mouton-numerique.org/podcast-mouton-numerique/felix-treguer/

NDLRP – À retrouver aussi sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Résumé de la loi « haine » avant le vote de demainhttps://www.laquadrature.net/?p=14518http://streisand.me.thican.net/laquadrature.net/index.php?20190702_141704_Resume_de_la_loi_____haine_____avant_le_vote_de_demainTue, 02 Jul 2019 12:17:04 +0000L’Assemblée nationale discutera demain et après-demain la proposition de loi « contre la haine en ligne ». Débattue en procédure accélérée, il pourrait s’agir du dernier passage de ce texte devant les députés. Leur dernier occasion pour le corriger.

Résumons la loi et nos critiques (pour notre analyse complète, voir ici).

Délai de 24h

  • les grandes plateformes devront censurer en 24h les contenu « manifestement illicites » qui leur seront signalés ;
  • elles subiront une amende jusqu’à 4% de leur chiffre d’affaires en cas d’échecs répétés ;
  • sont concerné des acteurs non-commerciaux comme Wikipédia, qui n’ont pas les moyens des géants ;
  • ce délai de 24h est contre-productif ; il force les plateformes à traiter tous les contenus en même temps, alors que le droit actuel permet de traiter en priorité les contenus les plus graves ;
  • ce délai pousse à l’utilisation d’outils de censure automatisée, fondamentalement contraires à la liberté de communication ;
  • ce délai renforce la possibilité pour la police de faire de la censure politique (de même qu’elle avait signalé en janvier à Google une caricature de Macron en Pinochet, enregistrée en tant que « injure raciste »).

Contenus censurés

  • l’obligation de censure concerne tout contenu relevant de la haine raciste, sexiste ou contre les LGBT, de la pédopornographie ou de l’apologie des agressions sexuelles, des crimes contre l’humanité, de l’esclavage ou du terrorisme ;
  • est aussi condamnée l’assistance et l’intermédiation entre travailleuses du sexe, qui seront chassées du Web et exposées à plus de violence dans la rue ;
  • est aussi condamnée la mise à disposition de contenus pornographiques aux mineurs, ce qui ne peut être empêché qu’en identifiant toutes les personnes voulant accéder à ces contenus.

Sites miroirs

  • la police pourra exiger que les fournisseurs d’accès à Internet bloquent n’importe quel site hébergeant un contenu préalablement reconnu illicite par un juge ;
  • aucun site ne peut techniquement empêcher un utilisateur malveillant de publier un tel contenu à son insu, ce qui offre à la police le pouvoir théorique de censurer n’importe quel site de son choix.

Internet transformé en TV

  • l’ensemble de la loi marque une conception du Net enfermé dans quelques grandes plateformes collaborant étroitement avec l’État, comme pour la TV ;
  • c’est le CSA, autorité normalement chargée de contrôler la TV, qui veillera donc au respect de la loi et à cette transformation (voir notre analyse plus détaillée).

Interopérabilité

  • la loi sera contre-productive car elle ne s’attaque pas au modèle économique des grandes plateformes (au contraire, elle le glorifie) ;
  • ce modèle est celui de l’économie de l’attention, qui accélère la diffusion des contenus nous faisant rester le plus longtemps et interagir le plus, quitte à favoriser les invectives, conflits et caricatures et à « censurer par enterrement » les propos plus subtils d’écoute et d’entre-aide ;
  • pour nous permettre de nous libérer de l’environnement toxique de ces géants, la loi doit les forcer à devenir interopérable : à nous permettre de les quitter pour rejoindre des alternatives moins toxiques et à taille humaine, tout en pouvant continuer à communiquer avec les personnes restées sur les géants. C’est la crainte de perdre cette communication qui fait que beaucoup d’entre nous y restons (voir notre analyse plus détaillée).

Notre proposition sur l’interopérabilité, qui pourrait rendre utile cette loi autrement vaine et dangereuse, a été reprise dans 7 amendements déposés pour le débat de demain. Ces amendements réunissent les signatures de 64 députés, allant du centre-droit à la gauche. L’Assemblée nationale doit les adopter.

À l’opposé, le groupe En Marche propose un amendement pour obliger les plateformes à détecter la réapparition de tout contenu préalablement censuré, et ce avant même que cette réapparition ne leur soit signalée. Il s’agirait d’une violation pure et simple de l’article 15 de la directive européenne eCommerce qui définit depuis 2000 le statut juridique des hébergeurs : « Les États membres ne doivent pas imposer aux prestataires […] une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cet amendement doit être rigoureusement rejeté.

Suivez le vote dès demain 16h30 sur le service vidéo de l’Assemblée. La lutte contre la haine ne doit pas être instrumentalisée pour renforcer le contrôle du Net par le gouvernement.

]]>
La loi « haine » va transformer Internet en télévisionhttps://www.laquadrature.net/?p=14510http://streisand.me.thican.net/laquadrature.net/index.php?20190701_125025_La_loi_____haine_____va_transformer_Internet_en_televisionMon, 01 Jul 2019 10:50:25 +0000La proposition de loi portée par Laetitia Avia prétend vouloir faire du CSA « l’accompagnateur des plateformes » dans la lutte « contre la haine en ligne ». En réalité, la loi va beaucoup plus loin. Comme cela est redouté depuis plusieurs années, elle amorce la transformation de l’autorité en un grand régulateur de l’Internet, dans la droite lignée du « Comité Supérieur de la Télématique » fantasmé par François Fillon dès 1996. Entretenant la dangereuse confusion entre Internet et la télévision, la loi Avia participe à la centralisation et à l’extra-judiciarisation de l’Internet. Quitte à risquer de le transformer en une sorte de sombre ORTF 2.0.

La proposition de loi portée par Lætitia Avia doit être débattue à l’Assemblée Nationale le 3 juillet prochain. À côté des dangers que nous avons déjà soulignés (voir notre analyse juridique), la loi délègue un grand nombre de pouvoirs au CSA :

  • celui d’émettre des « recommandations, des bonnes pratiques et des lignes directrices pour la bonne application » de certaines obligations qui y sont prévues, notamment celles du retrait des contenus dits haineux et définis en son article 1er (contenus terroristes, atteinte à la dignité humaine, incitation à la haine, discriminations…) ;
  • celui de mettre en demeure puis de sanctionner (à hauteur de 4% du chiffre d’affaires mondial, comme pour le RGPD) les plateformes qui ne respecteraient pas l’obligation de retrait en 24h de ces contenus une fois qu’ils leur sont notifiés. À ce titre, c’est au CSA qu’il reviendra d’apprécier « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait sur les contenus portés à sa connaissance » ;
  • enfin, il récupère le rôle de la CNIL dans le cadre du contrôle des demandes que peut faire l’OCLTCIC (et non un juge) pour obtenir le blocage par les FAI d’un site considéré comme pédopornographique ou à caractère terroriste.

Il faut ranger ces pouvoirs à côté de ceux aussi acquis par le CSA dans la récente loi sur les fake news, (dite loi « relative à la lutte contre la manipulation de l’information »). Le CSA y avait en effet déjà récupéré des pouvoirs assez semblables, comme celui d’émettre des recommandations pour « améliorer » la lutte contre ces fausses informations.

Une vieille et mauvaise idée

Avant de comprendre les dangers qui pourraient résulter d’une telle délégation de pouvoirs, intéressons-nous rapidement à l’historique des relations entre le CSA et l’Internet. Car ce n’est pas la première fois que l’autorité veut s’arroger ce type de pouvoir.

Ainsi, en 1996, François Fillon, alors ministre délégué à la Poste, aux Télécommunications et à l’Espace, dépose un amendement dans le cadre des débats sur le « projet de loi sur la réglementation des télécommunications ». Il y propose la création d’un « Comité supérieur de la télématique » (CST), placé auprès du CSA, chargé d’élaborer des recommandations « propres à assurer le respect, par les services de communication audiovisuelle […] des règles déontologiques adaptées à la nature des services proposés ». Comme le raconte Owni.fr, il s’agissait surtout d’obliger les fournisseurs d’accès à Internet, en échange d’une non-responsabilité pénale des contenus postés, à suivre les recommandations de ce Conseil. Ce dernier allait ainsi devenir, selon Lionel Thoumhyre, « l’organe directeur de l’Internet français, gouverneur de l’espace virtuel ». L’article de loi a été par la suite heureusement censuré par le Conseil constitutionnel.

Depuis, l’autorité n’a jamais baissé les bras, aidée par de nombreuses personnalités politiques 1Pour un récapitulatif et une analyse plus complète, voir notamment l’article de Félix Tréguer sur le sujet, en 2015 : « Le CSA et la régulation d’Internet : une erreur ontologique »).. Citons Dominique Baudis (président du CSA de 2001 à 2007) qui énonce en 2001 : « Je considère que tout ce qui concerne les médias audiovisuels, qui s’adressent à une masse de gens et qui ne sont ni du ressort de la correspondance privée, ni du commerce en ligne, relève de notre compétence. Le fait qu’ils ne soient disponibles que sur internet n’y change rien ». Ou en 2004 également, le gouvernement qui tente de profiter de la loi LCEN pour faire du CSA un grand régulateur de l’Internet (ce qui est finalement rejeté par le Parlement après de nombreuses critiques). Les tentatives reviendront ainsi à chaque débat, notamment sur les lois de l’audiovisuel.

Plus récemment encore, c’est Emmanuel Macron en novembre 2017, qui instrumentalise les violences faites aux femmes pour légitimer l’extension des pouvoirs du CSA. Et en septembre 2018, c’est le CSA lui-même qui appelle à ce que la régulation audiovisuelle comprenne désormais « les plateformes de partage de vidéos, les réseaux sociaux et les plateformes de diffusion en direct », précisant même que « la régulation doit permettre d’assurer que ces nouveaux acteurs mettent en place les mesures appropriées en matière de protection des mineurs, de lutte contre la diffusion de contenus incitant à la haine et à la violence […] ».

Pourquoi le CSA pour Internet, c’est mal

En lisant la loi Avia et les pouvoirs qui lui sont délégués, on ne peut que faire ce ce constat déprimant que le CSA est en train, à l’usure, de gagner. En lui donnant le pouvoir d’apprécier si l’opérateur a correctement retiré un contenu considéré comme « haineux », en lui donnant un pouvoir de sanction, en lui permettant d’émettre des recommandations sur la haine en ligne (comme elle le fait déjà sur les « fausses informations »), la proposition de loi se rapproche dangereusement de l’idée du « Comité Supérieur de la Télématique » de 1996 et participe donc à la confusion grandissante qu’il y a entre Internet et la télévision.

Or, faire cette confusion, c’est insulter ce que représente au départ Internet : un moyen justement de se soustraire à l’information linéaire et unilatérale de la télévision par la multiplication des canaux d’expression. L’analyse que faisait LQDN sur le sujet il y a plusieurs années tient toujours, et donne d’ailleurs la douloureuse impression de tourner en rond : « Le CSA régule la diffusion de contenus, de façon centralisée, par des acteurs commerciaux. Tenter d’imposer le même type de règles à la multitude d’acteurs, commerciaux et non-commerciaux, qui constituent le réseau décentralisé qu’est Internet, dans lequel chacun peut consulter, mais également publier des contenus, est une aberration. Internet c’est aussi la diffusion de vidéos, mais c’est avant tout la mise en œuvre de nos libertés fondamentales, le partage de la connaissance et de la culture, la participation démocratique, etc ».

Au-delà de l’aberration, vouloir télévisionner l’Internet, c’est vouloir le centraliser. C’est un moyen pour le gouvernement de reprendre le contrôle sur ce moyen d’expression qu’il ne maîtrise pas et cela passe par la création de lois pour et avec les grandes plateformes, en ne voyant Internet que par le prisme faussé des géants du Net, avec la menace qu’elles s’appliquent un jour à tous. Car il est toujours plus facile de ne traiter qu’avec un nombre restreint de gros acteurs (d’ailleurs plus prompts que les autres à collaborer avec lui.).

C’est aussi mettre dans les mains de l’administration des pouvoirs qui appartenaient auparavant au juge. C’est bien au CSA et non à un juge qu’il reviendra de décider si un contenu est haineux et méritait donc pour un opérateur d’être retiré en 24h. Et c’est donc, comme c’est déjà le cas pour la télévision, à l’administration qu’il reviendra de dire ce qui peut être dit ou diffusé sur Internet. Difficile à ce titre de ne pas faire le lien avec les récentes déclarations du secrétaire d’État au numérique qui menace cette fois-ci la presse de donner au CSA le pouvoir de « décider ce qu’est une infox ou pas ».

On en vient alors à se demander si, à travers cette loi, le gouvernement n’est pas en train d’instrumentaliser les débats sur la haine en ligne, ses victimes et Laetitia Avia elle-même pour reprendre la main sur Internet.

En déléguant au CSA de tels pouvoirs, avec l’objectif d’en faire le grand gendarme de l’Internet, la loi « haine » est un nouveau pas vers l’ORTF 2.0.

References   [ + ]

1. Pour un récapitulatif et une analyse plus complète, voir notamment l’article de Félix Tréguer sur le sujet, en 2015 : « Le CSA et la régulation d’Internet : une erreur ontologique »).
]]>
La CNIL veut autoriser les sites Internet à nous tracer sans notre consentementhttps://www.laquadrature.net/?p=14503http://streisand.me.thican.net/laquadrature.net/index.php?20190628_142432_La_CNIL_veut_autoriser_les_sites_Internet_a_nous_tracer_sans_notre_consentementFri, 28 Jun 2019 12:24:32 +0000Hier, Mme Marie-Laure Denis, présidente de la CNIL, a expliqué en commission de l’Assemblée nationale que la CNIL prendrait le 4 juillet une décision injustifiable (voir la vidéo de 00:59:50 à 01:01:30). Aujourd’hui, la CNIL vient de préciser cette décision : au mépris total du droit européen, elle souhaite attendre juillet 2020 pour commencer à sanctionner les sites internet qui déposent des cookies sans respecter les nouvelles conditions du RGPD pour obtenir notre consentement.

Ces nouvelles conditions sont pourtant une des avancées majeures de ce texte : y renoncer revient à le vider de sa substance. Depuis l’entrée en application du RGPD le 25 mai 2018, notre consentement ne peut plus être « déduit » du simple fait que nous sommes informé·es par un vulgaire « bandeau cookie » et que nous ne prenons pas les mesures techniques nécessaires pour empêcher le dépôt des-dits traceurs. Notre silence ne vaut plus acceptation, enfin ! Désormais, tant que nous ne cliquons pas explicitement sur un bouton « j’accepte », il est strictement interdit de nous pister et de réaliser des profits sur nos données personnelles (précisons au passage que notre consentement ne doit pas seulement être « explicite » mais aussi « libre » : un bouton « je refuse » doit être proposé et le site doit rester accessible même si on ne clique pas sur « j’accepte »). Il s’agit là de l’une des principales avancées que nous avons obtenues au cour de la lutte menée dès 2014 au Parlement européen pour renforcer le RGPD, et que nous devons veiller à faire appliquer scrupuleusement (lire notre bilan).

C’est précisément en application de cette nouvelle règle du « consentement explicite » que la CNIL a sanctionné Google d’une amende de 50 millions d’euros en janvier dernier, dans le cadre de nos plaintes collectives et de celle de NOYB contre l’entreprise : le consentement qu’obtient Google n’est pas explicite mais déduit implicitement de notre absence d’opposition, en violation du RGPD. Aujourd’hui, la CNIL semble vouloir appliquer un droit différent entre Google et les médias français qui, eux, pourraient se contenter d’un consentement « implicite », violant tranquillement nos libertés fondamentales dans la poursuite de profits publicitaires intolérables.

À écouter la présidente de la CNIL, cette direction résulte de négociations avec le GESTE, un syndicat français de médias en ligne que nous avons l’habitude de combattre en matière de données personnelles. Ce dernier criait déjà victoire le mois dernier quand la CNIL avait commencé à céder à ses demandes et lui promettait : « le scroll et/ou le clic sur un élément de la page visitée, reste un mode valable d’expression du consentement, et ce jusqu’à juin 2020 ». Autrement dit : « la CNIL démissionne, ruons-nous pour tondre les moutons ! ».

En droit, les choses sont pourtant simples : il n’existe aucune possibilité laissée à la CNIL pour repousser jusqu’à juillet 2020 l’application du RGPD. Ce texte européen, adopté en 2016, prévoyait déjà une « période de transition », qui a entièrement pris fin le 25 mai 2018. La décision que la CNIL s’apprête à prendre violerait de plein front le droit européen et justifierait un recours en manquement contre la France par la Commission européenne.

De notre côté, si cette décision devait être prise, nous n’aurions guère le choix que de l’attaquer devant le Conseil d’État, de la même façon que nous avons pris l’habitude d’attaquer de nombreux actes du gouvernement (nous avions d’ailleurs déposé une demande CADA à la CNIL il y a un mois pour obtenir la décision révélée par le GESTE, afin de l’attaquer le cas échéant). En cas de victoire de notre part devant le Conseil d’État, difficile d’imaginer comment la présidente de la CNIL pourrait conserver suffisamment de légitimité pour ne pas démissionner.

Le collège de la CNIL se réunira ce 4 juillet pour choisir d’entériner ou non cette décision. Nous appelons chacune et chacun des 18 membres de la CNIL à s’y opposer vigoureusement. Au contraire, elles et ils doivent décider de la poursuite immédiate des sites Internet violant la loi. La lettre du RGPD est parfaitement claire, a déjà été expliquée en long, en large et en travers par le Comité européen à la protection des données et ne nécessite aucune précision supplémentaire pour être respectée. La protection de nos libertés fondamentales ne saurait connaître aucun sursis.

]]>
Partage de données : le renseignement français encore et toujours dans l’illégalitéhttps://www.laquadrature.net/?p=14493http://streisand.me.thican.net/laquadrature.net/index.php?20190628_125449_Partage_de_donnees____le_renseignement_fran__ais_encore_et_toujours_dans_l___illegaliteFri, 28 Jun 2019 10:54:49 +0000La Quadrature du Net vient de déposer un nouveau recours devant le Conseil d’État contre les activités de partage de données entre services de renseignement. Comme le révélait le journal Le Monde fin avril, depuis 2016, une infrastructure dédiée au siège de la DGSE permet aux services d’échanger des données collectées dans le cadre de leurs activités de surveillance, et ce sans aucun encadrement juridique. Ces activités illégales posent de nouveau la question de l’impunité des responsables du renseignement et des autorités de contrôle, et doivent cesser au plus vite.

Avec la loi relative au renseignement de 2015, l’État nous promettait que les barbouzeries illégales dont les services français étaient familiers ne seraient bientôt plus qu’un mauvais souvenir. Rien ne serait jamais plus comme avant : les buts et les moyens du renseignement étaient désormais clairement énumérés, la commission de contrôle dédiée, la CNCTR, veillerait au grain en lien avec le Conseil d’État. Fini le non-droit : le renseignement rentrait enfin dans le giron de l’État de droit…

Hélas, la loi adoptée à l’époque était déjà loin du compte, comme La Quadrature le fait d’ailleurs valoir dans ses multiples recours déposés devant le Conseil d’État, en lien avec les fournisseurs d’accès associatifs de la Fédération FDN.

Puis dès le printemps 2016, une première découverte montrait que les mauvaises habitudes avaient la vie dure. Au détour de « l’affaire Solère », nous nous rendions alors compte que le législateur avait reconduit dans la loi renseignement une vieille disposition relative à la « surveillance hertzienne », rédigée de manière tellement sommaire qu’elle laissait la possibilité de couvrir n’importe quelle mesure de surveillance et de contourner tous les mécanismes de contrôle prévus par ailleurs dans la loi. Nous avions alors eu gain de cause devant le Conseil constitutionnel, et le gouvernement avait dû réécrire cet article.

Fin 2016, lorsque l’on découvrit l’existence d’un contrat conclu entre la DGSI et Palantir, il devenait clair que les belles promesses de 2015 avaient fait long feu. Pour passer les téraoctets de données perquisitionnées dans le cadre de l’état d’urgence à la moulinette du Big Data, la DGSI s’offrait donc les outils d’analyse de cette sulfureuse entreprise liée au complexe militaro-industriel étasunien. Les caciques du renseignement français laissaient ainsi entendre que, chaque fois que le droit s’écarterait un peu des possibilités offertes par les technologies modernes de surveillance, le droit devrait s’incliner. Une stratégie d’ailleurs validée par le député Cédric Villani dans son rapport de 2018 sur l’intelligence artificielle, qui légitimait ces méthodes illégales en parlant d’expérimentation et de « logique de bac à sable ».

Fin avril 2019, le journal Le Monde révélait une autre affaire, à savoir l’existence de l’« entrepôt », surnom d’un « bâtiment ultrasécurisé » attenant au siège de la direction générale de la sécurité extérieure (DGSE), à Paris. Une sorte de data center dédié à la mutualisation des données entre services de renseignement. Sa création et son financement auraient été décidés en janvier 2016 sous l’autorité de François Hollande. Et au mois de juillet 2016, une des lois de prolongation de l’état d’urgence était venue fournir un semblant de base légale à cette infrastructure technique, en modifiant un article dédié — l’article L-863-2 — dans le Code de la sécurité intérieure1L’article L.~863-2 CSI indique : « Les services spécialisés de renseignement mentionnés à l’article L. 811-2 et les services désignés par le décret en Conseil d’État prévu à l’article L. 811-4 peuvent partager toutes les informations utiles à l’accomplissement de leurs missions définies au titre Ier du présent livre.
Les autorités administratives mentionnées à l’article 1er de l’ordonnance n°~2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives peuvent transmettre aux services mentionnés au premier alinéa du présent article, de leur propre initiative ou sur requête de ces derniers, des informations utiles à l’accomplissement des missions de ces derniers.
Les modalités et les conditions d’application du présent article sont déterminées par décret en Conseil d’État.»
Créé par la loi de renseignement de 2015, la loi de 2016 est simplement venue changer le mot « échanger » par « partager ». C’est un amendement apporté en 1ère lecture par le Sénat par une sénatrice Les Républicains. À l’époque, celle-ci explique que « l’objectif est de permettre la mise en commun de toutes les informations dont disposent les services en lieu et place d’échanges bilatéraux, et ce dans un souci d’efficacité »
.

Sauf que cette disposition de 2016 se contentait d’autoriser les services à partager leurs données sans rien préciser, alors même que le Conseil constitutionnel avait exigé en 2015 que le législateur fixe lui-même, sans s’en remettre au gouvernement, les conditions d’exploitation, de conservation et de destruction des informations collectées dans le cadre de la surveillance d’État2« En ne définissant dans la loi ni les conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1, ni celles du contrôle par la commission nationale de contrôle des techniques de renseignement de la légalité des autorisations délivrées en application de ce même article et de leurs conditions de mise en œuvre , le législateur n’a pas déterminé les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques ; que, par suite, les dispositions du paragraphe I de l’article méconnaissent l’article 34 de la Constitution, doivent être déclarés contraires à la Constitution » (Cons. constit. Déc. n° 2015-713 DC du 23 juillet 2015, cons. 78).. L’article 863-2 renvoyait à un décret pour préciser ses modalités d’application. Celui-ci ne fut jamais publié, le gouvernement craignant sans doute d’attirer l’attention sur l’inconstitutionnalité de sa base législative (une source du Monde évoque ainsi le « défaut de base constitutionnelle » de ce décret).

Or, les activités de surveillance relèvent de régimes plus ou moins permissifs. La DGSE, par exemple, dispose des moyens techniques et juridiques les plus larges, lui permettant d’intercepter d’immenses quantités de trafic au niveau des câbles de télécommunications transitant sur le territoire français (article L.854-1 et suivants). De même, des techniques du renseignement intérieur, comme les fameuses boîtes noires algorithmiques ou la surveillance en temps réel des métadonnées, ne sont autorisées que pour la lutte antiterroriste (articles L. 851-2 et L. 851-3)

Que se passe-t-il lorsque les données relevant de ces pouvoirs exorbitants sont versées au pot commun dans lequel peuvent potentiellement venir piocher des dizaines de milliers d’agents, relevant de services aux compétences et aux missions très diverses (TRACFIN, douanes, direction du renseignement de la préfecture de police de Paris, bureau central du renseignement pénitentiaire, ANSSI, service central du renseignement territorial, etc.) ? Certes, le gouvernement a déjà fait évoluer la loi l’an dernier pour faciliter la surveillance de résident·es français·se à partir du régime applicable aux communications internationales, là encore au mépris des engagements de 2015. Pour autant, celui-ci couvre un champ restreint. Faute d’être rigoureusement encadrés par la loi, l’essentiel des partages de données pratiqués à l’entrepôt de la DGSE sont donc nécessairement illégaux et profondément attentatoires aux droits fondamentaux.

La Quadrature vient donc d’attaquer ce dispositif devant le Conseil d’État (voir notre mémoire introductif). Dès que possible, nous soulèverons également une question prioritaire de constitutionnalité dans le cadre de cette procédure, afin de faire invalider l’article L. 863-2. Et avec lui, c’est l’ensemble des activités de partage de données entre services qui devra cesser en attendant que la loi soit précisée et que la transparence soit faite sur ces pratiques.

Au-delà, cette affaire pose aussi la question de la responsabilité, et de l’impunité récurrente, non seulement des hauts responsables politiques et administratifs du renseignement qui président à ces activités illégales, mais aussi de leurs autorités de contrôle (la CNCTR et Conseil d’État) qui acceptent de les couvrir.

References   [ + ]

1. L’article L.~863-2 CSI indique : « Les services spécialisés de renseignement mentionnés à l’article L. 811-2 et les services désignés par le décret en Conseil d’État prévu à l’article L. 811-4 peuvent partager toutes les informations utiles à l’accomplissement de leurs missions définies au titre Ier du présent livre.
Les autorités administratives mentionnées à l’article 1er de l’ordonnance n°~2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives peuvent transmettre aux services mentionnés au premier alinéa du présent article, de leur propre initiative ou sur requête de ces derniers, des informations utiles à l’accomplissement des missions de ces derniers.
Les modalités et les conditions d’application du présent article sont déterminées par décret en Conseil d’État.»
Créé par la loi de renseignement de 2015, la loi de 2016 est simplement venue changer le mot « échanger » par « partager ». C’est un amendement apporté en 1ère lecture par le Sénat par une sénatrice Les Républicains. À l’époque, celle-ci explique que « l’objectif est de permettre la mise en commun de toutes les informations dont disposent les services en lieu et place d’échanges bilatéraux, et ce dans un souci d’efficacité »
2. « En ne définissant dans la loi ni les conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1, ni celles du contrôle par la commission nationale de contrôle des techniques de renseignement de la légalité des autorisations délivrées en application de ce même article et de leurs conditions de mise en œuvre , le législateur n’a pas déterminé les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques ; que, par suite, les dispositions du paragraphe I de l’article méconnaissent l’article 34 de la Constitution, doivent être déclarés contraires à la Constitution » (Cons. constit. Déc. n° 2015-713 DC du 23 juillet 2015, cons. 78).
]]>
Deuxième analyse de la loi « haine »https://www.laquadrature.net/?p=14482http://streisand.me.thican.net/laquadrature.net/index.php?20190627_162515_Deuxieme_analyse_de_la_loi_____haine____Thu, 27 Jun 2019 14:25:15 +0000Le 3 juillet, l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet », déjà adoptée sans grand changement en commission des lois le 19 juin (lire notre réaction).

La Quadrature du Net a envoyé aux 577 députés l’analyse juridique reproduite ci-dessous (aussi en PDF), qui met à jour l’analyse envoyée à la commission des lois avant le vote de celle-ci.

Lettre aux députés : PPL Avia, refusez les mesures inutiles et dangereuses

Mesdames, Messieurs les députées,

Vous examinerez mercredi prochain la proposition de loi « contre la haine sur Internet ». En l’état, cette proposition ne permettra pas d’atteindre l’objectif qu’elle se donne mais renforcera uniquement les risques de censure politique.

La Quadrature du Net vous appelle à supprimer son article 1er et à modifier la loi tel qu’exposé ci-après.

Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir « interopérables » pour permettre aux victimes de se libérer des modèles économiques favorisant la haine.

A. Le champ personnel excessif du retrait en 24h

En droit, toute restriction de libertés, telle que la liberté de communication, n’est valide que si elle est strictement nécessaire à la réalisation de l’objectif qu’elle poursuit1Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007)..

L’objectif poursuivi par cette PPL est de contenir la multiplication des discours de haine et de harcèlement survenue sur les grandes plateformes commerciales — Facebook, Youtube et Twitter. Pour ce faire, son article 1er exige le retrait en 24h des contenus signalés qui sont manifestement illicites, restreignant la liberté de communication tant de ces plateformes que de leurs utilisateurs.

Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L111-7 du code de consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (qu’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale tel que Wikipédia seront aussi concernés. Pourtant, leur modèle de modération qui repose sur une communauté bénévole et investie a su se montrer bien plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par Mme Avia ni par le gouvernement.

Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par cette PPL. Pourtant, n’ayant pas de modérateurs professionnels, elles ne pourront en respecter l’article 1er et devront cesser leur activité devant la menace de sanctions inévitables. Cette restriction de leur liberté de communication est inutile et donc juridiquement invalide.

B. Un délai de 24h contre-productif

En droit, une mesure est invalide si elle restreint davantage de libertés que ne le ferait une autre mesure capable d’atteindre aussi efficacement l’objectif qu’elle poursuit2Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil)..

En l’espèce, imposer un délai de 24h pour retirer un contenu manifestement illicite est susceptible de provoquer d’importantes restrictions de libertés, tel que le sur-blocage de propos licites ou le dévoiement de la mesure à des fins de censure politique. Ce délai fixe produit un autre effet nocif : il empêche les plateformes d’examiner en priorité les contenus les plus graves ou les plus partagés, car elles doivent traiter tous les signalements, même les moins graves, dans un même et unique délai.

À l’inverse, le droit actuel (la loi pour la confiance dans l’économie numérique de 2004, LCEN) n’exige le retrait des contenus manifestement illicites que dans un délai « prompt » : proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Ceci permet de traiter en priorité les situations les plus nocives, ce qui est bien plus efficace pour atteindre l’objectif poursuivi par la loi, tout en réduisant les risques de sur-blocage et de censure politique.

Par ailleurs, imposer un délai de 24h serait d’autant plus inutile qu’il est matériellement irréaliste : dans bien des cas, il ne pourra être respecté par aucune plateforme et ne sera donc pas sanctionné. Exemple sinistre mais probant, la vidéo de la tuerie de Christchurch a été dupliquée 1,5 millions de fois sur Facebook dans les 24h suivant l’attentat, au cour desquelles 300.000 copies auraient entièrement échappé aux outils de modération automatisés de l’entreprise, de l’aveu même de celle-ci3« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand. Cet événement a démontré l’incapacité structurelle des outils de modération automatisés à faire face à de telles menaces en 24h. La loi perdrait toute emprise sur le réel en exigeant l’inverse.

À l’inverse, le droit actuel a déjà pu s’appliquer concrètement contre un hébergeur ayant échoué à retirer en 24h un contenu illicite dans le cas où un tel délai était réaliste et où la situation le justifiait spécifiquement4Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi..

En conclusion, imposer un délai de 24h serait moins efficace qu’un délai apprécié au cas par cas, tel que prévu actuellement par la LCEN, car cela empêcherait de traiter les situations les plus graves en priorité tout en étant matériellement irréaliste, privant la loi de son lien au réel. Puisqu’une telle mesure restreindrait davantage de libertés que celles prévues actuellement par la LCEN, elle serait inutile et donc invalide.

C. Un délai de 24h favorisant la censure politique

En droit, le principe de la séparation des pouvoir exige que l’autorité qui poursuit les auteurs d’infractions (le pouvoir exécutif) soit distincte de celle qui constate ces infractions (pouvoir judiciaire) et que cette seconde autorité soit indépendante de la première5Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. ».

En l’espèce, le délai de 24h pour retirer les contenus est si court qu’il empêchera les plateformes d’examiner tous les signalements avec le même niveau de diligence. Dans ces conditions, elles n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs utilisateurs jugés les plus fiables. Vraisemblablement, les contenus signalés par les comptes des services de la police seront traités de façon expéditive : Facebook ou Twitter seraient bien peu pragmatiques s’ils « perdaient du temps » à examiner les signalements de la police alors que des milliers de signalements à l’origine bien plus incertaine et complexe devront être examinés en urgence dans la même journée.

Ce pouvoir « de fait » de la police a déjà été dévoyé à des fins de censure politique. Dernier exemple en date : en réponse à une demande CADA de La Quadrature du Net, la police a expliqué avoir signalé à Google le 13 janvier 2019 une image caricaturant Emmanuel Macron sous les traites du dictateur Pinochet. Dans les documents transmis, le signalement est enregistré dans la catégorie « injures et diffamations xénophobes ou discriminatoires »6Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron. Cette qualification, en plus d’être une aberration juridique, entre exactement dans le champ des infractions que la PPL Avia imposera de retirer en 24h.

En conclusion, l’article 1er de la PPL Avia, en exigeant d’évaluer la licéité des contenus signalés dans un délai de 24h, décuplera les risques de retrait de contenus signalés par la police qui, tout en étant licites, vexeraient le pouvoir exécutif. En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les « infractions » contre lesquelles il prétend lutter et imposant cette qualification aux plateformes qui, menacées de lourdes sanctions, lui sont largement soumises et nullement indépendantes. Ce délai n’étant par ailleurs pas nécessaire, il est d’autant moins valide qu’il accroît sensiblement les risques de violation de la séparation des pouvoirs.

D. Une lutte illégitime contre les travailleuses du sexe

L’article 1 de la PPL, telle que complété en commission des lois, entend désormais lutter contre les infractions définies aux articles 227-23 et 227-24 du code pénale, qui punissent les faits « d’aider, d’assister ou de protéger la prostitution d’autrui » ou bien « de faire office d’intermédiaire entre deux personnes dont l’une se livre à la prostitution et l’autre exploite ou rémunère la prostitution d’autrui ».

Cet ajout poussera encore davantage Facebook et Twitter à exclure activement de leurs plateformes les travailleuses du sexe ainsi que leurs groupes d’entraide, leur fermant une alternative au travail en extérieur où elles seront exposées à bien plus de violences. Une telle situation trahit l’objectif de cette PPL qui prétend défendre les victimes de violences.

E. La conservation des données renforcée, en violation du droit de l’Union

L’article 3 bis du texte adopté en commission des lois propose d’augmenter la sanction des fournisseurs d’accès à Internet et des hébergeurs qui ne conservent pas les données de connexion de l’ensemble de leurs utilisateurs (adresses IP notamment), telle que fixée au 1 du VI de l’article 6 de la LCEN.

Dans son arrêt Tele27L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2, la Cour de justice de l’Union européenne a déclaré qu’une telle mesure de surveillance de masse est contraire à la Charte des droits fondamentaux de l’Union et que seules des mesures de conservation ciblée sur des personnes soupçonnées peuvent être autorisées. La Quadrature a contesté la conformité de l’obligation française devant le Conseil d’État, dont le rapporteur public a reconnu l’absence de conformité du droit français au droit de l’Union et conduit le Conseil à transmettre des questions préjudicielles à la Cour de justice de l’Union européenne à ce sujet8Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1.

Dans l’attente de la réponse de cette dernière, la moindre des choses de la part du législateur serait de ne pas aggraver la violation par la France du droit de l’Union en renforçant la sanction de cette obligation inconventionnelle. Cet article doit être supprimé.

F. L’absence de garde fou à la lutte contre les sites miroirs

L’article 6 de la PPL permet à la police d’ordonner aux opérateurs Internet de bloquer un site sur lequel est reproduit un contenu illicite dont un juge a interdit « la reprise totale ou partielle ».

Ces nouveaux pouvoirs donnés à la police comportent de graves risques de dévoiement à des fins de censure politique. L’exemple donné plus haut de la vidéo de Christchurch en donne une illustration parfaite. Si un juge, doté des pouvoirs prévus par cet article 6, avait interdit « la reprise totale ou partielle » de la vidéo du massacre de Christchurch (hypothèse crédible), la police aurait eu toute liberté pour exiger le blocage de l’ensemble du site Facebook, dans la mesure où Facebook a été incapable de supprimer la vidéo, dont au moins 300 000 copies ont échappé à sa modération.

Mme Avia semble parfaitement ignorer cette réalité : il est impossible pour un hébergeur d’éviter que ses utilisateurs ne partagent la moindre copie d’un contenu interdit. Une poignée d’amateurs l’a parfaitement démontré en modifiant légèrement la durée, la couleur ou le son de la vidéo de Christchurch pour contourner presque entièrement les algorithmes de Facebook.

Si la « reprise totale ou partielle » d’un contenu était interdite par un juge, en application de cet article 6, absolument tout hébergeur serait virtuellement en violation de cette obligation du fait de certains des ses utilisateurs, sans qu’il ne puisse rien y faire. La police se trouvera seule à décider lesquels de ces sites seront censurés, entièrement libre de dévoyer ce choix arbitraire à des fins politiques. Hypothèse concrète : la police ne demanderait pas la blocage de la plupart des sites hébergeant un contenu interdit par un juge (tels que Facebook ou Youtube) mais exigerait le blocage de plateformes critiquant la politique du gouvernement et où un utilisateur malveillant aurait insidieusement publié le contenu interdit. Cette hypothèse est des plus crédibles lorsqu’on rappelle que l’OCLCTIC a déjà dévoyé de façon illégale ses pouvoirs de lutte contre le terrorisme pour tenter de censurer des plateformes d’extrême-gauche telles que Indymedia (voir le jugement du 31 janvier 2019 du tribunal administratif de Cergy-Pontoise, qui reconnaît cet abus de la police).

Une garantie classique contre cette dérive est le « principe de subsidiarité », déjà prévu de façon imparfaite (mais prévu toutefois) à l’article 6-1 de la LCEN en matière de censure administrative des contenus terroristes et pédopornographiques. Ce principe veut que les pouvoirs publics demandent d’abord à l’hébergeur de retirer le contenu interdit. Ce n’est que dans le cas où celui-ci refuse clairement de coopérer, lorsque lui a été laissé un délai suffisant pour ce faire et que sa défaillance ne résulte que d’une faute lourde et manifeste, que son blocage par les opérateurs Internet peut être considéré.

Sans rendre les mesures de censure efficaces ou légitimes, cette garantie est la moindre des choses requises. Il serait inconcevable que la lutte contre la haine soit encadrée de moins de garanties que la lutte contre le terrorisme.

G. La disparition du principe de subsidiarité en matière de signalement

L’article 1 bis du texte adopté en commission des lois crée un formalisme spécifique pour signaler les contenus visés à l’article 1 de la PPL. Ce formalisme est considérablement allégé comparé à celui du droit commun, tel que décrit à l’article 6, I, 5, de la LCEN.

La principale nouveauté de ce formalisme spécifique est que l’auteur d’un signalement n’aura plus à justifier avoir contacté au préalable l’auteur du propos problématique pour lui demander de le corriger. La suppression de cette exigence constitue un autre renoncement au « principe de subsidiarité », pourtant au cœur du mécanisme de signalement de la LCEN.

Ce principe veut que les utilisateurs tentent de régler les situations problématiques d’abord entre eux, notamment pour dissiper les simples malentendus ou confusions qui auraient pris l’apparence du conflit. Ce n’est que lorsque cette tentative a échoué que la plateforme doit être contactée pour résoudre le conflit. Ceci permet à la plateforme de se concentrer sur les cas les plus graves sans être retardée par des cas que les utilisateurs auraient résolus plus efficacement eux-mêmes.

Exemple typique : une personne cite sur Twitter un propos haineux pour le dénoncer ; un tiers est choqué par ce propos et n’est pas certain s’il s’agit d’un propos original ou d’une citation critique ; plutôt que de signaler le propos à Twitter, qui peine déjà tant à traiter les très nombreux signalements qu’il reçoit, il serait plus efficace que le tiers contacte lui-même l’utilisateur initial, afin que celui-ci dissipe la confusion et corrige son message initial pour le rendre moins ambigu.

La suppression de ce principe de proportionnalité dessert l’objectif de lutte contre les propos oppressifs, car surchargerait inutilement les plateformes de signalements qui auraient été plus efficacement traités autrement. Cet article 1 bis doit être supprimé.

H. L’interopérabilité, une solution plus efficace que la répression

Les mesures restrictives de libertés sont d’autant moins nécessaires, et donc valides, si le législateur pouvait adopter d’autres mesures qui, ne limitant aucune liberté, permettraient de se rapprocher davantage de l’objectif poursuivi. L’objectif de cette PPL n’est pas de sanctionner les auteurs de propos haineux mais uniquement de limiter la façon dont le public, et plus particulièrement les victimes, y sont exposées.

Comme vu ci-avant, le délai de 24h est contre-productif pour atteindre cet objectif. Son inefficacité résulte du fait qu’il ne cherche à traiter que les symptômes et non les causes. Or, deux des causes du problème que la PPL souhaite résoudre peuvent être efficacement traitées par le législateur.

1. Deux causes

Première cause : le nombre de personnes réunies sur les plateformes commerciales géantes facilite les stratégies de harcèlement, plaçant les victimes à portée immédiate de leurs oppresseurs. Leur taille est si importante qu’elle empêche toute modération crédible : Facebook ne pourra jamais embaucher assez de modérateurs pour ses 2 milliards d’utilisateurs revendiqués et ses outils automatisés ont prouvé leur inefficacité intrinsèque avec l’événement de Christchurch.

Seconde cause : Mme Avia dénonce elle-même le « lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible »9Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
. Ce que nous appelons « culture du buzz » ou « économie de l’attention » est au cœur du modèle des grandes plateformes commerciales, dont la raison d’être est de capter l’attention du plus grand nombre de personnes possible, le plus longtemps possible, afin de leur afficher de la publicité.

D’après Youtube, 70% des vidéo visionnées sur la plateforme le sont sur recommandation de son algorithme10« YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan. Guillaume Chaslot, ancien employé de l’entreprise, explique que cet algorithme favorise avant tout les vidéos regardées le plus longtemps, indépendamment de leur contenu ou de leur réception par le public (pouces bleus et rouges). En étudiant ces recommandations, il constate que l’algorithme favorise les contenus agressifs, diffamants, choquants ou complotistes : « C’est comme une bagarre dans la rue, la plupart des gens s’arrêtent pour regarder, quasiment tout le monde réagit »11Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.. Par leur effet sidérant, ces contenus retiendraient efficacement notre attention. Pour être mieux référencées, les vidéastes se retrouvent implicitement incités à en produire.

Twitter provoque une situation similaire : le fonctionnement de son « fil d’actualité », la brièveté des messages qu’il impose ainsi que ses mécanismes de citation favorisent l’invective, le buzz, le conflit, tout en rendant quasiment impossibles les propos d’apaisement et de compréhension qui peuvent rarement se tenir en 280 caractères. Quant à Facebook, pour séduire les annonceurs, il se vante directement d’être capable d’altérer l’humeur de ses utilisateurs en manipulant leur « fil d’actualité »12« Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html, ce qui permet de faire naître les attentes et angoisses propices à la publicité tout en faisant rester les utilisateurs plus longtemps.

2. Une solution

Ces deux sources de mal-être (la taille ingérable des plateformes et leur culture du buzz) contribuent sensiblement au ressenti de « haine en ligne » contre lequel la PPL Avia entend lutter, sans toutefois rien proposer pour le résoudre efficacement. Une solution législative concrète serait de permettre aux utilisateurs de ces plateformes d’en partir : aujourd’hui, partir de Facebook ou de Twitter implique de ne plus communiquer avec toutes les personnes (famille, amis, soutiens) qui s’y trouvent. De nombreuses personnes sont donc contraintes de rester dans ces environnements toxiques, propices aux conflits et au harcèlement, car le coût social à payer pour s’en libérer est trop important.

Pour faire disparaître ce coût et permettre aux victimes de se protéger librement, la loi devrait obliger les grandes plateformes commerciales à devenir « interopérables » : qu’elles permettent à leurs utilisateurs de communiquer avec les utilisateurs d’autres plateformes similaires (dans le cas de Twitter, par exemples, ces « autres plateformes similaires » pourraient être les milliers de services utilisant le logiciel de micro-blogging décentralisé Mastodon). Ces autres plateformes, déjà nombreuses, offrent des règles de modérations variées et, ainsi, adaptées aux besoins et envies de chaque personne, allant de lieux « sanctuaires » ou non-mixtes à des espaces de discussions libres moins strictement modérés. Chaque personne peut librement choisir le type de modération correspondant à ses besoins.

D’un point de vue technique, respecter cette obligation serait facilité par les nombreux développements récents en matière de réseaux sociaux décentralisés, que ce soit de la part des acteurs du logiciel libre (GNU Social, Mastodon, Plemora, PeerTube…) ou des organisations internationales de normalisation, tel que le W3C (World-Wide Web Consortium) ayant publié en 2018 un protocole pour réseaux sociaux décentralisés, « ActivityPub ».

Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir interopérables pour permettre aux victimes de se libérer de leur modèle économique favorisant la haine.

References   [ + ]

1. Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).
2. Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).
3. « Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand
4. Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.
5. Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »
6. Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron
7. L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2
8. Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1
9. Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
10. « YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan
11. Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.
12. « Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html
]]>
Le vrai visage de la reconnaissance facialehttps://www.laquadrature.net/?p=14460http://streisand.me.thican.net/laquadrature.net/index.php?20190621_153158_Le_vrai_visage_de_la_reconnaissance_facialeFri, 21 Jun 2019 13:31:58 +0000La Quadrature du Net est contre la reconnaissance faciale, d’accord : mais pourquoi ? Dès qu’on aborde le sujet en public, on voit se dessiner deux attitudes opposées. D’un côté, le solide bon sens qui ne voit pas pourquoi on se priverait de la possibilité d’identifier efficacement les criminels dans une foule, et pour qui tous les moyens sont bons, puisque la fin est juste. De l’autre côté, la peur réflexe devant cette technique de surveillance – souvent plus vive que devant d’autres techniques de surveillance pourtant très répandues – parce qu’elle est exploitée au cinéma comme outil d’un pouvoir policier totalitaire. C’est entre ces deux pôles, fantasme contre fantasme, qu’on peut essayer de comprendre les enjeux de la reconnaissance faciale.

Reconnaissance facile

Un terroriste est en fuite dans les rues d’une capitale : il suffit d’analyser en direct les images des caméras de surveillance de la ville pour le situer en quelques minutes. Un enfant s’est perdu ? Vite, les caméras de tous les lieux publics sont interrogées, et l’enfant est retrouvé en moins d’une demi-heure.
Les personnes chargées de vendre des systèmes de reconnaissance faciale ne manquent pas d’imagination pour convaincre le grand public de l’efficacité de leurs produits. Le contexte sécuritaire, accentué par les attaques terroristes de 2015, entretenu par le personnel politique et amplifié par les médias de masse, leur ouvre un boulevard idéologique et des lignes de crédit généreuses.
Autant dire qu’en matière de fantasme, les partisans de la reconnaissance faciale généralisée ne sont pas en reste. Le seul fait que la surveillance permanente des rues et des espaces publics soit considérée comme une solution miracle à l’insécurité dans la société devrait suffire à disqualifier l’outil : il est incapable de répondre aux objectifs qu’on veut lui donner.

Comment ça marche ?

Il existe plusieurs types de reconnaissance faciale. Leur point commun, c’est un logiciel capable de repérer dans une image (photo ou vidéo) des structures de visage et de les comparer point à point avec d’autres images. Il faut ensuite distinguer deux formes de « reconnaissance ».
Si on compare les images avec d’autres images de la même source – les différents angles de vue dans une galerie commerciale, par exemple – alors on veut « identifier » quelqu’un : c’est-à-dire isoler une personne (« identique » à elle-même !) parmi d’autres et la suivre ainsi dans ses déplacements, soit parce qu’on estime qu’elle a un comportement suspect, soit pour renseigner la galerie commerciale sur le parcours de ses clients.
Quand on reconnaît les visages dans une foule pour les comparer à un jeu de visages de personnes recherchées, il s’agit aussi de les « identifier ».

En revanche, on, parle d’« authentification » quand on compare le visage d’une personne à un visage de référence. L’authentification est couramment utilisée comme système de déverrouillage : le visage saisi par la caméra doit correspondre à l’image enregistrée dans un badge (c’est le cas du système prévu pour les lycées de PACA) ou dans une base de donnés de personnes autorisées (par exemple à l’entrée d’une entreprise). C’est un procédé testé aussi pour le retrait d’argent à un distributeur, en renfort du PIN.
C’est le seul exemple où la reconnaissance faciale vise toujours à protéger la confidentialité des données et l’intimité de la personne : quand on choisit de déverrouiller son téléphone avec la reconnaissance faciale, c’est parce qu’on espère que personne d’autre ne pourra le faire.

L’identification est utilisée par la police pour reconnaître des personnes recherchées. On peut en voir un exemple concret et efficace sur le site d’Interpol.
Des exemples comme celui-ci alimentent le fantasme qui sous-tend la reconnaissance faciale : si on peut scanner tous les passants et identifier ceux qui sont suspects, alors la criminalité reculera et la sécurité augmentera.

Méconnaissance faciale

Mais le moindre défaut de la reconnaissance faciale, c’est qu’elle ne marche pas très bien. On le sait parce que de nombreuses expériences sont conduites dans le monde, et que les résultats publiés sont assez étonnants, en comparaison des espoirs démesurés que suscite la technique.
La société SenseTime, en Chine, se vante par exemple de pouvoir identifier un individu qui commet une « incivilité » dans la rue, afin d’afficher son visage sur des écrans géants et le soumettre au mépris public. Mais une expérience menée aux États-Unis s’est conclue sur le constat que la reconnaissance faciale sur des automobilistes ne fonctionne pas encore.


Ce document fuité par la police britannique recense, pour chaque expérience de reconnaissance faciale (Event), le nombre d’identifications réussies (True-positives), le nombre de faux positifs (False-positives), et le nombre d’interpellations injustifiées (Incorrect police stops).

Nos collègues anglais de Big Brother Watch, au Royaume-Uni, qui militent notamment contre l’utilisation de la reconnaissance faciale, ont publié des chiffres à propos des expériences menées par la police britannique. Ils montrent que le taux de reconnaissance est très bas, et que les « faux positifs », c’est-à-dire les identifications erronées, sont nombreuses. Certaines ont même entraîné des interventions infondées de la police.

La sécurité des forts

L’échec des identifications n’est pas imputable seulement à un défaut de la technique : le germe de l’échec est dans les hommes qui programment la reconnaissance faciale. Le logiciel qui analyse les visages et les compare à d’autres visages est dans la plupart des cas conçu par des hommes blancs. Surprise : la reconnaissance faciale des femmes et des personnes non-blanches atteint un taux d’échec et de faux positifs supérieur à la moyenne.
Que ses concepteurs le veuillent ou non, ce qu’on appelle « les biais de l’algorithme », ses effets indésirables, sont en réalité les biais cognitifs de ceux qui le conçoivent : le racisme et le sexisme de l’algorithme dérivent du racisme et du sexisme institués par la société, et consciemment ou inconsciemment reproduits par les concepteurs de ces outils.
Cet article donne plusieurs exemples des effets de ce biais.
Dans le cadre d’un usage policier de la reconnaissance faciale, les personnes les plus faibles socialement seront ainsi plus souvent victimes d’erreurs policières que les autres.

Société de contrôle

Les philosophes Michel Foucault et Gilles Deleuze ont défini de façon très précise plusieurs types de coercitions exercées par les sociétés sur leurs membres : ils distinguent en particulier la « société disciplinaire » (telles que la société en trois ordres d’Ancien Régime ou la caserne-hôpital-usine du XIXe siècle) de la « société de contrôle » qui est la nôtre aujourd’hui.
Dans une « société de contrôle », les mécanismes de coercition ne sont pas mis en œuvre par des autorités constituées qui les appliquent au corps social par contact local (autorité familiale, pression hiérarchique dans l’usine, surveillant de prison, etc.), mais sont incorporés par chacun (métaphoriquement et littéralement, jusqu’à l’intérieur du corps et de l’esprit), qui se surveille lui-même et se soumet à la surveillance opérée par d’autres points distants du corps social, grâce à une circulation rapide et fluide de l’information d’un bord à l’autre de la société. Wikipédia donne un bon aperçu du concept, dont on trouvera une lecture plus approfondie ici.

Qui peut souhaiter d’être soumis à un contrôle dont les critères lui échappent ? C’est pourtant ce que nous acceptons, en laissant s’installer partout la vidéosurveillance et la reconnaissance faciale.
La mairie de Nice, dirigée par par Christian Estrosi (LR), a fait scandale au printemps 2019 en organisant une expérience lors du carnaval de la ville. Sur la base du volontariat, certaines personnes préalablement identifiées devaient être reconnues dans la foule. Mais la ville de Nice envisage d’aller plus loin, en authentifiant les passagers du tramway dont le comportement serait « suspect ».
Qu’est-ce qui définit un comportement suspect ? Avoir un type maghrébin et un sweat à capuche entre sûrement dans les critères. Mais quoi d’autre ? Une expression faciale fermée, une nervosité visible ? Quelles émotions sont-elles considérées comme étant un danger pour la société ? Où peut-on consulter la liste ? On voit bien la part fantasmatique et arbitraire qui fonde tout projet d’anticiper la criminalité.

Sous prétexte que « prévenir vaut mieux que guérir », on organise en réalité, dans des usages quotidiens bien réels et valables dès aujourd’hui, une inversion générale de la charge de la preuve.
En temps normal, la police judiciaire doit rassembler par l’enquête des preuves à charge pour inculper quelqu’un. C’est à l’accusation de faire la preuve de la culpabilité du suspect. Ce travail est collectif, encadré par une procédure et un tribunal.
En revanche, sous l’œil de la caméra et face aux algorithmes de reconnaissance faciale, c’est à chacun que revient, à tout instant et en tout lieu, la charge de prouver son innocence. Comment ? En offrant son visage à l’identification et en adoptant un comportement qui ne déclenchera aucune alarme au fond d’un ordinateur de la police.

La loi de l’œil

On peut penser qu’il s’agit, sous nos yeux, d’un choix de société délibéré. En l’absence de cadre juridique clair, les dispositifs de reconnaissance faciale s’installent dans la hâte, avec un effet immédiat : chacun intériorise la contrainte de la surveillance et adapte insensiblement son comportement à ce regard abstrait. Il est psychologiquement naturel et moins coûteux de s’y plier, même avec une ironie protectrice, plutôt que de remettre en cause les décisions arbitraires qui sont imposées sans discussion.
L’intériorisation de la surveillance, la culpabilité par défaut, s’accompagne d’un ajustement inconscient à une loi non écrite. C’est l’effet Hawthorne, sorte d’effet placebo mental : savoir qu’on est surveillé modifie l’attitude. La surveillance n’a pas besoin de punir chaque individu pour s’exercer sur tous.
Refuser la reconnaissance faciale est une première nécessité, l’encadrer par la loi écrite aussi. (L’encadrement juridique de la reconnaissance faciale fera l’objet d’un article à part.)

Éducation au contrôle

Pourquoi vouloir installer un dispositif de reconnaissance faciale à l’entrée d’un lycée ? C’est en cours à Marseille et à Nice, un projet encore porté par monsieur Estrosi, et combattu par La Quadrature du Net. Quel intérêt, alors que des surveillants à l’entrée de l’établissement pourraient tout aussi bien reconnaître les élèves autorisé·es, repérer les intrus, et affronter les problèmes éventuels avec humanité ? La réponse est triste : parce que la machine est censée être moins chère.
La dépense s’amortit en quelques années et les services publics croient faire ainsi des économies, dans un contexte général où les problèmes sociaux sont délégués à l’entreprise privée ou plus souvent laissés à l’abandon, et abordés sous l’angle unique de la répression.
L’installation de caméras est le signe assez sûr d’une politique qui a baissé les bras. La reconnaissance faciale pousse seulement le curseur plus loin dans la prise en charge des relations humaines par des arbres de décisions préprogrammés. On renonce ostensiblement à l’ambition de construire une société.

Bénéfices et usage commerciaux

Les bénéfices attendus de la reconnaissance faciale sont en grande partie des mesures d’économie : moins de personnel pour surveiller de plus grandes surfaces urbaines, et un meilleur ajustement des moyens d’interventions. Les expériences de « safe city » menées aux États-Unis (Chicago, Detroit, en particulier) avaient par exemple pour but de mieux définir les quartiers et les rues où les patrouilles devaient circuler, en fonction des heures de la journée et même des saisons, pour être au plus près des faits de délinquances à réprimer. Dans la logique de la moindre dépense et de la réduction des effectifs, il faut bien « optimiser » le temps de présence des agents et le peu de moyens dont on dispose. Malheureusement, le raisonnement est faussé : les dispositifs techniques de vidéosurveillance exigent un entretien très coûteux. Les communes ne feront aucune économie, et financent les caméras avec des sommes qui manquent cruellement sur d’autres lignes de leur budget. Entre temps, elles auront supprimé un certain nombre de salarié·es.

Mais il ne faut pas perdre de vue que la reconnaissance faciale est également un « marché » aux bénéfices importants.
Pour l’heure, les entreprises se livrent à une course pour concevoir les outils et trouver des villes où les essayer. Ça tombe bien, les villes sont en demande : des appels d’offre plus ou moins transparents sont donc lancés un peu partout en France, alors que la transparence des décisions finales est inexistante (lire notre article), et tandis que les communes sabrent les subventions, l’argent magique ne semble pas manquer pour payer des « solutions » sécuritaires à grand frais, en vue des échéances électorales qui approchent.
Derrière l’engouement pour la vidéosurveillance et la reconnaissance faciale, on voit une convergence d’intérêts entre un agenda politique qui joue volontiers sur la corde de la sécurité publique, et des entreprises qui cherchent à s’emparer de l’immense marché municipal qui s’ouvre à elles, en France d’abord, et dans le monde ensuite.

Le profit à tirer de la reconnaissance faciale ne s’arrête pas là. On voit la technique s’installer aussi dans des centres commerciaux. Les caméras sont le plus souvent cachées dans les panneaux d’informations qui affichent le plan de la galerie commerciale, comme au Québec ou dans des « totems » qui affichent des vidéos publicitaires. Les réactions des passants sont épiées : quelles images retiennent leur attention, quelles boutiques envisagent-ils de visiter, quels sont leurs déplacements, etc. Le but étant bien sûr d’offrir aux visiteurs « la meilleur expérience possible »…
À aucun moment le consentement des passants n’est demandé, et on ne voit pas bien comment il pourrait l’être, sauf à leur donner le choix entre subir la vidéosurveillance ou quitter les lieux. Devra-t-on bientôt faire ses courses avec un sac sur la tête ?

La question du consentement est centrale dans la protection des données personnelles et de la vie privée, elle est d’ailleurs au centre des exigences du RGPD. Ce n’est donc pas un argument léger. Les lois européennes disent aussi que le consentement ne peut pas être obtenu en échange d’un service qui reviendrait à lui donner une valeur marchande : justifier la reconnaissance faciale dans les galeries commerciales en prétextant que les clients auront de meilleurs prix ou de meilleures offres n’est pas un argument recevable. C’est au pire un cache-misère pour l’avidité sans limite des marchands, qui traitent tous les passants comme des proies.
Les utilisations commerciale ou municipales de la reconnaissance faciale prospèrent dans une faille juridique : le phénomène est mal encadré, alors qu’il devrait faire l’objet d’un débat collectif. Mais la sécurité policière et la prospérité des entreprises commerciales sont devenues dans le monde entier l’alpha et l’oméga des politiques publiques.

La possibilité d’interdire

Les personnes les mieux averties des applications de la reconnaissance faciale sont tellement inquiètes qu’elles demandent un encadrement juridique de cette technique. C’est la leçon qu’on peut tirer de la lecture des articles écrits par Brad Smith, juriste de Microsoft. En juillet 2018, il appelait le gouvernement américain à légiférer sans délai pour encadrer les usages de la reconnaissance faciale. Bien placé pour constater les progrès de la technique, il redoute avec gravité qu’elle puisse être utilisée contre les libertés des personnes, aussi bien par des entreprises privées que par des États. En décembre 2018, il pose quelques jalons pour délimiter le contour de cet encadrement.

On n’est pas obligé de partager son enthousiasme pour certaines applications « positives » de la reconnaissance faciale, dont il donne quelques exemples qui mériteraient d’être regardés de plus près (dans la recherche médicale par exemple). Mais on peut entendre son inquiétude, parce qu’elle n’est pas celle d’un militant habitué à crier au loup : au plus haut niveau de décision, là où une vision panoramique peut embrasser à la fois la connaissance du droit et la connaissance des projets techniques réels, on n’en mène pas large, et ce n’est pas bon signe.

Toutefois, l’empressement de Brad Smith à voir naître une réglementation peut aussi être lu différemment, quand on le rapproche des déclarations récentes de Andy Jassy, président de Amazon Web Services, qui développe le logiciel Rekognition. Il se trouve qu’entre les articles de Brad Smith et l’interview de Andy Jassy, un événement important est survenu : la ville de San Francisco, en Californie, au plus près de la Silicon Valley et des grands sièges des multinationales du numérique, a voté le 14 mai 2019 une décision interdisant à la police locale d’utiliser la reconnaissance faciale. Amazon veut une réglementation parce que l’interdiction pure et simple ne fait pas de bien à ses affaires…
Quant à nous, nous retiendrons qu’il est possible d’interdire les pratiques de surveillance de masse, par la délibération locale et par la loi.

Le visage perdu

La reconnaissance faciale change le visage du monde. Il n’est pas nécessaire de renvoyer aux pires dystopies et à 1984 pour voir tout ce que les pratiques actuelles ont de dangereux. On peut même percevoir un changement anthropologique possible dans le rapport avec le visage.
La reconnaissance faciale attribue au visage, non plus une valeur de personnalité, l’expression même de la singularité d’une personne humaine, mais une fonction de dénonciation : le visage ne vaut plus pour lui-même, comme singularité prise avec son épaisseur et son secret, mais comme simple signe en lien avec des bases de données de toutes sortes qui permettent de prendre des décisions concernant la personne visée, à son insu.
Dans ce contexte, le visage devient l’identifiant unique par excellence, plus encore que la carte d’identité. Lors de l’expérience du carnaval de Nice, la ville se vantait même d’avoir pu identifier un cobaye dont la photo de référence datait de trente ans. Le visage comme mouchard, le visage qui trahit, merveilleux progrès.

On peut s’opposer à un prélèvement d’ADN. Mais comment s’opposer aux photos de soi ? Facebook applique un logiciel de reconnaissance faciale aux photos postées par ses utilisateurs. Si un « ami » n’est pas reconnu, le site invite même les utilisateurs à identifier leurs proches. Même en n’ayant jamais eu de compte Facebook, vous figurez peut-être dans cette immense base de données, et Facebook sait mettre votre nom sur votre visage, et vous reconnaître parmi toutes les nouvelles photos postées par vos amis…
Malgré vous, votre visage a un sens pour les caméras qui vous filment. Les pseudo-sciences du 19e siècle prétendaient lire des traits psychologiques dans les traits du visage. Aujourd’hui, chaque visage dans la rue porte un casier judiciaire, un nom, des relations, des opinions exprimées sur les réseaux sociaux, des habitudes de consommation, des engagements divers, et qui sait quoi d’autre encore.

Quand les inconnus qui vous croisent dans la rue peuvent accéder à des données sur vous par le simple fait que l’image de votre visage a été captée par des Google Glass, on amène la puissance coercitive du réseau jusque dans la rue. Sur le réseau, il est possible de prendre plusieurs identités. Mais nos prises de position politiques, notre réseau amical, notre réseau professionnel, notre CV, etc., se retrouvent, dans la rue, associés à un élément unique, visible, et facilement accessible à tous. Les créateurs des Google Glass ont fini par interdire cette possibilité, pour ne pas tuer leur création dans l’œuf. Si cette technique devenait courante, qui peut assurer que nous n’assisterons pas à l’avènement d’une époque qui supprimera totalement l’anonymat dans l’espace public ?

Une société de la défaite

Une anthropologue britannique, Sally A. Applin, a récemment publié un article très intéressant sur les dégâts sociaux causés, et surtout révélés, par la reconnaissance faciale (à lire ici, en anglais). Elle part de la question posée par un dirigeant d’entreprise américain sur Twitter : « Vivons-nous vraiment dans une société aussi dangereuse, pour avoir à ce point besoin de la reconnaissance faciale ? », et la précise : la reconnaissance faciale, pour quoi faire ?
Elle évoque bien sûr les intérêts industriels, et la facilité politique consistant à remplacer le personnel humain par des machines. Mais elle va plus loin : derrière le succès politique et médiatique de la technique à visée sécuritaire, elle voit la peur de l’autre. Le regard remplace la parole, et la distance remplace la rencontre. Même les agents de surveillance ne regardent plus les gens, mais des écrans. Ce qui devrait être un média est devenu une vitre isolante. C’est une logique de traitement des symptômes qui ne s’adresse jamais aux causes.

Elle remarque aussi que la « démocratisation » des caméras, maintenant que chacun porte sur soi un smartphone, a sans doute aussi contribué à leur banalisation, en faisant de chacun le surveillant potentiel de l’autre. C’était d’ailleurs l’idée principale de l’application « Reporty », retoquée à Nice par la CNIL au printemps 2018 : la mairie voulait lancer une application pour smartphone afin que les habitants signalent par vidéo les incivilités dont ils seraient témoins. Sally A. Applin souligne par ailleurs que l’accumulation de millions d’heures de vidéosurveillance que personne n’a le temps de regarder explique peut-être en partie l’enthousiasme des décideurs politiques pour la reconnaissance faciale automatisée : le fantasme de la surveillance totale est matériellement hors d’atteinte, sauf si l’humanité s’y consacre à temps plein, ou si elle délègue le travail à des machines (biaisées).

Est-ce vraiment le monde que nous voulons ? Cette société sans contact, cette société qui a peur de la parole et de l’engagement physique des uns avec les autres est une société déprimée, qui ne s’aime pas. Il est permis d’en vouloir une autre. Elle commence par interdire la reconnaissance faciale.

]]>
Loi haine adoptée en commission : dénonçons les responsableshttps://www.laquadrature.net/?p=14377http://streisand.me.thican.net/laquadrature.net/index.php?20190619_192253_Loi_haine_adoptee_en_commission____denon__ons_les_responsablesWed, 19 Jun 2019 17:22:53 +0000La loi « contre la haine » vient d’être adoptée en commission des lois de l’Assemblée. Les députés n’ont rien corrigé. Toujours aussi inutile, la loi se contentera de renforcer la censure politique (lire notre analyse juridique, qui tient toujours). Ce désastre a des responsables identifiés.

Laetitia Avia

Laetitia Avia a été chargée par Emmanuel Macron, dont elle est personnellement proche, de « civiliser Internet », avec l’objectif de confier le Web aux grandes plateformes. Pour que ce projet réussisse, elle aura su empêcher la bonne tenue des débats, en manquant tant de rigueur que de respect pour le Parlement.

Certains passages de sa proposition de loi, remplie d’erreurs de numérotation ou de mots manquants1Exemples des erreurs dans la proposition de loi initiale : l’alinéa 1 de l’article 1er vise les « cinquième et sixième alinéas » de l’article 24 de la loi sur la presse de 1881, alors que Mme Avia nous a indiqué vouloir viser les « septième et huitième alinéas », très différents ; l’alinéa 5 de l’article 1er vise un « contenu signé » à la place d’un « contenu signalé » ; l’alinéa 2 de l’article 6 suggère de remplacer les personnes mentionnées au « 2 ou, à défaut, à toute personne mentionnée au 1 » d’un article de la LCEN par les personnes mentionnées « ou au 2 » (elle a probablement oublié un « 1 »), rendant ce bout de proposition incompréhensible. Les autres députés ont du proposer des amendements pour corriger ces erreurs., étaient presque incompréhensibles. Elle s’en excusait en expliquant qu’il ne s’agissait que d’un « brouillon ». Sauf que le rôle du Parlement est de débattre de textes finis, pas de brouillons. Ceci est d’autant plus grave qu’a été enclenchée la procédure accélérée — qui ne permet qu’une seule lecture du texte dans chaque chambre du Parlement (Assemblée et Sénat). Durant les semaines d’audition, Mme Avia a eu beau jeu d’esquiver chaque critique en jurant que son texte final serait parfait et qu’elle avait déjà prévu de tout corriger. Les autres députés que nous avons rencontrés ont avoué leur difficulté à travailler sur un texte imaginaire… Nous aussi.

Alors, que sont devenues ces promesses, en fin de course ? Pas grand chose de sérieux. Pour éviter les « sur-blocages » de contenus licites par les plateformes, risque dénoncé par tout le monde ou presque, son texte bricole une sanction des retraits « insuffisants ou excessifs ». C’est tout. Elle ne donne pas la moindre définition ou le moindre cadre à une notion juridique aussi inédite et complexe que la « responsabilité pour sur-blocage ». Mme Avia doit penser que ce n’est pas son rôle d’écrire la loi.

Conseil d’État

Pour tenter de renforcer la crédibilité juridique d’un texte qui en manquait tant, Mme Avia a saisi le Conseil d’État pour avis. En retour, le Conseil aura pris soin de ne rien faire d’utile. Les maigres pages de son avis évitent soigneusement les vrais problèmes juridiques, tel que le délai irréaliste et contre-productif de 24h pour retirer les contenus. Il ne fallait surtout pas freiner l’émissaire de Macron.

Paula Forteza

La croisade hors-sol de Mme Avia pouvait-elle être freinée par les députés En Marche, et notamment ceux qui se présentent habituellement comme experts du numérique ?

Nous avons discuté de la proposition de loi avec Paula Forteza. Un temps pressentie pour remplacer Mounir Mahjoubi au secrétariat d’État au numérique, elle se dit favorable aux libertés en ligne. Elle semblait prête à apporter un peu de droit et de technique au débat et, surtout, à porter notre proposition sur l’interopérabilité. Cette démarche pouvait impliquer de s’opposer à Mme Avia. Quand le moment de l’éventuelle confrontation est arrivé, Mme Forteza n’a finalement pas porté ce combat, retournant vers des sujets plus compatibles avec les projets de la majorité.

Éric Bothorel

Passons à Éric Bothorel, autre député En Marche habitué des sujets numériques. C’est assez inquiets que nous sommes allés le rencontrer, l’ayant entendu reprendre la propagande de Facebook, qui assure à l’envie que la « magique intelligence artificielle » nous protège du terrorisme, sans aucun recul critique. Inquiétude fondée : M. Bothorel ne comprend manifestement aucune des critiques juridiques ou techniques contre le texte de Mme Avia, dont il se serait récemment rapproché.

Le seul amendement qu’il a déposé va dans ce sens. Il reprend la stratégie dite « follow the money », promue par les ayants-droit des industries culturelles pour lutter contre le partage d’œuvres en ligne en contournant toute garantie légale ou juridictionnelle. Bothorel propose ainsi de couper les revenus publicitaires des sites que l’administration estime héberger des discours de haine, le tout sans aucun contrôle judiciaire. Toujours plus de répression aveugle et vaine, au mépris du droit. Tandis qu’au mur de son bureau pend un sac Facebook, remis quelque jours plus tôt par Mark Zuckerberg avec qui il déjeunait en compagnie de Mmes Avia et Forteza et de Cédric O, secrétaire d’État chargé du Numérique.

La Team Facebook


Paula Forteza, Mark Zuckerberg, Eric Bothorel

Mark Zuckerberg (de dos), Laetitia Avia, Cedric O

Le patron-tyran a en effet tenu à leur vendre son modèle de modération comme étant le plus efficace du Web. Un mensonge parfaitement intégré par Mme Avia, qui nous a expliqué que Facebook n’était pas une source de « haine en ligne » mais, au contraire, que c’était à Twitter et aux autres de faire aussi bien que le grand F (comprendre : exploiter des milliers de travailleur·es précarisé·e·s pour modérer une plateforme que la taille rend impossible à modérer, répondre aux demandes des États, et saupoudrer le tout de bouts d’IA inutile pour faire joli).

Cedric O

Nous avons également rencontré le Secrétaire d’État chargé du Numérique. Il nous a exposé les grands projets du gouvernement pour lutter contre la haine en ligne, sans presque dire un mot de la loi actuellement débattue. Manifestement incapable de répondre à nos critiques sur l’inutilité et les risques de celle-ci, il a préféré, lui aussi, rester dans l’imaginaire et les promesses faciles.

Nous espérions un moment le convaincre de soutenir notre proposition sur l’interopérabilité, qui avait déjà été favorablement accueillie par les différents ministères rencontrés au cours de l’année. Il a d’abord feint de ne pas voir le lien avec la loi de Mme Avia, comme si nous libérer de l’environnement conflictuel des géants ne permettrait pas de protéger les victimes d’oppressions. Puis il a bien dû reconnaître le lien entre ces deux sujets, tout en prétendant vouloir porter ce projet au niveau européen. Comme il l’a expliqué le lendemain en commission des lois (vidéo, à 02:38:33), il refuse de soutenir ce projet au niveau français, agitant la peur de représailles diplomatiques de la part de Trump si la France s’attaquait seule aux géants états-uniens. Une telle démission politique aura rarement été avouée avec autant de sincérité.

En résumé, alliant amateurisme, mutisme et posture politique creuse, toute la majorité s’est unie pour ruiner nos libertés. Tout ça pour rien, si ce n’est faire parler d’eux dans la presse, en se donnant les fausses allures d’un pouvoir libéral désireux de résister au racisme, au sexisme et à l’homophobie.

George Pau-Langevin et Hervé Saulignac

Le parti socialiste a organisé une table ronde pour recueillir l’avis d’une large variété d’acteurs, allant du Syndicat de la magistrature à la LICRA, en passant par Facebook et Google. Nous mettre tous dans la même pièce n’était pas garantir la simplicité des débats, mais un consensus s’est étonnamment dégagé : nous trouvions tous la loi inutile, prenant le problème de la mauvaise façon et manquant son but.

George Pau-Langevin et Hervé Saulignac, qui nous recevaient, se sont-ils approprié ces nombreuses critiques pour défendre les valeurs de liberté auxquelles la gauche est censée être attachée ? Sûrement pas ! Ils souhaitent que la France viole encore davantage la protection de l’anonymat garantie en droit de l’Union européenne. Leur amendement demande ainsi aux plateformes de collecter notre adresse mail et notre numéro de téléphone, en plus de notre adresse IP dont la conservation est déjà requise. Nous leur avions pourtant bien expliqué que la Cour de justice de l’Union européenne interdit d’imposer aux plateformes la collecte ne serait-ce que de notre adresse IP (et qu’on attaquait déjà le droit français pour cette raison). Ils ne valent pas mieux qu’En Marche.

Qui s’intéresse encore aux libertés sur Internet ?

Qui pense encore que la liberté d’expression mérite d’être défendue ?

Danièle Obono et Ugo Bernalicis

La France insoumise nous a reçu avec attention et a su reprendre nos arguments en commission, tant devant M. O que ce matin avant le vote. Mme Obono a défendu à l’oral nos positions et notre proposition sur l’interopérabilité et M. Bernalicis a déposé pour le groupe un amendement reprenant notre proposition législative (lire notre amendement sur l’interopérabilité, sur lequel se base celui de M. Bernalicis).

Les services de la commission des lois ont déclaré cette proposition sans lien avec « la haine en ligne ». À croire qu’il n’ont pas même lu le rapport de Mme Avia contre le racisme de septembre dernier, qui expliquait pourtant, s’agissant des « propos choquants ou extrémistes », que « l’intérêt des réseaux sociaux est d’en héberger le plus possible ». L’amendement devra être redéposé en séance plénière, où le vote se tiendra ce 3 juillet.

Saluons par ailleurs deux autres amendements de la France insoumise qui reprennent nos critiques. Un premier amendement pour supprimer l’article 5 de la proposition de loi, par lequel Mme Avia veut renforcer la sanction pour non-conservation des données de connexion (adresses IP et autres) par les hébergeurs — cette même obligation qui viole le droit de l’Union européenne et que nous attaquons en justice. Un deuxième amendement pour supprimer l’article 6 qui, au prétexte de lutter contre les « sites miroirs illicites », donnerait à la police des pouvoirs de censure excessifs dont elle ne pourra qu’abuser. Ces deux amendements ont été rejetés.

Philippe Latombe et Frédérique Dumas

N’y a-t-il donc qu’à la gauche du PS que l’intérêt de la population est défendu ? Non, le droit et les libertés sont apartisanes. On trouve encore des députés, même proches de la majorité, pour prendre au sérieux leur mission législative.

Philippe Latombe (UDI) a signé l’amendement de M. Bernalicis sur l’interopérabilité, rappelant que la gravité de ces sujets doit conduire à dépasser les clivages politiques. Frédérique Dumas (qui vient tout juste de quitter l’UDI) avait déposé un amendement identique– lui aussi déclaré irrecevable. Deux députés que nous ne connaissions pas, et qui se révèlent des experts bien plus sérieux que ceux mis en avant par la majorité En Marche.

Laure de La Raudière

Laure de La Raudière (UDI), dont nous connaissons l’intérêt de longue date qu’elle porte aux questions numériques, a déposé des amendements très pertinents. Un premier permettrait aux plateformes de saisir le juge en cas de doute sur le caractère « manifestement illicite » d’un contenu. Un position proche de nos revendications : seul un juge doit être en mesure de qualifier une infraction. Cette proposition a été rejetée.

Un autre amendement répond à nos critiques en exigeant l’intervention de l’autorité judiciaire pour bloquer les sites miroirs. Il a été écarté. Un troisième vise également à réduire les risques de censure politique : les signalements envoyés par la police n’obligeront plus les plateformes à un traitement sous 24h, ce qui constituait un moyen de pression excessif donné à la police, qui agit ici sans juge. Ce délai de 24h ne s’appliquera plus que pour les signalements des utilisateurs. Cet amendement de Mme de La Raudière a été adopté.

Les débats se poursuivront en séance plénière le 3 juillet. La procédure accélérée ayant été engagée, il s’agira en théorie du seul passage du texte à l’Assemblée.

References   [ + ]

1. Exemples des erreurs dans la proposition de loi initiale : l’alinéa 1 de l’article 1er vise les « cinquième et sixième alinéas » de l’article 24 de la loi sur la presse de 1881, alors que Mme Avia nous a indiqué vouloir viser les « septième et huitième alinéas », très différents ; l’alinéa 5 de l’article 1er vise un « contenu signé » à la place d’un « contenu signalé » ; l’alinéa 2 de l’article 6 suggère de remplacer les personnes mentionnées au « 2 ou, à défaut, à toute personne mentionnée au 1 » d’un article de la LCEN par les personnes mentionnées « ou au 2 » (elle a probablement oublié un « 1 »), rendant ce bout de proposition incompréhensible. Les autres députés ont du proposer des amendements pour corriger ces erreurs.
]]>
Analyse juridique de la loi « contre la haine en ligne »https://www.laquadrature.net/?p=14350http://streisand.me.thican.net/laquadrature.net/index.php?20190617_143327_Analyse_juridique_de_la_loi_____contre_la_haine_en_ligne____Mon, 17 Jun 2019 12:33:27 +0000Mise à jour : l’amendement n°CL206 ayant été déclaré irrecevable par les services de la commission des lois, il n’est plus accessible en ligne. Vous pouvez consulter notre proposition à l’origine de cet amendement, qui le reprenait en le simplifiant.

Le 19 Juin, la commission des lois de l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet ». La Quadrature du Net a envoyé aux 72 membres de cette commission l’analyse juridique reproduite ci-dessous (aussi en PDF), qui traduit en droit nos analyses politiques publiées ces derniers mois pour appeler au rejet des pires dispositions de ce texte (relire notamment nos articles de février et de mai).

Lettre aux députés : PPL Avia, refusez les mesures inutiles et dangereuses

Mesdames, Messieurs les députées,
Membres de la commission constitutionnelle, de la législation et de l’administration générale de la République,

Vous examinerez mercredi prochain la proposition de loi « contre la haine sur Internet ». En l’état, cette proposition, et surtout son article 1er, ne permettra pas d’atteindre l’objectif qu’elle se donne mais renforcera uniquement les risques de censure politique.

La Quadrature du Net vous appelle à supprimer cet article 1er et à modifier la loi tel qu’exposé ci-après.

Nous vous appelons également à adopter l’amendement n°CL206, qui propose une solution plus efficace pour protéger les victimes d’oppression en ligne, forçant les grandes plateformes commerciales à devenir interopérables pour permettre à ces victimes de se libérer de leur environnement toxique.

A. Le champ personnel excessif du retrait en 24h

En droit, toute restriction de libertés, telle que la liberté de communication, n’est valide que si elle est strictement nécessaire à la réalisation de l’objectif qu’elle poursuit1Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007)..

L’objectif poursuivi par cette PPL est de contenir la multiplication des discours de haine et de harcèlement survenue sur les grandes plateformes commerciales — Facebook, Youtube et Twitter. Pour ce faire, son article 1er exige le retrait en 24h des contenus signalés qui sont manifestement illicites, restreignant la liberté de communication tant de ces plateformes que de leurs utilisateurs.

Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L111-7 du code de consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (qu’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale tel que Wikipédia seront aussi concernés. Pourtant, leur modèle de modération qui repose sur une communauté bénévole et investie a su se montrer bien plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par Mme Avia ni par le gouvernement.

Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par cette PPL. Pourtant, n’ayant pas de modérateurs professionnels, elles ne pourront en respecter l’article 1er et devront cesser leur activité devant la menace de sanctions inévitables. Cette restriction de leur liberté de communication est inutile et donc juridiquement invalide.

B. Un délai de 24h contre-productif

En droit, une mesure est invalide si elle restreint davantage de libertés que ne le ferait une autre mesure capable d’atteindre aussi efficacement l’objectif qu’elle poursuit2Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil)..

En l’espèce, imposer un délai de 24h pour retirer un contenu manifestement illicite est susceptible de provoquer d’importantes restrictions de libertés, tel que le sur-blocage de propos licites ou le dévoiement de la mesure à des fins de censure politique. Ce délai fixe produit un autre effet nocif : il empêche les plateformes d’examiner en priorité les contenus les plus graves ou les plus partagés, car elles doivent traiter tous les signalements, même les moins graves, dans un même et unique délai.

À l’inverse, le droit actuel (la loi pour la confiance dans l’économie numérique de 2004, LCEN) n’exige le retrait des contenus manifestement illicites que dans un délai « prompt » : proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Ceci permet de traiter en priorité les situations les plus nocives, ce qui est bien plus efficace pour atteindre l’objectif poursuivi par la loi, tout en réduisant les risques de sur-blocage et de censure politique.

Par ailleurs, imposer un délai de 24h serait d’autant plus inutile qu’il est matériellement irréaliste : dans bien des cas, il ne pourra être respecté par aucune plateforme et ne sera donc pas sanctionné. Exemple sinistre mais probant, la vidéo de la tuerie de Christchurch a été dupliquée 1,5 millions de fois sur Facebook dans les 24h suivant l’attentat, au cours desquelles 300.000 copies auraient entièrement échappé aux outils de modération automatisés de l’entreprise, de l’aveu même de celle-ci3« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand. Cet événement a démontré l’incapacité structurelle des outils de modération automatisés à faire face à de telles menaces en 24h. La loi perdrait toute emprise sur le réel en exigeant l’inverse.

À l’inverse, le droit actuel a déjà pu s’appliquer concrètement contre un hébergeur ayant échoué à retirer en 24h un contenu illicite dans le cas où un tel délai était réaliste et où la situation le justifiait spécifiquement4Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi..

En conclusion, imposer un délai de 24h serait moins efficace qu’un délai apprécié au cas par cas, tel que prévu actuellement par la LCEN, car cela empêcherait de traiter les situations les plus graves en priorité tout en étant matériellement irréaliste, privant la loi de son lien au réel. Puisqu’une telle mesure restreindrait davantage de libertés que celles prévues actuellement par la LCEN, elle serait inutile et donc invalide.

C. Un délai de 24h favorisant la censure politique

En droit, le principe de la séparation des pouvoir exige que l’autorité qui poursuit les auteurs d’infractions (le pouvoir exécutif) soit distincte de celle qui constate ces infractions (pouvoir judiciaire) et que cette seconde autorité soit indépendante de la première5Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. ».

En l’espèce, le délai de 24h pour retirer les contenus est si court qu’il empêchera les plateformes d’examiner tous les signalements avec le même niveau de diligence. Dans ces conditions, elles n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs partenaires jugés les plus fiables. L’OCLCTIC, le service de la police spécialisé contre les infractions en ligne, sera vraisemblablement le premier de ces partenaires : Facebook ou Twitter seraient bien peu pragmatiques s’ils « perdaient du temps » à examiner les signalements de la police alors que des milliers de signalements à l’origine bien plus incertaine et complexe devront être examinés en urgence dans la même journée.

Ce pouvoir « de fait » de l’OCLCTIC a déjà été dévoyé à des fins de censure politique. Dernier exemple en date : en réponse à une demande CADA de La Quadrature du Net, la police a expliqué avoir signalé à Google le 13 janvier 2019 une image caricaturant Emmanuel Macron sous les traites du dictateur Pinochet. Dans les documents transmis, le signalement est enregistré dans la catégorie « injures et diffamations xénophobes ou discriminatoires »6Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron. Cette qualification, en plus d’être une aberration juridique, entre exactement dans le champ des infractions que la PPL Avia imposera de retirer en 24h.

En conclusion, l’article 1er de la PPL Avia, en exigeant d’évaluer la licéité des contenus signalés dans un délai de 24h, décuplera les risques de retrait de contenus signalés par la police qui, tout en étant licites, vexeraient le pouvoir exécutif. En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les « infractions » contre lesquelles il prétend lutter et imposant cette qualification aux plateformes qui, menacées de lourdes sanctions, lui sont largement soumises et nullement indépendantes. Ce délai n’étant par ailleurs pas nécessaire, il est d’autant moins valide qu’il accroît sensiblement les risques de violation de la séparation des pouvoirs.

D. Une lutte illégitime contre les travailleuses du sexe

L’amendement CL93 déposée par Mme Avia propose de compléter la liste des infractions justifiant à l’article 1 de la PPL de censurer un contenu en 24 heures. Sont notamment ajoutées les infractions définies aux articles 227-23 et 227-24 du code pénale, qui punissent les faits « d’aider, d’assister ou de protéger la prostitution d’autrui » ou bien « de faire office d’intermédiaire entre deux personnes dont l’une se livre à la prostitution et l’autre exploite ou rémunère la prostitution d’autrui ».

Cet ajout pousserait encore davantage Facebook et Twitter à exclure activement de leurs plateformes les travailleuses du sexe ainsi que leurs groupes d’entraide, leur fermant une alternative au travail en extérieur où elles seraient exposées à bien plus de violences. Une telle proposition trahit l’objectif de cette PPL qui prétend défendre les victimes de violences et doit être rejetée.

E. La conservation des données renforcée, en violation du droit de l’Union

L’article 5 de la proposition de loi initiale (qui serait déplacé « après l’article 3 » par l’amendement CL112 de Mme Avia) propose d’augmenter la sanction des fournisseurs d’accès à Internet et des hébergeurs ne conservant pas les données de connexion de l’ensemble de leurs utilisateurs (adresses IP notamment), telle que fixée au 1 du VI de l’article 6 de la LCEN.

Dans son arrêt Tele27L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2, la Cour de justice de l’Union européenne a déclaré qu’une telle mesure de surveillance de masse est contraire à la Charte des droits fondamentaux de l’Union et que seules des mesures de conservation ciblée sur des personnes soupçonnées peuvent être autorisées. La Quadrature a contesté la conformité de l’obligation française devant le Conseil d’État, dont le rapporteur public a reconnu l’absence de conformité du droit français au droit de l’Union et conduit le Conseil à transmettre des questions préjudicielles à la Cour de justice de l’Union européenne à ce sujet8Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1.

Dans l’attente de la réponse de cette dernière, la moindre des choses de la part du législateur serait de ne pas aggraver la violation par la France du droit de l’Union en renforçant la sanction de cette obligation inconventionnelle. Cet article doit être supprimé.

F. L’absence de garde fou à la lutte contre les sites miroirs

L’article 6 de la PPL Avia propose de permettre à la police d’ordonner aux opérateurs Internet de bloquer un site sur lequel est reproduit un contenu reconnu illicite par un juge. L’amendement CL121 déposé par Mme Avia précise que cette décision judiciaire interdit explicitement « la reprise totale ou partielle » du contenu concerné.

Cette précision ne limite en rien les graves risques de dévoiement de la mesure à des fins de censure politique. L’exemple donné plus haut de la vidéo de Christchurch en donne une illustration parfaite. Si un juge, doté des pouvoirs prévus par cet article 6, avait interdit « la reprise totale ou partielle » de la vidéo du massacre de Christchurch (hypothèse crédible), la police aurait eu toute liberté pour exiger le blocage de l’ensemble du site Facebook, dans la mesure où Facebook a été incapable de supprimer la vidéo, dont au moins 300 000 copies ont échappé à sa modération.

Mme Avia semble parfaitement ignorer cette réalité : il est impossible pour un hébergeur d’éviter que ses utilisateurs ne partagent la moindre copie d’un contenu interdit. Une poignée d’amateurs l’a parfaitement démontré en modifiant légèrement la durée, la couleur ou le son de la vidéo de Christchurch pour contourner presque entièrement les algorithmes de Facebook.

Si la « reprise totale ou partielle » d’un contenu était interdite par un juge, en application de cet article 6, absolument tout hébergeur serait virtuellement en violation de cette obligation du fait de certains des ses utilisateurs, sans qu’il ne puisse rien y faire. La police se trouvera seule à décider lesquels de ces sites seront censurés, entièrement libre de dévoyer ce choix arbitraire à des fins politiques. Hypothèse concrète : la police ne demanderait pas la blocage de la plupart des sites hébergeant un contenu interdit par un juge (tels que Facebook ou Youtube) mais exigerait le blocage de plateformes critiquant la politique du gouvernement et où un utilisateur malveillant aurait insidieusement publié le contenu interdit. Cette hypothèse est des plus crédibles lorsqu’on rappelle que l’OCLCTIC a déjà dévoyé de façon illégale ses pouvoirs de lutte contre le terrorisme pour tenter de censurer des plateformes d’extrême-gauche telles que Indymedia (voir le jugement du 31 janvier 2019 du tribunal administratif de Cergy-Pontoise, qui reconnaît cet abus de la police).

Une garantie classique contre cette dérive est le « principe de subsidiarité », prévu de façon imparfaite (mais prévu toutefois) à l’article 6-1 de la LCEN en matière de censure administrative des contenus terroristes et pédopornographiques. Ce principe veut que les pouvoirs publics demandent d’abord à l’hébergeur de retirer le contenu interdit. Ce n’est que dans le cas où celui-ci refuse clairement de coopérer, lorsque lui a été laissé un délai suffisant pour ce faire et que sa défaillance ne résulte que d’une faute lourde et manifeste, que son blocage par les opérateurs Internet peut être considéré.

Sans rendre les mesures de censure efficaces ou légitimes, cette garantie est la moindre des choses requises. Il serait inconcevable que la lutte contre la haine soit encadrée de moins de garanties que la lutte contre le terrorisme.

G. La disparition du principe de subsidiarité en matière de signalement

L’article 2 la proposition de loi initiale (qui serait déplacé « après l’article premier » par l’amendement CL97 de Mme Avia) propose de modifier le formalisme de signalement aux hébergeurs des contenus problématiques, tel que défini actuellement à l’article 6, 1, 5, de la LCEN.

La principale modification est que l’auteur d’un signalement ne doit plus justifier avoir contacté au préalable l’auteur du propos problématique pour lui demander de le corriger. La suppression de cette exigence constitue un autre renoncement au « principe de subsidiarité », pourtant au cœur du mécanisme de signalement de la LCEN.

Ce principe veut que les utilisateurs tentent de régler les situations problématiques d’abord entre eux, notamment pour dissiper les simples malentendus ou confusions qui auraient pris l’apparence du conflit. Ce n’est que lorsque cette tentative a échoué que la plateforme doit être contactée pour résoudre le conflit. Ceci permet à la plateforme de se concentrer sur les cas les plus graves sans être retardée par des cas que les utilisateurs auraient résolus plus efficacement eux-mêmes.

Exemple typique : une personne cite sur Twitter un propos haineux pour le dénoncer ; un tiers est choqué par ce propos et n’est pas certain s’il s’agit d’un propos original ou d’une citation critique ; plutôt que de signaler le propos à Twitter, qui peine déjà tant à traiter les très nombreux signalements qu’il reçoit, il serait plus efficace que le tiers contacte lui-même l’utilisateur initial, afin que celui-ci dissipe la confusion et corrige son message initial pour le rendre moins ambigu.

La suppression de ce principe de proportionnalité dessert l’objectif de lutte contre les propos oppressifs, car surchargerait inutilement les plateformes de signalements qui auraient été plus efficacement traités autrement. L’article 2 de la proposition de loi initiale doit être supprimé.

H. L’interopérabilité, une solution plus efficace que la répression

Les mesures restrictives de libertés sont d’autant moins nécessaires, et donc valides, si le législateur pouvait adopter d’autres mesures qui, ne limitant aucune liberté, permettraient de se rapprocher davantage de l’objectif poursuivi. L’objectif de cette PPL n’est pas de sanctionner les auteurs de propos haineux mais uniquement de limiter la façon dont le public, et plus particulièrement les victimes, y sont exposées.

Comme vu ci-avant, le délai de 24h est contre-productif pour atteindre cet objectif. Son inefficacité résulte du fait qu’il ne cherche à traiter que les symptômes et non les causes. Or, deux des causes du problème que la PPL souhaite résoudre peuvent être efficacement traitées par le législateur.

1. Deux causes

Première cause : le nombre de personnes réunies sur les plateformes commerciales géantes facilite les stratégies de harcèlement, plaçant les victimes à portée immédiate de leurs oppresseurs. Leur taille est si importante qu’elle empêche toute modération crédible : Facebook ne pourra jamais embaucher assez de modérateurs pour ses 2 milliards d’utilisateurs revendiqués et ses outils automatisés ont prouvé leur inefficacité intrinsèque avec l’événement de Christchurch.

Seconde cause : Mme Avia dénonce elle-même le « lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible »9Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
. Ce que nous appelons « culture du buzz » ou « économie de l’attention » est au cœur du modèle des grandes plateformes commerciales, dont la raison d’être est de capter l’attention du plus grand nombre de personnes possible, le plus longtemps possible, afin de leur afficher de la publicité.

D’après Youtube, 70% des vidéo visionnées sur la plateforme le sont sur recommandation de son algorithme10« YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan. Guillaume Chaslot, ancien employé de l’entreprise, explique que cet algorithme favorise avant tout les vidéos regardées le plus longtemps, indépendamment de leur contenu ou de leur réception par le public (pouces bleus et rouges). En étudiant ces recommandations, il constate que l’algorithme favorise les contenus agressifs, diffamants, choquants ou complotistes : « C’est comme une bagarre dans la rue, la plupart des gens s’arrêtent pour regarder, quasiment tout le monde réagit »11Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.. Par leur effet sidérant, ces contenus retiendraient efficacement notre attention. Pour être mieux référencées, les vidéastes se retrouvent implicitement incités à en produire.

Twitter provoque une situation similaire : le fonctionnement de son « fil d’actualité », la brièveté des messages qu’il impose ainsi que ses mécanismes de citation favorisent l’invective, le buzz, le conflit, tout en rendant quasiment impossibles les propos d’apaisement et de compréhension qui peuvent rarement se tenir en 280 caractères. Quant à Facebook, pour séduire les annonceurs, il se vante directement d’être capable d’altérer l’humeur de ses utilisateurs en manipulant leur « fil d’actualité »12« Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html, ce qui permet de faire naître les attentes et angoisses propices à la publicité tout en faisant rester les utilisateurs plus longtemps.

2. Une solution

Ces deux sources de mal-être (la taille ingérable des plateformes et leur culture du buzz) contribuent sensiblement au ressenti de « haine en ligne » contre lequel la PPL Avia entend lutter, sans toutefois rien proposer pour le résoudre efficacement. Une solution législative concrète serait de permettre aux utilisateurs de ces plateformes d’en partir : aujourd’hui, partir de Facebook ou de Twitter implique de ne plus communiquer avec toutes les personnes (famille, amis, soutiens) qui s’y trouvent. De nombreuses personnes sont donc contraintes de rester dans ces environnements toxiques, propices aux conflits et au harcèlement, car le coût social à payer pour s’en libérer est trop important.

Pour faire disparaître ce coût et permettre aux victimes de se protéger librement, la loi devrait obliger les grandes plateformes commerciales à devenir « interopérables » : qu’elles permettent à leurs utilisateurs de communiquer avec les utilisateurs d’autres plateformes similaires (dans le cas de Twitter, par exemples, ces « autres plateformes similaires » pourraient être les milliers de services utilisant le logiciel de micro-blogging décentralisé Mastodon). Ces autres plateformes, déjà nombreuses, offrent des règles de modérations variées et, ainsi, adaptées aux besoins et envies de chaque personne, allant de lieux « sanctuaires » ou non-mixtes à des espaces de discussions libres moins strictement modérés. Chaque personne peut librement choisir le type de modération correspondant à ses besoins.

D’un point de vue technique, respecter cette obligation serait facilité par les nombreux développements récents en matière de réseaux sociaux décentralisés, que ce soit de la part des acteurs du logiciel libre (GNU Social, Mastodon, Plemora, PeerTube…) ou des organisations internationales de normalisation, tel que le W3C (World-Wide Web Consortium) ayant publié en 2018 un protocole pour réseaux sociaux décentralisés, « ActivityPub ».

L’amendement n°CL206 propose d’imposer cette interopérabilité aux grandes plateformes commerciales, offrant aux victimes d’oppressions en ligne davantage de liberté pour se protéger. Nous vous vous appelons à l’adopter.

References   [ + ]

1. Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).
2. Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).
3. « Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand
4. Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.
5. Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »
6. Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron
7. L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2
8. Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1
9. Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
10. « YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan
11. Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.
12. « Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html
]]>
C’est quoi, l’interopérabilité, et pourquoi est-ce beau et bien ?https://www.laquadrature.net/?p=14332http://streisand.me.thican.net/laquadrature.net/index.php?20190613_142735_C___est_quoi__l___interoperabilite__et_pourquoi_est-ce_beau_et_bien___Thu, 13 Jun 2019 12:27:35 +0000Nous republions l’article de Stéphane Bortzmeyer publié le 12 juin 2019 sur Framablog, qui traduit en langage clair et compréhensible la notion technique d’« interopérabilité », centrale dans nos combats en cours.

Protocoles

Le 21 mai 2019, soixante-neuf organisations, dont Framasoft, ont signé un appel à ce que soit imposé, éventuellement par la loi, un minimum d’interopérabilité pour les gros acteurs commerciaux du Web.

« Interopérabilité » est un joli mot, mais qui ne fait pas forcément partie du vocabulaire de tout le monde, et qui mérite donc d’être expliqué. On va donc parler d’interopérabilité, de protocoles, d’interfaces, de normes, et j’espère réussir à le faire tout en restant compréhensible (si vous êtes informaticien·ne professionnel·lle, vous savez déjà tout cela ; mais l’appel des 69 organisations concerne tout le monde).

Le Web, ou en fait tout l’Internet, repose sur des protocoles de communication. Un protocole, c’est un ensemble de règles qu’il faut suivre si on veut communiquer. Le terme vient de la communication humaine, par exemple, lorsqu’on rencontre quelqu’un, on se serre la main, ou bien on se présente si l’autre ne vous connaît pas, etc. Chez les humains, le protocole n’est pas rigide (sauf en cas de réception par la reine d’Angleterre dans son palais, mais cela doit être rare chez les lectrices et lecteurs du Framablog). Si la personne avec qui vous communiquez ne respecte pas exactement le protocole, la communication peut tout de même avoir lieu, quitte à se dire que cette personne est bien impolie. Mais les logiciels ne fonctionnent pas comme des humains. Contrairement aux humains, ils n’ont pas de souplesse, les règles doivent être suivies exactement. Sur un réseau comme l’Internet, pour que deux logiciels puissent communiquer, chacun doit donc suivre exactement les mêmes règles, et c’est l’ensemble de ces règles qui fait un protocole.

Un exemple concret ? Sur le Web, pour que votre navigateur puisse afficher la page web désirée, il doit demander à un serveur web un ou plusieurs fichiers. La demande se fait obligatoirement en envoyant au serveur le mot GET (« donne », en anglais) suivi du nom du fichier, suivi du mot « HTTP/1.1 ». Si un navigateur web s’avisait d’envoyer le nom du fichier avant le mot GET, le serveur ne comprendrait rien, et renverrait plutôt un message d’erreur. En parlant d’erreurs, vous avez peut-être déjà rencontré le chiffre 404 qui est simplement le code d’erreur qu’utilisent les logiciels qui parlent HTTP pour signaler que la page demandée n’existe pas. Ces codes numériques, conçus pour être utilisés entre logiciels, ont l’avantage sur les textes de ne pas être ambigus, et de ne pas dépendre d’une langue humaine particulière. Cet exemple décrit une toute petite partie du protocole nommé HTTP (pour Hypertext Transfer Protocol) qui est le plus utilisé sur le Web.

Il existe des protocoles bien plus complexes. Le point important est que, derrière votre écran, les logiciels communiquent entre eux en utilisant ces protocoles. Certains servent directement aux logiciels que vous utilisez (comme HTTP, qui permet à votre navigateur Web de communiquer avec le serveur qui détient les pages désirées), d’autres protocoles relèvent de l’infrastructure logicielle de l’Internet ; vos logiciels n’interagissent pas directement avec eux, mais ils sont indispensables.

Le protocole, ces règles de communication, sont indispensables dans un réseau comme l’Internet. Sans protocole, deux logiciels ne pourraient tout simplement pas communiquer, même si les câbles sont bien en place et les machines allumées. Sans protocole, les logiciels seraient dans la situation de deux humains, un Français ne parlant que français, et un Japonais ne parlant que japonais. Même si chacun a un téléphone et connaît le numéro de l’autre, aucune vraie communication ne pourra prendre place. Tout l’Internet repose donc sur cette notion de protocole.

Le protocole permet l’interopérabilité. L’interopérabilité est la capacité à communiquer de deux logiciels différents, issus d’équipes de développement différentes. Si une université bolivienne peut échanger avec une entreprise indienne, c’est parce que toutes les deux utilisent des protocoles communs.

Une prise électrique
Un exemple classique d’interopérabilité : la prise électrique. Kae [CC BY-SA 3.0 (https://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons

Seuls les protocoles ont besoin d’être communs : l’Internet n’oblige pas à utiliser les mêmes logiciels, ni à ce que les logiciels aient la même interface avec l’utilisateur. Si je prends l’exemple de deux logiciels qui parlent le protocole HTTP, le navigateur Mozilla Firefox (que vous êtes peut-être en train d’utiliser pour lire cet article) et le programme curl (utilisé surtout par les informaticiens pour des opérations techniques), ces deux logiciels ont des usages très différents, des interfaces avec l’utilisateur reposant sur des principes opposés, mais tous les deux parlent le même protocole HTTP. Le protocole, c’est ce qu’on parle avec les autres logiciels (l’interface avec l’utilisateur étant, elle, pour les humain·e·s.).

La distinction entre protocole et logiciel est cruciale. Si j’utilise le logiciel A parce que je le préfère et vous le logiciel B, tant que les deux logiciels parlent le même protocole, aucun problème, ce sera juste un choix individuel. Malgré leurs différences, notamment d’interface utilisateur, les deux logiciels pourront communiquer. Si, en revanche, chaque logiciel vient avec son propre protocole, il n’y aura pas de communication, comme dans l’exemple du Français et du Japonais plus haut.

Babel

Alors, est-ce que tous les logiciels utilisent des protocoles communs, permettant à tout le monde de communiquer avec bonheur ? Non, et ce n’est d’ailleurs pas obligatoire. L’Internet est un réseau à « permission facultative ». Contrairement aux anciennes tentatives de réseaux informatiques qui étaient contrôlés par les opérateurs téléphoniques, et qui décidaient de quels protocoles et quelles applications tourneraient sur leurs réseaux, sur l’Internet, vous pouvez inventer votre propre protocole, écrire les logiciels qui le parlent et les diffuser en espérant avoir du succès. C’est d’ailleurs ainsi qu’a été inventé le Web : Tim Berners-Lee (et Robert Cailliau) n’ont pas eu à demander la permission de qui que ce soit. Ils ont défini le protocole HTTP, ont écrit les applications et leur invention a connu le succès que l’on sait.

Cette liberté d’innovation sans permission est donc une bonne chose. Mais elle a aussi des inconvénients. Si chaque développeur ou développeuse d’applications invente son propre protocole, il n’y aura plus de communication ou, plus précisément, il n’y aura plus d’interopérabilité. Chaque utilisatrice et chaque utilisateur ne pourra plus communiquer qu’avec les gens ayant choisi le même logiciel. Certains services sur l’Internet bénéficient d’une bonne interopérabilité, le courrier électronique, par exemple. D’autres sont au contraire composés d’un ensemble de silos fermés, ne communiquant pas entre eux. C’est par exemple le cas des messageries instantanées. Chaque application a son propre protocole, les personnes utilisant WhatsApp ne peuvent pas échanger avec celles utilisant Telegram, qui ne peuvent pas communiquer avec celles qui préfèrent Signal ou Riot. Alors que l’Internet était conçu pour faciliter la communication, ces silos enferment au contraire leurs utilisateurs et utilisatrices dans un espace clos.

La situation est la même pour les réseaux sociaux commerciaux comme Facebook. Vous ne pouvez communiquer qu’avec les gens qui sont eux-mêmes sur Facebook. Les pratiques de la société qui gère ce réseau sont déplorables, par exemple en matière de captation et d’utilisation des données personnelles mais, quand on suggère aux personnes qui utilisent Facebook de quitter ce silo, la réponse la plus courante est « je ne peux pas, tou·te·s mes ami·e·s y sont, et je ne pourrais plus communiquer avec eux et elles si je partais ». Cet exemple illustre très bien les dangers des protocoles liés à une entreprise et, au contraire, l’importance de l’interopérabilité.

La tour de Babel, peinte par Pieter Bruegel
« La tour de Babel  », tableau de Pieter Bruegel l’ancien. Domaine public (Google Art Project)

 

Mais pourquoi existe-t-il plusieurs protocoles pour un même service ? Il y a différentes raisons. Certaines sont d’ordre technique. Je ne les développerai pas ici, ce n’est pas un article technique, mais les protocoles ne sont pas tous équivalents, il y a des raisons techniques objectives qui peuvent faire choisir un protocole plutôt qu’un autre. Et puis deux personnes différentes peuvent estimer qu’en fait deux services ne sont pas réellement identiques et méritent donc des protocoles séparés, même si tout le monde n’est pas d’accord.

Mais il peut aussi y avoir des raisons commerciales : l’entreprise en position dominante n’a aucune envie que des acteurs plus petits la concurrencent, et ne souhaite pas permettre à des nouveaux entrants d’arriver. Elle a donc une forte motivation à n’utiliser qu’un protocole qui lui est propre, que personne d’autre ne connaît.

Enfin, il peut aussi y avoir des raisons plus psychologiques, comme la conviction chez l·e·a créat·eur·rice d’un protocole que son protocole est bien meilleur que les autres.

Un exemple d’un succès récent en termes d’adoption d’un nouveau protocole est donné par le fédivers. Ce terme, contraction de « fédération » et « univers » (et parfois écrit « fédiverse » par anglicisme) regroupe tous les serveurs qui échangent entre eux par le protocole ActvityPub, que l’appel des soixante-neuf organisations mentionne comme exemple. ActivityPub permet d’échanger des messages très divers. Les logiciels Mastodon et Pleroma se servent d’ActivityPub pour envoyer de courts textes, ce qu’on nomme du micro-blogging (ce que fait Twitter). PeerTube utilise ActivityPub pour permettre de voir les nouvelles vidéos et les commenter. WriteFreely fait de même avec les textes que ce logiciel de blog permet de rédiger et diffuser. Et, demain, Mobilizon utilisera ActivityPub pour les informations sur les événements qu’il permettra d’organiser. Il s’agit d’un nouvel exemple de la distinction entre protocole et logiciel. Bien que beaucoup de gens appellent le fédivers « Mastodon », c’est inexact. Mastodon n’est qu’un des logiciels qui permettent l’accès au fédivers.

Le terme d’ActivityPub n’est d’ailleurs pas idéal. Il y a en fait un ensemble de protocoles qui sont nécessaires pour communiquer au sein du fédivers. ActivityPub n’est que l’un d’entre eux, mais il a un peu donné son nom à l’ensemble.

Tous les logiciels de la mouvance des « réseaux sociaux décentralisés » n’utilisent pas ActivityPub. Par exemple, Diaspora ne s’en sert pas et n’est donc pas interopérable avec les autres.

Appel

Revenons maintenant l’appel cité au début, Que demande-t-il ? Cet appel réclame que l’interopérabilité soit imposée aux GAFA, ces grosses entreprises capitalistes qui sont en position dominante dans la communication. Tous sont des silos fermés. Aucun moyen de commenter une vidéo YouTube si on a un compte PeerTube, de suivre les messages sur Twitter ou Facebook si on est sur le fédivers. Ces GAFA ne changeront pas spontanément : il faudra les y forcer.

Il ne s’agit que de la communication externe. Cet appel est modéré dans le sens où il ne demande pas aux GAFA de changer leur interface utilisateur, ni leur organisation interne, ni leurs algorithmes de sélection des messages, ni leurs pratiques en matière de gestion des données personnelles. Il s’agit uniquement d’obtenir qu’ils permettent l’interopérabilité avec des services concurrents, de façon à permettre une réelle liberté de choix par les utilisateurs. Un tel ajout est simple à implémenter pour ces entreprises commerciales, qui disposent de fonds abondants et de nombreu·ses-x programmeur·e·s compétent·e·s. Et il « ouvrirait » le champ des possibles. Il s’agit donc de défendre les intérêts des utilisateurs et utilisatrices. (Alors que le gouvernement, dans ses commentaires, n’a cité que les intérêts des GAFA, comme si ceux-ci étaient des espèces menacées qu’il fallait défendre.)

Qui commande ?

Mais au fait, qui décide des protocoles, qui les crée ? Il n’y a pas de réponse simple à cette question. Il existe plein de protocoles différents et leurs origines sont variées. Parfois, ils sont rédigés, dans un texte qui décrit exactement ce que doivent faire les deux parties. C’est ce que l’on nomme une spécification. Mais parfois il n’y a pas vraiment de spécification, juste quelques vagues idées et un programme qui utilise ce protocole. Ainsi, le protocole BitTorrent, très utilisé pour l’échange de fichiers, et pour lequel il existe une très bonne interopérabilité, avec de nombreux logiciels, n’a pas fait l’objet d’une spécification complète. Rien n’y oblige développeurs et développeuses : l’Internet est « à permission facultative ». Dans de tels cas, celles et ceux qui voudraient créer un programme interopérable devront lire le code source (les instructions écrites par le ou la programmeur·e) ou analyser le trafic qui circule, pour essayer d’en déduire en quoi consiste le protocole (ce qu’on nomme la rétro-ingénierie). C’est évidemment plus long et plus difficile et il est donc très souhaitable, pour l’interopérabilité, qu’il existe une spécification écrite et correcte (il s’agit d’un exercice difficile, ce qui explique que certains protocoles n’en disposent pas).

Parfois, la spécification est adoptée formellement par un organisme dont le rôle est de développer et d’approuver des spécifications. C’est ce qu’on nomme la normalisation. Une spécification ainsi approuvée est une norme. L’intérêt d’une norme par rapport à une spécification ordinaire est qu’elle reflète a priori un consensus assez large d’une partie des acteurs, ce n’est plus un acte unilatéral. Les normes sont donc une bonne chose mais, rien n’étant parfait, leur développement est parfois laborieux et lent.

Manuscrit médiéval montrant un moine écrivant
Écrire des normes correctes et consensuelles peut être laborieux. Codex Bodmer – Frater Rufillus (wohl tätig im Weißenauer Skriptorium) [Public domain]

Toutes les normes ne se valent pas. Certaines sont publiquement disponibles (comme les normes importantes de l’infrastructure de l’Internet, les RFC – Request For Comments), d’autres réservées à ceux qui paient, ou à ceux qui sont membres d’un club fermé. Certaines normes sont développées de manière publique, où tout le monde a accès aux informations, d’autres sont créées derrière des portes soigneusement closes. Lorsque la norme est développée par une organisation ouverte à tous et toutes, selon des procédures publiques, et que le résultat est publiquement disponible, on parle souvent de normes ouvertes. Et, bien sûr, ces normes ouvertes sont préférables pour l’interopérabilité.

L’une des organisations de normalisation ouverte les plus connues est l’IETF (Internet Engineering Task Force, qui produit notamment la majorité des RFC). L’IETF a développé et gère la norme décrivant le protocole HTTP, le premier cité dans cet article. Mais d’autres organisations de normalisation existent comme le W3C (World-Wide Web Consortium) qui est notamment responsable de la norme ActivityPub.

Par exemple, pour le cas des messageries instantanées que j’avais citées, il y a bien une norme, portant le doux nom de XMPP (Extensible Messaging and Presence Protocol). Google l’utilisait, puis l’a abandonnée, jouant plutôt le jeu de la fermeture.

Difficultés

L’interopérabilité n’est évidemment pas une solution magique à tous les problèmes. On l’a dit, l’appel des soixante-neuf organisations est très modéré puisqu’il demande seulement une ouverture à des tiers. Si cette demande se traduisait par une loi obligeant à cette interopérabilité, tout ne serait pas résolu.

D’abord, il existe beaucoup de moyens pour respecter la lettre d’un protocole tout en violant son esprit. On le voit pour le courrier électronique où Gmail, en position dominante, impose régulièrement de nouvelles exigences aux serveurs de messagerie avec lesquels il daigne communiquer. Le courrier électronique repose, contrairement à la messagerie instantanée, sur des normes ouvertes, mais on peut respecter ces normes tout en ajoutant des règles. Ce bras de fer vise à empêcher les serveurs indépendants de communiquer avec Gmail. Si une loi suivant les préconisations de l’appel était adoptée, nul doute que les GAFA tenteraient ce genre de jeu, et qu’il faudrait un mécanisme de suivi de l’application de la loi.

Plus subtil, l’entreprise qui voudrait « tricher » avec les obligations d’interopérabilité peut aussi prétendre vouloir « améliorer » le protocole. On ajoute deux ou trois choses qui n’étaient pas dans la norme et on exerce alors une pression sur les autres organisations pour qu’elles aussi ajoutent ces fonctions. C’est un exercice que les navigateurs web ont beaucoup pratiqué, pour réduire la concurrence.

Jouer avec les normes est d’autant plus facile que certaines normes sont mal écrites, laissant trop de choses dans le vague (et c’est justement le cas d’ActivityPub). Écrire une norme est un exercice difficile. Si on laisse beaucoup de choix aux programmeuses et programmeurs qui créeront les logiciels, il y a des risques de casser l’interopérabilité, suite à des choix trop différents. Mais si on contraint ces programmeuses et programmeurs, en imposant des règles très précises pour tous les détails, on empêche les logiciels d’évoluer en réponse aux changements de l’Internet ou des usages. La normalisation reste donc un art difficile, pour lequel on n’a pas de méthode parfaite.

Conclusion

Voilà, désolé d’avoir été long, mais les concepts de protocole et d’interopérabilité sont peu enseignés, alors qu’ils sont cruciaux pour le fonctionnement de l’Internet et surtout pour la liberté des citoyen·ne·s qui l’utilisent. J’espère les avoir expliqués clairement, et vous avoir convaincu⋅e de l’importance de l’interopérabilité. Pensez à soutenir l’appel des soixante-neuf organisations !

Après

Et si vous voulez d’autres informations sur ce sujet, il y a :

]]>
L’interopérabilité contre la hainehttps://www.laquadrature.net/?p=14314http://streisand.me.thican.net/laquadrature.net/index.php?20190612_174129_L___interoperabilite_contre_la_haineWed, 12 Jun 2019 15:41:29 +0000Ces dix dernières années, Internet s’est métamorphosé, laissant entrevoir pour La Quadrature de nouveaux combats à mener. Les quelques gros acteurs qui se sont emparés du Web ont fait émerger un nouveau problème : celui de l’organisation politique des médias sociaux. À ses débuts, Internet s’était construit comme un outil de partage des connaissances et d’entraide. Quiconque, isolé dans un problème spécifique, s’est mis à pouvoir s’appuyer sur les expériences et conseils de personnes dans le même cas. Qu’il s’agisse simplement de problèmes techniques ou de problèmes de société, de discrimination, de santé, etc. Internet a pu être utilisé comme un outil pour sortir de l’isolement, pour s’émanciper, pour visibiliser des minorités et est devenu un point d’appui aux mobilisations. Des protocoles standardisés permettaient à quiconque de mettre en place sa plateforme et de communiquer avec les autres personnes.

Les géants du Web, y trouvant une nouvelle source de pouvoir, se sont constitués en tant qu’intermédiaires et se sont fait symboles de ces nouveaux modes de communication. À leurs débuts, ils remplissaient encore un peu ce rôle. Ils étaient en quête de nouveaux yeux à qui afficher leurs publicités. Il était possible, depuis Facebook, de communiquer avec quelqu’une ne possédant pas de compte grâce au protocole libre XMPP utilisé par sa messagerie. On pouvait importer ses contacts Facebook dans son répertoire Google via le format vCard. L’API de Twitter était ouverte, permettant gratuitement à qui le voulait d’expérimenter le réseau social sous d’autres jours.

Les groupes d’entraide sur Facebook fleurissaient, permettant aux personnes LGBT, aux sans-papiers, aux personnes atteintes de maladies rares d’unir leurs forces.
Les nouvelles rencontres sur Twitter faisaient apparaître de nouveaux fronts et de nouvelles méthodes de lutte.

En 2013, Twitter ferma son API, en 2015 Facebook cessa d’utiliser un protocole ouvert pour sa messagerie et en quelques années, les géants se refermèrent sur eux-même et cessèrent de communiquer, même entre eux. Ils n’avaient plus de raisons de permettre de communiquer avec l’extérieur, « tout le monde » était déjà là, prisonnier et ne pouvant s’échapper sous peine de voir un pan de sa vie sociale disparaître.

Les géants auraient pu se contenter de cette simple cage dorée, mais ils voulaient toujours plus d’argent. C’est ainsi qu’ils ont développé, sans aucun égard pour nous, leurs utilisatrices, des algorithmes millimétrés pour optimiser l’impact de la publicité sur notre cerveau (Lire notre article « Pourquoi attaquer Facebook »), en se servant du contenu même de nos communications. Visibiliser les contenus choquants, déclencheurs d’émotions, nous fait rester plus longtemps sur le service et nous pousse à en partager à notre tour pour entraîner nos relations dans la consommation de contenus. Ils ont fait naître la culture du buzz, nous poussant à user nous-même des rhétoriques de l’attention : contenus choquants, clivants, violents. Les géants ont fait du conflit et de la haine un moteur de croissance.

Aujourd’hui, tout le monde s’offusque. La « haine sur Internet » est devenue un sujet à part entière et même un sujet législatif. Au lieu de retracer l’histoire de l’explosion des propos violents en ligne, d’analyser ses mécanismes de mise en avant, la majorité gouvernementale se demande encore comment faire pour sauver ce modèle mortifère. Et comme à son habitude, en témoignent les dernières lois européennes (lire notre article bilan sur le règlement terroriste et la directive copyright), les réflexes de nos dirigeants sont :

  • 1. de déléguer la mission de protéger les victimes aux géants du Web, les mêmes qui capitalisent sur la promotion de la haine (lire notre article sur les pompiers pyromanes)
  • 2. de censurer suffisamment pour rendre la violence, les désaccords et les oppositions invisibles.

Une passerelle pour se libérer

Aujourd’hui, le navire coule. On reste sur ces plateformes pour ne pas perdre nos contacts, mais la force émancipatrice des débuts est en voie de disparation. Les mouvements sociaux parviennent difficilement à éviter la censure de Facebook. Twitter est devenu un outil efficace pour harceler les personnes transgenres, de confession musulmane, etc. Chacun se défend tant bien que mal, par exemple, grâce à des listes de blocage que l’on se partage. Il est temps de reprendre la main sur la modération en se libérant des géants.

L’interopérabilité garantit à tout le monde de ne pas se trouver captif d’une plateforme : de pouvoir librement la quitter, sans perdre ses liens sociaux, et de continuer à communiquer avec ses contacts. L’interopérabilité permet à quiconque de lire depuis un service A les contenus diffusés par ses contacts sur un service B, et d’y répondre comme si elle y était.

Échapper à l’emprise des géants sans rompre le lien avec nos proches. Si Facebook était interopérable, nous pourrions parler à nos proches qui ont fait le choix d’y rester, et ce depuis un autre service : qu’il soit libre, comme Mastodon et Peertube, ou non.

L’avantage de pouvoir se soustraire à la façon dont les géants organisent nos échanges est que l’on peut échapper à la sur-représentation des contenus choquants et déclencheurs d’émotions, impulsés par le modèle économique des géants pour les retrouver dans leur proportion organique, voir les limiter encore plus. Nous échapperions par la même occasion à l’incitation d’être nous-mêmes choquants dans nos propos puisque les règles de diffusion de contenus ne récompenseraient plus particulièrement ces pratiques.

Il est temps d’arrêter de croire que la planète entière doit être enfermée dans la même boîte en permanence, sous une modération dictatoriale et unique. La part du réseau global avec laquelle on communique sur Facebook est si infime que son immensité ne sert qu’à nourrir le fantasme de la communication avec n’importe-qui-partout-dans-le-monde, qui est en réalité souvent bien loin des usages que l’on a du réseau.

La décentralisation des médias sociaux n’entraînerait aucune perte de communication et donnerait aux personnes le choix de la modération à laquelle elles se soumettent. Il serait beaucoup plus aisé, pour des minorités victimes de harcèlement, de construire un lieu ouvert sur l’extérieur, mais ne laissant passer aucun contenu oppressant, s’ils avaient la main sur la modération de cet espace. De la même manière, se développeraient des espaces d’expression libre à même de recevoir les débats les plus virulents et les plus franches oppositions.

Savoir à qui on confie le pouvoir de nous informer, la gestion de nos interactions sociales en ligne et aux passage nos données personnelles est une question de pouvoir politique : cessons de céder ce pouvoir aux géants, construisons nos propres espaces avec nos propres règles.

]]>
Lancement d’une campagne dans neuf pays de l’UE contre les techniques illégales de la publicité en lignehttps://www.laquadrature.net/?p=14301http://streisand.me.thican.net/laquadrature.net/index.php?20190604_150007_Lancement_d___une_campagne_dans_neuf_pays_de_l___UE_contre_les_techniques_illegales_de_la_publicite_en_ligneTue, 04 Jun 2019 13:00:07 +0000L’association berlinoise Liberties lance aujourd’hui avec de nombreux alliés une campagne d’actions contre le ciblage publicitaire devant les autorités 9 pays européens, et vous invite à la rejoindre. La Quadrature du Net assiste Liberties pour porter cette action devant la CNIL dans les jours à venir. Nous reproduisons ici leur communiqué de presse.

Berlin, le 4 juin 2019.

La campagne #StopSpyingOnUs est lancée aujourd’hui dans neuf pays de l’UE : 14 organisations de défense des droits humains et droits numériques, coordonnées par Liberties, déposent simultanément des plaintes auprès des autorités nationales en charge de la protection des données personnelles concernant les techniques illégales utilisées par la publicité comportementale en ligne. Les pays concernés sont l’Allemagne, la Belgique, la France, l’Italie, l’Estonie, la Bulgarie, la Hongrie, la Slovénie et la République tchèque. Il s’agit de la troisième vague de plaintes depuis septembre 2018. Les deux premières avaient été déposées auprès des autorités de protection des données du Royaume-Uni et de l’Irlande.

À travers cette campagne, nous demandons aux autorités de protection des données personnelles d’ouvrir des enquêtes sur les violations actuelles et massives qui sont commises des millions de fois par jour et qui affectent l’ensemble des internautes.

“This campaign will have organisations and individuals joining forces to protect personal information that may be shared without our consent, such as browsing history and location, but also even sexual orientation and unique ID codes. The complaints submitted to the data protection authorities point out that the real-time bidding advertising system may be broadcasting the personal data of users to hundreds or thousands of companies. This advertising method clearly breaches the EU’s data protection regulation (GDPR). We decided to start a campaign for the enforcement of the GDPR, saying it is time to #StopSpyingOnUs,” says Eva Simon, Liberties´ legal expert.

« Cette campagne réunira les organisations et les individus qui souhaitent rejoindre la lutte en vue de protéger les données personnelles qui peuvent être partagées sans notre consentement, telles que l’historique de navigation, la localisation ou encore l’orientation sexuelle et les codes d’identification unique. Les réclamations soumises aux autorités de protection des données personnelles alertent sur le fait que le système de Real Time Bidding (enchères en temps réel) peut transmettre les données personnelles des utilisateur.trice.s à des centaines de milliers d’entreprises. Cette technique publicitaire est en claire violation de la réglementation de l’UE en matière de protection des données personnelles (le GDPR). Nous avons décidé de lancer une campagne visant à faire respecter le GDPR, sous le slogan « StopSpyingOnUs » (arrêtez de nous espionner) », explique Éva Simon, experte juridique de Liberties.

En plus d’avoir coordonné le dépôt des réclamations officielles, soumises par les organisations des droits humains et droits numériques, Liberties et ses partenaires ont aussi préparé des plaintes pré-remplies dans plusieurs langues pour les individus qui souhaitent participer à la campagne #StopSpyingOnUs. Dans certains pays, les citoyen.ne.s peuvent participer à ces efforts en envoyant tout simplement une plainte auprès de l’autorité de protection des données personnelles de leur pays et en utilisant le modèle de lettre disponible sur Liberties.eu.

« Nous voulons que la voix du peuple soit entendue et pour cela nous mettons à la disposition des individus tous les outils nécessaires en vue de mettre un terme aux violations de leurs droits commises dans le cadre de la publicité en ligne. Si une personne ou entité partage nos données personnelles sans notre permission, nous devons être en mesure de leur dire que nous y sommes opposés et de leur demander de cesser ces activités », insiste Orsolya Reich, chargée de plaidoyer de Liberties.

Cette technique publicitaire en ligne est utilisée par des acteurs clés de la sphère numérique, tels que Google, et de fait, un très grand nombre d’individus sont exposés au partage illégal de leurs données personnelles. Par exemple, DoubleClick de Google (récemment renommé « Authorized Buyers ») est actif sur 8,4 millions de sites web, et transmet les données personnelles des visiteurs à plus de 2 000 entreprises. Il est grand temps qu’ils cessent de nous espionner : #StopSpyingOnUs.

Pour de plus amples informations sur la campagne, merci de contacter :
Éva Simon
Chargée de plaidoyer « Vie privée et Liberté d’expression » – Liberties
eva.simon@liberties.eu

Pour toute autre demande concernant Liberties, merci de contacter :
Vanja Prokic
Chargée de communication – Liberties
v.prokic@liberties.eu

]]> [Politis] « On pourrait avoir du libre presque partout »https://www.laquadrature.net/?p=14297http://streisand.me.thican.net/laquadrature.net/index.php?20190602_140000__Politis______On_pourrait_avoir_du_libre_presque_partout____Sun, 02 Jun 2019 12:00:00 +0000Selon le juriste Lionel Maurel, derrière l’open source, c’est un questionnement économique et politique qui bouillonne.

Outil puissant et discret, le logiciel libre a façonné l’informatique mondiale. Mais les obstacles pour qu’il s’étende au reste de l’économie restent importants. […]

https://www.politis.fr/articles/2019/05/on-pourrait-avoir-du-libre-presque-partout-40474/

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceInter] Le reportage villes intelligentes dans On n’arrête pas l’Écohttps://www.laquadrature.net/?p=14298http://streisand.me.thican.net/laquadrature.net/index.php?20190602_130000__FranceInter__Le_reportage_villes_intelligentes_dans_On_n___arrete_pas_l___EcoSun, 02 Jun 2019 11:00:00 +0000L’intelligence artificielle n’est pas réservée qu’aux géants du numérique. En France, par exemple, 24 villes, parmi lesquelles Lille, Marseille, Nice, Montpellier, Nantes, Issy-les-Moulineaux ou Paris, utilisent ses outils pour mettre en place de la vidéosurveillance, contrôler la circulation, gérer l’éclairage public…

Une façon de faire entrer concrètement la technologie dans nos vies quotidiennes mais une pratique qui interroge aussi sur la collecte et l’utilisation des données. De Paris à Dijon, Anaëlle Verzaux se penche dans son reportage sur la montée de ces villes intelligentes.

https://www.franceinter.fr/emissions/on-n-arrete-pas-l-eco/on-n-arrete-pas-l-eco-18-mai-2019

NDLRP : le reportage commence à 23 minutes 30 du podcast de l’émission.

NDLRP (bis) – Retrouvez sur le Peertube l’entretien dans le reportage de Martin, juriste à La Quadrature du Net :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMondeDiplomatique] La « ville sûre » ou la gouvernance par les algorithmeshttps://www.laquadrature.net/?p=14299http://streisand.me.thican.net/laquadrature.net/index.php?20190602_120000__LeMondeDiplomatique__La_____ville_sure_____ou_la_gouvernance_par_les_algorithmesSun, 02 Jun 2019 10:00:00 +0000Par Félix Tréguer, chercheur et membre de La Quadrature du Net.

Les outils policiers fondés sur le big data et l’intelligence artificielle se déploient dans de nombreuses villes françaises. À travers des expérimentations pilotées par des groupes privés qui cherchent à se hisser au niveau de la concurrence américaine ou chinoise, la « ville intelligente » révèle son vrai visage : celui d’une cité sous surveillance. […]

Sur le terrain aussi, la « ville sûre » engage une privatisation sans précédent des politiques de sécurité. L’expertise technique est toute entière confiée aux acteurs privés, tandis que les paramètres qui président à leurs algorithmes resteront selon toute vraisemblance soumis au secret des affaires. Sur le plan juridique, il n’existe à ce jour aucune analyse sérieuse de la conformité de ces dispositifs avec le droit au respect de la vie privée ou avec la liberté d’expression et de conscience, pourtant directement mis en cause. […]

https://www.monde-diplomatique.fr/2019/06/TREGUER/59986

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[20Minutes] Anniversaire du RGPD: Les géants du Web continuent de « marchandiser les données personnelles »https://www.laquadrature.net/?p=14300http://streisand.me.thican.net/laquadrature.net/index.php?20190602_110000__20Minutes__Anniversaire_du_RGPD__Les_geants_du_Web_continuent_de_____marchandiser_les_donnees_personnelles____Sun, 02 Jun 2019 09:00:00 +0000Le Règlement général sur la protection des données, c’est, en un an, 145.000 plaintes individuelles, 440 enquêtes ouvertes et une seule condamnation majeure. […]

Ce samedi, le RGPD souffle sa première bougie. Sigle technocrate so européen, le Règlement général sur la protection des données, dont la vocation était de renforcer les droits des citoyens européens en la matière, en mettant en place diverses obligations pour les entreprises, a eu le mérite de « provoquer une prise de conscience » du grand public, estime Richard Weaver, responsable de la protection des données au sein de l’entreprise de sécurité informatique FireEye. Mais pour Arthur Messaud, juriste de l’association La Quadrature du Net, « le RGPD n’est, pour l’instant, encore presque pas appliqué, et encore moins respecté ». Même verdict de l’Autrichien Max Schrems, Némésis de Facebook, qui dénonce auprès de 20 Minutes « un non-respect massif de la loi. » Le bilan est donc contrasté. […]

https://www.20minutes.fr/high-tech/2525003-20190525-video-anniversaire-rgpd-geants-web-continuent-marchandiser-donnees-personnelles

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[01net] 56 associations exhortent le gouvernement à imposer l’interopérabilité aux géants du Nethttps://www.laquadrature.net/?p=14293http://streisand.me.thican.net/laquadrature.net/index.php?20190601_140000__01net__56_associations_exhortent_le_gouvernement_a_imposer_l___interoperabilite_aux_geants_du_NetSat, 01 Jun 2019 12:00:00 +0000La Quadrature du Net, avec 55 associations de défense des libertés et organisations professionnelles, hébergeurs et FAI associatifs, demandent aux autorités de légiférer en faveur de l’interopérabilité. Ils prêchent pour rendre Twitter, Facebook ou YouTube compatibles avec les autres services Internet.

« Nous, défenseurs d’un Internet neutre, libre et ouvert, appelons le législateur à agir pour que les grandes plateformes deviennent interopérables avec les autres services Internet. » Dans une lettre ouverte publiée mardi 21 mai, La Quadrature du Net et 55 autres associations et organisations demandent d’imposer aux géants du Net la compatibilité de leurs services en ligne avec les autres. […]

https://www.01net.com/actualites/56-associations-exhortent-le-gouvernement-a-imposer-l-interoperabilite-aux-geants-du-net-1696614.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Conservation généralisée des données : l’attentisme du gouvernement françaishttps://www.laquadrature.net/?p=14294http://streisand.me.thican.net/laquadrature.net/index.php?20190601_130000__NextINpact__Conservation_generalisee_des_donnees____l___attentisme_du_gouvernement_fran__aisSat, 01 Jun 2019 11:00:00 +0000[…] Ses yeux sont tournés sur les questions préjudicielles posées par le Conseil d’État le 28 juillet 2018, à l’occasion de deux arrêts rendus à l’initiative de la FDN, FFDN et la Quadrature du Net. Comme expliqué, la juridiction est en quête de brèches permettant à la France de maintenir son régime actuel, au désespoir des requérants.

Le gouvernement se dit « particulièrement attentif » à la jurisprudence signalée par Laure de La Raudière. Il est cependant « nécessaire de recueillir au préalable les précisions demandées notamment par le Conseil d’État à la Cour de Justice de l’Union européenne avant d’apprécier dans quelle mesure il est nécessaire d’adapter le cadre normatif national aux exigences du droit européen », explique poliment Nicole Belloubet.

https://www.nextinpact.com/brief/conservation-generalisee-des-donnees—l-attentisme-du-gouvernement-francais-8747.htm

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LaCroix] A Saint-Étienne, la surveillance sonore de la rue fait débathttps://www.laquadrature.net/?p=14295http://streisand.me.thican.net/laquadrature.net/index.php?20190601_120000__LaCroix__A_Saint-Etienne__la_surveillance_sonore_de_la_rue_fait_debatSat, 01 Jun 2019 10:00:00 +0000La préfecture de la Loire a différé la pose expérimentale de « capteurs sonores », dans l’attente d’un avis de la Commission nationale de l’informatique et des libertés (Cnil). […]

Pour La Quadrature du Net, le projet porte un « idéal de surveillance complète de l’espace public ». L’association de défense des droits numériques juge que la ville poursuit « le rêve d’un quartier sans cris, sans bruits anormaux ou trop forts, sans tags : un quartier silencieux et débarrassé de toutes les extravagances humaines ». […]

https://www.la-croix.com/France/Securite/A-Saint-Etienne-surveillance-sonore-rue-fait-debat-2019-05-20-1201023071

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[RTS] Internet devient-il un Minitel 2.0 ou un bien commun ?https://www.laquadrature.net/?p=14289http://streisand.me.thican.net/laquadrature.net/index.php?20190531_140000__RTS__Internet_devient-il_un_Minitel_2.0_ou_un_bien_commun___Fri, 31 May 2019 12:00:00 +0000Nous fêtons cette année les 50 ans dʹInternet et les 30 ans du WEB conçu au CERN par Tim Berners Lee. Que reste-t-il de ce réseau décentralisé et libre des origines ? Quelles sont les alternatives aux géants du Net que sont les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et autres Airbnb ou Alibaba en Chine ?

Eléments de réponse avec notre invité Benjamin Bayart spécialiste des réseaux, Président de la Fédération des fournisseurs d’Accès à Internet associatifs et cofondateur de la Quadrature du Net.

https://www.rts.ch/play/radio/versus-lire-et-penser/audio/internet-devient-il-un-minitel-2-0-ou-un-bien-commun-?id=10395928

NDLRP – Retrouvez le podcast sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LADN] Vous n’arrivez pas à vous déconnecter des GAFA ? Embrouillez-les !https://www.laquadrature.net/2019/05/31/ladn-vous-narrivez-pas-a-vous-deconnecter-des-gafa-embrouillez-les/http://streisand.me.thican.net/laquadrature.net/index.php?20190531_131000__LADN__Vous_n___arrivez_pas_a_vous_deconnecter_des_GAFA____Embrouillez-les___Fri, 31 May 2019 11:10:00 +0000Vous n’échapperez pas à la surveillance de masse, mais vous pouvez la gêner. C’est la théorie des chercheurs américains Helen Nissembaum et Finn Brunton. Dans leur livre Obfuscation, La vie privée, mode d’emploi ils expliquent comment embrouiller les algorithmes en publiant de fausses infos. […]

Les auteurs définissent d’ailleurs l’obfuscation comme l’« arme du faible ». « On est de toute évidence dans un rapport très inégalitaire. Face à la volonté des États et des GAFA de contrôler nos données, il y a peu de solutions, explicite Laurent Chemla. C’est une guérilla », précise-t-il. Une guerre asymétrique. Et les armes de cette guerre sont économiques. En clair : on se bat contre des géants avec des bâtons, mais il faut se battre quand même. « Si tout le monde publie de fausses informations alors les données perdent de la valeur. C’est un moyen de financer un peu moins les monstres comme Google, Facebook et Amazon. » […]

Pour Laurent Chemla, le réel antidote contre la surveillance de masse se trouve chez les services alternatifs à ceux des géants de la tech. Les utiliser permet de décentraliser le web et de complexifier le traçage des données. Toutefois, l’obfuscation reste, à ses yeux, une solution pertinente en attendant que ces services se démocratisent.

https://www.ladn.eu/tech-a-suivre/embrouiller-gafa-fausses-donnees/

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[RFI] La technologie au service du bien commun, un vœu pieux ?https://www.laquadrature.net/?p=14285http://streisand.me.thican.net/laquadrature.net/index.php?20190531_120000__RFI__La_technologie_au_service_du_bien_commun__un_v__u_pieux___Fri, 31 May 2019 10:00:00 +0000La technologie pour faire le bien de tous et toutes, vaste programme discuté, en ce moment même, au palais de l’Elysée où Emmanuel Macron reçoit à la fois des dirigeants politiques et des patrons de géants du numérique. À cette occasion, a été lancé l’appel de Christchurch pour lutter contre la diffusion de contenus haineux en ligne, mais le secteur des nouvelles technologies doit aussi répondre aux questions de plus en plus pressantes autour de la protection des données ou de la remise en cause du droit du travail liée aux modèles économiques des Uber, Amazon et autres Deliveroo.

Avec :

  • Benjamin Sonntag, co-fondateur de la Quadrature du net
  • Lucien Castex, chercheur à l’Université Sorbonne nouvelle, secrétaire général d’Internet society France.

http://www.rfi.fr/emission/20190515-technologie-service-bien-commun-voeu-pieux

NDLRP – Retrouvez une pastille de ce débat sur le Peertube de La Quadrature du Net :

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LExpress] Facebook, l’empire du fauxhttps://www.laquadrature.net/?p=14286http://streisand.me.thican.net/laquadrature.net/index.php?20190531_110000__LExpress__Facebook__l___empire_du_fauxFri, 31 May 2019 09:00:00 +0000Faux comptes, faux clics, fausses audiences et fausse protection des données personnelles. Face aux scandales, Facebook promet de changer. Peut-on encore y croire ? […]

Ce décalage entre discours public policé et réalité n’est pas nouveau. Arthur Messaud, analyste juridique et politique de La Quadrature du Net, une association qui défend elle aussi les internautes, livre un témoignage similaire. « Quand nous les avons attaqués en mai 2018 devant la Commission nationale de l’informatique et des libertés (CNIL), ils ont engagé une armée de juristes pour noyer le poisson et faire croire qu’ils étaient en accord avec le règlement général sur la protection des données (RGPD), se souvient-il. Sauf que tout leur discours a été déconstruit par la CNIL. » Selon lui, le seul espoir de la firme est de faire changer l’interprétation de la loi en exerçant un lobbying intense auprès des instances européennes. « Leur principal argument consiste à dire qu’ils œuvrent pour le bien de l’humanité en connectant les gens, en luttant contre le terrorisme et les fake news, etc., analyse-t-il. Une lutte qui demande énormément d’argent, ce qui justifie, selon eux, la publicité et donc la collecte systématique des données personnelles. » […]

https://lexpansion.lexpress.fr/high-tech/facebook-l-empire-du-faux_2077160.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LObs] Violence en ligne : « L’appel de Christchurch, c’est demander aux pyromanes d’éteindre l’incendie »https://www.laquadrature.net/?p=14281http://streisand.me.thican.net/laquadrature.net/index.php?20190530_130500__LObs__Violence_en_ligne________L___appel_de_Christchurch__c___est_demander_aux_pyromanes_d___eteindre_l___incendie____Thu, 30 May 2019 11:05:00 +0000Pour La Quadrature du Net, Facebook et autres géants reposent « sur un modèle de surveillance et de captation du temps de cerveau disponible » qui n’est pas amendable. […]

Critique, l’association La Quadrature du Net, qui défend les libertés dans l’environnement numérique, et qui a lancé en 2018 une série de plaintes collectives contre les GAFAM, estime avec ce texte qu’« Emmanuel Macron demande aux pyromanes d’éteindre l’incendie ».

Arthur Messaud, juriste à La Quadrature, a accepté de répondre à nos questions. […]

https://www.nouvelobs.com/economie/20190515.OBS12967/violence-en-ligne-l-appel-de-christchurch-c-est-demander-aux-pyromanes-d-eteindre-l-incendie.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[RMC] Peut-on vraiment lutter contre les contenus haineux sur les réseaux sociaux ?https://www.laquadrature.net/?p=14282http://streisand.me.thican.net/laquadrature.net/index.php?20190530_110500__RMC__Peut-on_vraiment_lutter_contre_les_contenus_haineux_sur_les_reseaux_sociaux___Thu, 30 May 2019 09:05:00 +0000Mark Zukerberg est reçu à l’Elysée ce vendredi. Après une première rencontre l’an dernier, le patron de Facebook doit discuter avec Emmanuel Macron d’une meilleure régulation d’Internet. La France veut se doter d’une loi pour modérer les propos haineux en ligne. […]

Sur Christchurch, ces vidéos de l’attentat de la mosquée, diffusées en direct, partagées ensuite plus d’un million de fois. C’est l’exemple même de l’impossibilité technique d’agir pour Facebook selon Arthur Messaud, juriste à la Quadrature du Net, une association de défense des droits et libertés des citoyens :

« Si on veut savoir comment Facebook censure sa plateforme, on peut regarder ce qu’il s’est passé avec l’attentat de Christchurch. Google et Facebook ont entièrement échoué à empêcher la diffusion de cette vidéo pendant au moins 24 heures et plus. Tout simplement, parce que leurs algorithmes de recommandation et leur millier de modérateurs embauchés ne suffisaient pas du tout à contrer une attaque de propagande faite juste par une dizaine de personnes« . […]

https://rmc.bfmtv.com/emission/peut-on-vraiment-lutter-contre-les-contenus-haineux-sur-les-reseaux-sociaux-ca-fait-debat-sur-rmc-1688963.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Audience contre le Privacy Shield devant le Tribunal de l’UE !https://www.laquadrature.net/?p=14255http://streisand.me.thican.net/laquadrature.net/index.php?20190523_162159_Audience_contre_le_Privacy_Shield_devant_le_Tribunal_de_l___UE___Thu, 23 May 2019 14:21:59 +0000Le régime de surveillance des Etats-Unis va de nouveau être examiné par les juges européens. Après 3 ans de procédure, l’audience sur notre affaire contre le « Privacy Shield » a enfin été fixée aux 1er et 2 juillet. Retour sur ces 3 années de combat.

En 2000, la Commission européenne a autorisé un accord, appelé « Safe Harbor », pour faciliter le transfert de données personnelles des européens vers les États-Unis.

Le 6 octobre 2015, la Cour de justice de l’Union européenne a invalidé cette autorisation, dans un recours initié par Max Schrems (lire notre réaction de l’époque). Pourquoi ? Car le Safe Harbor laissait les services de renseignement états-uniens accéder aux données des personnes européennes et qu’Edward Snowden venait de révéler l’atteinte massive qui en résultait pour nos libertés.

Le 12 juillet 2016, la Commission européenne a tenté de revoir sa copie : elle a autorisé un nouvel accord de transfert de données vers les États-Unis, le « Privacy Shield » (voir notre réaction).

Le 17 novembre 2016, nous attaquions ce nouvel accord devant le Tribunal de l’Union européenne aux côtés de FFDN et FDN (voir notre saisine commune). Bien qu’un peu moins vague que le Safe Harbor, ce nouveau Privacy Shield continue de permettre des mesures abusives de la part des États-Unis, telles que la surveillance de masse – la Commission le reconnaissait elle même. De plus, pour nous, faire invalider cet accord serait une façon de renforcer la jurisprudence européenne opposée à la surveillance de masse, que nous pourrions ensuite utiliser contre les abus de la loi française.

Le Tribunal de l’Union a jugé notre recours suffisamment grave et sérieux pour ouvrir la procédure. La Commission européenne a du défendre son texte, au secours duquel sont venus de nombreux pays (au premier rang desquels les États-Unis et la France, mais également l’Allemagne, le Royaume-Unis, les Pays-Bas, la République tchèque) et entreprises (Microsoft et Digitaleurope, représentant notamment tous les GAFAM), chacun produisant leurs écritures, auxquelles nous avons du répondre à notre tour (voir notre réponse à la Commission puis celle à ses alliées).

De notre côté, l’UFC Que Choisir est intervenue à notre soutien et l’ACLU (association historique de défense des libertés aux États-Unis) nous a largement aidé pour décrire en détail le régime de surveillance états-unien.

Ces différents échanges d’écritures ont pris fin le 10 avril 2019, où nous avons répondu à une série de questions posées par le Tribunal pour éclairer sa décision. Après presque 3 ans de procédure, le jour de l’audience est donc enfin venu ! Elle se tiendra le 1er et 2 juillet au Luxembourg, nous permettant d’appuyer tous nos arguments à l’oral face à la probable quarantaine d’avocats représentant nos nombreux et si puissants adversaires.

Il s’agira sans nul doute de l’audience la plus importante à laquelle La Quadrature du Net aura jamais participé. Une victoire aurait des conséquences colossales, tant sur notre exposition à la surveillance des États-Unis que sur le droit des pays européens. Nous allons la chercher sans frémir.

]]>
Pour l’interopérabilité des géants du Web : lettre commune de 69 organisationshttps://www.laquadrature.net/?p=14221http://streisand.me.thican.net/laquadrature.net/index.php?20190521_124147_Pour_l___interoperabilite_des_geants_du_Web____lettre_commune_de_69_organisationsTue, 21 May 2019 10:41:47 +0000La Quadrature du Net, avec 69 organisations de défense des libertés, organisations professionnelles, hébergeurs et FAI associatifs, demandent au gouvernement et au législateur d’agir pour que les grandes plateformes (Facebook, Youtube, Twitter…) deviennent interopérables avec les autres services Internet.

Notre lettre commune (aussi en PDF) reste ouverte à signature par des associations et entreprises (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre interopérabilité » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !

Lettre commune : pour l’interopérabilité des grandes plateformes en ligne

Nous, défenseurs d’un Internet neutre, libre et ouvert, appelons le législateur à agir pour que les grandes plateformes deviennent interopérables avec les autres services Internet.

L’interopérabilité garantit à tout le monde de ne pas se trouver captif d’une plateforme : de pouvoir librement la quitter, sans perdre ses liens sociaux, et de continuer à communiquer avec ses contacts. L’interopérabilité permet à quiconque de lire depuis un service A les contenus diffusés par ses contacts sur un service B, et d’y répondre comme s’il y était. L’interopérabilité est garantie lorsqu’elle repose sur des standards ouverts.

Des services comme Facebook, Twitter et Youtube tiennent leur pouvoir du nombre élevé d’utilisateurs et d’utilisatrices qu’ils ont rendu captives : ce grand nombre incite d’autres personnes à rejoindre leur service, et leur captivité permet de leur imposer une surveillance constante à des fins publicitaires. Aujourd’hui, nombreux sont celles et ceux qui souhaiteraient y échapper mais sont contraints d’y rester sous peine de perdre le contact avec leurs relations.

Pourtant, en dehors de ces plateformes, des services interopérables réunissent déjà des millions de personnes (Mastodon, Diaspora, PeerTube…), notamment via le protocole d’interopérabilité ActivityPub publié par le W3C en 2018. Ces réseaux décentralisés, basés sur des logiciels libres, sont co-hébergés par une multitude d’acteurs distribuant largement les coûts entre eux, ce qui contribue à l’émergence de modèles économiques bien plus respectueux des libertés que celui de la publicité ciblée.

Migrer vers ces services permettrait aussi d’échapper à l’environnement toxique entretenu sur Facebook, Youtube ou Twitter. Ces géants favorisent la diffusion des contenus qui maintiennent au mieux notre attention, souvent les plus anxiogènes ou caricaturaux. À l’opposé de la voie prise par les récentes lois de censure, il ne faut pas espérer que ces plateformes freinent la diffusion de propos haineux, trompeurs ou dangereux, car leur modèle économique, au contraire, renforce cette diffusion.

Il est urgent de permettre à toute personne d’échapper à la surveillance et à la toxicité de ces grandes plateformes en rejoignant des services libres, décentralisés et à taille humaine sans conséquences nocives sur ses liens sociaux. La loi doit imposer cette interopérabilité.

45 premiers signataires :

Nouveaux signataires :

]]>
Lettre ouverte aux législateurs européens : halte aux DPI !https://www.laquadrature.net/?p=14205http://streisand.me.thican.net/laquadrature.net/index.php?20190515_165923_Lettre_ouverte_aux_legislateurs_europeens____halte_aux_DPI___Wed, 15 May 2019 14:59:23 +0000Paris, le 15 mai 2019 – Aujourd’hui, plus de 42 organisations de défense des droits, soutenues par de nombreux universitaires, ont adressé une lettre aux législateurs européens.

Alors que des négociations sont actuellement en cours concernant de nouvelles règles pour la Neutralité du Net, les signataires, dont La Quadrature du Net, attirent l’attention des législateurs sur l’utilisation grandissante et incontrôlée des technologies d’inspection profonde de paquets (Deep Packet Inspection, ou DPI) faite par les fournisseurs d’accès à Internet.

Cette lettre a été envoyée en anglais (disponible ici) au vice-président de la Commission Européenne, chargé du Marché numérique unique, à la commissaire européenne à l’Économie et à la Société numériques, à la commissaire européenne à la Justice, aux Consommateurs et à l’Égalité des genres, à la présidente du Comité européen de la protection des données et au président de l’Organe des régulateurs européens des communications électroniques (ORECE, ou BEREC en anglais).

Nous vous en proposons ci-dessous une traduction en français.


Bruxelles, le 15 mai 2019

Cher Vice-Président Andrus Ansip,
Chère Commissaire Mariya Gabriel,
Chère Commissaire Vera Jourová,
Chère présidente du Comité européen de la protection des données Andrea Jelinek,
Cher président de l’Organe des régulateurs européens des communications électroniques Jeremy Godfrey,

Nous vous écrivons dans le cadre de l’évaluation du règlement (EU) 2015/2120 et de la réforme des lignes directrices du BEREC. Nous sommes particulièrement inquiets de l’augmentation de l’utilisation de technologies d’inspection profonde de paquets (Deep Packet Inspection, DPI) par les fournisseurs d’accès à internet (FAI). Le DPI est une technologie permettant l’examen des paquets de données transitant à travers un réseau donné, au-delà de ce qui est nécessaire aux FAI pour fournir l’accès à internet, en inspectant certaines parties spécifiques des données transmises par l’utilisateur.

Les FAI intègrent de plus en plus des technologies de DPI dans leurs produits, afin de gérer le trafic réseau et de différencier la facturation de certaines applications ou de certains service (zéro-rating par exemple). Le DPI permet aux FAI d’identifier et de distinguer le trafic afin d’identifier celui généré par certaines applications ou certains services, de réaliser une facturation différenciée, de les limiter ou de les prioriser au sein de leur réseau.

Les signataires de cette lettre souhaitent rappeler l’inquiétante pratique de l’analyse des noms de domaines ou des adresses (URL) des sites visités et d’autres ressources internet. L’évaluation de ce type de données peut révéler des informations sensibles au sujet d’un utilisateur telles que ses publications préférées, ses intérêts vis-à-vis de certaines maladies, ses préférences sexuelles ou ses croyances religieuses. Les URL identifient des ressources spécifiques sur le web (telle qu’une image en particulier, un article spécifique dans une encyclopédie, un segment dans un flux vidéo, etc …) et donnent des informations directes sur le contenu d’une communication.

Une cartographie des différentes tarifications des produits dans l’espace économique européen (EEE), conduite en 2018, a identifié 186 produits faisant potentiellement usage du DPI[1]. Parmi ceux-ci, plusieurs produits vendus par des opérateurs de téléphonie mobile ayant de grandes parts de marché ont confirmé l’usage de techniques de DPI car ils fournissent aux opérateurs d’applications ou de services l’option d’identifier leur trafic en utilisant des critères tels que le nom de domaine, le SNI, les URl ou l’écoute du DNS[2].

Actuellement, les lignes directrices du BEREC[3] établissent clairement que la gestion de trafic basée sur la surveillance des noms de domaine et des URL (tel qu’impliqué par la phrase « contenu de la couche protocolaire de transport ») n’est pas une « mesure raisonnable de gestion du trafic » dans le cadre du règlement. Cette règle claire a cependant été ignorée par la plupart des FAI dans leur méthode de gestion du trafic.

La nature du DPI nécessite une expertise en télécommunications et en protection des données. Cependant, nous observons un manque de coopération entre les autorités nationales de régulation des communications électroniques et les autorités de protection des données sur ce sujet, à la fois dans les décisions d’examiner ces produits ainsi que, de manière plus générale, sur des positionnements conjoints sur ces sujets. Par exemple, certains régulateurs justifient l’utilisation du DPI en se basant sur le consentement des clients des FAI ce qui, crucialement, ignore l’interdiction claire des technologies de DPI par les lignes directrices du BEREC ainsi que le traitement des données des interlocuteur des clients, qui n’ont jamais donné leur consentement à ce traitement.

Au regard de l’ampleur et du caractère sensible du sujet, nous incitons la Commission et le BEREC à examiner avec attention l’usage du DPI et son impact sur la protection des données dans le cadre de la réforme en cours du règlement et des lignes directrices sur la neutralité d’Internet. De plus, nous recommandons à la Commission et au BEREC d’examiner l’interprétation du critère de proportionnalité inclus dans le paragraphe 3 de l’article 3 du règlement 2015/2120 conformément au principe de minimisation des données prévu par le RGPD. Enfin, nous suggérons de mandater le Comité européen de la protection des données afin de rédiger des lignes directrices sur l’usage du DPI par les FAI.

Bien à vous,

Liste des signataires

Universitaires et particuliers :

Kai Rannenberg, Chair of Mobile Business & Multilateral Security, Goethe University
Frankfurt, Germany
Stefan Katzenbeisser, Chair of Computer Engineering, University of Passau, Germany
Max Schrems, Privacy Activist, Austria
Klaus-Peter Löhr, Professor für Informatik (a.D.), Freie Universität Berlin, Germany
Joachim Posegga, Chair of IT-Security, University of Passau, Germany
Dominik Herrmann, Chair for Privacy and Security in Information Systems, University of
Bamberg, Germany
Rigo Wenning, AFS Rechtsanwälte, ERCIM Legal counsel, Vorstand EDV-Gerichtstag, Fitug
e.V., France
Douwe Korff, Emeritus Professor of International Law, London Metropolitan University,
United Kingdom
Dr. TJ McIntyre, UCD Sutherland School of Law, United Kingdom
Dr Ian Brown, Senior Fellow, Research ICT Africa / CyberBRICS visiting professor,
Fundação Getúlio Vargas Direito Rio, Brazil
Dr. Jef Ausloos (Institute for Information Law (IViR) – University of Amsterdam), the
Netherlands
Paddy Leersen LL.M., PhD Candidate University of Amsterdam, Non-Residential Fellow
Stanford University Center for Internet & Society, the Netherlands
Simone Fischer Hübner, Professor in Computer Science, Karlstad University, Sweden
Erich Schweighofer, Head of the Centre for Computers and Law, Department of European,
International and Comparative Law, University of Vienna, Austria
Prof. Dr.-Ing. Christoph Sorge, Saarland University, Germany
Frederik J. Zuiderveen Borgesius, Professor of Law at iCIS Institute for Computing and
Information Sciences, Radboud University

Organisations :

European Digital Rights, Europe
Electronic Frontier Foundation, International
Council of European Professional Informatics Societies, Europe
Article 19, International
Chaos Computer Club e.V, Germany
epicenter.works – for digital rights, Austria
Austrian Computer Society (OCG), Austria
Bits of Freedom, the Netherlands
La Quadrature du Net, France
ApTI, Romania
Code4Romania, Romania
IT-Pol, Denmark
Homo Digitalis, Greece
Hermes Center, Italy
X-net, Spain
Vrijschrift, the Netherlands
Dataskydd.net, Sweden
Electronic Frontier Norway (EFN), Norway
Alternatif Bilisim (Alternative Informatics Association), Turkey
Digitalcourage, Germany
Fitug e.V., Germany
Digitale Freiheit, Germany
Deutsche Vereinigung für Datenschutz e.V. (DVD), Germany
Gesellschaft für Informatik e.V. (GI), Germany
LOAD e.V. – Verein für liberale Netzpolitik, Germany
Fédération des Fournisseurs d’Accès Internet Associatifs, France

Entreprises :

Wire Swiss GmbH, Switzerland, Alan Duric, CTO/COO & Co-Founder
Research Institute – Digital Human Rights Center, Austria
Baycloud Systems, United Kingdom, Mike O’Neill, Director

1. Voir https://epicenter.works/document/1522 page 19-21, 34-35 et 38-40.
2. Cf.
3. BoR (16) 127, paragraphs 69 and 70

]]>
Christchurch : les pyromanes appelés à éteindre l’incendiehttps://www.laquadrature.net/?p=14199http://streisand.me.thican.net/laquadrature.net/index.php?20190515_122121_Christchurch____les_pyromanes_appeles_a_eteindre_l___incendieWed, 15 May 2019 10:21:21 +0000Tribune d’Arthur.

Emmanuel Macron et Jacinda Ardern, première ministre néo-zélandaise, ont lancé aujourd’hui l’ « appel de Christchurch ». Suite à l’attentat survenu il y a deux mois, cet appel est lancé en réaction au fait que la vidéo de la tuerie aurait largement tourné sur Facebook et Google. Il appelle tous les États à agir pour éviter que cela se reproduise, notamment en collaborant avec les grands réseaux sociaux.

Facebook, qui participait au lancement de la campagne aux côtés de Google, a aussitôt répondu : il empêchera désormais ses utilisateurs les plus suspects de diffuser des vidéos en direct – outil qu’avait utilisé le tueur de Christchurch.

Cette réponse de Facebook est bien à la hauteur des attentes du gouvernement Macron, qui recevait précisément Mark Zuckerberg la semaine dernière : de la poudre aux yeux pour que surtout rien ne change, au mépris de la gravité des événements.

Les pyromanes…

Quand Facebook annonce aujourd’hui limiter l’accès à son service de vidéo en direct, cela n’a rien à voir avec la façon dont la vidéo de Christchurch aurait inondé sa plateforme, tel qu’expliqué il y a deux mois par l’entreprise elle-même. La vidéo n’aurait été visionnée en directe que par 200 personnes… Ce sont les 1,5 millions de copies de la vidéo qui auraient atteint le public, diffusées par des soutiens du tueur. Le tueur aurait pu envoyer la vidéo à ses complices par mail que cela n’aurait rien changé à l’affaire. Facebook le sait très bien et son annonce est aussi hypocrite que méprisante.

Facebook fait mine de prendre conscience du problème de viralité lié à la plateforme en promettant aussi de « renforcer ses intelligences artificielles », encore une fois… Comme si, précisément, la « solution magique » de ses filtres automatisés ne venait pas d’être définitivement décrédibilisée, il y a deux mois, par une poignée d’internautes complices du tueur de Christchurch parvenant à les contourner pendant des jours, manifestement sans grand soucis. D’après Facebook, la première journée, 300 000 copies seraient passé au travers de ses filtres automatisés, n’étant traitées que pas son armée de modérateurs sous-payées et exposés aux pires conditions de travail.

Surtout, Facebook sait très bien que sa plateforme ne peut pas être corrigée, à moins de renoncer à son modèle économique, tout comme Google ou Twitter, véritable cœur du problème. La raison d’être de ces plateformes est de réunir le plus de personnes possibles en un seul endroit, pour les surveiller et leur proposer la publicité qui les influencera le plus.

Il est techniquement et humainement impossible de modérer d’aussi grosses plateformes pour éviter qu’elles ne deviennent des outils de harcèlement, de haine et de mort. Pire, pour maintenir tous nos cerveaux disponibles, leurs « intelligences artificielles » (qui ne se montrent efficaces qu’ici) entretiennent autant que possible la culture du buzz et, par là, le conflit, la caricature, la peur – tout ce qu’il faut pour éviter l’entraide et la cohésion. C’est le prix à payer pour capter plusieurs milliards de cerveaux en même temps, et ils ne renonceront jamais à nous le faire payer (c’est pourquoi nous luttons pour le développement d’un Web décentralisé et à taille humaine). Et, bien sûr, leur emprise s’exerce en marchant sur nos libertés fondamentales, exploitant nos données personnelles et violant le RGPD pour mieux nous contrôler (voir nos plaintes devant la CNIL et la première sanction de celle-ci en réponse contre Google).

… appelés à éteindre l’incendie

Ce sont ces délinquants que le gouvernement appelle aujourd’hui pour sauver leur Web.

Il y a 2 mois, le Parlement européen a adopté en première lecture le règlement terroriste, dont l’objectif principal est de généraliser les filtres automatisés de Google et Facebook à l’ensemble du Web – oui, ces mêmes filtres qui viennent de démontrer toute leur inefficacité. Pour imposer ces filtres à tout le monde, le gouvernement français, qui est à l’initiative de ce texte avec l’Allemagne, n’a pas peur de détruire le Web européen composé d’une multitude de petits acteurs et, ainsi, de laisser les GAFAM en maîtres. En vrai, ces géants s’étant montrés particulièrement coopératifs dans l’ambition de Macron de « civiliser » Internet, ils apparaissent comme des alliés de choix qu’il vaudrait mieux laisser régner (voir notre premier bilan sur le règlement terroriste).

En ce moment, c’est la proposition de loi LREM « contre la haine en ligne » qui reprend cette entente Macron-GAFAM : les géants s’engagent à faire le travail de la police et de la justice sur Internet et, en échange, le gouvernement les présente en « solutions », légitime leur toute puissance, les laisse tranquille et les invite à tous ses événements sur « comment la technologie sauvera le monde ». Comme on l’a vu dans notre dernier article, cette alliance risque aussi de conduire à la censure de critiques anti-Macron ou de mouvements sociaux un peu trop dérangeants…

Bref, quand on demande aux pyromanes d’éteindre l’incendie, ce n’est pas seulement qu’on est à court d’idée et qu’on brasse du vent pour faire genre. C’est aussi car, en vrai, on est soi-même déjà pyromane.

]]>
[LeProgres] Saint-Etienne: les opposants aux micros ne baissent pas les brashttps://www.laquadrature.net/?p=14192http://streisand.me.thican.net/laquadrature.net/index.php?20190512_130000__LeProgres__Saint-Etienne__les_opposants_aux_micros_ne_baissent_pas_les_brasSun, 12 May 2019 11:00:00 +0000Faute d’autorisation de la Cnil (Commission nationale informatique et libertés), la municipalité a décidé de retarder l’installation de capteurs sonores dans le quartier de Beaubrun-Tarentaize à Saint-Etienne. Les opposants au projet ne baissent pas la garde. Bien au contraire.  […]

Annoncée en février, cette mesure a pris, au fil du temps, un retentissement certain. Après des capteurs sonores, plusieurs documents, révélés par l’association de défense des droits et libertés des citoyens sur le site Internet La Quadrature du Net. […]

https://www.leprogres.fr/loire-42-edition-saint-etienne-metropole/2019/05/08/saint-etienne-les-opposants-aux-micros-ne-baissent-pas-les-bras

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Usbek&Rica] L’UE crée un gigantesque fichier biométrique : un « point de non retour » ?https://www.laquadrature.net/?p=14189http://streisand.me.thican.net/laquadrature.net/index.php?20190512_110000__Usbek_Rica__L___UE_cree_un_gigantesque_fichier_biometrique____un_____point_de_non_retour_______Sun, 12 May 2019 09:00:00 +0000Le Parlement européen a donné son feu vert à la création d’un gigantesque fichier qui centralisera des données incluant des informations biométriques – empreintes digitales et images faciales – des citoyens européens et non-européens. L’ONG Statewatch avait alerté en mai dernier sur la création d’une « Europe Big Brother ». […]

L’ONG Statewatch – composée d’avocats, universitaires, journalistes, chercheurs et militants associatifs surveillant la justice et les affaires intérieures, la sécurité et les libertés civiles dans l’Union européenne – avait publié en mai dernier une analyse point par point des nouvelles mesures prévues par cette interopérabilité des systèmes, qu’elle voyait elle aussi comme un « point de non-retour» dans la création d’un « Big brother européen centralisé ». Le raisonnement voulant justifier l’interopérabilité, développée dans le contexte de la crise migratoire et des attentats de 2015, par son utilité pour l’antiterrorisme, est à ses yeux trompeur. […]

https://usbeketrica.com/article/l-ue-cree-un-gigantesque-fichier-biometrique-un-point-de-non-retour-1

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Chiffrement : les ministères de l’Intérieur du G7 rêvent de backdoors installées par l’industriehttps://www.laquadrature.net/?p=14183http://streisand.me.thican.net/laquadrature.net/index.php?20190511_130000__NextINpact__Chiffrement____les_ministeres_de_l___Interieur_du_G7_revent_de_backdoors_installees_par_l___industrieSat, 11 May 2019 11:00:00 +0000Le 5 avril dernier, le message des ministres de l’Intérieur du G7 était passé sous nos radars. Le texte prévoit des mesures très ambitieuses, sur l’autel de la lutte contre le terrorisme, pour l’instant. Au menu : des hébergeurs appelés à être de plus en plus actifs dans cette lutte et des éditeurs de solutions de chiffrement invités à installer des portes dérobées. […]

Les ministères veulent surtout encourager les entreprises de l’Internet « à mettre elles-mêmes en place des solutions d’accès autorisé à leurs produits et services, notamment aux données chiffrées ». Ces portes dérobées permettraient ensuite aux forces de l’ordre et aux autorités compétentes (donc y compris les services du renseignement) d’accéder aux preuves numériques. […]

https://www.nextinpact.com/news/107815-chiffrement-ministeres-linterieur-g7-revent-backdoors-installees-par-lindustrie.htm

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LObs] Lettre à l’Europe d’Antonio Casilli : « Ton numérique est encombré de mirages »https://www.laquadrature.net/?p=14184http://streisand.me.thican.net/laquadrature.net/index.php?20190511_110000__LObs__Lettre_a_l___Europe_d___Antonio_Casilli________Ton_numerique_est_encombre_de_mirages____Sat, 11 May 2019 09:00:00 +0000A l’occasion des européennes, « l’Obs » a proposé à des artistes et des penseurs d’écrire à l’Europe. Découvrez le texte du sociologue Antonio Casilli. […]

« Mais c’est aussi aux dépens des libertés et de l’autonomie de tes propres citoyens que tes politiques numériques des dernières années ont été développées. Au nom de vagues émergences et d’états d’exception permanents, une surveillance massive des populations s’est généralisée. A partir de 2013, la France et le Royaume-Uni se sont dotés d’outils législatifs comme la Loi Renseignement ou le Snoopers’ Charter, qui normalisent l’inspection profonde de paquets sur les réseaux, le traçage permanent des citoyens sur les médias sociaux et la création de « boites noires algorithmiques ». Le tout en se passant des garde-fous juridiques traditionnellement présents dans nos pays. Là aussi, l’obsession GAFAM joue un rôle clé. Les accords entre tes États et les entreprises qui se servent de ces technologies à des fins de surveillance et de répression se multiplient, du déploiement de drones Predator à des fins d’ordre public en Italie au contrat de la DGSI française avec Palantir, multinationale de la surveillance du sulfureux Peter Thiel. » […]

https://www.nouvelobs.com/elections-europeennes/20190504.OBS12461/lettre-a-l-europe-d-antonio-casilli-ton-numerique-est-encombre-de-mirages.html

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
AG 2019 de la Quadrature : bilan et perspectiveshttps://www.laquadrature.net/?p=14169http://streisand.me.thican.net/laquadrature.net/index.php?20190510_134050_AG_2019_de_la_Quadrature____bilan_et_perspectivesFri, 10 May 2019 11:40:50 +0000À l’issue de son assemblée générale des 13 et 14 avril derniers, La Quadrature du Net souhaite partager avec ses amies, soutiens, sympathisantes et alliées ce qui ressort de ce week-end riche en échanges.

Ce fut tout d’abord un temps de bilan de nos actions, durant lequel nous sommes revenues sur les principaux évènements et les campagnes qui ont rythmé l’année 2018 à La Quadrature :

Depuis novembre 2017 nous avions décidé de faire de la sensibilisation et de la formation à nos combats pour les libertés fondamentales une des missions de La Quadrature. Cette volonté s’est affirmée à travers deux campagnes que nous voulions accessibles à des publics peu habitués à nos revendications. Au mois d’avril 2018, La Quadrature s’est donnée six semaines pour expliquer, à travers des articles et des vidéos, les abus des GAFAM sur nos libertés et convaincre un maximum de personnes de nous rejoindre dans nos actions de groupe contre les GAFAM. Le 28 mai, nous étions 12 000 à avoir signé ces plaintes devant la CNIL.
La seconde campagne de sensibilisation s’est déroulée en novembre et décembre 2018 à l’occasion de la campagne de dons de l’association. Cette campagne fut l’occasion pour certains proches de La Quadrature de présenter Internet dans sa version libre, neutre, décentralisée et respectueuse des libertés à travers une série de vidéos disponibles sur chaque page thématique du nouveau site de La Quadrature.

Outre ces deux campagnes se voulant accessibles, nos campagnes et actions pour défendre les libertés et droits fondamentaux dans la sphère numérique se sont centrées sur quatre grandes thématiques : les données personnelles, la surveillance, la censure et les réseaux. Diverses campagnes nous ont grandement occupées durant l’année, qu’il s’agisse de la campagne Stop Data Retention en juin ou encore de la campagne contre le règlement de censure terroriste, entamée en fin d’année et poursuivie en 2019. Les sujets juridiques et de contentieux à suivre ont eux aussi été nombreux : directive ePrivacy en discussion au niveau européen, recours contre le Privacy Shield et le régime de surveillance français qui se poursuivent devant la Cour de justice de l’Union européenne, recours contre le fichier TES devant le Conseil d’Etat, débats sur la directive Copyright et sur la régulation des plateformes, premières recherches et analyses sur les « safe cities »… Les dossiers à analyser n’ont pas manqué, et la plupart se poursuivent actuellement.

Afin de promouvoir l’Internet libre, neutre et décentralisé, nous avons amorcé une collection de guides juridiques. Le premier s’adresse aux établissements fournissant un accès Internet comme le font les bibliothèques : « Internet en libre accès ».

Ce fut aussi un temps de réflexion sur l’évolution de l’association: Il y a un an, lors d’une AG que l’on pourrait qualifier de refondatrice de l’organisation, La Quadrature avait décidé de modifier en profondeur sa structure de gouvernance, de prise de décision et de responsabilité. Ce choix a été fait dans un but d’efficacité, pour libérer certaines actions (en particulier celles de l’équipe opérationnelle salariée), mais aussi dans l’objectif d’aligner notre organisation avec notre vision politique : notre défense d’Internet, un réseau par définition horizontal où vivent nos libertés.

Un des buts de notre réorganisation était de permettre à plus de personnes d’entrer dans le processus de décision. Nous avions alors acté l’entrée d’une trentaine de membres dans l’association et la mise en place d’un processus de décision horizontal. Dans l’ensemble, même si ce processus est encore en train de trouver ses marques, il nous enthousiasme et nous encourage à poursuivre dans cette voie.

Ce chemin vers l’ouverture et l’horizontalité est encore en progression : après avoir intégré ce premier cercle de bénévoles, nous réfléchissons aux méthodes pour renforcer nos liens avec les proches de La Quadrature qui ne sont pas membres. Nous souhaitons retrouver des espaces où discuter et avancer avec la communauté qui s’est créée durant les 10 dernières années autour de La Quadrature. Nous allons travailler en ce sens.

Nous invitons d’ores et déjà les personnes qui le souhaitent à rejoindre nos groupes de réflexion, qui se penchent actuellement sur des sujets comme la régulation des télécoms, la censure d’État, la censure privée, la responsabilité des intermédiaires, le droit d’auteur, la vie privée et les données personnelles, l’intelligence artificielle, les villes « technopolicières » et l’IoT. Il est aussi possible de rejoindre nos groupes de travail, que ce soit sur la traduction de textes, la revue de presse, l’organisation d’évènements… Cette liste n’est pas exhaustive et reste ouverte à propositions. Les personnes intéressées peuvent nous rencontrer lors des apéros et autres évènements que nous organisons au fil de l’année, sur irc ou alors en écrivant à notre adresse mail de contact, elles seront alors mises en lien avec les personnes qui travaillent sur les sujets qui les inspirent.

Et pour celles et ceux qui voudraient en savoir plus sur notre bilan 2018, nous les invitons à consulter le bilan d’activités 2018 et le bilan financier 2018.

On en profite bien sûr pour remercier toutes celles et tous ceux grâce à qui La Quadrature peut poursuivre son travail, qu’il s’agisse des personnes qui agissent avec nous ou de celles qui nous soutiennent par leurs dons ou en relayant nos messages et nos actions dans leurs réseaux.

]]>
Une loi contre la haine anti-Macron ?https://www.laquadrature.net/?p=14148http://streisand.me.thican.net/laquadrature.net/index.php?20190509_141425_Une_loi_contre_la_haine_anti-Macron___Thu, 09 May 2019 12:14:25 +0000Il y a 6 semaines, la députée En Marche Laetitia Avia déposait une proposition de loi « contre la haine sur Internet ». Sa mesure phare est d’exiger des grandes plateformes qu’elles suppriment en 24 heures les propos de nature « haineuse » et « manifestement » illicites que leur signaleront le public ou la police, sous peine d’une amende de 4% de leur chiffre d’affaire.

Le but est purement et simplement de remplacer la justice publique par Facebook, Google et Twitter, en les laissant seuls maîtres de ce qui peut ou non être dit sur le Web. C’était déjà exactement la démarche prise dans le règlement antiterroriste récemment adopté en première lecture au Parlement européen (lire notre bilan sur ce texte).

Avant de quitter le secrétariat d’État au numérique, Mounir Mahjoubi actait déjà aux côtés de Marlène Schiappa cette alliance de l’État dans les bras de Facebook, présenté comme héros de l’Internet à la sagesse duquel nous devrions évidemment tous nous soumettre ! (lire notre analyse) Son successeur, Cédric O, n’a manifestement rien à redire à la trahison opérée par cette loi « anti-haine ». L’ensemble des députés brillent aussi par un silence coupable.

De son côté, le ministère de la justice, entièrement humilié et mis de côté dans ce grand chantier, vient de lancer son chant du cygne. Dans une circulaire publiée en avril dernier, il appelle à recourir davantage au juge pour lutter contre la haine en ligne, dénonçant l’ « usage abusif » pouvant être fait des « dispositions permettant d’engager la responsabilité des acteurs d’Internet ». En effet, alors que le gouvernement propose de contourner le juge pour gagner en « efficacité », cette circulaire constate que le ministère public ne saisit que bien trop peu la justice dans ces affaires.

Alors pourquoi confier la mission de justice à Facebook et Google, leur donnant autant de légitimité et de pouvoirs alors même qu’ils n’ont de cesse de violer la loi, de mentir et de détruire notre écosystème numérique ? L’analyse du règlement antiterroriste, qui repose sur la même volonté politique, donne une première piste : la notion européenne de « terrorisme » est tellement vague que ce règlement pousserait notamment Facebook et Google à censurer largement les revendications des mouvements sociaux (voir notre analyse appliquée aux gilets jaunes, dont les propos en ligne pourraient tomber sous la censure « anti-terroriste »).

Quand la police demande aux géants de défendre Macron

Un autre événement, cette fois-ci en matière de « haine », est encore plus éclairant : en début d’année, nos amis de NextInpact révélaient que la police française avait signalé à Google une caricature présentant Emmanuel Macron et son gouvernement sous les traits du dictateur Pinochet et de ses proches. Nous avons fait une demande CADA à la police pour comprendre les raisons de ce signalement et venons d’en recevoir la réponse.

Le 13 janvier 2019, vers 21h, une personne anonyme a signalé cette caricature et le message l’accompagnant à la police via sa plateforme PHAROS, dans la catégorie « incitation à la haine raciale ou provocation à la discrimination de personnes en raison de leurs origines, de leur sexe, de leur orientation sexuelle ou de leur handicap ». En réaction et en moins de 24 heures (tel que l’indique le site Lumen), la police a signalé à Google cette image, enregistrant son signalement dans la catégorie « injures et diffamations xénophobes ou discriminatoires » (voir la « fiche de signalement » ci-dessous).


Capture d’écran transmise par la police (cliquer pour agrandir)

Comment expliquer un tel zèle de la police pour une caricature aussi triviale, et ce alors que ses services comprenaient fin 2018 moins de trente agents pour recevoir quatre à cinq centaines de signalements par jours ? Comment expliquer les catégories pénales retenues ici — injures et diffamations xénophobes ou discriminatoires — alors qu’il ne s’agissait que d’une caricature critique du Président et de son gouvernement ? Fait révélateur, la police nous indique ne pas avoir saisi la justice de cette caricature qu’elle qualifiait pourtant d’infraction : elle en a laissé la censure à la libre appréciation de Google.


Fiche de signalement transmise par la police (cliquer pour agrandir)

À l’époque, Google n’avait pas censuré l’image (elle était publiée sur Google+ qui a fermé peu après). Toutefois, avec cette nouvelle proposition de loi « contre la haine », qui vise précisément le type d’infractions visées dans cette affaire, Google ou Facebook devront obligatoirement censurer en 24 heures les contenus « manifestement » illicites qui leur seront signalés, sous peine de sanctions allant jusqu’à 4% de leur chiffre d’affaire. Dans ces conditions, seront-ils vraiment capable de refuser de censurer les contenus signalés par la police ?

La justice indépendante, même si elle se fait parfois complice, est généralement mieux armée pour résister aux pressions du gouvernement. Elle doit être la seule à pouvoir actionner la censure publique. Toute alternative serait un renoncement plein et entier à la séparation des pouvoirs et à tout principe démocratique. En face, l’indépendance de Google et de Facebook est nulle : le président de Facebook, après avoir expliqué construire la régulation du Net main dans la main avec Emmanuel Macron, sera une nouvelle fois reçu demain comme un chef d’État à l’Élysée.

Tout acteur politique, de la majorité comme de l’opposition, qui ne s’opposera pas immédiatement et frontalement à cette privatisation de la justice en sera tenu responsable et dénoncé comme tel.

Lutter contre cette loi occupera lourdement La Quadrature du Net pour les mois à venir, et il nous reste bien d’autres aspects à aborder, tels que la promotion de la censure automatisée, du rôle du CSA ou de la censure administrative. Pourtant, notre budget annuel n’est aujourd’hui financé qu’à 70%, donc, au passage, vous pouvez nous faire un don pour nous permettre de continuer <3

]]>
[ParisMatch] Comment les géants du web mènent la bataille de la vie privéehttps://www.laquadrature.net/?p=14144http://streisand.me.thican.net/laquadrature.net/index.php?20190507_150000__ParisMatch__Comment_les_geants_du_web_menent_la_bataille_de_la_vie_priveeTue, 07 May 2019 13:00:00 +0000Confrontées à la pression des consommateurs, des associations et de certains gouvernements, les grandes entreprises de la tech espèrent démontrer qu’elles sont prêtes à protéger la vie privée de leurs utilisateurs. Jusqu’à tenter de se différencier les unes des autres sur cette question sensible. […]

[…] « C’est lamentable de se revendiquer d’un texte qu’il a tout fait pour détruire. Ils ne recueillent pas le consentement des utilisateurs. Le RGPD autorise des entreprises ou des administrations à traiter des données personnelles si ce traitement est nécessaire au service qu’on leur demande. Mais Facebook a complètement dévoyé cette logique-là en considérant que les gens viennent sur Facebook pour être surveillés et pour avoir de la publicité affichée ! Nous estimons que ce n’est pas pour cela que la majorité des gens utilise Facebook. Il faudrait donc recueillir leur consentement », s’agace Arthur Messaud, juriste à La Quadrature du Net, une association qui a lancé des poursuites contre Google, Apple, Facebook, Amazon et Microsoft. […]

https://www.parismatch.com/Actu/Economie/Comment-les-geants-du-web-menent-la-bataille-de-la-vie-privee-1619290

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[JeudiMutuelle] « Quel statut et quel avenir pour les données ? »https://www.laquadrature.net/?p=14143http://streisand.me.thican.net/laquadrature.net/index.php?20190507_130000__JeudiMutuelle______Quel_statut_et_quel_avenir_pour_les_donnees_______Tue, 07 May 2019 11:00:00 +0000« Peut-on concilier « Start up nation » et République Numérique ? » Tel est le thème sur lequel les invités de MGEN sont invités à débattre lors de la nouvelle édition de ce rendez-vous trimestriel, d’échanges et de débats sociétaux. […]

Pour en débattre, MGEN, représentée par son vice-président délégué Eric Chenut, accueille :

  • Axelle Lemaire, ancienne secrétaire d’Etat chargée du Numérique ;
  • Tristan Nitot, fondateur de Mozilla Europe et vice-président Advocacy de Qwant ;
  • Jean Spiri, normalien et géographe, Président du CRIPS, conseiller régional d’Île de France, auteur de « Demain, tous Estoniens ? » ;
  • Alexis Fitzjean O’Cobhthaigh, avocat au Barreau de Paris, chargé d’enseignement à l’Université Paris II Panthéon-Assas, membre de la Quadrature du Net ;
  • Lionel Cavicchioli, chef de rubrique Santé The Conversation France.

https://www.youtube.com/watch?v=gmRF3IqkBQM

NDLRP : retouvez une ‘pastille’ de ce débat avec une intervention de Alexis Fitzjean O’Cobhthaigh, membre de la Quadrature du Net sur le Peertube :

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
La vie privée pour les faibles, la transparence pour les puissantshttps://www.laquadrature.net/?p=14105http://streisand.me.thican.net/laquadrature.net/index.php?20190501_132150_La_vie_privee_pour_les_faibles__la_transparence_pour_les_puissantsWed, 01 May 2019 11:21:50 +00002010, WikiLeaks publie les journaux des guerres d’Irak et d’Afghanistan, la vidéo Collateral Murder, et enfin 300 000 cables diplomatiques US, mettant notamment à jour des crimes de guerre sur fond d’hypocrisie géopolitique mondiale..

2019, après avoir passé 7 ans dans l’ambassade d’Équateur comme réfugié politique, le journaliste Julian Assange, fondateur de WikiLeaks, est arrêté par la police britannique et risque une extradition aux États-Unis, où l’attend un système judiciaire sauvage et une procédure tenue secrète auprès d’un tribunal qui semble avoir posé les conclusions avant d’avoir entendu les arguments, avec à la clé de nombreuses années de prison, dans le meilleur des cas.

Entre les deux, WikiLeaks a mis en œuvre une vision, défendue depuis 2008 par La Quadrature du Net : la vie privée des individus et des groupes, la transparence des institutions et l’accès à l’information sont des droits fondamentaux, à respecter et faire respecter, tandis que les entreprises privées et les États doivent au peuple la transparence. Les États, par leurs fichiers d’État, procédures administratives et judiciaires, mais aussi les entreprises privées, doivent rendre compte aux citoyens des données dont ils disposent, des capacités d’écoute qu’ils mettent en œuvre et de leur influence sur le monde.

WikiLeaks, ses sources et ses soutiens ont payé cher le fait d’être parmi les premiers à montrer à une telle échelle les conséquences sur nos vies de la « guerre contre le terrorisme » menée par les puissances publiques et des entreprises privées du complexe militaro-industriel, qu’ont rejoint sans hésitation de nombreuses entreprises du numériques comme Alphabet (la maison mère de Google), Amazon (qui héberge entre autres le cloud de la CIA) ou Microsoft (au travers de ses nombreux contrats avec les différentes branches de l’armée américaine ou avec le Ministère des Armées français). La seule réponse de ces gouvernements a été de s’engager dans un harcèlement judiciaire coordonné.

Sous couvert de raison d’État, les systèmes judiciaires suédois et britanniques ont été manipulés pour faire traîner les procédures et coincer Julian Assange1Comme l’a montré Stefania Maurizi, journaliste italienne, dans une requête FOIA contre la justice britannique, dévoilant les échanges entre justice suédoise et britannique, et l’effacement des correspondances avec les autorités américaines. Les affaires d’agression sexuelles en Suède ayant été fermées après une interview d’Assange par la procureure suédoise en 2016 . Les USA, à travers Visa & Paypal, ont bloqué les moyens de financement de WikiLeaks. Les services de renseignement de nombreux pays ont tenté, parfois avec succès, de démobiliser les personnes soutenant publiquement ou techniquement les idées de WikiLeaks. La France comme l’Union Européenne, prétextant une défense des lanceurs d’alerte, se sont assurées de l’impossibilité de pouvoir dénoncer avec fiabilité et sécurité les abus tant des grands groupes que des administrations. Chelsea Manning, ancienne militaire accusée des fuites de 2010 ayant permis de divulguer de nombreuses exactions de l’armée américaine notamment durant la guerre d’Irak, condamnée à 35 ans de prison par un tribunal militaire, et depuis graciée, est de nouveau en prison de haute sécurité – et a été un temps à l’isolement – après avoir refusé de témoigner contre WikiLeaks, secrètement et devant un Grand Jury. Le Grand Jury a décidé de la persécuter une fois de plus alors que les dégâts causés par son emprisonnement précédent sont largement documentés2Sur le Washington Post & sur le Figaro. Ola Bini, développeur de logiciel libre et expert en sécurité informatique, a été arrêté en Équateur sous des prétextes fallacieux de complot contre le gouvernement équatorien3Voir le site de soutien à Ola Bini, invitant les membres de la communauté du logiciel libre ou de la sécurité informatique à appeler à sa libération. Il ne fait aucun doute que ces emprisonnements n’ont d’autres raisons que politiques.

La Quadrature du Net défend l’intimité de toutes et tous face aux gigantesques pouvoirs des États et des sociétés privées. Nous avons longtemps collaboré avec WikiLeaks, profitant des fuites sur ACTA, le traité commercial anti-contrefaçon que nous attaquions dès 2010. Nous continuons à défendre le droit à communiquer d’une manière qui respecte l’intimité, la vie privée, droit mis à mal par la surveillance d’Internet par les agences de renseignement occidentales – comme révélé par Edward Snowden – et des outils de surveillance et d’attaque informatique, révélés par WikiLeaks4Voir les révélations Vault7 & SpyFiles.

WikiLeaks a ouvert le bal des fuites massives de documents confidentiels des structures de pouvoirs. Cette méthode a depuis essaimé : Panama Papers, Offshore Leaks, LuxLeaks, ont été rendus possible par l’idée fondatrice d’abord concrétisée par le projet WikiLeaks : faciliter la mise en lumière là où certains voudraient garantir et profiter de l’obscurité. Rappelant au journalisme la nécessité de questionner les agissements des plus puissants, nous soutenons la cause incarnée par WikiLeaks et dénonçons la persécution illégitime de ses soutiens.

La Quadrature du Net soutient toutes les lanceuses et lanceurs d’alerte actuellement enfermé·e·s ou poursuivi·e·s (Jeremy Hammond, Reality Winner, Laurie Love, etc.) et dénonce les pratiques de mise à mort lente et de torture employées, comme ce fut le cas avec Chelsea Manning. Nous souhaitons qu’Internet puisse rester un instrument permettant l’émancipation et un moyen de reprendre du pouvoir par rapport au contrôle des États ou des grands acteurs privés. Un outil facilitant l’échange d’informations et la protection des sources. Force est de constater que de nombreux États sont prêts à tout pour faire taire les personnes qui cherchent à s’en servir en ce sens.

Nous défendons la vie privée pour les faibles et la transparence pour les puissants.

Julian Assange ne doit pas être extradé.
Chelsea Manning & Ola Bini doivent être libérées.

References   [ + ]

1. Comme l’a montré Stefania Maurizi, journaliste italienne, dans une requête FOIA contre la justice britannique, dévoilant les échanges entre justice suédoise et britannique, et l’effacement des correspondances avec les autorités américaines. Les affaires d’agression sexuelles en Suède ayant été fermées après une interview d’Assange par la procureure suédoise en 2016
2. Sur le Washington Post & sur le Figaro
3. Voir le site de soutien à Ola Bini, invitant les membres de la communauté du logiciel libre ou de la sécurité informatique à appeler à sa libération
4. Voir les révélations Vault7 & SpyFiles
]]>
Règlement terroriste : premier bilan et prochaines étapeshttps://www.laquadrature.net/?p=14081http://streisand.me.thican.net/laquadrature.net/index.php?20190426_114837_Reglement_terroriste____premier_bilan_et_prochaines_etapesFri, 26 Apr 2019 09:48:37 +0000Mercredi 17 avril, l’ensemble du Parlement européen a adopté en première lecture le règlement de censure des « contenus terroristes » en ligne. Par une très faible majorité, il a refusé de nous défendre contre la censure politique ou de protéger le Web libre et ouvert européen.

Le texte prévoit toujours qu’un juge ou que la police puisse demander à n’importe quelle plateforme de supprimer un contenu en une heure, ce qu’aucune plateforme ne pourra faire sans utiliser les outils de filtrage automatisé développés par Google et Facebook.

Heureusement, la lutte n’est pas finie : le texte pourra encore être modifié en seconde lecture par le nouveau Parlement qui sera élu lors des prochaines élections européennes. Ce sera la décision de ces futurs députés qui marquera la fin de la guerre. Et nous ne manquons pas de raisons d’espérer qu’au final, ce sont nos libertés qui l’emporteront.

Pour préparer cette dernière bataille, faisons d’abord le bilan de celle qui s’est achevée.

Les origines du règlement

La Commission européenne a publié sa proposition de règlement le 12 septembre 2018, en toute discrétion, le jour même où toute la lumière était braquée sur un vote décisif du Parlement européen concernant la directive Copyright (lire notre réaction à l’annonce du règlement terroriste et notre réaction du même jour au vote sur la directive Copyright).

Comme on le verra ensuite, le fait que ce règlement et cette directive aient été débattues en parallèle par l’Union européenne a posé de nombreux problèmes pour lutter tant contre l’un que contre l’autre, tout en révélant une volonté générale de la part de nos gouvernements de réguler le Web dans son ensemble pour les années à venir.

Cette volonté apparaît bien en amont dès 2015. Suite à une série d’attaques meurtrières en Europe, la Commission européenne réunit Google, Facebook, Twitter et Microsoft pour former le « Forum de l’Internet Européen » afin de chercher une solution « pour protéger le public de la diffusion de contenus terroristes ». L’idée de base est déjà là : confier aux géants du numérique la mission de chercher des solutions à nos problèmes.

Ces géants n’ont pas manqué l’occasion de proposer une solution qui, bien que peu utile, renforcerait leur domination sur le reste du Web et permettrait aux gouvernements européens de se donner bonne image (au premier rang desquels le gouvernement français, avec qui Facebook ne cache même plus son alliance). En juin puis en décembre 2017, la Commission européenne félicite les quatre géants pour la solution qu’ils ont construite : une liste noire contenant l’empreinte numérique de dizaines de milliers d’images et de vidéos catégorisées comme « terroristes » par leurs services de modération (qui mêlent « intelligence artificielle » et milliers d’employés exploités dans les pays les moins riches).

Le projet est déjà explicite : faire en sorte que l’ensemble des services Web utilisent la liste noire des géants pour filtrer les contenus qu’ils diffusent. Tout ça sans juge, sans contrôle démocratique, sans rien. Voilà le grand projet : confier aux GAFAM la mission de « civiliser » Internet.

C’est aussi ce qu’opère la directive Copyright : elle inscrit dans la loi la « solution » inventée par les GAFAM contre les pirates barbares qui, dans les fantasmes de l’industrie culturelle, nuiraient à cette dernière. Pour « civiliser » Internet, la généralisation du modèle Content-ID de Youtube assurera désormais l’exploitation massive de nos données personnelles afin de financer cette industrie. S’en remettre aux dominants est tellement plus simple que de repenser ses propres politiques culturelles (lire la tribune de Félix Tréguer, membre de La Quadrature, dans Le Monde qui le dénonçait).

On retrouve enfin la même inspiration dans la proposition de loi « contre la haine » déposée par Mme Avia en France il y a un mois : juste avant de quitter le secrétariat au numérique, Mounir Mahjoubi expliquait comment la loi devait s’inspirer de la modération mise en place par Facebook, présenté comme héros du Web (lire notre critique).

Le texte initial

Tel que proposé par la Commission européenne, le règlement sur le retrait des contenus terroristes permet de confier le contrôle du Web aux GAFAM de deux façons.

À son article 4, le texte prévoit qu’une plateforme doit retirer en une heure un contenu signalé comme terroriste par les autorités. Aucune petite ou moyenne plateforme ne peut répondre à une telle demande, ayant rarement des techniciens travaillant la nuit ou le week-end. Ces plateformes n’auront d’autres choix que d’empêcher en amont la mise en ligne du moindre contenu suspect en utilisant la liste noire fournie par les géants du Web. C’est précisément l’objectif annoncé depuis 2015 par la Commission, et aucun de nos interlocuteurs (ministères, députés…) n’a jamais pris la peine de le nier.

À son article 6, il est prévu que si, malgré la lourde pression que constitue l’article 4, une plateforme ne mettait pas en place un système de filtrage automatisé, les autorités pourraient l’y obliger. Les autorités pouvaient même désigner l’outil précis à implémenter, leur permettant de renvoyer explicitement vers celui de Google, Facebook, Twitter et Microsoft (toutefois, comme on le verra ensuite, ce point a ensuite évolué lors des débats).

Hélas, le texte ne s’arrête pas à une simple délégation de la censure du Web à ces géants. Il confère aussi de larges pouvoirs aux États pour qu’ils puissent eux-mêmes censurer Internet. La demande de retrait de l’article 4 peut venir tant d’un juge que de la police, qui agit alors sans autorisation judiciaire requise. De même, l’article 5 du texte initial prévoit un mécanisme de signalement par lequel la police ou Europol pouvait forcer une plateforme à vérifier si un contenu était conforme à ses propres conditions d’utilisations, qui, elles-mêmes, devaient obligatoirement interdire la publication de contenus terroristes (ce point aussi a évolué au fil des débats, on en reparlera ci-dessous).

Autant de pouvoirs qui ne manqueront pas d’être détournés par nos gouvernements pour nous censurer à des fins purement politiques (la police française l’a déjà fait, dévoyant ses pouvoirs anti-terroristes contre des militants d’extrême gauche et faisant bloquer leur site. Un an et demi après, cette censure a finalement été déclarée illégale par un tribunal).

Une fausse solution

Après avoir fait un large tour des ministères français pour dénoncer ce texte (lire notre compte rendu), nous avons rapidement réalisé que nous ne pourrions pas nous contenter de dire que ce règlement serait inapplicable par les petites et moyennes plateformes ou qu’il ouvrirait les portes de la censure politique. Car on nous a vite fait comprendre que c’était bien son but.

C’est donc ce but que nous avons cherché à déconstruire, en trois étapes.

Premièrement, en dénonçant combien confier aux géants du Web la modération de celui-ci serait un contre-sens, tant « l’économie de l’attention » qui fonde leur modèle porte une lourde responsabilité dans la sur-représentation de conflits et de propos anxiogènes en ligne (lire une de nos multiples analyses à ce sujet). De façon surprenante, nous avons rencontré assez peu d’oppositions à cet argument, si ce n’est la vague idée que « les GAFAM sont la moins pire des solutions ».

Deuxièmement, nous avons tenté de déconstruire le mythe de « l’auto-radicalisation en ligne », qui voudrait qu’un individu lambda puisse être pris d’envies meurtrières après être arrivé par hasard sur quelques vidéos de propagande terroriste, et qu’il faudrait donc l’empêcher de tomber dessus. Un rapport de l’UNESCO de 2017 nous a ici grandement aidé : après avoir recoupé 550 études sur la question, il conclut à l’absence de preuve au soutien d’un tel mythe, tout en soulignant les atteintes à la liberté d’expression commises en son nom. Les ministères et députés soutenant le règlement n’ayant plus d’arguments factuels pour se défendre, ils nous ont répondu que leur but n’était finalement peut-être pas tant de lutter contre « l’auto-radicalisation spontanée », mais surtout contre l’utilisation d’Internet à des fins d’organisation et de planification d’attentats entre personnes déjà radicalisées.

Rapport de l’UNESCO : Youth and violent extremism on social media: mapping the research

Ainsi, dans un troisième temps, nous avons dû leur expliquer que leur règlement serait bien peu utile à cette fin. Les personnes soutenant des idéologies meurtrières communiquent déjà via des plateformes qui violent et contournent sciemment la loi et qui se moqueront bien de recevoir des demandes de retrait officielles. Aucune loi ne peut prévoir des solutions informatiques crédibles pour lutter contre les idéologies meurtrières. Cette lutte ne peut s’opérer que par des changements culturels et structuraux.

En dernier ressort, nos adversaires n’avaient plus qu’une sorte de pseudo « principe de précaution » à nous présenter, en forme de « peut-être que tout cela ne sert à rien mais, on ne sait jamais, peut-être qu’on découvrira plus tard que c’était utile »… quitte à sacrifier nos libertés et notre écosystème numérique pour le découvrir. Difficile de croire en la sincérité d’une posture aussi absurde, qui semble surtout révéler leur véritable intention : se vanter d’avoir adopté un texte symbolique, aussi inutile et dangereux fut-il, juste avant les élections européennes.

À la toute fin du débat est apparu un dernier argument. La diffusion incontrôlée et sur une longue période de la vidéo de l’attentat de Christchurch sur Youtube et Facebook a démontré que les outils de modération automatisées de ces derniers étaient largement inutiles. Leur liste noire à base d’empreintes numériques a pu être très facilement contournée par les soutiens du meurtrier, qui ont simplement mis en ligne la vidéo sous différents formats pour échapper aux reconnaissances automatisées. Par une ironie dont l’amertume est insupportable, la diffusion de cette vidéo a démontré la vacuité absolue de ce règlement.

Le débat général

Tous ces débats ont dû se tenir dans un temps extrêmement court, car les gouvernements français et allemand, qui avaient demandé ce texte à la Commission européenne, entendaient bien le faire adopter avant les élections. En tout, le débat en première lecture aura duré à peine 8 mois (un sinistre record pour un texte d’une telle gravité).

Dans un premier temps, le texte a été discuté par le Conseil de l’Union européenne, qui réunit les gouvernements de l’Union. Grâce à l’engagement de 61 associations et acteurs du Web, nous avons pu dénoncer conjointement la stratégie anti-européenne d’Emmanuel Macron, qui favorise les GAFAM et viole la séparation des pouvoirs en permettant des censures politiques (lire la lettre commune). Quelques jours plus tard, le 6 décembre 2018, le Conseil de l’Union adoptait toutefois un accord sur le texte dans une version quasiment identique à l’initiale (lire notre réaction).

En parallèle, depuis presque aussi longtemps que nous combattions ce texte, le mouvement des gilets jaunes prenait en France une ampleur spectaculaire, entraînant une répression encore plus impressionnante. Nous n’avons pas pu nous empêcher de constater que le règlement soi-disant anti-terroriste serait une arme de choix pour censurer un tel mouvement social, tant le droit européen permet d’interprétations extensives (lire notre analyse).

Au parlement européen

Les débats au Parlement européen ont assez mal commencé. Le 12 décembre, soit le lendemain d’une fusillade ayant eu lieu à Strasbourg (l’endroit même où siégeait le Parlement à cette date), l’ensemble des députés ont adopté un rapport « sur les observations et les recommandations de la commission spéciale sur le terrorisme ». Ce rapport, qui n’a pas de valeur législative mais exprime simplement la volonté du Parlement, a été une sorte de prémice au règlement à venir. Il se félicite d’ailleurs de la proposition faite par la Commission et appelle explicitement à la « détection automatique » et à la « suppression systématique » des contenus terroristes (voir notre lettre envoyée aux députés avant l’adoption de ce texte puis notre réaction à son adoption).

Il a fallu attendre fin janvier pour que les débats commencent vraiment au Parlement européen. Daniel Dalton, député d’extrême-droite (groupe ECR) venant du Royaume-Uni, prêt à rendre son mandat d’un jour à l’autre en prévision d’un Brexit qui semblait alors imminent, avait été désigné rapporteur sur le texte. En tant que tel, sa mission était d’organiser les débats au sein de la commission LIBE (pour « libertés civiles ») afin de proposer un « rapport » (une version amendée du règlement) ensuite soumis au vote de l’ensemble du Parlement.

Fin janvier 2019, donc, Dalton proposait un projet de rapport laissant presque inchangée la proposition initiale de la Commission européenne. Ce renoncement à corriger le texte tranchait radicalement avec la position de Dalton sur la directive copyright, où il s’était opposé au filtrage automatisé, notamment pour protéger les petites plateformes. Son incohérence semblait totale (lire notre analyse). Par la suite, nous avons pu le rencontrer à plusieurs reprises au Parlement européen, pour y deviner sans grande surprise que cette incohérence cachait probablement les aspirations carriéristes les plus triviales : Dalton avait parfaitement saisi les causes et conséquences du règlement mais, tout en reconnaissant que la mesure phare du « retrait en une heure » était aussi absurde que dangereuse, il tenait à tout prix à la conserver ne serait-ce que pour le symbole qu’elle portait.

Dès février 2019, c’est sur la base de ce projet de rapport que les différents groupes politiques représentés dans la commission LIBE ont commencé à débattre pour chercher des compromis. Nous lancions notre page de campagne qui, dans les 2 mois de discussions restants, permettrait à tout le monde de contacter les 61 membres de LIBE pour les alerter sur les dangers de ce texte.

Le vote final de LIBE sur son rapport avait été fixé au 21 mars. Avant cela, au cours du mois de mars, les commission IMCO (« consommateurs ») et CULT (« culture ») ont chacune rendu un avis pour assister LIBE. Ces avis, bien que très imparfaits, proposaient enfin des améliorations (lire notre réaction aux avis de IMCO et de CULT). Durant ce temps, nous rencontrions le plus grand nombre possible de membres de LIBE au Parlement et, après avoir rencontré l’équipe de Rachida Dati (chargée de mener les négociations en LIBE pour le groupe de droite PPE), dénoncions sa position encore plus dangereuse que celle de Dalton (lire notre article).

Acceptant enfin la gravité de ce règlement, les membres de LIBE ont été obligés de reporter leur vote par deux fois, jusqu’au 8 avril, se donnant trois semaines supplémentaires pour négocier le rapport. Trois semaines semblent un délai ridiculement court pour un texte si important – et il l’est -, mais le calendrier initial ne prévoyait même pas deux mois pour en débattre. La Commission comme les États membres se sont largement ingérés dans les affaires du Parlement (avec succès) pour exiger que celui-ci adopte un texte en première lecture avant la fin de son mandat, mi-avril, ce qui demandait l’adoption urgente du rapport LIBE.

Vous n’aurez pas manqué de le constater : tout ce débat contre le règlement terroriste s’est déroulé alors même que l’Union européenne débattait de la directive Copyright. Après que le Parlement ait arrêté une première position sur cette directive Copyright en septembre 2018, ce texte était parti en négociations inter-institutionnelles (« trilogue ») entre le Conseil de l’Union (qui réunit les gouvernements des États membres), la Commission européenne et des députés mandatés à cette fin par le Parlement, afin de trouver un compromis général. Ces négociations ont été très mouvementées, avec divers retournements de situation, tant est qu’il était bien difficile de prévoir la date de leur aboutissement (notamment de savoir s’il interviendrait avant ou après la fin de l’actuelle mandature).

Lorsque nous lancions début février notre page de campagne pour appeler les députés contre le règlement terroriste, ces négociations sur la directive Copyright n’étaient même pas finies, et nous ne pouvions guère savoir lequel des deux textes serait voté le premier par le Parlement.

Le trilogue sur Copyright aboutissait finalement peu après, fin février, et de nombreuses associations européennes alliées lançaient alors leur pleine campagne contre la directive Copyright, principalement autour de la plateforme Pledge2019, qui permettait à tout le monde de contacter les députés et à laquelle La Quadrature du Net a apporté sa signature dès le lancement.

Quelques semaines plus tôt, alors que les différentes campagnes contre ces deux textes se préparaient, nous avions pendant un temps pensé avec les associations européennes amies de La Quadrature faire une campagne unique contre les deux textes. On comprend bien pourquoi : les deux textes se fondent sur des mesures de filtrage automatisé et sur la place centrale confiée aux acteurs dominants du Web. Cette stratégie était d’autant plus intéressante qu’elle nous offrait une certaine souplesse, ne connaissant alors pas l’ordre dans lequel les deux textes seraient votés.

Fin février, l’idée d’une campagne unique a finalement été écartée, et ce pour des raisons très diverses, allant de l’espoir que la victoire contre la directive copyright pourrait suffire à convaincre les députés de corriger les pires mesures du règlement terroriste (stratégie qui ne nous a pas convaincu tant les deux sujets étaient différents), à la crainte que la campagne contre la directive Copyright soit moins mobilisatrice si elle était mélangée aux argument forcément plus graves et anxiogènes à invoquer contre le règlement terroriste.

À La Quadrature du Net, depuis plusieurs années, nous nous sommes malheureusement habituées à parler de morts et de massacres (ce qui est loin d’être agréable), ceux-ci étant systématiquement et honteusement récupérés par notre gouvernement pour renforcer illégitimement ses pouvoirs. Les associations d’autres pays n’en ont peut-être pas la même habitude (et tant mieux pour la santé mentale de leurs membres). Nous avons donc continué de mener la campagne contre le règlement terroriste pour laisser la grande majorité de nos alliés se concentrer contre la directive Copyright, avec le soutien que nous pouvions leur apporter (qui, il faut le reconnaître sans détour, aurait été plus important si les deux textes n’étaient pas tombés en même temps).

Toutefois, cette division de nos forces entre ces deux textes, aussi regrettable qu’inévitable, n’a peut-être eu qu’un effet assez secondaire comparé à un autre problème scandaleux : les médias dominants français, partie prenante de premier plan en faveur de la directive Copyright et alliés avec l’industrie culturelle à cette fin, ont ici largement renoncé à leur idéal d’impartialité. Inondant le public d’informations erronées et biaisées sur la directive, emportés dans leur campagne politique délirante, ils ont presque entièrement « oublié » de parler du règlement terroriste. C’est une situation parfaitement inédite pour la presse française s’agissant d’un texte d’une telle gravite, dont le public n’aura pris connaissance que par des associations militantes et quelques média spécialisés. La responsabilité des médias dominants français est immense dans la perte de libertés causée tant par la directive Copyright que par le règlement terroriste.

Au final, le vote final de la directive Copyright a été fixé au 26 mars, juste avant le vote en LIBE sur le règlement terroriste, repoussé lui au 8 avril. À une très courte majorité, le Parlement a accepté de sacraliser la surveillance économique de masse comme source de financement de la culture, sur la base des outils de filtrage automatisé inventés par Youtube avec son Content-ID (lire notre dernier appel à s’opposer à la directive Copyright et notre réaction à son adoption).

La lutte contre la politique promue par cette directive se poursuivra désormais au niveau national, avec diverses propositions législatives en cours en France sur lesquelles nous reviendrons très bientôt.

Le règlement adopté

Le 8 avril donc, la Commission LIBE a adopté sa version du règlement terroriste (lire notre réaction). Le vote en assemblée plénière pour une première lecture par le Parlement européen a été fixé moins de dix jours plus tard, au mercredi 17 avril. Durant ce très court délai, nous avons tout juste eu le temps d’étendre notre outil aidant à contacter les membres du Parlement (prévu au départ pour les 61 députés de la commission, nous l’avons étendu à l’ensemble des députés), ainsi que d’envoyer à ces derniers un courrier pour les avertir du danger du texte (lire notre courrier).

Tout ceci en vain. Car comme nous l’avons constaté de nous-mêmes directement depuis Strasbourg, le texte a été adopté en quelques minutes en première lecture, durant l’une des dernières séances du Parlement avant les élections de mai.

La version adoptée est, à un détail près, la version issue de la Commission LIBE.

Que modifie-t-elle précisément par rapport à la proposition de la Commission européenne de septembre ?

Le champ d’application est légèrement modifié. Suite à un lobbying intense des industries du « cloud », les acteurs visés ne sont maintenant plus que ceux qui stockent et mettent du contenu à disposition « du public » (et non plus « des tiers »), avec une sortie explicite des « services d’infrastructure en nuage » et des « fournisseurs de service en nuage ».

Le plus inquiétant est que la version conserve, en son article 4, la possibilité qu’une plateforme puisse être obligée de retirer en seulement une heure un contenu signalé comme terroriste par les autorités. Plusieurs amendements proposaient de supprimer ce délai d’une heure dont Daniel Dalton avait fait un symbole. L’amendement de suppression déposé par le groupe des Verts est rejeté de seulement 3 voix (297 pour et 300 contre – voir le résultat des votes).

Résultat des votes sur l’amendement supprimant le délai de retrait en une heure

Deux précisions sont néanmoins apportées : la première est que seule l’autorité du pays où le fournisseur de services a son établissement principal peut émettre ce type d’injonction ; la seconde est que si c’est la première fois que le fournisseur reçoit ce type d’injonction, l’autorité doit le contacter au moins 12 heures avant l’injonction. Ces précisions ne changent pas grand chose : que ce soit une ou treize heures, cela reste des délais beaucoup trop courts pour la plupart des acteurs du Web qui ne seront simplement pas en capacité de les respecter.

Quant à l’autorité compétente capable d’émettre de telles injonctions, il ne s’agit toujours pas uniquement d’un juge. Le texte précise maintenant qu’il peut s’agir d’une « autorité judiciaire ou autorité administrative fonctionnellement indépendante ». Mais la notion d’une autorité « fonctionnellement indépendante » peut être interprétée largement par les États membres et ne garantit en aucun cas la désignation d’une autorité juridiquement distincte du gouvernement (il est ainsi possible que l’OCLTCIC, l’office de la police nationale qui a déjà en France le pouvoir d’ordonner le blocage de sites faisant l’apologie de terrorisme soit considéré comme « fonctionnellement indépendant ») ;

L’article 5 permettant aux autorités de signaler un contenu à une plateforme est lui entièrement supprimé. S’il s’agit d’une victoire, elle reste très symbolique car, en pratique, les États et Europol continueront de recourir à ces signalements, qui ne sont ni interdits ni limités par la nouvelle version du règlement.

L’article 6 est profondément modifié. Il n’évoque plus des mesures « proactives » mais des « mesures spécifiques », et les fournisseurs de services ont désormais seulement la « possibilité » de les mettre en œuvre, et non plus une obligation générale de principe. Surtout, le texte précise que l’autorité compétente ne peut pas imposer d’ « obligation générale de surveillance, ni l’utilisation d’outils automatisés ». C’est probablement ici la plus importante victoire obtenue sur ce texte, même si, en pratique, les plateformes n’auront pas d’autre choix que de recourir en amont à des outils de filtrage automatisé pour ne pas s’exposer en aval à des demandes irréalistes de retrait en une heure.

L’article 9 prévoit enfin que les plateformes doivent systématiquement prévoir une vérification humaine « quant à la pertinence des décisions de suppressions des contenus ou d’interdiction à ceux-ci ». Un tel encadrement, rédigé d’une manière aussi large, pourrait s’avérer très intéressant pour limiter le recours au filtrage automatisé des contenus sur les plateformes en ligne, à condition toutefois qu’il soit interprété comme exigeant une intervention humaine s’agissant des filtres réalisés a priori (au moment de la mise en ligne du contenu) et pas seulement des modérations a posteriori – tout le risque de ce texte étant d’imposer en pratique des filtres a priori.

Au final, malgré quelques ajouts et modifications atténuant certains points problématiques, l’adoption de ce texte par le Parlement européen reste néanmoins avant tout une très lourde défaite. De manière générale, le texte promeut encore et toujours l’idée dangereuse que la censure des contenus en ligne peut être une réponse contre la diffusion d’idéologies meurtrières.

Surtout, en maintenant la possibilité pour une autorité administrative d’ordonner à n’importe quel acteur du Web le retrait en une heure d’un contenu (et cela sous la menace de lourdes sanctions) les institutions européennes vont forcer ces acteurs à adopter une interprétation large de la notion de « contenus terroristes » et à utiliser en amont des outils de filtrage automatisés.

Le fait d’interdire aux autorités de pouvoir imposer l’utilisation de ces outils ne change donc pas grand chose. Seuls les géants du Web pourront respecter ces obligations, d’où notre crainte d’un Web encore plus centralisé aux mains d’une poignée d’entreprises.

Enfin, les points de progrès qui ont pu être apportés par le texte de la Commission LIBE (suppression de l’article 5, adoucissement de l’article 6, délai d’une heure étendu dans certains cas précis, encadrement du filtrage automatisé) seront très certainement contestés en trilogue par la Commission européenne et les États membres les plus impliqués (dont la France). Il ne peut donc en aucun cas être crié victoire pour ces seules maigres avancées.

Et maintenant ?

Le texte tel qu’adopté sera donc la position du Parlement européen pour les négociations en trilogue à venir lors de la prochaine mandature avec la Commission européenne et le Conseil de l’Union européenne (regroupant les gouvernements des États membres). Le tout avant un autre vote, final cette fois-ci, par l’ensemble des nouveaux députés en séance plénière l’année prochaine.

Le combat est donc loin d’être déjà perdu, surtout lorsqu’on voit le nombre de voix qui ont manqué pour enlever le délai d’une heure (3 !) et les avancées (mêmes symboliques) que nous avons pu imposer en dépit des conditions et délais quasi-intenables dans lesquels s’est déroulé ce premier débat. Nous le disions en début d’article : le texte pourra encore être modifié en seconde lecture, mais cela nécessitera une nouvelle mobilisation dans quelques mois, au moment des trilogues et des débats au Parlement. Si l’on veut parvenir au rejet de ce texte, ou à tout le moins à le vider de l’essentiel de sa substance, cette mobilisation nécessitera la participation de l’ensemble des associations européennes et une implication beaucoup plus importante des médias sur le sujet, dans des circonstances qu’il faudra espérer plus propices.

C’est à cette condition que l’on peut espérer parvenir à repousser la censure de masse et automatisée qui est au cœur de ce texte.

Avant de nous lancer dans cette nouvelle lutte, prenons le temps de remercier toutes celles et ceux qui ont participé à cette campagne et ont aidé aux premières victoires qui ont pu être acquises : toutes les associations et organisations (françaises et européennes) qui ont milité, avec nous ou de leur côté, pour faire tomber ce texte ou ses pires dispositions (notamment les 61 signataires de la lettre ouverte adressée à Emmanuel Macron), toutes les personnes qui ont relayé et aidé à relayer nos articles et communications, toutes celles aussi qui ont contacté les députés européens (et celles qui sont venues le faire avec nous dans nos locaux), celles qui ont aidé la traduction de notre site (en anglais et en allemand). Merci <3 !

À dans quelques mois pour la suite de la lutte !

]]>
[FranceCulture] Entendez-vous l’éco ? Le prix du gratuit (3/4) Gratuité, données, publicitéhttps://www.laquadrature.net/2019/04/23/franceculture-entendez-vous-leco-le-prix-du-gratuit-3-4-gratuite-donnees-publicite/http://streisand.me.thican.net/laquadrature.net/index.php?20190423_130000__FranceCulture__Entendez-vous_l___eco____Le_prix_du_gratuit__3_4__Gratuite__donnees__publiciteTue, 23 Apr 2019 11:00:00 +0000« Si c’est gratuit, c’est vous le produit » : un adage vieux comme Internet pourtant sans cesse renouvelé, de scandales en tentatives de légiférer sur un « droit à l’oubli ». Que peuvent faire les individus face à la marchandisation de leurs données ? Quelles mesures de régulation envisager ? […]

Les réseaux sociaux, des services gratuits, vraiment ? On entend Benjamin Bayart dire : « C’est une impression qui est très fausse« . Il précise : « Il y a une inversion des rapports. Quand vous avez un système économique qui se base sur la publicité, vous n’êtes plus sujet de la transaction : vous en êtes l’objet. Le client, c’est le publicitaire, le vendeur est le développeur de l’application, et le produit qu’on vend, c’est vous. Ça change tout. » […]

Intervenants :

  • Fabrice Rochelandet, Professeur en sciences de l’information et de la communication à l’Université Sorbonne-Nouvelle (Paris III)
  • Benjamin Bayart, Cofondateur de la Quadrature du Net, co-président de la fédération des Fournisseur d’Accès à Internet associatifs (FFDN) […]

https://www.franceculture.fr/emissions/entendez-vous-leco/le-prix-du-gratuit-34-publicites-donnees-gratuite

[NDLRP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[BursttheBubble] Episode #4 – The EU Terrorist Content Regulation – interview with Arthur Messaudhttps://www.laquadrature.net/2019/04/22/burstthebubble-episode-4-the-eu-terrorist-content-regulation-interview-with-arthur-messaud/http://streisand.me.thican.net/laquadrature.net/index.php?20190422_130000__BursttheBubble__Episode__4_____The_EU_Terrorist_Content_Regulation_____interview_with_Arthur_MessaudMon, 22 Apr 2019 11:00:00 +0000NDLRP : entretien en français.

On 12th September 2018, the European Commission presented a regulation on preventing the dissemination of terrorist content online. Next Wednesday, 17th April 2019, the European Parliament will express its opinion on the regulation. NGOs are worried about the impact of this legislation on the rights of internet users and on the potential abuse of pre-emptive censorship. We discuss the main criticisms to the Terrorist Content Regulation with Arthur Messaud from the advocacy group « la Quadrature du Net« .(16 April 2019)

https://soundcloud.com/btb_eu/episode-4-the-eu-terrorist-content-regulation

NDLRP – Retrouvez l’entretien sur le Peertube de La Quadrature du net :

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Le Parlement adopte le retrait des contenus terroristes en une heurehttps://www.laquadrature.net/2019/04/22/nextinpact-le-parlement-adopte-le-retrait-des-contenus-terroristes-en-une-heure/http://streisand.me.thican.net/laquadrature.net/index.php?20190422_120000__NextINpact__Le_Parlement_adopte_le_retrait_des_contenus_terroristes_en_une_heureMon, 22 Apr 2019 10:00:00 +0000En séance plénière, les eurodéputés ont adopté par 308 voix pour (204 contre, 70 abstentions) le Règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. C’est la position (ou « mandat ») de la commission des libertés civiles (LIBE) qui a été retenue. […]

Pour la Quadrature du Net, très remontée contre ce texte, « d’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes ». […]

« L’obligation de censurer un contenu en une heure, avec la menace de lourdes amendes, aura pour effet de motiver les acteurs du Web à censurer en amont tout contenu potentiellement illicite, et ce en adoptant une définition la plus large possible du terrorisme pour ne pas recevoir des ordres de retraits impossibles à satisfaire en pratique » ajoute LQDN. […]

https://www.nextinpact.com/brief/le-parlement-adopte-le-retrait-des-contenus-terroristes-en-une-heure-8496.htm

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Caméras, drones, micros… Quand Saint-Étienne rêve de tranquillité urbainehttps://www.laquadrature.net/2019/04/21/nextinpact-cameras-drones-micros-quand-saint-etienne-reve-de-tranquillite-urbaine/http://streisand.me.thican.net/laquadrature.net/index.php?20190421_130000__NextINpact__Cameras__drones__micros____Quand_Saint-Etienne_reve_de_tranquillite_urbaineSun, 21 Apr 2019 11:00:00 +0000La Quadrature du Net a obtenu tout un lot de documents concernant le projet de Safe City rêvé par la ville de Saint-Étienne. Une ville intelligente, en passe d’être ultra sécurisée… jusqu’à flirter avec un univers orwellien. […]

Aux yeux de la Quadrature du Net, qui s’inquiète de la question des données personnelles et de la passivité de la CNIL, l’analyse est beaucoup moins paisible : « on retrouve ici l’idéal, partagé par toutes ces expérimentations « Safe Cities », de la surveillance complète de l’espace public, à l’aide notamment de multiples outils dits « intelligents » ayant pour but de détecter chaque bizarrerie, chaque anormalité afin de les analyser et faciliter leur rapide annihilation ». […]

https://www.nextinpact.com/news/107796-cameras-drones-micros-quand-saint-etienne-reve-tranquillite-urbaine.htm

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeProgres] A Saint-Etienne, on envisage la surveillance de l’espace public par des droneshttps://www.laquadrature.net/2019/04/21/leprogres-a-saint-etienne-on-envisage-la-surveillance-de-lespace-public-par-des-drones/http://streisand.me.thican.net/laquadrature.net/index.php?20190421_120000__LeProgres__A_Saint-Etienne__on_envisage_la_surveillance_de_l___espace_public_par_des_dronesSun, 21 Apr 2019 10:00:00 +0000Plusieurs documents révélés par l’association de défense des droits et libertés des citoyens sur internet, « La Quadrature du Net », montrent que la municipalité envisage de faire appel à des drones afin de sécuriser certaines rues. […]

Une expérimentation qui ne devrait pas rassurer les défenseurs des libertés publiques, au premier titre de l’association à l’origine de la publication des documents, qui dénonce le « rêve d’un quartier sans cris, sans bruits anormaux ou trop forts, sans tags : un quartier silencieux et débarrassé de toutes les extravagances humaines. » […]

https://www.leprogres.fr/loire-42/2019/04/18/a-saint-etienne-on-envisage-la-surveillance-de-l-espace-public-par-des-drones

NDLRP – retrouvez notre article Mouchards et drones à Saint-Etienne : le maire veut étouffer le débat.

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[BursttheBubble] The GDPR and the GAFAM – interview with Arthur Messaudhttps://www.laquadrature.net/?p=14062http://streisand.me.thican.net/laquadrature.net/index.php?20190420_130000__BursttheBubble__The_GDPR_and_the_GAFAM_____interview_with_Arthur_MessaudSat, 20 Apr 2019 11:00:00 +0000Today we introduce our mini-series on how the EU is influencing the use of the internet. In this episode we analyse the European regulation on data protection, the GDPR. With our guest Arthur Messaud, legal and political analyst at the French advocacy group « la Quadrature du Net« , we explore the link between the GDPR and the GAFAM, the top 5 companies operating in the digital market. (11 April 2018). […]

https://soundcloud.com/btb_eu/episode-3-gdpr-and-gafam

NDLRP : entretien en français à retrouver également sur le Peertube de La Quadrature du Net :

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[Usbek&Rica] Erratum : la question du futur de la démocratie est mal posée, merci de reformulerhttps://www.laquadrature.net/?p=14063http://streisand.me.thican.net/laquadrature.net/index.php?20190420_110000__Usbek_Rica__Erratum____la_question_du_futur_de_la_democratie_est_mal_posee__merci_de_reformulerSat, 20 Apr 2019 09:00:00 +0000Comment répondre à la question « Quelle politique pour le numérique ? » si les termes du débat sont mal posés ? Voilà la conclusion tirée de deux jours passés sur les bancs de l’assemblée fictive du Grand Barouf Numérique, un événement de la Métropole Européenne organisé avec Ouishare et POP. C’est parti pour une correction en bonne et dûe forme de notre copie… et du dictionnaire. […]

Le moins qu’on puisse dire, c’est que ces deux journées de grand barouf ont fait siffler les oreilles des GAFA – ou GAFAM -. Et la timide incursion de la Directrice des politiques publiques Google France, Elisabeth Bargès, arguant que “le G de GAFA” n’est pas un géant comme les autres n’aura pas suffit à calmer les véhémences. Malgré tout, plusieurs voix se sont faites entendre pour essayer de retourner un problème posé de manière a priori trop simpliste. « Nous sommes sujets à une sorte de schizophrénie » explique le co-fondateur de la Quadrature du Net Benjamin Bayart. « On veut retirer du pouvoir à Facebook, mais dans le même temps, on attend de lui qu’il fasse la police sur nos contenus. En lui demandant cela, on lui confère un pouvoir régalien – de surveillance et de sanction -, alors qu’il ne devrait qu’appliquer des décisions de justice. On ne peut pas à la fois lui donner du pouvoir et chercher à lui en retirer ». De quoi renvoyer tout le monde à ses responsabilités. […]

https://usbeketrica.com/article/erratum-question-du-futur-de-la-democratie-mal-posee

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Dernière chance pour le Parlement européen de rejeter la censure de massehttps://www.laquadrature.net/?p=14055http://streisand.me.thican.net/laquadrature.net/index.php?20190416_153718_Derniere_chance_pour_le_Parlement_europeen_de_rejeter_la_censure_de_masseTue, 16 Apr 2019 13:37:18 +0000Demain 17 avril, l’ensemble des députés européens voteront sur le règlement de censure antiterroriste. L’adoption de ce règlement ouvrirait les portes de la censure politique, de masse et sans-contrôle et détruirait le Web libre et ouvert (lire notre analyse complète).

Alors que La Quadrature appelle toujours au rejet total de ce texte inutile (voir la lettre envoyée la semaine dernière), de nouveaux amendements pourraient réduire un peu les dommages causés dans le cas où il ne serait pas entièrement rejeté (lire tous les amendements déposés ainsi que nos recommandations de vote).

Délai d’une heure

Les Verts, GUE et S&D (les trois groupes de gauche du Parlement) ont déposé des amendements qui supprimeraient l’obligation de retirer « en une heure » les contenus signalés par les autorités publiques. Tel que nous l’avons toujours expliqué, un délai aussi court est irréaliste pour toute plateformes du Web, si ce n’est les plus grosses. À moins que ce délai ne soit supprimé, les petites et moyennes plateformes devront cesser leurs activités ou se soumettre aux outils de modération de Facebook et Google.

Nous appelons les députés européens à adopter les amendements suivants, qui pourraient sauver le Web libre et ouvert de la destruction en supprimant ce délai absurde : amendements 156, 157, 158, 159, 160, 161, 162, 164.

Censure politique

En dépit de nos appels, aucun groupe politique n’a proposé d’amendement prévoyant que seuls les juges (et non la police) puissent exiger qu’une plateforme supprime un contenu qu’ils considèrent « terroriste ». Chaque député européen doit être tenu responsable de cette violation de la séparation des pouvoirs, qui ne conduira qu’à de graves censures politiques (telles qu’on a déjà pu constater en France).

La dernière chance pour remporter ce combat serait d’obtenir le rejet complet de ce règlement. En cas de défaite, nous n’oublierons jamais que l’ensemble des groupes politiques du Parlement européen ont renoncé à nous protéger contre les dérives des gouvernements.

Filtres automatiques

Un autre combat pourrait toutefois être remporté. La semaine dernière, la commission LIBE (pour « libertés civiles ») a refusé que les autorités puissent exiger aux plateformes d’utiliser des outils de filtrage automatisé. LIBE a aussi refusé de soumettre ces plateformes à une obligation générale de mettre en place des « mesures proactives » ou à ce qu’elles reçoivent des « signalement » qui les obligeraient à vérifier elles-mêmes qu’un contenu n’est pas « terroriste ».

Le PPE (le principal groupe politique de droite) a proposé des amendements pour revenir sur la plupart de ces nouvelles protections. S’agissant de cette partie du texte, les députés européens doivent catégoriquement refuser tout nouveau changement et garder le texte tel qu’adopté par LIBE. Concrètement, ils doivent adopter les amendements suivants déposés par la commission LIBE : 18D, 66, 83D, 85, 86D, 88.

Nous serons à Strasbourg demain pour suivre le vote et vous tenir informé·es.

]]>
Mouchards et drones à Saint-Etienne : le maire veut étouffer le débathttps://www.laquadrature.net/?p=14000http://streisand.me.thican.net/laquadrature.net/index.php?20190415_192055_Mouchards_et_drones_a_Saint-Etienne____le_maire_veut_etouffer_le_debatMon, 15 Apr 2019 17:20:55 +0000La Quadrature du Net publie et analyse les documents obtenus auprès de la mairie de Saint-Etienne sur son projet de « Safe City ». Micros couplés à la vidéosurveillance, drones automatisés, application de dénonciation citoyenne… Ils révèlent la ville sous-surveillance telle que fantasmée par son maire, Gaël Perdriau.

Au début du mois de mars, nous apprenions que la mairie de Saint-Étienne prévoyait d’installer, au titre d’une expérimentation, plusieurs dizaines de microphones dans un quartier de la ville afin d’en capter les « bruits suspects » et d’aider à l’intervention plus rapide des services de police.

Cette expérimentation ressemblant fortement aux projets de Smart Cities sécuritaires que nous dénonçons depuis plus d’un an, nous avons aussitôt fait une demande de communication des documents administratifs, nous adressant non seulement à la ville mais aussi la CNIL qui avait été abondamment citée dans les articles de presse. Il y a une semaine, nous avons eu les réponses à nos demandes. Tandis que la CNIL nous indique n’avoir rien à nous transmettre, la ville de Saint-Étienne nous a communiqué plus de deux cent pages de rapports, compte-rendus de réunions, courriers électroniques que nous publions ici (après un peu de caviardage pour protéger les données personnelles – voir la liste à la fin de l’article).

Ces documents permettent bien de dévoiler la « Safe City » telle que fantasmée par le maire Les Républicain de la ville, Gaël Perdriau : capteurs sonores couplés à la vidéosurveillance, drones automatisés, application type « Reporty » … le tout sous couvert de « tranquillité urbaine », d’ « attractivité du territoire » et surtout d’ « innovation technologique ». Ces documents mettent en lumière les similitudes que nous commençons à percevoir entre ces différents projets : surveillance accrue et déshumanisation de l’espace public, transformation de la ville en un terrain d’expérimentation pour des sociétés privées (ici Verney-Carron, une société spécialisée dans l’armement), subventionnement public de ces nouvelles technologies sécuritaires (ici par l’intermédiaire surprenant de l’ANRU – « Agence nationale pour la rénovation urbaine »), caractère secret et volontairement opaque de leur mise en place…

Retour en détails sur ce projet.

Des micros et des drones pour Saint-Étienne

Au travers des documents, on apprend donc que, conformément à ce qui avait été annoncé dans la presse, la mairie de Saint-Étienne souhaite procéder, au cours de l’année 2019 (sûrement quelque part entre avril et mai) à une expérimentation de type « Safe City » dans l’un de ses quartiers (celui de Tarentaize-Beaubrun-Couriot – quartier joliment qualifié de « Quartier de reconquête républicaine » dans le dispositif de « Police de sécurité du quotidien »).

Elle consisterait en la pose de « capteurs sonores » (le terme de micro est soigneusement évité tout au long des documents) dont l’ « intelligence » permettra de générer une alerte dès lors qu’ils détecteront certains types d’ « anormalités sonores » (la liste est impressionnante : coups de feu, cris, perceuse, meuleuse, klaxons, coups de sifflet, bombes aérosols, crépitements… – au point où on se demande quels bruits ne déclencheront pas d’événement). L’alerte sera remontée jusqu’à une plateforme centralisée à la disposition de la police qui pourra utiliser le système de vidéosurveillance et vérifier, par exemple, si le déplacement d’une patrouille est nécessaire ou non.

Les données collectées serviraient par ailleurs à alimenter la plateforme déjà mise en œuvre par Suez dans le cadre du projet « Digital Saint-Étienne » ; cela afin « d’expérimenter les conditions d’enregistrement et de mise en forme des évènements collectés en vue de la visualisation sur carte de ceux-ci pour constituer un outil d’aide à la décision concernant la tranquillité urbaine ».

Enfin, on apprend qu’à l’origine, le projet prévoyait en réalité deux phases : une première phase avec l’installation de ces capteurs et une seconde phase avec l’utilisation de drones « automatiques » équipés de caméras et utilisés pour la « levée de doute » des alertes, avec « visualisation rapide de la situation, permettant de mobiliser les moyens d’intervention adaptés à la situation » et qui « en cas de fuite des protagonistes (…) permettra un suivi et un guidage des forces au sol ». La création d’une application de dénonciation citoyenne type « Reporty » permettant aux habitants la « signalisation de problème » avait également été envisagée. Ces deux dernières idées, drones et application, ont néanmoins finies par être abandonnées (pour l’instant ?) au vu des nombreuses contraintes techniques et juridiques qui se posaient (les documents parlent d’une législation trop stricte avec nécessité d’un certificat de pilote, d’autorisation de la Préfecture et d’aléas météorologiques…)

Militariser l’espace public

On retrouve ici l’idéal, partagé par toutes ces expérimentations « Safe Cities », de la surveillance complète de l’espace public, à l’aide notamment de multiples outils dits « intelligents » ayant pour but de détecter chaque bizarrerie, chaque anormalité afin des les analyser et de faciliter leur rapide annihilation. Ici, c’est le rêve d’un quartier sans cris, sans bruits anormaux ou trop forts, sans tags : un quartier silencieux et débarrassé de toutes les extravagances humaines.

Quant aux réflexions abandonnées sur les drones, elles préfigurent le prochain outil phare des Smart Cities sécuritaires et dont l’utilisation a déjà commencé en France pour la surveillance des manifestations. Il faut voir l’excitation qui ressort des courriers que s’échangent les maires de Saint-Étienne et de Compiègne : dans une missive, le premier explique au second que « les drones sont un terrain d’expérimentation tout à fait pertinent auquel nombre de collectivités et d’entreprises s’intéressent » et où ils se désolent des nombreux freins qui mettent à mal leur projet. C’est d’ailleurs l’occasion pour le maire de Saint-Étienne de redéfinir son projet politique en déclarant : « Si les freins techniques doivent justement être résolus par l’innovation, il nous revient à nous, élus, de faire lever les freins administratifs et juridiques ». Un projet qui semble être soutenu par de nombreuses villes qui, s’appuyant notamment sur les propositions d’un rapport parlementaire, exigent des dérogations de survol au Ministère de l’Intérieur et réfléchissent, à l’image du maire de Saint-Étienne, à « la création d’un interlocuteur unique de lobbying sur cette question, de format associatif, [qui] pourrait représenter un levier intéressant s’agissait des échanges avec le gouvernement ». Une nouvelle association des maires de Safe Cities ?

Les réflexions sur l’intérêt ou les conséquences politiques de ces nouvelles technologies sécuritaires sont minces, si ce n’est inexistantes. Et, de toutes façons, qu’importe leur utilité car l’objectif affiché n’est pas là. Ce qui compte avant tout, c’est de faire passer Saint-Étienne pour une ville championne de l’innovation technologique, afin de développer la ville de demain » car le projet est « innovant, d’envergure nationale voire internationale ». D’ailleurs, dans cette course d’apparat entre villes concurrentes, il faut bien être la première car « le dispositif proposé n’est innovant que dans l’agencement de technologies existantes de manière inédites et dans le domaine d’application. Le critère Temps est donc essentiel puisque d’autre groupements travaillent actuellement sur des solutions proches »…

Et quitte pour cela à transformer la ville, comme c’est déjà le cas à Nice ou à Marseille, en un « territoire d’expérimentation » pour les sociétés privées qui participent au projet. Ici, c’est la société Serenicity, dirigée par Guillaume Verney-Carron, qui est également président de la société Verney-Carron, fabricant d’armes et de lanceurs de balles de défense type flash-ball (et à qui le maire donne du « cher Guillaume » et du « amicalement »). Cette société souhaitant « élargir son champ de compétence du militaire vers le civil », elle propose à la ville son nouvel attirail de surveillance, tout en se permettant de lui signaler que si elle ne se décidait pas assez vite, « ce projet sera très probablement réalisé dans une autre ville ».

Une ville durable (invivable)

Plus étonnant encore est le financement d’une partie du projet par l’ANRU, dans le cadre du « Programme d’investissement d’Avenir Ville et territoires durables ». Ce programme est originellement destiné à « permettre l’augmentation du reste pour vivre des habitants, en contribuant à la diminution des dépenses contraintes, et le renforcement de l’attractivité des quartiers prioritaires de la politique de la ville présentant les dysfonctionnements urbains les plus importants ». On pourrait alors se demander ce que vient faire l’ANRU dans l’installation des micros et des drones. La justification fournie par la mairie est la suivante :

L’agrégation de technologies encore innovantes dans le volet de la « smartcity », plus particulièrement la « safecity », comme l’internet des objets, l’utilisation de drones et de systèmes informatiques sécurisés permet d’envisager la résorption du déficit d’attractivité du quartier. En agissant avec une certaine discrétion tout d’abord sur la détection d’évènements sur l’espace public, puis sur sa prise en charge et enfin, sur son suivi à distance durant le temps d’arrivée des équipages préparés au problème, le sentiment de sécurité sur ce quartier sensible sera fortement amélioré ».

La sécurité et la surveillance deviennent ainsi composantes de la rénovation urbaine, juste bonne à sur-policiariser ces quartiers et à « sécuriser » les politiques de gentrification.

Néanmoins, les organisateurs du projet se doutent que cette explication ne passera pas pour tout le monde car, malheureusement pour eux, ils reconnaissent que « le sujet est très sensible en matière de communication ».

Une ville sur écoute

Raison pour laquelle on assiste, au long des réunions, à la recherche d’un nom de projet rassembleur et tranquillisant : on ne parle pas de sécurité mais de « tranquillité urbaine », on ne parle pas de micros et de drones mais de « S.O.F.T. : Saint-Etienne Observatoire des Fréquences du Territoire ». Raison pour laquelle il est aussi explicitement déclaré que « il n’y aura pas de communication avec le grand public. Globalement, dans un premier temps l’objectif est l’expérimentation, puis dans un second temps, une communication adaptée sera mise en place ». Raison pour laquelle le premier communiqué de presse en novembre 2018 reste très flou, mentionnant une « expérimentation visant à tester des solutions numériques pour améliorer la qualité de vie des citoyens ». Il a d’ailleurs pour sous-titre « Vers un territoire bienveillant ». La novlangue n’a plus de limite.

Quid des données personnelles ?

Le sujet est évoqué rapidement tout au long du projet, plus comme un de ces « freins administratifs et juridiques » que pour tenter d’évaluer lucidement la légalité du projet. Après quelques notes et demandes faites à la CNIL, il est décidé de ne pas enregistrer les bruits captés et de se limiter à « la détection d’évènements sonores » : « seules les données d’évènement comprenant le numéro du capteur, la date et l’heure de l’évènement et l’identifiant de l’évènement seront transmises ». Ce qui justifierait que CNIL ait ensuite été écartée du projet.

Mais ce qui n’est pas clair dans cette histoire, c’est que la CNIL nous a pourtant affirmé qu’elle ne détenait aucun document sur ce projet. Et elle n’a apporté aucun démenti aux articles de presse qui prétendaient qu’elle avait donné son accord au projet.

Concernant l’interdiction d’enregistrer des sons, il ressort des diapositives de présentation du projet qu’elle ne sera effective que dans le cadre de la « phase 1 » et que, « en vue de possibles demandes d’enregistrement dans le cadre d’enquête, une collaboration avec la CNIL est programmée afin d’intégrer leur réponse dans la solution technique ». C’est là qu’est tout le problème : une fois ces micros installés, par une société privée d’armement, qui contrôlera l’usage qui en sera fait ? Qui préviendra les habitants si l’on passe en « Phase 2 » et qu’on met un route un système d’enregistrement des conversations dans la ville ? Ou qu’on ne les utilisera pas un jour pour détecter des cibles par leur signature vocale ? Ce ne serait pas la première fois que ce type d’outils de détection sonore connaîtrait des dérives liberticides.

Pour résumer :

– On assiste à l’alliance entre élus locaux et industriels de la sécurité et de l’armement qui dépense l’argent public en s’abritant de tout débat public ;
– Pour mettre nos villes et nos vies sous surveillance — vieux fantasme du contrôle social par la technologie ;
– L’innovation et l’ « attractivité urbaine » servent à masquer la sur-policiarisation et la discrimination, avec le concourt de l’Agence de la rénovation urbaine ;
– Tandis que des autorités, comme la CNIL, laissent faire.

Il est temps d’arrêter ce délire, non ?

Liste des documents qui nous ont été communiqués :

01 Calendrier.pdf
02 Cartographie.pdf
03 Communiqué de Presse.pdf
04 Comite de pilotage.pdf
05 Courriers.pdf
06 Groupe projet.pdf
07 Note ANRU.pdf
08 Note Maire DG.pdf
09 Description du projet.pdf
10 Schéma.pdf
11 Demande de paiement.pdf
12 Mail-demande-CNIL.pdf
13 Mail-retours-CNIL-DGAC.pdf
14 Veille juridique police.pdf
15 Compte-rendu-reunion-cadre-juridique.pdf
16 FIches Outils ANRU.pdf
17 POC.pdf
18 Décision Président Sainte Etienne Métropole.pdf
19 Contrat recherche et dvp Saint-Etienne – Serenicity.pdf

]]>
[LADN] Les écrans publicitaires vous espionnent, mais vous pouvez les embrouillerhttps://www.laquadrature.net/?p=13995http://streisand.me.thican.net/laquadrature.net/index.php?20190415_140000__LADN__Les_ecrans_publicitaires_vous_espionnent__mais_vous_pouvez_les_embrouillerMon, 15 Apr 2019 12:00:00 +0000Des écrans publicitaires récoltent l’adresse des smartphones des passants afin de mesurer l’efficacité d’une pub. Le dispositif inquiète depuis quelques jours malgré sa légalité. Un codeur a développé un programme visant à gêner l’opération. […]

Ces explications et l’autorisation de la Cnil n’empêchent pas certains internautes de continuer à protester contre le dispositif, qui demeure pour certains une menace à la vie privée. Un codeur (visiblement membre de l’association La Quadrature du net) a créé un programme en open-source sur la plate-forme Framagit dans le but de gêner le comptage de Retency. Le code génère aléatoirement une adresse MAC et l’envoie automatiquement à Retency via son formulaire. « Le but est de générer un maximum d’adresses à exclure de l’opération de Retency. C’est une forme de protestation», explique l’un des codeurs ayant contribué au code (en le corrigeant). […]

https://www.ladn.eu/tech-a-suivre/ecrans-publicitaires-espionnent-embrouiller/

NDLRP : FramaGit – Retency exclusion MAC adress.

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Des billets de train via Facebook : vers une révolution du e-commerce ?https://www.laquadrature.net/?p=13996http://streisand.me.thican.net/laquadrature.net/index.php?20190415_110000__FranceCulture__Des_billets_de_train_via_Facebook____vers_une_revolution_du_e-commerce___Mon, 15 Apr 2019 09:00:00 +0000Facebook propose désormais à ses 35 millions d’utilisateurs français d’acheter directement sur son service de messagerie Messenger des billets de train SNCF. Une tendance qui devrait rapidement s’étendre à de nombreux réseaux sociaux, lancés à l’assaut du e-commerce. […]

Pour le moment en France, les informations bancaires sont uniquement communiquées à la marque, en l’occurrence la SNCF, et non pas à Facebook. Juste une question de temps pour Klorydryk, membre de La Quadrature du Net. « C’est tout à fait habituel de voir des plateformes changer les règles du jeu une fois qu’ils sont rentrés dans le quotidien des gens. Et quand Facebook va d’imposer que le paiement passe par chez eux ou bien une commission, la SNCF va déchanter puisque les utilisateurs auront pris leurs habitudes, et il sera très dur de revenir en arrière » explique-t-il. […]

https://www.franceculture.fr/emissions/le-reportage-de-la-redaction/facebook-vers-une-revolution-du-e-commerce

NDLRP : extrait à retrouver sur le peertube de La Quadrature du Net.

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[AligreFM] Voix contre oreille # 27 mars 2019 – Les géants du web refusent de se soumettre aux lois européenneshttps://www.laquadrature.net/?p=13994http://streisand.me.thican.net/laquadrature.net/index.php?20190413_150000__AligreFM__Voix_contre_oreille___27_mars_2019_____Les_geants_du_web_refusent_de_se_soumettre_aux_lois_europeennesSat, 13 Apr 2019 13:00:00 +0000Les géants du web refusent de se soumettre aux lois européennes

Exploitation des données personnelles, Surveillance, Influence, Evasion fiscale, Captation des contenus, décidément , les G A F A M ont tendance à faire leurs propres lois.

On savait déjà que les GAFAM ne paient pas leurs impôts mais également en matière de protection des données personnelles, ils ne respectent pas les règles européennes.

Avec :

  • Klorydryk, membre de la Quadrature du Net
  • Martin Drago, juriste à La Quadrature du Net

http://aligrefm.org/podcasts/les-geants-du-web-refusent-de-se-soumettre-aux-lois-europeennes-415

NDLRP : l’entretien sur le Peertube de La Quadrature du Net.

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[ReporTerre] Au nom de la lutte anti-terroriste, l’Europe menace de censurer Internethttps://www.laquadrature.net/?p=13993http://streisand.me.thican.net/laquadrature.net/index.php?20190413_140000__ReporTerre__Au_nom_de_la_lutte_anti-terroriste__l___Europe_menace_de_censurer_InternetSat, 13 Apr 2019 12:00:00 +0000Le Parlement européen se prononcera lundi 1er avril sur le règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Les auteurs de cette tribune soulignent que l’interprétation juridique très large du terme « terroriste » fait de ce texte un outil liberticide, qui rejoindrait l’arsenal de la « censure politique » que fabrique le gouvernement.

Marne est militante de La Quadrature du Net. Cette association défend les libertés fondamentales dans l’environnement numérique. L’association lutte contre la censure et la surveillance, que celles-ci viennent des États ou des entreprises privées. Elle œuvre pour un Internet libre, décentralisé et émancipateur. […]

https://reporterre.net/Au-nom-de-la-lutte-anti-terroriste-l-Europe-menace-de-censurer-Internet

NDLRP : La Commission LIBE (pour « Libertés civiles ») vient d’adopter le 8 avril 2019 le rapport sur le règlement de censure antiterroriste. Ce rapport sera le texte discuté dans quelques jours par l’ensemble du Parlement européen. Retrouvez sur le site :

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Lettre aux députés européens : rejetez la censure de massehttps://www.laquadrature.net/?p=13987http://streisand.me.thican.net/laquadrature.net/index.php?20190412_151946_Lettre_aux_deputes_europeens____rejetez_la_censure_de_masseFri, 12 Apr 2019 13:19:46 +0000Hier, La Quadrature du Net a envoyé aux 751 députés européens la lettre traduite ci-dessous.

Nous les appelons à rejeter le règlement de censure terroriste qui, en plus d’être inutile, ouvrira les portes de la censure de masse, conduisant vers la censure politique et la destruction de l’Internet pour lequel nous nous battons. Dans la perspective où le texte ne serait pas entièrement rejeté, nous les appelons à corriger au moins ses pires parties.

Après l’adoption par la commission LIBE de son rapport lundi dernier (lire notre réaction), le règlement sera voté en première lecture par l’ensemble des députés européens ce 17 avril à 17h (voir le projet de calendrier).

Si le Parlement devait adopter le texte, le débat se poursuivrait probablement dans les quelques mois après les élections européennes : le Conseil de l’UE (qui rassemble les gouvernements de tous les États membres) et le Parlement européen devraient chercher un compromis entre le texte adopté par chacun d’eux en première lecture (lire notre réaction au texte adopté par le Conseil en décembre dernier).

Avant cela, rejoignez-nous et contactez les députés européens via notre page de campagne ! (la page existe aussi en allemand et en anglais) La grande majorité des députés n’ont encore jamais vraiment entendu parler de ce texte : chacune de nos voix sera décisive pour façonner leur opinion et les alerter.

Censure Terroriste : rejetez la censure de masse

Chers députés européens,

La semaine prochaine, vous voterez le règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce texte est sur le point d’ouvrir les portes de la censure de masse et sans contrôle, qui conduira (et a déjà conduit) à la censure politique et à la destruction de l’écosystème numérique européen, au profit de Google et Facebook.

Ce règlement n’aidera pas à lutter contre la propagande terroriste : les personnes qui défendent des idéologies meurtrières se réunissent sur des plateformes qui comptent déjà violer et contourner nos lois et qui ne se soumettront jamais aux demandes de retrait. Lorsque leur propagande atteint les autres plateformes, les solutions techniques pour empêcher leur mise en ligne et leur propagation ont déjà démontré être un échec : même Facebook et Google n’ont pas pu arrêter la propagation sur leur plateforme de la vidéo de l’attaque de Christchurch.

Ce règlement ne mènera qu’à promouvoir des solutions techniques dangereuses et inutiles. Les idéologies meurtrières ne peuvent être combattues que par des changements structurels et sociétaux.

Pour l’ensemble de ces raisons, La Quadrature vous appelle à rejeter ce texte.

Dans la perspective où il ne pourrait pas être entièrement rejeté, trois choses devraient au minimum être faites avant le vote final.

1 – Supprimez le délai d’une heure pour retirer les contenus

Seuls les géants du Web ont les capacités humaines et techniques pour retirer « en une heure » des contenus qui leur seraient notifiés. Les plateformes non-lucratives et les petites et moyennes entreprises n’ont pas la capacité de répondre 24h/24 et 7j/7 à ces demandes (car elles n’ont pas de personnel travaillant tous les jours ni 24h/24), ni d’identifier et de retirer les contenus dans un délai si court.

La seule possibilité pour ces acteurs de ne pas se retrouver en violation systématique de ce règlement (et de risquer des lourdes amendes financières) sera de mettre fin à leurs activités ou de retirer tout contenu « problématique » à l’avance en utilisant les outils de filtrage automatique développés par Google et Facebook.

Ces outils mèneront au contournement du juge et à la censure politique. Ils donneront à Google et à Facebook d’immenses pouvoirs économiques, techniques et politiques sur l’écosystème numérique européen. Votre devoir est précisément de protéger cet écosystème contre de tels prédateurs.

La Quadrature du Net vous appelle à adopter tout amendement supprimant ce délai d’ « une heure ».

2 – Exigez que seul un juge puisse ordonner un retrait

La proposition de règlement autoriserait des autorités administratives à ordonner à toute plateforme du Web le retrait d’un contenu qu’elle considérerait comme « terroriste ».

La loi française autorise déjà ce type de mesures, ce qui a permis à la police française d’utiliser le prétexte du « terrorisme » pour censurer des contenus politiques qui n’avaient rien à voir avec le terrorisme (les juges n’ont pu déclarer cette censure comme étant illégale que 1,5 an après l’ordre de retrait). De la même manière, durant ces dernières semaines, le site Internet Archive a listé 550 URLs qu’Europol et la police française lui ont faussement notifiés comme étant de la propagande terroriste.

C’est pourquoi de tels ordres de retrait ne devraient être émis que par un juge, et non aussi par une « autorité administrative fonctionnellement indépendante », comme cela est pourtant permis dans le rapport LIBE. Une telle définition permettrait à la police française, l’OCLCTIC, d’être désignée comme une telle autorité et de poursuivre ses demandes de censure illégales et non contrôlées.

La Quadrature du Net vous appelle à adopter tout amendement qui rendrait obligatoire la décision préalable d’un juge avant tout ordre de retrait.

3 – Respectez l’interdiction des outils automatisés votée par LIBE

Vos collègues de la Commission LIBE ont amendé avec sagesse l’article 6, en refusant que des autorités publiques puissent imposer à des plateformes l’usage d’outils de filtrage automatisé.

Ces outils informatiques, développés par Google et Facebook, ont prouvé leur inutilité face à une propagande humaine organisée, comme celle qui a eu lieu sur leurs plateformes lors de la diffusion de la vidéo de l’attaque de Christchurch. D’un autre côté, ces outils ont également démontré conduire systématiquement à une large censure de contenus parfaitement licites, et ont même nuit à des discours visant à lutter contre ces idéologies meurtrières.

Pour ces raisons, la Commission LIBE a également fait inscrire à l’article 9 l’obligation pour les plateformes de prévoir une vérification humaine avant le retrait de chaque contenu illicite.

La Quadrature du Net vous appelle à rejeter tout amendement qui supprimerait ces garanties nécessaires à nos droits fondamentaux, telles qu’adoptées par la Commission LIBE dans son rapport.

]]>
Le Parlement européen valide la censure de masse (Règlement antiterroriste)https://www.laquadrature.net/?p=13917http://streisand.me.thican.net/laquadrature.net/index.php?20190408_171452_Le_Parlement_europeen_valide_la_censure_de_masse__Reglement_antiterroriste_Mon, 08 Apr 2019 15:14:52 +0000La Commission LIBE (pour « Libertés civiles ») vient d’adopter le rapport sur le règlement de censure antiterroriste. Ce rapport sera le texte discuté dans quelques jours par l’ensemble du Parlement européen.

Le texte, tel qu’adopté1Le rapport adopté aujourd’hui n’est pas encore publié mais correspond presque entièrement à ces amendements de compromis., prévoit qu’une autorité d’un État membre (administrative ou judiciaire) peut obliger n’importe quel acteur de l’Internet à retirer en une heure un contenu qu’elle considère comme terroriste. Cette obligation irréaliste aura pour conséquence la destruction des petites et moyennes plateformes. Elle ne fera que renforcer la domination de Google et Facebook qui travaillent déjà avec les États pour mettre en place une censure de masse sans contrôle – c’est le but même de ce règlement proposé en septembre dernier par la Commission européenne.

Encore une fois, le Parlement européen a prouvé qu’il était incapable de résister à la pression de la Commission européenne et des gouvernements. Après l’adoption de la directive Copyright il y a deux semaines, ce vote est une nouvelle étape, encore plus grave, vers la censure de masse automatisée.

Le prochain vote pourrait être dès la semaine prochaine, durant la dernière session plénière du Parlement européen. Notre combat n’est donc pas fini : la plupart des députés européens ne sont pas encore au courant de ce règlement. Nous devons les appeler dès demain pour leur faire entendre nos arguments.

Visitez notre page dédiée pour les contacter et les convaincre de refuser la censure de masse.

References   [ + ]

1. Le rapport adopté aujourd’hui n’est pas encore publié mais correspond presque entièrement à ces amendements de compromis.
]]>
[Regards] Benjamin Sonntag : « La directive droit d’auteur inscrit dans le droit la censure automatisée »https://www.laquadrature.net/?p=13837http://streisand.me.thican.net/laquadrature.net/index.php?20190405_140000__Regards__Benjamin_Sonntag________La_directive_droit_d___auteur_inscrit_dans_le_droit_la_censure_automatisee____Fri, 05 Apr 2019 12:00:00 +0000La directive droit d’auteur a été adoptée hier au Parlement européen. Avec quelles conséquences ? Une alternative était-elle possible ? Est-elle toujours possible ? Benjamin Sonntag, co-fondateur de Quadrature du Net, est l’invité de la Midinale. […]

« Il faut écouter les citoyens qui se mobilisent et réfléchissent aux enjeux du numérique et des plateformes et qui disent : “vous êtes en train d’apporter une mauvaise réponse à un faux problème”. » […]

http://www.regards.fr/la-midinale/article/benjamin-sonntag-la-directive-droit-d-auteur-inscrit-dans-le-droit-la-censure

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Au nom de la lutte anti-terroriste, l’Europe menace de censurer Internethttps://www.laquadrature.net/?p=13899http://streisand.me.thican.net/laquadrature.net/index.php?20190405_120259_Au_nom_de_la_lutte_anti-terroriste__l___Europe_menace_de_censurer_InternetFri, 05 Apr 2019 10:02:59 +0000Nous republions la tribune de Marne dans Reporterre.

Depuis les attentats de 2015, la lutte contre le terrorisme est devenue un sujet majeur dans le jeu de la politique. Dans un pays où les élites se plaignent d’une défiance de plus en plus grande du peuple à l’égard des dirigeants et des médias, « le terroriste » représente l’ennemi commun idéal contre lequel se serrer les coudes. Du Parti socialiste au Rassemblement national, une grande partie du spectre politique surfe sur cette vague de peur, entretenue par certains médias généralistes, proposant coup sur coup : déchéance de nationalité, inscription de l’état d’urgence dans le droit commun, fermeture des frontières, interdictions de manifestation, assignations à résidence…

En mai prochain auront lieu les élections européennes, occasion pour ces « antiterroristes » de tous bords de se réveiller et de faire la démonstration de leur capacité à lutter farouchement contre l’insécurité. Emmanuel Macron n’est pas en reste, en poussant une loi européenne de censure de contenus terroristes sur Internet. À la suite de cet appel du pied, la Commission européenne a donc publié en septembre dernier une proposition de règlement — c’est-à-dire une loi directement applicable dans les États membres de l’union — « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Le texte est actuellement en discussion au Parlement, le vote décisif aura lieu le 1er avril.

Il n’a pas échappé aux Gafam qu’un gigantesque marché de la modération s’ouvrait

Pour atteindre ses objectifs, le règlement prévoit de mobiliser tous les acteurs d’Internet, du petit forum associatif aux gros réseaux sociaux en passant par un média comme Reporterre. Tous devront s’engager dans la bataille contre le terrorisme, et mettre en place des mesures pour censurer automatiquement les fameux « contenus à caractère terroriste  ». Censurer de manière automatique signifie, au choix : développer des méthodes de reconnaissance automatique des contenus terroristes, ce qui est très coûteux (et aléatoire) ; ou avoir recours aux outils de modération que proposeront les Gafam, auxquels il n’a pas échappé qu’un gigantesque marché de la modération s’ouvrait.

Si un acteur ne censure pas un tel contenu, la police ne manquera pas de le lui signaler. Il devra alors retirer ce contenu en moins d’une heure. Cela impose à ces acteurs, souvent des associations ou de petits médias, d’avoir une personne disponible, tous les jours et à toute heure, pour obéir aux ordres de la police.

Autre point frappant dans ce texte, c’est le contournement du juge, normalement seul en mesure de déterminer si un contenu est terroriste ou non. Ici, ce sont les acteurs d’Internet qui sont désignés censeurs officiels. Dans le cas où ils ne seraient pas suffisamment stricts, la police pourra également utiliser son droit de censure. Afin de motiver les acteurs à ne pas être trop laxistes, le règlement prévoit des sanctions pénales et une amende pouvant atteindre jusqu’à 4 % de son chiffre d’affaires mondial à celui qui ne respecterait pas ces obligations.

L’opposition à l’aéroport de Notre-Dame-des-Landes, un « acte terroriste » selon la définition européenne

Venons-en au fondement sur lequel nos censeurs doivent s’appuyer pour censurer : il s’agit de la définition d’« infractions terroristes » données par le droit de l’Union européenne. Elle concerne les meurtres ayant pour objectif de terroriser la population mais égrène également une longue liste d’exemples d’« infractions terroristes ». Liste au sein de laquelle le fait de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables » ou encore de “gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays » sont considérés comme autant d’actes terroristes. La simple menace de commettre de tels actes entre également dans la définition.

Dans un contexte où la stratégie globale des dirigeants est d’assimiler toute forme d’opposition à des extrémistes, des casseurs, des haineux et des violents, la figure du terroriste se révèle bien pratique. Nous sommes maintenant bien habitués à entendre parler de terrorisme d’« ultragauche » qui intercepte des lignes de TGV, de terrorisme végane qui vandalise les boucheries, de terrorisme vert qui occupe des centrales nucléaires.

L’occupation de la Zad de Notre-Dame-des-Landes empêchant de construire un aéroport a des conséquences économiques, et c’est une action qui vise à « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque », un des buts qui, selon le droit de l’Union européenne, pourrait permettre de qualifier un acte comme terroriste.

En avril 2018, après le retrait du projet d’aéroport à Notre-Dame-des-Landes, les occupants de la Zad étaient régulièrement qualifiés de terroristes sur les plateaux de télévision1Gérard Feldzer, membre de la mission de médiation sur l’aéroport de Notre-Dame-des-Landes, disait par exemple en parlant des actions des occupants toujours présents sur la Zad, « il y a un peu de terrorisme derrière ça »..

Cette interprétation de la notion de terrorisme peut sembler assez grotesque, pourtant, elle ne l’est pas au regard de la définition de terrorisme du droit de l’Union européenne. En effet l’occupation empêchant de construire cet aéroport a des conséquences économiques, et c’est une action qui vise à « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque », un des buts qui, selon le droit de l’Union européenne, pourrait permettre de qualifier un acte comme terroriste.

Ce règlement n’est qu’une partie de la machine à censure politique que construit le gouvernement

Avec une interprétation aussi large de cette définition, un appel à la grève générale ou au boycottage de certains produits pourrait également être considéré comme des « infractions terroristes ».

Après avoir rendu l’opposition politique inacceptable par le langage, elle est rendue illégale par le droit. Ce règlement n’est qu’une partie de la machine à censure politique que construit le gouvernement. La loi dite « anticasseurs » et la loi contre la haine en ligne, actuellement en préparation, sont construites dans la même logique. C’est en interdisant certaines actions politiques et en bridant la liberté d’expression de ses opposants qu’Emmanuel Macron entend garder le pouvoir.

La censure n’est qu’un élément de l’arsenal du pouvoir pour garder le contrôle d’un peuple qui ne le soutient plus. L’autre face de ce système répressif n’est autre que la surveillance. Surveillance et censure sont les deux principaux combats de La Quadrature du Net pour un Internet libre. C’est pourquoi elle appelle aujourd’hui les opposants au pouvoir en place et tous ceux qui veulent préserver un semblant de liberté d’expression sur Internet à appeler les députés européens chargés du texte pour leur demander de s’opposer à ce règlement de censure avant le 1er avril, date du vote en commission. Les numéros des députés et les arguments contre le texte sont sur le site de La Quadrature du Net.

References   [ + ]

1. Gérard Feldzer, membre de la mission de médiation sur l’aéroport de Notre-Dame-des-Landes, disait par exemple en parlant des actions des occupants toujours présents sur la Zad, « il y a un peu de terrorisme derrière ça ».
]]>
[ActuaLitte] Directive droit d’auteur : auteurs, éditeurs, ministère, cette étrange unanimitéhttps://www.laquadrature.net/?p=13838http://streisand.me.thican.net/laquadrature.net/index.php?20190405_120000__ActuaLitte__Directive_droit_d___auteur____auteurs__editeurs__ministere__cette_etrange_unanimiteFri, 05 Apr 2019 10:00:00 +0000Très attendu ce 26 mars, le vote au Parlement européen de Strasbourg. Une journée historique pour la culture et l’Europe, indiquent les partisans du texte qui a été adopté. Et tout un chacun de saluer une réforme considérée comme équilibrée dans les règles d’utilisation des contenus culturels sur internet… […]

Il ne fallait en revanche pas attendre de la Quadrature du Net qu’elle cautionne l’adoption, et son discours fait douloureusement contrepoint — plus argumenté par ailleurs — aux réjouissances collectives. « Croyant agir au nom de la défense des auteurs et de la liberté de la presse, l’Union européenne vient au contraire de renforcer la dépendance de l’industrie de la culture et de la presse aux géants du Web, Google et Facebook en tête. » […]

https://www.actualitte.com/article/lecture-numerique/directive-droit-d-auteur-auteurs-editeurs-ministere-cette-etrange-unanimite/94035

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Alterpresse68] Au parlement européen de Strasbourg, c’est “gardarem lou matraque” sur le droit d’auteur ?https://www.laquadrature.net/?p=13839http://streisand.me.thican.net/laquadrature.net/index.php?20190404_140000__Alterpresse68__Au_parlement_europeen_de_Strasbourg__c___est____gardarem_lou_matraque____sur_le_droit_d___auteur___Thu, 04 Apr 2019 12:00:00 +0000[…] A l’occasion de la session parlementaire du Parlement européen à Strasbourg, Luc Ueberschlag et Jeanne Roy se sont attachés à interroger des partisans et adversaires de la directive, dont les ramifications et conséquences pourraient être nombreuses, y compris pour votre journal électronique favori, dès lors que celle-ci sera transposée en droit français… […]

Tout comme Martin Drago, juriste auprès de l’association de défense du logiciel libre, et farouche partisan de la protection des données personnelles et de la vie privée, “La quadrature du net“ […]

https://www.alterpresse68.info/2019/03/27/au-parlement-europeen-de-strasbourg-cest-gardarem-lou-matraque-sur-le-droit-dauteur/

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[FranceCulture] Droits d’auteur : ce qui change avec la nouvelle directive européennehttps://www.laquadrature.net/?p=13840http://streisand.me.thican.net/laquadrature.net/index.php?20190404_120000__FranceCulture__Droits_d___auteur____ce_qui_change_avec_la_nouvelle_directive_europeenneThu, 04 Apr 2019 10:00:00 +0000Le Parlement européen a adopté ce mardi la directive sur les droits d’auteur, censée mieux rétribuer les médias et les artistes à l’ère du numérique. Ce texte, combattu par les grandes plateformes américaines et par les partisans de la liberté du net, doit entrer en vigueur dans les deux ans. […]

Mais les collectifs d’internautes ne sont pas rassurés pour autant et pointent du doigt les risques de dérives de cette directive. Seules les grandes plateformes vont avoir les moyens d’investir dans des mécanismes de filtrage de contenus qui sont extrêmement coûteux. Ce filtrage imposé par l’UE risque donc de donner encore plus de pouvoir aux plus grandes plateformes, qui dominent déjà internet. Des associations de défense des internautes, comme la Quadrature du net, critiquent ainsi “une directive Copyright qui sert de laboratoire aux logiques de censure automatisée”. […]

https://www.franceculture.fr/numerique/droits-dauteur-ce-qui-change-avec-la-nouvelle-directive-europeenne

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[FranceInter] Réforme européenne du droit d’auteur : « Le principe de censure automatique devrait effrayer tout le monde »https://www.laquadrature.net/?p=13841http://streisand.me.thican.net/laquadrature.net/index.php?20190403_140000__FranceInter__Reforme_europeenne_du_droit_d___auteur________Le_principe_de_censure_automatique_devrait_effrayer_tout_le_monde____Wed, 03 Apr 2019 12:00:00 +0000Après deux années de débat et de lobbying intense, le Parlement européen a adopté ce mardi un nouvel ensemble de règles régissant du droit d’auteur. Pour Benjamin Sonntag, cofondateur de l’association « La Quadrature du net« , opposée au texte, cette directive va porter atteinte aux libertés publiques.

Benjamin Sonntag (La Quadrature du net) – Elle présente un certain nombre de dangers, notamment de censure automatisée sur internet. Bien qu’elle ne s’applique qu’aux géants comme Google ou Facebook, on voit très régulièrement des lois s’élargir, deux ou trois ans après, à tout le monde. Cette directive européenne, comme elle applique une censure a priori aux contenus publiés par les internautes sur Youtube et Facebook, ça risque de concerner à terme toutes les plateformes, et d’imposer une charge énorme d’automatisation, de filtrage des contenus et de censure à de tous petits opérateurs. […]

https://www.franceinter.fr/culture/directive-droit-d-auteur-le-principe-de-censure-automatique-devrait-effrayer-tout-le-monde

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Règlement terroriste : derniers jours pour s’opposer à la censure d’Internethttps://www.laquadrature.net/?p=13849http://streisand.me.thican.net/laquadrature.net/index.php?20190403_122109_Reglement_terroriste____derniers_jours_pour_s___opposer_a_la_censure_d___InternetWed, 03 Apr 2019 10:21:09 +0000Lundi 8 avril, le projet de règlement sur la censure antiterroriste sera voté en commission LIBE au Parlement européen. Après déjà plusieurs reports du vote, les députés, toujours sous la pression de la Commission européenne et de certains États membres, devraient cette fois adopter ce texte. Il ne reste donc que quelques jours pour les appeler et leur demander de le rejeter.

Présenté en septembre dernier par la Commission européenne, et soutenu de manière intensive par les gouvernements français et allemand, ce texte a parcouru les étapes de la procédure législative européenne à un rythme extrêmement rapide, si ce n’est expéditif : présenté en septembre par la Commission européenne, adopté par le Conseil de l’Union européenne début décembre, il est aujourd’hui dans les mains de la Commission LIBE (pour Libertés civiles) au Parlement européen, après la publication des rapports (décevants) des commissions saisis pour avis.

Un nouveau texte pour la censure automatisée

Prétendant lutter contre la « diffusion des contenus à caractère terroriste en ligne », le texte cherche à soumettre l’ensemble des acteurs de l’Internet à des obligations aussi strictes qu’absurdes. Ainsi, le règlement veut permettre à l’autorité de n’importe quel État membre de l’Union européenne (que ce soit la police ou une juridiction) de forcer un hébergeur à retirer en une heure un contenu que cette autorité aura considéré comme terroriste. Par ailleurs, le texte encourage et permet d’imposer la mise en place de mesures proactives pour lutter contre la diffusion de ces contenus, y compris des outils de filtrage automatique. Le tout sous la menace de lourdes sanctions financières.

Pour une présentation plus complète du texte, nous avons créé une page dédiée sur notre site.

Outre nos articles et appels répétés à contacter les députés sur ce texte, de nombreuses organisations et associations ont régulièrement essayé d’alerter les gouvernements sur les dangers de ce règlement (voir encore ce matin la lettre publiée par des « personnalités » de l’Internet). Cela a également été le cas (de manière plus ou moins mesurée) pour certaines institutions internationales, dont trois rapporteurs du Haut-Commissariat des Nations unies aux droits de l’homme, le Contrôleur européen de la protection des données, ou encore l’Agence des droits fondamentaux de l’Union européenne. En vain.

Quelques jours à peine après l’adoption de la directive sur le droit d’auteur, qui est venue institutionnaliser le filtrage automatique pour une partie d’Internet, le Parlement européen est sur le point d’adopter (pour l’instant au niveau d’une commission) un nouveau texte liberticide, cette fois-ci à l’encontre de l’ensemble d’Internet. Cet objectif d’étendre les outils de filtrage automatisé développés par Google et Facebook à tous les acteurs n’est ici d’ailleurs pas dissimulé et est au contraire clairement apparu dès les premières discussions du texte (voir notre analyse détaillée). L’actualité récente a pourtant encore démontré l’absurdité à vouloir rendre obligatoires les outils développés par les grandes plateformes : si même ces dernières n’ont pas réussi à retirer (comme elles s’en vantaient pourtant) les contenus signalés suite à l’attentat de Christchurch en une ou vingt-quatre heures, qu’en aurait-il été, en cas d’adoption de ce texte, pour les petits acteurs de l’Internet qui n’ont pas les moyens financiers et humains de Facebook et Google ? Et cela alors qu’une partie du problème pourrait justement venir de la structure et du rôle de ces grandes plateformes dans la diffusion massive de ces contenus.

Néanmoins, l’urgence avec laquelle est poussée ce texte empêche toute réflexion de fond.

Toujours plus de pression

En effet, malgré ces nombreuses alertes, la Commission européenne et certains gouvernements continuent de mettre une pression toute sauf démocratique sur les députés. Les gouvernements français et allemand ont ainsi envoyé une lettre aux députés il y a deux semaines en énonçant :

« Il nous semble impératif de tout faire pour chercher à aboutir sur ce projet de texte dans les quelques jours devant nous avant la clôture des travaux parlementaires de l’actuelle législature du Parlement européen ».

Pour la Commission européenne, c’est encore plus étonnant : alors que le vote était encore prévu le 1er avril en Commission LIBE, Julian King, le commissaire européen en charge du dossier, souhaitait le faire voter au Parlement deux jours plus tard, le 3 avril, pour commencer les trilogues dès le 4 avril…

Soulignons que les derniers compromis en discussion au sein de la Commission LIBE sont encore loin d’être satisfaisants. Si des efforts sont faits pour que l’autorité désignée soit une autorité indépendante (mais là encore, la notion d’indépendance dépend de l’interprétation de chaque État membre), le texte mentionne toujours l’obligation (impossible pour un très grand nombre d’acteurs) de retrait des contenus en une heure. Plus précisément, les autorités auraient l’obligation d’ « essayer de prendre contact » avec l’hébergeur douze heures avant l’ordre de retrait, ce qui ne change pas grand chose… Par ailleurs, si la Commission LIBE essaie de retirer aux autorités le pouvoir d’imposer des outils de filtrage automatique, ces derniers sont encore bien présents dans le texte. Il en fait même la promotion en les affichant comme des outils essentiels dans la lutte contre le terrorisme. De toute manière, comme nous le répétons depuis plusieurs mois, l’obligation de retrait d’un contenu en une ou treize heures, couplée avec la menace d’une sanction importante, poussera une grande partie des acteurs à adopter ces outils de filtrage automatique.

Il est donc plus que jamais essentiel de ne pas baisser les bras sur ce combat. Car, à lire les communiqués d’une des associations ayant le plus œuvré pour l’adoption de ce texte, si le sujet est aujourd’hui celui de la censure automatisée, le prochain est sans aucun doute celui du chiffrement de nos conversations.

Jusqu’au 8 avril, appelons nos députés. Demandons le rejet de ce texte.

]]>
[Mediapart] Droit d’auteur: l’Europe prend un virage risquéhttps://www.laquadrature.net/?p=13842http://streisand.me.thican.net/laquadrature.net/index.php?20190403_120000__Mediapart__Droit_d___auteur__l___Europe_prend_un_virage_risqueWed, 03 Apr 2019 10:00:00 +0000En adoptant la directive sur le droit d’auteur mardi à Strasbourg, les députés européens transfèrent aux entreprises du Web la responsabilité de s’assurer que les utilisateurs, en l’occurrence les internautes qui publient des « contenus», respectent la législation. La voie vers une censure privée que seuls les géants américains auront les moyens d’exercer, dénoncent les opposants au texte. […]

Le 21 mars, la Quadrature du Net avait une nouvelle fois appelé au rejet d’un texte qui « ne comporte aucun élément tangible qui améliorerait la situation des créateurs ». Ce mardi, l’association a déploré que l’UE ait cédé « au lobbying intense et fallacieux des industries de la presse et de la culture, ainsi qu’à la pression de plusieurs gouvernements européens (avec la France en première ligne) ». Opposée de longue date à un texte qui ne fera que « déléguer encore plus de pouvoir » aux grandes entreprises de l’Internet, la Quadrature souligne que celles-ci « voient sûrement avec plaisir l’ouverture d’un nouveau marché très porteur, celui des filtres automatiques. Déjà leaders sur ce sujet, les géants ne seront sûrement pas mécontents de le voir institutionnalisé et consacré par l’Union européenne ».

https://www.mediapart.fr/journal/international/260319/droit-d-auteur-l-europe-prend-un-virage-risque

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[20Minutes] Grand barouf numérique: On a vu le futur de la démocratie et il y a (peut-être) un peu d’espoirhttps://www.laquadrature.net/?p=13843http://streisand.me.thican.net/laquadrature.net/index.php?20190402_140000__20Minutes__Grand_barouf_numerique__On_a_vu_le_futur_de_la_democratie_et_il_y_a__peut-etre__un_peu_d___espoirTue, 02 Apr 2019 12:00:00 +0000Reportage. On a endossé le costume de député dans une session parlementaire du futur. […]

Voter sur les réseaux sociaux ? Mauvaise idée. Les futurs électeurs voteront-ils pour leur président de la République à l’aide de leurs outils numériques ? Benjamin Bayart, co-président de La Quadrature du Net et militant de la neutralité du net, a mis en garde les députés présents dans la salle. « Ne faites jamais passer un vote sérieux par un ordinateur, vous ne savez pas ce que fait le programme, a-t-il insisté. Le vote secret est une condition non-négociable à la démocratie, or on ne peut contrôler un vote sur ordinateur que si on sait qui a voté quoi ». Et que ferait un réseau social avec cette donnée entre ses mains ? […]

https://www.20minutes.fr/arts-stars/culture/2480767-20190325-grand-barouf-numerique-vu-futur-democratie-peut-etre-peu-espoir

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LADN] J’ai joué à la députée, taxé Facebook et sauvé des ordinateurs au Grand barouf numériquehttps://www.laquadrature.net/?p=13844http://streisand.me.thican.net/laquadrature.net/index.php?20190402_120000__LADN__J___ai_joue_a_la_deputee__taxe_Facebook_et_sauve_des_ordinateurs_au_Grand_barouf_numeriqueTue, 02 Apr 2019 10:00:00 +0000Au Grand barouf numérique à Lille, j’ai passé 10 heures dans la peau d’une députée. L’idée ? Imaginer le futur de la démocratie à l’ère digitale. Une expérience qui a remis en question mes pratiques numériques et ma certitude qu’il est trop compliqué de contourner Facebook, Google and cie. […]

Aucun représentant des Big tech n’est venu se défendre. Dommage. Un boulevard s’ouvre pour les défenseurs du web libre présents sur scène. Quelques phrases m’interpellent. « Les autorités sont schizophrènes, elles veulent protéger nos données et en même temps confèrent plus de pouvoirs aux GAFA en leur demandant de contrôler et sanctionner les propos haineux. Moi je ne veux pas qu’on leur donne plus de pouvoir, je veux qu’on leur en retire », martèle Benjamin Bayart, co-fondateur de la Quadrature du Net. […]

https://www.ladn.eu/tech-a-suivre/10-heures-depute-grand-barouf/

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Marianne] Vente de billets SNCF sur Facebook : la fausse bonne idée ?https://www.laquadrature.net/?p=13845http://streisand.me.thican.net/laquadrature.net/index.php?20190401_140000__Marianne__Vente_de_billets_SNCF_sur_Facebook____la_fausse_bonne_idee___Mon, 01 Apr 2019 12:00:00 +0000La SNCF a démarré ce mercredi 20 mars un partenariat avec Facebook. Objectif : permettre aux 35 millions de Français inscrits sur le réseau social de commander leurs billets directement sur la plateforme. Séduisante de facilité, l’initiative n’est pourtant pas sans poser quelques questions. […]

Mais si l’attrait business du partenariat n’est pas à démontrer, sa mise en place soulève néanmoins plusieurs questions de fond. A la Quadrature du net, association de préservation des libertés sur Internet, on s’interroge ainsi sur la pertinence de donner au réseau social une compétence, à dimension de service public, jusque-là assurée entièrement par la SNCF : « A cause de la prédominance des grosses plateformes, même les services publics se sentent obligés de proposer leurs services par leur intermédiaire« , regrette Alexis Fitzjean Ó Cobhthaigh, avocat et membre de la Quadrature du Net. Avec ce partenariat, Facebook va en effet être amené à avoir un impact croissant sur l’activité commerciale de la SNCF : « De fait, elle est en train de se placer dans une forme de dépendance par rapport à Facebook« , poursuit-il avant d’ajouter, très sévère : « Il ne s’agit de rien de moins qu’un renforcement de l’hégémonie de Facebook… et d’un abandon de souveraineté ». […]

https://www.marianne.net/economie/oui-sncf-vente-billets-facebook

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LenouveauMontpellier] Implantation de Google à Montpellier : l’autre vision des acteurs du numériquehttps://www.laquadrature.net/?p=13846http://streisand.me.thican.net/laquadrature.net/index.php?20190401_120000__LenouveauMontpellier__Implantation_de_Google_a_Montpellier____l___autre_vision_des_acteurs_du_numeriqueMon, 01 Apr 2019 10:00:00 +0000Jeudi 14 mars 2019 se déroulait un événement spécial à la Carmagnole, autour des enjeux des géants du numérique alias les GAFAM (Google, Apple, Facebook, Amazone et Microsoft). Dans ce nouveau lieu alternatif installé dans le quartier de Figuerolles, Felix Tréguer, l’un des fondateurs de la Quadrature du Net donnait une conférence. En ligne de mire, Google et le concept de « startup nation ». Il dresse un constat alarmant sur l’état du numérique et des enjeux de l’implantation locale de la multinationale. Retour sur ce qu’il s’est dit lors de cette conférence. […]

« Depuis la loi renseignement de 2015, la surveillance a de beaux jours devant elle… » explique Félix en exposant un graphique montrant la hausse des interventions de l’État dans la censure avec une « volonté d’élargir le panel des profils de terroristes sur le territoire », à l’image des assignations à résidence de certains militants écologique après les attentats du 13 novembre 2015. « On va même vers une automatisation de la censure. Aujourd’hui, bloquer un péage ça peut être considéré comme une forme de terrorisme. Ce qui est en train de se mettre en place est très grave… Et on n’a très peu de relais médiatique » déclare le conférencier. […]

https://www.lenouveaumontpellier.fr/implantation-de-google-a-montpellier-lautre-vision-des-acteurs-du-numerique/

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Le Parlement européen se soumet aux lobbys des ayants droithttps://www.laquadrature.net/?p=13772http://streisand.me.thican.net/laquadrature.net/index.php?20190326_173820_Le_Parlement_europeen_se_soumet_aux_lobbys_des_ayants_droitTue, 26 Mar 2019 16:38:20 +0000Le Parlement européen a adopté aujourd’hui la Directive sur le droit d’auteur. Cédant au lobbying intense et fallacieux des industries de la presse et de la culture, ainsi qu’à la pression de plusieurs gouvernements européens (avec la France en première ligne) l’Union européenne vient d’institutionnaliser la censure automatisée et la surveillance de masse pratiquées par les géants du Web.

Aujourd’hui, en quelques minutes à peine, le Parlement européen a adopté le texte de la Directive Copyright (par 348 voix contre 274). Croyant agir au nom de la défense des auteurs et de la liberté de la presse, l’Union européenne vient au contraire (comme nous le dénonçons depuis plusieurs mois) de renforcer la dépendance de l’industrie de la culture et de la presse aux géants du Web, Google et Facebook en tête. Les manifestations de ce week-end, les pétitions, les tribunes et autres campagnes organisées par des associations de défense des libertés à travers toute l’Europe n’auront donc eu que peu de poids face à la campagne frénétique et mensongère menée par les promoteurs de ce texte (voir, pour un bon exemple, ici, à 1’06’10).

Le texte adopté impose notamment à une partie des acteurs du Web — les plateformes centralisées et lucratives — une obligation de filtrage a priori des contenus protégés par le droit d’auteur (article 13, devenu article 17). Il crée également de nouveaux droits pour les éditeurs de presse, en forçant les plateformes à les rémunérer pour toute utilisation de leurs contenus (article 11, devenu article 15). Nous le répétions encore la semaine dernière : ces dispositions ne pourront entraîner que de graves restrictions de la liberté d’expression et de l’accès à l’information.

En aucun cas, elles ne permettront de rééquilibrer les relations avec les Géants du Net : elles ne conduiront qu’à leur déléguer encore plus de pouvoir. Ces derniers doivent d’ailleurs voient sûrement avec plaisir l’ouverture d’un nouveau marché très porteur, celui des filtres automatiques. Déjà leaders sur ce sujet, les géants ne seront sûrement pas mécontents de le voir institutionnalisé et consacré par l’Union européenne.

Au lieu de combattre la surveillance de masse mise en place par les Géants du Net, la Directive Copyright consacre leur puissance, pourtant basée sur la violation du RGPD voté par le même Parlement européen… D’où vient l’argent que convoitent tant les industries de la presse et de la culture ? Du marché de la publicité ciblée qu’exploitent depuis plusieurs années les GAFAM en toute illégalité, et qui est entièrement fondé sur la surveillance généralisée de nos comportements sur le Web. Alors que les premières décisions commençaient justement à remettre en cause ce modèle économique (voir notre communiqué sur la décision de la CNIL contre Google), l’Union européenne et ses gouvernements ne semblent pas réellement souhaiter l’application de leur propre texte, mais plutôt se satisfaire de petits retours financiers sur la violation de nos libertés.

Ainsi, l’Union européenne préfère promouvoir des outils de filtrage automatique, dans une logique de toujours plus de censure, de toujours plus de surveillance, au lieu de se pencher sur d’autres réformes et d’autres solutions plus adaptées au monde numérique et surtout plus respectueuses de nos libertés (voir nos propositions).

Malgré le vote d’aujourd’hui, la lutte contre le filtrage automatisé et la censure continue. L’autre texte contre lequel La Quadrature se bat depuis plusieurs mois, et qui repose sur les mêmes logiques de censure automatisée, de surveillance et de centralisation, sera voté en commission parlementaire début avril. Il nous reste encore quelques jours pour appeler les députés en charge de ce règlement de censure automatique de contenus terroristes et leur demander de le rejeter.

]]>
[Europe1] 30 ans après sa création, que faudrait-il changer au Web ?https://www.laquadrature.net/?p=13707http://streisand.me.thican.net/laquadrature.net/index.php?20190325_110000__Europe1__30_ans_apres_sa_creation__que_faudrait-il_changer_au_Web___Mon, 25 Mar 2019 10:00:00 +0000Matthieu Belliard embarque les auditeurs pour écrire avec lui ce “Grand journal du soir”. Trois heures d’actualité avec toute la rédaction d’Europe 1 et de nombreux invités. Coups de gueule, coups de cœur, témoignages, ils interviennent tout au long de l’émission. A 19h10, Sonia Mabrouk reçoit un invité politique pour une interview sans concession, et à 19h20, Matthieu Belliard poursuit l’échange avec trois débatteurs eux-mêmes questionnés par les auditeurs. Le vendredi, les Grandes Voix le rejoignent pour ce debrief de l’actualité.

NDLRP : débat animé par Matthieu Belliard. Plateau sur la thématique ‘30 ans après sa création, que faudrait-il changer au Web ?‘ avec en invités Daniel Ichbiah, Hugo Travers, et Arthur Messaud de La Quadrature du Net.

https://www.europe1.fr/emissions/votre-grand-journal-du-soir-avec-matthieu-belliard/matthieu-belliard-120319-3872807

NDLRP : Retrouvez sur le peertube de La Quadrature du Net le débat avec Arthur Messaud.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[ActeursPublics] Débat : L’État face aux géants du Webhttps://www.laquadrature.net/?p=13708http://streisand.me.thican.net/laquadrature.net/index.php?20190324_110000__ActeursPublics__Debat____L___Etat_face_aux_geants_du_WebSun, 24 Mar 2019 10:00:00 +0000Chaque mois, Écrans publics propose de débattre autour de documentaires qui interrogent les politiques publiques. Ce mois-ci, la diffusion du documentaire Apple, Google, Facebook, les nouveaux maîtres du monde, de Yannick Adam de Villiers, a été l’occasion d’échanger autour du thème « L’État face aux géants du Web« . Un débat animé par Adeline Baldacchino, haute fonctionnaire et écrivaine, avec Yannick Adam de Villiers, réalisateur du documentaire, Gilles Babinet, vice-président du Conseil national du numérique, Alexis Fitzjean O Cobhthaigh, avocat, membre de La Quadrature du net, et Laurent Gayard, auteur de Darknet, GAFA, Bitcoin. L’anonymat est un choix.

https://www.acteurspublics.com/webtv/2019/03/12/debat-letat-face-aux-geants-du-web-1

NDLRP : retrouvez sur le peertube de La Quadrature du Net des extraits d’Alexis à l’occasion de cet échange.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[BFMTV] 30 ans du Web: HTTP, URL… ce que signifient ces acronymes qui nous connectenthttps://www.laquadrature.net/?p=13709http://streisand.me.thican.net/laquadrature.net/index.php?20190323_110000__BFMTV__30_ans_du_Web__HTTP__URL____ce_que_signifient_ces_acronymes_qui_nous_connectentSat, 23 Mar 2019 10:00:00 +0000Créées à la fin des années 80, ces technologies constituent encore aujourd’hui les bases du Web, tel qu’il est utilisé par la plupart des internautes dans le monde.

Vague, mais prometteur”. C’est ainsi que le projet de Tim Berners-Lee, alors informaticien, fut accueilli le 12 mars 1989 par le Cern, le laboratoire européen pour la physique des particules. L’idée de son système : permettre à tous les chercheurs de partager l’information et d’y accéder à distance. Quelques schémas incompréhensibles pour le profane, qui ont posé les fondations du Web tel que nous le connaissons. Tim Berners-Lee commence par nommer son projet : WorldWideWeb. […]

https://www.bfmtv.com/tech/30-ans-du-web-http-url-ce-que-signifient-ces-acronymes-qui-nous-connectent-1650047.html

NDLRP : retrouvez l’extrait du reportage vidéo avec l’apparition de Benjamin Bayart et d’Arthur Messaud sur le peertube de La Quadrature du Net.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[RadioCauseCommune] Règlement terroriste, Pépites libres, Fund the Code!https://www.laquadrature.net/?p=13710http://streisand.me.thican.net/laquadrature.net/index.php?20190322_110000__RadioCauseCommune__Reglement_terroriste__Pepites_libres__Fund_the_Code_Fri, 22 Mar 2019 10:00:00 +0000La seizième émission Libre à vous ! de l’April a été diffusée en direct mardi 12 mars 2019 de 15 h 30 à 17 h 00.

Nous avons commencé par la troisième chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April. Nous avons enchainé avec notre sujet principal qui portait sur le projet de règlement terroriste / censure sécuritaire avec nos invités : Arthur Messaud et Martin Drago de La Quadrature du Net. Nous avons poursuivi par une interview de présentation de l’initiative Fund the Code! avec Louis-David Benyayer. Nous avons terminé par diverses annonces. […]

https://cause-commune.fm/podcast/reglement-terroriste-pepites-libres-fund-the-code/

https://april.org/emission-libre-a-vous-diffusee-mardi-12-mars-2019-sur-radio-cause-commune-reglement-terroriste-pepit

Transcription de l’émission par l’équipe Transcriptions de l’APRIL : https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-12-mars-2019

NDLRP : retrouvez sur le peertube de La Quadrature du Net l’interview d’Arthur et Martin sur la proposition de règlement terroriste et la censure sécuritaire.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
La Quadrature du Net appelle le Parlement européen à rejeter la directive sur le droit d’auteur !https://www.laquadrature.net/?p=13736http://streisand.me.thican.net/laquadrature.net/index.php?20190321_112032_La_Quadrature_du_Net_appelle_le_Parlement_europeen_a_rejeter_la_directive_sur_le_droit_d___auteur___Thu, 21 Mar 2019 10:20:32 +0000La semaine prochaine, le Parlement européen va devoir se prononcer par un dernier vote sur le sort de la directive Copyright, en discussion depuis plusieurs années. La Quadrature du Net appelle les députés européens à rejeter ce texte, qui provoquerait de graves restrictions à la liberté d’expression et à l’accès à l’information. Loin de rééquilibrer les relations avec les Géants du Net, cette directive conduirait à leur déléguer un inquiétant pouvoir de censure automatisée. Ce texte ne constitue pas la réforme du droit d’auteur dont l’Union européenne a besoin et il ne comporte aucun élément tangible qui améliorerait la situation des créateurs.

Le texte résultant des négociations conduites ces derniers mois par les institutions européennes n’a corrigé aucun des points problématiques qui nous avaient conduit à demander le rejet du texte déjà à plusieurs reprises en 2018. Notre analyse reste la même : les industries culturelles et les grandes sociétés d’ayants droit cherchent en réalité à ramasser les miettes du butin engrangé par les Géants du Net grâce à la surveillance de masse qu’ils mettent en œuvre à travers la publicité ciblée. Sous couvert d’opérer un « partage de la valeur », cette directive constituerait un grave renoncement de l’Union européenne, en liant le financement de la création et de la presse à la violation systématique des droits des individus.

Tout ceci s’accomplira en outre sur le dos des libertés fondamentales, à cause des articles 11 et 13 de la directive qui suscitent l’opposition d’un grand nombre d’acteurs de la société civile. Même si le champ d’application de l’article 13 ne concerne pas dans sa rédaction finale ce que La Quadrature considère comme l’Internet libre et ouvert – à savoir les services décentralisés ou fédérés de type Mastodon ou Peertube – il imposera aux plateformes centralisées et lucratives une obligation de filtrage a priori des contenus à laquelle notre association s’est toujours opposée. L’application de tels procédés est manifestement disproportionnée et la directive n’apporte aucune garantie satisfaisante pour protéger la liberté d’expression. La directive Copyright a ainsi servi de laboratoire aux logiques de censure automatisée que l’on retrouve dans d’autres textes, comme le règlement Anti-terroriste contre lequel La Quadrature du Net est mobilisée (voir notre page dédiée).

L’article 11 est tout aussi problématique, puisqu’en souhaitant instaurer de nouveaux droits pour les éditeurs de presse, il va restreindre l’usage de ces contenus bien au-delà des seuls agrégateurs, type Google News, en affectant aussi potentiellement des acteurs non-lucratifs et tout l’écosystème de l’accès à l’information.

Si la directive Copyright doit être rejetée par le Parlement européen, c’est aussi parce qu’elle ne constitue pas la réforme positive du droit d’auteur dont l’Union a besoin. Les industries culturelles sont parvenues encore une fois à focaliser le débat autour d’un renforcement de la propriété intellectuelle, en occultant le profond besoin d’adaptation des règles du droit d’auteur aux pratiques numériques. Dans son état actuel, la directive contient certes quelques aménagements sous la forme d’exceptions au droit d’auteur, mais ils restent bien trop limités pour apporter un changement significatif.

Aucune de ces mesures ne correspond aux propositions formulées depuis plusieurs années par la Quadrature du Net afin de changer en profondeur le droit d’auteur en réconciliant les artistes et le public. Il aurait fallu pour cela mettre en débat des idées comme la légalisation du partage non-marchand des œuvres, la reconnaissance des pratiques transformatives comme le remix ou le mashup ou de nouvelles formes de financement comme la contribution créative.

En affirmant que ce texte sera en mesure d’améliorer le sort des créateurs en Europe, les industries culturelles qui le soutiennent mentent profondément. Elles ont constamment empêché que des sujets comme les modalités de financement de la création ou les règles de répartition des revenus entre créateurs et intermédiaires soient discutés, alors qu’ils constituent le cœur du problème à régler pour améliorer la condition des auteurs. La France porte une responsabilité particulière dans ce fiasco dans la mesure où les gouvernements successifs et la majorité des eurodéputés français ont constamment fait obstruction sur ces questions tout en poussant les mesures les plus répressives.

Plus largement, c’est tout le processus d’élaboration de ce texte qui a été émaillé d’intrusions, aussi bien de la part du lobby des industries culturelles que de celui des Géants du Net. Ce spectacle navrant porte atteinte à la crédibilité démocratique de l’Union européenne. Mais il ne doit pas occulter la mobilisation importante des personnes et des organisations de la société civile – l’une des plus importantes à ce jour -, qui a constamment été ignorée ou raillée tant par la Commission européenne que par une partie des eurodéputés favorables au texte.

Le Parlement européen dispose encore d’une ultime chance de montrer qu’il est capable de faire preuve d’indépendance en enterrant définitivement ce texte aberrant. Il l’a déjà fait en juillet 2018 pour protéger les libertés fondamentales et il doit le refaire à présent pour les mêmes raisons.

C’est la raison pour laquelle La Quadrature du Net se joint aux autres associations engagées contre ce texte – EDRi, Bits of Freedom, Wikimedia, l’APRIL et bien d’autres ! – en appelant les citoyens à contacter les eurodéputés via la plateforme Pledge2019.

]]>
[LaNouvelleRepublique] Face aux pirates, le sport français cherche la paradehttps://www.laquadrature.net/?p=13711http://streisand.me.thican.net/laquadrature.net/index.php?20190321_110000__LaNouvelleRepublique__Face_aux_pirates__le_sport_fran__ais_cherche_la_paradeThu, 21 Mar 2019 10:00:00 +0000La diffusion illégale de contenus sportifs sur Internet a connu une hausse en 2018, notamment pour le football. Les acteurs s’organisent pour riposter. Zoom sur cette problématique. […]

3 – Faut-il s’inquiéter de la volonté affichée de bloquer des sites plus facilement ?

« C’est un vrai problème. Depuis plusieurs années, on étend le domaine de la censure administrative, à chaque fois avec des raisons différentes, certaines vraiment compréhensibles, d’autres beaucoup plus légères, répond Axel Simon, membre de la Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. On contourne les problèmes. On ne s’attaque jamais aux causes, mais aux symptômes… »

Il précise : « A l’heure actuelle, c’est possible de bloquer des sites, sur décision d’un juge. Mais, l’automatiser, c’est beaucoup plus dangereux, car quand on passe par de l’administratif, on se retrouve avec des listes noires et des personnes capables d’en empêcher d’autres de voir quelque chose, sans qu’il y ait de contradictoire. On rentre dans des choses vraiment désagréables et difficiles à accepter au sein d’une société démocratique. Car on ne sait pas qui censure quoi. Qui surveille les surveillants ? »

https://www.lanouvellerepublique.fr/a-la-une/dossier-face-aux-pirates-le-sport-francais-cherche-la-parade

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LeDevoir] Il y a 30 ans naissait le Webhttps://www.laquadrature.net/?p=13706http://streisand.me.thican.net/laquadrature.net/index.php?20190320_110000__LeDevoir__Il_y_a_30_ans_naissait_le_WebWed, 20 Mar 2019 10:00:00 +0000« On a connecté le monde, mais on a aussi connecté toute la merde qui allait avec. » Au téléphone, Ben Segal, ingénieur au laboratoire du CERN, l’Organisation européenne pour la recherche nucléaire, est tout sauf lénifiant lorsqu’il remonte le fil de l’histoire du Web, dont il a accompagné la naissance. […]

« La décentralisation, les protocoles ouverts, c’est l’idée de départ, dit Alexis Fitzjean, membre de La Quadrature du Net, un organisme européen qui milite pour un Web plus proche de son idéologie originelle. Il faut revenir à cette idée de l’internaute producteur et diffuseur de l’information, mais aussi imposer des interfaces de programmation [les fameuses API] ouvertes qui permettraient à un usager de ne plus être captif d’un réseau social et de migrer vers un autre, sans peur de perdre son historique, ses données personnelles ou ses contacts. » […]

https://www.ledevoir.com/societe/549634/ll-y-a-30-ans-naissait-le-web

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Contexte] La Quadrature du Net : « Emmanuel Macron n’est pas pour l’Europe des libertés, mais pour l’Europe des Gafam »https://www.laquadrature.net/?p=13712http://streisand.me.thican.net/laquadrature.net/index.php?20190319_110000__Contexte__La_Quadrature_du_Net________Emmanuel_Macron_n___est_pas_pour_l___Europe_des_libertes__mais_pour_l___Europe_des_Gafam____Tue, 19 Mar 2019 10:00:00 +0000[Série] Un an et demi après l’arrivée d’Emmanuel Macron au pouvoir et alors que se profilent les européennes, Contexte donne la parole à des acteurs privés français impliqués sur les sujets numériques. Quel bilan font-ils de ce début de présidence et du marché unique numérique ? Quels sont leurs souhaits pour la suite ? Sixième volet avec Arthur Messaud et Martin Drago, juristes à La Quadrature du Net. […]

« On entend souvent dire qu’Emmanuel Macron est européen, c’est faux ! Il ne respecte pas l’arrêt Tele2 de la Cour de justice de l’Union européenne, un arrêt protecteur pour les libertés publiques, qui interdit de mettre les acteurs privés au service de la surveillance de masse. Il veut même aller plus loin, avec la loi sur les contenus haineux. Il n’est pas pour l’Europe des libertés, mais pour l’Europe des Gafam et des grosses entreprises. » […]

https://www.contexte.com/article/numerique/la-quadrature-du-net-emmanuel-macron-nest-pas-pour-leurope-des-libertes-mais-pour-leurope-des-gafam_98253.html

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[20Minutes] Cambridge analytica: « Le scandale a montré que les politiciens sont aussi malhonnêtes que les autres »https://www.laquadrature.net/?p=13713http://streisand.me.thican.net/laquadrature.net/index.php?20190318_110000__20Minutes__Cambridge_analytica______Le_scandale_a_montre_que_les_politiciens_sont_aussi_malhonnetes_que_les_autres____Mon, 18 Mar 2019 10:00:00 +0000INTERVIEW. Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur. […]

Benjamin Bayart, cofondateur de la Quadrature du Net, animera la conférence « La démocratie à l’épreuve des réseaux sociaux » au Grand Barouf du numérique de Lille le 21 mars. Pour donner un avant-goût à cette réflexion, il revient avec 20 Minutes sur cette manipulation de grande ampleur et ouvre les portes à la démocratie du futur. […]

https://www.20minutes.fr/high-tech/2473643-20190317-cambridge-analytica-scandale-montre-politiciens-aussi-malhonnetes-autres

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Censure antiterroriste : seconde défaite au Parlement européenhttps://www.laquadrature.net/?p=13698http://streisand.me.thican.net/laquadrature.net/index.php?20190315_155629_Censure_antiterroriste____seconde_defaite_au_Parlement_europeenFri, 15 Mar 2019 14:56:29 +0000Au Parlement européen, les deux commissions appelées à rendre leur avis sur le règlement de censure anti-terroriste ont désormais publié leurs propositions d’amendements. Hélas, de même que l’avis rendu par la commission IMCO la semaine dernière (voir notre réaction), l’avis de la commission CULT (culture et éducation) n’apporte aucun véritable changement à la proposition initiale de la Commission européenne, désastreuse pour nos libertés.

Lire notre dossier sur le règlement.

Julie Ward, rapporteure du texte pour CULT, introduit l’avis en expliquant bien les menaces que représente le texte, de même que nous les dénonçons depuis des mois : le délai d’une heure que la police peut imposer à n’importe quel service pour retirer un contenu qu’elle considère « terroriste », l’élimination du rôle de l’autorité judiciaire, la possibilité pour la police d’imposer aux plateformes des mesures proactives (notamment des filtres automatisés), les amendes considérables pour tous les acteurs de l’Internet qui ne respecteraient pas ces obligations…

Mais presque aucune de ces inquiétudes ne sont matérialisées dans le texte final adopté lundi par la commission CULT. Au contraire.

S’agissant du délai d’une heure, CULT propose de le remplacer par un « sans retard indu ». Ce qui pourrait paraître pour un premier progrès disparaît aussitôt qu’on lit la suite du texte : « les États Membres peuvent prévoir que, lorsqu’un contenu terroriste est manifestement nocif ou constitue une menace immédiate à l’ordre public, les services d’hébergement doivent le supprimer ou en empêcher l’accès dès l’instant où ils reçoivent une injonction dûment justifiée » (notre traduction). Ainsi, contre toute attente, les députés de CULT ont réussi à rendre cette disposition encore plus dangereuse, permettant aux États Membres de donner à leur police le pouvoir d’exiger le retrait immédiat d’un contenu. Tel que nous le rappelons dans chacune de nos analyses, seule une poignée d’acteurs sont capables de respecter une obligation aussi stricte : les géants du Web. Alors que nous pensions que la proposition initiale de la Commission européenne ne pouvait être aggravée, la commission CULT a défié toutes nos attentes.

Aucun progrès non plus du côté de l’autorité compétente qui peut ordonner le retrait de ces contenus : le texte prévoit que les États membres peuvent désigner une autorité judiciaire ou « une autorité administrative indépendante disposant de l’expertise requise ». Néanmoins, une telle notion pourrait concerner de nombreuses autorités administratives et il ne fait aucun doute que certains États interpréteront cette notion de la manière la plus profitable pour eux. L’article 6 dans lequel l’autorité compétente peut imposer des mesures proactives aux hébergeurs est également toujours présent, tout comme les sanctions financières (si la version de la Commission prévoyait que les acteurs pouvaient être sanctionnés jusqu’à 4% de leur chiffre d’affaires, CULT propose de baisser à 2%…)

Des changements aussi timides ne permettront jamais de régler les principaux dangers qui existent au cœur de ce texte : l’existence de mesures proactives obligatoires avec la menace de lourdes sanctions financières n’aura pour effet que d’encourager les acteurs de l’Internet à adopter une définition de la notion de contenu terroriste aussi large que possible. Cela mènera à une censure de masse des contenus en ligne et à la soumission de l’ensemble de ces acteurs aux outils de modération développés par les géants du Web.

Dernière ligne droite

Il revient maintenant à la commission LIBE (Libertés civiles, justice et affaires intérieures) de voter sa version du texte qui sera présentée en avril à l’ensemble du Parlement européen. Les députés de cette commission et les « shadow rappporteurs » se rencontrent en ce moment régulièrement pour trouver des compromis sur les points les plus problématiques du texte, avec l’objectif d’arriver à une position finale d’ici le 21 mars, jour du vote. Nous craignons malheureusement le pire : les compromis que nous avons pu pour l’instant lire ne sont pas bons du tout, et même aussi mauvais que l’avis de CULT. Ils ne prévoient toujours aucune autorisation judiciaire préalable, remplacent le délai d’une heure par un délai de huit heures (ce qui ne change rien) et promeuvent toujours le filtrage automatique…

Il est plus que jamais nécessaire d’appeler vos députés. Pour cela, nous avons prévu une page dédiée sur notre site avec une analyse du texte et un outil pour contacter les députés en charge du règlement.

Appelez vos députés. Demander le rejet de ce texte.

]]>
Rachida Dati porte-parole de la politique sécuritaire de Macron au Parlement européenhttps://www.laquadrature.net/?p=13673http://streisand.me.thican.net/laquadrature.net/index.php?20190312_152126_Rachida_Dati_porte-parole_de_la_politique_securitaire_de_Macron_au_Parlement_europeenTue, 12 Mar 2019 14:21:26 +0000Alors que le vote sur le règlement de censure terroriste aura lieu le 21 mars (voir notre site de campagne), Rachida Dati a adressé à l’ensemble des députés européens en charge du texte, une lettre dans laquelle elle soutient la position la plus sécuritaire du Parlement européen. Nommée cheffe de file sur ce dossier par le groupe politique de droite (le Parti populaire européen – PPE, le plus important du Parlement), elle y défend les intérêts politiques d’Emmanuel Macron, en faveur d’un contournement de la justice et d’un assujettissement du Web européen à Google et Facebook.

Le 27 février dernier, Rachida Dati envoyait à l’ensemble des 60 députés de la commission LIBE (« liberté civile », qui votera le texte le 21 mars) une lettre les invitant à adopter le règlement dans sa version la plus sécuritaire possible (voir la lettre (PDF)). Refusant tout débat objectif, Mme Dati se moque que ce texte soit inutile, qu’il méprise la séparation des pouvoirs en permettant des censures massives sans juge, qu’il détruise nos libertés sur Internet ou qu’il annihile l’écosystème numérique européen. Elle semble ne chercher qu’un symbole politique facile pour ses prochaines élections : se positionner en tant que héraut de la lutte contre le terrorisme.

Le mythe de l’auto-radicalisation

D’entrée de jeu, elle fait sienne la rhétorique trompeuse de la Commission européenne, arguant que le règlement de censure terroriste « est un outil crucial pour renforcer la lutte contre le terrorisme et la radicalisation en Europe ». Comme la Commission, elle refuse tout débat basé sur des faits, préférant fonder son action politique sur les sentiments de crainte et d’urgence. Si Rachida Dati acceptait de s’en tenir aux faits, sa conclusion serait pourtant bien différente : en 2017, l’UNESCO publiait un rapport analysant 550 études sur la question de la radicalisation en ligne et concluant que « les données sont insuffisantes pour que l’on puisse conclure à l’existence d’un lien de cause à effet entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». En face, ni Rachida Dati, ni la Commission européenne, ne sont capables de produire des études soutenant leurs théories.

Cette situation n’est pas nouvelle. Comme elle le rappelle dans sa lettre, Rachida Dati a été, en 2015, la rapporteure d’une « résolution du Parlement européen sur la prévention de la radicalisation et du recrutement de citoyens de l’Union par des organisations terroristes ». Cette résolution souffrait des mêmes défauts, affirmant déjà au doigt mouillé, sans aucune évaluation concrète ni chiffrée, que « l’internet et les réseaux sociaux constituent des plateformes importantes utilisées pour accélérer la radicalisation et le fondamentalisme, car ils permettent une diffusion massive et rapide, à l’échelle mondiale, des messages de haine et d’apologie du terrorisme » (nous le dénoncions déjà alors).

Plus grave encore, cette résolution parlementaire de 2015 « exprime ses vives inquiétudes face à l’utilisation croissante des techniques de cryptage par les organisations terroristes qui rendent impossibles la détection et la lecture de leurs communications ». Invoquer le prétexte terroriste pour lutter contre le chiffrement de nos communications est malheureusement devenu un lieu commun. Heureusement, Rachida Dati nous fait grâce de ce serpent de mer dans les débats actuels.

Dans tous les cas, il devient ainsi difficile de dire aujourd’hui qui d’Emmanuel Macron ou de Rachida Dati reprend la politique de l’autre. L’approche sécuritaire, prise par Nicolas Sarkozy lorsque Madame Dati faisait parti de son gouvernement, n’est en rien différente de celle d’Emmanuel Macron. Tous reposent sur la mise en avant de solutions simplistes, ignorant les faits ainsi que leurs conséquences concrètes, espérant que leur électorat soit plus sensible à la peur qu’à la raison.

Destruction de l’écosystème numérique européen

Dans la lettre envoyée à ses 60 collègues de la commission LIBE, Rachida Dati « appelle le Parlement à soutenir le délai d’une heure pour exécuter les injonctions de retrait ». Face aux réalités d’une telle obligation, Madame Dati feint d’avoir « entendu et compris les préoccupations de différents acteurs, notamment des PME ». En vérité, elle en méprise totalement les intérêts.

Aucune petite ou moyenne plateforme ne peut supprimer en une heure un contenu signalé comme terroriste par la police (pour la simple raison, déjà, que répondre à cette demande la nuit ou le weekend n’est possible que pour les entreprises les plus importantes). Madame Dati ne propose aucune marge d’ajustement pour ces plateformes, faisant primer ce délai magique d’une heure sur toute autre considération.

L’écosystème numérique européen n’a qu’à disparaître, soumis à des obligations intenables sous la menace de lourdes sanctions. Ceci n’affectera en rien la stratégie électoraliste de Rachida Dati qui, manifestement, pense qu’une position aussi symbolique qu’absurde contre le terrorisme l’aidera à gagner la mairie de Paris (pour laquelle elle vient d’annoncer se présenter).

Surtout, cet acharnement symbolique est parfaitement vain : l’extrême majorité des plateformes en ligne font déjà de leur mieux pour supprimer les contenus terroristes, qu’ils soient ou non signalés par la police. Aucune plateforme n’a d’intérêt à héberger de tels contenus, si ce n’est à vouloir effectivement participer à leur diffusion. Contre des plateformes qui souhaiteraient cela, le règlement de censure terroriste ne prévoit rien, car aucune loi ne peut rien faire contre : ces plateformes pourront toujours s’installer n’importe où pour échapper à la loi (elles le font déjà) et seront toujours accessibles par leur public.

Renforcer la dépendance à Google et Facebook

Rachida Dati affirme auprès de ses collègues que « ces dernières années ont prouvé qu’avec le développement technologique les grandes plateformes telles que Google, Facebook et Twitter ont atteint de bons résultats » en matière de censure des contenus terroristes. Un tel éloge des GAFAM, qui ne se base toujours pas sur une analyse chiffrée, fait directement écho à la façon dont Mounir Mahjoubi promeut Facebook en héros de la modération contre la haine sur Internet (voir notre analyse). À chaque fois dans le même but : conforter la position dominante des géants du Web qui sont devenus les alliées de gouvernements souhaitant toujours plus surveiller et contrôler la population.

Encore une fois, les acteurs qui offrent des modèles alternatifs, plus respectueux de notre vie privée et de notre liberté d’expression (revoir notre article à leur sujet), sont appelés à disparaître ou, au mieux, à se placer sous la dépendance de ces géants. Rachida Dati reprend ainsi la rhétorique de la Commission européenne, en « soutenant fortement la proposition sur les mesures proactives » que les plateformes devront obligatoirement déployer pour détecter et supprimer les contenus terroristes.

La Commission européenne explique ainsi, au côté du ministère de l’intérieur français, que les outils de filtrage développés par Facebook, Google, Twitter et Microsoft depuis 2015 pour leur plateformes doivent maintenant être utilisés par l’ensemble des acteurs du Web (lire notre analyse sur la genèse du règlement). La zone d’influence des GAFAM continue de s’étendre, avec le soutien total des gouvernements européens et, ici, de Madame Dati.

Une démarche purement électoraliste

Rachida Dati ne cache pas le sens de son engagement : « Nous devons voter ce rapport avant la fin du mandat. Tout délai à son adoption serait non seulement une sérieuse erreur politique, mais aussi un affront aux citoyens qui demandent à l’Union européenne de les protéger ».

Puisque ce règlement n’apportera aucune protection, c’est uniquement la peur des citoyens qui l’intéresse. On comprend alors très bien pourquoi ce serait une « sérieuse erreur politique » de ne pas en jouer, alors qu’elle ne compte pas se représenter au Parlement européen, mais qu’elle doit justifier, dans l’urgence, son mandat européen assez creux, afin de poursuivre sa carrière politique française.

C’est pourtant la démarche inverse que doit adopter le Parlement européen : forcé de débattre d’un texte aux conséquences aussi lourdes en seulement quelques semaines, il ne pourra prendre que les pires solutions. Aucun débat législatif ne doit être conduit dans l’urgence électoraliste. Certes, les craintes que la composition du prochain Parlement européen soit encore plus à droite et proche d’Emmanuel Macron ne sont pas à prendre à la légère. Mais, contre toute projection politicienne, nous préférons la sagesse des débats longs, précis et rigoureux.

Pour repousser la censure automatisée, le contournement du juge et la GAFAMisation du Web, appelons les députés européens avant le 21 mars via notre site d’action.

Les citations de la lettre de Rachida Dati sont des traductions de notre part, de l’anglais vers le français.

]]>
[France3] Un livre un jour « Algorithmes, la bombe à retardement »https://www.laquadrature.net/?p=13669http://streisand.me.thican.net/laquadrature.net/index.php?20190311_110000__France3__Un_livre_un_jour_____Algorithmes__la_bombe_a_retardement____Mon, 11 Mar 2019 10:00:00 +0000Présenté par : Adeline Alexandre, Delphine Chaume.

Entretien avec Benjamin Sonntag, co-fondateur de La Quadrature du Net’ pour le livre « Algorithmes, la bombe à retardement », de Cathy O’Neil (Les Arènes).

https://www.france.tv/france-3/un-livre-un-jour/910845-algorithmes-la-bombe-a-retardement-de-cathy-o-neil-les-arenes.html

NDLRP : réalisé par Olivie’r Chevillard. Les illustrations sont de Tommy Dessine. A retrouver sur le peertube LQDN :

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[TV5Monde] Règlement antiterroriste européen : la censure d’Internet automatisée par les GAFA ?https://www.laquadrature.net/?p=13641http://streisand.me.thican.net/laquadrature.net/index.php?20190310_110000__TV5Monde__Reglement_antiterroriste_europeen____la_censure_d___Internet_automatisee_par_les_GAFA___Sun, 10 Mar 2019 10:00:00 +0000Le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne, dévoilé en janvier par la Commission européenne, devrait être adopté avant les élections européennes de mai. L’obligation pour les hébergeurs de retirer un contenu dans l’heure risque de créer une automatisation de la censure en ligne, qui se verrait alors massivement gérée par les géants du Net. Eclairage avec Olivier Iteanu, avocat spécialiste du droit de l’Internet. […]

Selon La Quadrature du net, cette définition très large du terrorisme pourrait englober à terme des mouvements sociaux contestataires — comme celui des Gilets jaunes — et mener à une censure automatisée de la contestation sur Internet. Un article du règlement est particulièrement pointé du doigt : celui permettant à une autorité administrative ou judiciaire d’imposer le retrait de contenus dans un délai d’une heure maximum (règle appelée la « Golden hour », ndlr) sans quoi une amende de 4% du chiffre d’affaires de l’hébergeur impliqué pourrait être appliquée. […]

https://information.tv5monde.com/info/reglement-antiterroriste-europeen-la-censure-d-internet-automatisee-par-les-gafa-287776

NDLRP : notre campagne contre ce règlement : Règlement terroriste.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Brut] La reconnaissance faciale expérimentée au carnaval de Nicehttps://www.laquadrature.net/?p=13642http://streisand.me.thican.net/laquadrature.net/index.php?20190309_110000__Brut__La_reconnaissance_faciale_experimentee_au_carnaval_de_NiceSat, 09 Mar 2019 10:00:00 +0000La reconnaissance faciale est expérimentée pour renforcer la sécurité pendant le carnaval de Nice. Cela inquiète certaines associations, notamment sur l’utilisation des données personnelles…

https://www.brut.media/fr/science-and-technology/la-reconnaissance-faciale-experimentee-au-carnaval-de-nice-c8c75753-3070-4662-b206-ab92ca754623

NRLDP : avec Martin de La Quadrature du net.

Retrouvez notre recours avec trois associations devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LeMedia] Macron contre l’informationhttps://www.laquadrature.net/?p=13643http://streisand.me.thican.net/laquadrature.net/index.php?20190308_110000__LeMedia__Macron_contre_l___informationFri, 08 Mar 2019 10:00:00 +0000Après le projet de loi sur les fake news, le pouvoir français prépare une nouvelle loi sur l’information. Officiellement conçue pour lutter contre les contenus haineux sur Internet, celle-ci ouvre une fois encore la voie à une réduction des libertés publiques. Que nous prépare l’Etat, main dans la main avec les GAFAS ? Quelles menaces pèsent sur la liberté d’informer en France ? Pour en discuter au Média TV à Montreuil, 4 invités avec nous le jeudi 28 février à 20h30.

  • Gaspard Glanz, journaliste indépendant, fondateur de Taranis news ;
  • John R. MacArthur, journaliste et essayiste politique, patron du Harper’s, le plus ancien mensuel américain ;
  • Olivier Berruyer, fondateur du site Les crises, un des blogs français les plus fréquentés sur les sujets internationaux et économiques ;
  • Benjamin Bayart, cofondateur de La Quadrature du Net, association qui milite pour les libertés fondamentales sur le web. Ex-président de French Data Network, le plus ancien fournisseur d’accès à internet en France.

https://www.youtube.com/watch?v=MjMlCkv97yg

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[korii] Alexa va-t-elle devenir un membre de notre famille ?https://www.laquadrature.net/?p=13644http://streisand.me.thican.net/laquadrature.net/index.php?20190307_110000__korii__Alexa_va-t-elle_devenir_un_membre_de_notre_famille___Thu, 07 Mar 2019 10:00:00 +0000Nos assistants vocaux nous connaissent aussi bien (voire mieux) que les personnes qui composent notre foyer, où ils occupent une place bien particulière. […]

Malgré sa voix humaine, malgré son côté sympa et disponible, Alexa n’éprouve aucune émotion. Même si la personne qui l’utilise s’est attachée à elle, Alexa ne fera jamais de même, rappelle Alexis Fitzjean O Cobhthaigh, juriste et membre de la Quadrature du Net, une association qui défend les libertés numériques : « Dans la relation avec un assistant vocal, l’affect ne va que dans un sens. Il ne faut pas tomber dans le piège de croire qu’une véritable relation se nouerait avec la machine. Le chatbot ne ressent absolument rien. Il essaye juste de faire le lien entre les informations qu’il arrive à capter. Un chatbot, c’est aussi tout simplement un moteur de recherche comme Google ». […]

https://korii.slate.fr/tech/alexa-assistant-vocal-intelligence-artificielle-membre-famille

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[ActeursPublics] Cybersécurité : les sondes de l’Anssi dans le collimateur d’associations de défense des libertéshttps://www.laquadrature.net/?p=13645http://streisand.me.thican.net/laquadrature.net/index.php?20190306_110000__ActeursPublics__Cybersecurite____les_sondes_de_l___Anssi_dans_le_collimateur_d___associations_de_defense_des_libertesWed, 06 Mar 2019 10:00:00 +0000La Quadrature du net, le fournisseur d’accès « franciliens.net » et la Fédération des fournisseurs d’accès associatifs ont déposé un recours pour excès de pouvoir devant le Conseil d’État. En ligne de mire : les sondes de détection dont le déploiement par l’Anssi a été autorisé par la dernière loi de programmation militaire. […]

Cette imprécision terminologique, couplée à celle qui entoure les “menaces” qui seront recherchées par ces sondes, ne permet donc pas, selon Alexis Fitzjean O’Cobhthaigh, de bien saisir “l’objet et la portée exacte des mesures susceptibles d’être mises en œuvre”. Ainsi, ce recours “pose de nombreuses questions de « principe », notamment celle de la légitimité d’une analyse profonde (ce qu’on appelle le Deep Packet Inspection, c’est-à-dire une analyse du contenu des paquets et non seulement des métadonnées) en temps réel de la totalité du trafic internet ou à tout le moins de parts très substantielles de celui-ci”, explique l’avocat. […]

https://www.acteurspublics.com/2019/02/27/cybersecurite-anssi-sondes-de-detection-conseil-d-etat-quadrature-du-net

NDLRP – le communiqué de La Quadrature du net : : Cybersécurité : nous attaquons la surveillance de masse.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Censure antiterroriste : première défaite au Parlement européenhttps://www.laquadrature.net/?p=13659http://streisand.me.thican.net/laquadrature.net/index.php?20190305_124757_Censure_antiterroriste____premiere_defaite_au_Parlement_europeenTue, 05 Mar 2019 11:47:57 +0000Hier, les députés européens ont publié le premier des deux avis attendus sur le règlement de censure des « contenus terroristes », et il est mauvais. Malgré les bonnes intentions de la rapporteure Julia Reda, la Commission IMCO (« Marché intérieur et protection des consommateurs ») a décidé de n’apporter aucun réel changement à la proposition telle que publiée par la Commission européenne en septembre dernier.

Lire notre dossier sur ce règlement.

Toujours pas d’autorisation judiciaire

Selon l’avis de la commission IMCO1L’avis de la commission IMCO n’a pas encore été publié, mais il est principalement constitué de tous les amendements de compromis (excepté le CA 5) listés dans ce document., le gouvernement de n’importe quel État membre de l’Union européenne pourra ordonner à tout site Internet de retirer un contenu qu’il considère comme « terroriste ». Aucune autorisation judiciaire préalable ne sera nécessaire, ce qui permettra aux gouvernements d’abuser de la notion vague de « terrorisme ». La seule chose que la commission IMCO a accepté d’ajouter est de soumettre l’ordre de retrait du gouvernement à un « contrôle judiciaire », ce qui ne veut pas dire grand chose.

En France, les ordres de retrait du gouvernement concernant les « contenus terroristes » sont déjà sujets à un « contrôle judiciaire », avec une autorité indépendante (une personne qualifiée de la CNIL) qui est notifiée de tous les ordres de retrait et qui peut demander à un juge d’en évaluer la légalité. Cela n’a pas servi à grand chose : ce contrôle judiciaire n’a été utilisé qu’une seule fois et, même s’il a conduit à une annulation de l’ordre de retrait, n’a été reconnu comme étant illicite qu’un an et demi après (voir la décision). Durant ce laps de temps, le gouvernement français a donc été capable de censurer abusivement un contenu, en l’espèce une publication d’extrême-gauche sur la plateforme Indymedia.

Loin de simplifier le cadre juridique, le règlement ne fera que le rendre plus complexe, l’autorité d’un État membre étant en capacité d’ordonner le retrait d’un contenu dans un autre État, sans nécessairement prendre en compte le contexte dans lequel il a été publié.

Des délais de retrait irréalistes

Concernant le délai d’une heure que la police peut imposer à un hébergeur pour retirer un contenu qu’elle considère comme « terroriste », aucun réel progrès n’a non plus été réalisé par la commission IMCO. Il a été remplacé par un délai ne pouvant être plus court que huit heures, avec une exception pour les « microentreprises » qui n’auraient pas déjà reçu un ordre de retrait (dans ce cas, il est indiqué que le délai ne pourrait se terminer avant le prochain jour travaillé).

Cette exception très limitée ne permettrait pas à la grande majorité des acteurs de l’Internet de se conformer à des délais aussi courts. Même si la commission IMCO a retiré toute référence à des « mesures proactives » que la police pourrait imposer aux acteurs de l’Internet, et a indiqué que ces derniers ne devraient pas utiliser de filtres automatiques ; ces délais très courts, ainsi que la menace de lourdes sanctions financières ne pourront que les forcer à se soumettre aux outils de modération développés par les GAFAM (Facebook et Google en tête) et à retenir la définition la plus large possible de la notion de « terrorisme » pour éviter toute sanction. De la même façon, l’obligation irréaliste de prévoir un « point de contact » disponible 24/24h et 7j/7 n’a pas été modifiée. La commission IMCO a même alourdi les sanctions financières qui peuvent être imposées en prévoyant une sanction minimum de 1% du chiffre d’affaires mondial, plancher qui n’existait pas dans la proposition de la Commission européenne.

Prochaines étapes

La prochaine étape sera le 11 mars, lors du vote de l’avis de la commission CULT (Culture et Education). Nous n’avons pas de grands espoirs : comme nous l’avions déjà souligné, le projet d’avis de la rapporteure Julie Ward n’était même pas aussi positif que celui de la commission ICMO.

Notre dernière réelle opportunité pour obtenir le rejet de ce texte liberticide sera le 21 mars prochain, lors du vote au sein de la commission LIBE (Libertés civiles, justice et affaires intérieures). Les citoyens européens doivent contacter leurs députés pour demander le rejet du règlement. Nous avons prévu à cet effet une page dédiée avec une analyse du texte et un outil pour contacter directement les députés concernés.

Dès aujourd’hui et dans les 2 semaines à venir, appelez vos députés et demandez leur de rejeter ce texte.

References   [ + ]

1. L’avis de la commission IMCO n’a pas encore été publié, mais il est principalement constitué de tous les amendements de compromis (excepté le CA 5) listés dans ce document.
]]>
[FranceTvInfo] Faut-il voir la reconnaissance faciale d’un mauvais œil ?https://www.laquadrature.net/?p=13646http://streisand.me.thican.net/laquadrature.net/index.php?20190305_110000__FranceTvInfo__Faut-il_voir_la_reconnaissance_faciale_d___un_mauvais___il___Tue, 05 Mar 2019 10:00:00 +0000Au printemps 2018, deux lycées de la région Paca vont tester cette technologie à l’entrée des établissements pour éviter les intrusions. Un dispositif inédit en France qui suscite des interrogations sur l’utilisation des données biométriques. […]

Un angle mort déjà exposé par le député LREM Didier Baichère, dans une question officiellement adressée le 9 octobre 2018, à Mounir Mahjoubi, secrétaire d’Etat chargé du Numérique. Le parlementaire souhaitait « savoir si [le gouvernement] envisage prochainement de réfléchir à comment prévenir l’utilisation de ces technologies à des fins malhonnêtes« .

Sa question était restée sans réponse. « En tant que parlementaire, je suis gêné que des expérimentations démarrent, regrette le député interrogé par franceinfo. Il faudrait d’abord commencer par saisir des instances comme l’office parlementaire d’évaluation des choix scientifiques et technologiques. » Martin Drago, membre de la Quadrature du net interrogé par franceinfo, considère ces expérimentations comme « un nouvel exemple de la banalisation des technologies de surveillance en France. La reconnaissance faciale est une technologie particulièrement intrusive pour notre vie privée et devrait être, au minimum, comme le recommande l’article 8 de la CEDH, basée sur une loi adaptée, claire, intelligible avec les garde-fous nécessaires« , préconise-t-il. […]

https://www.francetvinfo.fr/internet/faut-il-voir-la-reconnaissance-faciale-d-un-mauvais-oeil_3197665.html

NRLDRP – Retrouvez notre recours avec trois associations devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[NextINpact] LPM 2019-2025 : le décret sur le Deep Packet Inspection attaqué devant le Conseil d’Etathttps://www.laquadrature.net/?p=13647http://streisand.me.thican.net/laquadrature.net/index.php?20190304_110000__NextINpact__LPM_2019-2025____le_decret_sur_le_Deep_Packet_Inspection_attaque_devant_le_Conseil_d___EtatMon, 04 Mar 2019 10:00:00 +0000La Quadrature du Net, Franciliens.net et la Fédération FDN viennent d’attaquer le décret de la loi de programmation militaire. Un texte qui autorise le déploiement d’outils de deep packet inspection chez les intermédiaires techniques, en particulier les hébergeurs. […]

Dans le fil du recours, un autre reproche vise la définition même de plusieurs termes centraux comme la notion de « menace » ou celle de « marqueurs techniques », jugées trop floues dans les textes. De fait, LQDN et les deux autres associations estiment être dans l’incapacité d’affirmer que cette détection des menaces se limitera aux seules données de connexion ou débordera sur le contenu des correspondances.

« L’imprécision de cette notion, regrettent les trois acteurs, engendre un doute dans le régime appliqué et donc dans les garanties et restrictions qui doivent être attachées à une telle technique de surveillance ». […]

https://www.nextinpact.com/news/107663-lpm-2019-2025-decret-sur-deep-packet-inspection-attaque-devant-conseil-detat.htm

NDLRP – le communiqué de La Quadrature du net : : Cybersécurité : nous attaquons la surveillance de masse.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Cnet] La reconnaissance faciale dans les lycées suscite l’inquiétude, plusieurs associations montent au créneauhttps://www.laquadrature.net/?p=13604http://streisand.me.thican.net/laquadrature.net/index.php?20190303_110000__Cnet__La_reconnaissance_faciale_dans_les_lycees_suscite_l___inquietude__plusieurs_associations_montent_au_creneauSun, 03 Mar 2019 10:00:00 +0000Deux lycées de la région Sud testent la reconnaissance faciale. Quatre associations françaises ont déposé un recours auprès du tribunal administratif de Marseille. […]

Pour Martin Drago, juriste à la Quadrature du Net, l’une des associations qui a déposé ce recours : « Cette expérimentation vise à accoutumer les élèves à une surveillance biométrique. Cela participe à la banalisation de ce type de technologies, alors que des projets sécuritaires de vidéosurveillance dopées à la reconnaissance faciale pullulent désormais sur le territoire français« . Rappelons que l’aéroport de Nice dispose d’un outil similaire afin notamment d’améliorer le contrôle aux frontières et fluidifier la circulation.

https://www.cnetfrance.fr/news/la-reconnaissance-faciale-dans-les-lycees-suscite-l-inquietude-plusieurs-associations-montent-au-creneau-39881057.htm

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[FranceCulture] Civic tech, fake news : les algorithmes, amis ou ennemis de la démocratie ?https://www.laquadrature.net/?p=13598http://streisand.me.thican.net/laquadrature.net/index.php?20190302_110000__FranceCulture__Civic_tech__fake_news____les_algorithmes__amis_ou_ennemis_de_la_democratie___Sat, 02 Mar 2019 10:00:00 +0000Comment fonctionnent les algorithmes ? Comment après la vie privée, les algorithmes s’installent-ils dans la vie publique ? La contestation sociale dépend-elle aujourd’hui des algorithmes ? Quelles innovations pourraient permettre de lutter contre les fake news ? […]

Pour en parler autour de cette table, nous sommes ravis d’accueillir Axelle Lemaire, ancienne Secrétaire d’Etat chargée du Numérique sous la présidence de François Hollande, actuellement associée au cabinet de conseil en stratégie Roland Berger – qui est en charge du traitement des données recueillies pour le Grand Débat National, Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Universités, et président du conseil d’éthique du CNRS et Benjamin Bayart, co-fondateur de la quadrature du Net, co-président de la Fédération des Fournisseurs d’Accès à Internet Associatifs. […]

https://www.franceculture.fr/emissions/la-methode-scientifique/civic-tech-fakenews-les-algorithmes-amis-ou-ennemis-de-la-democratie

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[PublicSenat] Haine sur Internet : l’exécutif veut mettre les plateformes sous pressionhttps://www.laquadrature.net/?p=13599http://streisand.me.thican.net/laquadrature.net/index.php?20190301_110000__PublicSenat__Haine_sur_Internet____l___executif_veut_mettre_les_plateformes_sous_pressionFri, 01 Mar 2019 10:00:00 +0000Un délai de 24 heures imposé aux plateformes pour retirer un contenu haineux, mise en place d’une procédure uniformisée pour les signalements ou encore l’accélération de la levée de l’anonymat pour les auteurs d’injures racistes… Une proposition de loi en ce sens devrait voir le jour dans les prochaines semaines mais se heurte déjà à des limites juridiques et techniques. […]

En effet, les propositions contenues dans le rapport pourraient, à première vue, conduire à des effets indésirables. « Seules les grandes plateformes ont les moyens de se munir d’algorithmes permettant ce filtrage généralisé et ainsi retirer des contenus dans un délai court. Une telle loi renforcerait l’hégémonie de Facebook, Twitter… Mais surtout, Facebook ne dispose pas de garanties d’indépendance et d’impartialité pour juger ce qui est haineux ou non. Il ne peut se substituer à un magistrat dont c’est le rôle » rappelle Alexis Fitzjean O Cobhthaigh avocat au barreau de Paris et membre de la Quadrature du Net. Dans une interview au Monde, la députée Laetitia Avia affirme également sa volonté d’accélérer la levée de l’anonymat pour les auteurs d’injures racistes ou antisémites sur le web. « Pour lever l’anonymat sur le Net, la France contraint les hébergeurs de contenus à conserver les données de connexions pendant un an. Or, la jurisprudence de la Cour de Justice européenne considère que ce n’est pas conforme au droit européen » observe Alexis Fitzjean O Cobhthaigh. […]

https://www.publicsenat.fr/article/politique/haine-sur-internet-l-executif-veut-mettre-les-plateformes-sous-pression-138274

[NDLRP] Le communiqué de La Quadrature du Net : Mahjoubi et Schiappa croient lutter contre la haine en méprisant le droit européen.

La Tribune de Félix Tréguer sur le site de La Quadrature du Net : Vers l’automatisation de la censure politique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Solidarité avec les profs de Paris 13 remplacés par Googlehttps://www.laquadrature.net/?p=13624http://streisand.me.thican.net/laquadrature.net/index.php?20190228_113839_Solidarite_avec_les_profs_de_Paris_13_remplaces_par_GoogleThu, 28 Feb 2019 10:38:39 +0000Lundi matin, La Quadrature du Net est intervenue aux côtés d’enseignant·es de l’université de Paris 13 pour interrompre une dizaine de minutes la formation de 4 jours donnée par Google à une centaine d’étudiant·es.

Cette formation de Google est un exemple de plus où l’État désinvestit le service public pour le déléguer à des acteurs privés, faisant directement écho à nos principaux dossiers en cours – où l’État délègue la censure du Net aux GAFAM dans le règlement de censure terroriste et où certaines villes confient leur politique sécuritaire à des technologies privées.

Le cas de Paris 13 est criant : alors que l’université manque considérablement de moyens pour fournir des cours à ses étudiant·es, elle accueille à bras ouvert Google, qui vient gratuitement expliquer aux élèves comment devenir complices de sa surveillance économique de masse (récemment reconnue illégale par la CNIL suite à l’une de nos plaintes collectives).

Nous reproduisons ci-dessous et nous nous associons au communiqué des membres du personnel de Paris 13 luttant contre cette privatisation de l’enseignement public.

Action contre la présence de Google à Paris 13

La formation « Ateliers Numériques » donnée par Google à l’Université Paris 13 a été interrompue le lundi 25 février 2019 vers 9h30 par des membres du comité de mobilisation de Paris 13 (enseignant·e·s, chercheur·se·s, étudiant·e·s, membres du personnel) et des militant·e·s de l’association la Quadrature du Net, qui promeut et défend les libertés fondamentales dans l’environnement numérique.

En présence d’une centaine d’étudiant·e·s, de Jean-Pierre Astruc (Président de l’Université) et
Younès Bennani (Vice-Président « transition numérique » de l’Université), ils ont pu prendre la parole et dénoncer :

  • l’ingérence d’intérêts privés dans l’enseignement supérieur public, qui corrompt
  • l’indépendance des savoirs enseignés à l’Université,
  • la faiblesse pédagogique de la formation qui se résume à de la publicité gratuite,
  • la politique d’évasion fiscale massive pratiquée par Google qui contribue à la destruction de l’enseignement supérieur français, ce qui fournit en retour l’excuse pour céder à ce type de formations.

Les membres du comité de mobilisation et de la Quadrature du Net ont ensuite quitté la salle sans heurts.

Vous trouverez ici le texte du tract.

]]>
[BFMTV] Quatre associations se liguent contre la reconnaissance faciale dans les lycéeshttps://www.laquadrature.net/?p=13600http://streisand.me.thican.net/laquadrature.net/index.php?20190228_110000__BFMTV__Quatre_associations_se_liguent_contre_la_reconnaissance_faciale_dans_les_lyceesThu, 28 Feb 2019 10:00:00 +0000Pour mieux contrôler l’entrée des élèves, deux lycées du Sud de la France testent des portiques dotés d’une technologie de reconnaissance faciale. Un recours vient d’être déposé auprès du tribunal administratif de Marseille pour « faire barrage à la surveillance biométrique« . […]

Le recours déplore également le défaut d’analyse d’impact, pourtant légitime avant le lancement d’un tel test. Une impasse d’autant plus cruciale que « ce dispositif expérimental, installé et financé par la société américaine Cisco a vocation à être étendu à l’ensemble des établissements scolaires de la région« , relève la Quadrature du Net.

https://www.bfmtv.com/tech/quatre-associations-se-liguent-contre-la-reconnaissance-faciale-dans-les-lycees-1636534.html

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[TV5Monde] Reconnaissance faciale : quatre associations déposent un recours contre les futurs portiques de lycées du sud de la Francehttps://www.laquadrature.net/?p=13601http://streisand.me.thican.net/laquadrature.net/index.php?20190227_110000__TV5Monde__Reconnaissance_faciale____quatre_associations_deposent_un_recours_contre_les_futurs_portiques_de_lycees_du_sud_de_la_FranceWed, 27 Feb 2019 10:00:00 +0000Deux lycées du sud de la France ont eu le feu vert de la Commission nationale de l’informatique et des libertés pour tester des portiques virtuels utilisant une technologie de reconnaissance faciale afin de filtrer les élèves. La quadrature du net associée à trois autres associations a déposé un recours pour demander l’annulation de la délibération du conseil régional à l’initiative de ce projet. Entretien avec Martin Drago, membre de LQDN et Didier Baichere, député LREM. […]

Martin Drago (membre de LQDN en charge du dossier reconnaissance faciale) et Didier Bachaire, député LREM (ayant posé une question au gouvernement sur la régulation des technologies de reconnaissance faciale), répondent chacun à nos questions au sujet de ces portiques et plus généralement de l’arrivée des « caméras intelligentes » dans les espaces publics. […]

https://information.tv5monde.com/info/reconnaissance-faciale-quatre-associations-deposent-un-recours-contre-les-futurs-portiques-de

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Cybersécurité : nous attaquons la surveillance de massehttps://www.laquadrature.net/?p=13613http://streisand.me.thican.net/laquadrature.net/index.php?20190226_135710_Cybersecurite____nous_attaquons_la_surveillance_de_masseTue, 26 Feb 2019 12:57:10 +0000Nous venons de saisir le Conseil d’État contre la loi de programmation militaire (LPM) 2019 au côté d’un fournisseur d’accès associatif, Franciliens.net, et de la Fédération des fournisseurs d’accès associatifs (FFDN) . Pour la première fois, le droit français a autorisé le gouvernement à analyser de façon automatisée le contenu de nos communications. Voilà comment nous nous y opposons.

La LPM 2019 est entrée en vigueur en France en juillet 2018. C’est un texte épars sur des questions de sécurité et notamment, à son article 34, de cybersécurité.

L’agence de cybersécurité du gouvernement (l’ANSSI – l’autorité nationale de sécurité des systèmes d’information) gagne de nouveaux pouvoirs de surveillance du Net. Elle peut ordonner à un hébergeur Web ou un FAI (fournisseur d’accès à Internet) de poser sur le réseau des sondes lui permettant d’analyser le trafic pour détecter des attaques informatiques – en théorie du moins car, en pratique, on n’en sait trop rien, tout cela se déroulant sans le contrôle d’un juge.

Ces sondes sont la suite directe des « boîtes noires » instituées par la loi renseignement de 2015, qui permettent aux services du gouvernement de surveiller les réseaux de télécommunication de façon automatique et parfaitement opaque afin de détecter des « menaces terroristes », toujours sans l’autorisation d’un juge. La différence majeure entre les boites noires de 2015 et de 2019 est que ces premières n’analysent en théorie que des données techniques (qui parle à qui, quand…) alors que celles de 2019 peuvent aussi analyser le contenu des communications. La tentation pour le gouvernement de détourner ces nouveaux outils à des fins de surveillance politique en est d’autant plus grande.

Pour aller plus en détails, vous pouvez relire notre analyse complète de la loi, publiée cet été.

Nos arguments

En terme de stratégie, nous avons demandé au Conseil d’État de dire que cette loi viole le droit européen (techniquement, nous n’avons pas directement attaqué la loi mais son « décret d’application », car il n’existe pas de procédure en France pour attaquer une loi ; en pratique, ça ne fait ici aucune différence puisque le Conseil d’État a le pouvoir d’annuler un décret au motif que la loi qu’il applique viole le droit européen, ce qui revient au même pour nous : c’est cette violation que nous voulons voir reconnue par un juge).

Sur le fond, vous pouvez lire ici la demande que nous avons envoyée. Elle est très simple et courte, car il ne s’agit que d’un premier document destiné à ouvrir la procédure (nous devions envoyer notre demande dans les deux mois suivant la publication du décret). Le détail de notre argumentation viendra dans un « mémoire complémentaire », mais les grandes lignes sont déjà là.

Des objectifs confus

Le texte est extrêmement confus quant à son objectif. Il semble vouloir protéger les internautes des cyberattaques et, dans le même temps, détecter ceux qui sont à l’origine de ces attaques, sans faire aucune distinction entre ces deux objectifs. Or, en droit, poursuivre l’un ou l’autre de ces objectifs change tout. Si c’est pour vous protéger, le droit doit au minimum vous laisser la possibilité de vous opposer à l’analyse de vos communications qui en résulte. Ici, la LPM ne vous laisse aucun pouvoir de la sorte : vous êtes protégé contre votre volonté.

Si l’objectif est de détecter les attaquants, évidemment, le droit n’a plus aucune raison de laisser à ceux-ci la possibilité de s’y opposer. Mais la loi doit toutefois leur garantir un certain nombre de droits, ne serait-ce que pour éviter que ces mesures ne soient dévoyées à des fins de surveillance politique.

Une surveillance indéfinie

D’abord, la nature et les conséquences de la surveillance doivent être compréhensibles à la lecture de la loi : ici, aucune définition ne limite la nature des données qui pourront être analysées par les sondes (le directeur de l’ANSSI annonce ainsi qu’il pourra s’agir de données techniques comme des données relatives au contenu des communications, ce qui décuplera les risques posés par ces mesures) ni quelles seront les « menaces » qui pourront être recherchées.

On ne sait pas non plus ce que seront ces « marqueurs techniques » utilisés par ces sondes pour rechercher ces menaces : cette notion de « marqueurs », invoquée par la loi, n’a aucune signification juridique ou technique.

Aucun contrôle indépendant

Ensuite, le droit européen impose de soumettre n’importe quelle mesure de surveillance au contrôle d’une autorité indépendante : ici, l’autorité indépendante désignée par la loi est l’ARCEP (l’autorité de régulation des postes et des communications électroniques).

Sauf que la LPM ne donne aucun pouvoir de contrôle à l’ARCEP : elle ne peut pas contrôler les sondes « sur place » (contrairement au contrôle que la CNIL peut faire dans une entreprise, par exemple). Elle ne peut pas davantage sanctionner l’ANSSI si elle constate que les sondes ont été dévoyées à des fins de surveillance politique.

Aucun moyen de se défendre

Enfin, les personnes surveillées doivent pouvoir contester les mesures illicites qu’elles ont subit. Le droit européen exige ceci de deux façon : en s’assurant que les personnes surveillées soient prévenues de la mesure une fois que la menace invoquée a disparue ; en leur permettant de saisir la justice ou une autorité compétente (ici l’ARCEP) pour contester la validité de la surveillance. Encore une fois, la LPM 2019 ne prévoit aucune de ces garanties.

Nous ouvrons ce nouveau front contre la surveillance de masse alors même que notre action contre la loi renseignement de 2015 vient tout juste d’être transmise devant les juges européens (voir notre article) et que le Parlement européen est sur le point de voter une nouvelle loi de surveillance-censure généralisée du Web dans les mains de la police et des GAFAM, abusant une fois de plus du prétexte terroriste.

Si vous pensez que nous avons bien fait d’ouvrir ce nouveau front, participez à tenir les autres fronts avec nous : jusqu’au 21 mars, appelez les députés européens pour leur demander de rejeter le règlement de censure terroriste.

]]>
[FranceCulture] Peut-on repartir de zéro sur les réseaux sociaux ?https://www.laquadrature.net/?p=13602http://streisand.me.thican.net/laquadrature.net/index.php?20190226_110000__FranceCulture__Peut-on_repartir_de_zero_sur_les_reseaux_sociaux___Tue, 26 Feb 2019 10:00:00 +0000Chaque seconde, près de 6000 tweets sont postés sur Twitter. Ceux qui ne seront pas effacés deviendront vite obsolètes. Mais culture de l’instantané ne veut pas dire culture de l’oubli. Les vieux messages peuvent toujours ressurgir. Alors comment gérer la mémoire d’Internet ? […]

Intervenants :

  • Laurent Chemla, Fondateur de GANDI, membre de la Quadrature du net
  • Fanny Georges, Sémiologue, maître de conférences en sciences de l’information et de la communication à l’Université Sorbonne Nouvelle – Paris 3
  • Yann Padova, Avocat, ancien secrétaire général de la CNIL (2006-2012), partner chez Baker McKenzie

https://www.franceculture.fr/emissions/du-grain-a-moudre/reseaux-sociaux-faut-il-revenir-sur-le-droit-a-loubli

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Le Conseil constitutionnel censure l’ancien droit de communication des douaneshttps://www.laquadrature.net/?p=13603http://streisand.me.thican.net/laquadrature.net/index.php?20190225_110000__NextINpact__Le_Conseil_constitutionnel_censure_l___ancien_droit_de_communication_des_douanesMon, 25 Feb 2019 10:00:00 +0000Le Conseil constitutionnel a censuré vendredi l’ancien régime du droit de communication des données de connexion dont bénéficiaient les agents des douanes. Après avoir considéré que ce régime était conforme au bloc de constitutionnalité le 27 janvier 2012, la haute juridiction est finalement revenue sur son analyse en raison d’un « changement des circonstances ». […]

Dans cette QPC, notons l’intervention de la Quadrature du Net, et d’autres associations (Franciliens.net, FAImaison, Midway’s Network et Rézine), toutes représentées par Me Alexis Fitzjean Ó Cobhthaigh.

https://www.nextinpact.com/brief/le-conseil-constitutionnel-censure-l-ancien-droit-de-communication-des-douanes-7789.htm

[NDLRP] Le communiqué de La Quadrature : Le Conseil constitutionnel censure l’accès des douanes aux données de connexion.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Vers l’automatisation de la censure politiquehttps://www.laquadrature.net/?p=13420http://streisand.me.thican.net/laquadrature.net/index.php?20190222_123055_Vers_l___automatisation_de_la_censure_politiqueFri, 22 Feb 2019 11:30:55 +0000Pour vous opposer à l’automatisation de la censure imposée par le règlement terroriste, rendez-vous sur notre page de campagne et contactez les députés européens jusqu’au 21 mars.

Une tribune de Félix Tréguer, membre de La Quadrature du Net.

Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées à la liberté d’expression que les luttes démocratiques du XIXème siècle nous avaient léguées en héritage.

L’héritage démocratique-libéral piétiné

La loi de 1881 sur la liberté de la presse – aujourd’hui interprétée à la lumière de la Convention européenne des droits de l’Homme – est certes pleine de lacunes, et on a trop souvent tendance à exagérer son libéralisme. Mais elle n’en demeure pas moins une boussole fondamentale pour la liberté d’expression, prévoyant par exemple des règles procédurales spéciales pour juger a posteriori des abus de cette liberté, et consacrant la compétence exclusive du juge judiciaire dans le cadre de procédures publiques.

Ces dernières années, cet héritage a été piétiné. Les protections associées à la liberté d’expression reculent partout : dans la rue, dans la presse mais aussi et surtout sur Internet. Si le phénomène est ancien, le contexte actuel de crise (anti)terroriste et la dérive autoritaire qu’oppose le pouvoir aux mouvements sociaux y contribuent grandement. Pour ne prendre qu’un sujet qui nous intéressera ici, rappelons par exemple qu’en 2014, le législateur a estimé que l’« apologie du terrorisme » sur Internet n’aurait à ce point rien à voir avec la liberté d’expression qu’elle pourrait faire l’objet d’une censure secrète du ministère de l’intérieur. Cette évolution aura d’ailleurs conduit fin 2016 à la censure de communiqués revendiquant des actes de destruction matérielle de véhicules policiers, en réponse à l’inculpation de personnes arrêtées en lien avec les manifestations contre la loi travail de 2016.

Par le même vote de 2014, le Parlement jugeait également l’apologie du terrorisme indigne de la loi de 1881 et de ses garanties, et bien plus à sa place dans le code pénal. En contournant les garanties procédurales attachées à la loi de 1881, cette évolution aura conduit aux comparutions immédiates et à des condamnations totalement disproportionnées de dizaines de provocateurs au lendemain des attentats de janvier 2015.

De l’expérimentation à la législation

Cette fuite en avant est en train d’atteindre un point de bascule. Depuis 2015, les gouvernements français, britannique, allemand et étasunien n’ont eu de cesse de mettre les multinationales de l’économie numérique sous pression pour les inviter à faire la police sur leurs plateformes. De visites ministérielles dans la Silicon Valley en sommets « États-plateformes » sur le terrorisme, Google, Facebook et consorts ont accepté ces collaborations visant à massifier la censure de la propagande terroriste dans un cadre extra-judiciaire.

Après de nombreuses expérimentations menées ces dernières années, notamment par  Europol ou encore le ministère de l’intérieur français, ces nouveaux agencements public-privé sont en passe d’être couronnés par l’adoption à marche forcée d’un règlement européen dédié à la lutte contre la propagande terroriste, présenté en septembre dernier par la Commission Juncker.

La France est directement à l’origine de ce texte. Le 12 avril dernier, le ministre de l’intérieur Gérard Collomb et son homologue allemand écrivaient à la Commission européenne pour l’intimer d’agir au plus vite pour présenter et faire adopter ce texte. Celle-ci a donc obtempéré, présentant son projet en catimini le 12 septembre – le jour où le Parlement européen adoptait le fameux article 13 de la directive copyright, dont les obligations en matière de censure automatique nourrissaient alors la controverse.

Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :

  • L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelle que soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
  • L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
  • L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.

La censure automatique bientôt généralisée

De la lettre d’avril 2018 émanant des ministres de l’intérieur français et allemand, il ressort deux choses, depuis confirmées par les informations glanées ces dernières semaines dans différents ministères.

D’abord, la certitude que le règlement est un pied dans la porte, une manière bien coutumière d’imposer des mesures controversées en invoquant des justifications supposées imparables – ici la lutte (anti)terroriste. Comme l’expliquent les ministres de l’intérieur dans cette missive :

« Il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine l‘incitation à la discrimination et à la haine raciale, atteinte à la dignité de la personne humaine… ».

À terme, ce nouveau régime de censure a donc vocation à être généralisé. Il suffira de revoir les paramètres de ces outils de filtrage pour ajouter de nouvelles catégories de contenus.

Le deuxième enseignement de cette lettre des gouvernements français et allemand est que ces systèmes de censure automatique développés par les grandes plateformes devront être proposés à l’ensemble des acteurs visés par ce texte :

« Les grandes entreprises [devront] apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus à caractère terroriste ».

Il est vrai que ces systèmes sont coûteux : Content-ID, l’outil mis en place par YouTube pour détecter de possibles atteintes au droit d’auteur dans les vidéos publiées par ses utilisateurs, aura à lui seul coûté près de 100 millions de dollars en développement…

Macron en soutien

Début novembre 2018, lors du Forum sur la gouvernance d’Internet qui se tenait dans les locaux de l’Unesco à Paris, Emmanuel Macron est revenu sur ce règlement, un texte qu’il a dit « soutenir pleinement », espérant « son adoption rapide avant les élections européennes ». Soit en à peu près 6 mois, délai exceptionnellement court pour un texte sécuritaire qui institue une censure extra-judiciaire pour l’ensemble des acteurs du Net opérant au sein de l’Union européenne.

Dans son discours, Macron confirme le bien-fondé des craintes soulevées par le règlement. Assurant que la « régulation des contenus illicites ou indésirables » est « la prochaine frontière », il s’empresse de distinguer « deux blocs » :

  • « le premier concerne la lutte contre les contenus objectivement et gravement illégaux – le terrorisme, la pédopornographie ». Pour ces contenus, l’intelligence artificielle est « mûre », assure le président français. C’est bien le sens du règlement européen que d’en généraliser l’usage.
  • « le second rassemble les contenus dont le caractère illicite est soumis à une interprétation, souvent d’ailleurs différente d’un pays à l’autre – les contenus haineux, la diffamation, le harcèlement ». Pour ces derniers, Emmanuel Macron estime que l’intelligence artificielle « n’est pas encore assez fine pour distinguer l’ironie, la parodie ou au contraire reconnaître un sous-entendu abject sous un discours policé ».

« Pas encore », donc bientôt ? Cette perspective a récemment été confirmée par Mounir Mahjoubi, secrétaire d’État au numérique : en annonçant le plan de lutte contre les contenus haineux sur Internet, le 14 février dernier, celui-ci évoquait sans réserve la perspective de soumettre les « discours de haine » à la censure automatique.

Quant à la référence aux contenus « indésirables », signifie-t-elle que que le chef de l’État entend encourager l’extension de ces systèmes de censure à des contenus licites mais réputés nuisibles par le pouvoir ? Un projet qui, parmi tant d’autres choses, contredit frontalement l’image d’un homme politique prétendant incarner l’« axe humaniste » européen dressé contre la fascisation du continent…

L’intelligence artificielle, Saint Graal des États

Durant les trois jours du Forum sur la gouvernance d’Internet, l’« intelligence artificielle » (ou IA) était sur toutes les bouches. C’est bien elle, en réalité, la nouvelle frontière censée transformer toutes les bureaucraties. C’est bien elle qui, selon l’expression entendue à maintes reprises durant cet événement, permettra à la surveillance et à la censure de « passer à l’échelle ».

Les progrès réalisés ces dernières années en « Machine Learning » et en traitement automatique des textes et des images fait en effet figure de Saint Graal pour les États. Fin 2017, un conseiller de Theresa May expliquait que si les États avaient besoin des multinationales américaines pour faire le sale boulot, c’est qu’après tout, « ces entreprises ont les meilleurs cerveaux du monde ».

Ces firmes, réunies depuis juin 2017 au sein d’un consortium baptisé « Global Internet Forum to Counter Terrorism », mettent en avant des résultats impressionnants (mais guère vérifiables) en matière d’automatisation de la détection des contenus terroristes : YouTube parle de 98% de contenus de ce type repérés automatiquement, tandis que Facebook explique que 99% des contenus liés à l’État islamique ou à Al-Qaïda sont retirés avant que quiconque ne les ait signalés.

Pour l’heure, ces outils de censure automatique n’opèrent souvent qu’un premier filtrage. L’essentiel des contenus censurés sont en réalité « modérés » par des prestataires établis en Inde, au Philippines ou au Maroc pour juger de la conformité de textes ou d’images aux conditions d’utilisation des plateformes. « En attendant les robots », ces petites mains de la censure qui travaillent dans des conditions déplorables se voient imposer des objectifs délirants de l’ordre de 2000 images par heure, soit une appréciation portée sur une image en moins de deux secondes. En 2017, Facebook annonçait porter ses équipes de modération de 3000 à 7500 personnes. Google envisageait dans le même temps de porter le nombre de modérateurs YouTube à plus de 10 000.

Ces chiffres rappellent que, malgré ses rapides progrès, la censure automatisée n’est encore que balbutiante. Mais compte tenu des milliards investis dans la recherche en IA et des pressions exercées par les États, sa généralisation est désormais à portée de main. Elle est bien en passe de fonder un nouveau régime de censure.

La fusion État-GAFAM : actualisation de logiques anciennes

Si l’on pense l’État non pas comme un bloc aux contours clairement identifiés (à la manière des juristes) mais davantage comme un ensemble de pratiques et une rationalité que Michel Foucault désignait comme la « gouvernementalité », alors il est clair que ce que ces évolutions donnent à voir, c’est l’incorporation de ces acteurs privés à l’État ; c’est la cooptation de leurs infrastructures et la diffusion de leurs savoir-faire dans le traitement et l’analyse de masses de données désormais cruciales dans les formes contemporaines de gouvernement. C’est donc une fusion qui s’opère sous nos yeux, bien plus qu’une concurrence entre les États et les GAFAM qui chercheraient à se substituer aux gouvernements.

Ces logiques de cooptation d’acteurs privés par l’État sont récurrentes dans l’histoire de la censure. À partir du XVIè siècle, alors que le développement de l’imprimerie joue un rôle clé dans la propagation de doctrines politiques et religieuses subversives, l’État moderne en gestation recourait déjà aux partenariats public-privé dans la surveillance et la censure des communications.

En France, le cardinal de Richelieu conclut au début du XVIè siècle une alliance avec les libraires parisiens qui réclament un monopole perpétuel sur l’édition des livres pour écraser la concurrence. Ils se voient octroyer des privilèges à durée quasiment illimitée en échange de la conduite d’une mission de surveillance des publications et la docte application des règlements en matière de censure. Cette politique, bientôt élargie à l’ensemble du royaume, permettra à une trentaine d’imprimeurs-libraires de maîtriser tant bien que mal la production et la distribution des livres. Cela n’étouffait évidemment pas totalement l’édition clandestine, mais permettait de maîtriser un tant soit peu les effets politiques de l’imprimerie, d’affermir l’absolutisme tout en remplissant les caisses de quelques hommes d’affaires.

Lors de leur apparition au tournant des années 1980, les réseaux informatiques – et Internet en particulier – se sont donnés à penser comme une technologie radicalement subversive des formes de contrôle des communications qui s’étaient institutionnalisées dans le giron de l’État moderne, et transposées aux différentes techniques de communication apparues depuis l’imprimerie. Ils allaient bientôt induire la massification des flux transfrontières d’information, l’anonymat relatif des communications numériques, l’appropriation de ces technologies par des groupes contestataires et marginalisés dans l’espace public traditionnel, et plus généralement la démocratisation de la capacité d’expression publique au delà du petit cercle des personnes ayant jusqu’alors accès aux médias traditionnels. Tout cela déstabilisait les modalités de contrôle de l’espace public et, plus encore, la souveraineté des États. Internet était perçu comme un espace dangereux. Il fallait donc réarmer la police de l’espace public ou, pour reprendre le vocable que Nicolas Sarkozy avait emprunté au parti communiste chinois, le « civiliser » (un terme encore repris récemment par Mounir Mahjoubi).

La solution est donc en passe d’être trouvée, et il aura fallu moins d’un quart de siècle. Aujourd’hui, au lieu d’une petite dizaines d’imprimeurs-libraires à l’échelle d’un pays, ce sont une poignée d’entreprises américaines qui sont cooptées par les bureaucraties d’État dédiées à la surveillance et à la censure. En dépit des discours lénifiants sur la « souveraineté numérique », les gouvernements préfèrent renforcer la position dominante de ces multinationales en obligeant l’ensemble des acteurs du numérique à leur acheter leurs systèmes de filtrage. Ceux qui ne pourront pas se le permettre ou qui refuseraient de se faire auxiliaires de censure – notamment ceux qui font encore vivre un Web indépendant, non-commercial, alternatif – seront poussés à mettre la clé sous la porte.

L’instrumentalisation de la lutte contre les discours de haine

On nous parle de lutter contre la propagande terroriste et les discours de haine. Mais il est désormais de plus en plus clair que cette lutte reposera sur des dispositifs de censure automatique qui resteront de véritables « boîtes noires », par définition secrètes, gérées par des partenariats public-privé opaques. Ces derniers consentiront peut être à mettre en scène une certaine transparence, un peu d’autorégulation et des aménagements présentés comme autant de garanties – à l’image de Facebook qui nous promet aujourd’hui de mettre sur pied une « cour suprême » pour recevoir des plaintes d’utilisateurs victimes de sa politique de « modération ». Mais ils ne présenteront jamais les garanties offertes par des juridictions traditionnelles. Et pour cause : ces dispositifs sont conçus pour s’en affranchir. La censure automatique des communications a cet avantage pour le pouvoir qu’elle est presque invisible, et donc pratiquement incontestable.

On nous parle de lutter contre les discours de haine via la censure d’Internet. Mais depuis plus de quarante ans que des incriminations existent pour réprimer les expressions incitant à la haine et aux discriminations, a-t-on vraiment fait des progrès en la matière ? De fait, l’intolérance se donne à voir au grand jour sur Internet, où elle s’abat sur des groupes structurellement discriminés. Pour autant, ces opprobres sont aussi quotidiennes dans les médias traditionnels, dans les cénacles politiques, et bien souvent dans les pratiques des institutions.

On nous parle de lutter contre les discours de haine. Mais il apparaît de plus en plus clairement que ce qui est aussi visé, c’est l’invisibilisation de tout discours associé de près ou de loin à des formes de violence politique qui risqueraient d’être perçues comme légitimes. C’est ce qu’illustre par exemple l’affaire déjà évoquée, lorsque fin 2016, au nom de la lutte contre le terrorisme, le ministère de l’intérieur enjoignait à deux sites participatifs de censurer un communiqué revendiquant l’incendie d’un hangar de gendarmerie, acte présenté par les auteurs comme une réponse à la répression policière (cette décision aura finalement été annulée début 2019 par la justice administrative, exceptionnellement saisie de cette affaire). Plus largement, c’est l’ensemble des discours politiques contestataires qui pourraient bientôt faire l’objet de cette censure secrète. La tentation du pouvoir est réelle, comme en témoigne les velléités récentes du ministère de l’intérieur de faire retirer un photomontage qui remplaçait le visage du général Pinochet et de ses sbires par ceux d’Emmanuel Macron, d’Édouard Philippe et de Christophe Castaner.

S’il était adopté, le règlement antiterroriste serait donc une pierre de plus dans la mise en place de ces nouveaux dispositifs dédiés à l’invisibilisation des expressions politiques contestataires. Rien qu’en s’en tenant à la catégorie de l’apologie du terrorisme, les outils de censure développés par les multinationales du numérique en lien avec les autorités trouveraient à s’appliquer à de nombreuses activités militantes : le sens du terme « terrorisme » est en effet tellement vague, ou lorsqu’une définition existe elle est tellement large, qu’il peut servir à justifier la censure de toute expression favorable à des actions politiques offensives ou violentes – y compris la destruction de biens matériels, le sabotage ou le blocage d’infrastructures.

Conjurer la re-féodalisation de l’espace public numérique

Si l’on se soucie de la liberté d’expression, si l’on se soucie de ménager un espace où le pouvoir pourra être critiqué, où nous pourrons débattre et nous organiser, où un peu de sens commun pourra se construire, ces nouvelles formes de censure doivent être tenues en échec.

Ce qu’il faut, c’est d’abord comprendre qu’une grande partie du problème lié aux discours haineux sur Internet tient à ce qu’est devenue l’économie politique de ce réseau. Le nœud du problème spécifique que pose Internet, c’est bien la manière dont les grandes entreprises du numérique conditionnent les régimes d’attention : les contenus attrape-clics, simplistes et sans nuance, jouant sur les émotions négatives ; les « bulles de filtres » qui nous enferment tout en donnant l’illusion de neutralité, et offrent un faux sentiment de sécurité en permettant aussi à des individus aux identités politiques radicalement adverses de venir nous agresser sur des plateformes ouvertes aux quatre vents.

Face aux « Fake News » et à la haine qui sévit aussi sur Internet, ceux qui prétendent nous gouverner se frottent les mains : le pourrissement de l’espace public numérique leur permet aujourd’hui de légitimer le retour de vieilles stratégies de contrôle. C’est tout le sens du discours de Macron au Forum sur la gouvernance d’Internet.

Ce n’est pourtant pas une fatalité. Ces dernières semaines, La Quadrature du Net a commencé à exposer des positions destinées à lutter par le droit contre ces infrastructures centralisées qui pervertissent le débat public, tout en favorisant l’éclosion d’îlots de communication communautaires et fédérés où pourront se redéployer les espaces d’expression, de conversation, et donc une partie du débat public. L’idée phare de ces propositions, c’est de casser le régime d’attention mis en place par les plateformes, fondé sur la collecte des données personnelles et la hiérarchisation des contenus à des fins commerciales, au sein d’infrastructures gigantesques pensées pour rendre les utilisateurs captifs.

L’objectif, c’est bien de promouvoir en lieu et place une nouvelle topologie de l’espace public numérique capable de protéger des lieux de discussion décentralisés mais pouvant être reliés les uns aux autres, laissant à chacun le choix de ses communautés et des limites données à la liberté d’expression, pour ainsi mieux maîtriser son degré d’exposition aux conflits qui traversent immanquablement l’espace public. L’espoir est d’ainsi réduire le risque de conflits interpersonnels non-souhaités. C’est de faire en sorte que la demande sociale de censure soit moins forte et que la censure préalable et automatique puisse ne plus apparaître comme la seule option valable ; que le principe d’une protection judiciaire de la liberté d’expression soit préservé.

L’urgence, c’est en tous cas de rompre l’alliance des appareils policiers et des grands marchands d’infrastructures numériques. C’est d’éviter que ne se consolident les fondements techniques et juridiques d’une société de contrôle nous enfermant imperceptiblement dans une cage de fer algorithmique.

Ce texte est adapté d’une intervention au colloque « Réglementer la liberté d’expression au nom du débat public », qui se tenait à l’Institut de Recherche Philosophiques de Lyon (IRPhiL) les 29 et 30 novembre 2018.

]]>
Le Conseil constitutionnel censure l’accès des douanes aux données de connexionhttps://www.laquadrature.net/?p=13540http://streisand.me.thican.net/laquadrature.net/index.php?20190220_152836_Le_Conseil_constitutionnel_censure_l___acces_des_douanes_aux_donnees_de_connexionWed, 20 Feb 2019 14:28:36 +0000La Quadrature du Net et les FAI associatifs Franciliens.net, Rézine, FAImaison et Midway’s Network sont intervenus fin décembre devant le Conseil constitutionnel afin de lui demander de censurer le i) du 1°) de l’article 65 du code des douanes.

Ces dispositions permettaient aux agents des douanes d’accéder aux données de connexion conservées par les intermédiaires techniques (vous pouvez lire notre recours ici).

Ce texte pose deux problèmes fondamentaux : d’une part il s’appuie sur une conservation des données de connexion qui n’est pas conforme au droit européen, d’autre part, dans la procédure pour y accéder, aucune garantie n’était prévue (il n’y avait pas de délai d’effacement des données prévu, par exemple) ce que le Conseil Constitutionnel a systématiquement sanctionné ces dernières années.

Le 15 février 2019, le Conseil constitutionnel a fait droit à cette demande, et censuré les dispositions légales attaquées, aux motifs que « La communication des données de connexion est de nature à porter atteinte au droit au respect de la vie privée de la personne intéressée » (voir la décision).

Le Conseil constitutionnel a considéré que, si le législateur avait réservé à certains agents des douanes soumis au respect du secret professionnel le pouvoir d’obtenir ces données dans le cadre d’opérations intéressant leur service et ne leur a pas conféré un pouvoir d’exécution forcée, il n’avait assorti la procédure prévue par les dispositions en cause d’aucune autre garantie. Dans ces conditions, toujours d’après le Conseil, le législateur n’avait pas entouré la procédure prévue par les dispositions contestées de garanties propres à assurer une conciliation équilibrée entre, d’une part, le droit au respect de la vie privée et, d’autre part, la prévention des atteintes à l’ordre public et la recherche des auteurs d’infractions.

Pour mémoire, cette victoire s’inscrit dans le sillage de précédentes actions. En particulier, en 2017, La Quadrature du Net avait remporté une victoire similaire, aux côtés de la Fédération des fournisseurs d’accès à Internet associatifs et de FDN, via les Exégètes Amateurs, à propos de dispositions législatives qui permettaient aux agents de l’Autorité des marchés financiers d’accéder aux mêmes données, dans des conditions identiques.

Le combat n’en est pas terminé pour autant ! En effet, le Conseil constitutionnel a préféré s’abstenir de répondre à une série de points qui étaient soulevés devant lui et qui concernaient le positionnement des données de connexion par rapport au champ couvert par le secret de correspondances, ou encore l’encadrement précis des conditions d’accès à de telles données, à l’instar de ce qu’a fait la Cour de justice de l’Union européenne, notamment dans sa jurisprudence de grande chambre de 2016 « Tele2 » (revoir l’argumentation que nous développons devant cette même Cour de justice contre le système de conservation des données de connexion dans son ensemble).

Par ailleurs, les dispositions qui ont été censurées avaient été abrogées par le législateur à compter du 1er janvier 2019. De nouvelles dispositions sont donc entrées en vigueur concomitamment à cette procédure (qui est donc distincte). Or, ces nouvelles dispositions prévoient désormais que l’accès des douanes aux données de connexion doit être préalablement autorisé par le procureur de la République, qui n’est pourtant pas une autorité indépendante au sens du droit européen, et s’abstiennent de prévoir une information des personnes concernées. Il s’agit pourtant de deux garanties (contrôle préalable par une autorité indépendante et notification de la mesure aux personnes concernées) qui sont exigées par le droit européen.

Le moment venu, nous ne manquerons pas de le rappeler. Notre intervention, et petite victoire, dans la procédure qui a pris fin le 15 février, visait surtout à renforcer des positions et symboles à invoquer dans la longue série de contentieux que nous avons déjà ouverts ou que nous prévoyons de lancer à l’avenir.

]]>
Reconnaissance faciale : un recours pour faire barrage à la surveillance biométriquehttps://www.laquadrature.net/?p=13517http://streisand.me.thican.net/laquadrature.net/index.php?20190219_154958_Reconnaissance_faciale____un_recours_pour_faire_barrage_a_la_surveillance_biometriqueTue, 19 Feb 2019 14:49:58 +0000Quatre organisations – La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes – viennent de déposer un recours devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région.

Ce recours intervient alors que la polémique enfle après que la mairie de Nice a annoncé expérimenter la reconnaissance faciale dans le cadre du carnaval.

Le 14 décembre 2018, le conseil régional de la région Sud (ex-PACA) a voté une délibération visant à faire installer à l’entrée de deux lycées de la région — le lycée des Eucalyptus à Nice et le lycée Ampère à Marseille — un dispositif de reconnaissance faciale. Ce dispositif expérimental, installé et financé par la société états-unienne Cisco, a vocation, comme l’a précisé M. Christian Estrosi lors du vote au Conseil régional, à être étendu à l’ensemble des établissements scolaires de la région.

Devant l’inaction de la CNIL et alors que cette expérimentation prépare la banalisation de la surveillance par reconnaissance faciale, les quatre organisations requérantes ont décidé de saisir le tribunal administratif de Marseille pour demander l’annulation de cette délibération.

Les arguments juridiques soulevés s’appuient essentiellement sur le règlement général sur la protection des données (RGPD) : la délibération, votée alors qu’aucune analyse d’impact n’avait été réalisée, permet en effet la mise en œuvre d’un traitement de données biométriques qui est notamment manifestement disproportionné par rapport à l’objectif poursuivi (apporter « une assistance aux agents en charge du contrôle d’accès au lycée et de l’accueil ») et qui n’est fondée sur aucune règle juridique adaptée, claire et intelligible, contrairement à ce qu’impose la Convention européenne des droits de l’Homme en matière de droit à la vie privée. La délibération autorisant cette expérimentation est donc illégale et doit être annulée.

Le recours est accessible ici.

Pour Martin Drago, juriste à La Quadrature du Net :

« Cette expérimentation vise à accoutumer les élèves à une surveillance biométrique. Cela participe à la banalisation de ce type de technologies, alors que des projets sécuritaires de vidéosurveillance dopées à la reconnaissance faciale pullulent désormais sur le territoire français. On trouve malheureusement bien peu de monde pour y faire barrage, que ce soit à la CNIL ou au niveau des élus locaux et à ce stade, les juges apparaissent comme l’ultime rempart institutionnel. »

Pour Maryse Artiguelong, vice-présidente de la Ligue des droits de l’Homme :

« Pour la Ligue des droits de l’Homme (LDH) cette expérimentation de reconnaissance faciale, qui permet l’identification à l’aide de données biométriques particulièrement sensibles – elles permettent notamment de déterminer l’origine ethnique, qui plus est sur des élèves en majorité mineurs – est particulièrement inquiétante. »

Pour Laure Guérard-Boushor, de la CGT Educ’Action des Alpes-Maritimes :

« Répression contre les lycéen.ne.s, mise en place de mesures pour restreindre le droit de manifester et maintenant mise en place d’un système de reconnaissance faciale à l’entrée de l’établissement les EK à Nice et Ampère à Marseille; l’escalade est toujours plus importante. Nous condamnons ces projets qui remettent en cause tous les principes de la liberté qu’elle soit individuelle ou collective ; qui laissent la porte ouverte à toutes les dérives, toutes les discriminations. Nous demandons à ce que l’argent dont notre école publique a besoin ne soit pas gaspillé dans des mesures dont on connaît l’inutilité et la nocivité. »

Pour Laëtitia Siccardi, présidente de la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes :

« Cette expérimentation est une dérive sécuritaire de plus, et nous sommes extrêmement attentifs à ce que les droits fondamentaux des lycéens soient respectés. De plus, il s’agit une fois encore d’un investissement financier considérable au service d’une mesure à l’efficacité douteuse.»

]]>
[ActualitedesLuttes] Vidéosurveillance et menace des libertés sur les réseaux sociauxhttps://www.laquadrature.net/?p=13500http://streisand.me.thican.net/laquadrature.net/index.php?20190219_110000__ActualitedesLuttes__Videosurveillance_et_menace_des_libertes_sur_les_reseaux_sociauxTue, 19 Feb 2019 10:00:00 +0000En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL-commision nationale informatique et liberté- pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs de « portiques virtuels » associant « des moyens classiques d’identification (…) à un dispositif biométrique utilisant des technologies de comparaison faciale. »

Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook, comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ? […]

C’est de ses questions dont nous parlerons dans l’émission de ce jour . Et pour cela , nous serons en compagnie de Martin et Marne, de La Quadrature du Net.

http://actualitedesluttes.info/?p=4159

NRDLRP : retrouvez l’émission avec Marne et Martin sur le Peertube de La Quadrature du net.

Notre page dédiée sur la future loi de censure antiterroriste évoquée dans l’émission, avec présentation et argumentaire : Règlement terroriste, censure sécuritaire.

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Déclaration commune : se mobiliser pour une réappropriation démocratique des médiashttps://www.laquadrature.net/?p=13509http://streisand.me.thican.net/laquadrature.net/index.php?20190218_163903_Declaration_commune____se_mobiliser_pour_une_reappropriation_democratique_des_mediasMon, 18 Feb 2019 15:39:03 +0000La Quadrature du Net partage la déclaration ci-dessous avec une diza