Autoblog de la La quadrature du nethttp://www.laquadrature.net/http://www.laquadrature.net/ [Europe1] 30 ans après sa création, que faudrait-il changer au Web ?https://www.laquadrature.net/?p=13707http://streisand.me.thican.net/laquadrature.net/index.php?20190325_110000__Europe1__30_ans_apres_sa_creation__que_faudrait-il_changer_au_Web___Mon, 25 Mar 2019 10:00:00 +0000Matthieu Belliard embarque les auditeurs pour écrire avec lui ce “Grand journal du soir”. Trois heures d’actualité avec toute la rédaction d’Europe 1 et de nombreux invités. Coups de gueule, coups de cœur, témoignages, ils interviennent tout au long de l’émission. A 19h10, Sonia Mabrouk reçoit un invité politique pour une interview sans concession, et à 19h20, Matthieu Belliard poursuit l’échange avec trois débatteurs eux-mêmes questionnés par les auditeurs. Le vendredi, les Grandes Voix le rejoignent pour ce debrief de l’actualité.

NDLRP : débat animé par Matthieu Belliard. Plateau sur la thématique ‘30 ans après sa création, que faudrait-il changer au Web ?‘ avec en invités Daniel Ichbiah, Hugo Travers, et Arthur Messaud de La Quadrature du Net.

https://www.europe1.fr/emissions/votre-grand-journal-du-soir-avec-matthieu-belliard/matthieu-belliard-120319-3872807

NDLRP : Retrouvez sur le peertube de La Quadrature du Net le débat avec Arthur Messaud.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[ActeursPublics] Débat : L’État face aux géants du Webhttps://www.laquadrature.net/?p=13708http://streisand.me.thican.net/laquadrature.net/index.php?20190324_110000__ActeursPublics__Debat____L___Etat_face_aux_geants_du_WebSun, 24 Mar 2019 10:00:00 +0000Chaque mois, Écrans publics propose de débattre autour de documentaires qui interrogent les politiques publiques. Ce mois-ci, la diffusion du documentaire Apple, Google, Facebook, les nouveaux maîtres du monde, de Yannick Adam de Villiers, a été l’occasion d’échanger autour du thème « L’État face aux géants du Web« . Un débat animé par Adeline Baldacchino, haute fonctionnaire et écrivaine, avec Yannick Adam de Villiers, réalisateur du documentaire, Gilles Babinet, vice-président du Conseil national du numérique, Alexis Fitzjean O Cobhthaigh, avocat, membre de La Quadrature du net, et Laurent Gayard, auteur de Darknet, GAFA, Bitcoin. L’anonymat est un choix.

https://www.acteurspublics.com/webtv/2019/03/12/debat-letat-face-aux-geants-du-web-1

NDLRP : retrouvez sur le peertube de La Quadrature du Net des extraits d’Alexis à l’occasion de cet échange.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[BFMTV] 30 ans du Web: HTTP, URL… ce que signifient ces acronymes qui nous connectenthttps://www.laquadrature.net/?p=13709http://streisand.me.thican.net/laquadrature.net/index.php?20190323_110000__BFMTV__30_ans_du_Web__HTTP__URL____ce_que_signifient_ces_acronymes_qui_nous_connectentSat, 23 Mar 2019 10:00:00 +0000Créées à la fin des années 80, ces technologies constituent encore aujourd’hui les bases du Web, tel qu’il est utilisé par la plupart des internautes dans le monde.

Vague, mais prometteur”. C’est ainsi que le projet de Tim Berners-Lee, alors informaticien, fut accueilli le 12 mars 1989 par le Cern, le laboratoire européen pour la physique des particules. L’idée de son système : permettre à tous les chercheurs de partager l’information et d’y accéder à distance. Quelques schémas incompréhensibles pour le profane, qui ont posé les fondations du Web tel que nous le connaissons. Tim Berners-Lee commence par nommer son projet : WorldWideWeb. […]

https://www.bfmtv.com/tech/30-ans-du-web-http-url-ce-que-signifient-ces-acronymes-qui-nous-connectent-1650047.html

NDLRP : retrouvez l’extrait du reportage vidéo avec l’apparition de Benjamin Bayart et d’Arthur Messaud sur le peertube de La Quadrature du Net.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[RadioCauseCommune] Règlement terroriste, Pépites libres, Fund the Code!https://www.laquadrature.net/?p=13710http://streisand.me.thican.net/laquadrature.net/index.php?20190322_110000__RadioCauseCommune__Reglement_terroriste__Pepites_libres__Fund_the_Code_Fri, 22 Mar 2019 10:00:00 +0000La seizième émission Libre à vous ! de l’April a été diffusée en direct mardi 12 mars 2019 de 15 h 30 à 17 h 00.

Nous avons commencé par la troisième chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April. Nous avons enchainé avec notre sujet principal qui portait sur le projet de règlement terroriste / censure sécuritaire avec nos invités : Arthur Messaud et Martin Drago de La Quadrature du Net. Nous avons poursuivi par une interview de présentation de l’initiative Fund the Code! avec Louis-David Benyayer. Nous avons terminé par diverses annonces. […]

https://cause-commune.fm/podcast/reglement-terroriste-pepites-libres-fund-the-code/

https://april.org/emission-libre-a-vous-diffusee-mardi-12-mars-2019-sur-radio-cause-commune-reglement-terroriste-pepit

Transcription de l’émission par l’équipe Transcriptions de l’APRIL : https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-12-mars-2019

NDLRP : retrouvez sur le peertube de La Quadrature du Net l’interview d’Arthur et Martin sur la proposition de règlement terroriste et la censure sécuritaire.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
La Quadrature du Net appelle le Parlement européen à rejeter la directive sur le droit d’auteur !https://www.laquadrature.net/?p=13736http://streisand.me.thican.net/laquadrature.net/index.php?20190321_112032_La_Quadrature_du_Net_appelle_le_Parlement_europeen_a_rejeter_la_directive_sur_le_droit_d___auteur___Thu, 21 Mar 2019 10:20:32 +0000La semaine prochaine, le Parlement européen va devoir se prononcer par un dernier vote sur le sort de la directive Copyright, en discussion depuis plusieurs années. La Quadrature du Net appelle les députés européens à rejeter ce texte, qui provoquerait de graves restrictions à la liberté d’expression et à l’accès à l’information. Loin de rééquilibrer les relations avec les Géants du Net, cette directive conduirait à leur déléguer un inquiétant pouvoir de censure automatisée. Ce texte ne constitue pas la réforme du droit d’auteur dont l’Union européenne a besoin et il ne comporte aucun élément tangible qui améliorerait la situation des créateurs.

Le texte résultant des négociations conduites ces derniers mois par les institutions européennes n’a corrigé aucun des points problématiques qui nous avaient conduit à demander le rejet du texte déjà à plusieurs reprises en 2018. Notre analyse reste la même : les industries culturelles et les grandes sociétés d’ayants droit cherchent en réalité à ramasser les miettes du butin engrangé par les Géants du Net grâce à la surveillance de masse qu’ils mettent en œuvre à travers la publicité ciblée. Sous couvert d’opérer un « partage de la valeur », cette directive constituerait un grave renoncement de l’Union européenne, en liant le financement de la création et de la presse à la violation systématique des droits des individus.

Tout ceci s’accomplira en outre sur le dos des libertés fondamentales, à cause des articles 11 et 13 de la directive qui suscitent l’opposition d’un grand nombre d’acteurs de la société civile. Même si le champ d’application de l’article 13 ne concerne pas dans sa rédaction finale ce que La Quadrature considère comme l’Internet libre et ouvert – à savoir les services décentralisés ou fédérés de type Mastodon ou Peertube – il imposera aux plateformes centralisées et lucratives une obligation de filtrage a priori des contenus à laquelle notre association s’est toujours opposée. L’application de tels procédés est manifestement disproportionnée et la directive n’apporte aucune garantie satisfaisante pour protéger la liberté d’expression. La directive Copyright a ainsi servi de laboratoire aux logiques de censure automatisée que l’on retrouve dans d’autres textes, comme le règlement Anti-terroriste contre lequel La Quadrature du Net est mobilisée (voir notre page dédiée).

L’article 11 est tout aussi problématique, puisqu’en souhaitant instaurer de nouveaux droits pour les éditeurs de presse, il va restreindre l’usage de ces contenus bien au-delà des seuls agrégateurs, type Google News, en affectant aussi potentiellement des acteurs non-lucratifs et tout l’écosystème de l’accès à l’information.

Si la directive Copyright doit être rejetée par le Parlement européen, c’est aussi parce qu’elle ne constitue pas la réforme positive du droit d’auteur dont l’Union a besoin. Les industries culturelles sont parvenues encore une fois à focaliser le débat autour d’un renforcement de la propriété intellectuelle, en occultant le profond besoin d’adaptation des règles du droit d’auteur aux pratiques numériques. Dans son état actuel, la directive contient certes quelques aménagements sous la forme d’exceptions au droit d’auteur, mais ils restent bien trop limités pour apporter un changement significatif.

Aucune de ces mesures ne correspond aux propositions formulées depuis plusieurs années par la Quadrature du Net afin de changer en profondeur le droit d’auteur en réconciliant les artistes et le public. Il aurait fallu pour cela mettre en débat des idées comme la légalisation du partage non-marchand des œuvres, la reconnaissance des pratiques transformatives comme le remix ou le mashup ou de nouvelles formes de financement comme la contribution créative.

En affirmant que ce texte sera en mesure d’améliorer le sort des créateurs en Europe, les industries culturelles qui le soutiennent mentent profondément. Elles ont constamment empêché que des sujets comme les modalités de financement de la création ou les règles de répartition des revenus entre créateurs et intermédiaires soient discutés, alors qu’ils constituent le cœur du problème à régler pour améliorer la condition des auteurs. La France porte une responsabilité particulière dans ce fiasco dans la mesure où les gouvernements successifs et la majorité des eurodéputés français ont constamment fait obstruction sur ces questions tout en poussant les mesures les plus répressives.

Plus largement, c’est tout le processus d’élaboration de ce texte qui a été émaillé d’intrusions, aussi bien de la part du lobby des industries culturelles que de celui des Géants du Net. Ce spectacle navrant porte atteinte à la crédibilité démocratique de l’Union européenne. Mais il ne doit pas occulter la mobilisation importante des personnes et des organisations de la société civile – l’une des plus importantes à ce jour -, qui a constamment été ignorée ou raillée tant par la Commission européenne que par une partie des eurodéputés favorables au texte.

Le Parlement européen dispose encore d’une ultime chance de montrer qu’il est capable de faire preuve d’indépendance en enterrant définitivement ce texte aberrant. Il l’a déjà fait en juillet 2018 pour protéger les libertés fondamentales et il doit le refaire à présent pour les mêmes raisons.

C’est la raison pour laquelle La Quadrature du Net se joint aux autres associations engagées contre ce texte – EDRi, Bits of Freedom, Wikimedia, l’APRIL et bien d’autres ! – en appelant les citoyens à contacter les eurodéputés via la plateforme Pledge2019.

]]>
[LaNouvelleRepublique] Face aux pirates, le sport français cherche la paradehttps://www.laquadrature.net/?p=13711http://streisand.me.thican.net/laquadrature.net/index.php?20190321_110000__LaNouvelleRepublique__Face_aux_pirates__le_sport_fran__ais_cherche_la_paradeThu, 21 Mar 2019 10:00:00 +0000La diffusion illégale de contenus sportifs sur Internet a connu une hausse en 2018, notamment pour le football. Les acteurs s’organisent pour riposter. Zoom sur cette problématique. […]

3 – Faut-il s’inquiéter de la volonté affichée de bloquer des sites plus facilement ?

« C’est un vrai problème. Depuis plusieurs années, on étend le domaine de la censure administrative, à chaque fois avec des raisons différentes, certaines vraiment compréhensibles, d’autres beaucoup plus légères, répond Axel Simon, membre de la Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. On contourne les problèmes. On ne s’attaque jamais aux causes, mais aux symptômes… »

Il précise : « A l’heure actuelle, c’est possible de bloquer des sites, sur décision d’un juge. Mais, l’automatiser, c’est beaucoup plus dangereux, car quand on passe par de l’administratif, on se retrouve avec des listes noires et des personnes capables d’en empêcher d’autres de voir quelque chose, sans qu’il y ait de contradictoire. On rentre dans des choses vraiment désagréables et difficiles à accepter au sein d’une société démocratique. Car on ne sait pas qui censure quoi. Qui surveille les surveillants ? »

https://www.lanouvellerepublique.fr/a-la-une/dossier-face-aux-pirates-le-sport-francais-cherche-la-parade

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LeDevoir] Il y a 30 ans naissait le Webhttps://www.laquadrature.net/?p=13706http://streisand.me.thican.net/laquadrature.net/index.php?20190320_110000__LeDevoir__Il_y_a_30_ans_naissait_le_WebWed, 20 Mar 2019 10:00:00 +0000« On a connecté le monde, mais on a aussi connecté toute la merde qui allait avec. » Au téléphone, Ben Segal, ingénieur au laboratoire du CERN, l’Organisation européenne pour la recherche nucléaire, est tout sauf lénifiant lorsqu’il remonte le fil de l’histoire du Web, dont il a accompagné la naissance. […]

« La décentralisation, les protocoles ouverts, c’est l’idée de départ, dit Alexis Fitzjean, membre de La Quadrature du Net, un organisme européen qui milite pour un Web plus proche de son idéologie originelle. Il faut revenir à cette idée de l’internaute producteur et diffuseur de l’information, mais aussi imposer des interfaces de programmation [les fameuses API] ouvertes qui permettraient à un usager de ne plus être captif d’un réseau social et de migrer vers un autre, sans peur de perdre son historique, ses données personnelles ou ses contacts. » […]

https://www.ledevoir.com/societe/549634/ll-y-a-30-ans-naissait-le-web

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Contexte] La Quadrature du Net : « Emmanuel Macron n’est pas pour l’Europe des libertés, mais pour l’Europe des Gafam »https://www.laquadrature.net/?p=13712http://streisand.me.thican.net/laquadrature.net/index.php?20190319_110000__Contexte__La_Quadrature_du_Net________Emmanuel_Macron_n___est_pas_pour_l___Europe_des_libertes__mais_pour_l___Europe_des_Gafam____Tue, 19 Mar 2019 10:00:00 +0000[Série] Un an et demi après l’arrivée d’Emmanuel Macron au pouvoir et alors que se profilent les européennes, Contexte donne la parole à des acteurs privés français impliqués sur les sujets numériques. Quel bilan font-ils de ce début de présidence et du marché unique numérique ? Quels sont leurs souhaits pour la suite ? Sixième volet avec Arthur Messaud et Martin Drago, juristes à La Quadrature du Net. […]

« On entend souvent dire qu’Emmanuel Macron est européen, c’est faux ! Il ne respecte pas l’arrêt Tele2 de la Cour de justice de l’Union européenne, un arrêt protecteur pour les libertés publiques, qui interdit de mettre les acteurs privés au service de la surveillance de masse. Il veut même aller plus loin, avec la loi sur les contenus haineux. Il n’est pas pour l’Europe des libertés, mais pour l’Europe des Gafam et des grosses entreprises. » […]

https://www.contexte.com/article/numerique/la-quadrature-du-net-emmanuel-macron-nest-pas-pour-leurope-des-libertes-mais-pour-leurope-des-gafam_98253.html

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[20Minutes] Cambridge analytica: « Le scandale a montré que les politiciens sont aussi malhonnêtes que les autres »https://www.laquadrature.net/?p=13713http://streisand.me.thican.net/laquadrature.net/index.php?20190318_110000__20Minutes__Cambridge_analytica______Le_scandale_a_montre_que_les_politiciens_sont_aussi_malhonnetes_que_les_autres____Mon, 18 Mar 2019 10:00:00 +0000INTERVIEW. Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur. […]

Benjamin Bayart, cofondateur de la Quadrature du Net, animera la conférence « La démocratie à l’épreuve des réseaux sociaux » au Grand Barouf du numérique de Lille le 21 mars. Pour donner un avant-goût à cette réflexion, il revient avec 20 Minutes sur cette manipulation de grande ampleur et ouvre les portes à la démocratie du futur. […]

https://www.20minutes.fr/high-tech/2473643-20190317-cambridge-analytica-scandale-montre-politiciens-aussi-malhonnetes-autres

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Censure antiterroriste : seconde défaite au Parlement européenhttps://www.laquadrature.net/?p=13698http://streisand.me.thican.net/laquadrature.net/index.php?20190315_155629_Censure_antiterroriste____seconde_defaite_au_Parlement_europeenFri, 15 Mar 2019 14:56:29 +0000Au Parlement européen, les deux commissions appelées à rendre leur avis sur le règlement de censure anti-terroriste ont désormais publié leurs propositions d’amendements. Hélas, de même que l’avis rendu par la commission IMCO la semaine dernière (voir notre réaction), l’avis de la commission CULT (culture et éducation) n’apporte aucun véritable changement à la proposition initiale de la Commission européenne, désastreuse pour nos libertés.

Lire notre dossier sur le règlement.

Julie Ward, rapporteure du texte pour CULT, introduit l’avis en expliquant bien les menaces que représente le texte, de même que nous les dénonçons depuis des mois : le délai d’une heure que la police peut imposer à n’importe quel service pour retirer un contenu qu’elle considère « terroriste », l’élimination du rôle de l’autorité judiciaire, la possibilité pour la police d’imposer aux plateformes des mesures proactives (notamment des filtres automatisés), les amendes considérables pour tous les acteurs de l’Internet qui ne respecteraient pas ces obligations…

Mais presque aucune de ces inquiétudes ne sont matérialisées dans le texte final adopté lundi par la commission CULT. Au contraire.

S’agissant du délai d’une heure, CULT propose de le remplacer par un « sans retard indu ». Ce qui pourrait paraître pour un premier progrès disparaît aussitôt qu’on lit la suite du texte : « les États Membres peuvent prévoir que, lorsqu’un contenu terroriste est manifestement nocif ou constitue une menace immédiate à l’ordre public, les services d’hébergement doivent le supprimer ou en empêcher l’accès dès l’instant où ils reçoivent une injonction dûment justifiée » (notre traduction). Ainsi, contre toute attente, les députés de CULT ont réussi à rendre cette disposition encore plus dangereuse, permettant aux États Membres de donner à leur police le pouvoir d’exiger le retrait immédiat d’un contenu. Tel que nous le rappelons dans chacune de nos analyses, seule une poignée d’acteurs sont capables de respecter une obligation aussi stricte : les géants du Web. Alors que nous pensions que la proposition initiale de la Commission européenne ne pouvait être aggravée, la commission CULT a défié toutes nos attentes.

Aucun progrès non plus du côté de l’autorité compétente qui peut ordonner le retrait de ces contenus : le texte prévoit que les États membres peuvent désigner une autorité judiciaire ou « une autorité administrative indépendante disposant de l’expertise requise ». Néanmoins, une telle notion pourrait concerner de nombreuses autorités administratives et il ne fait aucun doute que certains États interpréteront cette notion de la manière la plus profitable pour eux. L’article 6 dans lequel l’autorité compétente peut imposer des mesures proactives aux hébergeurs est également toujours présent, tout comme les sanctions financières (si la version de la Commission prévoyait que les acteurs pouvaient être sanctionnés jusqu’à 4% de leur chiffre d’affaires, CULT propose de baisser à 2%…)

Des changements aussi timides ne permettront jamais de régler les principaux dangers qui existent au cœur de ce texte : l’existence de mesures proactives obligatoires avec la menace de lourdes sanctions financières n’aura pour effet que d’encourager les acteurs de l’Internet à adopter une définition de la notion de contenu terroriste aussi large que possible. Cela mènera à une censure de masse des contenus en ligne et à la soumission de l’ensemble de ces acteurs aux outils de modération développés par les géants du Web.

Dernière ligne droite

Il revient maintenant à la commission LIBE (Libertés civiles, justice et affaires intérieures) de voter sa version du texte qui sera présentée en avril à l’ensemble du Parlement européen. Les députés de cette commission et les « shadow rappporteurs » se rencontrent en ce moment régulièrement pour trouver des compromis sur les points les plus problématiques du texte, avec l’objectif d’arriver à une position finale d’ici le 21 mars, jour du vote. Nous craignons malheureusement le pire : les compromis que nous avons pu pour l’instant lire ne sont pas bons du tout, et même aussi mauvais que l’avis de CULT. Ils ne prévoient toujours aucune autorisation judiciaire préalable, remplacent le délai d’une heure par un délai de huit heures (ce qui ne change rien) et promeuvent toujours le filtrage automatique…

Il est plus que jamais nécessaire d’appeler vos députés. Pour cela, nous avons prévu une page dédiée sur notre site avec une analyse du texte et un outil pour contacter les députés en charge du règlement.

Appelez vos députés. Demander le rejet de ce texte.

]]>
Rachida Dati porte-parole de la politique sécuritaire de Macron au Parlement européenhttps://www.laquadrature.net/?p=13673http://streisand.me.thican.net/laquadrature.net/index.php?20190312_152126_Rachida_Dati_porte-parole_de_la_politique_securitaire_de_Macron_au_Parlement_europeenTue, 12 Mar 2019 14:21:26 +0000Alors que le vote sur le règlement de censure terroriste aura lieu le 21 mars (voir notre site de campagne), Rachida Dati a adressé à l’ensemble des députés européens en charge du texte, une lettre dans laquelle elle soutient la position la plus sécuritaire du Parlement européen. Nommée cheffe de file sur ce dossier par le groupe politique de droite (le Parti populaire européen – PPE, le plus important du Parlement), elle y défend les intérêts politiques d’Emmanuel Macron, en faveur d’un contournement de la justice et d’un assujettissement du Web européen à Google et Facebook.

Le 27 février dernier, Rachida Dati envoyait à l’ensemble des 60 députés de la commission LIBE (« liberté civile », qui votera le texte le 21 mars) une lettre les invitant à adopter le règlement dans sa version la plus sécuritaire possible (voir la lettre (PDF)). Refusant tout débat objectif, Mme Dati se moque que ce texte soit inutile, qu’il méprise la séparation des pouvoirs en permettant des censures massives sans juge, qu’il détruise nos libertés sur Internet ou qu’il annihile l’écosystème numérique européen. Elle semble ne chercher qu’un symbole politique facile pour ses prochaines élections : se positionner en tant que héraut de la lutte contre le terrorisme.

Le mythe de l’auto-radicalisation

D’entrée de jeu, elle fait sienne la rhétorique trompeuse de la Commission européenne, arguant que le règlement de censure terroriste « est un outil crucial pour renforcer la lutte contre le terrorisme et la radicalisation en Europe ». Comme la Commission, elle refuse tout débat basé sur des faits, préférant fonder son action politique sur les sentiments de crainte et d’urgence. Si Rachida Dati acceptait de s’en tenir aux faits, sa conclusion serait pourtant bien différente : en 2017, l’UNESCO publiait un rapport analysant 550 études sur la question de la radicalisation en ligne et concluant que « les données sont insuffisantes pour que l’on puisse conclure à l’existence d’un lien de cause à effet entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». En face, ni Rachida Dati, ni la Commission européenne, ne sont capables de produire des études soutenant leurs théories.

Cette situation n’est pas nouvelle. Comme elle le rappelle dans sa lettre, Rachida Dati a été, en 2015, la rapporteure d’une « résolution du Parlement européen sur la prévention de la radicalisation et du recrutement de citoyens de l’Union par des organisations terroristes ». Cette résolution souffrait des mêmes défauts, affirmant déjà au doigt mouillé, sans aucune évaluation concrète ni chiffrée, que « l’internet et les réseaux sociaux constituent des plateformes importantes utilisées pour accélérer la radicalisation et le fondamentalisme, car ils permettent une diffusion massive et rapide, à l’échelle mondiale, des messages de haine et d’apologie du terrorisme » (nous le dénoncions déjà alors).

Plus grave encore, cette résolution parlementaire de 2015 « exprime ses vives inquiétudes face à l’utilisation croissante des techniques de cryptage par les organisations terroristes qui rendent impossibles la détection et la lecture de leurs communications ». Invoquer le prétexte terroriste pour lutter contre le chiffrement de nos communications est malheureusement devenu un lieu commun. Heureusement, Rachida Dati nous fait grâce de ce serpent de mer dans les débats actuels.

Dans tous les cas, il devient ainsi difficile de dire aujourd’hui qui d’Emmanuel Macron ou de Rachida Dati reprend la politique de l’autre. L’approche sécuritaire, prise par Nicolas Sarkozy lorsque Madame Dati faisait parti de son gouvernement, n’est en rien différente de celle d’Emmanuel Macron. Tous reposent sur la mise en avant de solutions simplistes, ignorant les faits ainsi que leurs conséquences concrètes, espérant que leur électorat soit plus sensible à la peur qu’à la raison.

Destruction de l’écosystème numérique européen

Dans la lettre envoyée à ses 60 collègues de la commission LIBE, Rachida Dati « appelle le Parlement à soutenir le délai d’une heure pour exécuter les injonctions de retrait ». Face aux réalités d’une telle obligation, Madame Dati feint d’avoir « entendu et compris les préoccupations de différents acteurs, notamment des PME ». En vérité, elle en méprise totalement les intérêts.

Aucune petite ou moyenne plateforme ne peut supprimer en une heure un contenu signalé comme terroriste par la police (pour la simple raison, déjà, que répondre à cette demande la nuit ou le weekend n’est possible que pour les entreprises les plus importantes). Madame Dati ne propose aucune marge d’ajustement pour ces plateformes, faisant primer ce délai magique d’une heure sur toute autre considération.

L’écosystème numérique européen n’a qu’à disparaître, soumis à des obligations intenables sous la menace de lourdes sanctions. Ceci n’affectera en rien la stratégie électoraliste de Rachida Dati qui, manifestement, pense qu’une position aussi symbolique qu’absurde contre le terrorisme l’aidera à gagner la mairie de Paris (pour laquelle elle vient d’annoncer se présenter).

Surtout, cet acharnement symbolique est parfaitement vain : l’extrême majorité des plateformes en ligne font déjà de leur mieux pour supprimer les contenus terroristes, qu’ils soient ou non signalés par la police. Aucune plateforme n’a d’intérêt à héberger de tels contenus, si ce n’est à vouloir effectivement participer à leur diffusion. Contre des plateformes qui souhaiteraient cela, le règlement de censure terroriste ne prévoit rien, car aucune loi ne peut rien faire contre : ces plateformes pourront toujours s’installer n’importe où pour échapper à la loi (elles le font déjà) et seront toujours accessibles par leur public.

Renforcer la dépendance à Google et Facebook

Rachida Dati affirme auprès de ses collègues que « ces dernières années ont prouvé qu’avec le développement technologique les grandes plateformes telles que Google, Facebook et Twitter ont atteint de bons résultats » en matière de censure des contenus terroristes. Un tel éloge des GAFAM, qui ne se base toujours pas sur une analyse chiffrée, fait directement écho à la façon dont Mounir Mahjoubi promeut Facebook en héros de la modération contre la haine sur Internet (voir notre analyse). À chaque fois dans le même but : conforter la position dominante des géants du Web qui sont devenus les alliées de gouvernements souhaitant toujours plus surveiller et contrôler la population.

Encore une fois, les acteurs qui offrent des modèles alternatifs, plus respectueux de notre vie privée et de notre liberté d’expression (revoir notre article à leur sujet), sont appelés à disparaître ou, au mieux, à se placer sous la dépendance de ces géants. Rachida Dati reprend ainsi la rhétorique de la Commission européenne, en « soutenant fortement la proposition sur les mesures proactives » que les plateformes devront obligatoirement déployer pour détecter et supprimer les contenus terroristes.

La Commission européenne explique ainsi, au côté du ministère de l’intérieur français, que les outils de filtrage développés par Facebook, Google, Twitter et Microsoft depuis 2015 pour leur plateformes doivent maintenant être utilisés par l’ensemble des acteurs du Web (lire notre analyse sur la genèse du règlement). La zone d’influence des GAFAM continue de s’étendre, avec le soutien total des gouvernements européens et, ici, de Madame Dati.

Une démarche purement électoraliste

Rachida Dati ne cache pas le sens de son engagement : « Nous devons voter ce rapport avant la fin du mandat. Tout délai à son adoption serait non seulement une sérieuse erreur politique, mais aussi un affront aux citoyens qui demandent à l’Union européenne de les protéger ».

Puisque ce règlement n’apportera aucune protection, c’est uniquement la peur des citoyens qui l’intéresse. On comprend alors très bien pourquoi ce serait une « sérieuse erreur politique » de ne pas en jouer, alors qu’elle ne compte pas se représenter au Parlement européen, mais qu’elle doit justifier, dans l’urgence, son mandat européen assez creux, afin de poursuivre sa carrière politique française.

C’est pourtant la démarche inverse que doit adopter le Parlement européen : forcé de débattre d’un texte aux conséquences aussi lourdes en seulement quelques semaines, il ne pourra prendre que les pires solutions. Aucun débat législatif ne doit être conduit dans l’urgence électoraliste. Certes, les craintes que la composition du prochain Parlement européen soit encore plus à droite et proche d’Emmanuel Macron ne sont pas à prendre à la légère. Mais, contre toute projection politicienne, nous préférons la sagesse des débats longs, précis et rigoureux.

Pour repousser la censure automatisée, le contournement du juge et la GAFAMisation du Web, appelons les députés européens avant le 21 mars via notre site d’action.

Les citations de la lettre de Rachida Dati sont des traductions de notre part, de l’anglais vers le français.

]]>
[France3] Un livre un jour « Algorithmes, la bombe à retardement »https://www.laquadrature.net/?p=13669http://streisand.me.thican.net/laquadrature.net/index.php?20190311_110000__France3__Un_livre_un_jour_____Algorithmes__la_bombe_a_retardement____Mon, 11 Mar 2019 10:00:00 +0000Présenté par : Adeline Alexandre, Delphine Chaume.

Entretien avec Benjamin Sonntag, co-fondateur de La Quadrature du Net’ pour le livre « Algorithmes, la bombe à retardement », de Cathy O’Neil (Les Arènes).

https://www.france.tv/france-3/un-livre-un-jour/910845-algorithmes-la-bombe-a-retardement-de-cathy-o-neil-les-arenes.html

NDLRP : réalisé par Olivie’r Chevillard. Les illustrations sont de Tommy Dessine. A retrouver sur le peertube LQDN :

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[TV5Monde] Règlement antiterroriste européen : la censure d’Internet automatisée par les GAFA ?https://www.laquadrature.net/?p=13641http://streisand.me.thican.net/laquadrature.net/index.php?20190310_110000__TV5Monde__Reglement_antiterroriste_europeen____la_censure_d___Internet_automatisee_par_les_GAFA___Sun, 10 Mar 2019 10:00:00 +0000Le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne, dévoilé en janvier par la Commission européenne, devrait être adopté avant les élections européennes de mai. L’obligation pour les hébergeurs de retirer un contenu dans l’heure risque de créer une automatisation de la censure en ligne, qui se verrait alors massivement gérée par les géants du Net. Eclairage avec Olivier Iteanu, avocat spécialiste du droit de l’Internet. […]

Selon La Quadrature du net, cette définition très large du terrorisme pourrait englober à terme des mouvements sociaux contestataires — comme celui des Gilets jaunes — et mener à une censure automatisée de la contestation sur Internet. Un article du règlement est particulièrement pointé du doigt : celui permettant à une autorité administrative ou judiciaire d’imposer le retrait de contenus dans un délai d’une heure maximum (règle appelée la « Golden hour », ndlr) sans quoi une amende de 4% du chiffre d’affaires de l’hébergeur impliqué pourrait être appliquée. […]

https://information.tv5monde.com/info/reglement-antiterroriste-europeen-la-censure-d-internet-automatisee-par-les-gafa-287776

NDLRP : notre campagne contre ce règlement : Règlement terroriste.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Brut] La reconnaissance faciale expérimentée au carnaval de Nicehttps://www.laquadrature.net/?p=13642http://streisand.me.thican.net/laquadrature.net/index.php?20190309_110000__Brut__La_reconnaissance_faciale_experimentee_au_carnaval_de_NiceSat, 09 Mar 2019 10:00:00 +0000La reconnaissance faciale est expérimentée pour renforcer la sécurité pendant le carnaval de Nice. Cela inquiète certaines associations, notamment sur l’utilisation des données personnelles…

https://www.brut.media/fr/science-and-technology/la-reconnaissance-faciale-experimentee-au-carnaval-de-nice-c8c75753-3070-4662-b206-ab92ca754623

NRLDP : avec Martin de La Quadrature du net.

Retrouvez notre recours avec trois associations devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[LeMedia] Macron contre l’informationhttps://www.laquadrature.net/?p=13643http://streisand.me.thican.net/laquadrature.net/index.php?20190308_110000__LeMedia__Macron_contre_l___informationFri, 08 Mar 2019 10:00:00 +0000Après le projet de loi sur les fake news, le pouvoir français prépare une nouvelle loi sur l’information. Officiellement conçue pour lutter contre les contenus haineux sur Internet, celle-ci ouvre une fois encore la voie à une réduction des libertés publiques. Que nous prépare l’Etat, main dans la main avec les GAFAS ? Quelles menaces pèsent sur la liberté d’informer en France ? Pour en discuter au Média TV à Montreuil, 4 invités avec nous le jeudi 28 février à 20h30.

  • Gaspard Glanz, journaliste indépendant, fondateur de Taranis news ;
  • John R. MacArthur, journaliste et essayiste politique, patron du Harper’s, le plus ancien mensuel américain ;
  • Olivier Berruyer, fondateur du site Les crises, un des blogs français les plus fréquentés sur les sujets internationaux et économiques ;
  • Benjamin Bayart, cofondateur de La Quadrature du Net, association qui milite pour les libertés fondamentales sur le web. Ex-président de French Data Network, le plus ancien fournisseur d’accès à internet en France.

https://www.youtube.com/watch?v=MjMlCkv97yg

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[korii] Alexa va-t-elle devenir un membre de notre famille ?https://www.laquadrature.net/?p=13644http://streisand.me.thican.net/laquadrature.net/index.php?20190307_110000__korii__Alexa_va-t-elle_devenir_un_membre_de_notre_famille___Thu, 07 Mar 2019 10:00:00 +0000Nos assistants vocaux nous connaissent aussi bien (voire mieux) que les personnes qui composent notre foyer, où ils occupent une place bien particulière. […]

Malgré sa voix humaine, malgré son côté sympa et disponible, Alexa n’éprouve aucune émotion. Même si la personne qui l’utilise s’est attachée à elle, Alexa ne fera jamais de même, rappelle Alexis Fitzjean O Cobhthaigh, juriste et membre de la Quadrature du Net, une association qui défend les libertés numériques : « Dans la relation avec un assistant vocal, l’affect ne va que dans un sens. Il ne faut pas tomber dans le piège de croire qu’une véritable relation se nouerait avec la machine. Le chatbot ne ressent absolument rien. Il essaye juste de faire le lien entre les informations qu’il arrive à capter. Un chatbot, c’est aussi tout simplement un moteur de recherche comme Google ». […]

https://korii.slate.fr/tech/alexa-assistant-vocal-intelligence-artificielle-membre-famille

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[ActeursPublics] Cybersécurité : les sondes de l’Anssi dans le collimateur d’associations de défense des libertéshttps://www.laquadrature.net/?p=13645http://streisand.me.thican.net/laquadrature.net/index.php?20190306_110000__ActeursPublics__Cybersecurite____les_sondes_de_l___Anssi_dans_le_collimateur_d___associations_de_defense_des_libertesWed, 06 Mar 2019 10:00:00 +0000La Quadrature du net, le fournisseur d’accès « franciliens.net » et la Fédération des fournisseurs d’accès associatifs ont déposé un recours pour excès de pouvoir devant le Conseil d’État. En ligne de mire : les sondes de détection dont le déploiement par l’Anssi a été autorisé par la dernière loi de programmation militaire. […]

Cette imprécision terminologique, couplée à celle qui entoure les “menaces” qui seront recherchées par ces sondes, ne permet donc pas, selon Alexis Fitzjean O’Cobhthaigh, de bien saisir “l’objet et la portée exacte des mesures susceptibles d’être mises en œuvre”. Ainsi, ce recours “pose de nombreuses questions de « principe », notamment celle de la légitimité d’une analyse profonde (ce qu’on appelle le Deep Packet Inspection, c’est-à-dire une analyse du contenu des paquets et non seulement des métadonnées) en temps réel de la totalité du trafic internet ou à tout le moins de parts très substantielles de celui-ci”, explique l’avocat. […]

https://www.acteurspublics.com/2019/02/27/cybersecurite-anssi-sondes-de-detection-conseil-d-etat-quadrature-du-net

NDLRP – le communiqué de La Quadrature du net : : Cybersécurité : nous attaquons la surveillance de masse.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Censure antiterroriste : première défaite au Parlement européenhttps://www.laquadrature.net/?p=13659http://streisand.me.thican.net/laquadrature.net/index.php?20190305_124757_Censure_antiterroriste____premiere_defaite_au_Parlement_europeenTue, 05 Mar 2019 11:47:57 +0000Hier, les députés européens ont publié le premier des deux avis attendus sur le règlement de censure des « contenus terroristes », et il est mauvais. Malgré les bonnes intentions de la rapporteure Julia Reda, la Commission IMCO (« Marché intérieur et protection des consommateurs ») a décidé de n’apporter aucun réel changement à la proposition telle que publiée par la Commission européenne en septembre dernier.

Lire notre dossier sur ce règlement.

Toujours pas d’autorisation judiciaire

Selon l’avis de la commission IMCO1L’avis de la commission IMCO n’a pas encore été publié, mais il est principalement constitué de tous les amendements de compromis (excepté le CA 5) listés dans ce document., le gouvernement de n’importe quel État membre de l’Union européenne pourra ordonner à tout site Internet de retirer un contenu qu’il considère comme « terroriste ». Aucune autorisation judiciaire préalable ne sera nécessaire, ce qui permettra aux gouvernements d’abuser de la notion vague de « terrorisme ». La seule chose que la commission IMCO a accepté d’ajouter est de soumettre l’ordre de retrait du gouvernement à un « contrôle judiciaire », ce qui ne veut pas dire grand chose.

En France, les ordres de retrait du gouvernement concernant les « contenus terroristes » sont déjà sujets à un « contrôle judiciaire », avec une autorité indépendante (une personne qualifiée de la CNIL) qui est notifiée de tous les ordres de retrait et qui peut demander à un juge d’en évaluer la légalité. Cela n’a pas servi à grand chose : ce contrôle judiciaire n’a été utilisé qu’une seule fois et, même s’il a conduit à une annulation de l’ordre de retrait, n’a été reconnu comme étant illicite qu’un an et demi après (voir la décision). Durant ce laps de temps, le gouvernement français a donc été capable de censurer abusivement un contenu, en l’espèce une publication d’extrême-gauche sur la plateforme Indymedia.

Loin de simplifier le cadre juridique, le règlement ne fera que le rendre plus complexe, l’autorité d’un État membre étant en capacité d’ordonner le retrait d’un contenu dans un autre État, sans nécessairement prendre en compte le contexte dans lequel il a été publié.

Des délais de retrait irréalistes

Concernant le délai d’une heure que la police peut imposer à un hébergeur pour retirer un contenu qu’elle considère comme « terroriste », aucun réel progrès n’a non plus été réalisé par la commission IMCO. Il a été remplacé par un délai ne pouvant être plus court que huit heures, avec une exception pour les « microentreprises » qui n’auraient pas déjà reçu un ordre de retrait (dans ce cas, il est indiqué que le délai ne pourrait se terminer avant le prochain jour travaillé).

Cette exception très limitée ne permettrait pas à la grande majorité des acteurs de l’Internet de se conformer à des délais aussi courts. Même si la commission IMCO a retiré toute référence à des « mesures proactives » que la police pourrait imposer aux acteurs de l’Internet, et a indiqué que ces derniers ne devraient pas utiliser de filtres automatiques ; ces délais très courts, ainsi que la menace de lourdes sanctions financières ne pourront que les forcer à se soumettre aux outils de modération développés par les GAFAM (Facebook et Google en tête) et à retenir la définition la plus large possible de la notion de « terrorisme » pour éviter toute sanction. De la même façon, l’obligation irréaliste de prévoir un « point de contact » disponible 24/24h et 7j/7 n’a pas été modifiée. La commission IMCO a même alourdi les sanctions financières qui peuvent être imposées en prévoyant une sanction minimum de 1% du chiffre d’affaires mondial, plancher qui n’existait pas dans la proposition de la Commission européenne.

Prochaines étapes

La prochaine étape sera le 11 mars, lors du vote de l’avis de la commission CULT (Culture et Education). Nous n’avons pas de grands espoirs : comme nous l’avions déjà souligné, le projet d’avis de la rapporteure Julie Ward n’était même pas aussi positif que celui de la commission ICMO.

Notre dernière réelle opportunité pour obtenir le rejet de ce texte liberticide sera le 21 mars prochain, lors du vote au sein de la commission LIBE (Libertés civiles, justice et affaires intérieures). Les citoyens européens doivent contacter leurs députés pour demander le rejet du règlement. Nous avons prévu à cet effet une page dédiée avec une analyse du texte et un outil pour contacter directement les députés concernés.

Dès aujourd’hui et dans les 2 semaines à venir, appelez vos députés et demandez leur de rejeter ce texte.

References   [ + ]

1. L’avis de la commission IMCO n’a pas encore été publié, mais il est principalement constitué de tous les amendements de compromis (excepté le CA 5) listés dans ce document.
]]>
[FranceTvInfo] Faut-il voir la reconnaissance faciale d’un mauvais œil ?https://www.laquadrature.net/?p=13646http://streisand.me.thican.net/laquadrature.net/index.php?20190305_110000__FranceTvInfo__Faut-il_voir_la_reconnaissance_faciale_d___un_mauvais___il___Tue, 05 Mar 2019 10:00:00 +0000Au printemps 2018, deux lycées de la région Paca vont tester cette technologie à l’entrée des établissements pour éviter les intrusions. Un dispositif inédit en France qui suscite des interrogations sur l’utilisation des données biométriques. […]

Un angle mort déjà exposé par le député LREM Didier Baichère, dans une question officiellement adressée le 9 octobre 2018, à Mounir Mahjoubi, secrétaire d’Etat chargé du Numérique. Le parlementaire souhaitait « savoir si [le gouvernement] envisage prochainement de réfléchir à comment prévenir l’utilisation de ces technologies à des fins malhonnêtes« .

Sa question était restée sans réponse. « En tant que parlementaire, je suis gêné que des expérimentations démarrent, regrette le député interrogé par franceinfo. Il faudrait d’abord commencer par saisir des instances comme l’office parlementaire d’évaluation des choix scientifiques et technologiques. » Martin Drago, membre de la Quadrature du net interrogé par franceinfo, considère ces expérimentations comme « un nouvel exemple de la banalisation des technologies de surveillance en France. La reconnaissance faciale est une technologie particulièrement intrusive pour notre vie privée et devrait être, au minimum, comme le recommande l’article 8 de la CEDH, basée sur une loi adaptée, claire, intelligible avec les garde-fous nécessaires« , préconise-t-il. […]

https://www.francetvinfo.fr/internet/faut-il-voir-la-reconnaissance-faciale-d-un-mauvais-oeil_3197665.html

NRLDRP – Retrouvez notre recours avec trois associations devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[NextINpact] LPM 2019-2025 : le décret sur le Deep Packet Inspection attaqué devant le Conseil d’Etathttps://www.laquadrature.net/?p=13647http://streisand.me.thican.net/laquadrature.net/index.php?20190304_110000__NextINpact__LPM_2019-2025____le_decret_sur_le_Deep_Packet_Inspection_attaque_devant_le_Conseil_d___EtatMon, 04 Mar 2019 10:00:00 +0000La Quadrature du Net, Franciliens.net et la Fédération FDN viennent d’attaquer le décret de la loi de programmation militaire. Un texte qui autorise le déploiement d’outils de deep packet inspection chez les intermédiaires techniques, en particulier les hébergeurs. […]

Dans le fil du recours, un autre reproche vise la définition même de plusieurs termes centraux comme la notion de « menace » ou celle de « marqueurs techniques », jugées trop floues dans les textes. De fait, LQDN et les deux autres associations estiment être dans l’incapacité d’affirmer que cette détection des menaces se limitera aux seules données de connexion ou débordera sur le contenu des correspondances.

« L’imprécision de cette notion, regrettent les trois acteurs, engendre un doute dans le régime appliqué et donc dans les garanties et restrictions qui doivent être attachées à une telle technique de surveillance ». […]

https://www.nextinpact.com/news/107663-lpm-2019-2025-decret-sur-deep-packet-inspection-attaque-devant-conseil-detat.htm

NDLRP – le communiqué de La Quadrature du net : : Cybersécurité : nous attaquons la surveillance de masse.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[Cnet] La reconnaissance faciale dans les lycées suscite l’inquiétude, plusieurs associations montent au créneauhttps://www.laquadrature.net/?p=13604http://streisand.me.thican.net/laquadrature.net/index.php?20190303_110000__Cnet__La_reconnaissance_faciale_dans_les_lycees_suscite_l___inquietude__plusieurs_associations_montent_au_creneauSun, 03 Mar 2019 10:00:00 +0000Deux lycées de la région Sud testent la reconnaissance faciale. Quatre associations françaises ont déposé un recours auprès du tribunal administratif de Marseille. […]

Pour Martin Drago, juriste à la Quadrature du Net, l’une des associations qui a déposé ce recours : « Cette expérimentation vise à accoutumer les élèves à une surveillance biométrique. Cela participe à la banalisation de ce type de technologies, alors que des projets sécuritaires de vidéosurveillance dopées à la reconnaissance faciale pullulent désormais sur le territoire français« . Rappelons que l’aéroport de Nice dispose d’un outil similaire afin notamment d’améliorer le contrôle aux frontières et fluidifier la circulation.

https://www.cnetfrance.fr/news/la-reconnaissance-faciale-dans-les-lycees-suscite-l-inquietude-plusieurs-associations-montent-au-creneau-39881057.htm

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[FranceCulture] Civic tech, fake news : les algorithmes, amis ou ennemis de la démocratie ?https://www.laquadrature.net/?p=13598http://streisand.me.thican.net/laquadrature.net/index.php?20190302_110000__FranceCulture__Civic_tech__fake_news____les_algorithmes__amis_ou_ennemis_de_la_democratie___Sat, 02 Mar 2019 10:00:00 +0000Comment fonctionnent les algorithmes ? Comment après la vie privée, les algorithmes s’installent-ils dans la vie publique ? La contestation sociale dépend-elle aujourd’hui des algorithmes ? Quelles innovations pourraient permettre de lutter contre les fake news ? […]

Pour en parler autour de cette table, nous sommes ravis d’accueillir Axelle Lemaire, ancienne Secrétaire d’Etat chargée du Numérique sous la présidence de François Hollande, actuellement associée au cabinet de conseil en stratégie Roland Berger – qui est en charge du traitement des données recueillies pour le Grand Débat National, Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Universités, et président du conseil d’éthique du CNRS et Benjamin Bayart, co-fondateur de la quadrature du Net, co-président de la Fédération des Fournisseurs d’Accès à Internet Associatifs. […]

https://www.franceculture.fr/emissions/la-methode-scientifique/civic-tech-fakenews-les-algorithmes-amis-ou-ennemis-de-la-democratie

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[PublicSenat] Haine sur Internet : l’exécutif veut mettre les plateformes sous pressionhttps://www.laquadrature.net/?p=13599http://streisand.me.thican.net/laquadrature.net/index.php?20190301_110000__PublicSenat__Haine_sur_Internet____l___executif_veut_mettre_les_plateformes_sous_pressionFri, 01 Mar 2019 10:00:00 +0000Un délai de 24 heures imposé aux plateformes pour retirer un contenu haineux, mise en place d’une procédure uniformisée pour les signalements ou encore l’accélération de la levée de l’anonymat pour les auteurs d’injures racistes… Une proposition de loi en ce sens devrait voir le jour dans les prochaines semaines mais se heurte déjà à des limites juridiques et techniques. […]

En effet, les propositions contenues dans le rapport pourraient, à première vue, conduire à des effets indésirables. « Seules les grandes plateformes ont les moyens de se munir d’algorithmes permettant ce filtrage généralisé et ainsi retirer des contenus dans un délai court. Une telle loi renforcerait l’hégémonie de Facebook, Twitter… Mais surtout, Facebook ne dispose pas de garanties d’indépendance et d’impartialité pour juger ce qui est haineux ou non. Il ne peut se substituer à un magistrat dont c’est le rôle » rappelle Alexis Fitzjean O Cobhthaigh avocat au barreau de Paris et membre de la Quadrature du Net. Dans une interview au Monde, la députée Laetitia Avia affirme également sa volonté d’accélérer la levée de l’anonymat pour les auteurs d’injures racistes ou antisémites sur le web. « Pour lever l’anonymat sur le Net, la France contraint les hébergeurs de contenus à conserver les données de connexions pendant un an. Or, la jurisprudence de la Cour de Justice européenne considère que ce n’est pas conforme au droit européen » observe Alexis Fitzjean O Cobhthaigh. […]

https://www.publicsenat.fr/article/politique/haine-sur-internet-l-executif-veut-mettre-les-plateformes-sous-pression-138274

[NDLRP] Le communiqué de La Quadrature du Net : Mahjoubi et Schiappa croient lutter contre la haine en méprisant le droit européen.

La Tribune de Félix Tréguer sur le site de La Quadrature du Net : Vers l’automatisation de la censure politique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Solidarité avec les profs de Paris 13 remplacés par Googlehttps://www.laquadrature.net/?p=13624http://streisand.me.thican.net/laquadrature.net/index.php?20190228_113839_Solidarite_avec_les_profs_de_Paris_13_remplaces_par_GoogleThu, 28 Feb 2019 10:38:39 +0000Lundi matin, La Quadrature du Net est intervenue aux côtés d’enseignant·es de l’université de Paris 13 pour interrompre une dizaine de minutes la formation de 4 jours donnée par Google à une centaine d’étudiant·es.

Cette formation de Google est un exemple de plus où l’État désinvestit le service public pour le déléguer à des acteurs privés, faisant directement écho à nos principaux dossiers en cours – où l’État délègue la censure du Net aux GAFAM dans le règlement de censure terroriste et où certaines villes confient leur politique sécuritaire à des technologies privées.

Le cas de Paris 13 est criant : alors que l’université manque considérablement de moyens pour fournir des cours à ses étudiant·es, elle accueille à bras ouvert Google, qui vient gratuitement expliquer aux élèves comment devenir complices de sa surveillance économique de masse (récemment reconnue illégale par la CNIL suite à l’une de nos plaintes collectives).

Nous reproduisons ci-dessous et nous nous associons au communiqué des membres du personnel de Paris 13 luttant contre cette privatisation de l’enseignement public.

Action contre la présence de Google à Paris 13

La formation « Ateliers Numériques » donnée par Google à l’Université Paris 13 a été interrompue le lundi 25 février 2019 vers 9h30 par des membres du comité de mobilisation de Paris 13 (enseignant·e·s, chercheur·se·s, étudiant·e·s, membres du personnel) et des militant·e·s de l’association la Quadrature du Net, qui promeut et défend les libertés fondamentales dans l’environnement numérique.

En présence d’une centaine d’étudiant·e·s, de Jean-Pierre Astruc (Président de l’Université) et
Younès Bennani (Vice-Président « transition numérique » de l’Université), ils ont pu prendre la parole et dénoncer :

  • l’ingérence d’intérêts privés dans l’enseignement supérieur public, qui corrompt
  • l’indépendance des savoirs enseignés à l’Université,
  • la faiblesse pédagogique de la formation qui se résume à de la publicité gratuite,
  • la politique d’évasion fiscale massive pratiquée par Google qui contribue à la destruction de l’enseignement supérieur français, ce qui fournit en retour l’excuse pour céder à ce type de formations.

Les membres du comité de mobilisation et de la Quadrature du Net ont ensuite quitté la salle sans heurts.

Vous trouverez ici le texte du tract.

]]>
[BFMTV] Quatre associations se liguent contre la reconnaissance faciale dans les lycéeshttps://www.laquadrature.net/?p=13600http://streisand.me.thican.net/laquadrature.net/index.php?20190228_110000__BFMTV__Quatre_associations_se_liguent_contre_la_reconnaissance_faciale_dans_les_lyceesThu, 28 Feb 2019 10:00:00 +0000Pour mieux contrôler l’entrée des élèves, deux lycées du Sud de la France testent des portiques dotés d’une technologie de reconnaissance faciale. Un recours vient d’être déposé auprès du tribunal administratif de Marseille pour « faire barrage à la surveillance biométrique« . […]

Le recours déplore également le défaut d’analyse d’impact, pourtant légitime avant le lancement d’un tel test. Une impasse d’autant plus cruciale que « ce dispositif expérimental, installé et financé par la société américaine Cisco a vocation à être étendu à l’ensemble des établissements scolaires de la région« , relève la Quadrature du Net.

https://www.bfmtv.com/tech/quatre-associations-se-liguent-contre-la-reconnaissance-faciale-dans-les-lycees-1636534.html

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
[TV5Monde] Reconnaissance faciale : quatre associations déposent un recours contre les futurs portiques de lycées du sud de la Francehttps://www.laquadrature.net/?p=13601http://streisand.me.thican.net/laquadrature.net/index.php?20190227_110000__TV5Monde__Reconnaissance_faciale____quatre_associations_deposent_un_recours_contre_les_futurs_portiques_de_lycees_du_sud_de_la_FranceWed, 27 Feb 2019 10:00:00 +0000Deux lycées du sud de la France ont eu le feu vert de la Commission nationale de l’informatique et des libertés pour tester des portiques virtuels utilisant une technologie de reconnaissance faciale afin de filtrer les élèves. La quadrature du net associée à trois autres associations a déposé un recours pour demander l’annulation de la délibération du conseil régional à l’initiative de ce projet. Entretien avec Martin Drago, membre de LQDN et Didier Baichere, député LREM. […]

Martin Drago (membre de LQDN en charge du dossier reconnaissance faciale) et Didier Bachaire, député LREM (ayant posé une question au gouvernement sur la régulation des technologies de reconnaissance faciale), répondent chacun à nos questions au sujet de ces portiques et plus généralement de l’arrivée des « caméras intelligentes » dans les espaces publics. […]

https://information.tv5monde.com/info/reconnaissance-faciale-quatre-associations-deposent-un-recours-contre-les-futurs-portiques-de

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Cybersécurité : nous attaquons la surveillance de massehttps://www.laquadrature.net/?p=13613http://streisand.me.thican.net/laquadrature.net/index.php?20190226_135710_Cybersecurite____nous_attaquons_la_surveillance_de_masseTue, 26 Feb 2019 12:57:10 +0000Nous venons de saisir le Conseil d’État contre la loi de programmation militaire (LPM) 2019 au côté d’un fournisseur d’accès associatif, Franciliens.net, et de la Fédération des fournisseurs d’accès associatifs (FFDN) . Pour la première fois, le droit français a autorisé le gouvernement à analyser de façon automatisée le contenu de nos communications. Voilà comment nous nous y opposons.

La LPM 2019 est entrée en vigueur en France en juillet 2018. C’est un texte épars sur des questions de sécurité et notamment, à son article 34, de cybersécurité.

L’agence de cybersécurité du gouvernement (l’ANSSI – l’autorité nationale de sécurité des systèmes d’information) gagne de nouveaux pouvoirs de surveillance du Net. Elle peut ordonner à un hébergeur Web ou un FAI (fournisseur d’accès à Internet) de poser sur le réseau des sondes lui permettant d’analyser le trafic pour détecter des attaques informatiques – en théorie du moins car, en pratique, on n’en sait trop rien, tout cela se déroulant sans le contrôle d’un juge.

Ces sondes sont la suite directe des « boîtes noires » instituées par la loi renseignement de 2015, qui permettent aux services du gouvernement de surveiller les réseaux de télécommunication de façon automatique et parfaitement opaque afin de détecter des « menaces terroristes », toujours sans l’autorisation d’un juge. La différence majeure entre les boites noires de 2015 et de 2019 est que ces premières n’analysent en théorie que des données techniques (qui parle à qui, quand…) alors que celles de 2019 peuvent aussi analyser le contenu des communications. La tentation pour le gouvernement de détourner ces nouveaux outils à des fins de surveillance politique en est d’autant plus grande.

Pour aller plus en détails, vous pouvez relire notre analyse complète de la loi, publiée cet été.

Nos arguments

En terme de stratégie, nous avons demandé au Conseil d’État de dire que cette loi viole le droit européen (techniquement, nous n’avons pas directement attaqué la loi mais son « décret d’application », car il n’existe pas de procédure en France pour attaquer une loi ; en pratique, ça ne fait ici aucune différence puisque le Conseil d’État a le pouvoir d’annuler un décret au motif que la loi qu’il applique viole le droit européen, ce qui revient au même pour nous : c’est cette violation que nous voulons voir reconnue par un juge).

Sur le fond, vous pouvez lire ici la demande que nous avons envoyée. Elle est très simple et courte, car il ne s’agit que d’un premier document destiné à ouvrir la procédure (nous devions envoyer notre demande dans les deux mois suivant la publication du décret). Le détail de notre argumentation viendra dans un « mémoire complémentaire », mais les grandes lignes sont déjà là.

Des objectifs confus

Le texte est extrêmement confus quant à son objectif. Il semble vouloir protéger les internautes des cyberattaques et, dans le même temps, détecter ceux qui sont à l’origine de ces attaques, sans faire aucune distinction entre ces deux objectifs. Or, en droit, poursuivre l’un ou l’autre de ces objectifs change tout. Si c’est pour vous protéger, le droit doit au minimum vous laisser la possibilité de vous opposer à l’analyse de vos communications qui en résulte. Ici, la LPM ne vous laisse aucun pouvoir de la sorte : vous êtes protégé contre votre volonté.

Si l’objectif est de détecter les attaquants, évidemment, le droit n’a plus aucune raison de laisser à ceux-ci la possibilité de s’y opposer. Mais la loi doit toutefois leur garantir un certain nombre de droits, ne serait-ce que pour éviter que ces mesures ne soient dévoyées à des fins de surveillance politique.

Une surveillance indéfinie

D’abord, la nature et les conséquences de la surveillance doivent être compréhensibles à la lecture de la loi : ici, aucune définition ne limite la nature des données qui pourront être analysées par les sondes (le directeur de l’ANSSI annonce ainsi qu’il pourra s’agir de données techniques comme des données relatives au contenu des communications, ce qui décuplera les risques posés par ces mesures) ni quelles seront les « menaces » qui pourront être recherchées.

On ne sait pas non plus ce que seront ces « marqueurs techniques » utilisés par ces sondes pour rechercher ces menaces : cette notion de « marqueurs », invoquée par la loi, n’a aucune signification juridique ou technique.

Aucun contrôle indépendant

Ensuite, le droit européen impose de soumettre n’importe quelle mesure de surveillance au contrôle d’une autorité indépendante : ici, l’autorité indépendante désignée par la loi est l’ARCEP (l’autorité de régulation des postes et des communications électroniques).

Sauf que la LPM ne donne aucun pouvoir de contrôle à l’ARCEP : elle ne peut pas contrôler les sondes « sur place » (contrairement au contrôle que la CNIL peut faire dans une entreprise, par exemple). Elle ne peut pas davantage sanctionner l’ANSSI si elle constate que les sondes ont été dévoyées à des fins de surveillance politique.

Aucun moyen de se défendre

Enfin, les personnes surveillées doivent pouvoir contester les mesures illicites qu’elles ont subit. Le droit européen exige ceci de deux façon : en s’assurant que les personnes surveillées soient prévenues de la mesure une fois que la menace invoquée a disparue ; en leur permettant de saisir la justice ou une autorité compétente (ici l’ARCEP) pour contester la validité de la surveillance. Encore une fois, la LPM 2019 ne prévoit aucune de ces garanties.

Nous ouvrons ce nouveau front contre la surveillance de masse alors même que notre action contre la loi renseignement de 2015 vient tout juste d’être transmise devant les juges européens (voir notre article) et que le Parlement européen est sur le point de voter une nouvelle loi de surveillance-censure généralisée du Web dans les mains de la police et des GAFAM, abusant une fois de plus du prétexte terroriste.

Si vous pensez que nous avons bien fait d’ouvrir ce nouveau front, participez à tenir les autres fronts avec nous : jusqu’au 21 mars, appelez les députés européens pour leur demander de rejeter le règlement de censure terroriste.

]]>
[FranceCulture] Peut-on repartir de zéro sur les réseaux sociaux ?https://www.laquadrature.net/?p=13602http://streisand.me.thican.net/laquadrature.net/index.php?20190226_110000__FranceCulture__Peut-on_repartir_de_zero_sur_les_reseaux_sociaux___Tue, 26 Feb 2019 10:00:00 +0000Chaque seconde, près de 6000 tweets sont postés sur Twitter. Ceux qui ne seront pas effacés deviendront vite obsolètes. Mais culture de l’instantané ne veut pas dire culture de l’oubli. Les vieux messages peuvent toujours ressurgir. Alors comment gérer la mémoire d’Internet ? […]

Intervenants :

  • Laurent Chemla, Fondateur de GANDI, membre de la Quadrature du net
  • Fanny Georges, Sémiologue, maître de conférences en sciences de l’information et de la communication à l’Université Sorbonne Nouvelle – Paris 3
  • Yann Padova, Avocat, ancien secrétaire général de la CNIL (2006-2012), partner chez Baker McKenzie

https://www.franceculture.fr/emissions/du-grain-a-moudre/reseaux-sociaux-faut-il-revenir-sur-le-droit-a-loubli

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Le Conseil constitutionnel censure l’ancien droit de communication des douaneshttps://www.laquadrature.net/?p=13603http://streisand.me.thican.net/laquadrature.net/index.php?20190225_110000__NextINpact__Le_Conseil_constitutionnel_censure_l___ancien_droit_de_communication_des_douanesMon, 25 Feb 2019 10:00:00 +0000Le Conseil constitutionnel a censuré vendredi l’ancien régime du droit de communication des données de connexion dont bénéficiaient les agents des douanes. Après avoir considéré que ce régime était conforme au bloc de constitutionnalité le 27 janvier 2012, la haute juridiction est finalement revenue sur son analyse en raison d’un « changement des circonstances ». […]

Dans cette QPC, notons l’intervention de la Quadrature du Net, et d’autres associations (Franciliens.net, FAImaison, Midway’s Network et Rézine), toutes représentées par Me Alexis Fitzjean Ó Cobhthaigh.

https://www.nextinpact.com/brief/le-conseil-constitutionnel-censure-l-ancien-droit-de-communication-des-douanes-7789.htm

[NDLRP] Le communiqué de La Quadrature : Le Conseil constitutionnel censure l’accès des douanes aux données de connexion.

Soutenons notre internet, La Quadrature a besoin de vos dons.

]]>
Vers l’automatisation de la censure politiquehttps://www.laquadrature.net/?p=13420http://streisand.me.thican.net/laquadrature.net/index.php?20190222_123055_Vers_l___automatisation_de_la_censure_politiqueFri, 22 Feb 2019 11:30:55 +0000Pour vous opposer à l’automatisation de la censure imposée par le règlement terroriste, rendez-vous sur notre page de campagne et contactez les députés européens jusqu’au 21 mars.

Une tribune de Félix Tréguer, membre de La Quadrature du Net.

Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées à la liberté d’expression que les luttes démocratiques du XIXème siècle nous avaient léguées en héritage.

L’héritage démocratique-libéral piétiné

La loi de 1881 sur la liberté de la presse – aujourd’hui interprétée à la lumière de la Convention européenne des droits de l’Homme – est certes pleine de lacunes, et on a trop souvent tendance à exagérer son libéralisme. Mais elle n’en demeure pas moins une boussole fondamentale pour la liberté d’expression, prévoyant par exemple des règles procédurales spéciales pour juger a posteriori des abus de cette liberté, et consacrant la compétence exclusive du juge judiciaire dans le cadre de procédures publiques.

Ces dernières années, cet héritage a été piétiné. Les protections associées à la liberté d’expression reculent partout : dans la rue, dans la presse mais aussi et surtout sur Internet. Si le phénomène est ancien, le contexte actuel de crise (anti)terroriste et la dérive autoritaire qu’oppose le pouvoir aux mouvements sociaux y contribuent grandement. Pour ne prendre qu’un sujet qui nous intéressera ici, rappelons par exemple qu’en 2014, le législateur a estimé que l’« apologie du terrorisme » sur Internet n’aurait à ce point rien à voir avec la liberté d’expression qu’elle pourrait faire l’objet d’une censure secrète du ministère de l’intérieur. Cette évolution aura d’ailleurs conduit fin 2016 à la censure de communiqués revendiquant des actes de destruction matérielle de véhicules policiers, en réponse à l’inculpation de personnes arrêtées en lien avec les manifestations contre la loi travail de 2016.

Par le même vote de 2014, le Parlement jugeait également l’apologie du terrorisme indigne de la loi de 1881 et de ses garanties, et bien plus à sa place dans le code pénal. En contournant les garanties procédurales attachées à la loi de 1881, cette évolution aura conduit aux comparutions immédiates et à des condamnations totalement disproportionnées de dizaines de provocateurs au lendemain des attentats de janvier 2015.

De l’expérimentation à la législation

Cette fuite en avant est en train d’atteindre un point de bascule. Depuis 2015, les gouvernements français, britannique, allemand et étasunien n’ont eu de cesse de mettre les multinationales de l’économie numérique sous pression pour les inviter à faire la police sur leurs plateformes. De visites ministérielles dans la Silicon Valley en sommets « États-plateformes » sur le terrorisme, Google, Facebook et consorts ont accepté ces collaborations visant à massifier la censure de la propagande terroriste dans un cadre extra-judiciaire.

Après de nombreuses expérimentations menées ces dernières années, notamment par  Europol ou encore le ministère de l’intérieur français, ces nouveaux agencements public-privé sont en passe d’être couronnés par l’adoption à marche forcée d’un règlement européen dédié à la lutte contre la propagande terroriste, présenté en septembre dernier par la Commission Juncker.

La France est directement à l’origine de ce texte. Le 12 avril dernier, le ministre de l’intérieur Gérard Collomb et son homologue allemand écrivaient à la Commission européenne pour l’intimer d’agir au plus vite pour présenter et faire adopter ce texte. Celle-ci a donc obtempéré, présentant son projet en catimini le 12 septembre – le jour où le Parlement européen adoptait le fameux article 13 de la directive copyright, dont les obligations en matière de censure automatique nourrissaient alors la controverse.

Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :

  • L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelle que soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
  • L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
  • L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.

La censure automatique bientôt généralisée

De la lettre d’avril 2018 émanant des ministres de l’intérieur français et allemand, il ressort deux choses, depuis confirmées par les informations glanées ces dernières semaines dans différents ministères.

D’abord, la certitude que le règlement est un pied dans la porte, une manière bien coutumière d’imposer des mesures controversées en invoquant des justifications supposées imparables – ici la lutte (anti)terroriste. Comme l’expliquent les ministres de l’intérieur dans cette missive :

« Il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine l‘incitation à la discrimination et à la haine raciale, atteinte à la dignité de la personne humaine… ».

À terme, ce nouveau régime de censure a donc vocation à être généralisé. Il suffira de revoir les paramètres de ces outils de filtrage pour ajouter de nouvelles catégories de contenus.

Le deuxième enseignement de cette lettre des gouvernements français et allemand est que ces systèmes de censure automatique développés par les grandes plateformes devront être proposés à l’ensemble des acteurs visés par ce texte :

« Les grandes entreprises [devront] apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus à caractère terroriste ».

Il est vrai que ces systèmes sont coûteux : Content-ID, l’outil mis en place par YouTube pour détecter de possibles atteintes au droit d’auteur dans les vidéos publiées par ses utilisateurs, aura à lui seul coûté près de 100 millions de dollars en développement…

Macron en soutien

Début novembre 2018, lors du Forum sur la gouvernance d’Internet qui se tenait dans les locaux de l’Unesco à Paris, Emmanuel Macron est revenu sur ce règlement, un texte qu’il a dit « soutenir pleinement », espérant « son adoption rapide avant les élections européennes ». Soit en à peu près 6 mois, délai exceptionnellement court pour un texte sécuritaire qui institue une censure extra-judiciaire pour l’ensemble des acteurs du Net opérant au sein de l’Union européenne.

Dans son discours, Macron confirme le bien-fondé des craintes soulevées par le règlement. Assurant que la « régulation des contenus illicites ou indésirables » est « la prochaine frontière », il s’empresse de distinguer « deux blocs » :

  • « le premier concerne la lutte contre les contenus objectivement et gravement illégaux – le terrorisme, la pédopornographie ». Pour ces contenus, l’intelligence artificielle est « mûre », assure le président français. C’est bien le sens du règlement européen que d’en généraliser l’usage.
  • « le second rassemble les contenus dont le caractère illicite est soumis à une interprétation, souvent d’ailleurs différente d’un pays à l’autre – les contenus haineux, la diffamation, le harcèlement ». Pour ces derniers, Emmanuel Macron estime que l’intelligence artificielle « n’est pas encore assez fine pour distinguer l’ironie, la parodie ou au contraire reconnaître un sous-entendu abject sous un discours policé ».

« Pas encore », donc bientôt ? Cette perspective a récemment été confirmée par Mounir Mahjoubi, secrétaire d’État au numérique : en annonçant le plan de lutte contre les contenus haineux sur Internet, le 14 février dernier, celui-ci évoquait sans réserve la perspective de soumettre les « discours de haine » à la censure automatique.

Quant à la référence aux contenus « indésirables », signifie-t-elle que que le chef de l’État entend encourager l’extension de ces systèmes de censure à des contenus licites mais réputés nuisibles par le pouvoir ? Un projet qui, parmi tant d’autres choses, contredit frontalement l’image d’un homme politique prétendant incarner l’« axe humaniste » européen dressé contre la fascisation du continent…

L’intelligence artificielle, Saint Graal des États

Durant les trois jours du Forum sur la gouvernance d’Internet, l’« intelligence artificielle » (ou IA) était sur toutes les bouches. C’est bien elle, en réalité, la nouvelle frontière censée transformer toutes les bureaucraties. C’est bien elle qui, selon l’expression entendue à maintes reprises durant cet événement, permettra à la surveillance et à la censure de « passer à l’échelle ».

Les progrès réalisés ces dernières années en « Machine Learning » et en traitement automatique des textes et des images fait en effet figure de Saint Graal pour les États. Fin 2017, un conseiller de Theresa May expliquait que si les États avaient besoin des multinationales américaines pour faire le sale boulot, c’est qu’après tout, « ces entreprises ont les meilleurs cerveaux du monde ».

Ces firmes, réunies depuis juin 2017 au sein d’un consortium baptisé « Global Internet Forum to Counter Terrorism », mettent en avant des résultats impressionnants (mais guère vérifiables) en matière d’automatisation de la détection des contenus terroristes : YouTube parle de 98% de contenus de ce type repérés automatiquement, tandis que Facebook explique que 99% des contenus liés à l’État islamique ou à Al-Qaïda sont retirés avant que quiconque ne les ait signalés.

Pour l’heure, ces outils de censure automatique n’opèrent souvent qu’un premier filtrage. L’essentiel des contenus censurés sont en réalité « modérés » par des prestataires établis en Inde, au Philippines ou au Maroc pour juger de la conformité de textes ou d’images aux conditions d’utilisation des plateformes. « En attendant les robots », ces petites mains de la censure qui travaillent dans des conditions déplorables se voient imposer des objectifs délirants de l’ordre de 2000 images par heure, soit une appréciation portée sur une image en moins de deux secondes. En 2017, Facebook annonçait porter ses équipes de modération de 3000 à 7500 personnes. Google envisageait dans le même temps de porter le nombre de modérateurs YouTube à plus de 10 000.

Ces chiffres rappellent que, malgré ses rapides progrès, la censure automatisée n’est encore que balbutiante. Mais compte tenu des milliards investis dans la recherche en IA et des pressions exercées par les États, sa généralisation est désormais à portée de main. Elle est bien en passe de fonder un nouveau régime de censure.

La fusion État-GAFAM : actualisation de logiques anciennes

Si l’on pense l’État non pas comme un bloc aux contours clairement identifiés (à la manière des juristes) mais davantage comme un ensemble de pratiques et une rationalité que Michel Foucault désignait comme la « gouvernementalité », alors il est clair que ce que ces évolutions donnent à voir, c’est l’incorporation de ces acteurs privés à l’État ; c’est la cooptation de leurs infrastructures et la diffusion de leurs savoir-faire dans le traitement et l’analyse de masses de données désormais cruciales dans les formes contemporaines de gouvernement. C’est donc une fusion qui s’opère sous nos yeux, bien plus qu’une concurrence entre les États et les GAFAM qui chercheraient à se substituer aux gouvernements.

Ces logiques de cooptation d’acteurs privés par l’État sont récurrentes dans l’histoire de la censure. À partir du XVIè siècle, alors que le développement de l’imprimerie joue un rôle clé dans la propagation de doctrines politiques et religieuses subversives, l’État moderne en gestation recourait déjà aux partenariats public-privé dans la surveillance et la censure des communications.

En France, le cardinal de Richelieu conclut au début du XVIè siècle une alliance avec les libraires parisiens qui réclament un monopole perpétuel sur l’édition des livres pour écraser la concurrence. Ils se voient octroyer des privilèges à durée quasiment illimitée en échange de la conduite d’une mission de surveillance des publications et la docte application des règlements en matière de censure. Cette politique, bientôt élargie à l’ensemble du royaume, permettra à une trentaine d’imprimeurs-libraires de maîtriser tant bien que mal la production et la distribution des livres. Cela n’étouffait évidemment pas totalement l’édition clandestine, mais permettait de maîtriser un tant soit peu les effets politiques de l’imprimerie, d’affermir l’absolutisme tout en remplissant les caisses de quelques hommes d’affaires.

Lors de leur apparition au tournant des années 1980, les réseaux informatiques – et Internet en particulier – se sont donnés à penser comme une technologie radicalement subversive des formes de contrôle des communications qui s’étaient institutionnalisées dans le giron de l’État moderne, et transposées aux différentes techniques de communication apparues depuis l’imprimerie. Ils allaient bientôt induire la massification des flux transfrontières d’information, l’anonymat relatif des communications numériques, l’appropriation de ces technologies par des groupes contestataires et marginalisés dans l’espace public traditionnel, et plus généralement la démocratisation de la capacité d’expression publique au delà du petit cercle des personnes ayant jusqu’alors accès aux médias traditionnels. Tout cela déstabilisait les modalités de contrôle de l’espace public et, plus encore, la souveraineté des États. Internet était perçu comme un espace dangereux. Il fallait donc réarmer la police de l’espace public ou, pour reprendre le vocable que Nicolas Sarkozy avait emprunté au parti communiste chinois, le « civiliser » (un terme encore repris récemment par Mounir Mahjoubi).

La solution est donc en passe d’être trouvée, et il aura fallu moins d’un quart de siècle. Aujourd’hui, au lieu d’une petite dizaines d’imprimeurs-libraires à l’échelle d’un pays, ce sont une poignée d’entreprises américaines qui sont cooptées par les bureaucraties d’État dédiées à la surveillance et à la censure. En dépit des discours lénifiants sur la « souveraineté numérique », les gouvernements préfèrent renforcer la position dominante de ces multinationales en obligeant l’ensemble des acteurs du numérique à leur acheter leurs systèmes de filtrage. Ceux qui ne pourront pas se le permettre ou qui refuseraient de se faire auxiliaires de censure – notamment ceux qui font encore vivre un Web indépendant, non-commercial, alternatif – seront poussés à mettre la clé sous la porte.

L’instrumentalisation de la lutte contre les discours de haine

On nous parle de lutter contre la propagande terroriste et les discours de haine. Mais il est désormais de plus en plus clair que cette lutte reposera sur des dispositifs de censure automatique qui resteront de véritables « boîtes noires », par définition secrètes, gérées par des partenariats public-privé opaques. Ces derniers consentiront peut être à mettre en scène une certaine transparence, un peu d’autorégulation et des aménagements présentés comme autant de garanties – à l’image de Facebook qui nous promet aujourd’hui de mettre sur pied une « cour suprême » pour recevoir des plaintes d’utilisateurs victimes de sa politique de « modération ». Mais ils ne présenteront jamais les garanties offertes par des juridictions traditionnelles. Et pour cause : ces dispositifs sont conçus pour s’en affranchir. La censure automatique des communications a cet avantage pour le pouvoir qu’elle est presque invisible, et donc pratiquement incontestable.

On nous parle de lutter contre les discours de haine via la censure d’Internet. Mais depuis plus de quarante ans que des incriminations existent pour réprimer les expressions incitant à la haine et aux discriminations, a-t-on vraiment fait des progrès en la matière ? De fait, l’intolérance se donne à voir au grand jour sur Internet, où elle s’abat sur des groupes structurellement discriminés. Pour autant, ces opprobres sont aussi quotidiennes dans les médias traditionnels, dans les cénacles politiques, et bien souvent dans les pratiques des institutions.

On nous parle de lutter contre les discours de haine. Mais il apparaît de plus en plus clairement que ce qui est aussi visé, c’est l’invisibilisation de tout discours associé de près ou de loin à des formes de violence politique qui risqueraient d’être perçues comme légitimes. C’est ce qu’illustre par exemple l’affaire déjà évoquée, lorsque fin 2016, au nom de la lutte contre le terrorisme, le ministère de l’intérieur enjoignait à deux sites participatifs de censurer un communiqué revendiquant l’incendie d’un hangar de gendarmerie, acte présenté par les auteurs comme une réponse à la répression policière (cette décision aura finalement été annulée début 2019 par la justice administrative, exceptionnellement saisie de cette affaire). Plus largement, c’est l’ensemble des discours politiques contestataires qui pourraient bientôt faire l’objet de cette censure secrète. La tentation du pouvoir est réelle, comme en témoigne les velléités récentes du ministère de l’intérieur de faire retirer un photomontage qui remplaçait le visage du général Pinochet et de ses sbires par ceux d’Emmanuel Macron, d’Édouard Philippe et de Christophe Castaner.

S’il était adopté, le règlement antiterroriste serait donc une pierre de plus dans la mise en place de ces nouveaux dispositifs dédiés à l’invisibilisation des expressions politiques contestataires. Rien qu’en s’en tenant à la catégorie de l’apologie du terrorisme, les outils de censure développés par les multinationales du numérique en lien avec les autorités trouveraient à s’appliquer à de nombreuses activités militantes : le sens du terme « terrorisme » est en effet tellement vague, ou lorsqu’une définition existe elle est tellement large, qu’il peut servir à justifier la censure de toute expression favorable à des actions politiques offensives ou violentes – y compris la destruction de biens matériels, le sabotage ou le blocage d’infrastructures.

Conjurer la re-féodalisation de l’espace public numérique

Si l’on se soucie de la liberté d’expression, si l’on se soucie de ménager un espace où le pouvoir pourra être critiqué, où nous pourrons débattre et nous organiser, où un peu de sens commun pourra se construire, ces nouvelles formes de censure doivent être tenues en échec.

Ce qu’il faut, c’est d’abord comprendre qu’une grande partie du problème lié aux discours haineux sur Internet tient à ce qu’est devenue l’économie politique de ce réseau. Le nœud du problème spécifique que pose Internet, c’est bien la manière dont les grandes entreprises du numérique conditionnent les régimes d’attention : les contenus attrape-clics, simplistes et sans nuance, jouant sur les émotions négatives ; les « bulles de filtres » qui nous enferment tout en donnant l’illusion de neutralité, et offrent un faux sentiment de sécurité en permettant aussi à des individus aux identités politiques radicalement adverses de venir nous agresser sur des plateformes ouvertes aux quatre vents.

Face aux « Fake News » et à la haine qui sévit aussi sur Internet, ceux qui prétendent nous gouverner se frottent les mains : le pourrissement de l’espace public numérique leur permet aujourd’hui de légitimer le retour de vieilles stratégies de contrôle. C’est tout le sens du discours de Macron au Forum sur la gouvernance d’Internet.

Ce n’est pourtant pas une fatalité. Ces dernières semaines, La Quadrature du Net a commencé à exposer des positions destinées à lutter par le droit contre ces infrastructures centralisées qui pervertissent le débat public, tout en favorisant l’éclosion d’îlots de communication communautaires et fédérés où pourront se redéployer les espaces d’expression, de conversation, et donc une partie du débat public. L’idée phare de ces propositions, c’est de casser le régime d’attention mis en place par les plateformes, fondé sur la collecte des données personnelles et la hiérarchisation des contenus à des fins commerciales, au sein d’infrastructures gigantesques pensées pour rendre les utilisateurs captifs.

L’objectif, c’est bien de promouvoir en lieu et place une nouvelle topologie de l’espace public numérique capable de protéger des lieux de discussion décentralisés mais pouvant être reliés les uns aux autres, laissant à chacun le choix de ses communautés et des limites données à la liberté d’expression, pour ainsi mieux maîtriser son degré d’exposition aux conflits qui traversent immanquablement l’espace public. L’espoir est d’ainsi réduire le risque de conflits interpersonnels non-souhaités. C’est de faire en sorte que la demande sociale de censure soit moins forte et que la censure préalable et automatique puisse ne plus apparaître comme la seule option valable ; que le principe d’une protection judiciaire de la liberté d’expression soit préservé.

L’urgence, c’est en tous cas de rompre l’alliance des appareils policiers et des grands marchands d’infrastructures numériques. C’est d’éviter que ne se consolident les fondements techniques et juridiques d’une société de contrôle nous enfermant imperceptiblement dans une cage de fer algorithmique.

Ce texte est adapté d’une intervention au colloque « Réglementer la liberté d’expression au nom du débat public », qui se tenait à l’Institut de Recherche Philosophiques de Lyon (IRPhiL) les 29 et 30 novembre 2018.

]]>
Le Conseil constitutionnel censure l’accès des douanes aux données de connexionhttps://www.laquadrature.net/?p=13540http://streisand.me.thican.net/laquadrature.net/index.php?20190220_152836_Le_Conseil_constitutionnel_censure_l___acces_des_douanes_aux_donnees_de_connexionWed, 20 Feb 2019 14:28:36 +0000La Quadrature du Net et les FAI associatifs Franciliens.net, Rézine, FAImaison et Midway’s Network sont intervenus fin décembre devant le Conseil constitutionnel afin de lui demander de censurer le i) du 1°) de l’article 65 du code des douanes.

Ces dispositions permettaient aux agents des douanes d’accéder aux données de connexion conservées par les intermédiaires techniques (vous pouvez lire notre recours ici).

Ce texte pose deux problèmes fondamentaux : d’une part il s’appuie sur une conservation des données de connexion qui n’est pas conforme au droit européen, d’autre part, dans la procédure pour y accéder, aucune garantie n’était prévue (il n’y avait pas de délai d’effacement des données prévu, par exemple) ce que le Conseil Constitutionnel a systématiquement sanctionné ces dernières années.

Le 15 février 2019, le Conseil constitutionnel a fait droit à cette demande, et censuré les dispositions légales attaquées, aux motifs que « La communication des données de connexion est de nature à porter atteinte au droit au respect de la vie privée de la personne intéressée » (voir la décision).

Le Conseil constitutionnel a considéré que, si le législateur avait réservé à certains agents des douanes soumis au respect du secret professionnel le pouvoir d’obtenir ces données dans le cadre d’opérations intéressant leur service et ne leur a pas conféré un pouvoir d’exécution forcée, il n’avait assorti la procédure prévue par les dispositions en cause d’aucune autre garantie. Dans ces conditions, toujours d’après le Conseil, le législateur n’avait pas entouré la procédure prévue par les dispositions contestées de garanties propres à assurer une conciliation équilibrée entre, d’une part, le droit au respect de la vie privée et, d’autre part, la prévention des atteintes à l’ordre public et la recherche des auteurs d’infractions.

Pour mémoire, cette victoire s’inscrit dans le sillage de précédentes actions. En particulier, en 2017, La Quadrature du Net avait remporté une victoire similaire, aux côtés de la Fédération des fournisseurs d’accès à Internet associatifs et de FDN, via les Exégètes Amateurs, à propos de dispositions législatives qui permettaient aux agents de l’Autorité des marchés financiers d’accéder aux mêmes données, dans des conditions identiques.

Le combat n’en est pas terminé pour autant ! En effet, le Conseil constitutionnel a préféré s’abstenir de répondre à une série de points qui étaient soulevés devant lui et qui concernaient le positionnement des données de connexion par rapport au champ couvert par le secret de correspondances, ou encore l’encadrement précis des conditions d’accès à de telles données, à l’instar de ce qu’a fait la Cour de justice de l’Union européenne, notamment dans sa jurisprudence de grande chambre de 2016 « Tele2 » (revoir l’argumentation que nous développons devant cette même Cour de justice contre le système de conservation des données de connexion dans son ensemble).

Par ailleurs, les dispositions qui ont été censurées avaient été abrogées par le législateur à compter du 1er janvier 2019. De nouvelles dispositions sont donc entrées en vigueur concomitamment à cette procédure (qui est donc distincte). Or, ces nouvelles dispositions prévoient désormais que l’accès des douanes aux données de connexion doit être préalablement autorisé par le procureur de la République, qui n’est pourtant pas une autorité indépendante au sens du droit européen, et s’abstiennent de prévoir une information des personnes concernées. Il s’agit pourtant de deux garanties (contrôle préalable par une autorité indépendante et notification de la mesure aux personnes concernées) qui sont exigées par le droit européen.

Le moment venu, nous ne manquerons pas de le rappeler. Notre intervention, et petite victoire, dans la procédure qui a pris fin le 15 février, visait surtout à renforcer des positions et symboles à invoquer dans la longue série de contentieux que nous avons déjà ouverts ou que nous prévoyons de lancer à l’avenir.

]]>
Reconnaissance faciale : un recours pour faire barrage à la surveillance biométriquehttps://www.laquadrature.net/?p=13517http://streisand.me.thican.net/laquadrature.net/index.php?20190219_154958_Reconnaissance_faciale____un_recours_pour_faire_barrage_a_la_surveillance_biometriqueTue, 19 Feb 2019 14:49:58 +0000Quatre organisations – La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes – viennent de déposer un recours devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région.

Ce recours intervient alors que la polémique enfle après que la mairie de Nice a annoncé expérimenter la reconnaissance faciale dans le cadre du carnaval.

Le 14 décembre 2018, le conseil régional de la région Sud (ex-PACA) a voté une délibération visant à faire installer à l’entrée de deux lycées de la région — le lycée des Eucalyptus à Nice et le lycée Ampère à Marseille — un dispositif de reconnaissance faciale. Ce dispositif expérimental, installé et financé par la société états-unienne Cisco, a vocation, comme l’a précisé M. Christian Estrosi lors du vote au Conseil régional, à être étendu à l’ensemble des établissements scolaires de la région.

Devant l’inaction de la CNIL et alors que cette expérimentation prépare la banalisation de la surveillance par reconnaissance faciale, les quatre organisations requérantes ont décidé de saisir le tribunal administratif de Marseille pour demander l’annulation de cette délibération.

Les arguments juridiques soulevés s’appuient essentiellement sur le règlement général sur la protection des données (RGPD) : la délibération, votée alors qu’aucune analyse d’impact n’avait été réalisée, permet en effet la mise en œuvre d’un traitement de données biométriques qui est notamment manifestement disproportionné par rapport à l’objectif poursuivi (apporter « une assistance aux agents en charge du contrôle d’accès au lycée et de l’accueil ») et qui n’est fondée sur aucune règle juridique adaptée, claire et intelligible, contrairement à ce qu’impose la Convention européenne des droits de l’Homme en matière de droit à la vie privée. La délibération autorisant cette expérimentation est donc illégale et doit être annulée.

Le recours est accessible ici.

Pour Martin Drago, juriste à La Quadrature du Net :

« Cette expérimentation vise à accoutumer les élèves à une surveillance biométrique. Cela participe à la banalisation de ce type de technologies, alors que des projets sécuritaires de vidéosurveillance dopées à la reconnaissance faciale pullulent désormais sur le territoire français. On trouve malheureusement bien peu de monde pour y faire barrage, que ce soit à la CNIL ou au niveau des élus locaux et à ce stade, les juges apparaissent comme l’ultime rempart institutionnel. »

Pour Maryse Artiguelong, vice-présidente de la Ligue des droits de l’Homme :

« Pour la Ligue des droits de l’Homme (LDH) cette expérimentation de reconnaissance faciale, qui permet l’identification à l’aide de données biométriques particulièrement sensibles – elles permettent notamment de déterminer l’origine ethnique, qui plus est sur des élèves en majorité mineurs – est particulièrement inquiétante. »

Pour Laure Guérard-Boushor, de la CGT Educ’Action des Alpes-Maritimes :

« Répression contre les lycéen.ne.s, mise en place de mesures pour restreindre le droit de manifester et maintenant mise en place d’un système de reconnaissance faciale à l’entrée de l’établissement les EK à Nice et Ampère à Marseille; l’escalade est toujours plus importante. Nous condamnons ces projets qui remettent en cause tous les principes de la liberté qu’elle soit individuelle ou collective ; qui laissent la porte ouverte à toutes les dérives, toutes les discriminations. Nous demandons à ce que l’argent dont notre école publique a besoin ne soit pas gaspillé dans des mesures dont on connaît l’inutilité et la nocivité. »

Pour Laëtitia Siccardi, présidente de la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes :

« Cette expérimentation est une dérive sécuritaire de plus, et nous sommes extrêmement attentifs à ce que les droits fondamentaux des lycéens soient respectés. De plus, il s’agit une fois encore d’un investissement financier considérable au service d’une mesure à l’efficacité douteuse.»

]]>
[ActualitedesLuttes] Vidéosurveillance et menace des libertés sur les réseaux sociauxhttps://www.laquadrature.net/?p=13500http://streisand.me.thican.net/laquadrature.net/index.php?20190219_110000__ActualitedesLuttes__Videosurveillance_et_menace_des_libertes_sur_les_reseaux_sociauxTue, 19 Feb 2019 10:00:00 +0000En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL-commision nationale informatique et liberté- pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs de « portiques virtuels » associant « des moyens classiques d’identification (…) à un dispositif biométrique utilisant des technologies de comparaison faciale. »

Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook, comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ? […]

C’est de ses questions dont nous parlerons dans l’émission de ce jour . Et pour cela , nous serons en compagnie de Martin et Marne, de La Quadrature du Net.

http://actualitedesluttes.info/?p=4159

NRDLRP : retrouvez l’émission avec Marne et Martin sur le Peertube de La Quadrature du net.

Notre page dédiée sur la future loi de censure antiterroriste évoquée dans l’émission, avec présentation et argumentaire : Règlement terroriste, censure sécuritaire.

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Déclaration commune : se mobiliser pour une réappropriation démocratique des médiashttps://www.laquadrature.net/?p=13509http://streisand.me.thican.net/laquadrature.net/index.php?20190218_163903_Declaration_commune____se_mobiliser_pour_une_reappropriation_democratique_des_mediasMon, 18 Feb 2019 15:39:03 +0000La Quadrature du Net partage la déclaration ci-dessous avec une dizaine d’associations et une trentaine de média. La méfiance envers les « média dominants » (presse, TV, radio) a toujours été une opportunité de réappropriation de nos moyens de communication, où Internet joue tout son rôle. Ainsi, en plus d’interroger la place de ces média, il faut lutter pour qu’Internet reste entre nos mains.

Repoussons sa mise sous tutelle par la police et par l’alliance de nos gouvernements aux Facebook et Google de ce monde. Repoussons urgemment le règlement terroriste (notre site de campagne) ainsi que les ambitions du gouvernement dans sa future loi prétendument « anti-haine » (notre analyse).

Pour une réappropriation démocratique des médias

Depuis plusieurs semaines, le mouvement des gilets jaunes bouleverse l’agenda politique, et porte une remise en cause profonde des institutions. Les médias sont tout particulièrement visés. Les gilets jaunes dénoncent, à juste titre bien souvent, un traitement caricatural des mobilisations : surenchère sécuritaire sur les plateaux télévisés et dans certains quotidiens ; confiscation de la parole par les éditorialistes ; disqualification de certaines revendications jugées «irréalistes» et appels à «dialoguer» avec le gouvernement ; ou encore dénonciations des violences des manifestants – alors que les violences policières ont été pendant trop longtemps passées sous silence.

Une telle pédagogie de la résignation n’est certes pas nouvelle. Déjà lors des grèves de 1995, les tenanciers des grands médias martelaient leur sempiternel message : il n’y a pas d’alternative aux réformes libérales. En 2005, ils pointaient du doigt ceux qui mettaient en cause le bien-fondé des politiques européennes et déformaient la révolte des banlieues. Plus récemment, lors des mobilisations contre la loi El-Khomri et les ordonnances Macron, ils dénonçaient un code du travail soi-disant «trop épais et illisible». À l’occasion de chaque mobilisation sociale, ils se sont faits les gardiens de l’ordre économique et politique.

Ces partis pris ont contribué à disqualifier les grands médias. La défiance à leur égard est profonde et sans précédent. D’autres sources d’information sont plébiscitées, médias indépendants ou réseaux sociaux. Certaines des analyses portées depuis des décennies par la critique des médias sont réinvesties largement, au-delà du mouvement des gilets jaunes. L’emprise de quelques milliardaires sur la production de l’information est pointée du doigt. La question des médias s’impose désormais comme une question politique.

La plupart des éditorialistes et chefs de rédaction ne voient, dans cette défiance, qu’une «haine des médias» et de la démocratie. Ils éludent la responsabilité qu’ils portent, par leurs diatribes ou leurs choix éditoriaux, dans l’hostilité qui s’exprime contre l’ensemble des journalistes. Une hostilité dont les plus précaires (en termes de statut ou de conditions de travail) font parfois les frais, sur le terrain, en étant injustement pris à partie ou agressés.

Nous pensons que la défiance envers les grands médias doit être une opportunité. Opportunité, dans les rédactions, de remettre en cause les orientations délétères imposées par les directions éditoriales, et de replacer le reportage et l’enquête au cœur du travail journalistique. Opportunité, dans les médias indépendants, de faire la démonstration par l’exemple qu’un autre journalisme, plus exigeant et plus libre vis-à-vis des pouvoirs, est possible.

Que nous soyons gilets jaunes, militant·es, journalistes, usager·es des médias, nous avons toutes et tous des raisons légitimes de contester un ordre médiatique inique, qui maltraite le pluralisme. Et de nous inquiéter des menaces réelles qui pèsent sur le droit à l’information : la mainmise de quelques milliardaires sur la plupart des médias, les plans de suppressions d’emploi dans l’audiovisuel public comme dans les groupes privés, la précarisation des journalistes statutaires ou pigistes y compris dans certains médias indépendants, la répression policière et la criminalisation qui frappent de plein fouet certains reporters et leurs sources, ou encore les lois liberticides qui visent à contrôler l’information – loi sur le secret des affaires et sur les «fake news».

C’est pourquoi nous affirmons qu’il est temps de se mobiliser pour une réappropriation démocratique des médias. Pour défendre le droit d’informer et le droit à être informé, tous deux gravement menacés. Et pour que l’information, trop longtemps confisquée par les pouvoirs, devienne enfin un bien commun et non une marchandise.

Cette déclaration est une initiative commune :

D’associations, d’organisations de journalistes et de syndicats : Acrimed, Attac, Fédération Nationale de l’Audiovisuel Participatif, Info’Com-CGT, La Quadrature du net, Les Amis du Monde diplomatique, Profession : Pigiste, Résistance à l’agression publicitaire, Ritimo, SNJ-CGT, Union syndicale Solidaires.

De médias : Cause commune, Contretemps-web, CQFD, Démosphère Ariège, Démosphère Toulouse, Frustration, Hors-Série, Jef Klak, L’Alterpresse68, Là-bas si j’y suis, La Clé des ondes, La Gazette de Gouzy, Le journal minimal, L’Insatiable, Le Média, Le Ravi, MAP 36, MédiaCitoyens PACA et Rhône-Alpes, Mediacoop, Radio Parleur, radio Cause commune, Ricochets, Rosalux, Silence, Transrural initiatives, TV Bruits, Télé Mouche, Télé Regain, TVnet Citoyenne.

D’organisations politiques : Alternative libertaire (AL), Ensemble, Nouveau Parti anticapitaliste (NPA), Parti communiste français (PCF), Parti de gauche (PG).

Premiers signataires : Alain Accardo, sociologue; Gilles Balbastre, réalisateur; Patrick Champagne, sociologue; Sophie Chapelle, journaliste; Colloghan, dessinateur; Benoît Collombat, journaliste; Jean-Baptiste Comby, sociologue; Annie Ernaux, écrivaine; Nina Faure, réalisatrice; Benjamin Ferron, sociologue; Anne-Sophie Jacques, journaliste; Yannick Kergoat, réalisateur; Henri Maler, universitaire; Philippe Merlant, journaliste et conférencier gesticulant; Pierre Morel, photojournaliste; Gérard Noiriel, historien; Michel Pinçon, sociologue; Monique Pinçon-Charlot, sociologue; Denis Robert, journaliste; Karim Souanef, sociologue; Usul, vidéaste.

]]>
Règlement terroristehttps://www.laquadrature.net/?p=13494http://streisand.me.thican.net/laquadrature.net/index.php?20190218_133124_Reglement_terroristeMon, 18 Feb 2019 12:31:24 +0000En septembre 2018, sous l’influence de la France et de l’Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ».

Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de :

  • Bloquer en une heure n’importe quel contenu signalé comme « terroriste » par la police (sans l’autorisation préalable d’un juge), et donc se tenir à sa disposition 24h/24 et 7j/7.
  • Devancer les demandes de la police en détectant lui-même les contenus illicites à l’aide d’outils de filtrage automatisé.

Si un site ne respecte pas ces règles, il risque une amende jusqu’à 4 % de son chiffre d’affaires.

Délégation de la censure aux géants du Web

D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes.

Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne.

Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.

Censure des discours politiques

En droit de l’Union européenne, la notion d’infraction « terroriste » est volontairement large, couvrant les actes de piratage ou de destruction massive de biens (ou la simple menace de le faire) commis pour influencer une décision politique ou de déstabiliser des institutions.

Laisser à la police et non au juge le pouvoir de décider ce qu’est un contenu de « terroriste » pourrait mener à la censure d’opposants politiques et de mouvements sociaux.

L’obligation de mettre en place des mesures proactives, avec la menace de lourdes amendes, aura pour effet de motiver les acteurs du Web à adopter une définition du terrorisme la plus large possible pour ne pas être sanctionnés.

Une loi inutile

Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours.

Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.

Exigeons le rejet du texte

Sous couvert de solutionnisme technologique, ce règlement joue sur la peur du terrorisme pour mieux encadrer l’expression sur Internet et limiter les oppositions.

Nous devons demander le rejet de ce texte.

  • La censure d’État ne doit pouvoir être prononcée que par un juge.
  • Aucune censure automatisée ne doit être imposée aux acteurs du Web.
  • La lutte contre le terrorisme ne doit jamais être un prétexte pour censurer les oppositions politiques.

Le 21 mars 2019 se tiendra le premier vote sur ce texte, au sein de la commission « libertés civiles » du Parlement européen (60 députés). Les élections européennes arrivant tout de suite après, il s’agira probablement de notre dernière opportunité de faire rejeter ce texte.

]]>
[Franceinfo:] Mesures du gouvernement contre le cyberharcèlement : De la poudre aux yeux pour faire semblant d’agirhttps://www.laquadrature.net/?p=13501http://streisand.me.thican.net/laquadrature.net/index.php?20190218_110000__Franceinfo___Mesures_du_gouvernement_contre_le_cyberharcelement____De_la_poudre_aux_yeux_pour_faire_semblant_d___agirMon, 18 Feb 2019 10:00:00 +0000Arthur Messaud, juriste pour l’association La Quadrature du net, critique le plan présenté par le gouvernement jeudi matin. […]

Arthur Messaud dénonce le fait de faire de Facebook « le héros de la modération sur internet« . Le juriste de l’association de défense des droits et libertés des citoyens sur internet critique également la gestion des zones grises d’internet. « On veut déléguer ce pouvoir de justice à des acteurs privés qui ne sont pas soumis à nos valeurs démocratiques. » […]

https://www.francetvinfo.fr/internet/securite-sur-internet/mesures-du-gouvernement-contre-le-cyberharcelement-de-la-poudre-aux-yeux-pour-faire-semblant-d-agir-association_3191473.html

NDLRP : retrouvez l’interview d’Arthur Messaud sur le Peertube de La Quadrature du net.

Notre communiqué sur le site suite à l’annonce de ce plan : Mahjoubi et Schiappa croient lutter contre la haine en méprisant le droit européen.

[Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Mahjoubi et Schiappa croient lutter contre la haine en méprisant le droit européenhttps://www.laquadrature.net/?p=13488http://streisand.me.thican.net/laquadrature.net/index.php?20190214_165337_Mahjoubi_et_Schiappa_croient_lutter_contre_la_haine_en_meprisant_le_droit_europeenThu, 14 Feb 2019 15:53:37 +0000Ce matin, Mounir Mahjoubi a présenté au public son « plan d’action contre les contenus haineux en ligne », qu’il compte mener aux côtés de Marlène Schiappa et de la députée En Marche Laetitia Avia. Au-delà de l’écran de fumée de ce plan d’action, qui peine à cacher un manque total de stratégie et de vision pour l’Internet, le gouvernement méprise totalement la liberté d’expression en suggérant de généraliser la censure automatisée, et renforce le fichage généralisé des utilisateurs d’Internet au mépris du droit européen. Au passage, Mahjoubi en profite pour se faire écho de l’amour véritable qui unirait son président à Mark Zuckerberg…

Au-delà du vœu pieux de faire participer les associations à l’édiction des règles de modérations de Facebook, Google et Twitter (chose sympathique mais bien inutile dans la mesure où rien n’est prévu pour rendre ces géants responsables des censures abusives qu’ils s’autorisent), le plan d’action « contre la haine » ne prévoit rien de neuf et réchauffe ce que la loi prévoit depuis 15 ans.

Favoriser les signalements de contenus haineux ?

Le plan propose d’imposer aux plateformes numériques de mettre à disposition du public un bouton facilement accessible pour signaler les contenus illicites. Mahjoubi ne le cache pas : c’est une chose prévue depuis 15 ans dans la loi pour la confiance dans l’économie numérique (LCEN). Mais il prétend que cette obligation n’est pas respectée par certains acteurs, et qu’il faut donc agir pour les forcer.

On se demande pourquoi le gouvernement a tant attendu pour agir : le non-respect de cette obligation est puni de un an d’emprisonnement et de 75 000 € d’amende depuis 2004… Son inaction s’explique vraisemblablement du fait qu’il sait que tout ceci est bien vain : les acteurs privés n’ont ni les moyens ni la légitimité de traiter l’ensemble des signalements de contenus illicites. Recevoir les signalements est le rôle de la police et plus précisément de PHAROS. Juger si un contenu est illicite est le rôle de l’autorité judiciaire. Or, ces deux acteurs sont presque entièrement absents du plan d’action annoncé aujourd’hui, pourtant en grand besoin de moyens.

Favoriser la justice privée ?

Depuis 2004, toujours, la LCEN prévoit qu’un hébergeur peut être tenu pour responsable des contenus illicites qu’il diffuse si, ayant pris connaissance de ceux-ci (à la suite d’un signalement, typiquement), il n’a pas « agit promptement pour retirer ces informations ». Le plan de Mahjoubi déplore que, sur les grosses plateformes, ce retrait n’intervienne pas assez rapidement. Il fait alors appel à l’exemple tant décrié de la loi allemande qui impose aux géants un retrait en 24h des contenus « manifestement illégaux ».

Encore une fois, la proposition est bien creuse. Depuis 2004, laissé à l’appréciation des juges, le caractère « prompt » du retrait est déjà appliqué avec une grande fermeté lorsque les circonstances l’exigent. Les juges n’hésitent pas à condamner un hébergeur qui, dans les cas les plus graves, n’aurait pas retiré un contenu illicite dans les 24 heures suivant son signalement1Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de noter que la Cour de cassation se gardait entièrement de considérer qu’un délai « prompt » de 24 heures ne correspondrait pas à ce qu’exige la loi.. Mettre dans la loi ce qui se fait déjà dans la pratique est une façon bien simple et peu coûteuse de faire croire qu’on agit quand, en vrai, on a aucune idée de quoi faire. Au contraire, s’il s’intéressait vraiment au développement du numérique français, le gouvernement ferait mieux de protéger les petits plateformes d’exigences aussi radicales et contre-productives de la part des juges, dissuadant l’apparition de nombreux acteurs vertueux qui, un jour, devront remplacer les géants.

Favoriser la censure judiciaire ?

Le plan de Mahjoubi déplore que la censure judiciaire du site democratieparticipative.biz soit restée sans effet : le site s’est naturellement dupliqué sur d’autres adresses. Au passage, il a bénéficié d’une large campagne de visibilité offerte bénévolement par le gouvernement. La situation est ridicule : nous nous croyons revenus 10 ans plus tôt quand nous expliquions à des députés découvrant l’Internet que la censure totale d’un site n’était techniquement pas viable et qu’il était vain de la chercher.

Même si Mahjoubi et Schiappa nous épargnent certains égarements comiques de l’époque (« pare-feu Open-Office », nous ne t’oublierons jamais <3), leur entêtement à chercher des solutions technologiques magiques pour censurer le Net reste aussi absurde, hors-sol et trompeur que par le passé. Les solutions que vous cherchez ne peuvent être qu'humaines et structurelles, vous ne gagnerez jamais le jeu du chat et de la souris sur Internet. Ne perdons pas plus de temps avec vos errements.

Lever l’anonymat contre le droit européen

Mahjoubi tombe enfin le masque du gouvernement qui, depuis quelques semaines, sème la confusion quant à la levée de l’anonymat en ligne. Son objectif est maintenant clair : le gouvernement veut entièrement s’opposer à la jurisprudence de la Cour de justice de l’Union européenne qui interdit aux États membres d’instaurer un fichage de l’ensemble des utilisateurs d’Internet.

La Quadrature du Net s’en réjouit régulièrement : la Cour de justice de l’Union européenne a construit depuis 2014 une jurisprudence ferme interdisant aux États d’obliger les acteurs d’Internet à conserver des données techniques permettant d’identifier l’ensemble de leurs utilisateurs. La Cour de justice n’autorise que des mesures de levée de l’anonymat qui sont ciblées, limitées quant aux personnes surveillées et à la durée de cette surveillance. Le gouvernement français a systématiquement refusé d’abroger les dispositions du droit français qui, en violation du droit européen, imposent aux opérateurs de télécommunications et hébergeurs de conserver pendant 1 an les données de connexion de l’ensemble de leurs utilisateurs.

Le gouvernement s’est tant entêté à violer le droit de l’Union que nous avons du contester le droit français devant le Conseil d’État qui, l’été dernier, après trois ans de procédure, a enfin accepté de soumettre la validité des dispositions françaises à l’examen de la Cour de justice (lire le résumé de nos actions, qui retrace l’état des droits français et européen).

Sans même attendre la décision de cette Cour de justice (qui, à rester cohérente avec ses décisions passées, condamnerait entièrement le modèle français), Mahjoubi et Schiappa annoncent vouloir s’enfoncer encore davantage dans le mépris des libertés fondamentales garanties par l’Union européenne. Ils veulent prévoir des sanctions et des délais plus strictes contre les opérateurs et hébergeurs qui refuseraient de communiquer aux autorités les données d’identification qu’ils conservent. Pour rappel, quand la police avait demandé à La Quadrature du Net de lui communiquer les données identifiant un des utilisateurs de son service Mastodon, nous avions refusé : conformément à la jurisprudence de l’Union européenne, nous ne disposions plus de ces données, car nous ne conservons les données de connexion que pour une durée de 14 jours.

Poursuite de l’alliance France-Facebook

Le document publié aujourd’hui encense Facebook sans retenue. Le « fonds pour le civisme en ligne », par lequel Facebook financera et rendra dépendantes des associations anti-racistes (comme elle sait si bien le faire), est qualifié sans nuance d’« initiative prometteuse [qui] mérite d’être pérennisée ».

Pour lutter contre la haine en ligne, la voie de l’« intelligence artificielle » est explicitement pointée (peu importe ce que ça veut dire), et donne un exemple héroïque à suivre : « Facebook revendique ainsi d’éliminer la quasi-totalité des contenus terroristes avant qu’ils aient pu être diffusés ». Bravo Facebook ! Mahjoubi aurait toutefois pu attendre la fin de la mission gouvernementale examinant la modération de Facebook avant de diffuser sans aucun recul ni aucune rigueur la propagande de l’entreprise.

Enfin, le plan d’action salue que « Facebook a d’ailleurs décidé de lancer en 2018 un mécanisme d’appel » contre ses censures abusives. Facebook est encore conforté dans son rôle d’État privé qui peut créer ses propres normes et juridictions, sans aucun contre-pouvoir, à côté et à la place des États censés démocratiques.

Derrière toutes ces flatteries, le gouvernement semble avoir oublié le rapport de Laetitia Avia (qu’il prétend pourtant reprendre), qui dénonçait comme l’une des causes majeures de la haine en ligne le modèle de Facebook et de ses amis : l’économie de l’attention.

À aucun moment la taille d’un acteur comme Facebook n’est remise en question. Pourtant, l’échelle à laquelle doit s’effectuer sa modération n’est pas qu’un défi technique à brillamment relever mais une ambition légitimement discutable et critiquable.

Une loi anti-haine calquée sur l’anti-terrorisme ?

Derrière les effets d’annonce bien creux de ce « plan d’action », cet appel du pied vers Facebook a de quoi nous inquiéter gravement. Elle nous rappelle à l’identique la situation qui a conduit la Commission européenne à proposer son règlement terroriste.

En 2015, suite à une série d’attaques terroristes meurtrières, Facebook, Google, Twitter et Microsoft s’engagent à travailler avec la Commission européenne au sein du Forum de l’Internet européen pour lutter contre la propagande terroriste. Grace à leurs « intelligences artificielles » magiques et leurs milliers de modérateurs aux quatre coins du monde, les entreprises construisent en 2 ans une liste de blocage contenant la signature de 80 000 images et vidéos qu’elles ont elles-mêmes reconnues comme illicites, sans juge. La Commission européenne est claire : il faut désormais que l’ensemble des plateformes du Web, pas que les géantes, utilisent ces outils de modération. C’est un des objectifs de son règlement terroriste (pour les détails de cette analyse, lire notre analyse complète du règlement).

De son côté, en novembre 2018, Mark Zuckerberg aussi est très clair : les petits acteurs du Web ne peuvent pas faire face à la propagande terroriste, aux « fake news » ou à la haine en ligne seuls. Ils ont besoin de l’aide de Facebook, et il se réjouit que le gouvernement français collabore avec lui pour penser la loi.

En même temps, au Forum de la Gouvernance d’Internet, Macron faisait le même constat : les géants du Net ont fait du bon boulot pour préparer le Net au nettoyage de la propagande terroriste – la prochaine étape sera de continuer le travail pour les contenus haineux.

Pour mettre un coup d’arrêt à cette d’alliance gouvernement-GAFAM, il nous reste un mois pour contacter les députés européens et leur demander de rejeter la première étape de ce projet, le règlement terroriste. Appelons-les.

References   [ + ]

1. Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de noter que la Cour de cassation se gardait entièrement de considérer qu’un délai « prompt » de 24 heures ne correspondrait pas à ce qu’exige la loi.
]]>
[Marianne] Reconnaissance faciale : Big Brother s’invite dans les lycées à Nice et à Marseillehttps://www.laquadrature.net/?p=13416http://streisand.me.thican.net/laquadrature.net/index.php?20190213_110000__Marianne__Reconnaissance_faciale____Big_Brother_s___invite_dans_les_lycees_a_Nice_et_a_MarseilleWed, 13 Feb 2019 10:00:00 +0000Deux lycées de la région Provence-Alpes-Côte d’Azur vont installer des portiques de vidéosurveillance à reconnaissance faciale. Un dispositif en partie voué à combler le manque d’effectifs dédiés à la sécurité, mais qui interroge sur les risques liés à la vie privée. […]

Pour l’association la Quadrature du Net, qui défend les droits et libertés des citoyens sur Internet, cette déclaration prouve bien la nature du projet mené dans les lycées de Nice et de Marseille : il s’agirait d’une répétition générale pour une « banalisation » toujours plus grande d’une « technologie liberticide« . « Il s’agit d’une nouvelle étape dans la normalisation de la vidéo surveillance et de la reconnaissance faciale« , regrette auprès de Marianne Félix Tréguer, chercheur à l’Institut des sciences de la communication et membre de l’association. […]

Les inquiétudes de la Quadrature du Net ne sont pas des divagations d’amateurs de dystopie technologique. Car si la France est pour l’instant globalement frileuse face aux expérimentations sur la reconnaissance faciale, plusieurs instances s’en sont récemment dotées. Depuis cet été, les aéroports d’Orly et de Roissy en région parisienne, ainsi que le terminal 2 de l’aéroport de Nice, emploient cette technologie. Aéroports auxquels il faudra donc bientôt ajouter deux lycées français : « Difficile de ne pas y voir une nouvelle pierre à une tendance beaucoup plus large, commente Félix Tréguer. On commence par les lycées mais à Marseille et à Nice, les élus sont aussi les promoteurs de projets sécuritaires qui font de la reconnaissance faciale un pilier de contrôle à l’échelon de la ville« . […]

https://www.marianne.net/societe/reconnaissance-faciale-big-brother-s-invite-dans-les-lycees-nice-et-marseille

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LesDecrypteurs] Qu’est-ce qui arrêtera Facebook ?https://www.laquadrature.net/?p=13417http://streisand.me.thican.net/laquadrature.net/index.php?20190212_110000__LesDecrypteurs__Qu___est-ce_qui_arretera_Facebook___Tue, 12 Feb 2019 10:00:00 +0000Lucie Ronfaut (Le Figaro Tech), Alexandre des Isnards (observateur des réseaux sociaux) et Benjamin Sonntag (co-fondateur de la Quadrature du Net) décryptent le phénomène Facebook, 15 ans après sa création.

NDLRP – L’intervention de Benjamin Sonntag (co-fondateur de la Quadrature du Net) :

NDLRP : L’émission complète avec le débat de 2e partie est à suvire sur le lien original.

http://video.lefigaro.fr/figaro/video/qu-est-ce-qui-arretera-facebook/5998653409001/

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] Blocage administratif : la personnalité qualifiée de la CNIL fait plier la police devant la justicehttps://www.laquadrature.net/?p=13418http://streisand.me.thican.net/laquadrature.net/index.php?20190211_110000__NextINpact__Blocage_administratif____la_personnalite_qualifiee_de_la_CNIL_fait_plier_la_police_devant_la_justiceMon, 11 Feb 2019 10:00:00 +0000Le tribunal administratif de Cergy-Pontoise vient de donner raison à la personnalité qualifiée de la CNIL, qui avait contesté en justice plusieurs demandes de retrait et de déréférencement émanant de l’Office central de lutte contre la cybercriminalité (OCLCTIC). Une première. […]

Sur Twitter, La Quadrature du Net a réagi à cette décision en affirmant qu’elle ne devait « surtout pas » rassurer : « elle démontre exactement les dérives que permet la censure sans juge en France ».

https://www.nextinpact.com/news/107570-blocage-administratif-personnalite-qualifiee-cnil-fait-plier-oclctic-devant-justice.htm

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMonde] Faire respecter le RGPD, principale mission de Marie-Laure Denis, nouvelle présidente de la CNILhttps://www.laquadrature.net/?p=13379http://streisand.me.thican.net/laquadrature.net/index.php?20190210_110000__LeMonde__Faire_respecter_le_RGPD__principale_mission_de_Marie-Laure_Denis__nouvelle_presidente_de_la_CNILSun, 10 Feb 2019 10:00:00 +0000L’enjeu de son mandat se résume en quatre lettres : RGPD, sigle du règlement général sur la protection des données personnelles, entré en vigueur en 2018. […]

«La CNIL est très à l’aise pour se poser en protecteur de la population contre les Gafam, mais se poser contre l’Etat est une tradition qu’elle est contente d’avoir perdu », cingle Arthur Messaud, de La Quadrature du Net, la principale association de défense des libertés numériques en France. En choisissant une juriste habituée des coulisses des régulateurs plutôt que certains noms qui circulaient encore il y a quelques semaines, comme celui de l’ancienne secrétaire d’Etat au numérique Axelle Lemaire, Emmanuel Macron semble avoir fait, sur ce terrain, le choix de la continuité.

https://www.lemonde.fr/pixels/article/2019/02/01/donnees-personnelles-gafam-les-chantiers-qui-attendent-marie-laure-denis_5417586_4408996.html

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Les fichiers de police et de renseignement sont-ils trop nombreux ?https://www.laquadrature.net/?p=13380http://streisand.me.thican.net/laquadrature.net/index.php?20190209_110000__FranceCulture__Les_fichiers_de_police_et_de_renseignement_sont-ils_trop_nombreux___Sat, 09 Feb 2019 10:00:00 +0000[…] Le nombre de fichiers se multiplie en France. Le dernier rapport publié en octobre 2018 par les députés Didier Paris (La République en marche) et Pierre Morel-A-l’Huissier (UDI, Agir et indépendants) comptabilise 106 fichiers. Mais il est difficile de savoir combien de personnes sont fichées au total. […]

Pourtant, parmi tous les fichiers que comptent la police et les renseignements intérieurs, une base de données a soulevé de nombreuses questions : le fichier TES, Titres Électroniques Sécurisés, alias le « fichier monstre ». La base, déployée en France en mars 2017, rassemble toutes les données nécessaires pour établir ses papiers : nom, prénom, couleur des yeux, photo du visage, et surtout les données biométriques (empreintes digitales). L’objectif avancé par le gouvernement ? Garantir l’exactitude des information et limiter le trafic de faux papiers.

L’association La Quadrature du Net, elle, dénonce un fichier présentant de sérieux risques. Alexis Fitzjean O Cobhthaigh, avocat au barreau de Paris et membre de l’association, signale que ce fichier pourrait concerner 60 millions de personnes : « Le risque ce n’est pas seulement qu’il y ait trop de fichiers mais que l’on soit tous fichés. Aujourd’hui, avec ce fichier, dès que vous allez renouveler votre carte d’identité ou votre passeport ce sera le cas. » […]

https://www.franceculture.fr/droit-justice/les-fichiers-de-police-et-de-renseignement-sont-ils-trop-nombreux

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[FranceCulture] Données personnelles : l’Europe aura-t-elle raison des GAFAM ?https://www.laquadrature.net/?p=13381http://streisand.me.thican.net/laquadrature.net/index.php?20190208_110000__FranceCulture__Donnees_personnelles____l___Europe_aura-t-elle_raison_des_GAFAM___Fri, 08 Feb 2019 10:00:00 +0000Le 21 janvier dernier, la CNIL impose à Google une sanction record de 50 millions d’euros pour non-respect du RGDP. Alors que les GAFAM semblaient intouchables, l’arsenal juridique qui s’est peu à peu mis en place semble enfin porter ses fruits. […]

L’Europe réussira-t-elle à faire plier Google sur la question des données personnelles ? La CNIL, la Commission nationale de l’informatique et des libertés, a infligé cette semaine une amende record de 50 millions d’euros au géant américain du numérique. Google est accusé de n’avoir pas respecté le Règlement général sur la protection des données personnelle, le fameux RGPD entré en vigueur en mai dernier. Alors, les Etats ont-ils désormais les moyens d’imposer leur volonté aux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) ? Et nos données seront-elles vraiment mieux protégées alors même qu’elles constituent le modèle économique des géants de la tech ? […]

[NDLRP : avec Arthur Messsaud, juriste à la Quadrature du Net].

https://www.franceculture.fr/emissions/entendez-vous-leco/les-geants-du-net-sont-ils-intouchables

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[RMC] Le sujet du jour : Données personnelles sur Internet, comment mieux se protéger en ligne ?https://www.laquadrature.net/?p=13382http://streisand.me.thican.net/laquadrature.net/index.php?20190207_110000__RMC__Le_sujet_du_jour____Donnees_personnelles_sur_Internet__comment_mieux_se_proteger_en_ligne___Thu, 07 Feb 2019 10:00:00 +0000Martin, juriste de La Quadrature du Net, est l’invité de RMC pour discuter de l’amende infligée par la CNIL à Google, et évoquer la protection des données personnelles en ligne.

https://rmc.bfmtv.com/mediaplayer/audio/rmc-2601-le-sujet-du-jour-donnees-personnelles-sur-internet-comment-mieux-se-proteger-en-ligne-451812.html

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[TheConversation] Les impératifs sécuritaires auront-ils raison de notre droit fondamental à la vie privée ?https://www.laquadrature.net/?p=13383http://streisand.me.thican.net/laquadrature.net/index.php?20190205_110000__TheConversation__Les_imperatifs_securitaires_auront-ils_raison_de_notre_droit_fondamental_a_la_vie_privee___Tue, 05 Feb 2019 10:00:00 +0000Symboliquement, l’État semble accorder une importance toute particulière aux questions sécuritaires. Au-delà du symbole, ce tropisme sécuritaire prend une dimension politique concrète majeure si nous le lions à un événement récent, relativement peu souligné ces dernières semaines : la validation d’une base de données biométriques intitulée « Titres électroniques sécurisés » (TES) instauré par le décret n° 2016-1480 du 28 octobre 2016. Cette décision laisse entrevoir la mutation d’un État dont les points d’équilibre se déplacent imperceptiblement vers moins de droit et plus de surveillance. Signe annonciateur d’une clarification franche du brouillage de nos représentations institutionnelles ? […]

En effet, les démocraties libérales occidentales semblent éprouver des difficultés à prospérer sereinement sur un système politique inédit où métaplateformes et État, punitif et divertissement, privé et public se mêlent, s’interpellent.

Ce changement de rapport de forces déstabilise le positionnement de l’État. Il n’est plus ni solitaire ni souverain mais cohabite avec d’autres formes de pouvoir pour configurer avec elles une nouvelle gouvernance mondiale. […]

https://theconversation.com/les-imperatifs-securitaires-auront-ils-raison-de-notre-droit-fondamental-a-la-vie-privee-108634

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[TheConversation] Liberté d’in-expression : quand les États de l’Union européenne souhaitent sous-traiter la censure aux géants du web !https://www.laquadrature.net/?p=13384http://streisand.me.thican.net/laquadrature.net/index.php?20190204_110000__TheConversation__Liberte_d___in-expression____quand_les_Etats_de_l___Union_europeenne_souhaitent_sous-traiter_la_censure_aux_geants_du_web___Mon, 04 Feb 2019 10:00:00 +0000Le texte européen le plus liberticide de cette décennie est en approche. […]

Usant toujours de la même argumentation – a priori – louable : la lutte contre le terrorisme, ce texte – que vous retrouverez sous l’intitulé : « Règlement du Parlement Européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne » obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google. Quand la Quadrature du Net qui soulève le problème s’interroge : « Une loi européenne pour censurer les mouvements sociaux sur Internet ? » La réponse apparaît tristement contenue dans la question au regard des éléments exposés ci-après et des mouvements sociaux qui se déroulent en France depuis quelques semaines. […]

https://theconversation.com/liberte-din-expression-quand-les-etats-de-lunion-europeenne-souhaitent-sous-traiter-la-censure-aux-geants-du-web-108549

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[20Minutes] Google condamné par la CNIL: « Cela ne va pas les empêcher de continuer leur business »https://www.laquadrature.net/?p=13285http://streisand.me.thican.net/laquadrature.net/index.php?20190203_110000__20Minutes__Google_condamne_par_la_CNIL______Cela_ne_va_pas_les_empecher_de_continuer_leur_business____Sun, 03 Feb 2019 10:00:00 +0000Interview. Arthur Messaud, juriste pour la Quadrature du Net, revient sur l’amende infligée ce lundi par la Cnil à Google…

Le géant américain Google a écopé lundi d’une amende record de 50 millions d’euros infligée par l’autorité française chargée de la protection des données privées qui estime insuffisante l’information sur l’exploitation des données personnelles de ses utilisateurs.

C’est la première fois qu’un géant de l’Internet se fait ainsi rattraper par un régulateur de l’Union européenne, en l’occurrence la Commission nationale de l’informatique et des libertés (Cnil), le « gendarme » français des données personnelles. Pourtant, Arthur Messaud, juriste pour l’association La Quadrature du Net – à l’origine d’une plainte contre plusieurs géants du numérique – estime qu’il aurait fallu aller beaucoup plus loin. […]

https://www.20minutes.fr/high-tech/2433383-20190122-google-condamne-cnil-va-empecher-continuer-business

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[BFMTV] Fin de l’anonymat sur le Web: les limites du projet d’Emmanuel Macronhttps://www.laquadrature.net/?p=13286http://streisand.me.thican.net/laquadrature.net/index.php?20190202_110000__BFMTV__Fin_de_l___anonymat_sur_le_Web__les_limites_du_projet_d___Emmanuel_MacronSat, 02 Feb 2019 10:00:00 +0000Ce 18 janvier, Emmanuel Macron a plaidé en faveur d’une « levée progressive de tout anonymat », dans une volonté d’améliorer la qualité de la démocratie participative. Un discours qu’il n’est pas le premier à tenir. […]

« Ce genre d’obligations – si elles passaient par la loi – seraient impossibles à respecter pour les petits acteurs et risqueraient fort de renforcer davantage les grandes plateformes américaines », explique Félix Tréguer, de la Quadrature du Net, une association de défense des libertés en ligne. « Emmanuel Macron oublie que l’anonymat constitue un droit associé à la liberté d’expression et de communication et au droit à la vie privée. Il est reconnu comme tel au niveau international, notamment par la Cour européenne des droits de l’Homme », complète-t-il. […]

https://www.bfmtv.com/tech/fin-de-l-anonymat-sur-le-webles-limites-du-projet-d-emmanuel-macron-1616925.html

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMonde] Données personnelles : la CNIL condamne Google à une amende record de 50 millions d’euroshttps://www.laquadrature.net/?p=13287http://streisand.me.thican.net/laquadrature.net/index.php?20190201_110000__LeMonde__Donnees_personnelles____la_CNIL_condamne_Google_a_une_amende_record_de_50_millions_d___eurosFri, 01 Feb 2019 10:00:00 +0000Le gendarme français de la vie privée reproche au géant américain de ne pas informer assez clairement ses utilisateurs. […]

Malgré cette victoire, les plaignants restent sur leur faim. LQDN est ainsi déçue du niveau de l’amende, puisque le RGPD permet d’infliger une pénalité allant jusqu’à 4 % du chiffre d’affaires de l’entreprise condamnée. Celui-ci s’élevait, en 2017, à 110 milliards de dollars (97 milliards d’euros) pour Alphabet, la maison mère de Google.

Par ailleurs, estime Benjamin Bayart, un des fondateurs de l’association, « la CNIL a traité une toute petite partie du problème ». Elle s’est attachée à un cas d’usage particulier en regardant si, au moment de configurer un téléphone Android (le système d’exploitation de Google qui équipe la majorité des smartphones), l’utilisateur peut maîtriser l’utilisation de ses données. […]

https://www.lemonde.fr/pixels/article/2019/01/21/donnees-personnelles-la-cnil-condamne-google-a-une-amende-record-de-50-millions-d-euros_5412337_4408996.html

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[NextINpact] RGPD : pourquoi la CNIL a infligé 50 millions d’euros de sanction à Googlehttps://www.laquadrature.net/?p=13288http://streisand.me.thican.net/laquadrature.net/index.php?20190131_110000__NextINpact__RGPD____pourquoi_la_CNIL_a_inflige_50_millions_d___euros_de_sanction_a_GoogleThu, 31 Jan 2019 10:00:00 +0000Alors qu’elle achève son mandat à la CNIL, Isabelle Falque Pierrotin pourra s’enorgueillir d’avoir fait infliger à l’un des géants du Net une sanction monstre : 50 millions d’euros, soit le plus haut niveau jamais prononcé en France sur l’autel du règlement général sur la protection des données personnelles (RGPD). […]

La Quadrature du Net salue cette sanction, non sans relativiser sa portée. Son action collective ne s’est en effet pas limitée au périmètre épinglé par la CNIL, mais « dénonçait surtout le ciblage publicitaire imposé sur YouTube, Gmail et Google Search en violation de notre consentement ».

L’initiative attend donc que la CNIL poursuive ses investigations sur ces autres services. « Nos plaintes visaient avant tout à trancher un autre débat, bien plus fondamental : que la CNIL reconnaisse que notre consentement n’est valide que s’il est librement donné. Que la CNIL explique clairement que Google ne peut pas nous obliger à accepter son ciblage publicitaire afin de pouvoir utiliser ses services ». […]

https://www.nextinpact.com/news/107531-rgpd-pourquoi-cnil-a-inflige-50-millions-deuros-sanction-a-google.htm

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[LeMonde] Comment des villes « hyper connectées » contrôlent l’espace publichttps://www.laquadrature.net/?p=13289http://streisand.me.thican.net/laquadrature.net/index.php?20190130_110000__LeMonde__Comment_des_villes_____hyper_connectees_____controlent_l___espace_publicWed, 30 Jan 2019 10:00:00 +0000A Nice, Marseille ou Nîmes, on travaille avec des plates-formes numériques, quitte à repousser les frontières des libertés. […]

Françaises ou non, ces technologies soulèvent quelques inquiétudes. « La safe city, c’est la prolifération d’outils issus du milieu du renseignement, dans une logique de surveillance massive, d’identification des signaux faibles, des comportements suspects », dénonce Félix Tréguer, un responsable marseillais de l’association La Quadrature du Net. « Ces outils permettront un contrôle social très sophistiqué quand leur potentiel sera optimisé, estime-t-il. Nous ne trouvons pas rassurant que la police municipale devienne le service de renseignement de l’espace public urbain et de son double numérique. » […]

https://www.lemonde.fr/economie/article/2018/12/19/au-nom-de-la-smart-city-des-villes-sous-surveillance_5399527_3234.html

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
[BFMTV] Nice et Marseille testeront des dispositifs de reconnaissance faciale à l’entrée de deux lycéeshttps://www.laquadrature.net/?p=13290http://streisand.me.thican.net/laquadrature.net/index.php?20190129_110000__BFMTV__Nice_et_Marseille_testeront_des_dispositifs_de_reconnaissance_faciale_a_l___entree_de_deux_lyceesTue, 29 Jan 2019 10:00:00 +0000Des portiques dotés d’une technologie de reconnaissance faciale seront déployés dès janvier 2019 dans le lycée des Eucalyptus, à Nice, et dans le lycée Ampère, à Marseille, pour contrôler l’entrée des élèves. […]

« L’un des problèmes majeurs de ce projet a trait au régime commercial qui sera appliqué à ces données », complète Antonio Casilli, professeur de sociologie à Télécom ParisTech et à l’EHESS. « Leur circulation dans les infrastructures d’une entreprise américaine constitue une forme de valorisation abusive. Par ailleurs, la reconnaissance faciale est en soi répressive, invasive et discriminante et a tendance à comprendre des biais et à surcibler des minorités. En l’occurrence, elle habituera les lycéens au fait d’être constamment enregistrés, comparés et jugés. » […]

https://www.bfmtv.com/tech/nice-et-marseille-testeront-des-dispositifs-de-reconnaissance-faciale-a-l-entree-de-deux-lycees-1590434.html.

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Opération « Bloque la pub sur Internet »https://www.laquadrature.net/?p=13314http://streisand.me.thican.net/laquadrature.net/index.php?20190128_143111_Operation_____Bloque_la_pub_sur_Internet____Mon, 28 Jan 2019 13:31:11 +0000À l’occasion de la journée européenne de protection des données, ce lundi 28 janvier 2019, Résistance à l’Agression Publicitaire (RAP) et La Quadrature du Net, soutenues par d’autres associations, lancent une opération Bloque la pub sur Internet et passe le bloqueur à tes voisin·es.
Cette opération continue de mettre en évidence les effets négatifs de la publicité en ligne et les outils pour s’en prémunir !

 
Internet est devenu un espace prioritaire pour les investissements des publicitaires. En France, pour la première fois en 2016, le marché de la publicité numérique devient le « premier média investi sur l’ensemble de l’année », avec une part de marché de 29,6%, devant la télévision. En 2017, c’est aussi le cas au niveau mondial. Ce jeune « marché » est principalement capté par deux géants de la publicité numérique. Google et Facebook. Ces deux géants concentrent à eux seuls autour de 50% du marché et bénéficient de la quasi-totalité des nouveaux investissements sur ce marché. « Pêché originel d’Internet », où, pour de nombreuses personnes et sociétés, il demeure difficile d’obtenir un paiement monétaire direct pour des contenus et services commerciaux et la publicité continue de s’imposer comme un paiement indirect. 

Les services vivant de la publicité exploitent le « temps de cerveau disponible » des internautes qui les visitent, et qui n’en sont donc pas les clients, mais bien les produits. Cette influence est achetée par les annonceurs qui font payer le cout publicitaire dans les produits finalement achetés.
La publicité en ligne a plusieurs conséquences : en termes de dépendance vis-à-vis des annonceurs et des revenus publicitaires, et donc des limites sur la production de contenus et d’information, en termes de liberté de réception et de possibilité de limiter les manipulations publicitaires, sur la santé, l’écologie… 
En ligne, ces problématiques qui concernent toutes les publicités ont de plus été complétées par un autre enjeu fondamental. Comme l’exprime parfaitement Zeynep Tufekci, une chercheuse turque, « on a créé une infrastructure de surveillance dystopique juste pour que des gens cliquent sur la pub ». De grandes entreprises telles que Google, Facebook et d’autres « courtiers en données » comme Criteo ont développés des outils visant à toujours mieux nous « traquer » dans nos navigations en ligne pour nous profiler publicitairement. Ces pratiques sont extrêmement intrusives et dangereuses pour les libertés fondamentales. 
 
L’Europe dispose pourtant désormais d’un règlement qui devrait mettre majoritairement fin à cette exploitation de nos données personnelles. En vertu du règlement général pour la protection des données RGPD, la plupart de ces pratiques de collecte de données personnelles en ligne devraient reposer sur un consentement libre et éclairé. Sinon, ces pratiques sont illégales. C’est sur ce fondement que La Quadrature du Net a porté plainte collectivement contre les 5 géants du numérique. Si le RGPD est rentré en application récemment et que ces plaintes collectives prennent du temps, la CNIL française a déjà agi sur des questionnements similaires, et a même, lundi 22 janvier 2019, commencé à sanctionner Google à une amende de 50 millions d’euros s’agissant de ces pratiques relatives à Android.
Il est temps que cette législation soit totalement respectée et que les publicitaires cessent de nous espionner en permanence en ligne.
 
Un sondage BVA-La Dépêche de 2018 révélait que 77% des Français·es se disent inquiet·es de l’utilisation que pouvaient faire des grandes entreprises commerciales de leurs données numériques personnelles. 83% des Français·es sont irrité·es par la publicité en ligne selon un sondage de l’institut CSA en mars 2016 et « seulement » 24% des personnes interrogées avaient alors installé un bloqueur de publicité.
 
Le blocage de la publicité en ligne apparait comme un bon outil de résistance pour se prémunir de la surveillance publicitaire sur Internet. Pour l’aider à se développer, nos associations lancent le site Internet :

bloquelapub.net

Plusieurs opérations collectives ou individuelles de sensibilisation et blocages de la publicité auront lieu sur plusieurs villes du territoire français et sur Internet peu de temps avant et le jour du 28 janvier 2019, journée européenne de la « protection des données personnelles ». Le jour rêvé pour s’opposer à la publicité en ligne qui exploite ces données !
 

RAP et La Quadrature du Net demandent :

– Le respect de la liberté de réception dans l’espace public et ailleurs, le droit et la possibilité de refuser d’être influencé par la publicité,
– Le strict respect du règlement général pour la protection des données et l’interdiction de la collecte de données personnelles à des fins publicitaires sans le recueil d’un consentement libre (non-conditionnant pour l’accès au service), explicite et éclairé où les paramètres les plus protecteurs sont configurés par défaut. Les sites Internet et services en ligne ne doivent par défaut collecter aucune information à des fins publicitaires sans que l’internaute ne les y ait expressément autorisés.
 
Rendez-vous sur bloquelapub.net et sur Internet toute la journée du 28 janvier 2019
 
Les associations soutiens de cette mobilisation : Framasoft, Le CECIL, Globenet
Contact : contact@bloquelapub.net, contact@antipub.org, contact@laquadrature.net

]]>
D. Dalton, rapporteur sur le règlement antiterroriste, est sur le point d’autoriser la censure de massehttps://www.laquadrature.net/?p=13299http://streisand.me.thican.net/laquadrature.net/index.php?20190128_124429_D._Dalton__rapporteur_sur_le_reglement_antiterroriste__est_sur_le_point_d___autoriser_la_censure_de_masseMon, 28 Jan 2019 11:44:29 +0000Daniel Dalton est député au Parlement européen (Royaume-Uni, ECR – Extrême-droite) et a été désigné rapporteur pour la Commission LIBE sur le règlement de censure antiterroriste (lire notre article sur le texte). Venant du Royaume-Uni, il ne fera plus partie du Parlement européen d’ici quelques mois, mais il compte auparavant laisser l’Union européenne sous-traiter la censure de l’Internet à Google et Facebook, détruire les autres acteurs de l’Internet et laisser à la police le pouvoir d’ordonner le retrait en une heure de contenus qu’elle juge illicite, et cela sans autorisation judiciaire.

Mercredi dernier, il a publié son projet de rapport – un texte sur lequel se basera le Parlement européen pour amender la proposition sécuritaire de la Commission européenne publiée en septembre dernier, proposition poussée par la France et l’Allemagne. Ce projet de rapport ne propose aucun vrai changement par rapport au texte initial. Peut-être que, nous laissant bientôt à notre sort, M. Dalton n’a rien à faire de ce règlement.

Ou est-ce vraiment le cas ?

Lors des derniers mois, Dalton a pourtant exprimé publiquement son opposition aux obligations de filtrage automatique qui résulteront de l’article 13 de la directive sur le droit d’auteur.

Il a ainsi clairement énoncé que « Les grands acteurs comme Google et Amazon auront la capacité de respecter les obligations qui leur seront imposées par le texte de la commission JURI sur l’article 13, c’est à dire de chercher des millions d’ayant-droits à travers le monde, de conclure avec eux des accords et mettre en place des logiciels sophistiqués de surveillance, ce que ne pourront peut-être pas faire des petites entreprises unipersonnelles à temps partiel. La mise en ligne de nombreux contenus légitimes sera automatiquement empêchée par ces logiciels de surveillance de contenu que les sites auront l’obligation d’installer. De nombreux utilisateurs ne contesteront pas ces décisions, ce qui constitue une entrave inacceptable à la liberté d’expression, ce qui serait un changement fondamental pour la nature de l’Internet tel que nous le connaissons aujourd’hui ». Alors pourquoi ferait-il aujourd’hui l’opposé ?

Il y a deux hypothèses.

Première possibilité : il n’a jamais été sincère et il travaille en réalité depuis le début pour Google. Google est contre l’article 13 ? Dalton l’est aussi. Google bénéficiera largement de ce règlement antiterroriste, car celui-ci détruira nombre de ses concurrents et le placera au centre du système de modération du Web ? Dalton défend ce texte. C’est une hypothèse très cynique et nous ne préférons pas y croire.

Seconde hypothèse : Dalton est sincère mais mal informé. Il n’a pas lu les lettres ouvertes signées par des dizaines d’acteurs de l’Internet ou les analyses que nous avons publié aux côtés de nombreuses autres organisations et associations (EDRi ou Mozilla par exemple). C’est assez crédible. Le seul changement que suggère Dalton dans son projet de rapport est d’indiquer que le règlement ne devra pas conduire à un filtrage automatisé des contenus. C’est en accord avec sa position sur la directive droit d’auteur. Mais il n’a pas encore réalisé que, malgré sa proposition, le cœur même du texte ne peut conduire qu’à une forme de censure automatisée.

Si les acteurs de l’Internet sont obligés de prévoir un point de contact disponible 24h/24 et 7 jours sur 7 pour répondre en moins d’une heure aux injonctions de retrait de la police (quelque chose toujours présent dans le projet de rapport), qu’est-ce que Dalton pense qu’il arrivera ? Très peu d’acteurs seront capables de retirer des contenus dans un tel délai. Et, de toutes façons, personne n’attendra calmement que la police les appelle. La plupart des acteurs ne pourront que déléguer la modération des contenus à d’autres entreprises. Lesquelles ? Il suffit, pour comprendre, de lire les communiqués publiés conjointement par la Commission européenne, Google et Facebook : ces entreprises prétendent être capables de détecter et de retirer des contenus soi-disant terroristes en une heure et la Commission explique que les petits acteurs devront désormais utiliser leurs outils1Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
.

C’est plutôt simple : le but même de ce règlement est de forcer tous les acteurs de l’Internet à utiliser les outils développés par Google et Facebook depuis deux ans dans le cadre du Forum de l’UE sur l’Internet. La Commission européenne ne s’en est jamais cachée. Si Dalton est sincèrement opposé au filtrage automatisé et ne travaille pas pour Google, il devrait simplement retirer son projet de rapport et demander le rejet du règlement – ce texte n’étant d’aucun façon amendable ou améliorable.

Un premier vote sur ce projet de rapport est prévu pour le 21 mars. La Quadrature du Net rencontrera cette semaine des députés du Parlement européen et nous vous tiendrons au courant des retours du terrain.

« Les déclarations de M. Dalton ne semblent pas correspondre à ses actions. S’il est vraiment opposé au filtrage automatisé, alors pourquoi s’y oppose-t-il seulement quand il s’agit de la directive droit d’auteur et pas sur le règlement de censure antiterroriste ? Si vous êtes aussi intrigués que nous par le comportement incohérent de M. Dalton, n’hésitez pas à lui demander directement » suggère Martin Drago, chargé d’analyse juridique à La Quadrature du Net.

References   [ + ]

1. Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
]]>
[RadioCampusParis] La matinale – Quadrature du net & Les enfant.e.s du désordrehttps://www.laquadrature.net/?p=13291http://streisand.me.thican.net/laquadrature.net/index.php?20190128_110000__RadioCampusParis__La_matinale_____Quadrature_du_net___Les_enfant.e.s_du_desordreMon, 28 Jan 2019 10:00:00 +0000Conserver un internet libre pour diversifier et démêler les vérités et des mensonges à propos des usages d’internet c’est le quotidien des activistes de La Quadrature du net. Martin Drago et Marne sont au micro de la Matinale de 19h pour réagir au projet de la Commission Européenne de censure antiterroriste sur internet. Ils nous offrent aussi un décryptage des usages et libertés sur internet.

« Pour soi-disant nous protéger du terrorisme, on impose des interdictions très restrictives à l’ensemble des acteurs d’internet que ce soit les grands réseaux, les forums et les sites. » […]

https://www.radiocampusparis.org/la-matinale-la-quadrature-du-net-les-enfant-e-s-du-desordre/

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

]]>
Censure antiterroriste : la Commission européenne maintient la pression sur le Parlementhttps://www.laquadrature.net/?p=13272http://streisand.me.thican.net/laquadrature.net/index.php?20190123_153320_Censure_antiterroriste____la_Commission_europeenne_maintient_la_pression_sur_le_ParlementWed, 23 Jan 2019 14:33:20 +0000Après sa présentation en septembre 2018 par la Commission européenne et son adoption trois mois plus tard par les gouvernements européens, le projet de règlement sur la censure antiterroriste est en ce moment en discussion devant le Parlement européen.

Pour rappel, ce texte obligera de fait tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisée fournis par Facebook et Google, tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle juge « terroriste », sans l’autorisation d’un juge.

Au sein du Parlement, c’est aujourd’hui la Commission LIBE (pour Libertés civiles, justice et affaires intérieures) qui a été désignée comme « compétente au fond », avec comme rapporteur Daniel Dalton (Royaume-Uni, ECR – Extrême-droite). Ce dernier sera donc chargé de rendre un rapport proposant des amendements au texte de la Commission européenne, rapport qui servira ensuite de base au Parlement européen pour examiner le texte de la Commission en séance plénière. Selon nos informations, Dalton pourrait essayer de publier un projet de rapport d’ici la fin janvier avec pour objectif de le faire adopter par la Commission LIBE dès le 21 mars 2019.

Deux autres commissions ont été désignées pour rendre à la Commission LIBE des avis sur la proposition législative : la Commission IMCO (pour Marché intérieur et protection des consommateurs – avec Julia Reda comme rapporteure – Allemagne, Groupe des Verts) et la Commission CULT (pour Culture et Éducation – avec Julie Ward comme rapporteure – Royaume-Uni, du groupe Socialistes et Démocrates).

Ces commissions ont toutes les deux récemment publié leur projet d’avis sur le texte.

Le projet d’avis de Julia Reda, publié le 13 décembre 2018, suggère la modification et même la suppression de nombreux éléments qui posaient problème dans le texte original présenté par la Commission européenne. Il y est ainsi proposé d’exclure du champ d’application les petites et moyennes entreprises ainsi que les services d’informatique en nuage, les blogs ou les services de communication interpersonnelles (c’est à dire les messageries instantanées). Elle recommande par ailleurs que seules des autorités judiciaires (et non plus la police) puissent demander à un fournisseur le retrait d’un contenu et cela, non plus dans l’heure mais seulement « rapidement, compte étant tenu de la taille et des ressources des fournisseurs des services d’hébergement ». Le fournisseur de service pourrait également contester le fondement de la demande de retrait qui lui est adressé. Enfin, parmi d’autres mesures, il est demandé la suppression de l’article 6 qui concernait la possibilité pour les autorités d’imposer des mesures de filtrage automatique aux fournisseurs de services.

Concernant la Commission CULT, Julie Ward a publié la semaine dernière un projet d’avis dans lequel elle critique à son tour les dangers de la proposition de la Commission. Elle y propose notamment, elle-aussi, de ne donner le pouvoir d’ordonner des retraits de contenus qu’aux autorités judiciaires, de ne plus parler d’un retrait en une heure mais « dans les meilleurs délais », de supprimer l’article 6 sur les mesures proactives de filtrage et de retirer la sanction minimum de 4% du chiffre d’affaires…1Notons que parmi les différences entre les deux projets d’avis, Julia Reda ne propose pas seulement de supprimer l’article 6 sur les mesures proactives mais également l’article 5 qui laissait au fournisseur de services l’opportunité de supprimer ou non un contenu signalé par les autorités – ce qui n’est pas proposé dans le projet d’avis de Julie Ward.

Si ces deux projets d’avis contiennent des propositions de modification qui sont les bienvenues par rapport au texte original, il reste que la stratégie que paraissent poursuivre les députées, c’est-à-dire de vider le texte de sa substance (réduction du nombre d’acteurs visés, passage obligatoire par des autorités judiciaires, suppression du délai de retrait d’une heure et des filtres automatiques…) sans appeler à son rejet en entier, nous semble être un jeu bien trop dangereux, qu’il ne faut surtout pas jouer.

En effet, premièrement, rien ne dit que ce seront les avis définitifs qui seront adoptés par IMCO et CULT et, deuxièmement, il sera toujours plus facile, une fois le texte adopté, de faire sauter les exceptions pour revenir au projet d’origine de la Commission. Comme nous le soulignons depuis septembre, seul le rejet du texte en son entier permettra de sauvegarder nos libertés et de conserver un Internet libre et décentralisé.

Il reste maintenant à savoir quelle sera la teneur du rapport de Daniel Dalton pour la Commission LIBE. Ses positions habituelles n’ont rien pour nous rassurer. L’autre question tient à savoir si le Parlement européen parviendra à se prononcer en séance plénière sur ce texte avant les élections européennes à venir en mai 2019.

S’il semble que, plus le temps avance, moins cela semble certain, le commissaire européen responsable de ce texte, Julian King, paraît, de son côté, toujours y croire,  :

« Après un certain retard, le Parlement européen vient de confirmer la semaine dernière les commissions compétentes sur le texte. Nous devons donc désormais concentrer tous les efforts pour obtenir un accord avant les élections européennes.

C’est la première de nos trois priorités pour cette année, et la plus urgente à court terme»

En conclusion, si nous avions pu espérer en fin d’année dernière un ralentissement des débats sur ce sujet, ni la Commission ni les gouvernements ne semblent prêts à lâcher l’affaire et continuent d’imposer aux institutions européennes un rythme étranger à tout débat démocratique.

References   [ + ]

1. Notons que parmi les différences entre les deux projets d’avis, Julia Reda ne propose pas seulement de supprimer l’article 6 sur les mesures proactives mais également l’article 5 qui laissait au fournisseur de services l’opportunité de supprimer ou non un contenu signalé par les autorités – ce qui n’est pas proposé dans le projet d’avis de Julie Ward.
]]>
Première sanction contre Google suite à nos plaintes collectiveshttps://www.laquadrature.net/?p=13249http://streisand.me.thican.net/laquadrature.net/index.php?20190121_171322_Premiere_sanction_contre_Google_suite_a_nos_plaintes_collectivesMon, 21 Jan 2019 16:13:22 +0000Le 28 mai dernier, La Quadrature du Net déposait devant la CNIL, au nom de 12 000 personnes, cinq plaintes contre Google, Apple, Facebook, Amazon et Microsoft. Depuis, la CNIL a décidé de traiter elle-même la plainte contre Google, alors que les autres sont parties devant les autorités irlandaise et luxembourgeoise (lire notre explication). À cela s’ajoutait une autre plainte déposée elle aussi devant la CNIL par nos amis de l’association autrichienne NOYB contre Android.

Aujourd’hui, la CNIL vient de sanctionner Google à hauteur de 50 millions d’euros, considérant que le ciblage publicitaire qu’il réalise sur son système d’exploitation Android n’est pas conforme au règlement général pour la protection des données (RGPD), la nouvelle loi européenne entrée en application le 25 mai 2018. Cependant, cette sanction n’est qu’une toute première partie de la réponse à notre plainte contre Google, qui dénonçait surtout le ciblage publicitaire imposé sur Youtube, Gmail et Google Search en violation de notre consentement.

Ainsi, la CNIL explique notamment le montant de sa sanction, très faible en comparaison du chiffre d’affaire annuel de près de 110 milliards de dollars de Google, du fait que le périmètre de son contrôle s’est limité aux « traitements couverts par la politique de confidentialité présentée à l’utilisateur lors de la création de son compte à l’occasion de la configuration de son téléphone mobile sous Android » (par. 78). Nous attendons donc de la CNIL qu’elle réponde rapidement au reste de notre plainte, au sujet de Youtube, Gmail et Google Search, en imposant cette fois-ci une sanction d’un montant proportionné à cette entreprise ainsi qu’à l’ampleur et à la durée de la violation de nos droits (le montant maximal possible, que nous espérons, est de plus de 4 milliards d’euros, 4% du chiffre d’affaire mondial).

Par ailleurs, sur le fond, la CNIL a aujourd’hui sanctionné Android sur des arguments dont l’enjeu est assez faible : elle considère, à juste titre, que les informations que nous donne Google au moment de créer un compte ne sont pas clairement accessibles et que notre consentement n’est pas recueilli de façon explicite (par un acte positif de notre part) mais notamment au moyen de cases pré-cochées, ce que le RGPD interdit explicitement.

Certes, ce dernier argument était bien un de ceux que nous avions soulevés dans nos plaintes, mais nos plaintes visaient avant tout à trancher un autre débat, bien plus fondamental : que la CNIL reconnaisse que notre consentement n’est valide que s’il est librement donné. Que la CNIL explique clairement que Google ne peut pas nous obliger à accepter son ciblage publicitaire afin de pouvoir utiliser ses services.

Contrairement aux décisions rendues récemment par la CNIL au sujet d’entreprises françaises, la CNIL est aujourd’hui parfaitement muette à ce sujet, et nous le déplorons. Nous attendons donc d’elle qu’elle aborde frontalement ce sujet dans les décisions qu’elle doit rendre prochainement au sujet de Youtube, Gmail et Google Search.

Au passage, toutefois, notons que Google, au cours de la procédure, a prétendu qu’il exigeait systématiquement notre consentement pour nous cibler à des fins publicitaires, et ne se reposait pas sur une autre base légale (tel que « l’intérêt légitime » – voir notre plainte, p.10). Ces prétentions sont intéressantes, premièrement parce qu’elles contredisent le contenu même de la politique de confidentialité de Google (qui prétend pouvoir nous cibler sans notre consentement), mais aussi parce qu’elles laissent envisager un repli stratégique de la part de Google qui, dos au mur, pourrait enfin cesser de feindre d’ignorer entièrement le droit européen.

Un risque majeur demeure toutefois : pour échapper à des sanctions, Google a récemment modifié ses conditions d’utilisation. Celles-ci prétendent, à partir du 22 janvier, établir l’entreprise comme étant située en Irlande dans l’espoir d’empêcher la CNIL française de rendre des décisions telle que celle d’aujourd’hui (l’autorité irlandaise étant en sous-effectif et débordée de plaintes, Google peut espérer y faire traîner sa procédure pendant des années). Nous attendons de la CNIL qu’elle ignore cette pirouette éhontée et décide de rester compétente pour prononcer les autres sanctions contre Youtube, Gmail et Google Search, notre plainte ayant été déposée bien avant ce changement unilatéral des conditions d’utilisation imposées par l’entreprise.

En conclusion, même si nous nous réjouissons d’une première sanction sur le fondement de nos plaintes collectives, notamment car la décision d’aujourd’hui vient couper court à la tentative de fuite en Irlande de Google, nous attendons surtout de la CNIL qu’elle prononce très prochainement la suite des décisions auxquelles notre plainte appelle. Ces décisions devront aborder frontalement la question du « consentement libre » et prévoir une sanction d’un montant proportionné à la situation, bien au delà de 50 millions d’euros.

Surtout, un grand merci au 12 000 personnes avec qui nous avons engagé ces plaintes contre les GAFAM et leur monde <3

]]>
La Quadrature du Net a encore besoin de vos donshttps://www.laquadrature.net/?p=12835http://streisand.me.thican.net/laquadrature.net/index.php?20181219_163331_La_Quadrature_du_Net_a_encore_besoin_de_vos_donsWed, 19 Dec 2018 15:33:31 +0000Nous voici à la fin de la campagne de dons annuelle de La Quadrature du Net : cinq semaines que nous avons vécues au rythme des évènements thématiques organisés et des belles rencontres qu’ils nous ont permis de faire.

Nous y avons parlé des sujets qui sont au cœur de nos actions : la lutte contre la censure et la surveillance mais aussi contre l’emprise des GAFAM et de l’économie de l’attention sur nos vies.

Nous avons aussi parlé de ce qui nous guide au jour le jour : la vision d’un Internet libre, neutre et décentralisé, vision partagée par nombre de nos ami·es, à qui nous avons essayé de donner un peu la parole dans cette campagne, à travers diverses vidéos.1Pour voir, revoir ou diffuser autour de vous ces vidéos :
« Soutenons notre Internet »
« Contre la censure, la décentralisation »
« Notre Internet, nos câbles »
« Nos données ne sont pas des marchandises »
« Résistons à la surveillance »

Nous avons enfin beaucoup parlé d’un sujet crucial tant il menace l’Internet que nous aimons : la censure sécuritaire au prétexte de la lutte anti-terroriste.

Si la série d’évènements que nous avons organisés s’est achevée hier avec une inspirante soirée littéraire,2Pour retrouver les captations de plusieurs de ces soirées :
« Quel avenir juridique pour les hébergeurs ? »
« Capitalisme de surveillance »
« Soirée littéraire « le futur d’Internet »
les attaques contre nos libertés fondamentales se multiplient.
La lutte ne s’arrête donc pas là : ce dossier « censure sécuritaire » mais aussi les projets de « smart cities » technopolicières qui fleurissent partout dans le monde, et notamment en France, dessineront ce que seront les combats de La Quadrature du Net pour l’année à venir.

C’est pourquoi La Quadrature du Net a besoin de vous encore une fois. Notre objectif de campagne est loin d’être atteint : nous en sommes aujourd’hui à 45%, et la vie de l’association est assurée jusqu’en juin 2019. Ensuite, c’est flou. Les années précédentes, des événements d’actualité très forts, comme l’état d’urgence contre lequel nous étions très impliqués ou comme notre action collective contre les GAFAM ont relancé les dons en cours d’année, ce qui nous avait permis de boucler le budget. En 2019, nous partons en campagne contre la volonté de la France et de l’Union européenne d’augmenter la censure du Web sous prétexte de lutter contre le terrorisme. L’année sera difficile. Et sans votre aide nous ne pourrons pas mener à bien ce pour quoi nous sommes là : défendre au quotidien les libertés de chacune et chacun !

References   [ + ]

]]>
Reconnaissance faciale au lycée : l’expérimentation avant la généralisationhttps://www.laquadrature.net/?p=12816http://streisand.me.thican.net/laquadrature.net/index.php?20181219_144414_Reconnaissance_faciale_au_lycee____l___experimentation_avant_la_generalisationWed, 19 Dec 2018 13:44:14 +0000Le 14 décembre dernier, le Conseil Régional de PACA a voté une mesure visant à faire installer, à partir de 2019, des dispositifs de reconnaissance faciale à l’entrée de deux lycées de Nice et de Marseille. Dès le mois d’octobre, La Quadrature du Net avait demandé à la CNIL la communication des documents en sa possession sur ce dossier, cette dernière ayant été consultée par la région pour la mise en place de ces dispositifs. L’analyse de ces documents, ainsi que les précisions apportées par Christian Estrosi, confirment l’impuissance de la CNIL à enrayer la banalisation d’une technologie particulièrement liberticide et qui vise ici à s’étendre à l’ensemble des établissements scolaires de la région.

Mise à jour (20 décembre 2018) – nous publions les documents suivants :

  • La réponse de la CNIL à notre demande
  • La lettre de Renaud Muselier présentant le projet à la CNIL
  • L’exposé détaillé du projet par la région
  • La demande de renseignements complémentaires par la CNIL à la région et la réponse de cette dernière

De quoi s’agit-il ? En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs de « portiques virtuels » associant « des moyens classiques d’identification (…) à un dispositif biométrique utilisant des technologies de comparaison faciale, seuls à même d’après nos premières investigations, d’apporter une solution fiable et rapide dans un contexte de contrôle d’accès portant sur un nombre potentiellement élevé de personnes ». Cette nouvelle étape est la suite logique de sa politique sécuritaire ayant conduit, entre 2016 et 2017, à ce que plus de 1 300 caméras de vidéosurveillance soient installées dans l’ensemble des lycées de la région. La technologisation à outrance est également présentée par la région comme une réponse au contexte d’austérité budgétaire :

Ce dispositif constitue une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique.

La région PACA présente ainsi à la CNIL son projet visant à « sanctuariser » les entrées et les sorties dans les établissements secondaires. Il s’agit non seulement de reconnaissance faciale mais également d’un dispositif de « suivi de trajectoire » de certains des visiteurs : un logiciel installé couplé à une caméra permet de détecter des points de comparaison faciale déterminés par un algorithme et de le comparer avec ceux stockés dans une base de données. Un écran mis à la disposition des agents de contrôle permet alors de visualiser trois types de profils : « vert » pour les personnes autorisées à pénétrer dans l’enceinte du lycée, « jaune » pour les personnes non identifiées et invitées à se présenter à l’accueil et « rouge » pour les personnes non identifiées et qui ne se sont pas dirigées dès leur entrée vers l’accueil.

Il est par ailleurs précisé qu’il s’agit pour l’instant d’une « expérimentation limitée dans le temps » et fondée sur le consentement explicite de volontaires au sein des établissements visés.

La CNIL impuissante face au développement de la reconnaissance faciale

Alors qu’elle avait appelé en septembre 2018 à un débat urgent sur ces nouveaux usages des caméras vidéo et qu’elle souligne elle-même les risques considérables d’atteinte aux libertés individuelles que cette technologie entraîne, la CNIL n’a opéré ici qu’un suivi très souple – voire accommodant – du projet.

Soulignons d’abord que, depuis l’entrée en vigueur du RGPD en mai 2018, les responsables de traitement de données personnelles n’ont en principe plus à réaliser de formalités auprès de la CNIL avant la mise en œuvre du traitement, tel qu’obtenir son autorisation dans certains cas. Le contrôle de l’autorité ne se fait qu’a posteriori, conformément au principe de responsabilisation des acteurs prévu dans le règlement. Tout au plus certains traitements, et c’est le cas pour la reconnaissance faciale, doivent-ils faire l’objet d’une analyse d’impact. Le consentement des utilisateurs est désormais censé fournir une base légale suffisante pour le déploiement de ces systèmes qui font pourtant entrer la surveillance dans une nouvelle ère. En supprimant le pouvoir d’autorisation de la CNIL s’agissant de ce type de dispositifs, le RGPD marque donc un recul pour les libertés.

Selon les documents qui nous ont été communiqués, la CNIL s’est donc contentée de demander des précisions complémentaires à la Région sur le dispositif envisagé et, sur certains points, de fournir des recommandations. C’est d’ailleurs suite à l’une de ces recommandations que la Région a décidé que le stockage des données biométriques ne se ferait pas sur une base de données mais sur un support individuel, sous le contrôle exclusif de la personne (en l’espèce, un badge) (comme c’est le cas pour ce qui existe déjà dans plusieurs aéroports où la photographie n’est stockée que dans le microprocesseur du passeport biométrique).

Ainsi, et contrairement à ce qui a été annoncé par une partie de la presse et par Christian Estrosi lui-même, la CNIL n’a pas donné son « feu vert » à ce dispositif mais a simplement accompagné la région dans sa mise en place.

Pourtant, en laissant se développer ce type de technologies à des buts sécuritaires, sans qu’il ne soit apporté à un seul moment la preuve de la pertinence d’un tel dispositif par rapport au système existant,1Il est ainsi seulement précisé dans les documents produits par la région, et cela sans aucune preuve ou réelle analyse, que « les nombreux incidents et agressions constatés aussi bien dans l’enceinte du lycée qu’à ses abords, ainsi que le contexte sécuritaire existant depuis les attentats terroristes de 2016, conduisent également à tenter de limiter les temps d’attente et les attroupements à l’extérieur des établissements aux moments de forte affluence (rentrées matinales notamment) » ou que « ce dispositif constitue une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs de la fonction publique. Il apporte une assistance aux personnels du lycée, qui peuvent ainsi mieux se concentrer sur les cas nécessitant une intervention humaine, et reporter leur vigilance sur les multiples situations menaçant la sécurité, en augmentant la présence humaine dans les lieux de vie de l’établissement. » sans même une réelle réflexion sur la nature du consentement que peuvent donner des mineurs à l’égard d’une expérimentation au sein de leur lycée,2Le courrier de la région précise à ce titre que « Les personnes volontaires (ou leur représentant légal pour les mineurs) doivent signer préalablement un formulaire de recueil de consentement expliquant la finalité de l’expérimentation, la durée de conservation des donnée ainsi que la manière d’exercer les droits Informatique et Libertés » la CNIL participe à la banalisation de ces technologies. Elle devient l’alibi au développement d’une surveillance généralisée qui sera au cœur des « Safe City » qui commencent à essaimer sur le territoire.

Un dispositif qui a vocation à s’étendre à toute la région

Car, sous le qualificatif faussement tranquillisant d’ « expérimentation » mis en exergue par Renaud Muselier et Christian Estrosi, ces derniers souhaitent en réalité, comme ils l’ont eux-mêmes énoncé lors de l’assemblée plénière du Conseil Régional, étendre ce dispositif de reconnaissance faciale à l’ensemble des lycées de la région :

Avec ces deux expériences, une fois que nous l’aurons démontré, nous irons très vite sur la généralisation, à partir du réseau de vidéosurveillance déjà existant, sur lequel il ne nous restera plus qu’à mettre le logiciel qui correspond à l’usage de la reconnaissance faciale par rapport aux caméras déjà installées dans nos établissements scolaires.

L’expérimentation des lycées de Nice et de Marseille s’inscrit donc en réalité parfaitement dans les divers projets que La Quadrature du Net dénonce depuis près d’un an, et qui sont d’ailleurs particulièrement avancés dans ces deux villes : « Observatoire Big Data de la tranquillité publique » à Marseille, « Safe City » à Nice… Cette actualité apparaît alors comme une nouvelle briqueau développement, toujours plus rapide et incontrôlable, de ces nouvelles technologies de surveillance (« Big Data », caméras « intelligentes », reconnaissance faciale…) au profit des municipalités et de leurs polices.

Un tel projet profitera par ailleurs pleinement à son maître d’œuvre, la société CISCO, qui finance entièrement cette expérimentation et qui s’occupera « dans un premier temps » de former les professeurs des lycées à ces nouvelles technologies. Cisco, acteur américain central de la « Safe City », et avec qui le gouvernement français avait déjà signé un partenariat important pour mener un projet de « Smart City » dans une ville française, se positionne dans un marché en plein essor. Il pourra pleinement tirer parti de cette occasion que lui donne la région de tester ses nouvelles technologies de surveillance dans nos établissements scolaires pour mieux la revendre plus tard, dans le cadre de marchés publics à vocation sécuritaire.

Alors qu’il y a plus d’un mois, nous appelions déjà la CNIL à imposer un moratoire sur le développement de ces technologies, cette dernière semble s’en tenir à une posture attentiste. Nous appelons les syndicats de lycéens et d’enseignants ainsi que les parents d’élèves et toutes celles et ceux révulsés par ces évolutions à s’organiser pour les tenir en échec.

References   [ + ]

1. Il est ainsi seulement précisé dans les documents produits par la région, et cela sans aucune preuve ou réelle analyse, que « les nombreux incidents et agressions constatés aussi bien dans l’enceinte du lycée qu’à ses abords, ainsi que le contexte sécuritaire existant depuis les attentats terroristes de 2016, conduisent également à tenter de limiter les temps d’attente et les attroupements à l’extérieur des établissements aux moments de forte affluence (rentrées matinales notamment) » ou que « ce dispositif constitue une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs de la fonction publique. Il apporte une assistance aux personnels du lycée, qui peuvent ainsi mieux se concentrer sur les cas nécessitant une intervention humaine, et reporter leur vigilance sur les multiples situations menaçant la sécurité, en augmentant la présence humaine dans les lieux de vie de l’établissement. »
2. Le courrier de la région précise à ce titre que « Les personnes volontaires (ou leur représentant légal pour les mineurs) doivent signer préalablement un formulaire de recueil de consentement expliquant la finalité de l’expérimentation, la durée de conservation des donnée ainsi que la manière d’exercer les droits Informatique et Libertés »
]]> Résumé de nos arguments contre la surveillance française devant les juges européenshttps://www.laquadrature.net/?p=12738http://streisand.me.thican.net/laquadrature.net/index.php?20181213_140532_Resume_de_nos_arguments_contre_la_surveillance_fran__aise_devant_les_juges_europeensThu, 13 Dec 2018 13:05:32 +0000La semaine dernière, nous avons déposé devant la Cour de justice de l’Union européenne nos dossiers contre le régime de surveillance français. Cet événement marque l’aboutissement de trois années d’analyses, de débats et de rédaction menés par La Quadrature du Net, FFDN et FDN, principalement au travers des Exégètes amateurs (un groupe de bénévoles qui, depuis quelques mois, ont intégré ces différentes associations pour y poursuivre leurs activités).

Depuis quatre ans que nous menons ce genre d’action, ce dossier contentieux est clairement celui qui aura mobilisé le plus d’énergie de notre part. Dans l’attente de la plaidoirie qui se tiendra dans plusieurs mois, et d’une décision qui pourrait bouleverser le droit français l’année prochaine ou la suivante, faisons le bilan de nos arguments.

En juillet dernier, nous vous faisions le récit de nos trois années de procédure devant les juges français. Depuis, tel que nous l’espérions, le Conseil d’État a accepté de poser à la Cour de justice de l’Union européenne cinq questions portant sur la conformité du régime français de surveillance au regard du droit de l’Union européenne (ces cinq questions ont été transmises par deux décisions rendues le 26 juillet 2018, une première portant sur la loi renseignement et une seconde sur la conservation généralisée des données de connexion).

Pour aider la CJUE à répondre à ces cinq questions, nous avons préparé deux dossiers avec FFDN et igwan.net. Il y a 15 jours, nous vous invitions à venir les relire pour les améliorer. Vous avez été des dizaines à le faire, rendant nos écritures plus claires et plus précises. Nous vous en remercions infiniment. Sincèrement !

Vous pouvez lire ces deux dossiers, ici (PDF, 20 pages) et ici (PDF, 17 pages). Ils ne sont pas très longs, mais leur prose reste assez technique. Nous en faisons donc ici un résumé que nous espérons plus accessible.

Contre la loi renseignement

Notre premier dossier, déposé par La Quadrature du Net, souhaite démontrer que la loi renseignement, adoptée en 2015, est largement contraire au droit de l’Union européenne et devrait donc être drastiquement modifiée pour ne plus permettre les abus qu’elle permet aujourd’hui.

Avant de rentrer dans le détail de nos arguments, rappelons brièvement ce à quoi nous nous attaquons.

Concrètement, la loi renseignement (codifiée au livre VIII du code de la sécurité intérieure) permet aux services de renseignement de réaliser les mesures suivantes :

  • intercepter des communications électroniques (téléphones, mails, etc.) ;
  • collecter des données de connexion (adresse IP, date et heure de communication, etc.) et de localisation auprès des opérateurs de télécommunication et des hébergeurs Web ;
  • exiger des opérateurs de leur transmettre en temps réel des données de localisation ;
  • dévoyer un réseau pour intercepter des données de connexion, typiquement à l’aide de dispositifs de type « IMSI-catcher » ;
  • pirater un terminal informatique (à distance ou en s’immisçant dans un lieu privé) pour accéder aux données qui y sont entrées, affichées ou enregistrées ;
  • capter des images et des conversations privées, à distance ou en posant micros et caméras dans des lieux privés ;
  • poser des dispositifs (type « sondes ») permettant de suivre la localisation de personnes et d’objets, notamment en entrant dans des lieux privés ;
  • intercepter sur un réseau l’ensemble des « communications internationales » – dont l’émetteur et/ou le récepteur est situé en dehors du territoire français.

Toutes ces mesures peuvent être réalisées sur simple autorisation du Premier ministre, sans autorisation préalable d’un juge ou d’une autorité indépendante. Pour être autorisées, il suffit qu’elles soient utiles à la défense de l’un des très nombreux « intérêts fondamentaux de la Nation » dont la loi dresse la liste (et qui ne se résument pas du tout à la seule lutte contre le terrorisme) – nous y reviendrons plus tard. De plus, ces mesures peuvent être prises contre n’importe quelle personne (suspectée ou non) du moment que sa surveillance est susceptible de révéler des informations utiles pour défendre ces « intérêts fondamentaux ».

Enfin, et cette fois-ci pour la seule finalité de lutte contre le terrorisme, l’administration peut aussi recueillir en temps réel des données de connexion et placer sur les réseaux des dispositifs (les fameuses « boites noires », détaillées ci-dessous) interceptant et traitant automatiquement les données acheminées afin de « détecter des connexions susceptibles de révéler une menace terroriste ».

Voilà pour ce que nous attaquons.

Quant à nos arguments, pour aller au plus simple, nous les résumerons à 5 idées : les « intérêts fondamentaux » pouvant justifier une mesure sont trop larges (1) ; les données collectées sont excessives comparées aux objectifs poursuivis (2) ; la loi n’encadre que la collecte des données, mais pas leur utilisation (3) ; les mesures de renseignement ne sont pas soumises à un contrôle indépendant efficace (4) ; nous ne pouvons pas vraiment agir en justice pour contester une mesure illicite (5).

1. Des « intérêt fondamentaux » trop larges

Les services de renseignement peuvent réaliser les mesures listées ci-dessus pour de nombreux « intérêts fondamentaux », que la loi définit comme comprenant la lutte contre le terrorisme mais aussi :
– la défense des « intérêts majeurs de la politique étrangère », ces intérêts étant discrétionnairement définis par le Gouvernement ;
– « l’exécution des engagement européens et internationaux de la France », notamment l’application des normes de l’Union européenne sur l’agriculture, la pêche, les transports, l’emploi, la culture ou le tourisme ainsi que les accords internationaux tels que l’accord de Paris de 2015 sur le climat ou la Convention de Genève de 1931 sur le droit de timbre en matière de chèque (pourquoi pas, après tout !) ;
– la défense des « intérêts économiques, industriels et scientifiques de la France », qui permet l’espionnage industriel et scientifique ;
– la prévention des « violences collectives de nature à porter gravement atteinte à la paix publique », couvrant notamment la lutte contre les manifestations, même non violentes, n’ayant pas été déclarées ou ayant fait l’objet d’une déclaration incomplète ;
– « la prévention de la criminalité et de la délinquance organisée », notamment la lutte contre l’acquisition illicite de stupéfiants, même par un individu seul qui n’agit pas en groupe.

Surveiller la population pour ces finalités est contraire au droit de l’Union européenne. D’abord, le contour de certaines de ces finalités peut être arbitrairement défini par le gouvernement (politique étrangère, engagements internationaux, intérêts économiques…), sans limite prévue dans la loi. De plus, le gouvernement se permet de surveiller la population pour des infractions mineures (par exemple des manifestations non déclarées ou achat à titre individuel de stupéfiants) alors que le droit de l’Union prévoit que, en matière de lutte contre les infractions, la surveillance n’est autorisée que pour lutter contre des crimes graves.

2. Des données excessives

Le droit de l’Union pose comme principe que seules les personnes présentant un lien avec une menace peuvent être surveillées. De plus, il interdit radicalement toute forme de surveillance de masse.

En droit français, comme vu plus haut, la règle est de surveiller n’importe qui pouvant fournir des informations utiles, peu importe que les personnes soient ou non en lien avec une menace. Surtout, la loi renseignement a autorisé deux mesures de surveillance de masse.

Premièrement, les services peuvent intercepter l’ensemble des « communications internationales » – il s’agit de communications dont l’émetteur et/ou le récepteur est situé en dehors du territoire français. Une fois les communications interceptées, toutes les données de connexion y afférentes (qui parle à qui, quand, etc.) peuvent être analysées au moyen de « traitements automatisés », et cela de façon « non individualisée » (donc en masse). De plus, le Premier ministre peut aussi autoriser l’analyse du contenu des communications internationales pour les « zones géographiques » ou les « groupes de personnes » qu’il désigne. Rien ne l’empêche de désigner un ou plusieurs pays comme « zones géographiques » ciblées.

Secondement, les « boites noires » peuvent intercepter et analyser des données (dont certaines sont particulièrement intimes – telle que l’adresse des sites visités) sur l’ensemble des populations utilisant les réseaux de télécommunication où elles sont déployées. Par exemple, rien n’empêche techniquement que le gouvernement pose des boites noires en divers points du réseau d’une grande ville pour analyser automatiquement qui parle avec qui, quand, qui consulte quoi, etc. Le but de ces dispositifs est de « détecter des connexions susceptibles de révéler une menace terroriste » : il s’agit donc d’une surveillance « exploratoire » qui, par nature, vise des personnes sur qui ne pèse aucun soupçon (le but étant de révéler des soupçons). Ces dispositifs sont couramment appelés « boites noires » car ce sont des machines fonctionnant de façon autonome, selon des critères et des méthodes informatiques gardées secrètes.

3. Des renseignements en libre-service

Le droit de l’Union européenne n’encadre pas que la collecte des données. Il exige aussi que l’utilisation ultérieure des données ne puisse être réalisée que pour des finalités légitimes, de façon proportionnée et selon une procédure adaptée.

En France, la loi renseignement ne s’est pas encombrée de telles règles, qui sont donc entièrement absentes, tout simplement ! Une fois que les renseignements ont été mis en fiches et en dossiers, plus aucune règle n’encadre leur utilisation. Ces informations peuvent même être transmises librement à des puissances étrangères qui, elles même, peuvent fournir à la France d’autres renseignements, sans aucune limite ou procédure prévues par la loi.

4. Un contrôle indépendant sans effet

La loi renseignement a prétendu confier à la Commission nationale de contrôle des techniques de renseignement (CNCTR) le soin de veiller à ce que les services de renseignement respectent la loi – ce que le droit de l’Union exige.

Pourtant, dès qu’on regarde un peu en détail, la CNCTR manque de tout pouvoir pour nous protéger effectivement contre des abus politiques. Elle n’est jamais que « avertie » pour pouvoir émettre des « avis non contraignants » sur les mesures prises contre la population. Si ses avis ne sont pas suivis – le gouvernement étant parfaitement libre de passer outre -, la CNCTR peut seulement saisir le Conseil d’État qui, plusieurs semaines ou plusieurs mois après qu’une personne ait été surveillée illégalement, pourra ordonner que la surveillance prenne fin – trop tard, donc.

De plus, symbole parfait de son manque de pouvoir, la CNCTR n’est pas autorisée à accéder aux renseignements fournis à la France par des puissances étrangères. Le gouvernement peut ainsi organiser tous les échanges imaginables avec ses alliés (du type « je surveille ton pays et tu surveilles le mien ») pour échapper à tout semblant de contrôle indépendant.

5. Une défense impossible

Le droit de l’Union prévoit que, pour pouvoir se défendre en justice contre une surveillance illégale, les personnes soient au moins prévenues des mesures qu’elles ont subies lorsque cela ne peut plus nuire aux enquêtes. Encore une fois, le droit français nous refuse parfaitement ce droit, pourtant indispensable au droit fondamental de contester en justice les actes du gouvernement pris contre nous.

Ce droit fondamental exige aussi, toujours d’après le droit de l’Union, que nous disposions des informations nécessaires pour contester la légalité d’une surveillance (pour quel motif avons-nous été surveillé, quand, pendant combien de temps, comment ?). Là, le gouvernement français a les pleins pouvoir pour classer les informations de son choix comme étant « secret-défense », nous empêcher d’y accéder pour nous défendre, et ce sans que le juge ne puisse les déclassifier – ce qui viole encore le droit de l’Union.

Enfin, et c’est sans doute la pire des atteintes à nos droits, nous ne disposons tout simplement d’aucune possibilité de contester en justice la légalité des mesures de surveillance internationale (la surveillance de masse des communications émises vers ou reçues depuis l’étranger).

Bref, sans pouvoir prédire lesquels de nos arguments seront retenus par la Cour de justice de l’Union européenne, il nous semblerait aberrant que des parties importantes de la loi renseignement ne soient pas déclarées comme violant le droit européen.

Contre la conservation généralisée des données de connexion

Notre second dossier (moins dense juridiquement), a été déposé par FFDN et igwan.net, représentant chacun des fournisseurs d’accès à Internet soumis à l’obligation de conserver pendant un an les données de connexion de l’ensemble de la population. Cette obligation s’impose aussi aux opérateurs téléphoniques et aux hébergeurs Web (pour savoir qui a publié quel contenu en ligne, à quelle heure, etc.).

L’argumentation juridique est ici plus simple : le régime français de conservation est frontalement contraire aux exigences européennes qui, tel que précisé par la Cour de justice depuis 2014, interdisent clairement aux États membre d’imposer aux acteurs du numérique de conserver des données de connexion sur l’ensemble de leurs utilisateurs, quelque soit la durée de cette conservation. D’autres États (Suède et Royaume-Uni) ont déjà été explicitement dénoncés par la Cour de justice comme ne respectant par le droit de l’Union sur ce point, en 2016. Mais la France et le Conseil d’État ont cru utile de reposer la question…

Leur argument principal est que la menace terroriste (qui justifierait la conservation généralisée des données de connexion) aurait augmenté depuis 2016. Sauf que, entre la période de 2015-2016 et celle de 2017-2018, le nombre de victimes du terrorisme en Europe a presque été divisé par quatre. De plus, les usages du numérique, ainsi que la loi, ont largement évolués, rendant encore moins utile l’obligation de conserver des données pendant un an.

Si la France veux amadouer la Cour de justice de l’UE afin que ses pouvoirs de surveillance soient épargnés, elle aurait mieux fait de commencer par réformer son droit qui, depuis quatre ans, viole frontalement celui de l’Union européenne.

Ce combat est celui qu’a initié la formation des Exégètes amateurs. Il a aussi marqué le début des actions de La Quadrature du Net devant les juges. Nous espérons connaître le même succès que celui obtenu par nos amis Digital Rights Ireland et Maximilian Schrems qui ont respectivement obtenu en 2014 et 2015 des décisions fondamentales de la Cour de justice de l’Union européenne en faveur de nos libertés et contre la surveillance de masse.

]]>
[EN DIRECT] ! Soirée littéraire Sciences Fiction, Parishttps://www.laquadrature.net/?p=12106http://streisand.me.thican.net/laquadrature.net/index.php?20181212_190044__EN_DIRECT_____Soiree_litteraire_Sciences_Fiction__ParisWed, 12 Dec 2018 18:00:44 +0000Suivez en direct La soirée littéraire sur la Sciences Fiction, à la maison du libre et des communs, rue St Denis, Paris



Si vous n’avez pas de navigateur compatible HTML5, vous pouvez aussi voir directement le flux live en faisant pointer votre player habituel (tel VLC ou MPlayer) à l’adresse suivante :

https://radio.octopuce.fr/ts1/stream.m3u8

]]>
Le Parlement européen appelle à la censure automatisée et privatisée du Web à des fins sécuritaireshttps://www.laquadrature.net/?p=12721http://streisand.me.thican.net/laquadrature.net/index.php?20181212_170418_Le_Parlement_europeen_appelle_a_la_censure_automatisee_et_privatisee_du_Web_a_des_fins_securitairesWed, 12 Dec 2018 16:04:18 +0000Comme nous le redoutions lundi dernier, le Parlement européen vient d’adopter un rapport proposant, au prétexte de la lutte contre le terrorisme, de déléguer la censure du Web européen à Facebook et Google.

Pour rappel, ce rapport indique, parmi de nombreuses recommandations, qu’il serait nécessaire « de parvenir à la détection automatique et à la suppression systématique, rapide, permanente et complète des contenus terroristes en ligne » et d’empêcher « le rechargement de contenus déjà supprimés ». Le texte précise à ce titre qu’il se « félicite de la proposition législative de la Commission visant à empêcher la diffusion de contenus terroristes en ligne », « invite les co-législateurs à engager rapidement les travaux sur cette proposition » et « invite les États membres à mettre en place des mesures nationales si l’adoption de la législation en la matière est retardée » (§ 47).

Trois amendements auraient permis au Parlement européen de se démarquer de la volonté d’Emmanuel Macron et de la Commission européenne de soumettre l’ensemble du Web aux outils de censure automatisée développés par Google et Facebook, tel que nous le dénoncions avec 58 autres organisations.

Un premier amendement proposait que la censure des « contenus terroristes » ne se fasse pas de façon « automatique » ; cet amendement a été rejeté à 311 voix contre 269 (77 abstentions). Un deuxième amendement proposait que cette censure n’implique pas une activité de « détection » active des contenus, ni une suppression « systématique et rapide » ; il a été rejeté à 533 voix contre 119 (4 abstentions). Un troisième amendement proposait de ne pas imposer aux plateformes une obligation de « supprimer complètement » les contenus ; il a été rejeté à 534 voix contre 105 (14 abstentions).

La majorité des députés européens rejoint donc la volonté exprimée la semaine dernière par les gouvernements européens d’imposer une censure généralisée, privée et automatisée de l’Internet (lire notre article).

Le rapport adopté aujourd’hui ne prévoit que de simples « recommandations » : ce n’est qu’une sorte de déclaration de principe sans effet juridique. Toutefois, il laisse craindre que le Parlement ait déjà abandonné toute ambition de défendre nos libertés face aux arguments sécuritaires qui ont motivé la Commission européenne à proposer son règlement de censure anti-terroriste, que le Parlement européen examinera dans les semaines à venir.

Le vote d’aujourd’hui est d’autant plus inquiétant qu’il intervient à la suite d’une fusillade survenue hier à Strasbourg, dans la ville où siégeait le Parlement. Plutôt que de reporter ce vote1Nathalie Griesbeck (ALDE), présidente de la commission TERR, a expliqué avoir envisagé de reporter le vote suite à l’attaque d’hier mais avoir finalement considéré que cette occasion justifiait l’adoption du texte., les députés ont préféré adopter immédiatement le texte. Certains ont même évoqué l’attaque d’hier pour justifier leur volonté sécuritaire2Parmi les députés ayant fait un lien entre l’attaque d’hier à Strasbourg et le rapport adopté aujourd’hui, nous pouvons citer : Monika Hohlmeier (EPP), co-rapporteure sur le texte, qui a déclaré après le vote : « Yesterday’s attack on the Christmas market in Strasbourg was an attack on European citizens and the common EU values and principles in the worst possible way. The incident has shown us again that we need to leave empty slogans and unrealistic measures behind and concentrate our activities on what really makes Europe safe. […] This means […] more prevention measures against radicalisation […] ». Frédérique Ries (ALDE), sur Twitter : « C’est un Parlement bouleversé par l’attaque du marché de Noël #strasbourg d’hier soir qui adopte les recommendations de la commission spéciale sur le #terrorisme. Du choc aux votes, l’UE doit se protéger contre cette haine si destructrice. », « Renforcement d’Europol, des mesures concrètes pour la lutte contre la #radicalisation et l’apologie du terrorisme, un système européen de surveillance de financement du #terrorisme figurent parmi les recommendations phares de ce rapport ». De son côté, Julian King, commissaire européen à la Sécurité de l’Union, commentait sur Twitter : « Solidarity this morning with all those affected by the odious attack in #Strasbourg. The work we’re doing to support the authorities to tackle radicalisation, help victims and reinforce security is as relevant as ever. », invoquant un « risque de terrorisme islamiste » alors que l’auteur des violences n’a pas encore été arrêté et que l’enquête en est à peine à ses débuts.

Comme d’habitude, malheureusement, le temps de l’apaisement et de la réflexion, et même du deuil, a été écarté pour avancer à marche forcée sur les voies sécuritaires et destructrices que nos dirigeants poursuivent depuis des années en prétendant défendre la démocratie contre le totalitarisme. Tout en faisant l’inverse.

Désormais, les débats au Parlement européen concerneront directement le règlement de censure antiterroriste. Vous pouvez lire notre dernière analyse plus complète sur ce texte, qui sera notre dossier principal dans les mois à venir.

References   [ + ]

1. Nathalie Griesbeck (ALDE), présidente de la commission TERR, a expliqué avoir envisagé de reporter le vote suite à l’attaque d’hier mais avoir finalement considéré que cette occasion justifiait l’adoption du texte.
2. Parmi les députés ayant fait un lien entre l’attaque d’hier à Strasbourg et le rapport adopté aujourd’hui, nous pouvons citer : Monika Hohlmeier (EPP), co-rapporteure sur le texte, qui a déclaré après le vote : « Yesterday’s attack on the Christmas market in Strasbourg was an attack on European citizens and the common EU values and principles in the worst possible way. The incident has shown us again that we need to leave empty slogans and unrealistic measures behind and concentrate our activities on what really makes Europe safe. […] This means […] more prevention measures against radicalisation […] ». Frédérique Ries (ALDE), sur Twitter : « C’est un Parlement bouleversé par l’attaque du marché de Noël #strasbourg d’hier soir qui adopte les recommendations de la commission spéciale sur le #terrorisme. Du choc aux votes, l’UE doit se protéger contre cette haine si destructrice. », « Renforcement d’Europol, des mesures concrètes pour la lutte contre la #radicalisation et l’apologie du terrorisme, un système européen de surveillance de financement du #terrorisme figurent parmi les recommendations phares de ce rapport ». De son côté, Julian King, commissaire européen à la Sécurité de l’Union, commentait sur Twitter : « Solidarity this morning with all those affected by the odious attack in #Strasbourg. The work we’re doing to support the authorities to tackle radicalisation, help victims and reinforce security is as relevant as ever. »
]]>
Le Parlement européen s’opposera-t-il à la censure sécuritaire ?https://www.laquadrature.net/?p=12709http://streisand.me.thican.net/laquadrature.net/index.php?20181210_152601_Le_Parlement_europeen_s___opposera-t-il_a_la_censure_securitaire___Mon, 10 Dec 2018 14:26:01 +0000Le 12 décembre, le Parlement européen votera le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ». S’il est adopté, ce texte, sans avoir l’effet d’une loi, recommandera l’adoption de mesures prévues dans le règlement de censure antiterroriste : la sous-traitance de la censure aux géants de l’Internet et le contournement des juges nationaux (lire notre dernière analyse).

La Quadrature du Net envoie aux députés du Parlement européen le message suivant, leur demandant de voter le rejet de ce rapport :

Chers députés du Parlement européen,

Le mercredi 12 décembre prochain, vous voterez le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ».

Ces recommandations prônent des mesures sécuritaires absurdes qui porteraient atteinte aux libertés fondamentales. De manière plus précise, ce rapport prône l’adoption des mêmes mesures que celles prévues dans le règlement de censure antiterroriste, qui sera débattu dans quelques semaines au Parlement : la remise en cause du chiffrement de bout en bout, la délégation de la censure aux géants de l’Internet et le pouvoir donné aux polices européennes de contourner les juges nationaux (points BD, BH, 47, 113 et 125). Pour l’ensemble de ces raisons, nous vous demandons de voter le rejet de ce rapport.

Utilisant le prétexte de la lutte contre la radicalisation en ligne, ces mesures suggérées par le rapport et inscrites dans le règlement de censure antiterroriste imposeront de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.

Alors que la Commission européenne et les gouvernements européens ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.

Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.

Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.

Quant aux acteurs associatifs et collaboratifs à but non lucratif, ils n’auront d’autres choix que de cesser leurs activités.

Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie (lire notre dernière analyse).

Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information.

Pour l’ensemble de ces raisons, La Quadrature du Net, avec 58 autres acteurs de cet écosystème et défenseurs des libertés fondamentales, avons déjà demandé à Emmanuel Macron de renoncer à son projet de règlement de censure antiterroriste.

Nous vous demandons donc de rejeter ce rapport pour mettre dès maintenant un frein à cette volonté absurde de déléguer la censure de l’Internet aux géants du Web et de permettre à toutes les polices de l’Union européenne de contourner les juges nationaux.

Les parlementaires qui refuseront de protéger les libertés fondamentales et l’écosystème numérique européen seront affichés publiquement.

]]> Not Safe For (sex)Workhttps://www.laquadrature.net/?p=12592http://streisand.me.thican.net/laquadrature.net/index.php?20181210_133207_Not_Safe_For__sex_WorkMon, 10 Dec 2018 12:32:07 +0000Tribune de okhin

Les dirigeants de Tumblr ont publié le 3 Décembre 2018 un communiqué de presse annonçant une mise à jour de leurs conditions générales d’utilisation, signifiant qu’ils retirent tout contenu classifié comme adulte. Ils justifient leur décision par la décision unilatérale et sans appel d’Apple de supprimer l’application de leur AppStore. Décision motivée par le fait que Tumblr n’ait pas réussi à détecter des images de pédopornographie, en dépit des filtres automatisés déjà existant.

J’ai voulu rédiger quelque chose de construit, essayant de donner le contexte dans lequel cette suppression de contenu s’opère, hors de tout cadre légal (autre que celui des conditions générales d’utilisation d’Apple). J’ai voulu essayer de donner des arguments, de faire les liens entre sexualité, pornographie et identité de genre, mais au final ce n’est pas ce qui est important. Et énormément de monde — y compris sur Tumblr — a déjà écrit à ce sujet, et bien mieux que je ne pourrais le faire ici. Je vous invite d’ailleurs à aller lire ce que les premières concernées en disent comme, par exemple, cette Lettre d’amour à Tumblr écrite par Vex ou ce coup de gueule par Romy Alizée.

Voilà Tumblr qui supprime le contenu qui a fait son intérêt, sa spécificité, détruisant le travail fait par de nombreuses personnes minorisées, que ce soit par racisme, homophobie, misogynie, transphobie et/ou un mélange de tout cela. Ce travail permet à ces communautés d’exister, de vivre, de s’éduquer et d’échanger dans un cadre dans lequel elles ne sont pas mises en danger (notamment grâce au pseudonymat et au multi compte). Il permet aussi à de nombreuses personnes de travailler, qu’il s’agisse d’acteurs ou d’actrices cherchant à faire ce qu’elles ont envie hors des gros studios de porno hétéronormés, d’escort ou d’autres formes de travail sexuel. Il permet enfin de parler de sexualité, de permettre aux personnes en questionnement de se poser ces questions, d’essayer de comprendre comment se positionner dans ce monde, d’explorer leur corps, leur sexualité ou de poser des questions pratiques. Ou juste de se faire des amies qui partagent un bout de leurs galères quotidiennes… face à tout ce que Tumblr s’apprête à détruire, je me suis naïvement dit que cela ferait réagir, que le débat irait plus loin que la seule question du porno.

Mais la plupart des sites d’informations, quand ils en parlent, ne parlent pas de sexualité. Ou de travail sexuel. Le porno y est indiqué comme étant scanné pour lutter contre la pédopornographie. Reprenant donc les arguments de Christine Albanel en 2005, lors des débats HADOPI, ou ceux des associations familiales catholiques voulant défendre et protéger les enfants du grand méchant pornographe, celui-ci étant de toutes façons lié au puissant lobby LGBT d’après elles.
Pas de remise en contexte. Pas de liens effectués avec des actions similaires menées par Alphabet, Patreon, Kickstarter ou la plupart des plateformes de financement participatif qui, sous couvert de lutter contre la pornographie, empêchent des actrices de financer des soins dont elles ont besoin et qui n’ont aucun rapport avec leur travail, les mettant ainsi délibérément en danger.

Et quand, avec La Quadrature, on essaye de dire que l’on ne peut pas traiter les plateformes géantes telles que Tumblr de la même manière que les initiatives libres et distribuées, parce qu’elles effectuent de fait une sélection éditoriale et suppriment de l’espace public toute forme d’expression ne correspondant pas à leurs cibles commerciales ou à leur vision puritaine du monde — les deux étant apparemment compatibles, nous ne sommes pas à un paradoxe près — on nous dit que l’on veut abandonner les utilisateur·rice·s de ces plateformes.

Pourtant ce sont ces plateformes qui, non seulement invisibilisent et suppriment de l’espace public ces utilisateur·rice·s que nous « abandonnons », utilisant des systèmes arbitraires et ayant de nombreux faux positifs, tout en empêchant tout recours effectif contre la suppression de contenus, ou en coupant une source de revenus pour certaines activistes queer, féministe ou afroféministes. Ce sont ces plateformes qui nous imposent leur ordre moral hétérosexuel, patriarcal, blanc.
À en lire la presse, c’est juste un problème de filtrage d’Internet.

Et j’en ai marre. Je suis énervé. Je suis énervé de devoir justifier que j’existe, que mes ami·e·s existent, que nous avons le droit d’exister dans l’espace public. Je suis fatigué de devoir encore et toujours expliquer l’effet de réseau rendant socialement impossible la migration vers d’autres plateformes et donc l’importance de pouvoir socialiser sur ces plateformes pour des personnes souvent isolé·e·s dans un milieu hostile. Je suis fatigué que l’obligation de s’identifier, avec une seule identité, correspondant à votre état civil, ne soit pas débattue et que l’on se contente de vouloir distribuer. Je suis fatigué de lire « t’as qu’à aller sur mastodon » ou que c’est juste un effet de bord pour lutter contre la pédophilie, assimilant éducation sexuelle et pédophilie.

Après tout si, pour protéger les enfants, il est acceptable de taper un peu large et de supprimer toute forme de contenu parlant de sexualité, il devrait être acceptable de supprimer tout le contenu d’incitation à la haine raciale, au génocide, à l’appel aux meurtres de femmes et de queers, quitte à ce que tout contenu politique disparaisse ? Au delà du fait qu’il reste à prouver que la suppression de contenu est effectivement une méthode efficace de lutte contre la pédocriminalité organisée, ou du fait qu’on ne parle que des enfants victimes de ces crimes, et non de n’importe quelle personne victimes de violence sexuelle, s’il est acceptable de supprimer automatiquement tout contenu adulte pour lutter contre la pédophilie, alors il est acceptable de supprimer tout contenu politique pour lutter contre la haine de l’autre, non ?

C’est d’ailleurs ce qui se produit sur de nombreuses plateformes. Les comptes de personnes minorisées et militantes sont régulièrement fermés alors qu’elles sont victimes de harcèlement, les auteurs de ces harcèlement profitant d’une impunité de fait fournie par ces plateformes. Ces plateformes qui s’excusent régulièrement, promis, la prochaine fois, elles feront tout pour que leur communauté puisse s’exprimer sereinement. Quitte à récupérer sans aucune gène les luttes de ces personnes afin de se donner une image cool, respectable. Alphabet qui empêche les queers de monétiser leur contenu mais qui, dans le même temps, lors des marches des fiertés, affiche son soutien à la communauté LGBT en est l’exemple parfait.

Suppressions justifiées, une fois encore, non pas par des décisions de justice, mais par un principe de précaution. Suppressions effectuées en amont, par des filtres à l’upload, donnant à ces plateformes un rôle éditorial. Suppressions effectuées par des machines, entraînées à distinguer les tétons d’apparence féminine des autres. Suppressions qui, inévitablement, amènent à la disparition du corps des femmes de l’espace public. Suppressions qui, à cause des biais sexistes et racistes, se fera en utilisant une référence définissant ce qu’est une femme, ce qui est une représentation acceptable d’une femme en ligne, effaçant encore et toujours les femmes non blanches, ou ne correspondant pas au canon établi par ces filtres pseudo-intelligents.

On entend beaucoup de gens dire qu’il est inacceptable de supprimer du contenu incitant à la haine, du contenu posté par des personnes se définissant elles-mêmes comme des nazis. Je suis d’accord, parce que supprimer ce contenu est une tâche complexe, nécessitant entre autre des mises en contexte rigoureuses de propos tenus. C’est un travail nécessitant aussi une part d’archivage, et encore une fois, il n’est pas prouvé que la suppression du contenu seul ait un effet quelconque sur la diffusion des idées.

Les néo nazis, les réacs, les pro-BREXIT ou la Manif Pour Tous ont le droit aussi d’exister en ligne. Oui. Absolument. Notamment parce que cela facilite le travail de la police et de la justice. Mais ce que font les GAFAMs et les principaux sites de médias en ligne, n’est pas assimilable au simple fait d’exister. Ce que font les GAFAMs, c’est choisir quels contenus sont mis en avant, permettant même à chaque personne de les sponsoriser pour les diffuser vers un plus grand nombre de personnes. Ce que font les GAFAMs, ce n’est pas vivre et laisser vivre. C’est s’assurer que certains contenus soient vus par le plus grand nombre. C’est s’assurer que certains contenus ne soient jamais vus par personne. Ces entreprises, qui récupèrent petit à petit le contrôle sur l’ensemble des infrastructures, des contenus, des standards de communication, qui n’ont aucune légitimité pour décider du contenu qui a le droit d’exister, n’ont pas un simple rôle passif d’hébergement, mais un rôle actif d’éditorialisation du contenu.

Ces décisions de supprimer tel ou tel contenu, de classifier, d’empêcher certaines personnes de financer leurs projets ou de gagner un peu mieux leur vie, ces décisions sont politiques. Elles définissent le discours acceptable, elles définissent la seule culture devant exister, leur positions hégémonique empêchant toute existence hors de leur sphère d’influence. Ces décisions politiques doivent être considérées comme telles, et ces entreprises doivent etre responsables de leurs décisions, de même qu’un journal, et non ses auteurs individuels, est responsable du contenu qu’il publie.

Donc je suis énervé. Pas tellement contre Tumblr ou Apple au final, ils ne sont que le reflet de notre société. J’entends des « Apple protège ma vie privée ». Mais uniquement si vous ne parlez pas de cul, de sexualité, que vous ne travaillez pas autour de le sexualité, que vous n’êtes pas queer. Parce qu’à ce moment-là, vous n’existez plus.

Je vais donc le dire, encore une fois : le problème ce n’est pas le filtrage automatisé. Le problème ce n’est pas qu’aucun juge ne prenne plus de décisions, permettant au moins de contextualiser le contenu. Le problème c’est de considérer l’invisibilisation des minorités sexuelles, des femmes, des noirs, des musulmans, etc … du simple point de vue du filtrage et de la responsabilité des plateformes sans remettre tout cela dans un contexte politique.

Du coup, que faire ? est-ce qu’on a des choses à proposer ? En l’état des choses, pas vraiment. La solution de la distribution est un premier pas, mais ne résout pas le problème sous-jacent de la gestion d’un espace public commun. Au lieu de déléguer le pouvoir à une entreprise multinationale, on le délègue à une communauté de personnes. Effectivement, n’importe qui peut monter un service ActivityPub, mais tout le monde ne le fait pas. Et est-ce que vous pouvez vraiment faire confiance à des « amis » sur le fait qu’ils résisteront à toute forme de pression policière ? La réponse est non, même si ils sont les mieux intentionnés. Au mieux, ils suspendront le service, vous forçant à trouver une autre plateforme et recommençant encore une fois le même cycle.

D’autant qu’avoir un nom de domaine identifié, public, connoté, associé à une activité peut poser plus de problèmes qu’aller sur facebook et peut, dans malheureusement trop d’endroits, avoir des conséquences très concrètes sur notre sécurité. Et la plupart des alternatives nécessitent en plus une identification forte. Prenons le cas de Signal par exemple. Si je ne veux pas que quelqu’un puisse me joindre au-delà d’une conversation, je suis obligé de changer de numéro de téléphone. Et donc de devoir prévenir tous mes contacts avec qui je veux maintenir un contact que j’ai changé de numéro de téléphone.

Il n’y a pas, à ce jour, de plateformes logicielles et grand public permettant à des enfants, adolescents, jeunes adultes et adultes de se questionner sur leur orientation sexuelle sans être immédiatement détectés soit par leur FAI, soit par l’hébergeur de l’application — et donc Amazon, étant donné qu’une part de plus en plus grande d’applications et de systèmes de communications est hébergée chez eux. Il n’existe aucune plateforme ne nécessitant pas de compte ou d’informations pouvant identifier l’utilisateur·ice, aucune plateforme permettant d’effectuer des transactions bancaires entre deux personnes sans intermédiaire technique ou sans révéler l’identité des deux parties, il n’existe pas non plus d’applications sur lesquelles on peut envoyer des photos de nus et garantir que l’image ne soit pas facilement republiable en ligne.

Il y a du travail dans cette direction, mais on en est au stade de la recherche, encore loin d’avoir quelque chose de fonctionnel. Des applications telles que Briar, ou Cwtch, vont dans la bonne direction à mon sens, mais j’aimerais que les personnes qui développent les futures infrastructures de communications qui remplaceront les GAFAMs quand on aura fini par les mettre à terre, se posent la question de pouvoir répondre aux problèmes auxquels nous, membres de minorités, faisont face quotidiennement pour avoir simplement eu l’outrecuidance d’exister.

]]>
Une loi européenne pour censurer les mouvements sociaux sur Internet ?https://www.laquadrature.net/?p=12674http://streisand.me.thican.net/laquadrature.net/index.php?20181207_143832_Une_loi_europeenne_pour_censurer_les_mouvements_sociaux_sur_Internet___Fri, 07 Dec 2018 13:38:32 +0000Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook1Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique., livrons-nous à un peu de politique-fiction : comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ?

C’est un texte dont personne ne parle ou presque, et il est pourtant fondamental pour l’avenir des libertés publiques à l’échelle de l’Europe entière. Présenté au mois de septembre, il s’agit du règlement européen dédié à « la prévention de la diffusion de contenus à caractère terroriste en ligne ».

L’article 4 du règlement permet aux autorités publiques de demander directement à n’importe quel hébergeur le retrait d’un contenu relevant de l’apologie du terrorisme. En pratique, cela entérine la situation qui prévaut dans tous les pays réprimant l’apologie ou la provocation au terrorisme. Ainsi en France, depuis 2015, le ministère de l’Intérieur est compétent pour censurer la provocation ou l’apologie du terrorisme sur Internet (si l’hébergeur n’empêche pas l’accès au contenu visé sous 24 heures, alors le blocage de l’ensemble du site peut être mis en place par les fournisseurs d’accès à Internet français). Le tout sans aucun contrôle judiciaire préalable, dans le cadre d’une procédure secrète. Ainsi, en 2015, la France est devenue (devant l’Inde et la Turquie) le pays qui a obtenu le plus grand nombre de suppressions de pages Facebook (38 000 suppressions en un an, pendant que l’Allemagne ou Israël n’en obtenaient que 500).

Là où le règlement européen « innove » radicalement, c’est qu’il impose qu’un tel retrait par les hébergeurs intervienne en un délai record de une heure, sous peine de sanctions financières. Il prévoit aussi de passer par une voie encore plus discrète pour censurer ces contenus : les « mesures proactives », ces outils de censure automatique déjà développés par les grandes plateformes comme Facebook ou YouTube et qui pourront être paramétrés en concertation avec les autorités (article 6 du règlement). Comme nous l’avons déjà expliqué (lire notre analyse plus complète), le futur règlement européen prévoit de généraliser ces outils à l’ensemble des acteurs du Web (non seulement Facebook et YouTube mais aussi OVH, Gandi, NextCloud, Mastodon, etc.), voire même aux outils de messagerie (WhatsApp, Signal, Télégram, Protonmail, etc.)2Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
. Concrètement, tous les acteurs du numérique devront développer des « mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ».

Mais du coup, c’est quoi, un « contenu à caractère terroriste » ?

L’article 2 du règlement explique que les contenus auxquels le texte s’appliquera sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.

La liste est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.

Bref, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.

Maintenant que le cadre est posé, commençons la politique-fiction. Parmi les contenus susceptibles d’être publiés sur Internet par des gilets jaunes, quels sont ceux qui pourraient être considérés comme relevant du « terrorisme » (selon les très larges définitions européennes) par Facebook et Google (soumis à la menace de sanctions en cas d’échec) ou par la police ? Par exemple :

  • un appel à manifester sur les Champs-Élysées, alors que le rassemblement précédent a conduit à d’importantes détériorations matérielles et enfonce le gouvernement dans une crise politique ;
  • une vidéo qui, prise depuis le balcon d’en face, filmerait la destruction d’une banque ou d’un fast-food, accompagnée d’un commentaire audio du spectateur surpris, du type « ahahah, c’est bien fait pour eux » ;
  • une vidéo d’altercations agressives entre manifestants et CRS au prétexte qu’elle serait diffusée par une personne se réjouissant que les autorités publiques soient ainsi remises en cause ;
  • un texte menaçant le gouvernement de blocage généralisé de l’économie ou de grève générale ;
  • une invective orale du type « si Macron ne démissionne pas, on va venir mettre le feu à l’Élysée » ;
  • un communiqué justifiant le fait d’avoir détruit un véhicule de police ;
  • etc.

En appliquant le droit à la lettre, on pourrait se demander lequel de ces contenus ne devrait pas être censuré automatiquement par les plateformes du Web une fois que le règlement anti-terroriste sera entré en application. De même, en théorie, ces contenus pourraient être censurés sur simple demande de la police.

Même si, pour l’heure, il s’agit encore de politique-fiction, le droit actuel en France va déjà en ce sens, comme l’illustre le type de discours qui ont pu passer pour de l’« apologie du terrorisme » ces dernières années. Par exemple, des peines de prison ferme pour des provocations lancées par certain·es au sujet des attentats de janvier 2015, ou l’injonction faite par le gouvernement fin 2016 à deux sites participatifs pour qu’ils censurent un article revendiquant l’incendie d’un hangar de gendarmerie commis en solidarité avec des personnes poursuivies en justice dans le cadre des manifestations contre la loi travail.

Censure privée, censure totale

Une censure de tels contenus pourrait donc intervenir de deux manières. C’est en quelque sorte « ceinture et bretelles » : quand les « mesures proactives » prises par un réseau social comme Facebook n’auront pas suffi à bloquer les contenus visés, la police pourra prendre le relais, pouvant exiger des services défaillants la suppression d’un contenu dans un délai d’une heure. Tout cela sans l’autorisation préalable d’un juge. Les acteurs concernés s’exposeront à des sanctions s’ils échouent trop souvent à censurer dans le délai d’une heure (article 18).

Bref, pour éviter d’avoir à répondre toute la journée aux demandes des polices des 28 États membres de l’Union européenne, et de subir des sanctions en cas d’échecs à y répondre dans l’heure, les services Web auront franchement intérêt à détecter à l’avance et le plus strictement possible tout ce qui ressemblera de près ou de loin à un « contenu à caractère terroriste », défini de façon extrêmement large.

Or, il est clair que les outils mis au point par Facebook et Google s’imposeront à l’ensemble du Web, même en dehors de leur plateforme, où certains pourraient chercher refuge. De ce que nous ont clairement expliqué des gens du gouvernement (revoir notre compte-rendu) et de ce qui apparaît dès 2017 dans les publications de la Commission européenne3Dès juin 2017, la Commission européenne
se félicite publiquement
d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.
, l’objectif de ce texte est au final d’imposer les filtres automatiques mis au point par les grosses plateformes à tous les acteurs du Web, petits ou grands, européens ou non. Ces derniers devront automatiquement respecter une large « liste noire » de contenus considérés comme illicites par les prétendues intelligences artificielles de Facebook et Google, qui décideront seuls et selon leurs propres critères s’il est autorisé ou non d’appeler à tel mouvement ou d’applaudir telle action contestataire.

Soyons clairs : notre analyse ne cherche pas à savoir quels propos devraient ou non être tenus en ligne, ni quelles revendications seraient ou non légitimes. Notre question est de savoir si nous acceptons de déléguer à la police et à une poignée d’entreprises privées hégémoniques, qui ne sont soumises à aucun contrôle démocratique, le rôle de juger nos actes et nos opinions, et de modeler le débat public en conséquence. Nous répondons résolument que non : seul un juge, indépendant des pouvoirs politiques et économiques, doit pouvoir censurer les propos qui, d’après des lois adoptées en bonne et due forme, seraient susceptibles de nuire de manière disproportionnée à autrui.

C’est tout l’inverse que propose Macron, principal promoteur du futur règlement européen : en cédant les pouvoirs de l’État aux géants du Web, il s’imagine pouvoir échapper à toute responsabilité politique en cas de censure abusive et massive du Web.

Ce règlement européen est une loi de censure que les gouvernements français et allemands souhaitent faire adopter d’ici aux prochaines élections européennes, en mai. Ils ont déjà réussi à faire accepter hier leur projet aux autres gouvernements européens, à une vitesse jamais vue au sein de l’Union européenne. Les eurodéputés et toutes celles et ceux qui entendent se présenter aux prochaines élections européennes doivent faire connaitre leur opposition à ce texte scélérat.

Nos autres articles sur le sujet :

References   [ + ]

1. Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique.
2. Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
3. Dès juin 2017, la Commission européenne
se félicite publiquement
d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.
]]>
[Libération] Lionel Maurel : « On doit pouvoir quitter Facebook sans perdre les liens qu’on y a créés »https://www.laquadrature.net/?p=12548http://streisand.me.thican.net/laquadrature.net/index.php?20181207_110000__Liberation__Lionel_Maurel________On_doit_pouvoir_quitter_Facebook_sans_perdre_les_liens_qu___on_y_a_crees____Fri, 07 Dec 2018 10:00:00 +0000Pour le juriste Lionel Maurel, l’approche individualiste de la protection des données personnelles ne permet pas d’appréhender la dimension sociale qu’exploitent les grandes plateformes du Net. Il appelle à la mise en place d’un droit à la migration collective.

En 1978, la loi informatique et libertés introduisait dans le droit français la notion de « donnée à caractère personnel ». Quarante ans plus tard, l’entrée en application, en mai dernier, du règlement général sur la protection des données (RGPD) a marqué un renforcement des droits des citoyens européens en la matière. Mais nos données dites « personnelles » le sont-elles vraiment, surtout à l’ère du numérique ubiquitaire, des réseaux sociaux, de la puissance d’une poignée de grandes plateformes centralisées qui structurent largement nos vies en ligne ? A tout le moins, il est grand temps de les envisager aussi comme des données « sociales » et de trouver les instruments pour les défendre en tant que telles, répond le juriste Lionel Maurel, membre de l’association de défense des libertés la Quadrature du Net et du comité de prospective de la Commission nationale de l’informatique et des libertés (Cnil). Il intervient ce vendredi à 20 heures [NDLRP, le vendredi 30/11/2018], à la Gaîté lyrique à Paris, lors d’une table ronde au festival Persona non data, dont Libération est partenaire. […]

https://www.liberation.fr/debats/2018/11/29/lionel-maurel-on-doit-pouvoir-quitter-facebook-sans-perdre-les-liens-qu-on-y-a-crees_1695042

]]>
Soutenons notre Internet contre la censure sécuritairehttps://www.laquadrature.net/?p=12648http://streisand.me.thican.net/laquadrature.net/index.php?20181206_163655_Soutenons_notre_Internet_contre_la_censure_securitaireThu, 06 Dec 2018 15:36:55 +0000Il y a une semaine, nous faisions un point sur les dons récoltés depuis le lancement de notre campagne de soutien.
Pour rappel, pour continuer notre activité l’an prochain, nous avons besoin de 320.000€.
Aujourd’hui nous avons atteint 41% de cette somme, ce qui signifie que nous avons encore besoin de vous. Il est essentiel que toutes celles et ceux qui nous suivent parlent de La Quadrature autour d’eux.

Nous avions placé cette campagne de dons sous le signe des constellations, pour évoquer notre Internet, celui qui est libre, partagé et décentralisé. Nous voulions être positifs et faire rêver. Ironiquement, c’est maintenant qu’un règlement de censure sécuritaire s’abat sur l’Europe et menace notre Internet. Macron et les dirigeants des États de l’Union européenne veulent un Internet bien cadré, facile à surveiller et comptent confier cet encadrement à Google et Facebook, qui ne se priveront pas de confirmer ainsi leur position de monopole.

Se battre pour notre Internet, c’est se battre contre ce règlement liberticide. Pour que La Quadrature continue son combat, faites un don sur laquadrature.net/donner.

]]>
Les gouvernements européens s’accordent pour confier la censure du Web à Google et Facebookhttps://www.laquadrature.net/?p=12625http://streisand.me.thican.net/laquadrature.net/index.php?20181206_124300_Les_gouvernements_europeens_s___accordent_pour_confier_la_censure_du_Web_a_Google_et_FacebookThu, 06 Dec 2018 11:43:00 +0000Nous n’aurons jamais vu un règlement européen être accepté aussi rapidement par les gouvernements européens (en moins de 3 mois !), et ce malgré les inquiétudes exprimées par divers États1Se sont notamment opposés à la version actuelle du texte la Finlande, la Slovaquie, la République Tchèque, la Pologne, le Danemark. Macron les a manifestement convaincu que, les élections européennes approchant, ils pourraient maintenir leur pouvoir en agitant l’inaltérable prétexte terroriste. En résulte une censure et une surveillance généralisée de l’Internet.

Le Conseil de l’Union européenne vient donc d’acter, à l’instant et sans le moindre débat sérieux, un projet de loi qui obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google2Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
, tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle jugera « terroriste », sans l’autorisation d’un juge.

Deux mesures aussi délirantes qu’inédites, qui conduiront à soumettre tout l’écosystème numérique européen à une poignée de géants que l’Union prétend cyniquement vouloir combattre (lire notre analyse), tout en risquant de remettre en cause la confidentialité de nos correspondances3Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée aujourd’hui par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
… Et tout ça alors que ni la Commission européenne ni les gouvernements n’ont jamais réussi à démontrer en quoi cette loi serait utile pour lutter contre le terrorisme4En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Le rapport conclut que « l’état actuel des preuves sur le lien entre Internet, les médias sociaux et la radicalisation violente est très limité et toujours pas conclusif » et qu’il n’y a « pas de preuves suffisantes pour conclure qu’il existe un lien de causalité entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour empêcher la radicalisation des jeunes sur les aspects Internet n’ont pas prouvé leur efficacité mais, d’autre part, peuvent clairement nuire aux libertés en ligne, particulièrement la liberté d’expression » (notre traduction de l’anglais)..

Le débat sur ce texte se poursuivra maintenant devant le Parlement européen. Celui-ci votera mercredi prochain, le 12 décembre, un premier « rapport sur la lutte anti-terroriste » qui, sans avoir l’effet d’une loi, promeut peu ou prou les mêmes mesures absurdes que celles prévues dans le « règlement de censure anti-terroriste », que le Parlement examinera dans les semaines suivantes.

Ce premier vote de mercredi sera l’occasion pour chaque député européen de révéler sa position face au projet totalitaire d’Emmanuel Macron, et ils devront en rendre compte alors que s’amorce la campagne électorale pour les élections européennes de 2019.

References   [ + ]

1. Se sont notamment opposés à la version actuelle du texte la Finlande, la Slovaquie, la République Tchèque, la Pologne, le Danemark
2. Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
3. Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée aujourd’hui par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
4. En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Le rapport conclut que « l’état actuel des preuves sur le lien entre Internet, les médias sociaux et la radicalisation violente est très limité et toujours pas conclusif » et qu’il n’y a « pas de preuves suffisantes pour conclure qu’il existe un lien de causalité entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour empêcher la radicalisation des jeunes sur les aspects Internet n’ont pas prouvé leur efficacité mais, d’autre part, peuvent clairement nuire aux libertés en ligne, particulièrement la liberté d’expression » (notre traduction de l’anglais).
]]>
[Numerama] Géolocalisation : 7 associations se dressent contre Google et ses « pratiques déloyales »https://www.laquadrature.net/?p=12549http://streisand.me.thican.net/laquadrature.net/index.php?20181206_110000__Numerama__Geolocalisation____7_associations_se_dressent_contre_Google_et_ses_____pratiques_deloyales____Thu, 06 Dec 2018 10:00:00 +0000Sept associations ont saisi les autorités de protection des données pour dénoncer les pratiques de Google en matière de géolocalisation. Elles se basent sur une enquête norvégienne pointant les stratagèmes de l’entreprise pour forcer l’activation de cette option.

Google s’attendait-il à ce que le Règlement général sur la protection des données personnelles entraîne une telle activité contre lui ? Depuis le 25 mai, de nombreux fronts ont été ouverts : on compte deux actions collectives (l’une de La Quadrature du Net, l’autre de NOYB), mais aussi une initiative de l’UFC-Que Choisir dénonçant les stratagèmes de manipulation de l’internaute.

À cette liste, non-exhaustive, il faut ajouter une action coordonnée de sept associations de consommateurs du Vieux Continent qui, chacune dans leur pays, alertent leur autorité de protection des données. Ces signalements ont lieu en Grèce, en Norvège, aux Pays-Bas, en Pologne, en République tchèque, en Slovénie et en Suède. Elles dénoncent les pratiques de Google en matière de localisation des utilisateurs. […]

https://www.numerama.com/politique/443725-geolocalisation-7-associations-se-dressent-contre-google-et-ses-pratiques-deloyales.html

]]>
[FranceCulture] Faut-il avoir peur des GAFA chinois ?https://www.laquadrature.net/?p=12550http://streisand.me.thican.net/laquadrature.net/index.php?20181205_110000__FranceCulture__Faut-il_avoir_peur_des_GAFA_chinois___Wed, 05 Dec 2018 10:00:00 +0000Méconnus en France, les géants du web chinois, Baidu, Alibaba, Tencent, Xiaomu (les « BATX ») inquiètent. Comment appréhender l’arrivée de tels mastodontes numériques en Europe ? Leurs pratiques sont-elles plus problématiques que celles de Google, Apple, Facebook et Amazon (les « GAFA ») ? […]

Les Baidu, Tencent, Alibaba et autres Xiaomi restent encore peu connus en dehors de leur pays d’origine. Mais que se passera-t-il quand les géants chinois de l’internet s’éveilleront ? Leur proximité (c’est un euphémisme) avec le pouvoir politique a de quoi inquiéter, du point de vue des libertés publiques. Car derrière leur puissance économique, c’est un modèle politique qui est véhiculé par ces entreprises. […]

Intervenants :

  • Julien Nocetti : Chercheur à l’Institut français des relations internationales (IFRI) où il est membre du Centre Russie/NEI et responsable des recherches sur les sujets numériques internationaux
  • Stéphanie Balme : Professeure de la faculté permanent de Sciences Po
  • Benjamin Bayart : Cofondateur de la Quadrature du Net, co-président de la fédération des Fournisseur d’Accès à Internet associatifs (FFDN)

https://www.franceculture.fr/emissions/du-grain-a-moudre/faut-il-avoir-peur-des-gafa-chinois

]]>
[Planet] Surveillance du fisc sur les réseaux sociaux : est-ce vraiment légal ?https://www.laquadrature.net/?p=12551http://streisand.me.thican.net/laquadrature.net/index.php?20181204_110000__Planet__Surveillance_du_fisc_sur_les_reseaux_sociaux____est-ce_vraiment_legal___Tue, 04 Dec 2018 10:00:00 +0000Police fiscale, surveillance sur la toile… Le trésor public a annoncé la mise en place de nouveaux outils jugés plutôt intrusifs pour en finir avec la fraude et vérifier que vous déclarez bien ce qu’il faut […]

Contactée par la rédaction de Planet, la CNIL a fait parvenir plusieurs éléments de réponse relatifs à ce projet. Elle assure, dans un premier temps, ne pas avoir été saisie. Elle explique aussi que le « fait que les données soient accessibles publiquement ne leur ôte pas leur caractère de données personnelles et l’exigence de protection de la vie privée qui s’applique« . Dans un deuxième temps, la commission s’inquiète : « La lutte contre la fraude constitue en soi un objectif légitime, mais un projet de ce type soulève, par nature, d’importantes questions de proportionnalité compte tenu de son caractère intrusif dans la vie privée des personnes et du caractère potentiellement massif de la collecte.« 

Car la surveillance généralisée, c’est bien ce qui inquiète plusieurs spécialistes du web et des libertés individuelles, à l’instar d’Alexis Fitzjean, avocat spécialisé du numérique et membre de l’association La Quadrature du Net. « En 2015, lorsque la loi sur le renseignement a été votée, on nous a agité le spectre du terrorisme et de la pédopornographie pour justifier la surveillance de masse. Aujourd’hui, avec cette future expérimentation, l’Etat semble glisser de l’excuse de la menace terroriste à celle du problème de la fraude fiscale. La question se pose en terme de légitimité« , confie-t-il. […]

https://www.planet.fr/societe-surveillance-du-fisc-sur-les-reseaux-sociaux-est-ce-vraiment-legal.1670096.29336.html

]]>
58 organisations demandent à Macron de renoncer à son projet de censure anti-terroristehttps://www.laquadrature.net/?p=12524http://streisand.me.thican.net/laquadrature.net/index.php?20181203_111412_58_organisations_demandent_a_Macron_de_renoncer_a_son_projet_de_censure_anti-terroristeMon, 03 Dec 2018 10:14:12 +000058 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.

Les gouvernements européens se réuniront le 6 décembre pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook (relire notre analyse) et à remettre en cause la confidentialité de nos communications (relire notre analyse).

Mise à jour (4 décembre) : notre lettre commune est toujours ouverte à signature par des organisations (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre censure » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !

La lettre en PDF ou ci-dessous :

Monsieur le Président,

Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.

Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.

Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.

Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.

Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.

Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.

Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.

Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.

Signataires :

Mise à jour du 6 décembre, passant les signataires de 44 à 58

]]>
[LeMonde] Comment Linux est devenu un enjeu stratégique majeur pour la Silicon Valleyhttps://www.laquadrature.net/?p=12552http://streisand.me.thican.net/laquadrature.net/index.php?20181203_110000__LeMonde__Comment_Linux_est_devenu_un_enjeu_strategique_majeur_pour_la_Silicon_ValleyMon, 03 Dec 2018 10:00:00 +0000L’emblématique système d’exploitation libre est devenu un outil-clé de tous les grands groupes du Web, comme l’illustre le rachat de Red Hat. […]

Au-delà des considérations stratégiques, le rachat de Red Hat « montre la viabilité du modèle économique » du logiciel libre, juge Lionel Maurel, juriste et membre du bureau de l’association La Quadrature du Net. « Tout le monde a répété cette phrase : “Le logiciel libre a déjà gagné, mais personne ne le sait.” Le modèle est déjà dominant dans les serveurs ; IBM va pouvoir utiliser ce rachat pour développer des solutions de cloud [informatique dématérialisée], un domaine très concurrentiel. » Car si Linux reste très minoritaire sur les ordinateurs individuels, loin derrière Windows de Microsoft et Mac OS d’Apple, le système d’exploitation libre est le leader dans les serveurs qui font tourner les grands services du Web. D’Amazon à Facebook en passant par Google, dont une version modifiée du noyau Linux est au cœur d’Android, tous les géants du Web ont recours à Linux pour leurs gigantesques infrastructures. […]

https://www.lemonde.fr/long-format/article/2018/11/11/comment-linux-est-devenu-un-enjeu-strategique-majeur-pour-la-silicon-valley_5382061_5345421.html

]]>
[LeMagIT] Projet de règlement anti-terroriste : une énième attaque contre le chiffrement ?https://www.laquadrature.net/?p=12515http://streisand.me.thican.net/laquadrature.net/index.php?20181129_110000__LeMagIT__Projet_de_reglement_anti-terroriste____une_enieme_attaque_contre_le_chiffrement___Thu, 29 Nov 2018 10:00:00 +0000La Quadrature du Net s’alarme de la manière dont est formulé le texte, définissant des obligations pour les contenus mis à disposition de tiers et pas uniquement du public. De quoi, selon elle, attaquer les communications privées. […]

« De tiers ». Pour la Quadrature du Net, toute la subtilité tient à l’utilisation de ce terme, qui décrit quelque chose de distinct « du public ». Car « tiers » ne décrit pas forcément un destinataire public ; il peut être privé. Alors pour l’association, le texte recouvre les contenus « qui sont transmis à tout tiers, cela signifie qu’il peut s’appliquer à des services de courriers électroniques, comme les mails et les messageries instantanées […] Ces derniers, au moins jusqu’à la consultation du message, stockent en effet un contenu fourni par un utilisateur afin de le mettre à disposition d’un ou plusieurs tiers ».

Pour la Quadrature du Net, les services de communications personnelles « seront alors, comme les autres acteurs de l’Internet (forums, réseaux sociaux, blogs…), soumis aux obligations de retrait et de censure automatisée prévues par le règlement ». Une approche difficilement conciliable avec le chiffrement de bout en bout de ces échanges, tel que beaucoup le pratiquent aujourd’hui. […]

https://www.lemagit.fr/actualites/252453257/Projet-de-reglement-anti-terroriste-un-enieme-attaque-contre-le-chiffrement

]]>
Campagne de dons, premier point d’étapehttps://www.laquadrature.net/?p=12501http://streisand.me.thican.net/laquadrature.net/index.php?20181128_152927_Campagne_de_dons__premier_point_d___etapeWed, 28 Nov 2018 14:29:27 +0000À la mi-novembre, nous avons lancé notre campagne de dons annuelle, avec un objectif de 320 000 € de collecte, comme l’an dernier. À ce jour nous en avons réuni environ 35% (en comptant les dons récurrents pré-existants à cette campagne et qui se poursuivent actuellement). Nous avons donc besoin de votre aide pour pouvoir continuer nos actions l’an prochain. 

D’autant que l’actualité est chargée pour La Quadrature : entre les suites de notre action de groupe contre les GAFAM, le passage de notre procédure à propos de la surveillance française devant la Cour de Justice de l’Union Européenne et la lutte contre le futur règlement européen sur la prévention des contenus à caractère anti-terroriste en ligne, notre équipe (salariée comme bénévole) ne chôme pas pour protéger nos droits fondamentaux !


Et pendant ce temps, notre campagne autour de l’Internet de nos rêves poursuit son chemin. Nous avons déjà publié les deux premières vidéos : 

Nous avons aussi organisé plusieurs évènements en lien avec divers sujets d’actualité pour nous. Le premier de ces évènements a été un riche débat sur le statut juridique des hébergeurs :


Et retrouvez le programme complet de notre campagne ici.

Pour mieux défendre cet Internet qu’on aime face aux lois liberticides qui se multiplient, La Quadrature du Net a plus que jamais besoin de vous !

N’hésitez pas à mettre en place un don récurrent, ce sont ceux qui nous offrent une meilleure visibilité sur le long terme, et vous pouvez les arrêter très facilement sur demande.
]]>
Procédure contre le renseignement français devant les juges de l’UE : aidez-nous à finaliser !https://www.laquadrature.net/?p=12483http://streisand.me.thican.net/laquadrature.net/index.php?20181127_140848_Procedure_contre_le_renseignement_fran__ais_devant_les_juges_de_l___UE____aidez-nous_a_finaliser___Tue, 27 Nov 2018 13:08:48 +0000Grace aux procédures engagées par La Quadrature du Net, FFDN, Igwan et FDN, la Cour de justice de l’Union européenne doit évaluer la validité du régime de surveillance français. Il nous reste encore une semaine pour lui envoyer nos arguments : aidez-nous à finaliser notre dossier !

Le 26 juillet dernier, après trois ans de procédure (en lire notre résumé), le Conseil d’État avait enfin accepté de poser à la Cour de justice de l’Union européenne cinq questions susceptibles de remettre en cause la compatibilité du droit français au droit de l’Union. Ces questions concernent deux pans majeurs de la surveillance française :

  • les activités de renseignement réalisées par l’État (voir la décision du Conseil d’État, qui pose trois questions à ce sujet) ;
  • l’obligation pour les acteurs de l’Internet de conserver pendant un an les données de connexion concernant l’ensemble de la population (voir la seconde décision du Conseil d’État, qui pose deux questions).

Le 26 septembre dernier, la Cour de justice nous a indiqué qu’elle répondrait à l’ensemble de ces questions au sein d’une même procédure, nous laissant jusqu’au 6 décembre pour présenter nos arguments sur la façon dont elle devrait y répondre. Nous avons rédigé ces arguments au cours des deux derniers mois et nous vous invitons aujourd’hui à y participer à votre tour, avant de les envoyer la semaine prochaine. Nous avons divisé notre dossier en deux parties :

Chaque paragraphe de ces documents est numéroté : si une phrase vous semble peu claire ou pas assez incisive, ou qu’un mot est mal orthographié, indiquez le numéro du paragraphe que vous souhaitez modifier sur ce document collaboratif en ligne, prévu à cet effet. Vous pouvez aussi nous faire vos retours par email à contact@laquadrature.net (même si c’est plus sympa de travailler à plusieurs !).

Vous nous aviez déjà grandement aidé à finaliser notre dossier contre la loi renseignement devant le Conseil constitutionnel il y a trois ans, notre procédure contre le fichier TES il y a deux ans, ainsi que nos plaintes contre les GAFAM en mai dernier. Donc merci encore pour l’aide que vous apporterez aujourd’hui ! Nous reviendrons la semaine prochaine plus en détail sur les arguments que nous aurons envoyés.

Merci !

Contribuez ici

]]>
[Zdnet.Fr] 10 ans au compteur mais la Quadrature a toujours besoin de vos donshttps://www.laquadrature.net/?p=12476http://streisand.me.thican.net/laquadrature.net/index.php?20181127_120000__Zdnet.Fr__10_ans_au_compteur_mais_la_Quadrature_a_toujours_besoin_de_vos_donsTue, 27 Nov 2018 11:00:00 +0000La Quadrature a donné jeudi 15 novembre le coup d’envoi à sa campagne annuelle de collecte de dons. L’association entend revenir à une organisation plus horizontale et entame « un nouveau chapitre » pour marquer les dix ans de son existence.

La Quadrature du net a 10 ans et entend bien poursuivre sur sa lancée. L’association donnait jeudi dernier le coup d’envoi de sa collecte de dons annuels à la maison du libre et des communs, située à Strasbourg Saint-Denis, et en profitait pour faire le point sur l’évolution de l’association de défense des libertés numériques qui avait émergé à l’époque des combats autour de la loi Hadopi. Depuis ces premiers pas remarqués, la Quadrature s’est illustrée à travers de nombreux combats sur des sujets variés touchant aux libertés à l’heure du numérique et à la protection des données personnelles. […]

« L’assemblée générale a été l’occasion de revoir notre organisation et d’adopter une structure plus horizontale et moins hiérarchique » explique Arthur Messaud, membre de la Quadrature, qui se défend d’être porte-parole de l’association, mais qui a tout de même accepté de répondre à nos questions. Si jusqu’alors, l’organisation avait choisi de réserver certains postes spécifiques à ses membres, les sujets abordés par la Quadrature sont aujourd’hui plus vastes et l’association espère que cette nouvelle organisation lui permettra d’être plus en phase avec ces sujets. […]

https://www.zdnet.fr/actualites/10-ans-au-compteur-mais-la-quadrature-a-toujours-besoin-de-vos-dons-39876641.htm

]]>
Le règlement antiterroriste détruira-t-il Signal, Telegram et ProtonMail ?https://www.laquadrature.net/?p=12457http://streisand.me.thican.net/laquadrature.net/index.php?20181126_124056_Le_reglement_antiterroriste_detruira-t-il_Signal__Telegram_et_ProtonMail___Mon, 26 Nov 2018 11:40:56 +0000Il y a deux semaines, nous faisions le point sur le projet de règlement européen de censure antiterroriste. Pour rappel, ce texte imposera à l’ensemble des acteurs de l’Internet des obligations de censure irréalistes : retrait en une heure des contenus signalés par la police, surveillance de tous les contenus conduisant à une censure automatisée…

Aujourd’hui, nous revenons sur un autre danger de ce texte : en visant non seulement les contenus diffusés au public, mais également ceux échangés dans un cadre privé (comme les mails et les messageries instantanées), ce texte risque de mettre fin à la possibilité de protéger nos échanges par le chiffrement de bout en bout.

Une lecture attentive des dispositions du règlement révèle en effet que ce dernier ne se limite pas aux contenus diffusés au public.

L’article 2 précise que les acteurs soumis aux obligations de censure sont les « fournisseur de services de la société de l’information qui consistent à stocker des informations fournies par le fournisseur de contenus à la demande de celui-ci et à mettre ces informations à la disposition de tiers ». Le considérant 10 du même texte donne comme exemple, outre les réseaux sociaux, « les services de partage de fichiers vidéo, audio et images, les services de partage de fichiers et autres services en nuage, dans la mesure où ils mettent ces informations à la disposition de tiers […] ».

Cette notion de « mise à disposition de tiers » est bien différente de la notion plus habituelle de « mise à disposition du public » qui apparait, par exemple, dans la LCEN de 2004 où les hébergeurs sont définis comme ceux « qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature » (article 6, 2). Les contenus hébergés sur les « services en nuage » (qu’on comprend renvoyer à des services comme Nextcloud ou Dropbox) ne sont généralement pas « mis à disposition du public » mais uniquement accessibles par un nombre restreint d’utilisateurs. Le nouveau règlement européen les vise pourtant.

Or, si le texte du règlement ne se limite pas aux contenus diffusés au public, mais englobe ceux qui sont transmis à tout tiers, cela signifie qu’il peut s’appliquer à des services de courriers électroniques, comme les mails et les messageries instantanées (Whatsapp, Signal, Telegram…). Ces derniers, au moins jusqu’à la consultation du message, stockent en effet un contenu fourni par un utilisateur afin de le mettre à disposition d’un ou plusieurs tiers1Voir par exemple les conditions d’utilisation de Signal, qui indiquent bien conserver les messages le temps de leur réception..

Ils seront alors, comme les autres acteurs de l’Internet (forums, réseaux sociaux, blogs…), soumis aux obligations de retrait et de censure automatisée prévues par le règlement.

Des obligations incompatibles avec le chiffrement de bout en bout

Pourtant, certains de ces services protègent nos échanges privés grâce à des technologies de chiffrement de bout en bout, c’est-à-dire des systèmes de communications « où seules les personnes qui communiquent peuvent lire les messages échangés », l’objectif étant de « résister à toute tentative de surveillance ou de falsification ».

Comme nous l’expliquions dans nos positions communes avec l’Observatoire de Libertés et du Numérique (OLN), cette capacité de chiffrement « est une condition indispensable à la préservation des droits et libertés fondamentales, et l’un des derniers remparts, individuels et collectifs, aux intrusions arbitraires et illégales de nombreux acteurs, étatiques, privés, ou criminels ».

Comment alors les services de messageries et de mails qui prévoient ce type de protection (Signal, ProtonMail…) pourront respecter les obligations de surveillance et de censure prévues dans le texte si l’ensemble des messages stockés sont chiffrés et leur sont donc indisponibles ?

Le silence du règlement laisse entrevoir le pire : le chiffrement de bout en bout, c’est-à-dire la protection de nos échanges privés, serait contraire aux obligations prévues par ce texte et ne pourrait donc que disparaitre.

En effet, il est difficile d’imaginer comment ces services, comme tous les autres acteurs de l’Internet, pourront survivre à ces nouvelles obligations : il est peu probable qu’ils acceptent d’abandonner ce chiffrement de bout en bout et de sous-traiter la surveillance de leurs services à un géant du Web – ce qui est la solution que le gouvernement français semble espérer déjà au moins en matière d’hébergement de contenus publics.

Quant à Facebook lui-même, il est étonnant qu’il ait laissé passer ce texte sans voir ni comprendre le danger qu’il pourrait comporter pour son service de messagerie Whatsapp, lui aussi protégé par le chiffrement. La pire des situations serait que Facebook soit en train de renoncer à cette technologie pour s’allier, avec les gouvernements, à la surveillance de l’ensemble de nos échanges, qu’ils soient privés et publics. Il y a quelques semaines, Mark Zuckerberg expliquait d’ailleurs que le chiffrement compliquait l’automatisation de la censure.

Par ce texte, le gouvernement pourrait trouver une manière détournée de gagner un combat qu’il mène depuis longtemps et qui le frustre particulièrement : celui de la lutte contre le chiffrement de nos conversations.

Le règlement, en cours d’examen devant le Parlement européen, remettrait ainsi en cause un droit pourtant essentiel pour garantir nos libertés fondamentales face aux possibilités d’arbitraire de l’État et de la surveillance généralisée d’acteurs privés.

De nouveau, nous en demandons le rejet.

Rappelons que les délais pour agir sont extrêmement brefs : les gouvernements européens (en tête, la France) veulent faire adopter le texte le plus rapidement possible, au détriment de tout débat démocratique. Le Conseil de l’Union européenne se réunit ainsi à Bruxelles dès les 6 et 7 décembre en vue de parvenir à une position commune.

References   [ + ]

1. Voir par exemple les conditions d’utilisation de Signal, qui indiquent bien conserver les messages le temps de leur réception.
]]>
[EN DIRECT] ! Débat sur le statut des hébergeurs, La Paillasse, Paris.https://www.laquadrature.net/?p=12106http://streisand.me.thican.net/laquadrature.net/index.php?20181121_190044__EN_DIRECT_____Debat_sur_le_statut_des_hebergeurs__La_Paillasse__Paris.Wed, 21 Nov 2018 18:00:44 +0000Suivez en direct Le débat sur le statut des hébergeurs, à la Paillasse, Paris



Si vous n’avez pas de navigateur compatible HTML5, vous pouvez aussi voir directement le flux live en faisant pointer votre player habituel (tel VLC ou MPlayer) à l’adresse suivante :

https://radio.octopuce.fr/ts1/stream.m3u8

]]>
[RFI] Les GAFAM, géants du Net, sont-ils en règle sur la protection des données ?https://www.laquadrature.net/2018/11/16/rfi-les-gafam-geants-du-net-sont-ils-en-regle-sur-la-protection-des-donnees/http://streisand.me.thican.net/laquadrature.net/index.php?20181116_185953__RFI__Les_GAFAM__geants_du_Net__sont-ils_en_regle_sur_la_protection_des_donnees___Fri, 16 Nov 2018 17:59:53 +0000[RFI] Les GAFAM, géants du Net, sont-ils en règle sur la protection des données ?

Après avoir été reçu à l’Elysée par Emmanuel Macron, le PDG d’Apple s’exprime ce mercredi au Parlement européen lors d’une conférence sur la confidentialité. L’occasion pour Tim Cook d’évoquer le nouveau RGPD, le règlement général sur la protection des données. Présenté comme une révolution en matière de droits numériques, il contraint les entreprises à obtenir le consentement des internautes européens pour utiliser leurs données personnelles mais les géants du Net sont accusés de ne pas le respecter.

Entré en vigueur le 25 mai dernier, le RGPD n’a pas tardé à produire ses premiers effets. La CNIL, la Commission nationale de l’informatique et des libertés, a publié un premier bilan sur les quatre premiers mois d’application du texte. Sur cette période, le gendarme français des données personnelles a reçu 3767 plaintes soit une hausse de 64%, signe d’une prise de conscience du grand public sur cette question. Par ailleurs, la CNIL a été saisie de plusieurs plaintes collectives. Ce type de procédure est l’une des grandes nouveautés introduites par le RGPD.

En France, l’association de défense des libertés sur la toile, la Quadrature du Net, a ainsi déposé cinq plaintes collectives regroupant 12 000 personnes contre Google, Amazon, Apple, Facebook et Microsoft. Principal reproche fait à ces entreprises américaines : la tactique du « à prendre ou à laisser ». Soit l’utilisateur accepte les conditions d’utilisation et donc cède ses données personnelles, soit il n’a plus accès au service, ce qui est interdit par le RGPD. […]

[RFI] Les GAFAM, géants du Net, sont-ils en règle sur la protection des données ?

]]>
Soutenons notre Internet !https://www.laquadrature.net/?p=12174http://streisand.me.thican.net/laquadrature.net/index.php?20181115_170410_Soutenons_notre_Internet___Thu, 15 Nov 2018 16:04:10 +0000Depuis 10 ans, vos dons nous permettent de défendre notre vision d’un Internet idéal — un idéal que nous espérons avoir en commun avec vous. Nous lançons aujourd’hui notre campagne de dons annuelle, avec un objectif de 320 000 € de collecte, comme l’an dernier.

Nous voulons surtout profiter de ce moment pour aborder un sujet qui nous tient à cœur, mais dont nous parlons peu tant nous croulons chaque jour sous de nouvelles menaces contre nos libertés. C’est pourtant ce sujet qui nous anime au quotidien, qui nous fait veiller tard le soir et inspire chacune des phrases que nous écrivons aux juges ou aux parlementaires, ou à vous, pour partager nos inquiétudes et proposer des façons de se défendre.

Cette année, nous prendrons donc l’occasion de notre campagne de dons pour vous parler de l’internet de nos rêves, de « notre Internet ». Certes il y a les GAFAM, Macron, la Technopolice galopante, mais l’espace d’un instant au moins, ayons la sagesse de rêver — de nous rappeler que nous ne luttons pas seulement contre un futur terrible mais, surtout, pour un monde idéal.

Notre Internet idéal est dans les mains de toutes les personnes qui l’utilisent. Il n’a pas de centre ni de maître mais se construit et s’invente collectivement. Pour nous, la meilleure façon d’en parler a donc été de donner la parole à celles et à ceux qui le construisent au quotidien : qui posent des câbles et maintiennent une infrastructure collective face aux FAI géants ; qui développent des logiciels permettant une répartition plus juste des pouvoirs de modérations sur Internet ; qui font tout pour permettre à chaque personne de construire son petit bout d’Internet autogéré ; qui se battent devant les juges pour que les lois ne nous empêchent pas de façonner Internet à notre façon, en nous imposant censure et surveillance.

Au cours de l’année dernière, nous avons eu l’honneur d’accueillir nombre de ces personnes en tant que membres de notre association. Nous espérons que cette campagne de dons reflétera la nouvelle diversité de tons, d’expériences et d’idéaux offerte par cette ouverture, si propre à l’Internet de nos rêves.

Nous avons aussi donné la parole au-delà, à nos alliés de longue date, pour réunir au final une quinzaine de personnes sur quatre vidéos. Une pour chaque facette de notre idéal : un Web où nos règles sont décidées collectivement, sans censure imposée par l’État ou des entreprises ; une infrastructure physique gérée par la population ; un monde libre de toute surveillance généralisée ; le développement de services ne reposant pas sur l’exploitation commerciale de notre identité.

Nous diffuserons ces vidéos au cours des semaines à venir, après la publication dès ce soir, lors de notre soirée de lancement de campagne, d’une première vidéo plus poétique, reprenant en dessins l’histoire de l’Internet telle que nous la voyons aujourd’hui. La diffusion de ces vidéos s’accompagnera d’un ou deux événements publics par semaine (voir le programme).

Exprimer nos rêves apparaît aussi comme une forme de bilan : l’occasion appropriée pour saluer notre bon vieux site Internet, qui nous aura longtemps accompagné·es malgré son âge vieillissant, et d’en accueillir un tout nouveau, tel que vous le voyez !

Merci à toutes les personnes qui partagent ces rêves, que nous espérons encore défendre une année de plus, grâce à vous.

]]>
Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer une surveillance généraliséehttps://www.laquadrature.net/?p=11968http://streisand.me.thican.net/laquadrature.net/index.php?20181114_161459_Censure_antiterroriste____Macron_se_soumet_aux_geants_du_Web_pour_instaurer_une_surveillance_generaliseeWed, 14 Nov 2018 15:14:59 +0000Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l’ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées.

La France, avec le soutien de l’Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n’en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel.

Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l’ensemble du Web à ces derniers, à qui l’État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l’État et Facebook n’en est que le prémice, aussi sournois que révélateur.

Pour rappel, le texte, poussé par la France et l’Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l’ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes :

  • retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l’OCLCTIC, le service de la police chargé de la cybercriminalité) ;
  • la mise en place d’un « point de contact » disponible 24h/24 et 7j/7 ;
  • l’instauration de « mesures proactives » pour censurer les contenus avant même leur signalement ; si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.

D’un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu’elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n’auront d’autres choix que de cesser leur activité d’hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l’exécution de leurs obligations.

Ce texte consacre l’abandon de pouvoirs régaliens (surveillance et censure) à une poignée d’acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d’analyse d’impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.

Voir notre analyse (PDF, 1 page).

Un débat impossible

Ces dernières semaines, nous avons fait le tour des ministères chargés de la rédaction et de la négociation de ce texte au niveau européen. Il en résulte que le gouvernement français, chef de file sur ce dossier, veut convaincre les autres États membres et les institutions de l’Union européenne d’adopter le texte tel qu’il est écrit aujourd’hui, et dans un calendrier très serré (adoption avant les élections européennes de mai 2019) afin d’empêcher tout débat démocratique sur le sujet.

Tout montre que le Parlement européen est prêt à collaborer avec les États membres pour faire adopter ce règlement sans débat. Helga Stevens (Belgique, ECR – conservateurs), rapporteure principale sur ce texte, a déjà publié en juin, et de sa propre initiative, un rapport qui présente les mêmes idées reprises dans ce règlement.

Les « rapporteurs fictifs » (les députés désignés par leur parti politique pour négocier le texte) sont en majorité tout aussi alignés sur ces positions, à l’image de Rachida Dati (France, PPE – droite européenne) et de Maite Pagazaurtundua (Espagne, ALDE – libéraux) qui défendent depuis longtemps l’idée d’une telle censure. Eva Joly (France, Verts) avait pour sa part accepté sans souci la censure privée dans la directive terroriste, finalement adoptée début 2017. Il semblerait que, cette fois, le texte aille trop loin pour elle et nous espérons qu’elle saura se battre contre.

Toutefois, dans la perspective des élections européennes, aucun parti politique du Parlement européen ne semble prêt à combattre la stratégie sécuritaire du gouvernement français, en lien avec l’Allemagne et d’autres États membres. Alors que ce texte semble directement inspiré par les politiques autoritaires mises en place par le gouvernement chinois pour contrôler Internet, Emmanuel Macron et Angela Merkel démontrent que leur « axe humaniste » mis en exergue dans le cadre de la campagne des européennes n’est que pure posture politicienne. Ce projet de règlement est une véritable insulte au projet démocratique européen.

Remplacer l’État par les géants du Web

Quand nous avons dit aux ministères que leur texte détruirait l’ensemble du Web décentralisé, ne laissant qu’une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c’était bien le but.

Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d’autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu’il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s’est même permis de sortir l’argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C’est comme ça : Google l’a dit, ne discutez pas.

Que ce soit clair : les arguments de Google et de Facebook visent simplement à détruire leurs concurrents. De fait, ce texte vise à faire disparaître les petites et moyennes plateformes, et à sous-traiter aux géants une censure massive et automatisée.

Emmanuel Macron s’est laissé enfumer de bon cœur par les géants, ravi à l’idée que l’Internet « dé-civilisé » qu’il s’entête à fantasmer soit enfin administré par une poignée d’entreprises, dont la puissance s’est bâtie sur l’exploitation illégale de nos données personnelles.

C’est ce qu’il a clairement réaffirmé lors de son discours au Forum de la Gouvernance sur Internet.

Macron se moque de détruire tout espoir d’une économie numérique européenne. Il veut simplement un texte sécuritaire qu’il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu’il s’imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n’a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l’extrême droite, l’aura élu.

Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l’État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.

Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l’économie de l’attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L’urgence législative est de combattre ces dérives : de limiter l’économie de l’attention tout en favorisant le développement de modèles respectueux de nos libertés. C’est ce que nous proposons.

Exigeons le rejet de ce texte ! Il en va des conditions d’existence de l’Internet libre et décentralisé.

]]>
Smart Cities sécuritaires : la CNIL forfait ?10659 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181106_122531_Smart_Cities_securitaires___la_CNIL_forfait__Tue, 06 Nov 2018 11:25:31 +0000Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big Data. Il y a quelques semaines, nous rencontrions la CNIL pour discuter de ces enjeux. Résumé des épisodes précédents, et de cette rencontre pas franchement enthousiasmante.

En France, lorsqu’on évoque la police prédictive et les usages policier du Big Data, il est souvent question de l’entreprise américaine Palantir. Celle-ci agit comme une sorte de chiffon rouge : les usages policiers de ses plateformes logicielles aux États-Unis ont en effet de quoi faire froid dans le dos, et le contrat passé fin 2016 entre la firme et les services de renseignement intérieur français, la DGSI, suscite des inquiétudes légitimes. Mais à trop se focaliser sur Palantir – qui endosse à merveille le rôle de la « méchante boîte américaine » –, on risque d’oublier un peu vite qu’en France aussi, plusieurs multinationales comme Thalès, Atos Bull ou Engie se positionnent sur ces marchés sécuritaires en plein essor.

La Safe City « made in France »

Alors que le sujet était jusqu’alors largement passé sous nos radars, cela fait quelques mois que nous avons commencé à suivre ces projets, baptisés « Safe City ©» par leurs concepteurs (ou comment basculer sans rougir de la Smart City à la « ville sécurisée »).

À Marseille puis à Nice, nous avons commencé à documenter les premiers partenariats public-privé en la matière, qui pullulent actuellement sur le territoire. Au travers de ces marchés publics, on voit des multinationales françaises s'allier avec des élus municipaux peu scrupuleux pour mettre la puissance du Big Data et de l’intelligence artificielle au service de leurs polices municipales (dans les applications envisagées : analyses prédictives, repérage des comportements suspects à travers l'analyse automatique de la vidéosurveillance, surveillance des réseaux sociaux, etc). Ces partenariats soutenus par l'Union européenne ou la Banque publique d'investissement permettent à ces consortiums mêlant grands industriels, « start-ups » et instituts de recherche (comme l'INRIA) de faire financer leur recherche et développement de solutions sécuritaires par le contribuable.

L’une des choses qui frappe lorsqu’on regarde les documents relatifs à ces expérimentations, c’est la créativité dont font preuve les rédacteurs pour minimiser les enjeux en termes de libertés publiques, sans jamais vraiment réussir à convaincre. Surtout, ne pas appeler un chat un chat, et caser les mots à la mode du moment qui permettront de rassurer et de « faire moderne ». C'est ce que relevait récemment la section locale de Ligue des droits de l’Homme à Nice :

Le marketing de la sécurité (de la peur ?), utilise volontiers quelques mots clés qui reviennent constamment en boucle : #intelligent, #temps réel ; on y rencontre aussi des #infaillible aux allures jupitériennes, destinés à clouer le bec de tout contradicteur.

Pour ce qui est de la vie privée, les rédacteurs se contentent d'une vague mention du « RGPD » ou de la « Loi informatique et libertés ». Inutile de vraiment plancher sur une analyse juridique qui démonterait que ces projets sont tout simplement illégaux...

On a rencontré la CNIL (et c’est triste)

Il y a quelques semaines, après la réponse que nous a faite la présidente de la CNIL à un courrier de janvier 2018, nous avons rencontré ses services pour en savoir plus sur la manière dont ils suivaient (ou pas) ces dossiers. Côté Quadrature, nous étions trois. En face de nous, il y avait Jean Lessi, conseiller d’État et secrétaire général de la CNIL, et trois autres personnes travaillant de loin sur ces sujets de « Safe City » au titre de leurs attributions. L'échange a été cordial. Nous avons rencontré des gens aimables, prenant au sérieux nos inquiétudes. Et pourtant, notre discussion a débouché sur un constat particulièrement amer quant à la capacité de la CNIL à être à la hauteur des enjeux.

Aucune analyse juridique détaillée

Le premier constat, c’est que la CNIL n’a en réalité pas de politique détaillée sur les Safe Cities. En 2014 déjà, elle échangeait avec le ministère de l’Intérieur sur des expérimentation locales de dispositifs statistiques à visée de police prédictive (sans même le Big Data à l’époque). L’an dernier, la CNIL publiait une étude prospective tout-à-fait lucide sur les enjeux de la Smart City pour les libertés publiques. Mais aujourd'hui, celle-ci ne dispose encore d’aucune analyse juridique qui puisse faire autorité sur la légalité des expérimentations projetées.

Comme le montrait le courrier envoyé par la présidente de la CNIL au maire de Marseille, la CNIL se borne pour l’heure à appeler au respect de garanties procédurales, avec notamment la nécessaire étude d’impact (la mairie en aurait promis une pour cet hiver...) et un « accompagnement obligatoire » à l’issue des expérimentations (prévu pour les « nouvelles technologies » par l’article 70-4 de la loi informatique et liberté modifiée).

Les analyses juridiques qui fleurissent au Conseil de l’Europe ou ailleurs1, et qui tentent de construire une réflexion pratique sur les liens entre Big Data, Intelligence Artificielle et droits de l’Homme, semblent la laisser de marbre.

Dans le silence de la loi, tout et n'importe quoi

Lorsqu’on demande à nos interlocuteurs pourquoi ils ne demandent tout simplement pas l’arrêt de ces expérimentations, comme il fut fait au printemps s’agissant de l’application Reporty à Nice (décision dont nous avons eu communication : la voici), on nous explique qu'à l'inverse de Reporty, la loi ne dit rien de spécifique sur la Safe City, et que les mairies peuvent donc faire peu ou prou ce qu'elles veulent2.

Nous répondons que, justement, c'est parce que la loi ne dit rien non plus de l’utilisation du Big Data à des fins policières, de la surveillance des réseaux sociaux et de toutes ces choses évoquées dans les projets d’expérimentation « Safe City », que ces derniers sont clairement illégaux3. C'est justement pour cela qu'ils mériteraient l'opposition ferme et résolue de la CNIL.

Silence gêné. On en déduit, que sous couvert d'expérimentations, tout ou presque est permis. La CNIL semble ici adhérer au rapport du député Cédric Villani sur l’intelligence artificielle, qui revendiquait de s'affranchir de la loi pour expérimenter les usages de l'IA à des fins de surveillance (visant sans le nommer le partenariat Palantir-DGSI). Dans la Startuffe Nation, il te suffit de parler d'« expérimentation » et d'« innovation smart », de méthodes « lean » en lien avec « l'écosystème startup », et ça te vaut un sauf-conduit pour faire tout et n'importe quoi.

La CNIL résignée face au discours sécuritaire

Bref. On continue donc la discussion, et nos interlocuteurs de la CNIL continuent de se défiler en nous disant en substance ceci : « Même si les projets d’expérimentation font peur sur le papier, il faut bien faire la différence entre le discours marketing des projets d’expérimentation (qui surenchérit dans la dystopie orwelienne) et l’étape de la mise en œuvre (qui s’avérera décevante et bien plus limitée que ce qui est projeté au départ) ».

Alors oui, on peut être d’accord sur le fait que ces expérimentations ne tiendront pas leurs promesses dans les délais impartis. Pour autant, cette position de la CNIL qui tend à minimiser la portée de ces projets oublie deux choses. La première, c’est que les discours marketing participent déjà de la banalisation des systèmes de surveillance. Et ce d'autant plus qu'ils sont repris par les élus qui, tout en masquant les dangers de la Safe City, tentent d’en faire un atout électoral. Le marketing de la surveillance impose partout la société de surveillance, et ce devrait être le rôle de la CNIL que d'utiliser les moyens à sa disposition pour aider à déconstruire ces discours (et tant pis si cela suscite l’ire des élus locaux).

Surtout, vu le rythme auquel croît l’informatique de contrôle (Big Data, IA & co), il est clair que ces systèmes de surveillance verront le jour. À force de balancer des millions d'euros pour les financer, la technocratie nous enfoncera encore un peu plus dans la dystopie orwellienne. De fait, ces outils existent déjà en Chine et, dans une moindre mesure, aux États-Unis et au Royaume-Uni. L'un des buts de ces expérimentations n’est-il pas justement de permettre aux industriels français de rattraper au plus vite leur retard sur la concurrence étrangère ?

Un appel au débat qui ne mange pas de pain

Au fond, si la CNIL botte en touche sur ces sujets ô combien importants, c’est qu’elle accepte d'être condamnée à l'impuissance.

À l’image d’autres autorités de contrôle dévolues à la protection des libertés publiques, ses moyens financiers et humains sont structurellement dérisoires par rapport à l’ampleur de ses missions. Il faut dire que la conjoncture n’est guère favorable : la CNIL doit faire face à l’entrée en vigueur du RGPD en mai dernier, qui la met en première ligne. Nos interlocuteurs ont d'ailleurs commencé la discussion en pointant leur manque de moyens, comme pour s’excuser par avance de leur relative inaction. On nous a fait comprendre que les personnes que nous avions en face sont en réalité les seules parmi un staff d’environ 200 personnes à plancher sur ces sujets de Safe City. Et encore, seulement de loin, en plus de leurs autres missions touchant aux fichiers régaliens… Le projet de budget 2019 envisage bien une augmentation de ses ressources de +4,8 % (+ 860 000 euros), mais cela est largement insuffisant pour palier aux besoins.

Il y a une seconde explication plus générale à l’impuissance de la CNIL : celle-ci est sciemment organisée par les pouvoirs exécutifs et législatifs. L'attentisme actuel apparaît en effet comme le point d’orgue d’une tendance à l’œuvre depuis les années 1980, qui a vu les pouvoirs de la commission progressivement rognés s’agissant de la surveillance d’État. Alors que ses responsables aiment à rappeler le « mythe fondateur » du scandale SAFARI – provoqué en 1974 par le projet d’une interconnexion des fichiers informatiques de la police, des service fiscaux et sociaux –, la CNIL n’a cesse depuis de perdre du terrain sur ces questions.

Ainsi, en 1991, l’État choisit de créer une nouvelle autorité (la CNCIS) plutôt que de lui permettre de contrôler la surveillance des communications par les services de renseignement. En 2004, on lui ôte le pouvoir de s’opposer à la création de fichiers policiers, en rendant son avis sur les projets de décrets afférents purement consultatif. Enfin, depuis presque vingt ans, on met à sa tête des gens proches des hautes sphères administratives ou politiques, comme une manière de garantir sa relative docilité vis-à-vis de l’État dans des dossiers clés.

Dans ce contexte délétère, la CNIL en est réduite à appeler à un grand « débat démocratique », tout en reconnaissant les graves menaces que font peser ces systèmes pour les droits et libertés. Ce qu'elle a fait le 19 septembre dernier. On lit dans son communiqué publié ce jour-là :

Ces dispositifs, qui s’articulent parfois avec des technologies de big data, soulèvent des enjeux importants pour les droits et libertés individuelles des citoyens. Le sentiment de surveillance renforcée, l’exploitation accrue et potentiellement à grande échelle de données personnelles, pour certaines sensibles (données biométriques), la restriction de la liberté d’aller et de venir anonymement, sont autant de problématiques essentielles pour le bon fonctionnement de notre société démocratique.
Il est aujourd’hui impératif que des garde-fous soient prévus afin d’encadrer les finalités pour lesquelles ces dispositifs peuvent être déployés et prévenir tout mésusage des données traitées par leur biais (…).
Aussi, la CNIL appelle d’urgence à un débat démocratique sur cette problématique, et à ce que le législateur puis le pouvoir réglementaire se saisissent de ces questions afin que soient définis les encadrements appropriés, en recherchant le juste équilibre entre les impératifs de sécurisation, notamment des espaces publics, et la préservation des droits et libertés de chacun4.

Un appel de pure forme, qui finira sans aucun doute par être entendu par les ministères de l'intérieur et de la justice. Le gouvernement a en effet affirmé au printemps vouloir réviser la loi renseignement en 2020. Il lui faudra de toute façon légaliser tout un tas d’usages sécuritaires de l’informatique expérimentés ces derniers temps dans la plus grande illégalité (coucou Palantir à la DGSI, coucou le fichier TES et sa myriade d'usages potentiels qu'on voudra bientôt légaliser, etc.). Au train où vont les lois sécuritaires, et vu que les marchands de peur sont récemment passés ceinture marron dans l'art de pourrir le débat sur ces questions, ils accueillent sans doute l'appel de la CNIL avec sérénité.

Au minimum, la CNIL devrait imposer un moratoire sur les expérimentations en cours : exiger leur arrêt tant qu'elles ne sont pas précisément autorisées et encadrées par la loi. Sa position attentiste la rend complice.

  • 1.

  • 2. Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut ».
  • 3. C'est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.
  • 4. https://www.cnil.fr/fr/la-cnil-appelle-la-tenue-dun-debat-democratique-sur-les-nouveaux-usages-des-cameras-video
]]>
Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big Data. Il y a quelques semaines, nous rencontrions la CNIL pour discuter de ces enjeux. Résumé des épisodes précédents, et de cette rencontre pas franchement enthousiasmante.

En France, lorsqu’on évoque la police prédictive et les usages policier du Big Data, il est souvent question de l’entreprise américaine Palantir. Celle-ci agit comme une sorte de chiffon rouge : les usages policiers de ses plateformes logicielles aux États-Unis ont en effet de quoi faire froid dans le dos, et le contrat passé fin 2016 entre la firme et les services de renseignement intérieur français, la DGSI, suscite des inquiétudes légitimes. Mais à trop se focaliser sur Palantir – qui endosse à merveille le rôle de la « méchante boîte américaine » –, on risque d’oublier un peu vite qu’en France aussi, plusieurs multinationales comme Thalès, Atos Bull ou Engie se positionnent sur ces marchés sécuritaires en plein essor.

La Safe City « made in France »

Alors que le sujet était jusqu’alors largement passé sous nos radars, cela fait quelques mois que nous avons commencé à suivre ces projets, baptisés « Safe City ©» par leurs concepteurs (ou comment basculer sans rougir de la Smart City à la « ville sécurisée »).

À Marseille puis à Nice, nous avons commencé à documenter les premiers partenariats public-privé en la matière, qui pullulent actuellement sur le territoire. Au travers de ces marchés publics, on voit des multinationales françaises s'allier avec des élus municipaux peu scrupuleux pour mettre la puissance du Big Data et de l’intelligence artificielle au service de leurs polices municipales (dans les applications envisagées : analyses prédictives, repérage des comportements suspects à travers l'analyse automatique de la vidéosurveillance, surveillance des réseaux sociaux, etc). Ces partenariats soutenus par l'Union européenne ou la Banque publique d'investissement permettent à ces consortiums mêlant grands industriels, « start-ups » et instituts de recherche (comme l'INRIA) de faire financer leur recherche et développement de solutions sécuritaires par le contribuable.

L’une des choses qui frappe lorsqu’on regarde les documents relatifs à ces expérimentations, c’est la créativité dont font preuve les rédacteurs pour minimiser les enjeux en termes de libertés publiques, sans jamais vraiment réussir à convaincre. Surtout, ne pas appeler un chat un chat, et caser les mots à la mode du moment qui permettront de rassurer et de « faire moderne ». C'est ce que relevait récemment la section locale de Ligue des droits de l’Homme à Nice :

Le marketing de la sécurité (de la peur ?), utilise volontiers quelques mots clés qui reviennent constamment en boucle : #intelligent, #temps réel ; on y rencontre aussi des #infaillible aux allures jupitériennes, destinés à clouer le bec de tout contradicteur.

Pour ce qui est de la vie privée, les rédacteurs se contentent d'une vague mention du « RGPD » ou de la « Loi informatique et libertés ». Inutile de vraiment plancher sur une analyse juridique qui démonterait que ces projets sont tout simplement illégaux...

On a rencontré la CNIL (et c’est triste)

Il y a quelques semaines, après la réponse que nous a faite la présidente de la CNIL à un courrier de janvier 2018, nous avons rencontré ses services pour en savoir plus sur la manière dont ils suivaient (ou pas) ces dossiers. Côté Quadrature, nous étions trois. En face de nous, il y avait Jean Lessi, conseiller d’État et secrétaire général de la CNIL, et trois autres personnes travaillant de loin sur ces sujets de « Safe City » au titre de leurs attributions. L'échange a été cordial. Nous avons rencontré des gens aimables, prenant au sérieux nos inquiétudes. Et pourtant, notre discussion a débouché sur un constat particulièrement amer quant à la capacité de la CNIL à être à la hauteur des enjeux.

Aucune analyse juridique détaillée

Le premier constat, c’est que la CNIL n’a en réalité pas de politique détaillée sur les Safe Cities. En 2014 déjà, elle échangeait avec le ministère de l’Intérieur sur des expérimentation locales de dispositifs statistiques à visée de police prédictive (sans même le Big Data à l’époque). L’an dernier, la CNIL publiait une étude prospective tout-à-fait lucide sur les enjeux de la Smart City pour les libertés publiques. Mais aujourd'hui, celle-ci ne dispose encore d’aucune analyse juridique qui puisse faire autorité sur la légalité des expérimentations projetées.

Comme le montrait le courrier envoyé par la présidente de la CNIL au maire de Marseille, la CNIL se borne pour l’heure à appeler au respect de garanties procédurales, avec notamment la nécessaire étude d’impact (la mairie en aurait promis une pour cet hiver...) et un « accompagnement obligatoire » à l’issue des expérimentations (prévu pour les « nouvelles technologies » par l’article 70-4 de la loi informatique et liberté modifiée).

Les analyses juridiques qui fleurissent au Conseil de l’Europe ou ailleurs1, et qui tentent de construire une réflexion pratique sur les liens entre Big Data, Intelligence Artificielle et droits de l’Homme, semblent la laisser de marbre.

Dans le silence de la loi, tout et n'importe quoi

Lorsqu’on demande à nos interlocuteurs pourquoi ils ne demandent tout simplement pas l’arrêt de ces expérimentations, comme il fut fait au printemps s’agissant de l’application Reporty à Nice (décision dont nous avons eu communication : la voici), on nous explique qu'à l'inverse de Reporty, la loi ne dit rien de spécifique sur la Safe City, et que les mairies peuvent donc faire peu ou prou ce qu'elles veulent2.

Nous répondons que, justement, c'est parce que la loi ne dit rien non plus de l’utilisation du Big Data à des fins policières, de la surveillance des réseaux sociaux et de toutes ces choses évoquées dans les projets d’expérimentation « Safe City », que ces derniers sont clairement illégaux3. C'est justement pour cela qu'ils mériteraient l'opposition ferme et résolue de la CNIL.

Silence gêné. On en déduit, que sous couvert d'expérimentations, tout ou presque est permis. La CNIL semble ici adhérer au rapport du député Cédric Villani sur l’intelligence artificielle, qui revendiquait de s'affranchir de la loi pour expérimenter les usages de l'IA à des fins de surveillance (visant sans le nommer le partenariat Palantir-DGSI). Dans la Startuffe Nation, il te suffit de parler d'« expérimentation » et d'« innovation smart », de méthodes « lean » en lien avec « l'écosystème startup », et ça te vaut un sauf-conduit pour faire tout et n'importe quoi.

La CNIL résignée face au discours sécuritaire

Bref. On continue donc la discussion, et nos interlocuteurs de la CNIL continuent de se défiler en nous disant en substance ceci : « Même si les projets d’expérimentation font peur sur le papier, il faut bien faire la différence entre le discours marketing des projets d’expérimentation (qui surenchérit dans la dystopie orwelienne) et l’étape de la mise en œuvre (qui s’avérera décevante et bien plus limitée que ce qui est projeté au départ) ».

Alors oui, on peut être d’accord sur le fait que ces expérimentations ne tiendront pas leurs promesses dans les délais impartis. Pour autant, cette position de la CNIL qui tend à minimiser la portée de ces projets oublie deux choses. La première, c’est que les discours marketing participent déjà de la banalisation des systèmes de surveillance. Et ce d'autant plus qu'ils sont repris par les élus qui, tout en masquant les dangers de la Safe City, tentent d’en faire un atout électoral. Le marketing de la surveillance impose partout la société de surveillance, et ce devrait être le rôle de la CNIL que d'utiliser les moyens à sa disposition pour aider à déconstruire ces discours (et tant pis si cela suscite l’ire des élus locaux).

Surtout, vu le rythme auquel croît l’informatique de contrôle (Big Data, IA & co), il est clair que ces systèmes de surveillance verront le jour. À force de balancer des millions d'euros pour les financer, la technocratie nous enfoncera encore un peu plus dans la dystopie orwellienne. De fait, ces outils existent déjà en Chine et, dans une moindre mesure, aux États-Unis et au Royaume-Uni. L'un des buts de ces expérimentations n’est-il pas justement de permettre aux industriels français de rattraper au plus vite leur retard sur la concurrence étrangère ?

Un appel au débat qui ne mange pas de pain

Au fond, si la CNIL botte en touche sur ces sujets ô combien importants, c’est qu’elle accepte d'être condamnée à l'impuissance.

À l’image d’autres autorités de contrôle dévolues à la protection des libertés publiques, ses moyens financiers et humains sont structurellement dérisoires par rapport à l’ampleur de ses missions. Il faut dire que la conjoncture n’est guère favorable : la CNIL doit faire face à l’entrée en vigueur du RGPD en mai dernier, qui la met en première ligne. Nos interlocuteurs ont d'ailleurs commencé la discussion en pointant leur manque de moyens, comme pour s’excuser par avance de leur relative inaction. On nous a fait comprendre que les personnes que nous avions en face sont en réalité les seules parmi un staff d’environ 200 personnes à plancher sur ces sujets de Safe City. Et encore, seulement de loin, en plus de leurs autres missions touchant aux fichiers régaliens… Le projet de budget 2019 envisage bien une augmentation de ses ressources de +4,8 % (+ 860 000 euros), mais cela est largement insuffisant pour palier aux besoins.

Il y a une seconde explication plus générale à l’impuissance de la CNIL : celle-ci est sciemment organisée par les pouvoirs exécutifs et législatifs. L'attentisme actuel apparaît en effet comme le point d’orgue d’une tendance à l’œuvre depuis les années 1980, qui a vu les pouvoirs de la commission progressivement rognés s’agissant de la surveillance d’État. Alors que ses responsables aiment à rappeler le « mythe fondateur » du scandale SAFARI – provoqué en 1974 par le projet d’une interconnexion des fichiers informatiques de la police, des service fiscaux et sociaux –, la CNIL n’a cesse depuis de perdre du terrain sur ces questions.

Ainsi, en 1991, l’État choisit de créer une nouvelle autorité (la CNCIS) plutôt que de lui permettre de contrôler la surveillance des communications par les services de renseignement. En 2004, on lui ôte le pouvoir de s’opposer à la création de fichiers policiers, en rendant son avis sur les projets de décrets afférents purement consultatif. Enfin, depuis presque vingt ans, on met à sa tête des gens proches des hautes sphères administratives ou politiques, comme une manière de garantir sa relative docilité vis-à-vis de l’État dans des dossiers clés.

Dans ce contexte délétère, la CNIL en est réduite à appeler à un grand « débat démocratique », tout en reconnaissant les graves menaces que font peser ces systèmes pour les droits et libertés. Ce qu'elle a fait le 19 septembre dernier. On lit dans son communiqué publié ce jour-là :

Ces dispositifs, qui s’articulent parfois avec des technologies de big data, soulèvent des enjeux importants pour les droits et libertés individuelles des citoyens. Le sentiment de surveillance renforcée, l’exploitation accrue et potentiellement à grande échelle de données personnelles, pour certaines sensibles (données biométriques), la restriction de la liberté d’aller et de venir anonymement, sont autant de problématiques essentielles pour le bon fonctionnement de notre société démocratique.
Il est aujourd’hui impératif que des garde-fous soient prévus afin d’encadrer les finalités pour lesquelles ces dispositifs peuvent être déployés et prévenir tout mésusage des données traitées par leur biais (…).
Aussi, la CNIL appelle d’urgence à un débat démocratique sur cette problématique, et à ce que le législateur puis le pouvoir réglementaire se saisissent de ces questions afin que soient définis les encadrements appropriés, en recherchant le juste équilibre entre les impératifs de sécurisation, notamment des espaces publics, et la préservation des droits et libertés de chacun4.

Un appel de pure forme, qui finira sans aucun doute par être entendu par les ministères de l'intérieur et de la justice. Le gouvernement a en effet affirmé au printemps vouloir réviser la loi renseignement en 2020. Il lui faudra de toute façon légaliser tout un tas d’usages sécuritaires de l’informatique expérimentés ces derniers temps dans la plus grande illégalité (coucou Palantir à la DGSI, coucou le fichier TES et sa myriade d'usages potentiels qu'on voudra bientôt légaliser, etc.). Au train où vont les lois sécuritaires, et vu que les marchands de peur sont récemment passés ceinture marron dans l'art de pourrir le débat sur ces questions, ils accueillent sans doute l'appel de la CNIL avec sérénité.

Au minimum, la CNIL devrait imposer un moratoire sur les expérimentations en cours : exiger leur arrêt tant qu'elles ne sont pas précisément autorisées et encadrées par la loi. Sa position attentiste la rend complice.

  • 1.

  • 2. Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut ».
  • 3. C'est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.
  • 4. https://www.cnil.fr/fr/la-cnil-appelle-la-tenue-dun-debat-democratique-sur-les-nouveaux-usages-des-cameras-video
]]>
Smart Cities sécuritaires : la CNIL forfait ?https://www.laquadrature.net/?p=11957http://streisand.me.thican.net/laquadrature.net/index.php?20181106_122527_Smart_Cities_securitaires____la_CNIL_forfait___Tue, 06 Nov 2018 11:25:27 +0000Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big Data. Il y a quelques semaines, nous rencontrions la CNIL pour discuter de ces enjeux. Résumé des épisodes précédents, et de cette rencontre pas franchement enthousiasmante.

En France, lorsqu’on évoque la police prédictive et les usages policier du Big Data, il est souvent question de l’entreprise américaine Palantir. Celle-ci agit comme une sorte de chiffon rouge : les usages policiers de ses plateformes logicielles aux États-Unis ont en effet de quoi faire froid dans le dos, et le contrat passé fin 2016 entre la firme et les services de renseignement intérieur français, la DGSI, suscite des inquiétudes légitimes. Mais à trop se focaliser sur Palantir – qui endosse à merveille le rôle de la « méchante boîte américaine » –, on risque d’oublier un peu vite qu’en France aussi, plusieurs multinationales comme Thalès, Atos Bull ou Engie se positionnent sur ces marchés sécuritaires en plein essor.

La Safe City « made in France »

Alors que le sujet était jusqu’alors largement passé sous nos radars, cela fait quelques mois que nous avons commencé à suivre ces projets, baptisés « Safe City ©» par leurs concepteurs (ou comment basculer sans rougir de la Smart City à la « ville sécurisée »).

À Marseille puis à Nice, nous avons commencé à documenter les premiers partenariats public-privé en la matière, qui pullulent actuellement sur le territoire. Au travers de ces marchés publics, on voit des multinationales françaises s’allier avec des élus municipaux peu scrupuleux pour mettre la puissance du Big Data et de l’intelligence artificielle au service de leurs polices municipales (dans les applications envisagées : analyses prédictives, repérage des comportements suspects à travers l’analyse automatique de la vidéosurveillance, surveillance des réseaux sociaux, etc). Ces partenariats soutenus par l’Union européenne ou la Banque publique d’investissement permettent à ces consortiums mêlant grands industriels, « start-ups » et instituts de recherche (comme l’INRIA) de faire financer leur recherche et développement de solutions sécuritaires par le contribuable.

L’une des choses qui frappe lorsqu’on regarde les documents relatifs à ces expérimentations, c’est la créativité dont font preuve les rédacteurs pour minimiser les enjeux en termes de libertés publiques, sans jamais vraiment réussir à convaincre. Surtout, ne pas appeler un chat un chat, et caser les mots à la mode du moment qui permettront de rassurer et de « faire moderne ». C’est ce que relevait récemment la section locale de Ligue des droits de l’Homme à Nice :

Le marketing de la sécurité (de la peur ?), utilise volontiers quelques mots clés qui reviennent constamment en boucle : #intelligent, #temps réel ; on y rencontre aussi des #infaillible aux allures jupitériennes, destinés à clouer le bec de tout contradicteur.

Pour ce qui est de la vie privée, les rédacteurs se contentent d’une vague mention du « RGPD » ou de la « Loi informatique et libertés ». Inutile de vraiment plancher sur une analyse juridique qui démonterait que ces projets sont tout simplement illégaux…

On a rencontré la CNIL (et c’est triste)

Il y a quelques semaines, après la réponse que nous a faite la présidente de la CNIL à un courrier de janvier 2018, nous avons rencontré ses services pour en savoir plus sur la manière dont ils suivaient (ou pas) ces dossiers. Côté Quadrature, nous étions trois. En face de nous, il y avait Jean Lessi, conseiller d’État et secrétaire général de la CNIL, et trois autres personnes travaillant de loin sur ces sujets de « Safe City » au titre de leurs attributions. L’échange a été cordial. Nous avons rencontré des gens aimables, prenant au sérieux nos inquiétudes. Et pourtant, notre discussion a débouché sur un constat particulièrement amer quant à la capacité de la CNIL à être à la hauteur des enjeux.

Aucune analyse juridique détaillée

Le premier constat, c’est que la CNIL n’a en réalité pas de politique détaillée sur les Safe Cities. En 2014 déjà, elle échangeait avec le ministère de l’Intérieur sur des expérimentation locales de dispositifs statistiques à visée de police prédictive (sans même le Big Data à l’époque). L’an dernier, la CNIL publiait une étude prospective tout-à-fait lucide sur les enjeux de la Smart City pour les libertés publiques. Mais aujourd’hui, celle-ci ne dispose encore d’aucune analyse juridique qui puisse faire autorité sur la légalité des expérimentations projetées.

Comme le montrait le courrier envoyé par la présidente de la CNIL au maire de Marseille, la CNIL se borne pour l’heure à appeler au respect de garanties procédurales, avec notamment la nécessaire étude d’impact (la mairie en aurait promis une pour cet hiver…) et un « accompagnement obligatoire » à l’issue des expérimentations (prévu pour les « nouvelles technologies » par l’article 70-4 de la loi informatique et liberté modifiée).

Les analyses juridiques qui fleurissent au Conseil de l’Europe ou ailleurs1

  • Conseil de l’Europe. (2018). Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data (Consultative committee of the Convention for the protection of individuals with regard to automatic processing of personal data No. T-PD(2018)01). https://rm.coe.int/practical-guide-use-of-personal-data-in-the-police-sector/1680789a74
  • Conseil de l’Europe. (2018). Algorithms and Human Rights: Study on the human rights dimensions of automated data processing techniques and possible regulatory implications. Strasbourg. https://www.coe.int/en/web/human-rights-rule-of-law/-/algorithms-and-human-rights-a-new-study-has-been-published
  • Commission des libertés civiles, de la justice et des affaires intérieures, Parlement européen. (2017). Rapport sur les incidences des mégadonnées pour les droits fondamentaux: respect de la vie privée, protection des données, non-discrimination, sécurité et application de la loi (No. A8- 0044/2017). Retrieved from http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0044+0+DOC+XML+V0//FR

, et qui tentent de construire une réflexion pratique sur les liens entre Big Data, Intelligence Artificielle et droits de l’Homme, semblent la laisser de marbre.

Dans le silence de la loi, tout et n’importe quoi

Lorsqu’on demande à nos interlocuteurs pourquoi ils ne demandent tout simplement pas l’arrêt de ces expérimentations, comme il fut fait au printemps s’agissant de l’application Reporty à Nice (décision dont nous avons eu communication : la voici), on nous explique qu’à l’inverse de Reporty, la loi ne dit rien de spécifique sur la Safe City, et que les mairies peuvent donc faire peu ou prou ce qu’elles veulent2Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut »..

Nous répondons que, justement, c’est parce que la loi ne dit rien non plus de l’utilisation du Big Data à des fins policières, de la surveillance des réseaux sociaux et de toutes ces choses évoquées dans les projets d’expérimentation « Safe City », que ces derniers sont clairement illégaux3C’est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.. C’est justement pour cela qu’ils mériteraient l’opposition ferme et résolue de la CNIL.

Silence gêné. On en déduit, que sous couvert d’expérimentations, tout ou presque est permis. La CNIL semble ici adhérer au rapport du député Cédric Villani sur l’intelligence artificielle, qui revendiquait de s’affranchir de la loi pour expérimenter les usages de l’IA à des fins de surveillance (visant sans le nommer le partenariat Palantir-DGSI). Dans la Startuffe Nation, il te suffit de parler d’« expérimentation » et d’« innovation smart », de méthodes « lean » en lien avec « l’écosystème startup », et ça te vaut un sauf-conduit pour faire tout et n’importe quoi.

La CNIL résignée face au discours sécuritaire

Bref. On continue donc la discussion, et nos interlocuteurs de la CNIL continuent de se défiler en nous disant en substance ceci : « Même si les projets d’expérimentation font peur sur le papier, il faut bien faire la différence entre le discours marketing des projets d’expérimentation (qui surenchérit dans la dystopie orwelienne) et l’étape de la mise en œuvre (qui s’avérera décevante et bien plus limitée que ce qui est projeté au départ) ».

Alors oui, on peut être d’accord sur le fait que ces expérimentations ne tiendront pas leurs promesses dans les délais impartis. Pour autant, cette position de la CNIL qui tend à minimiser la portée de ces projets oublie deux choses. La première, c’est que les discours marketing participent déjà de la banalisation des systèmes de surveillance. Et ce d’autant plus qu’ils sont repris par les élus qui, tout en masquant les dangers de la Safe City, tentent d’en faire un atout électoral. Le marketing de la surveillance impose partout la société de surveillance, et ce devrait être le rôle de la CNIL que d’utiliser les moyens à sa disposition pour aider à déconstruire ces discours (et tant pis si cela suscite l’ire des élus locaux).

Surtout, vu le rythme auquel croît l’informatique de contrôle (Big Data, IA & co), il est clair que ces systèmes de surveillance verront le jour. À force de balancer des millions d’euros pour les financer, la technocratie nous enfoncera encore un peu plus dans la dystopie orwellienne. De fait, ces outils existent déjà en Chine et, dans une moindre mesure, aux États-Unis et au Royaume-Uni. L’un des buts de ces expérimentations n’est-il pas justement de permettre aux industriels français de rattraper au plus vite leur retard sur la concurrence étrangère ?

Un appel au débat qui ne mange pas de pain

Au fond, si la CNIL botte en touche sur ces sujets ô combien importants, c’est qu’elle accepte d’être condamnée à l’impuissance.

À l’image d’autres autorités de contrôle dévolues à la protection des libertés publiques, ses moyens financiers et humains sont structurellement dérisoires par rapport à l’ampleur de ses missions. Il faut dire que la conjoncture n’est guère favorable : la CNIL doit faire face à l’entrée en vigueur du RGPD en mai dernier, qui la met en première ligne. Nos interlocuteurs ont d’ailleurs commencé la discussion en pointant leur manque de moyens, comme pour s’excuser par avance de leur relative inaction. On nous a fait comprendre que les personnes que nous avions en face sont en réalité les seules parmi un staff d’environ 200 personnes à plancher sur ces sujets de Safe City. Et encore, seulement de loin, en plus de leurs autres missions touchant aux fichiers régaliens… Le projet de budget 2019 envisage bien une augmentation de ses ressources de +4,8 % (+ 860 000 euros), mais cela est largement insuffisant pour palier aux besoins.

Il y a une seconde explication plus générale à l’impuissance de la CNIL : celle-ci est sciemment organisée par les pouvoirs exécutifs et législatifs. L’attentisme actuel apparaît en effet comme le point d’orgue d’une tendance à l’œuvre depuis les années 1980, qui a vu les pouvoirs de la commission progressivement rognés s’agissant de la surveillance d’État. Alors que ses responsables aiment à rappeler le « mythe fondateur » du scandale SAFARI – provoqué en 1974 par le projet d’une interconnexion des fichiers informatiques de la police, des service fiscaux et sociaux –, la CNIL n’a cesse depuis de perdre du terrain sur ces questions.

Ainsi, en 1991, l’État choisit de créer une nouvelle autorité (la CNCIS) plutôt que de lui permettre de contrôler la surveillance des communications par les services de renseignement. En 2004, on lui ôte le pouvoir de s’opposer à la création de fichiers policiers, en rendant son avis sur les projets de décrets afférents purement consultatif. Enfin, depuis presque vingt ans, on met à sa tête des gens proches des hautes sphères administratives ou politiques, comme une manière de garantir sa relative docilité vis-à-vis de l’État dans des dossiers clés.

Dans ce contexte délétère, la CNIL en est réduite à appeler à un grand « débat démocratique », tout en reconnaissant les graves menaces que font peser ces systèmes pour les droits et libertés. Ce qu’elle a fait le 19 septembre dernier. On lit dans son communiqué publié ce jour-là :

Ces dispositifs, qui s’articulent parfois avec des technologies de big data, soulèvent des enjeux importants pour les droits et libertés individuelles des citoyens. Le sentiment de surveillance renforcée, l’exploitation accrue et potentiellement à grande échelle de données personnelles, pour certaines sensibles (données biométriques), la restriction de la liberté d’aller et de venir anonymement, sont autant de problématiques essentielles pour le bon fonctionnement de notre société démocratique.
Il est aujourd’hui impératif que des garde-fous soient prévus afin d’encadrer les finalités pour lesquelles ces dispositifs peuvent être déployés et prévenir tout mésusage des données traitées par leur biais (…).
Aussi, la CNIL appelle d’urgence à un débat démocratique sur cette problématique, et à ce que le législateur puis le pouvoir réglementaire se saisissent de ces questions afin que soient définis les encadrements appropriés, en recherchant le juste équilibre entre les impératifs de sécurisation, notamment des espaces publics, et la préservation des droits et libertés de chacun4https://www.cnil.fr/fr/la-cnil-appelle-la-tenue-dun-debat-democratique-sur-les-nouveaux-usages-des-cameras-video.

Un appel de pure forme, qui finira sans aucun doute par être entendu par les ministères de l’intérieur et de la justice. Le gouvernement a en effet affirmé au printemps vouloir réviser la loi renseignement en 2020. Il lui faudra de toute façon légaliser tout un tas d’usages sécuritaires de l’informatique expérimentés ces derniers temps dans la plus grande illégalité (coucou Palantir à la DGSI, coucou le fichier TES et sa myriade d’usages potentiels qu’on voudra bientôt légaliser, etc.). Au train où vont les lois sécuritaires, et vu que les marchands de peur sont récemment passés ceinture marron dans l’art de pourrir le débat sur ces questions, ils accueillent sans doute l’appel de la CNIL avec sérénité.

Au minimum, la CNIL devrait imposer un moratoire sur les expérimentations en cours : exiger leur arrêt tant qu’elles ne sont pas précisément autorisées et encadrées par la loi. Sa position attentiste la rend complice.

References   [ + ]

1.

  • Conseil de l’Europe. (2018). Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data (Consultative committee of the Convention for the protection of individuals with regard to automatic processing of personal data No. T-PD(2018)01). https://rm.coe.int/practical-guide-use-of-personal-data-in-the-police-sector/1680789a74
  • Conseil de l’Europe. (2018). Algorithms and Human Rights: Study on the human rights dimensions of automated data processing techniques and possible regulatory implications. Strasbourg. https://www.coe.int/en/web/human-rights-rule-of-law/-/algorithms-and-human-rights-a-new-study-has-been-published
  • Commission des libertés civiles, de la justice et des affaires intérieures, Parlement européen. (2017). Rapport sur les incidences des mégadonnées pour les droits fondamentaux: respect de la vie privée, protection des données, non-discrimination, sécurité et application de la loi (No. A8- 0044/2017). Retrieved from http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0044+0+DOC+XML+V0//FR

2. Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut ».
3. C’est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.
4. https://www.cnil.fr/fr/la-cnil-appelle-la-tenue-dun-debat-democratique-sur-les-nouveaux-usages-des-cameras-video
]]>
En Espagne, les réseaux télécoms citoyens entravés par des pratiques clientélisteshttps://www.laquadrature.net/?p=11955http://streisand.me.thican.net/laquadrature.net/index.php?20181029_124110_En_Espagne__les_reseaux_telecoms_citoyens_entraves_par_des_pratiques_clientelistesMon, 29 Oct 2018 11:41:10 +0000En 2014, la Commission européenne publiait un rapport présentant les résultats d’une consultation d’entreprises, dans 28 pays de l’Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le plus corrompu après celui du BTP.

Alors que les télécoms sont dominés par des oligopoles au niveau national, les formes et les effets de cette corruption sont multiples. Sur le terrain, les initiatives citoyennes qui cherchent à se réapproprier les infrastructures télécom font en tous cas fréquemment l’expérience de ce qui s’apparente à des pratiques quasi-mafieuses.

C’est pour dénoncer cette situation qu’en Espagne, la fondation Guifi.net – qui travaille à la construction de réseaux télécoms gérés comme biens communs, par et pour des communautés locales – vient de déposer une plainte auprès de la Médiatrice européenne. Depuis des années, Guifi.net constate que le déploiement de ses réseaux libres est entravé par la non-coopération d’entreprises ou d’autorités publiques qui refusent de donner droit à ses demandes d’accès aux infrastructures existantes (réseaux télécoms, ferroviaires, électriques), grâce auxquelles elle entend déployer ses fourreaux de fibre optique et ainsi étendre son réseau. Ses recours en justice ou ses saisine du régulateur des télécoms, la CNMC, sont restés sans véritables effets.

Ces pratiques d’obstruction – contraires au droit européen et pourtant impunies – provoquent des retards, des surcoûts, et des formes de concurrence déloyales. Leur caractère systémique montrent à quel point les politiques publiques font obstacle à la maîtrise citoyenne des réseaux télécoms et, in fine, à la décentralisation d’Internet. Par solidarité avec Guifi.net et parce que, partout en Europe, les réseaux télécoms libres et citoyens font face à des problématiques similaires (voir en France le récent appel de la Fédération FDN à l’Arcep), nous republions ci-dessous le communiqué de Guifi.net, et leur exprimons notre soutien.

Guifi.net dénonce les manquements au droit européen de la concurrence et des télécommunications

Barcelone, le vendredi 26 octobre

La fondation guifi.net dépose une plainte au Médiateur Européen, appelant la Commission Européenne à agir contre les mauvaises pratiques dans les États membres et à garantir le respect des textes européens en matière de télécommunications et de droit de la concurrence.

Ce vendredi 26 octobre, la fondation guifi.net a déposé sa plainte au siège de la Commission européenne à Barcelone. Elle décrit les situations de conflit d’intérêts économiques, les mauvaises pratiques ainsi que les barrières à l’entrée qui s’exercent à tous les niveaux en Espagne.

La décision de déposer cette plainte est motivée par la violation continue et systématique du droit européen des télécommunications et du droit de la concurrence, et plus précisément du décret espagnol RD 330/2016 du 9 septembre relatif à la réduction du coût du déploiement des réseaux de télécommunications électroniques à haut débit, qui transpose la directive 2014/61/UE du Parlement européen. Ce décret permet aux opérateurs de réseaux de communications ouverts au public d’accéder aux infrastructures physiques existantes, et ce peu importe leur localisation.

Les mauvaises actions, ainsi que l’absence d’action dans certains cas, sont commises à la fois par des entreprises privées ainsi qu’à tous les niveaux de l’administration et dans différents territoires de compétence. Cela mène à une impasse (blocus mutuel) rendant irréalisables les projets de réseaux en commun de guifi.net — à travers une infrastructure dont le principal objectif est d’atteindre l’ensemble du territoire pour relier tous les ménages, mettant ainsi fin à la fracture numérique.

La fondation guifi.net est un organisme à but non lucratif et d’intérêt général qui défend l’accès à Internet en tant que droit humain (reconnu par les Nations Unies en 2011) et qui travaille à la promotion d’un réseau de télécommunication en coopération, ouvert, libre et neutre, sur le modèle d’un bien commun.

]]>
En Espagne, les réseaux télécoms citoyens entravés par des pratiques clientélistes10657 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181029_114148_En_Espagne__les_reseaux_telecoms_citoyens_entraves_par_des_pratiques_clientelistesMon, 29 Oct 2018 10:41:48 +000029 octobre 2018

En 2014, la Commission européenne publiait un rapport présentant les résultats d'une consultation d'entreprises, dans 28 pays de l'Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le plus corrompu après celui du BTP.

Alors que les télécoms sont dominés par des oligopoles au niveau national, les formes et les effets de cette corruption sont multiples. Sur le terrain, les initiatives citoyennes qui cherchent à se réapproprier les infrastructures télécom font en tous cas fréquemment l'expérience de ce qui s'apparente à des pratiques quasi-mafieuses.

C'est pour dénoncer cette situation qu'en Espagne, la fondation Guifi.net - qui travaille à la construction de réseaux télécoms gérés comme biens communs, par et pour des communautés locales - vient de déposer une plainte auprès de la Médiatrice européenne. Depuis des années, Guifi.net constate que le déploiement de ses réseaux libres est entravé par la non-coopération d'entreprises ou d'autorités publiques qui refusent de donner droit à ses demandes d'accès aux infrastructures existantes (réseaux télécoms, ferroviaires, électriques), grâce auxquelles elle entend déployer ses fourreaux de fibre optique et ainsi étendre son réseau. Ses recours en justice ou ses saisine du régulateur des télécoms, la CNMC, sont restés sans véritables effets.

Ces pratiques d'obstruction - contraires au droit européen et pourtant impunies - provoquent des retards, des surcoûts, et des formes de concurrence déloyales. Leur caractère systémique montrent à quel point les politiques publiques font obstacle à la maîtrise citoyenne des réseaux télécoms et, in fine, à la décentralisation d'Internet. Par solidarité avec Guifi.net et parce que, partout en Europe, les réseaux télécoms libres et citoyens font face à des problématiques similaires (voir en France le récent appel de la Fédération FDN à l'Arcep), nous republions ci-dessous le communiqué de Guifi.net, et leur exprimons notre soutien.

Guifi.net dénonce les manquements au droit européen de la concurrence et des télécommunications

Barcelone, le vendredi 26 octobre

La fondation guifi.net dépose une plainte au Médiateur Européen, appelant la Commission Européenne à agir contre les mauvaises pratiques dans les États membres et à garantir le respect des textes européens en matière de télécommunications et de droit de la concurrence.

Ce vendredi 26 octobre, la fondation guifi.net a déposé sa plainte au siège de la Commission européenne à Barcelone. Elle décrit les situations de conflit d’intérêts économiques, les mauvaises pratiques ainsi que les barrières à l'entrée qui s'exercent à tous les niveaux en Espagne.

La décision de déposer cette plainte est motivée par la violation continue et systématique du droit européen des télécommunications et du droit de la concurrence, et plus précisément du décret espagnol RD 330/2016 du 9 septembre relatif à la réduction du coût du déploiement des réseaux de télécommunications électroniques à haut débit, qui transpose la directive 2014/61/UE du Parlement européen. Ce décret permet aux opérateurs de réseaux de communications ouverts au public d'accéder aux infrastructures physiques existantes, et ce peu importe leur localisation.

Les mauvaises actions, ainsi que l'absence d'action dans certains cas, sont commises à la fois par des entreprises privées ainsi qu'à tous les niveaux de l'administration et dans différents territoires de compétence. Cela mène à une impasse (blocus mutuel) rendant irréalisables les projets de réseaux en commun de guifi.net -- à travers une infrastructure dont le principal objectif est d’atteindre l’ensemble du territoire pour relier tous les ménages, mettant ainsi fin à la fracture numérique.

La fondation guifi.net est un organisme à but non lucratif et d'intérêt général qui défend l'accès à Internet en tant que droit humain (reconnu par les Nations Unies en 2011) et qui travaille à la promotion d'un réseau de télécommunication en coopération, ouvert, libre et neutre, sur le modèle d'un bien commun.

]]>
29 octobre 2018

En 2014, la Commission européenne publiait un rapport présentant les résultats d'une consultation d'entreprises, dans 28 pays de l'Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le plus corrompu après celui du BTP.

Alors que les télécoms sont dominés par des oligopoles au niveau national, les formes et les effets de cette corruption sont multiples. Sur le terrain, les initiatives citoyennes qui cherchent à se réapproprier les infrastructures télécom font en tous cas fréquemment l'expérience de ce qui s'apparente à des pratiques quasi-mafieuses.

C'est pour dénoncer cette situation qu'en Espagne, la fondation Guifi.net - qui travaille à la construction de réseaux télécoms gérés comme biens communs, par et pour des communautés locales - vient de déposer une plainte auprès de la Médiatrice européenne. Depuis des années, Guifi.net constate que le déploiement de ses réseaux libres est entravé par la non-coopération d'entreprises ou d'autorités publiques qui refusent de donner droit à ses demandes d'accès aux infrastructures existantes (réseaux télécoms, ferroviaires, électriques), grâce auxquelles elle entend déployer ses fourreaux de fibre optique et ainsi étendre son réseau. Ses recours en justice ou ses saisine du régulateur des télécoms, la CNMC, sont restés sans véritables effets.

Ces pratiques d'obstruction - contraires au droit européen et pourtant impunies - provoquent des retards, des surcoûts, et des formes de concurrence déloyales. Leur caractère systémique montrent à quel point les politiques publiques font obstacle à la maîtrise citoyenne des réseaux télécoms et, in fine, à la décentralisation d'Internet. Par solidarité avec Guifi.net et parce que, partout en Europe, les réseaux télécoms libres et citoyens font face à des problématiques similaires (voir en France le récent appel de la Fédération FDN à l'Arcep), nous republions ci-dessous le communiqué de Guifi.net, et leur exprimons notre soutien.

Guifi.net dénonce les manquements au droit européen de la concurrence et des télécommunications

Barcelone, le vendredi 26 octobre

La fondation guifi.net dépose une plainte au Médiateur Européen, appelant la Commission Européenne à agir contre les mauvaises pratiques dans les États membres et à garantir le respect des textes européens en matière de télécommunications et de droit de la concurrence.

Ce vendredi 26 octobre, la fondation guifi.net a déposé sa plainte au siège de la Commission européenne à Barcelone. Elle décrit les situations de conflit d’intérêts économiques, les mauvaises pratiques ainsi que les barrières à l'entrée qui s'exercent à tous les niveaux en Espagne.

La décision de déposer cette plainte est motivée par la violation continue et systématique du droit européen des télécommunications et du droit de la concurrence, et plus précisément du décret espagnol RD 330/2016 du 9 septembre relatif à la réduction du coût du déploiement des réseaux de télécommunications électroniques à haut débit, qui transpose la directive 2014/61/UE du Parlement européen. Ce décret permet aux opérateurs de réseaux de communications ouverts au public d'accéder aux infrastructures physiques existantes, et ce peu importe leur localisation.

Les mauvaises actions, ainsi que l'absence d'action dans certains cas, sont commises à la fois par des entreprises privées ainsi qu'à tous les niveaux de l'administration et dans différents territoires de compétence. Cela mène à une impasse (blocus mutuel) rendant irréalisables les projets de réseaux en commun de guifi.net -- à travers une infrastructure dont le principal objectif est d’atteindre l’ensemble du territoire pour relier tous les ménages, mettant ainsi fin à la fracture numérique.

La fondation guifi.net est un organisme à but non lucratif et d'intérêt général qui défend l'accès à Internet en tant que droit humain (reconnu par les Nations Unies en 2011) et qui travaille à la promotion d'un réseau de télécommunication en coopération, ouvert, libre et neutre, sur le modèle d'un bien commun.

]]>
[LeMonde] Le contrôle des données numériques personnelles est un enjeu de liberté collectivehttp://streisand.me.thican.net/laquadrature.net/index.php?20181025_160000__LeMonde__Le_controle_des_donnees_numeriques_personnelles_est_un_enjeu_de_liberte_collectiveThu, 25 Oct 2018 14:00:00 +0000[LeMonde] Le contrôle des données numériques personnelles est un enjeu de liberté collective

Les révélations des failles de sécurité touchant des services en ligne s’accumulent. Et la collecte de nos données fait peser un risque collectif d’envergure. […]

Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective. […]

Les algorithmes enserrent nos vies : ils nous disent quoi acheter, où partir en vacances, qui rencontrer, quel article de presse lire, comment nous déplacer, décident ce que nous pouvons écrire. Cette trame nouée autour de nos vies est tissée de nos données personnelles. Pas seulement des nôtres, individu connecté, mais de toutes les autres : les algorithmes ne fonctionnent qu’assis sur des masses de données. C’est la somme, l’agrégat et la combinaison des données à l’échelle de milliers, voire de millions d’êtres humains, qui font leur puissance. […]

https://www.lemonde.fr/pixels/article/2018/10/19/le-controle-des-donnees-numeriques-personnelles-est-un-enjeu-de-liberte-collective_5371789_4408996.html

]]>
[Mediapart] La régulation des Gafam, un chantier débattu des deux côtés de l’Atlantiquehttp://streisand.me.thican.net/laquadrature.net/index.php?20181025_150000__Mediapart__La_regulation_des_Gafam__un_chantier_debattu_des_deux_cotes_de_l___AtlantiqueThu, 25 Oct 2018 13:00:00 +0000[Mediapart] La régulation des Gafam, un chantier débattu des deux côtés de l’Atlantique

[…] Si le RGPD promet la portabilité des données, c’est-à-dire le transfert de vos données d’un opérateur vers un autre (imaginez que vous vouliez changer de réseau social et réinstaller toute votre activité Facebook… ailleurs !), l’étape suivante pourrait être celle de l’interopérabilité. Des données stockées de telle sorte qu’elles puissent être utilisées où bon vous semble, quand bon vous semble : par exemple, écouter sa playlist sur n’importe quel service de streaming, ou utiliser ses adresses préférées dans n’importe quel GPS.

Un tel changement de paradigme pourrait permettre de casser ce que les économistes appellent “l’effet de réseau” – selon lequel la croissance d’un réseau s’auto-alimente, le réseau devenant de plus en plus intéressant au fur et à mesure que plus de monde s’y retrouve – et l’effet de “silo” ou d’écosystème – un possesseur d’iPhone achetant ses applis sur l’Apple Store et sauvegardant ses photos dans le cloud d’Apple. Un effet dont risque par exemple de souffrir le fabricant de GPS TomTom, après l’annonce par Renault-Nissan-Mitsubishi d’un partenariat avec la filiale d’Alphabet, qui leur permettra de proposer dans leurs systèmes de divertissement embarqué la navigation par Google Maps, l’accès aux applications automobiles de Google Play Store et la commande vocale via Google Assistant.

Pour Sébastien Soriano, interrogé par Alternatives économiques, casser les effets de réseau permettrait de « favoriser l’émergence de nouveaux entrants et de limiter les stratégies de silos des acteurs en place au profit de services plus interopérables et de données plus partagées. Ainsi les effets de réseaux ne seraient plus accaparés par quelques acteurs mais redistribués aux utilisateurs par le truchement de la concurrence » […].

https://www.mediapart.fr/journal/economie/161018/la-regulation-des-gafam-un-chantier-debattu-des-deux-cotes-de-l-atlantique?onglet=full

]]>
[01net] Fibre optique : les opérateurs associatifs interpellent Orange et le gendarme des télécomshttps://beta.grange.lqdn.fr/2018/10/24/01net-fibre-optique-les-operateurs-associatifs-interpellent-orange-et-le-gendarme-des-telecoms/http://streisand.me.thican.net/laquadrature.net/index.php?20181024_150000__01net__Fibre_optique_nbsp__les_operateurs_associatifs_interpellent_Orange_et_le_gendarme_des_telecomsWed, 24 Oct 2018 13:00:00 +0000[01net] Fibre optique : les opérateurs associatifs interpellent Orange et le gendarme des télécoms

Ces petites structures souhaiteraient proposer de la fibre optique à leurs adhérents. Mais pour cela, il faudrait qu’elles puissent louer les offres activées d’un opérateur comme c’est le cas pour l’ADSL.

Coincés. D’un côté, les opérateurs associatifs grands publics n’ont pas les moyens de déployer leur propre réseau FttH. Et de l’autre, il n’existe pas d’offre leur permettant de louer la fibre optique activée à un autre opérateur. C’est pourtant déjà le cas pour l’ADSL avec Orange, on appelle cela une offre « activée » ou « bitstream ».

Ces acteurs prennent aujourd’hui la plume pour exprimer leur mécontentement dans une lettre adressée au président de l’Arcep Sébastien Soriano et au patron d’Orange Stéphane Richard. Elle est signée par la Fédération FDN, la Fédération des fournisseurs d’accès Internet associatifs qui regroupe une trentaine d’associations sur tout le territoire comme FDN, Aquilenet ou Rézine. […]

https://www.01net.com/actualites/fibre-optique-les-operateurs-associatif…

]]>
Un tiers médiaire10646 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181016_144552_Un_tiers_mediaireTue, 16 Oct 2018 12:45:52 +000017 octobre 2018 - Pour avancer encore dans nos discussions sur le statut des hébergeurs et la régulation d'Internet, nous partageons aujourd'hui une tribune de Laurent Chemla, membre de La Quadrature du Net.

Avec les communiqués de La Quadrature du Net autour de la Directive Droit d'Auteur et les différentes réactions et tribunes qu'ils ont suscité, pas mal de choses ont été dites, critiquées, expliquées et décortiquées.

Quelques points pourtant sont restés à mon sens trop peu développés.

Mais, first thing first, je voudrais d'abord expliquer ma propre position sur le sujet du fameux « statut intermédiaire » entre éditeur et hébergeur, que La Quadrature a très finement choisi de nommer « afficheur ». Et pour ça je vais devoir vous raconter ma vie (comme d'habitude, oui).

Je te préviens c'est long et chiant. Tu peux retourner sur Twitter tout de suite.

C'était en 1997, je crois, que ce thème a été abordé pour la première fois. J'étais à l'époque vice-président d'un des ancêtres de LQDN : l'Association des Utilisateurs d'Internet (AUI). L'AUI avait, assez naïvement, déjà classé les intermédiaires techniques en trois catégories : FAI, FSI et FHI. Respectivement : fournisseur d'accès, de services, et d'hébergement. Le FAI a des obligations (couverture du territoire, neutralité), le FSI a des contrats (c'est un simple commerçant), et le FHI est transparent (il n'a aucun rôle éditorial et en contrepartie aucune responsabilité équivalente à ce que la loi de 1881 sur la Presse impose aux divers intermédiaires de la chaîne de responsabilité éditoriale).

La case « fournisseur de services » (puisque c'est surtout d'elle qu'il s'agit) était, à l'époque, pensée comme regroupant votre serveur de mail, votre vendeur de nom de domaine, ce genre de bidules techniques qui ne relève clairement ni de l'accès ni de l'hébergement proprement dit. Tout ce qui n'est ni fournisseur d'accès ni totalement transparent tombait dans ce statut.

Une autre façon de présenter les choses serait de définir l'accès comme la fourniture des droits fondamentaux à l'expression et à l'information, et l'hébergement comme le moyen de ces mêmes droits fondamentaux. Un peu comme un parallèle à l'enseignement de la lecture et à la Presse. Et ce qui ne relève ni de l'accès ni du moyen tombe dans le simple commerce.

Il peut sembler évident que, de ce point de vue, un intermédiaire qui - de facto - choisit ce qu'il diffuse ou non (parce qu'il hiérarchise les contenus de ses utilisateurs au point d'en faire disparaître certains, par exemple), n'étant pas « transparent », tombe dans cette case. En tous cas, à l'époque, ça semblait suffisamment évident à certains pour me démissionner de l'AUI au prétexte que je ne considérais pas que les choses étaient aussi simples.

Ma position (qui n'a que peu varié depuis) était que, d'une part, la totale déresponsabilisation des hébergeurs conduirait inévitablement à des services spécialisés dans la diffusion de la haine (« Mais oh la la c'est pas ma faute si tous les haineux m'ont choisi comme hébergeur M. le juge : je suis totalement transparent moi », toute ressemblance avec le 18-25 d'une certaine période étant fortuite), et que d'autre part en tant que petit hébergeur (j'étais petit hébergeur à cette époque) j'aurais bien du mal à dormir en sachant que mes machines servaient à diffuser de la haine sans que je n'y puisse rien (« transparence » oblige).

Forcément, ce type d'idée ne facilite pas les convictions tranchées, bien binaires comme il faut.

Pour me sortir de ce qui ressemblait à une contradiction (défendre la liberté d'expression mais rester quand même un citoyen « non transparent »), j'ai fini par développer une position, sinon intermédiaire, au moins un peu plus complexe que le « tout ou rien » : dans ma vision l'hébergeur était un « fournisseur de liberté d'expression », un statut spécial, une sorte de « reconnaissance d'utilité publique » si vous voulez.

En tant que tel il devenait irresponsable des contenus hébergés, MAIS il s'engageait à ne pas intervenir sur ces contenus SAUF à en répondre SYSTÉMATIQUEMENT devant la justice.

Si jamais je tombais sur un site négationniste parmi ceux que j'hébergeais, et que j'en coupais l'accès, je risquais d'être condamné pour ça, et ça m'allait très bien : de la même manière que j'engage ma responsabilité pénale si je cogne sur le type qui essaie de voler le sac d'une vieille dame dans la rue, je laissais à la justice - saisie automatiquement - la décision de dire si j'avais agi à raison ou non.

Pour résumer, j'avais développé un cadre contractuel en parallèle, que l'hébergeur se devait de respecter pour bénéficier de ce statut (mais je préfère rester hahaha bref).

C'est là que nos chers juristes m'ont expliqué que « c'est pas con mais c'est pas possible : y'a pas de qualification pénale pour censure abusive dans notre droit ».

What ?

Eh bah oui : si c'est l'État qui censure la Presse ou les Syndicats, il existe un article de loi pour porter plainte. Mais si c'est un commerçant qui censure un particulier, y'a pas. Et c'est logique, puisqu'à l'époque où ces textes ont été écrits, personne ne pensait qu'un jour le simple citoyen aurait accès à l'expression publique. Oui, ok, c'est un droit constitutionnel, carrément un « Droit de l'Homme » même, mais celui-là n'est pas protégé par la loi. Voilà.

Et il ne l'est toujours pas, 20 ans plus tard.

Bon j'avoue qu'à ce stade des débats les choses se sont un peu compliquées et que - je résume, je t'ai dit ! - je me suis fait démissionner de l'association pour cause d'hérésie. Et j'ai un peu lâché l'affaire.

Pendant 20 ans, ouais.

Retour au temps présent. Il ne t'aura pas échappé que ma vision du passé n'est pas exactement celle qui est aujourd'hui défendue par La Quadrature. Déjà parce que c'est pas moi qui décide de la position de La Quadrature. Mais surtout parce qu'Internet n'est pas TOUT À FAIT le même qu'il y a 20 ans : l'avènement du « Web 2.0 » a changé la nature de l'hébergement, en créant des services réunissant sur la même « page » les publications d'une foule de différents acteurs. Benjamin l'explique très bien dans sa tribune.

Mais ce qui compte, pour moi, et mon histoire passée l'explique sans doute, c'est qu'on débatte ENFIN de ça : oui, ok, bien sûr, il ne faut pas qu'un hébergeur soit responsable des contenus publiés par ses utilisateurs. Parce que s'il l'est, il sera obligé de sélectionner ces contenus. Et que donc - toutes choses étant égales par ailleurs - toute opinion un peu divergente de celle de ceux qui font la loi sera petit à petit supprimée de l'espace public. C'est comme ça.

MAIS - et c'est un PUTAIN DE GROS MAIS - il doit avoir, en contrepartie, un devoir de neutralité. Parce que s'il n'est pas responsable, alors en échange IL NE DOIT PAS CENSURER. Rien. Jamais. Sauf à en assumer la responsabilité. Et oui, je considère que trier les documents, si ça conduit à toujours rendre invisibles les mêmes, c'est encore de la censure.

Ça se discute ? Discutons-en.

Et oui, la Quadrature défend l'idée que - s'il fait le choix de censurer - alors il ne passe pas devant un tribunal pour ça (rappel : y'a pas de loi qui le permette) mais il perd sa qualité d'hébergeur et [re]devient un simple intermédiaire, qualifié d'afficheur pourquoi pas. Un FSI au sens antique de l'AUI. C'est son contrat qui prévaut dans ses rapports avec ses utilisateurs MAIS il perd - au moins en partie - son irresponsabilité totale.

Ça se discute ? Discutons-en.

Et oui, la Quadrature propose que ce statut intermédiaire « d'afficheur » ne s'applique qu'à certaines conditions (de taille, de position hégémonique, de pouvoir...) et DONC que certains puissent conserver le statut d'hébergeur tout en choisissant des règles de modération autres que strictement neutres.

Ça se discute ? Discutons-en.

Par exemple, je suis personnellement favorable à ce qu'une des conditions pour passer du statut d'hébergeur à celui d'afficheur soit le choix du modèle économique : le tien est basé sur l'exploitation commerciale des données personnelles de tes utilisateurs ? Ok, t'es afficheur, pas hébergeur.

Parce que oui, le modèle économique, ça compte aussi ! Parce que quand ton revenu dépend de la publicité, alors FORCÉMENT tu as intérêt à ne pas fâcher tes clients (les publicitaires, donc), et FORCÉMENT tu vas avoir envie de privilégier certains contenus à même de retenir l'attention de leurs cibles, et FORCÉMENT tu vas être poussé à ne pas mélanger leurs publicités à des contenus, disons, discutables.

Et donc, FORCÉMENT, tu n'es plus neutre (et si tu essaies quand même de l'être, ce qui est le cas de mes amis de Qwant par exemple, tu te retrouves à lutter contre la puissance économique de ceux qui - n'ayant pas plus d'obligations que toi tout en n'ayant pas la même éthique que toi - ont mille fois plus de clients potentiels que toi. Bon courage).

Accessoirement, je préfère aussi le rappeler, le modèle « publicité contre gratuité » nous conduit aussi irrémédiablement dans le mur de la minitelisation du Web que le modèle capitaliste nous conduit dans le mur de la disparition du vivant (je résume, je te l'ai déjà dit). Parce que pour vendre plus de pub - ou pour la vendre plus cher - tu vas devoir avoir plus d'utilisateurs, tout simplement. Ce qui conduit très logiquement à voir apparaître des géants hégémoniques et à la disparition, par asphyxie économique, des plus petits. Et donc à un pouvoir démesuré sur la liberté d'expression pour ceux qui restent. C'est le modèle qui veut ça.

Bref. Tout ça se discute. Alors discutons-en.

Sans anathème, de préférence : j'ai déjà vécu ça et ça ne m'a pas plu des masses.

On peut discuter. On doit discuter. J'ai mes limites, bien sûr : pour moi il n'existe pas de liberté sans responsabilité donc, pour moi, celui qui prend la liberté de censurer ce qui lui déplaît prend en partie la responsabilité de ce qu'il diffuse. C'est un principe, mais il se discute, il s'amende, il prend en compte la réalité. Sans insultes et sans parti-pris : si je n'entends pas d'arguments pour me faire changer d'avis, la discussion va vite s'arrêter là.

Bref.

J'ai pas fini.

Ne t'y trompes pas, ami lecteur masochiste qui a tenu jusque-là : même s'ils semblent aller dans mon sens, quand les pouvoirs en place votent l'article 13 de la directive Copyright, ou même le RGPD, ils ne sont pas mes amis. Du tout. Parce qu'ils favorisent ceux qu'ils disent combattre.

L'obligation de filtrage automatisé imposée par l'article 13 ne dérange EN RIEN les GAFAM : elle ne fait qu'avaliser une pratique déjà en place et VOULUE par ces mêmes GAFAM, puisque c'est à la base même de leur modèle économique (filtrer pour mieux attirer la cible des publicitaires et garantir un environnement « sain »). Son seul aspect positif (et encore : mon petit doigt m'a dit qu'on risquait gros pendant le trilogue en cours), c'est qu'il introduit une distinction entre hébergeur et intermédiaire pratiquant « l'optimisation des contenus », ce qui permet l'excellente chose (selon moi) que nous ayons ENFIN ce débat là.

C'est d'ailleurs ce que disent @Calimaq et La Quadrature quand ils rappellent qu'il est PLUTÔT BON que ces mastodontes ne bénéficient plus de l'exception totale de responsabilité des contenus. Et j'en suis bien d'accord. Mais ça s'arrête là !

Je me doute bien que ça ne fait pas très plaisir aux GAFAM de se retrouver avec une responsabilité potentielle, mais ne nous leurrons pas : tout ça n'est rien d'autre que la mise en place d'un rapport de forces entre l'UE et Google/Facebook et al. pour que la première puisse mieux négocier ensuite avec les seconds le type de filtrage qu'il faudra mettre en place.

L'UE a intériorisé le fait que presque rien n'existe qui ne passe par la poignée de « géants du Net » et que c'est donc là, et nulle part ailleurs, que le pouvoir peut s'exercer. L'Internet décentralisé, tel que « nous » le souhaitons, n'est pas contrôlable. L'Internet des GAFAM l'est, et c'est exactement ce que souhaitent les États, ne soyons pas naïfs. Google, selon cette étude est le plus grand bénéficiaire du RGPD. Probablement pas par hasard.

Pour prendre l'exemple français : imposer l'exception culturelle telle que voulue par nos très chers ayant-tous-les-droits nécessite que les contenus soient « optimisés » pour afficher un certain pourcentage « d’œuvres » françaises. Permettre à une nouvelle HADOPI d'empêcher efficacement le streaming illicite des évènements sportifs suppose que le nombre de services de streaming soit limité à quelques géants. Montrer ses muscles avant les prochaines élections européennes - pour tenter d'éviter qu'une certaine droite ne remporte trop de sièges - nécessite qu'on impose (très bientôt) la censure « en moins d'une heure » des contenus terroristes. Ce que seuls quelques géants ont la capacité de faire.

Les autres, non seulement « les petits » mais aussi tous ceux qui n'ont pas la censure pour modèle économique, risquent de se retrouver de facto hors la loi et de disparaître ? Oui, et c'est pas pire, pour un pouvoir qui souhaite le retour à un réseau hypercentralisé qu'il pourra mieux contrôler.

Notre pays a l'habitude des réseaux très centralisés dans lesquels l'État dispose du pouvoir d'imposer ses volontés et d'empêcher tout ou partie de l'expression publique citoyenne. C'est nous qui avons inventé le Minitel. Cocorico.

Allez, encore un mot sur le RGPD et la centralisation et je te laisse retourner faire la sieste.

Le RGPD (et la loi Lemaire avant lui) a inventé un « droit à la portabilité des données ». Haha.

Tu sais : le truc qui va te permettre d'exporter tes données personnelles depuis Facebook vers... euh. Ah. Merde.

Ah si : tu vas pouvoir exporter tes contacts et ta mailbox Gmail chez un autre fournisseur d'email. Oui, tu pouvais déjà, mais maintenant c'est un droit ! Donc c'est cool. Wait.

Il y a plus d'un milliard d'utilisateurs de Gmail, largement contraints souvent parce qu'il faut une adresse Gmail pour activer un téléphone Android. Google s'en fiche bien si quelques dizaines de millions vont voir ailleurs : ceux-là continueront forcément à échanger avec la très grande majorité qui sera restée. Et donc à fournir des données à Google. Or c'est de données que se nourrit Google, pas d'utilisateurs. Google s'en cogne, que tu « portes tes données » ailleurs, soyons sérieux.

Les GAFAM s'en cognent même tellement qu'ils sont en train de finaliser un joli logiciel libre qui va permettre à tout le monde de porter ses données personnelles chez un autre géant que le géant précédent.

TROP BIEN.

Pendant ce temps Facebook empêche les clients tiers d’accéder à tes messages persos et Twitter change son API pour limiter la possibilité d'afficher des flux sans publicité. Tu peux porter des données ailleurs, ça ils s'en foutent (et d'ailleurs, où ?), mais tu dois garder ton attention sur ce qui compte vraiment : la pub. Et la pub ne s'affiche que si tu restes dans l'écosystème hégémonique qu'elle impose au Web et qui arrange bien nos gouvernements.

C'est pour ça que la position de la Quadrature sur la décentralisation est FONDAMENTALE. C'est pour ça qu'en affirmant qu'on peut s'appuyer sur l'article 13 pour développer des services décentralisés, la Quadrature est bien dans son rôle de protection des libertés.

C'est pour ça qu'il faut DÉFONCER cette notion de « droit à la portabilité des données » et la remplacer dans tous nos combats par un « droit à l'accessibilité des données ». Imposer que NOS données puissent être lues par NOUS avec l'outil qu'on choisit, quel qu'il soit, où que ces données soient stockées. Même si c'est chez Facebook.

Ça ne changera rien, ou pas grand chose, au modèle économique dominant, mais ça permettra à tous ceux qui souhaitent en sortir de le faire sans laisser leurs amis derrière eux. C'est, peu ou prou, le modèle d'ActivityPub, par exemple, mais nous devons étendre ce modèle à TOUTES nos données personnelles, y compris passées, pour que puisse se développer une autre économie du Web qui prenne en compte l'existant.

Je ne crois pas aux ruptures. Les humains sont beaucoup trop flemmards pour ça.

Imposer l'accès aux données personnelles c'est la garantie qu'un Internet décentralisé continuera à exister, même si c'est en parallèle de l'autre. Et tant pis. Et tant mieux, même : c'est justement parce que cette idée ne détruit pas le modèle économique des GAFAM qu'il a une (toute petite) chance d'être soutenu par le politique. Restons pragmatiques. On démolira l'existant seulement quand on aura construit le remplaçant.

Et je ne dis pas ça parce que j'en ai besoin pour Caliopen.

En tous cas pas que.

]]>
17 octobre 2018 - Pour avancer encore dans nos discussions sur le statut des hébergeurs et la régulation d'Internet, nous partageons aujourd'hui une tribune de Laurent Chemla, membre de La Quadrature du Net.

Avec les communiqués de La Quadrature du Net autour de la Directive Droit d'Auteur et les différentes réactions et tribunes qu'ils ont suscité, pas mal de choses ont été dites, critiquées, expliquées et décortiquées.

Quelques points pourtant sont restés à mon sens trop peu développés.

Mais, first thing first, je voudrais d'abord expliquer ma propre position sur le sujet du fameux « statut intermédiaire » entre éditeur et hébergeur, que La Quadrature a très finement choisi de nommer « afficheur ». Et pour ça je vais devoir vous raconter ma vie (comme d'habitude, oui).

Je te préviens c'est long et chiant. Tu peux retourner sur Twitter tout de suite.

C'était en 1997, je crois, que ce thème a été abordé pour la première fois. J'étais à l'époque vice-président d'un des ancêtres de LQDN : l'Association des Utilisateurs d'Internet (AUI). L'AUI avait, assez naïvement, déjà classé les intermédiaires techniques en trois catégories : FAI, FSI et FHI. Respectivement : fournisseur d'accès, de services, et d'hébergement. Le FAI a des obligations (couverture du territoire, neutralité), le FSI a des contrats (c'est un simple commerçant), et le FHI est transparent (il n'a aucun rôle éditorial et en contrepartie aucune responsabilité équivalente à ce que la loi de 1881 sur la Presse impose aux divers intermédiaires de la chaîne de responsabilité éditoriale).

La case « fournisseur de services » (puisque c'est surtout d'elle qu'il s'agit) était, à l'époque, pensée comme regroupant votre serveur de mail, votre vendeur de nom de domaine, ce genre de bidules techniques qui ne relève clairement ni de l'accès ni de l'hébergement proprement dit. Tout ce qui n'est ni fournisseur d'accès ni totalement transparent tombait dans ce statut.

Une autre façon de présenter les choses serait de définir l'accès comme la fourniture des droits fondamentaux à l'expression et à l'information, et l'hébergement comme le moyen de ces mêmes droits fondamentaux. Un peu comme un parallèle à l'enseignement de la lecture et à la Presse. Et ce qui ne relève ni de l'accès ni du moyen tombe dans le simple commerce.

Il peut sembler évident que, de ce point de vue, un intermédiaire qui - de facto - choisit ce qu'il diffuse ou non (parce qu'il hiérarchise les contenus de ses utilisateurs au point d'en faire disparaître certains, par exemple), n'étant pas « transparent », tombe dans cette case. En tous cas, à l'époque, ça semblait suffisamment évident à certains pour me démissionner de l'AUI au prétexte que je ne considérais pas que les choses étaient aussi simples.

Ma position (qui n'a que peu varié depuis) était que, d'une part, la totale déresponsabilisation des hébergeurs conduirait inévitablement à des services spécialisés dans la diffusion de la haine (« Mais oh la la c'est pas ma faute si tous les haineux m'ont choisi comme hébergeur M. le juge : je suis totalement transparent moi », toute ressemblance avec le 18-25 d'une certaine période étant fortuite), et que d'autre part en tant que petit hébergeur (j'étais petit hébergeur à cette époque) j'aurais bien du mal à dormir en sachant que mes machines servaient à diffuser de la haine sans que je n'y puisse rien (« transparence » oblige).

Forcément, ce type d'idée ne facilite pas les convictions tranchées, bien binaires comme il faut.

Pour me sortir de ce qui ressemblait à une contradiction (défendre la liberté d'expression mais rester quand même un citoyen « non transparent »), j'ai fini par développer une position, sinon intermédiaire, au moins un peu plus complexe que le « tout ou rien » : dans ma vision l'hébergeur était un « fournisseur de liberté d'expression », un statut spécial, une sorte de « reconnaissance d'utilité publique » si vous voulez.

En tant que tel il devenait irresponsable des contenus hébergés, MAIS il s'engageait à ne pas intervenir sur ces contenus SAUF à en répondre SYSTÉMATIQUEMENT devant la justice.

Si jamais je tombais sur un site négationniste parmi ceux que j'hébergeais, et que j'en coupais l'accès, je risquais d'être condamné pour ça, et ça m'allait très bien : de la même manière que j'engage ma responsabilité pénale si je cogne sur le type qui essaie de voler le sac d'une vieille dame dans la rue, je laissais à la justice - saisie automatiquement - la décision de dire si j'avais agi à raison ou non.

Pour résumer, j'avais développé un cadre contractuel en parallèle, que l'hébergeur se devait de respecter pour bénéficier de ce statut (mais je préfère rester hahaha bref).

C'est là que nos chers juristes m'ont expliqué que « c'est pas con mais c'est pas possible : y'a pas de qualification pénale pour censure abusive dans notre droit ».

What ?

Eh bah oui : si c'est l'État qui censure la Presse ou les Syndicats, il existe un article de loi pour porter plainte. Mais si c'est un commerçant qui censure un particulier, y'a pas. Et c'est logique, puisqu'à l'époque où ces textes ont été écrits, personne ne pensait qu'un jour le simple citoyen aurait accès à l'expression publique. Oui, ok, c'est un droit constitutionnel, carrément un « Droit de l'Homme » même, mais celui-là n'est pas protégé par la loi. Voilà.

Et il ne l'est toujours pas, 20 ans plus tard.

Bon j'avoue qu'à ce stade des débats les choses se sont un peu compliquées et que - je résume, je t'ai dit ! - je me suis fait démissionner de l'association pour cause d'hérésie. Et j'ai un peu lâché l'affaire.

Pendant 20 ans, ouais.

Retour au temps présent. Il ne t'aura pas échappé que ma vision du passé n'est pas exactement celle qui est aujourd'hui défendue par La Quadrature. Déjà parce que c'est pas moi qui décide de la position de La Quadrature. Mais surtout parce qu'Internet n'est pas TOUT À FAIT le même qu'il y a 20 ans : l'avènement du « Web 2.0 » a changé la nature de l'hébergement, en créant des services réunissant sur la même « page » les publications d'une foule de différents acteurs. Benjamin l'explique très bien dans sa tribune.

Mais ce qui compte, pour moi, et mon histoire passée l'explique sans doute, c'est qu'on débatte ENFIN de ça : oui, ok, bien sûr, il ne faut pas qu'un hébergeur soit responsable des contenus publiés par ses utilisateurs. Parce que s'il l'est, il sera obligé de sélectionner ces contenus. Et que donc - toutes choses étant égales par ailleurs - toute opinion un peu divergente de celle de ceux qui font la loi sera petit à petit supprimée de l'espace public. C'est comme ça.

MAIS - et c'est un PUTAIN DE GROS MAIS - il doit avoir, en contrepartie, un devoir de neutralité. Parce que s'il n'est pas responsable, alors en échange IL NE DOIT PAS CENSURER. Rien. Jamais. Sauf à en assumer la responsabilité. Et oui, je considère que trier les documents, si ça conduit à toujours rendre invisibles les mêmes, c'est encore de la censure.

Ça se discute ? Discutons-en.

Et oui, la Quadrature défend l'idée que - s'il fait le choix de censurer - alors il ne passe pas devant un tribunal pour ça (rappel : y'a pas de loi qui le permette) mais il perd sa qualité d'hébergeur et [re]devient un simple intermédiaire, qualifié d'afficheur pourquoi pas. Un FSI au sens antique de l'AUI. C'est son contrat qui prévaut dans ses rapports avec ses utilisateurs MAIS il perd - au moins en partie - son irresponsabilité totale.

Ça se discute ? Discutons-en.

Et oui, la Quadrature propose que ce statut intermédiaire « d'afficheur » ne s'applique qu'à certaines conditions (de taille, de position hégémonique, de pouvoir...) et DONC que certains puissent conserver le statut d'hébergeur tout en choisissant des règles de modération autres que strictement neutres.

Ça se discute ? Discutons-en.

Par exemple, je suis personnellement favorable à ce qu'une des conditions pour passer du statut d'hébergeur à celui d'afficheur soit le choix du modèle économique : le tien est basé sur l'exploitation commerciale des données personnelles de tes utilisateurs ? Ok, t'es afficheur, pas hébergeur.

Parce que oui, le modèle économique, ça compte aussi ! Parce que quand ton revenu dépend de la publicité, alors FORCÉMENT tu as intérêt à ne pas fâcher tes clients (les publicitaires, donc), et FORCÉMENT tu vas avoir envie de privilégier certains contenus à même de retenir l'attention de leurs cibles, et FORCÉMENT tu vas être poussé à ne pas mélanger leurs publicités à des contenus, disons, discutables.

Et donc, FORCÉMENT, tu n'es plus neutre (et si tu essaies quand même de l'être, ce qui est le cas de mes amis de Qwant par exemple, tu te retrouves à lutter contre la puissance économique de ceux qui - n'ayant pas plus d'obligations que toi tout en n'ayant pas la même éthique que toi - ont mille fois plus de clients potentiels que toi. Bon courage).

Accessoirement, je préfère aussi le rappeler, le modèle « publicité contre gratuité » nous conduit aussi irrémédiablement dans le mur de la minitelisation du Web que le modèle capitaliste nous conduit dans le mur de la disparition du vivant (je résume, je te l'ai déjà dit). Parce que pour vendre plus de pub - ou pour la vendre plus cher - tu vas devoir avoir plus d'utilisateurs, tout simplement. Ce qui conduit très logiquement à voir apparaître des géants hégémoniques et à la disparition, par asphyxie économique, des plus petits. Et donc à un pouvoir démesuré sur la liberté d'expression pour ceux qui restent. C'est le modèle qui veut ça.

Bref. Tout ça se discute. Alors discutons-en.

Sans anathème, de préférence : j'ai déjà vécu ça et ça ne m'a pas plu des masses.

On peut discuter. On doit discuter. J'ai mes limites, bien sûr : pour moi il n'existe pas de liberté sans responsabilité donc, pour moi, celui qui prend la liberté de censurer ce qui lui déplaît prend en partie la responsabilité de ce qu'il diffuse. C'est un principe, mais il se discute, il s'amende, il prend en compte la réalité. Sans insultes et sans parti-pris : si je n'entends pas d'arguments pour me faire changer d'avis, la discussion va vite s'arrêter là.

Bref.

J'ai pas fini.

Ne t'y trompes pas, ami lecteur masochiste qui a tenu jusque-là : même s'ils semblent aller dans mon sens, quand les pouvoirs en place votent l'article 13 de la directive Copyright, ou même le RGPD, ils ne sont pas mes amis. Du tout. Parce qu'ils favorisent ceux qu'ils disent combattre.

L'obligation de filtrage automatisé imposée par l'article 13 ne dérange EN RIEN les GAFAM : elle ne fait qu'avaliser une pratique déjà en place et VOULUE par ces mêmes GAFAM, puisque c'est à la base même de leur modèle économique (filtrer pour mieux attirer la cible des publicitaires et garantir un environnement « sain »). Son seul aspect positif (et encore : mon petit doigt m'a dit qu'on risquait gros pendant le trilogue en cours), c'est qu'il introduit une distinction entre hébergeur et intermédiaire pratiquant « l'optimisation des contenus », ce qui permet l'excellente chose (selon moi) que nous ayons ENFIN ce débat là.

C'est d'ailleurs ce que disent @Calimaq et La Quadrature quand ils rappellent qu'il est PLUTÔT BON que ces mastodontes ne bénéficient plus de l'exception totale de responsabilité des contenus. Et j'en suis bien d'accord. Mais ça s'arrête là !

Je me doute bien que ça ne fait pas très plaisir aux GAFAM de se retrouver avec une responsabilité potentielle, mais ne nous leurrons pas : tout ça n'est rien d'autre que la mise en place d'un rapport de forces entre l'UE et Google/Facebook et al. pour que la première puisse mieux négocier ensuite avec les seconds le type de filtrage qu'il faudra mettre en place.

L'UE a intériorisé le fait que presque rien n'existe qui ne passe par la poignée de « géants du Net » et que c'est donc là, et nulle part ailleurs, que le pouvoir peut s'exercer. L'Internet décentralisé, tel que « nous » le souhaitons, n'est pas contrôlable. L'Internet des GAFAM l'est, et c'est exactement ce que souhaitent les États, ne soyons pas naïfs. Google, selon cette étude est le plus grand bénéficiaire du RGPD. Probablement pas par hasard.

Pour prendre l'exemple français : imposer l'exception culturelle telle que voulue par nos très chers ayant-tous-les-droits nécessite que les contenus soient « optimisés » pour afficher un certain pourcentage « d’œuvres » françaises. Permettre à une nouvelle HADOPI d'empêcher efficacement le streaming illicite des évènements sportifs suppose que le nombre de services de streaming soit limité à quelques géants. Montrer ses muscles avant les prochaines élections européennes - pour tenter d'éviter qu'une certaine droite ne remporte trop de sièges - nécessite qu'on impose (très bientôt) la censure « en moins d'une heure » des contenus terroristes. Ce que seuls quelques géants ont la capacité de faire.

Les autres, non seulement « les petits » mais aussi tous ceux qui n'ont pas la censure pour modèle économique, risquent de se retrouver de facto hors la loi et de disparaître ? Oui, et c'est pas pire, pour un pouvoir qui souhaite le retour à un réseau hypercentralisé qu'il pourra mieux contrôler.

Notre pays a l'habitude des réseaux très centralisés dans lesquels l'État dispose du pouvoir d'imposer ses volontés et d'empêcher tout ou partie de l'expression publique citoyenne. C'est nous qui avons inventé le Minitel. Cocorico.

Allez, encore un mot sur le RGPD et la centralisation et je te laisse retourner faire la sieste.

Le RGPD (et la loi Lemaire avant lui) a inventé un « droit à la portabilité des données ». Haha.

Tu sais : le truc qui va te permettre d'exporter tes données personnelles depuis Facebook vers... euh. Ah. Merde.

Ah si : tu vas pouvoir exporter tes contacts et ta mailbox Gmail chez un autre fournisseur d'email. Oui, tu pouvais déjà, mais maintenant c'est un droit ! Donc c'est cool. Wait.

Il y a plus d'un milliard d'utilisateurs de Gmail, largement contraints souvent parce qu'il faut une adresse Gmail pour activer un téléphone Android. Google s'en fiche bien si quelques dizaines de millions vont voir ailleurs : ceux-là continueront forcément à échanger avec la très grande majorité qui sera restée. Et donc à fournir des données à Google. Or c'est de données que se nourrit Google, pas d'utilisateurs. Google s'en cogne, que tu « portes tes données » ailleurs, soyons sérieux.

Les GAFAM s'en cognent même tellement qu'ils sont en train de finaliser un joli logiciel libre qui va permettre à tout le monde de porter ses données personnelles chez un autre géant que le géant précédent.

TROP BIEN.

Pendant ce temps Facebook empêche les clients tiers d’accéder à tes messages persos et Twitter change son API pour limiter la possibilité d'afficher des flux sans publicité. Tu peux porter des données ailleurs, ça ils s'en foutent (et d'ailleurs, où ?), mais tu dois garder ton attention sur ce qui compte vraiment : la pub. Et la pub ne s'affiche que si tu restes dans l'écosystème hégémonique qu'elle impose au Web et qui arrange bien nos gouvernements.

C'est pour ça que la position de la Quadrature sur la décentralisation est FONDAMENTALE. C'est pour ça qu'en affirmant qu'on peut s'appuyer sur l'article 13 pour développer des services décentralisés, la Quadrature est bien dans son rôle de protection des libertés.

C'est pour ça qu'il faut DÉFONCER cette notion de « droit à la portabilité des données » et la remplacer dans tous nos combats par un « droit à l'accessibilité des données ». Imposer que NOS données puissent être lues par NOUS avec l'outil qu'on choisit, quel qu'il soit, où que ces données soient stockées. Même si c'est chez Facebook.

Ça ne changera rien, ou pas grand chose, au modèle économique dominant, mais ça permettra à tous ceux qui souhaitent en sortir de le faire sans laisser leurs amis derrière eux. C'est, peu ou prou, le modèle d'ActivityPub, par exemple, mais nous devons étendre ce modèle à TOUTES nos données personnelles, y compris passées, pour que puisse se développer une autre économie du Web qui prenne en compte l'existant.

Je ne crois pas aux ruptures. Les humains sont beaucoup trop flemmards pour ça.

Imposer l'accès aux données personnelles c'est la garantie qu'un Internet décentralisé continuera à exister, même si c'est en parallèle de l'autre. Et tant pis. Et tant mieux, même : c'est justement parce que cette idée ne détruit pas le modèle économique des GAFAM qu'il a une (toute petite) chance d'être soutenu par le politique. Restons pragmatiques. On démolira l'existant seulement quand on aura construit le remplaçant.

Et je ne dis pas ça parce que j'en ai besoin pour Caliopen.

En tous cas pas que.

]]>
Nos plaintes contres les GAFAM avancent !10636 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181010_164424_Nos_plaintes_contres_les_GAFAM_avancent__Wed, 10 Oct 2018 14:44:24 +000010 octobre 2018 - Nous venons de recevoir des nouvelles de la CNIL au sujet de nos plaintes collectives, engagées en mai 2018 contre Google, Apple, Facebook, Amazon et Microsoft. Ces nouvelles sont encourageantes.

Les plaintes contre Apple, Facebook et Microsoft ont été transmises à l'autorité irlandaise de protection des données, qui a commencé l'instruction des dossiers. Pourquoi est-ce l'autorité irlandaise qui instruira nos plaintes, plutôt que la CNIL française, à qui nos plaintes étaient destinées ?

Comme nous le rappelions déjà en mai dernier, le RGPD a posé un nouveau cadre de coopération entre les différentes « CNIL » européennes : si une entreprise collecte des données dans plusieurs pays européens, les CNIL de tous ces pays doivent collaborer pour contrôler cette entreprise. La CNIL de l'État où l'entreprise a le « centre de ses activités » dans l'Union européenne est désignée « autorité chef de file ». Cette autorité chef de file est chargée de conduire l'instruction et d'animer la coopération entre les autorités. C'est en Irlande que Apple, Facebook et Microsoft ont le centre de leurs activités européennes. La CNIL irlandaise est donc l'autorité chef de file pour instruire nos plaintes.

S'agissant d'Amazon, la plainte a été transmise à l'autorité du Luxembourg - puisque, cette fois-ci, c'est dans ce pays qu'Amazon a le centre de ses activités au sein de l'Union.

Enfin, qu'en est-il de Google ? C'est ici que la situation devient la plus intéressante.

Le RGPD prévoit une exception au mécanisme de « l'autorité chef de file ». Si une entreprise n'a pas « d'établissement principal » au sein de l'Union, mais agit principalement depuis l'étranger, la CNIL de n'importe quel État peut la contrôler (voir les lignes directrices WP244, page 11, du G291).

C'est cette exception que la CNIL française a retenue s'agissant de Google : l'entreprise ne dispose dans l'Union d'aucun « établissement principal » qui dirigerait les activités que nous dénonçons comme contraires au RGPD. Concrètement, la CNIL considère que le siège de Google à Dublin ne prend pas de décisions importantes dans notre affaire et ne doit donc pas être pris en considération.

Ainsi, la CNIL française se reconnaît compétente pour instruire directement notre plainte contre Google (et pour, en fin de course, prononcer sa sanction). Toutefois, elle nous indique qu'elle compte conduire ce dossier en coopération avec les autres CNIL, avec lesquelles elle aurait commencé à travailler lors de leur dernière réunion européenne du 25 et 26 septembre. C'est une bonne chose.

Dans l'ensemble, la situation est des plus encourageantes : nos plaintes avancent concrètement et celle contre Google reste dans les mains d'une autorité dont les dernières décisions ont toutes imposé strictement la notion de « consentement libre », qui est au cœur de nos actions.

Nous vous garderons informés des prochains avancements sur ces dossiers.

En attendant, nous vous rappelons que nos plaintes sont libres de droit (disponibles ici) : n'hésitez pas à en reprendre les arguments (ils ont été pensés pour être faciles à reprendre) afin de rédiger des plaintes individuelles ou collectives contre d'autres entreprises - qui ne manquent pas pour violer le RGPD.

  • 1. Le G29 était l'organisation créée en 1995 pour regrouper les CNIL de tous les États de l'Union européenne et dégager des positions communes. Le RGPD a transformé le G29 en un nouveau « Comité Européen de la Protection des Données », qui reprend la même mission et organisation mais se voit désormais confier des pouvoirs de décisions dans le cadre de la nouvelle coopération entre les différentes CNIL
]]>
10 octobre 2018 - Nous venons de recevoir des nouvelles de la CNIL au sujet de nos plaintes collectives, engagées en mai 2018 contre Google, Apple, Facebook, Amazon et Microsoft. Ces nouvelles sont encourageantes.

Les plaintes contre Apple, Facebook et Microsoft ont été transmises à l'autorité irlandaise de protection des données, qui a commencé l'instruction des dossiers. Pourquoi est-ce l'autorité irlandaise qui instruira nos plaintes, plutôt que la CNIL française, à qui nos plaintes étaient destinées ?

Comme nous le rappelions déjà en mai dernier, le RGPD a posé un nouveau cadre de coopération entre les différentes « CNIL » européennes : si une entreprise collecte des données dans plusieurs pays européens, les CNIL de tous ces pays doivent collaborer pour contrôler cette entreprise. La CNIL de l'État où l'entreprise a le « centre de ses activités » dans l'Union européenne est désignée « autorité chef de file ». Cette autorité chef de file est chargée de conduire l'instruction et d'animer la coopération entre les autorités. C'est en Irlande que Apple, Facebook et Microsoft ont le centre de leurs activités européennes. La CNIL irlandaise est donc l'autorité chef de file pour instruire nos plaintes.

S'agissant d'Amazon, la plainte a été transmise à l'autorité du Luxembourg - puisque, cette fois-ci, c'est dans ce pays qu'Amazon a le centre de ses activités au sein de l'Union.

Enfin, qu'en est-il de Google ? C'est ici que la situation devient la plus intéressante.

Le RGPD prévoit une exception au mécanisme de « l'autorité chef de file ». Si une entreprise n'a pas « d'établissement principal » au sein de l'Union, mais agit principalement depuis l'étranger, la CNIL de n'importe quel État peut la contrôler (voir les lignes directrices WP244, page 11, du G291).

C'est cette exception que la CNIL française a retenue s'agissant de Google : l'entreprise ne dispose dans l'Union d'aucun « établissement principal » qui dirigerait les activités que nous dénonçons comme contraires au RGPD. Concrètement, la CNIL considère que le siège de Google à Dublin ne prend pas de décisions importantes dans notre affaire et ne doit donc pas être pris en considération.

Ainsi, la CNIL française se reconnaît compétente pour instruire directement notre plainte contre Google (et pour, en fin de course, prononcer sa sanction). Toutefois, elle nous indique qu'elle compte conduire ce dossier en coopération avec les autres CNIL, avec lesquelles elle aurait commencé à travailler lors de leur dernière réunion européenne du 25 et 26 septembre. C'est une bonne chose.

Dans l'ensemble, la situation est des plus encourageantes : nos plaintes avancent concrètement et celle contre Google reste dans les mains d'une autorité dont les dernières décisions ont toutes imposé strictement la notion de « consentement libre », qui est au cœur de nos actions.

Nous vous garderons informés des prochains avancements sur ces dossiers.

En attendant, nous vous rappelons que nos plaintes sont libres de droit (disponibles ici) : n'hésitez pas à en reprendre les arguments (ils ont été pensés pour être faciles à reprendre) afin de rédiger des plaintes individuelles ou collectives contre d'autres entreprises - qui ne manquent pas pour violer le RGPD.

  • 1. Le G29 était l'organisation créée en 1995 pour regrouper les CNIL de tous les États de l'Union européenne et dégager des positions communes. Le RGPD a transformé le G29 en un nouveau « Comité Européen de la Protection des Données », qui reprend la même mission et organisation mais se voit désormais confier des pouvoirs de décisions dans le cadre de la nouvelle coopération entre les différentes CNIL
]]>
Intermédiaires techniques : un éléphant, ce n'est pas une souris en plus gros10635 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181010_122055_Intermediaires_techniques___un_elephant__ce_n_est_pas_une_souris_en_plus_grosWed, 10 Oct 2018 10:20:55 +000010 octobre 2018 - Nous partageons la tribune de Benjamin Bayart, publiée aujourd'hui sur son blog et poursuivant nos discussions sur le statut des hébergeurs (relire notre article sur la décentralisation, la tribune de Calimaq et celle d'Arthur).

C'est un débat ancien autour des libertés numériques, que de délimiter la responsabilité des intermédiaires techniques. Pour essayer de raconter ça, il faut que je fasse appel à des notions assez nombreuses, et parfois peu habituelles dans le domaine. Après un petit rappel des positions historiques, sur les notions d'éditeur et d'hébergeur, je vais poser quelques notions venues d'autres domaines, ou de phénomènes plus récents. Le but est d'essayer de proposer une grille de lecture différente : un troisième statut, quelque part entre éditeur et hébergeur, et les conséquences que ça porte.

On peut arriver à la même conclusion (ce troisième statut) par d'autres arguments, dont je n'ai pas besoin pour articuler mon raisonnement. J'ai regroupé ces arguments, pour au moins les citer, qu'ils ne donnent pas l'impression d'avoir été oublié.

Tout ça est le fruit de beaucoup de discussions. L'idée de quelque chose entre éditeur et hébergeur est sortie de discussions ces 3-4 dernières années à la quadrature. La façon dont j'articule entre eux ces différents éléments est le fruit de mon expérience personnelle, le mélange des réflexions de plusieurs collectifs.

Contexte historique

On peut faire remonter la question, en France, à l'affaire "Estelle Hallyday contre Altern". Ce n'est pas la première fois que la question se posait, mais c'est celle qui a marqué les esprits.

Altern était un hébergeur associatif, articulé avec une TPE (la TPE permettait au mec de manger, l'association hébergeait gratuitement). Près de 50.000 sites perso étaient hébergés chez Altern. On situe mal, mais 50.000 sites, à la fin des années 90, c'est un morceau colossal du web en France. Et toutes ces pages sont hébergées gratuitement, sans pub, sans contre-partie, par une association.

Des photos dénudées d'Estelle Hallyday avaient été publiées dans la presse. Un petit malin les a scannées et mises en ligne sur son site. La dame a porté plainte... contre l'hébergeur. À aucun moment la police ou la justice ne se sont intéressées à savoir qui était derrière le site, le nom de l'hébergeur leur suffisait bien. Il a été très lourdement condamné, une somme déraisonnable qui a forcé à fermer le volet associatif d'Altern : le risque était devenu trop grand. Une FAQ de 1999 sur l'affaire redonne les éléments clefs de la discussion de l'époque.

C'est cette histoire qui a été utilisée pour expliquer aux députés et sénateurs de l'époque que nous avions un problème dans le numérique. On se trompait de responsable devant la justice dans les affaires de presse (diffamation, injure, atteinte à la vie privée, etc). Le législateur français a mis très longtemps à converger vers une solution acceptable. C'est autour de 2004 que le débat arrive à la bonne conclusion.

Position définie par la LCEN

La LCEN organise en 2004 la responsabilité entre trois types d'acteurs1. Les fournisseurs d'accès et opérateurs réseaux, qui transportent l'information, les hébergeurs qui stockent l'information, et les éditeurs qui publient le contenu. Les éditeurs sont responsables de ce qui est publié, et assument les propos de l'auteur, en particulier dans les affaires dites de presse (diffamation, injure, publication d'informations portant atteinte à la vie privée des gens, etc). Les hébergeurs, quant à eux, ne sont pas responsables de ce qui est publié. Il devient obligatoire de faire figurer sur tout site web une indication de qui en est l'éditeur.

Le droit européen est articulé peu ou prou de la même manière. Les opérateurs du réseau doivent se comporter comme un "mere conduit", c'est-à-dire comme un simple/pur tuyau. Ils transportent les données sans tenir compte du contenu, et donc ne peuvent être responsable de ce qui se passe sur le réseau. De mémoire cette première notion, bien plus ancienne que celle de la neutralité du net, se trouve dans des directives de 2000 sur le commerce électronique.

Dans le web de la fin des années 90, et jusqu'à la fin des années 2000, ces notions suffisent à lire le monde. Si je prend des exemples actuels que tout le monde peut comprendre, OVH est un hébergeur, l'éditeur du site https://lefigaro.fr est le journal du même nom, et FDN ou Orange, quand ils vous permettent d'accéder au contenu mis en ligne par ce site web ne sont pas responsables si un de ces contenus est illégal. Et ce, que cette illégalité soit un délit de presse ou un autre délit (par exemple, la publication sans autorisation d'un contenu soumis au droit d'auteur, une des variantes de ce que la loi nomme contrefaçon, même si le terme semble bien impropre2).

La jurisprudence est venue apporter des nuances, parfois intéressantes, parfois idiotes. Dans les jurisprudences intéressantes : en 2010 Tiscali, qui hébergeait les pages perso de ses abonnés, et aurait à ce titre dû être considéré comme hébergeur, s'est vu requalifier par la Cour de cassation en éditeur parce qu'elle ajoutait de la publicité dans ces pages. Le juge a estimé que modifier le contenu, avec des visées lucratives, en faisait un éditeur et pas un simple hébergeur.

Par ailleurs, la LCEN prévoit que quand l'hébergeur a connaissance d'un contenu illicite, il doit le retirer rapidement. Le Conseil Constitutionnel, qui avait été saisi de la LCEN, avait bien précisé que ça ne pouvait être applicable que pour les contenus manifestement illicites (ergo, dans la pensée de l'époque, les contenus manifestement pédo-pornographiques et/ou manifestement néo-nazis). Les jurisprudences diverses, en France et en Europe, sont venues affaiblir cette décision du Conseil Constitutionnel. On considère de nos jours que quasiment toutes les illégalités sont manifestes3.

Évolution du paysage

Le développement de ce que les startupeurs digitaux appellent le Web 2.0 vient un peu compliquer l'affaire, mais à peine. Le Web 2.0, c'est le fait qu'une plateforme est mise à disposition du public, et que c'est le public qui produit le contenu. Par exemple les commentaires organisés en forum de discussion sous un article d'actualité. Par exemple les forums de chat fournis par tel ou tel site web pour la communauté de ses habitués. Par exemple Facebook au tout début.

L'analyse reste sensiblement la même. L'utilisateur est auteur-éditeur du message qu'il publie, de la page qui regroupe ses messages. Et la plateforme est analysée comme un hébergeur, qui se contente d'afficher au lecteur les messages regroupés comme le lecteur le lui a demandé, c'est-à-dire dans l'ordre chronologique des publications de chacun des utilisateurs dont il suit le fil de publication. C'est assez assimilable dans la théorie, à ce que fait un agrégateur de flux RSS, pour les gens qui voient ce que c'est.

Mais la pratique change. Ces grandes plateformes interviennent le plus en plus dans le flux des informations. Elles hiérarchisent l'information, selon des critères qui n'appartiennent qu'à elles. Strictement, elles hébergent un contenu qu'elles n'ont pas produit, le plus souvent, mais choisissent l'ordre d'affichage, et même si un contenu sera affiché ou non pour un lecteur donné. Plus elles interviennent dans l'affichage des contenus, moins leur rôle d'hébergeur passif semble adapté.

Responsabilité du fait d'autrui

Le principe de droit sous-jacent à une bonne part du débat est le fait que nul ne peut être tenu responsable du fait d'autrui. Si j'écris sur mon mur Facebook des choses contraires à la loi, il est légitime que j'en sois tenu responsable, et qu'on n'aille pas en faire reproche à quelqu'un d'autre (genre Facebook, qui a permis la diffusion de mon message, mon FAI qui m'a permis de publier, ton FAI qui t'a permis de le lire, le fabriquant de ton écran qui a permis l'affichage, ton marchand de lunettes qui t'a permis de lire malgré ta myopie, etc).

Tenir Facebook pour responsable de ce qu'écrivent les gens, c'est pas bon. Mais prétendre que Facebook ne fait rien et donc n'est responsable de rien, c'est pas bon non plus, parce que ce n'est pas vrai. On voit bien que quelque chose cloche ici. Il nous manque une notion, qui décrive ce que fait Facebook. Quand nous travaillons sur ces sujets, à La Quadrature, le mot que nous utilisons, c'est "afficheur". Facebook serait un afficheur, et en tant qu'afficheur il n'est pas neutre. C'est un intermédiaire technique qui n'est pas neutre dans l'exécution de son rôle, il doit donc logiquement assumer la responsabilité de ce qui découle de cette non-neutralité.

La neutralité du net

Les débats sur la neutralité du net sont pour moi, en dernière analyse, des débats sur un intermédiaire technique particulier, le fournisseur d'accès à Internet (et plus généralement, l'opérateur réseau).

Cet intermédiaire technique est tout-puissant. Il peut tout. Il peut m'empêcher d'accéder à un contenu, il peut ralentir l'accès à un service jusqu'à le rendre pénible à utiliser, il peut dégrader un service (perdre un paquet sur dix dans le flux d'une discussion audio la rend extrêmement pénible par exemple). Il peut surveiller à peu près la totalité de ce que je fais.

Du point de vue de l'abonné, il est tout-puissant, et incontournable : les gens n'ont qu'un seul accès à Internet chez eux, ils ne jonglent pas entre 5 abonnements à Internet à tout moment, utilisant l'abonnement Machin pour accéder à un site et l'abonnement Truc pour accéder à un autre. Les gens normaux (quelques geeks dans mon genre font autrement) ont un seul opérateur pour accéder à Internet et ils espèrent bien accéder à tout Internet, de manière indiscriminée.

Ce que disent les textes sur la neutralité du net peut se résumer assez facilement : en tant qu'intermédiaire technique incontournable, ayant de grands pouvoirs, l'opérateur n'a pas le droit d'utiliser ces grands pouvoirs n'importe comment. En particulier, s'il s'en sert pour (dé)favoriser un contenu, une adresse source, une adresse de destination, un type de service, etc, ça lui sera reproché. S'il sort d'une stricte neutralité d'intermédiaire technique sans raison valable, ça lui sera reproché.

Et les texte européens listent les raisons valables connues : la sécurité du réseau, le bon fonctionnement du réseau, une décision de justice, etc. Un accord commercial avec une plateforme n'est, ainsi, pas une raison valable de prioriser des flux.

Les textes sur la neutralité du net ne parlent pas de la responsabilité éditoriale, bien entendu, mais ils posent des principes de droit qui sont utiles : un intermédiaire technique, quand il sort de la neutralité qu'on attend de lui, prend une responsabilité, il devient responsable de ce qui arrive suite à cette sortie de route.

La transposition à la responsabilité éditoriale est cependant assez simple : quand une plateforme joue un rôle central dans la capacité du public à diffuser de l'information, ou à accéder à l'information, et qu'elle sort de la neutralité technique, alors elle devrait recevoir la responsabilité des effets de cette sortie. Que ce soient des effets économiques (concurrence, distorsion d'un marché, etc) ou des effets sociaux (montée des violences, montée des haines, etc). On ne peut pas jouer un rôle actif dans une position de puissance et dire qu'on n'est pas responsable des effets du rôle qu'on joue.

Un opérateur dominant

Une autre notion intéressante est celle, venue du droit de la concurrence, d'acteur dominant sur un marché. C'est une notion qui s'analyse de manière locale, sur un marché donné. Ainsi si on s'intéresse au marché européen, au marché français, ou au marché d'un bassin de vie, les acteurs dominants identifiés ne sont pas les mêmes.

Certaines pratiques sont interdites pour un ou des acteurs dominants sur un ou des marchés donnés.

Ainsi, un tarif d'éviction. C'est quand un acteur, dominant sur un marché, pratique des prix tellement bas qu'il empêche les autres de s'installer sur ce marché, et donc s'assure la perpétuité de sa position dominante. Ainsi, si autour de chez moi il y a une boulangerie qui a une part tellement forte du marché des croissants qu'on la considère comme un acteur dominant (genre 90% des ventes de croissants du coin). Quand une nouvelle boulangerie ouvre, elle fait une promotion intenable (le croissant à 10 centimes, mettons). On peut analyser ça comme la pratique d'un tarif d'éviction. Dans une boulangerie qui a une petite part de marché, ce serait simplement une promo pour attirer le client. Dans une boulangerie qui détient une part colossale du marché, c'est un tarif destiné à tuer les concurrents et assurer un monopole pour l'opérateur dominant sur le marché une fois que les concurrents auront coulé, auront été évincés (d'où le nom "tarif d'éviction").

Il faut bien analyser ça sur le bon marché. En effet, la position dominante de la boulangerie ne joue pas sur le marché des fruits et légumes, ou ne joue pas sur le marché national des croissants. Elle fait bien 90% dans ma ville, mais un pourcentage infime au niveau national ou européen.

On peut essayer de transposer ces principes dans le cas qui nous intéresse. Les grandes plateformes sont des acteurs dominants sur certains marchés. Traditionnellement, on fait cette analyse sur un vrai marché, commercial. On peut par exemple se demander si Facebook et Google sont des acteurs dominants sur le marché de la publicité en ligne. Mais on peut utiliser cet outil pour penser des choses qui ne sont pas des marchés au sens commercial, et se demander si Facebook et Twitter jouent un rôle central dans la diffusion des contenus publiés par leurs utilisateurs, et si on peut donc leur reprocher les effets de leurs décisions en raison de leur taille. La même décision, de la part d'un acteur hyper minoritaire et n'ayant pas d'influence significative sur le "marché" (ou sur le phénomène social) considéré n'aurait pas la même responsabilité.

La taille est bien un critère pertinent pour juger de la responsabilité des acteurs. Non, un éléphant, ce n'est pas une souris en plus gros.

La censure

Facebook, ou Apple, opèrent une censure. Une censure a priori, où certains contenus sont censurés d'autorité, selon des procédures floues et discrétionnaires, le plus souvent sans appel et sans contradictoire. C'est un rôle actif, qui sort totalement de la notion d'intermédiaire technique neutre. Et qui est le fait d'acteurs dominants sur les "marchés" considérés.

On peut soit considérer que ces censeurs sont sortis de leur rôle neutre et technique, et que donc ils perdent l'exemption générale de responsabilité, qu'ils portent atteinte au principe de neutralité qu'on attend d'eux (même si, pour l'heure, aucun texte de loi ne prévoit ça de manière claire). Soit considérer, ce qui est sensiblement équivalent, qu'ils jouent un rôle actif dont ils sont responsables. N'ayant pas réussi à censurer les contenus illégaux, alors qu'ils jouent un rôle actif de censure a priori (Facebook censure les images dont ses outils supposent que ce sont des nus, avec régulièrement des erreurs) et de censure a posteriori (ces plateformes censurent sur signalement par les utilisateurs), on peut les considérer comme responsable de l'échec de leur censure.

Dans un cas, on estime que ces plateformes devraient se voir interdire la censure discrétionnaire, qu'il devrait y avoir des mécanismes transparents et conformes au droit pour traiter les problèmes. Par exemple du notice-and-notice : quelqu'un signale qu'un contenu pose problème. Le signalement est transmis anonymement à l'auteur. L'auteur peut retirer son contenu, ou décider de persister. Si les deux parties persistent à dire qu'il y a problème, le dossier complet est transmis à la justice qui arbitre le différend. Dans une posture comme celle-là, l'intermédiaire technique est de nouveau neutre. Il n'a pas décidé si le contenu lui semblait légal ou pas. On ne peut pas le tenir responsable d'une décision.

Dans l'autre cas, on estime normal que la plateforme joue un rôle de censeur, et qu'on peut lui tenir rigueur de ses erreurs dans la censure. Auquel cas tout contenu illégal qui arrive à franchir la barrière peut lui être reproché.

Je préfère bien entendu la première solution. Mais les deux sont logiques.

Centralisation ou ouverture

Le fait qu'une plateforme soit centralisée ou non est également un critère. L'exemple qui vient spontanément en tête est la comparaison entre les systèmes de messagerie fermés (iMessage d'Apple, Messenger de Facebook, les messages directs de Twitter, etc) et les systèmes de messagerie ouverts (par exemple le mail). Ou la comparaison entre un réseau de micro-blog fermé (Twitter) et un réseau de micro-blog ouvert (Mastodon).

Dans le cas d'un système centralisé et fermé, une décision de la plateforme centrale a un effet absolu. Si je suis banni de Twitter, je suis banni de l'intégralité du réseau de Twitter. Si cette décision est arbitraire, et fondée sur des critères qui ne peuvent pas être négociés, elle est absolue et incontournable. Elle est le fait d'un acteur dominant.

Dans le cas d'un système acentré et ouvert, une décision de la plateforme qui hébergeait mon compte de me bannir a un effet bien moindre. Je peux aller ouvrir un compte sur une autre instance du même réseau (quand mon compte mail de laposte.net est fermé, je peux aller ouvrir une adresse mail ailleurs). Si un nœud du réseau se met à détenir une part élevée des comptes, alors l'analyse en position dominante redevient pertinente : quand gmail.com ou outlook.com décident d'imposer des règles en matière de mail, même si le réseau est ouvert, ils représentent une part tellement grande du réseau du mail que leur norme s'impose de fait à tous les autres. Ils deviennent bien un acteur dominant de ce réseau.

La définition des libertés

À la fin du 18e siècle, quand on a défini les libertés fondamentales, on les a défini par rapport à la puissance publique. Quand on parle de liberté d'expression, on parle d'empêcher l'État (ou le roi) de censurer de manière arbitraire. Les libertés fondamentales, les droits de l'Homme, sont définis pour protéger les citoyens, les individus, contre les abus de la puissance publique.

Typiquement, le premier amendement de la constitution américaine, qui protège la liberté d'expression, interdit au législateur de faire une loi dont l'effet serait de priver le citoyen de la libre expression de son opinion. Facebook n'étant pas législateur, ça ne le concerne pas, il peut bien censurer comme il a envie et prendre toutes décisions visant à censurer.

Le rapport asymétrique qui existe aujourd'hui entre un particulier et une grande multi-nationale crée un rapport d'une nature similaire à celui qui existe entre le citoyen et l'État, un rapport asymétrique où une seule des deux parties peut établir les clauses du contrat. Le contrat qui existe entre Facebook et ses utilisateurs n'est pas de la même nature que le contrat qui existe entre deux particuliers. Les deux signataires du contrat ne sont pas dans un rapport de force symétrique. Or tout le droit autour de la liberté de contracter suppose une adhésion, soit que chaque clause était négociable (pour un contrat de gré à gré), soit qu'on pouvait ne pas adhérer au contrat et aller chercher un service similaire ailleurs (pour un contrat d'adhésion). Bref, on suppose que les deux parties sont engagées par un consentement mutuel entre pairs.

Il y a déjà de nombreuses zones du droit où l'asymétrie du rapport de forces a été prise en compte pour définir des droits qui ne sont pas symétriques. Par exemple l'obligation de conseil d'un pro : il ne doit pas vous laisser choisir une mauvaise solution s'il sait qu'elle est mauvaise, il doit vous conseiller au mieux de vos intérêts, pas des siens. Par exemple le contrat de prêt que vous signez avec le banquier : vous n'êtes pas en position de le négocier, alors la loi a très strictement encadré ce que le banquier a le droit de vous proposer. C'est toute cette partie du droit qui permet régulièrement aux tribunaux de dire que des clauses d'un contrat étaient abusives, et qu'on doit donc considérer qu'elles n'existent pas (les juristes parlent de "clauses réputées non-écrites").

Il n'y a pas, pour le moment, de garantie des libertés dans un rapport contractuel asymétrique. Facebook, Twitter ou Google ne peuvent pas être condamnés pour censure abusive de mes propos. Seul l'État pourrait être condamné pour ça. C'est par exemple pour ça qu'il y a quelques années, avec quelques autres, nous avions rédigé une proposition de loi de défense de la liberté d'expression. On retrouve un concept similaire dans la protection des données personnelles prévue par le RGPD : le rapport asymétrique entre l'entité qui collecte des données et le particulier dont on collecte les données crée une obligation particulière du collecteur pour protéger les libertés de l'individu.

Laissé dans l'ombre

Il y a d'autres angles de lecture que je laisse dans l'ombre ici, parce qu'ils ne sont pas utiles à mon raisonnement, bien qu'ils aillent clairement dans le même sens. Je veux citer ceux que j'ai en tête, pour qu'on ne pense pas qu'ils ont été oubliés. Ils demandent souvent une analyse assez longue, et qui ne me semblait pas rigoureusement nécessaire ici.

D'abord il y a l'inversion des rapports entre sujet et objet. Dans le contrat qui me lie à mon fournisseur d'accès à Internet (FDN, ou Orange), l'accès à Internet est l'objet du contrat, et le FAI et moi en sommes les sujets. Nous convenons entre nous comment l'un va à la demande de l'autre réaliser une prestation qui porte sur l'objet. Quand un service est financé par la publicité, ce rapport s'inverse. Le contrat, le vrai contrat, celui qui fait rentrer de l'argent, est entre le publicitaire et le service. C'est ce contrat qui compte. Et dans ce contrat, je suis devenu l'objet. Le publicitaire passe un contrat avec le prestataire du service qui porte sur la mise à disposition de l'objet du contrat, à savoir l'utilisateur. Dans ce modèle l'utilisateur est devenu l'objet d'un contrat auquel il n'a pas accès. C'est vicié, de base. Ça veut dire que l'utilisateur n'a rien à attendre du prestataire, qui n'est pas à son service.

Ensuite, il y a l'économie de l'attention. Ce qui intéresse ces grands afficheurs, c'est de pouvoir focaliser l'attention des gens. Donc de mettre en avant des émotions, et ce faisant de faire passer la raison en arrière plan (les publicitaires veulent ça, ça rend beaucoup plus perméable aux messages). Les messages qui font le plus directement appel à nos émotions sont donc favorisés, que ce soient des émotions douces (oh, le jouli petit chat...) ou des émotions dures (les propos haineux, la rage de voir encore une horreur de dite, etc). Le mécanisme de la publicité a besoin de faire appel à nos émotions, et cet état émotif nous fait rester plus longtemps face aux contenus, nous fait interagir plus. C'est ce qui donne sa valeur au contenu putaclic.

Ensuite, il y a la notion d'éthique de l'entreprise. Certaines entreprises ont une éthique, ça arrive. Mais cette éthique n'est que celle portée par le pacte d'actionnaires. Que les actionnaires changent et l'éthique change. L'entreprise lucrative n'est pas mauvaise en elle-même, mais les questions éthiques y ont forcément un rôle second. Parfois, sa survie dépend de l'éthique qu'elle affiche (Free, dans son jeune temps, avait besoin de se montrer cool avec les geeks pour exister, par exemple). Mais sitôt que ce n'est plus le cas, que l'éthique n'est plus une condition de la survie, alors les questions éthiques passent en second plan, ou disparaissent complètement.

La somme

La somme de tous ces éléments nous amène bien à analyser le rôle de ces plateformes, de ces intermédiaires techniques, avec tous ces éléments.

  • L'action de leur propre chef, et non comme résultant d'un choix explicite et délibéré de l'utilisateur (hiérarchisation des contenus, censure discrétionnaire, etc) crée une forme de responsabilité.
  • Les visées lucratives jouent également un rôle : le but de la hiérarchisation est bien de maximiser le revenu publicitaire, pas de servir l'intérêt général ou les goûts du lecteur. Ce n'est pas la position neutre d'un intermédiaire technique au sens strict.
  • La centralisation du réseau considéré empêche de changer de "fournisseur", en empêchant l'interconnexion et la normalisation, et donc crée de fait un monopole sur le marché considéré sitôt qu'il concerne un grand nombre d'utilisateurs. On peut par exemple considérer que Facebook occupe une position de monopole de la censure sur son réseau, et une position d'acteur dominant sur le marché de la publication des contenus, et monopolistique si on le rapporte au réseau Facebook, alors qu'aucune plateforme n'est en position monopolistique pour le réseau Mastodon/Fediverse.
  • Enfin, la taille joue, en plus de la centralisation. Un très gros acteur sur un réseau ouvert doit être considéré comme un acteur dominant. Un acteur centralisé, mais très petit, ne crée par un dommage considérable à la société par son action, ou en tous cas pas un dommage aussi considérable que s'il était utilisé par une large part de la population.

Ce sont tous ces éléments-là qui m'amènent à penser que l'analyse de Calimaq est relativement juste. Son propos reprenait cette distinction, ce nouveau rôle, sans l'avoir convenablement introduite, ça peut dérouter.

Il y a bien un modèle de réseau qui me semble plus souhaitable socialement et économiquement, le modèle de réseau ouvert, fait de nombreux acteurs, offrant une capacité d'interconnexion, etc. Il me semble raisonnable que les acteurs qui ont un rôle dominant, soit par leur centralisation soit par leur grande taille, se voient contraints à une grande neutralité pour nous protéger contre l'arbitraire.

Je suis en désaccord avec les choix de la directive copyright. Mon approche est que la position particulière de ces grands acteurs devrait leur interdire toute censure en dehors d'un processus contradictoire, tranché par une autorité indépendante, susceptible d'appel, et passant au moment voulu par la Justice. Mais l'approche qui consiste à dire qu'ils sont des professionnels de la censure et qu'ils ont donc des obligations de résultat de ce fait est toute aussi logique. Malsaine pour la société, parce qu'on a privatisé la censure. Mais logique.

Et le fait que cette directive fasse une différence entre ces grands acteurs dangereux et des acteurs plus souhaitables socialement, c'est également un point plutôt positif.

C'est bien parce que l'éléphant n'est pas la souris qu'on a inventé des législations pour se protéger des géants économiques : de l'anti-trust, de l'anti-monopole, de la régulation sectorielle (l'industrie pharmaceutique ne répond pas aux mêmes normes que les marchands de souvenirs, par exemple).

Ce dont je suis convaincu, c'est que l'irresponsabilité associée au statut d'hébergeur tel qu'il était défini historiquement doit être revisitée. Cette irresponsabilité était une conséquence logique du fait que cet intermédiaire technique n'avait pas d'action propre, autre que la réalisation du transport ou de l'hébergement des données. Et il est certain que les grandes plateformes ont une action propre.

Je ne suis pas certain des conclusions, des critères exacts qu'il faut utiliser pour délimiter ce nouveau rôle. Ce que je propose ici c'est une piste de définition de ces critères.

  • 1. Le législateur étant ce qu'il est, ces noms n'apparaissent jamais. On parle toujours des personnes désignées au 1. du I de l'article 6 de la LCEN, ou désignées au 1 et 2 du I de l'article... Bref, des périphrases affreuses et incompréhensibles. Il faut bien justifier le salaire des juristes.
  • 2. En effet, si on veut s'en tenir au mot, une contrefaçon, un produit contrefait, c'est un produit qui prétend être (par exemple de telle grande marque) mais qui n'est pas. Par exemple les "fausses Rolex", ou les "fausses Nikes". Un fichier musical mis en ligne sans accord des ayants droits n'est pas véritablement contrefait. C'est vraiment le fichier musical que ça prétend, et pas une mauvaise reprise jouée par des amateurs dans leur cave. Dans un cas il y a tromperie sur la qualité de la marchandise, dans l'autre c'est bien le bon produit, mais il y a un défaut d'autorisation et/ou de rémunération. Reste que la loi amalgame les deux. Lutter contre la contrefaçon c'est autant lutter contre les faux médicaments, les imitations des grandes marques, que lutter contre le partage des œuvres entre particuliers sans accord des maisons d'édition.
  • 3. C'est un peu à l'opposé de l'idée qu'il existe une justice : si la décision de savoir si c'est conforme à la loi ou pas est toujours manifeste, et donc simple, à quoi peuvent bien servir les juges qui ont à en décider ? Par exemple, savoir si "Le Petit Prince" est encore couvert par le droit d'auteur ou non est une question fort complexe. Il se trouve que ça dépend du pays, pour de sombres histoires de durée du droit d'auteur après la mort de l'auteur (variable d'un pays à l'autre), et de savoir si les années de guerre sont comptées ou non dans cette durée (les années de guerre ne sont pas les mêmes d'un pays à l'autre). Bien malin l'hébergeur qui sait si l'extrait du Petit Prince qui est mis en ligne chez lui est manifestement illégal, ou pas.
]]>
10 octobre 2018 - Nous partageons la tribune de Benjamin Bayart, publiée aujourd'hui sur son blog et poursuivant nos discussions sur le statut des hébergeurs (relire notre article sur la décentralisation, la tribune de Calimaq et celle d'Arthur).

C'est un débat ancien autour des libertés numériques, que de délimiter la responsabilité des intermédiaires techniques. Pour essayer de raconter ça, il faut que je fasse appel à des notions assez nombreuses, et parfois peu habituelles dans le domaine. Après un petit rappel des positions historiques, sur les notions d'éditeur et d'hébergeur, je vais poser quelques notions venues d'autres domaines, ou de phénomènes plus récents. Le but est d'essayer de proposer une grille de lecture différente : un troisième statut, quelque part entre éditeur et hébergeur, et les conséquences que ça porte.

On peut arriver à la même conclusion (ce troisième statut) par d'autres arguments, dont je n'ai pas besoin pour articuler mon raisonnement. J'ai regroupé ces arguments, pour au moins les citer, qu'ils ne donnent pas l'impression d'avoir été oublié.

Tout ça est le fruit de beaucoup de discussions. L'idée de quelque chose entre éditeur et hébergeur est sortie de discussions ces 3-4 dernières années à la quadrature. La façon dont j'articule entre eux ces différents éléments est le fruit de mon expérience personnelle, le mélange des réflexions de plusieurs collectifs.

Contexte historique

On peut faire remonter la question, en France, à l'affaire "Estelle Hallyday contre Altern". Ce n'est pas la première fois que la question se posait, mais c'est celle qui a marqué les esprits.

Altern était un hébergeur associatif, articulé avec une TPE (la TPE permettait au mec de manger, l'association hébergeait gratuitement). Près de 50.000 sites perso étaient hébergés chez Altern. On situe mal, mais 50.000 sites, à la fin des années 90, c'est un morceau colossal du web en France. Et toutes ces pages sont hébergées gratuitement, sans pub, sans contre-partie, par une association.

Des photos dénudées d'Estelle Hallyday avaient été publiées dans la presse. Un petit malin les a scannées et mises en ligne sur son site. La dame a porté plainte... contre l'hébergeur. À aucun moment la police ou la justice ne se sont intéressées à savoir qui était derrière le site, le nom de l'hébergeur leur suffisait bien. Il a été très lourdement condamné, une somme déraisonnable qui a forcé à fermer le volet associatif d'Altern : le risque était devenu trop grand. Une FAQ de 1999 sur l'affaire redonne les éléments clefs de la discussion de l'époque.

C'est cette histoire qui a été utilisée pour expliquer aux députés et sénateurs de l'époque que nous avions un problème dans le numérique. On se trompait de responsable devant la justice dans les affaires de presse (diffamation, injure, atteinte à la vie privée, etc). Le législateur français a mis très longtemps à converger vers une solution acceptable. C'est autour de 2004 que le débat arrive à la bonne conclusion.

Position définie par la LCEN

La LCEN organise en 2004 la responsabilité entre trois types d'acteurs1. Les fournisseurs d'accès et opérateurs réseaux, qui transportent l'information, les hébergeurs qui stockent l'information, et les éditeurs qui publient le contenu. Les éditeurs sont responsables de ce qui est publié, et assument les propos de l'auteur, en particulier dans les affaires dites de presse (diffamation, injure, publication d'informations portant atteinte à la vie privée des gens, etc). Les hébergeurs, quant à eux, ne sont pas responsables de ce qui est publié. Il devient obligatoire de faire figurer sur tout site web une indication de qui en est l'éditeur.

Le droit européen est articulé peu ou prou de la même manière. Les opérateurs du réseau doivent se comporter comme un "mere conduit", c'est-à-dire comme un simple/pur tuyau. Ils transportent les données sans tenir compte du contenu, et donc ne peuvent être responsable de ce qui se passe sur le réseau. De mémoire cette première notion, bien plus ancienne que celle de la neutralité du net, se trouve dans des directives de 2000 sur le commerce électronique.

Dans le web de la fin des années 90, et jusqu'à la fin des années 2000, ces notions suffisent à lire le monde. Si je prend des exemples actuels que tout le monde peut comprendre, OVH est un hébergeur, l'éditeur du site https://lefigaro.fr est le journal du même nom, et FDN ou Orange, quand ils vous permettent d'accéder au contenu mis en ligne par ce site web ne sont pas responsables si un de ces contenus est illégal. Et ce, que cette illégalité soit un délit de presse ou un autre délit (par exemple, la publication sans autorisation d'un contenu soumis au droit d'auteur, une des variantes de ce que la loi nomme contrefaçon, même si le terme semble bien impropre2).

La jurisprudence est venue apporter des nuances, parfois intéressantes, parfois idiotes. Dans les jurisprudences intéressantes : en 2010 Tiscali, qui hébergeait les pages perso de ses abonnés, et aurait à ce titre dû être considéré comme hébergeur, s'est vu requalifier par la Cour de cassation en éditeur parce qu'elle ajoutait de la publicité dans ces pages. Le juge a estimé que modifier le contenu, avec des visées lucratives, en faisait un éditeur et pas un simple hébergeur.

Par ailleurs, la LCEN prévoit que quand l'hébergeur a connaissance d'un contenu illicite, il doit le retirer rapidement. Le Conseil Constitutionnel, qui avait été saisi de la LCEN, avait bien précisé que ça ne pouvait être applicable que pour les contenus manifestement illicites (ergo, dans la pensée de l'époque, les contenus manifestement pédo-pornographiques et/ou manifestement néo-nazis). Les jurisprudences diverses, en France et en Europe, sont venues affaiblir cette décision du Conseil Constitutionnel. On considère de nos jours que quasiment toutes les illégalités sont manifestes3.

Évolution du paysage

Le développement de ce que les startupeurs digitaux appellent le Web 2.0 vient un peu compliquer l'affaire, mais à peine. Le Web 2.0, c'est le fait qu'une plateforme est mise à disposition du public, et que c'est le public qui produit le contenu. Par exemple les commentaires organisés en forum de discussion sous un article d'actualité. Par exemple les forums de chat fournis par tel ou tel site web pour la communauté de ses habitués. Par exemple Facebook au tout début.

L'analyse reste sensiblement la même. L'utilisateur est auteur-éditeur du message qu'il publie, de la page qui regroupe ses messages. Et la plateforme est analysée comme un hébergeur, qui se contente d'afficher au lecteur les messages regroupés comme le lecteur le lui a demandé, c'est-à-dire dans l'ordre chronologique des publications de chacun des utilisateurs dont il suit le fil de publication. C'est assez assimilable dans la théorie, à ce que fait un agrégateur de flux RSS, pour les gens qui voient ce que c'est.

Mais la pratique change. Ces grandes plateformes interviennent le plus en plus dans le flux des informations. Elles hiérarchisent l'information, selon des critères qui n'appartiennent qu'à elles. Strictement, elles hébergent un contenu qu'elles n'ont pas produit, le plus souvent, mais choisissent l'ordre d'affichage, et même si un contenu sera affiché ou non pour un lecteur donné. Plus elles interviennent dans l'affichage des contenus, moins leur rôle d'hébergeur passif semble adapté.

Responsabilité du fait d'autrui

Le principe de droit sous-jacent à une bonne part du débat est le fait que nul ne peut être tenu responsable du fait d'autrui. Si j'écris sur mon mur Facebook des choses contraires à la loi, il est légitime que j'en sois tenu responsable, et qu'on n'aille pas en faire reproche à quelqu'un d'autre (genre Facebook, qui a permis la diffusion de mon message, mon FAI qui m'a permis de publier, ton FAI qui t'a permis de le lire, le fabriquant de ton écran qui a permis l'affichage, ton marchand de lunettes qui t'a permis de lire malgré ta myopie, etc).

Tenir Facebook pour responsable de ce qu'écrivent les gens, c'est pas bon. Mais prétendre que Facebook ne fait rien et donc n'est responsable de rien, c'est pas bon non plus, parce que ce n'est pas vrai. On voit bien que quelque chose cloche ici. Il nous manque une notion, qui décrive ce que fait Facebook. Quand nous travaillons sur ces sujets, à La Quadrature, le mot que nous utilisons, c'est "afficheur". Facebook serait un afficheur, et en tant qu'afficheur il n'est pas neutre. C'est un intermédiaire technique qui n'est pas neutre dans l'exécution de son rôle, il doit donc logiquement assumer la responsabilité de ce qui découle de cette non-neutralité.

La neutralité du net

Les débats sur la neutralité du net sont pour moi, en dernière analyse, des débats sur un intermédiaire technique particulier, le fournisseur d'accès à Internet (et plus généralement, l'opérateur réseau).

Cet intermédiaire technique est tout-puissant. Il peut tout. Il peut m'empêcher d'accéder à un contenu, il peut ralentir l'accès à un service jusqu'à le rendre pénible à utiliser, il peut dégrader un service (perdre un paquet sur dix dans le flux d'une discussion audio la rend extrêmement pénible par exemple). Il peut surveiller à peu près la totalité de ce que je fais.

Du point de vue de l'abonné, il est tout-puissant, et incontournable : les gens n'ont qu'un seul accès à Internet chez eux, ils ne jonglent pas entre 5 abonnements à Internet à tout moment, utilisant l'abonnement Machin pour accéder à un site et l'abonnement Truc pour accéder à un autre. Les gens normaux (quelques geeks dans mon genre font autrement) ont un seul opérateur pour accéder à Internet et ils espèrent bien accéder à tout Internet, de manière indiscriminée.

Ce que disent les textes sur la neutralité du net peut se résumer assez facilement : en tant qu'intermédiaire technique incontournable, ayant de grands pouvoirs, l'opérateur n'a pas le droit d'utiliser ces grands pouvoirs n'importe comment. En particulier, s'il s'en sert pour (dé)favoriser un contenu, une adresse source, une adresse de destination, un type de service, etc, ça lui sera reproché. S'il sort d'une stricte neutralité d'intermédiaire technique sans raison valable, ça lui sera reproché.

Et les texte européens listent les raisons valables connues : la sécurité du réseau, le bon fonctionnement du réseau, une décision de justice, etc. Un accord commercial avec une plateforme n'est, ainsi, pas une raison valable de prioriser des flux.

Les textes sur la neutralité du net ne parlent pas de la responsabilité éditoriale, bien entendu, mais ils posent des principes de droit qui sont utiles : un intermédiaire technique, quand il sort de la neutralité qu'on attend de lui, prend une responsabilité, il devient responsable de ce qui arrive suite à cette sortie de route.

La transposition à la responsabilité éditoriale est cependant assez simple : quand une plateforme joue un rôle central dans la capacité du public à diffuser de l'information, ou à accéder à l'information, et qu'elle sort de la neutralité technique, alors elle devrait recevoir la responsabilité des effets de cette sortie. Que ce soient des effets économiques (concurrence, distorsion d'un marché, etc) ou des effets sociaux (montée des violences, montée des haines, etc). On ne peut pas jouer un rôle actif dans une position de puissance et dire qu'on n'est pas responsable des effets du rôle qu'on joue.

Un opérateur dominant

Une autre notion intéressante est celle, venue du droit de la concurrence, d'acteur dominant sur un marché. C'est une notion qui s'analyse de manière locale, sur un marché donné. Ainsi si on s'intéresse au marché européen, au marché français, ou au marché d'un bassin de vie, les acteurs dominants identifiés ne sont pas les mêmes.

Certaines pratiques sont interdites pour un ou des acteurs dominants sur un ou des marchés donnés.

Ainsi, un tarif d'éviction. C'est quand un acteur, dominant sur un marché, pratique des prix tellement bas qu'il empêche les autres de s'installer sur ce marché, et donc s'assure la perpétuité de sa position dominante. Ainsi, si autour de chez moi il y a une boulangerie qui a une part tellement forte du marché des croissants qu'on la considère comme un acteur dominant (genre 90% des ventes de croissants du coin). Quand une nouvelle boulangerie ouvre, elle fait une promotion intenable (le croissant à 10 centimes, mettons). On peut analyser ça comme la pratique d'un tarif d'éviction. Dans une boulangerie qui a une petite part de marché, ce serait simplement une promo pour attirer le client. Dans une boulangerie qui détient une part colossale du marché, c'est un tarif destiné à tuer les concurrents et assurer un monopole pour l'opérateur dominant sur le marché une fois que les concurrents auront coulé, auront été évincés (d'où le nom "tarif d'éviction").

Il faut bien analyser ça sur le bon marché. En effet, la position dominante de la boulangerie ne joue pas sur le marché des fruits et légumes, ou ne joue pas sur le marché national des croissants. Elle fait bien 90% dans ma ville, mais un pourcentage infime au niveau national ou européen.

On peut essayer de transposer ces principes dans le cas qui nous intéresse. Les grandes plateformes sont des acteurs dominants sur certains marchés. Traditionnellement, on fait cette analyse sur un vrai marché, commercial. On peut par exemple se demander si Facebook et Google sont des acteurs dominants sur le marché de la publicité en ligne. Mais on peut utiliser cet outil pour penser des choses qui ne sont pas des marchés au sens commercial, et se demander si Facebook et Twitter jouent un rôle central dans la diffusion des contenus publiés par leurs utilisateurs, et si on peut donc leur reprocher les effets de leurs décisions en raison de leur taille. La même décision, de la part d'un acteur hyper minoritaire et n'ayant pas d'influence significative sur le "marché" (ou sur le phénomène social) considéré n'aurait pas la même responsabilité.

La taille est bien un critère pertinent pour juger de la responsabilité des acteurs. Non, un éléphant, ce n'est pas une souris en plus gros.

La censure

Facebook, ou Apple, opèrent une censure. Une censure a priori, où certains contenus sont censurés d'autorité, selon des procédures floues et discrétionnaires, le plus souvent sans appel et sans contradictoire. C'est un rôle actif, qui sort totalement de la notion d'intermédiaire technique neutre. Et qui est le fait d'acteurs dominants sur les "marchés" considérés.

On peut soit considérer que ces censeurs sont sortis de leur rôle neutre et technique, et que donc ils perdent l'exemption générale de responsabilité, qu'ils portent atteinte au principe de neutralité qu'on attend d'eux (même si, pour l'heure, aucun texte de loi ne prévoit ça de manière claire). Soit considérer, ce qui est sensiblement équivalent, qu'ils jouent un rôle actif dont ils sont responsables. N'ayant pas réussi à censurer les contenus illégaux, alors qu'ils jouent un rôle actif de censure a priori (Facebook censure les images dont ses outils supposent que ce sont des nus, avec régulièrement des erreurs) et de censure a posteriori (ces plateformes censurent sur signalement par les utilisateurs), on peut les considérer comme responsable de l'échec de leur censure.

Dans un cas, on estime que ces plateformes devraient se voir interdire la censure discrétionnaire, qu'il devrait y avoir des mécanismes transparents et conformes au droit pour traiter les problèmes. Par exemple du notice-and-notice : quelqu'un signale qu'un contenu pose problème. Le signalement est transmis anonymement à l'auteur. L'auteur peut retirer son contenu, ou décider de persister. Si les deux parties persistent à dire qu'il y a problème, le dossier complet est transmis à la justice qui arbitre le différend. Dans une posture comme celle-là, l'intermédiaire technique est de nouveau neutre. Il n'a pas décidé si le contenu lui semblait légal ou pas. On ne peut pas le tenir responsable d'une décision.

Dans l'autre cas, on estime normal que la plateforme joue un rôle de censeur, et qu'on peut lui tenir rigueur de ses erreurs dans la censure. Auquel cas tout contenu illégal qui arrive à franchir la barrière peut lui être reproché.

Je préfère bien entendu la première solution. Mais les deux sont logiques.

Centralisation ou ouverture

Le fait qu'une plateforme soit centralisée ou non est également un critère. L'exemple qui vient spontanément en tête est la comparaison entre les systèmes de messagerie fermés (iMessage d'Apple, Messenger de Facebook, les messages directs de Twitter, etc) et les systèmes de messagerie ouverts (par exemple le mail). Ou la comparaison entre un réseau de micro-blog fermé (Twitter) et un réseau de micro-blog ouvert (Mastodon).

Dans le cas d'un système centralisé et fermé, une décision de la plateforme centrale a un effet absolu. Si je suis banni de Twitter, je suis banni de l'intégralité du réseau de Twitter. Si cette décision est arbitraire, et fondée sur des critères qui ne peuvent pas être négociés, elle est absolue et incontournable. Elle est le fait d'un acteur dominant.

Dans le cas d'un système acentré et ouvert, une décision de la plateforme qui hébergeait mon compte de me bannir a un effet bien moindre. Je peux aller ouvrir un compte sur une autre instance du même réseau (quand mon compte mail de laposte.net est fermé, je peux aller ouvrir une adresse mail ailleurs). Si un nœud du réseau se met à détenir une part élevée des comptes, alors l'analyse en position dominante redevient pertinente : quand gmail.com ou outlook.com décident d'imposer des règles en matière de mail, même si le réseau est ouvert, ils représentent une part tellement grande du réseau du mail que leur norme s'impose de fait à tous les autres. Ils deviennent bien un acteur dominant de ce réseau.

La définition des libertés

À la fin du 18e siècle, quand on a défini les libertés fondamentales, on les a défini par rapport à la puissance publique. Quand on parle de liberté d'expression, on parle d'empêcher l'État (ou le roi) de censurer de manière arbitraire. Les libertés fondamentales, les droits de l'Homme, sont définis pour protéger les citoyens, les individus, contre les abus de la puissance publique.

Typiquement, le premier amendement de la constitution américaine, qui protège la liberté d'expression, interdit au législateur de faire une loi dont l'effet serait de priver le citoyen de la libre expression de son opinion. Facebook n'étant pas législateur, ça ne le concerne pas, il peut bien censurer comme il a envie et prendre toutes décisions visant à censurer.

Le rapport asymétrique qui existe aujourd'hui entre un particulier et une grande multi-nationale crée un rapport d'une nature similaire à celui qui existe entre le citoyen et l'État, un rapport asymétrique où une seule des deux parties peut établir les clauses du contrat. Le contrat qui existe entre Facebook et ses utilisateurs n'est pas de la même nature que le contrat qui existe entre deux particuliers. Les deux signataires du contrat ne sont pas dans un rapport de force symétrique. Or tout le droit autour de la liberté de contracter suppose une adhésion, soit que chaque clause était négociable (pour un contrat de gré à gré), soit qu'on pouvait ne pas adhérer au contrat et aller chercher un service similaire ailleurs (pour un contrat d'adhésion). Bref, on suppose que les deux parties sont engagées par un consentement mutuel entre pairs.

Il y a déjà de nombreuses zones du droit où l'asymétrie du rapport de forces a été prise en compte pour définir des droits qui ne sont pas symétriques. Par exemple l'obligation de conseil d'un pro : il ne doit pas vous laisser choisir une mauvaise solution s'il sait qu'elle est mauvaise, il doit vous conseiller au mieux de vos intérêts, pas des siens. Par exemple le contrat de prêt que vous signez avec le banquier : vous n'êtes pas en position de le négocier, alors la loi a très strictement encadré ce que le banquier a le droit de vous proposer. C'est toute cette partie du droit qui permet régulièrement aux tribunaux de dire que des clauses d'un contrat étaient abusives, et qu'on doit donc considérer qu'elles n'existent pas (les juristes parlent de "clauses réputées non-écrites").

Il n'y a pas, pour le moment, de garantie des libertés dans un rapport contractuel asymétrique. Facebook, Twitter ou Google ne peuvent pas être condamnés pour censure abusive de mes propos. Seul l'État pourrait être condamné pour ça. C'est par exemple pour ça qu'il y a quelques années, avec quelques autres, nous avions rédigé une proposition de loi de défense de la liberté d'expression. On retrouve un concept similaire dans la protection des données personnelles prévue par le RGPD : le rapport asymétrique entre l'entité qui collecte des données et le particulier dont on collecte les données crée une obligation particulière du collecteur pour protéger les libertés de l'individu.

Laissé dans l'ombre

Il y a d'autres angles de lecture que je laisse dans l'ombre ici, parce qu'ils ne sont pas utiles à mon raisonnement, bien qu'ils aillent clairement dans le même sens. Je veux citer ceux que j'ai en tête, pour qu'on ne pense pas qu'ils ont été oubliés. Ils demandent souvent une analyse assez longue, et qui ne me semblait pas rigoureusement nécessaire ici.

D'abord il y a l'inversion des rapports entre sujet et objet. Dans le contrat qui me lie à mon fournisseur d'accès à Internet (FDN, ou Orange), l'accès à Internet est l'objet du contrat, et le FAI et moi en sommes les sujets. Nous convenons entre nous comment l'un va à la demande de l'autre réaliser une prestation qui porte sur l'objet. Quand un service est financé par la publicité, ce rapport s'inverse. Le contrat, le vrai contrat, celui qui fait rentrer de l'argent, est entre le publicitaire et le service. C'est ce contrat qui compte. Et dans ce contrat, je suis devenu l'objet. Le publicitaire passe un contrat avec le prestataire du service qui porte sur la mise à disposition de l'objet du contrat, à savoir l'utilisateur. Dans ce modèle l'utilisateur est devenu l'objet d'un contrat auquel il n'a pas accès. C'est vicié, de base. Ça veut dire que l'utilisateur n'a rien à attendre du prestataire, qui n'est pas à son service.

Ensuite, il y a l'économie de l'attention. Ce qui intéresse ces grands afficheurs, c'est de pouvoir focaliser l'attention des gens. Donc de mettre en avant des émotions, et ce faisant de faire passer la raison en arrière plan (les publicitaires veulent ça, ça rend beaucoup plus perméable aux messages). Les messages qui font le plus directement appel à nos émotions sont donc favorisés, que ce soient des émotions douces (oh, le jouli petit chat...) ou des émotions dures (les propos haineux, la rage de voir encore une horreur de dite, etc). Le mécanisme de la publicité a besoin de faire appel à nos émotions, et cet état émotif nous fait rester plus longtemps face aux contenus, nous fait interagir plus. C'est ce qui donne sa valeur au contenu putaclic.

Ensuite, il y a la notion d'éthique de l'entreprise. Certaines entreprises ont une éthique, ça arrive. Mais cette éthique n'est que celle portée par le pacte d'actionnaires. Que les actionnaires changent et l'éthique change. L'entreprise lucrative n'est pas mauvaise en elle-même, mais les questions éthiques y ont forcément un rôle second. Parfois, sa survie dépend de l'éthique qu'elle affiche (Free, dans son jeune temps, avait besoin de se montrer cool avec les geeks pour exister, par exemple). Mais sitôt que ce n'est plus le cas, que l'éthique n'est plus une condition de la survie, alors les questions éthiques passent en second plan, ou disparaissent complètement.

La somme

La somme de tous ces éléments nous amène bien à analyser le rôle de ces plateformes, de ces intermédiaires techniques, avec tous ces éléments.

  • L'action de leur propre chef, et non comme résultant d'un choix explicite et délibéré de l'utilisateur (hiérarchisation des contenus, censure discrétionnaire, etc) crée une forme de responsabilité.
  • Les visées lucratives jouent également un rôle : le but de la hiérarchisation est bien de maximiser le revenu publicitaire, pas de servir l'intérêt général ou les goûts du lecteur. Ce n'est pas la position neutre d'un intermédiaire technique au sens strict.
  • La centralisation du réseau considéré empêche de changer de "fournisseur", en empêchant l'interconnexion et la normalisation, et donc crée de fait un monopole sur le marché considéré sitôt qu'il concerne un grand nombre d'utilisateurs. On peut par exemple considérer que Facebook occupe une position de monopole de la censure sur son réseau, et une position d'acteur dominant sur le marché de la publication des contenus, et monopolistique si on le rapporte au réseau Facebook, alors qu'aucune plateforme n'est en position monopolistique pour le réseau Mastodon/Fediverse.
  • Enfin, la taille joue, en plus de la centralisation. Un très gros acteur sur un réseau ouvert doit être considéré comme un acteur dominant. Un acteur centralisé, mais très petit, ne crée par un dommage considérable à la société par son action, ou en tous cas pas un dommage aussi considérable que s'il était utilisé par une large part de la population.

Ce sont tous ces éléments-là qui m'amènent à penser que l'analyse de Calimaq est relativement juste. Son propos reprenait cette distinction, ce nouveau rôle, sans l'avoir convenablement introduite, ça peut dérouter.

Il y a bien un modèle de réseau qui me semble plus souhaitable socialement et économiquement, le modèle de réseau ouvert, fait de nombreux acteurs, offrant une capacité d'interconnexion, etc. Il me semble raisonnable que les acteurs qui ont un rôle dominant, soit par leur centralisation soit par leur grande taille, se voient contraints à une grande neutralité pour nous protéger contre l'arbitraire.

Je suis en désaccord avec les choix de la directive copyright. Mon approche est que la position particulière de ces grands acteurs devrait leur interdire toute censure en dehors d'un processus contradictoire, tranché par une autorité indépendante, susceptible d'appel, et passant au moment voulu par la Justice. Mais l'approche qui consiste à dire qu'ils sont des professionnels de la censure et qu'ils ont donc des obligations de résultat de ce fait est toute aussi logique. Malsaine pour la société, parce qu'on a privatisé la censure. Mais logique.

Et le fait que cette directive fasse une différence entre ces grands acteurs dangereux et des acteurs plus souhaitables socialement, c'est également un point plutôt positif.

C'est bien parce que l'éléphant n'est pas la souris qu'on a inventé des législations pour se protéger des géants économiques : de l'anti-trust, de l'anti-monopole, de la régulation sectorielle (l'industrie pharmaceutique ne répond pas aux mêmes normes que les marchands de souvenirs, par exemple).

Ce dont je suis convaincu, c'est que l'irresponsabilité associée au statut d'hébergeur tel qu'il était défini historiquement doit être revisitée. Cette irresponsabilité était une conséquence logique du fait que cet intermédiaire technique n'avait pas d'action propre, autre que la réalisation du transport ou de l'hébergement des données. Et il est certain que les grandes plateformes ont une action propre.

Je ne suis pas certain des conclusions, des critères exacts qu'il faut utiliser pour délimiter ce nouveau rôle. Ce que je propose ici c'est une piste de définition de ces critères.

  • 1. Le législateur étant ce qu'il est, ces noms n'apparaissent jamais. On parle toujours des personnes désignées au 1. du I de l'article 6 de la LCEN, ou désignées au 1 et 2 du I de l'article... Bref, des périphrases affreuses et incompréhensibles. Il faut bien justifier le salaire des juristes.
  • 2. En effet, si on veut s'en tenir au mot, une contrefaçon, un produit contrefait, c'est un produit qui prétend être (par exemple de telle grande marque) mais qui n'est pas. Par exemple les "fausses Rolex", ou les "fausses Nikes". Un fichier musical mis en ligne sans accord des ayants droits n'est pas véritablement contrefait. C'est vraiment le fichier musical que ça prétend, et pas une mauvaise reprise jouée par des amateurs dans leur cave. Dans un cas il y a tromperie sur la qualité de la marchandise, dans l'autre c'est bien le bon produit, mais il y a un défaut d'autorisation et/ou de rémunération. Reste que la loi amalgame les deux. Lutter contre la contrefaçon c'est autant lutter contre les faux médicaments, les imitations des grandes marques, que lutter contre le partage des œuvres entre particuliers sans accord des maisons d'édition.
  • 3. C'est un peu à l'opposé de l'idée qu'il existe une justice : si la décision de savoir si c'est conforme à la loi ou pas est toujours manifeste, et donc simple, à quoi peuvent bien servir les juges qui ont à en décider ? Par exemple, savoir si "Le Petit Prince" est encore couvert par le droit d'auteur ou non est une question fort complexe. Il se trouve que ça dépend du pays, pour de sombres histoires de durée du droit d'auteur après la mort de l'auteur (variable d'un pays à l'autre), et de savoir si les années de guerre sont comptées ou non dans cette durée (les années de guerre ne sont pas les mêmes d'un pays à l'autre). Bien malin l'hébergeur qui sait si l'extrait du Petit Prince qui est mis en ligne chez lui est manifestement illégal, ou pas.
]]>
Régulation des contenus : quelles obligations pour les géants du Web ?10634 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181009_141531_Regulation_des_contenus___quelles_obligations_pour_les_geants_du_Web__Tue, 09 Oct 2018 12:15:31 +0000Tribune d'Arthur Messaud

9 octobre 2018 - Il y a 10 jours, nous expliquions que décentraliser le Web offrait l'espoir d'une organisation démocratique de nos échanges en ligne, en solution à l'hégémonie de l'économie de l'attention. En effet, les géants du Web distordent nos échanges pour des raisons économiques en favorisant les propos anxiogènes, caricaturaux, violents ou payés... au détriment des autres, et cela doit être corrigé.

Pour favoriser une alternative décentralisée, nous proposions que les hébergeurs libres (qui ne nous imposent pas une hiérarchisation des contenus) ne soient plus soumis aux mêmes obligations légales que les plateformes géantes (qui nous imposent leur hiérarchisation des contenus).

Ces obligations légales, qui exigent de censurer de plus en plus vite les contenus « manifestement illicites » dont les hébergeurs ont connaissance, freinent le développement du Web décentralisé. Ainsi, nous proposions que les hébergeurs libres n'aient plus à supporter ces lourdes obligations : que seul un juge puisse exiger d'eux qu'ils censurent un contenu.

Aujourd'hui, la question que nous abordons ne concerne plus les hébergeurs libres, mais les autres : quelles obligations imposer aux plateformes géantes ?

Le pouvoir des géants

Ce récit est malheureusement assez commun : vous vous êtes inscrit sur Facebook, Youtube ou Twitter il y a de nombreuses années et, depuis, vous y avez tissé de nombreuses relations (des « amis » ajoutés sur Facebook au fil des rencontres, un public attentif réuni sur Youtube, des personnes pertinentes suivies sur Twitter). Au fil des années, ces plateformes ont adopté des règles de hiérarchisation des contenus de plus en plus contraignantes.

Facebook et Instagram se sont mis à censurer toute image contraire à leur vision puritaine de la société, à masquer les sites de presse contraires à ce qu'ils jugent être le « juste débat » et à organiser nos « fils d'actualité » pour nous rendre plus réceptifs à leur publicité. Youtube favorise des vidéos de plus en plus anxiogènes, pour nous faire rester le plus longtemps possible sur son site, au détriment des autres vidéos dont l'audience devient de plus en plus gérée par l'entreprise seule. Twitter organise nos échanges pour les rendre de plus en plus vifs et captifs, sans se soucier des conséquences sur le débat public.

Plus généralement, s'est tissé « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt financier des réseaux sociaux est d’en héberger le plus possible » (« Renforcer la lutte contre le racisme et l'antisémitisme sur Internet », Rapport au Premier Ministre, p. 36).

Pourtant, nombre d'entre nous restons sur ces plateformes. Nous ne pouvons pas rompre d'un coup tous les liens que nous y avons tissés. Nous subissons toutes ces nouvelles contraintes sans les avoir choisies ni sans pouvoir vraiment y échapper. C'est ce qu'il faut corriger.

Un nouveau statut juridique

Si l'on souhaite utiliser le droit pour corriger les géants, il faut d'abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d'hébergeur et d'éditeur ; moins souple que le premier, moins strict que le second.

Le « pouvoir de contrainte » des géants pourrait être ce critère permettant de délimiter leur nouveau statut. Ce « pouvoir » apparaît lorsque les utilisateurs d'une plateforme ne peuvent pas la quitter sans subir des « conséquences négatives », ce qui permet à la plateforme d'imposer les règles de son choix. Dans notre exemple précédent, ces « conséquences négatives » étaient la perte des liens humains tissés sur la plateforme. Pour mesurer la gravité de cette perte, ces liens peuvent être appréciés selon la taille de la plateforme, sa durée d'existence et son fonctionnement, par exemple.

Les « conséquences négatives » à prendre en compte pour mesurer le « pouvoir de contrainte » des plateformes ne doivent pas se limiter à ce seul exemple. En effet, pour choisir ce critère, nous nous sommes directement inspirés du principe de « liberté du consentement » qui est au cœur du RGPD (voir par exemple notre plainte contre Google, p. 4, pour plus de détails). Aujourd'hui, nous proposons d'étendre ce critère aux questions de liberté d'information, avec toute la souplesse qu'il offre pour s'adapter à différentes situations.

Une fois ce critère posé, vient la question du contenu de ce nouveau statut (dans la suite de notre propos, nous appelons « géants » tout service qui dispose du « pouvoir de contrainte » défini ci-dessus - et pas seulement les GAFAM).

Il y a plusieurs façons d'empêcher les géants d'abuser de leur pouvoir pour nous enfermer dans leurs règles nocives, qui distordent nos échanges à leurs fins personnelles. Dans les débats à venir, nous devrons identifier les meilleures façons de le faire. Nous soumettons ici des premières pistes.

Et, pour commencer, il semble utile de revenir aux fondamentaux. De repartir du principe à la base de la neutralité du Net : si vous n'avez pas vraiment le choix d'utiliser un service pour communiquer, ce service ne doit pas être autorisé à hiérarchiser (favoriser, ralentir ou censurer) les informations que vous publiez et recevez, sauf si la loi l'exige (relire notre rapport de 2010 sur la neutralité du Net).

Ainsi, il faut imposer aux géants le choix suivant : renoncer à leur pouvoir de contrainte (et donc redevenir de simples hébergeurs) ou devenir neutre.

S'ouvrir à la décentralisation...

En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n'avons pas d'autre choix que de continuer à les utiliser. C'est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d'autres services : s'ils nous permettent de continuer de parler avec nos « amis Facebook » sans être nous-même encore inscrits sur Facebook.

Techniquement, cette « interopérabilité » passe par l'application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub propose un standard pour « réseaux sociaux décentralisés » - et nous y voyons l'espoir concret de l'essor d'un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » créé par le RGPD (à l'article 20) et qui, sans interopérabilité entre plateformes, peine pour l'instant à démontrer son utilité.

Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature). Depuis ce nouveau service, nous pourrions continuer de recevoir et d'envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.

Ainsi, dès lors qu'un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le cercle vertueux de la décentralisation reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu'au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.

Dans tous les cas, il serait tenu, comme n'importe quel hébergeur, d'afficher clairement ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d'hébergeur « plus souple » ne signifie en aucun cas d'alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.

... ou devenir neutre

Dans le cas où un géant refuserait de s'ouvrir à la décentralisation (en refusant d'appliquer les standards le permettant), il devrait lui être interdit de hiérarchiser nos échanges selon ses propres règles - puisque nous ne pouvons pas échapper à celles-ci.

Cette interdiction pourrait prendre différentes formes. Par exemple, cela pourrait être une interdiction de principe contrôlée par une autorité indépendante (de même que la neutralité du Net est protégée par l'ARCEP - l'autorité de régulation des communications électroniques et des postes). Aussi, cela pourrait être la possibilité pour chaque personne d'attaquer en justice un géant qui aurait censuré un contenu licite. Enfin, en cas de censure répétée de contenus licites, par exemple, ces actions en justice pourraient prendre la forme de plaintes collectives (de la même façon que le RGPD nous a permis d'agir à 12 000 personnes contre les GAFAM pour protéger nos données personnelles). Rappelons, que, aujourd'hui, se défendre contre ces censures abusives est pratiquement impossible.

Pour résumer : si les géants continuent de nous enfermer (en refusant de s'ouvrir à la décentralisation), ils doivent devenir neutres (ne pas censurer de contenus licites ni en favoriser certains aux détriments d'autres). Cette absence de hiérarchisation serait vaine si elle n'était pas totale : elle doit autant interdire la censure de nus réalisée par Facebook que la mise en avant de contenus favorisant l'économie de l'attention ou étant payés par leur émetteur (à des fins publicitaires). C'est cette même rigueur qui est la base de la neutralité du Net et qu'il faudra appliquer strictement. Autrement, aucune des dérives de l'économie de l'attention ne sera corrigée.

Aucune censure automatisée

Dans tous les cas, les géants, mêmes neutres, ne doivent être soumis à aucune obligation de surveiller les contenus qu'ils diffusent pour censurer les informations « manifestement illicites » de façon automatique. Pourtant, c'est ce que prévoient en creux la directive sur le droit d'auteur ou la récente proposition de règlement européen contre la diffusion de contenus terroristes. Ces obligations sont inacceptables, au moins pour trois raison.

En premier lieu, la directive européenne de 2000 qui encadre l'activité des intermédiaires du Net prévoit déjà ceci, à son article 15 : « les États membres ne doivent pas imposer aux prestataires [...] une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette protection bénéficie à tous les intermédiaires du Net, même ceux non-neutres et ne bénéficiant pas du statut des hébergeurs stricto-sensu.

En deuxième lieu, indépendamment de cette directive, la Cour de justice de l'Union européenne juge depuis 2012 que ces obligations violeraient nos droits à la vie privée et à la liberté d'information, tels que reconnus par la Charte de droits fondamentaux de l'Union européenne. Précisément, la Cour affirme qu'imposer à une plateforme de « procéder à une surveillance active de la quasi-totalité des données concernant l’ensemble des utilisateurs de ses services, afin de prévenir toute atteinte future à des droits de propriété intellectuelle » (il s'agissait alors d'une affaire de contrefaçon) « impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier » et, d'autre part, « risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite ». Ainsi, une telle obligation « ne respecterait pas l’exigence d’assurer un juste équilibre entre le droit de propriété intellectuelle, d’une part, et la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations, d’autre part » (SABAM c. Netlog, CJUE, 3ème ch., 16 février 2012, C-360/10, points 38, 49, 50 et 51).

En troisième et dernier lieu, exiger que les géants surveillent tous les contenus en temps réel ne fera que favoriser le phénomène déjà problématique de la délocalisation à bas coût de la modération des contenus vers des armées d'employés travaillant dans des conditions extrêmement anxiogènes, afin de « compenser » des machines forcément imparfaites. La plupart souffrent déjà de traumatismes mentaux à force de « rester, des heures durant, l’œil rivé sur un écran d’ordinateur, où s’affichent des images et des vidéos de corps déchiquetés et écartelés, d’enfants noyés ou violentés, sans compter le flot continu d’injures et d’appels aux meurtres ».

Vouloir renforcer les obligations de censure imposées aux géants du Web est une fuite en avant. Elle repose sur l'idée aussi absurde que dangereuse que des solutions technologiques pourraient régler des problèmes avant tout sociaux et politiques. Surtout, elle refuse de prendre le problème à sa racine, pour se contenter d'en gérer les symptômes (nous dénoncions le même manque d'ambition dans la proposition de loi sur la diffusion de « fausses informations »).

L'économie de l'attention, devenue hégémonique sur Internet, est au centre du problème que le gouvernement prétend vouloir résoudre : la sur-diffusion de propos anxiogènes ou violents et notre sur-exposition à des interactions non-souhaitées. Seul le développement de services ouverts ou neutres permettra d'en contenir les dérives - ce qui, au passage, permettra au juge de se recentrer sur les infractions les plus graves.

Il y a bien des façons de favoriser le développement de ces alternatives. Nos propositions juridiques actuelles sont pensées comme des premières pistes, que nous vous invitons à discuter en nous écrivant ou en venant à notre prochaine réunion publique dans nos locaux, vendredi 12 octobre dès 19h, par exemple :)

]]>
Tribune d'Arthur Messaud

9 octobre 2018 - Il y a 10 jours, nous expliquions que décentraliser le Web offrait l'espoir d'une organisation démocratique de nos échanges en ligne, en solution à l'hégémonie de l'économie de l'attention. En effet, les géants du Web distordent nos échanges pour des raisons économiques en favorisant les propos anxiogènes, caricaturaux, violents ou payés... au détriment des autres, et cela doit être corrigé.

Pour favoriser une alternative décentralisée, nous proposions que les hébergeurs libres (qui ne nous imposent pas une hiérarchisation des contenus) ne soient plus soumis aux mêmes obligations légales que les plateformes géantes (qui nous imposent leur hiérarchisation des contenus).

Ces obligations légales, qui exigent de censurer de plus en plus vite les contenus « manifestement illicites » dont les hébergeurs ont connaissance, freinent le développement du Web décentralisé. Ainsi, nous proposions que les hébergeurs libres n'aient plus à supporter ces lourdes obligations : que seul un juge puisse exiger d'eux qu'ils censurent un contenu.

Aujourd'hui, la question que nous abordons ne concerne plus les hébergeurs libres, mais les autres : quelles obligations imposer aux plateformes géantes ?

Le pouvoir des géants

Ce récit est malheureusement assez commun : vous vous êtes inscrit sur Facebook, Youtube ou Twitter il y a de nombreuses années et, depuis, vous y avez tissé de nombreuses relations (des « amis » ajoutés sur Facebook au fil des rencontres, un public attentif réuni sur Youtube, des personnes pertinentes suivies sur Twitter). Au fil des années, ces plateformes ont adopté des règles de hiérarchisation des contenus de plus en plus contraignantes.

Facebook et Instagram se sont mis à censurer toute image contraire à leur vision puritaine de la société, à masquer les sites de presse contraires à ce qu'ils jugent être le « juste débat » et à organiser nos « fils d'actualité » pour nous rendre plus réceptifs à leur publicité. Youtube favorise des vidéos de plus en plus anxiogènes, pour nous faire rester le plus longtemps possible sur son site, au détriment des autres vidéos dont l'audience devient de plus en plus gérée par l'entreprise seule. Twitter organise nos échanges pour les rendre de plus en plus vifs et captifs, sans se soucier des conséquences sur le débat public.

Plus généralement, s'est tissé « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt financier des réseaux sociaux est d’en héberger le plus possible » (« Renforcer la lutte contre le racisme et l'antisémitisme sur Internet », Rapport au Premier Ministre, p. 36).

Pourtant, nombre d'entre nous restons sur ces plateformes. Nous ne pouvons pas rompre d'un coup tous les liens que nous y avons tissés. Nous subissons toutes ces nouvelles contraintes sans les avoir choisies ni sans pouvoir vraiment y échapper. C'est ce qu'il faut corriger.

Un nouveau statut juridique

Si l'on souhaite utiliser le droit pour corriger les géants, il faut d'abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d'hébergeur et d'éditeur ; moins souple que le premier, moins strict que le second.

Le « pouvoir de contrainte » des géants pourrait être ce critère permettant de délimiter leur nouveau statut. Ce « pouvoir » apparaît lorsque les utilisateurs d'une plateforme ne peuvent pas la quitter sans subir des « conséquences négatives », ce qui permet à la plateforme d'imposer les règles de son choix. Dans notre exemple précédent, ces « conséquences négatives » étaient la perte des liens humains tissés sur la plateforme. Pour mesurer la gravité de cette perte, ces liens peuvent être appréciés selon la taille de la plateforme, sa durée d'existence et son fonctionnement, par exemple.

Les « conséquences négatives » à prendre en compte pour mesurer le « pouvoir de contrainte » des plateformes ne doivent pas se limiter à ce seul exemple. En effet, pour choisir ce critère, nous nous sommes directement inspirés du principe de « liberté du consentement » qui est au cœur du RGPD (voir par exemple notre plainte contre Google, p. 4, pour plus de détails). Aujourd'hui, nous proposons d'étendre ce critère aux questions de liberté d'information, avec toute la souplesse qu'il offre pour s'adapter à différentes situations.

Une fois ce critère posé, vient la question du contenu de ce nouveau statut (dans la suite de notre propos, nous appelons « géants » tout service qui dispose du « pouvoir de contrainte » défini ci-dessus - et pas seulement les GAFAM).

Il y a plusieurs façons d'empêcher les géants d'abuser de leur pouvoir pour nous enfermer dans leurs règles nocives, qui distordent nos échanges à leurs fins personnelles. Dans les débats à venir, nous devrons identifier les meilleures façons de le faire. Nous soumettons ici des premières pistes.

Et, pour commencer, il semble utile de revenir aux fondamentaux. De repartir du principe à la base de la neutralité du Net : si vous n'avez pas vraiment le choix d'utiliser un service pour communiquer, ce service ne doit pas être autorisé à hiérarchiser (favoriser, ralentir ou censurer) les informations que vous publiez et recevez, sauf si la loi l'exige (relire notre rapport de 2010 sur la neutralité du Net).

Ainsi, il faut imposer aux géants le choix suivant : renoncer à leur pouvoir de contrainte (et donc redevenir de simples hébergeurs) ou devenir neutre.

S'ouvrir à la décentralisation...

En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n'avons pas d'autre choix que de continuer à les utiliser. C'est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d'autres services : s'ils nous permettent de continuer de parler avec nos « amis Facebook » sans être nous-même encore inscrits sur Facebook.

Techniquement, cette « interopérabilité » passe par l'application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub propose un standard pour « réseaux sociaux décentralisés » - et nous y voyons l'espoir concret de l'essor d'un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » créé par le RGPD (à l'article 20) et qui, sans interopérabilité entre plateformes, peine pour l'instant à démontrer son utilité.

Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature). Depuis ce nouveau service, nous pourrions continuer de recevoir et d'envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.

Ainsi, dès lors qu'un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le cercle vertueux de la décentralisation reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu'au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.

Dans tous les cas, il serait tenu, comme n'importe quel hébergeur, d'afficher clairement ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d'hébergeur « plus souple » ne signifie en aucun cas d'alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.

... ou devenir neutre

Dans le cas où un géant refuserait de s'ouvrir à la décentralisation (en refusant d'appliquer les standards le permettant), il devrait lui être interdit de hiérarchiser nos échanges selon ses propres règles - puisque nous ne pouvons pas échapper à celles-ci.

Cette interdiction pourrait prendre différentes formes. Par exemple, cela pourrait être une interdiction de principe contrôlée par une autorité indépendante (de même que la neutralité du Net est protégée par l'ARCEP - l'autorité de régulation des communications électroniques et des postes). Aussi, cela pourrait être la possibilité pour chaque personne d'attaquer en justice un géant qui aurait censuré un contenu licite. Enfin, en cas de censure répétée de contenus licites, par exemple, ces actions en justice pourraient prendre la forme de plaintes collectives (de la même façon que le RGPD nous a permis d'agir à 12 000 personnes contre les GAFAM pour protéger nos données personnelles). Rappelons, que, aujourd'hui, se défendre contre ces censures abusives est pratiquement impossible.

Pour résumer : si les géants continuent de nous enfermer (en refusant de s'ouvrir à la décentralisation), ils doivent devenir neutres (ne pas censurer de contenus licites ni en favoriser certains aux détriments d'autres). Cette absence de hiérarchisation serait vaine si elle n'était pas totale : elle doit autant interdire la censure de nus réalisée par Facebook que la mise en avant de contenus favorisant l'économie de l'attention ou étant payés par leur émetteur (à des fins publicitaires). C'est cette même rigueur qui est la base de la neutralité du Net et qu'il faudra appliquer strictement. Autrement, aucune des dérives de l'économie de l'attention ne sera corrigée.

Aucune censure automatisée

Dans tous les cas, les géants, mêmes neutres, ne doivent être soumis à aucune obligation de surveiller les contenus qu'ils diffusent pour censurer les informations « manifestement illicites » de façon automatique. Pourtant, c'est ce que prévoient en creux la directive sur le droit d'auteur ou la récente proposition de règlement européen contre la diffusion de contenus terroristes. Ces obligations sont inacceptables, au moins pour trois raison.

En premier lieu, la directive européenne de 2000 qui encadre l'activité des intermédiaires du Net prévoit déjà ceci, à son article 15 : « les États membres ne doivent pas imposer aux prestataires [...] une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette protection bénéficie à tous les intermédiaires du Net, même ceux non-neutres et ne bénéficiant pas du statut des hébergeurs stricto-sensu.

En deuxième lieu, indépendamment de cette directive, la Cour de justice de l'Union européenne juge depuis 2012 que ces obligations violeraient nos droits à la vie privée et à la liberté d'information, tels que reconnus par la Charte de droits fondamentaux de l'Union européenne. Précisément, la Cour affirme qu'imposer à une plateforme de « procéder à une surveillance active de la quasi-totalité des données concernant l’ensemble des utilisateurs de ses services, afin de prévenir toute atteinte future à des droits de propriété intellectuelle » (il s'agissait alors d'une affaire de contrefaçon) « impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier » et, d'autre part, « risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite ». Ainsi, une telle obligation « ne respecterait pas l’exigence d’assurer un juste équilibre entre le droit de propriété intellectuelle, d’une part, et la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations, d’autre part » (SABAM c. Netlog, CJUE, 3ème ch., 16 février 2012, C-360/10, points 38, 49, 50 et 51).

En troisième et dernier lieu, exiger que les géants surveillent tous les contenus en temps réel ne fera que favoriser le phénomène déjà problématique de la délocalisation à bas coût de la modération des contenus vers des armées d'employés travaillant dans des conditions extrêmement anxiogènes, afin de « compenser » des machines forcément imparfaites. La plupart souffrent déjà de traumatismes mentaux à force de « rester, des heures durant, l’œil rivé sur un écran d’ordinateur, où s’affichent des images et des vidéos de corps déchiquetés et écartelés, d’enfants noyés ou violentés, sans compter le flot continu d’injures et d’appels aux meurtres ».

Vouloir renforcer les obligations de censure imposées aux géants du Web est une fuite en avant. Elle repose sur l'idée aussi absurde que dangereuse que des solutions technologiques pourraient régler des problèmes avant tout sociaux et politiques. Surtout, elle refuse de prendre le problème à sa racine, pour se contenter d'en gérer les symptômes (nous dénoncions le même manque d'ambition dans la proposition de loi sur la diffusion de « fausses informations »).

L'économie de l'attention, devenue hégémonique sur Internet, est au centre du problème que le gouvernement prétend vouloir résoudre : la sur-diffusion de propos anxiogènes ou violents et notre sur-exposition à des interactions non-souhaitées. Seul le développement de services ouverts ou neutres permettra d'en contenir les dérives - ce qui, au passage, permettra au juge de se recentrer sur les infractions les plus graves.

Il y a bien des façons de favoriser le développement de ces alternatives. Nos propositions juridiques actuelles sont pensées comme des premières pistes, que nous vous invitons à discuter en nous écrivant ou en venant à notre prochaine réunion publique dans nos locaux, vendredi 12 octobre dès 19h, par exemple :)

]]>
Un collectif assumé : compte rendu de notre assemblée générale 10633 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181005_163812_Un_collectif_assume___compte_rendu_de_notre_assemblee_generale_Fri, 05 Oct 2018 14:38:12 +0000Paris, 5 octobre 2018 – Comme annoncé fin 2017 lors du bilan de ses dix premières années, La Quadrature du Net a entamé une transformation profonde de son organisation et de ses modes d'action, pour tenir compte de son histoire et s'adapter à un environnement politique transformé. Cela s'est notamment traduit par un élargissement du noyau de l'équipe : il y a quelques mois, nous avons intégré une trentaine de bénévoles au fonctionnement et au travail quotidien de l'association, en qualité de membres.

Pendant le week-end du 29-30 septembre, 26 membres et salarié·es de l'association se sont réuni·es pour une seconde assemblée générale (AG), accompagné·es à distance par certain·es des absent·es excusé·es. Beaucoup de choses devaient être évoquées : des souffrances personnelles qui avaient été exprimées, des réflexions collectives que nous devions faire aboutir, des chantiers ouverts à reprendre. Il fallait notamment définir l'accueil et l'organisation des nouveaux membres, la mise en place des outils nécessaires à nos actions et la feuille de route des prochaines actions militantes.

C'est ce point d'étape que nous partageons avec vous aujourd'hui.

Bilan des six derniers mois

L'AG précédente avait formé des groupes de travail, soit en fonction des sujets traités par l'association (Startuffe Nation, surveillance d'État, régulation des télécoms, copyright, etc.), soit plus opérationnels comme le groupe adminsys, la revue de presse, la communication, ou le « routage » (l'accompagnement des nouveaux militants).

Six mois après, nous constatons que cette méthode est efficace. Ces groupes possèdent une vraie souplesse, notamment pour travailler avec d'autres associations (par exemple, sur la régulation des télécoms, sujet partagé avec la Fédération FDN).
Sans occulter les difficultés, nous avons partagé nos expériences les plus enthousiasmantes, les moments où nous avons été fièr·es de notre action à La Quadrature, où nous avons remporté des victoires.

  • La campagne GAFAM a largement rempli ses objectifs. La balle est aujourd'hui dans le camp des CNIL européennes.
  • La réforme européenne du droit des télécoms propose, pour la première fois, un cadre réglementaire taillé sur mesure pour les petits opérateurs (notamment ceux de FFDN, on vous en reparle bientôt).
  • La campagne Stop Data Retention a rassemblé pour la première fois soixante ONG à travers l'Europe, et nos autres recours devant les juges avancent .
  • Nous commençons à soulever le lièvre de la Smart City et de sa dimension « surveillance ».
  • Nous avons amorcé un changement de position sur le statut des hébergeurs qui, même s'il suscite des interrogations chez nos allié·es historiques, nous semble ouvrir une voie utile pour limiter la nocivité des géants du Net et garantir un cadre juridique vivable aux hébergeurs neutres, et ainsi mieux protéger la liberté d'expression sur Internet.

Concernant notre organisation, nous pouvons mentionner, en vrac : l'implication active des bénévoles dans la communication et l'image de La Quadrature (le nouveau site arrive), nos nombreuses interventions auprès d'étudiant·es et du grand public (nous avons quelque chose à transmettre !), notre instance Peertube qui est une des plus fournies du Fediverse.

Pour plusieurs de nos membres, ces six derniers mois ont été l'occasion de faire leurs premières interventions publiques au nom de La Quadrature : l'association n'est plus centrée sur ses cofondateurs et portes-parole habituels, mais s'est élargie à l'ensemble de ses membres. Les expertises et les points de vue particuliers se confrontent, recréent du débat et nourrissent maintenant la voix de l'association.

Au cours de ces six derniers mois, l'association a développé ses actions avec des méthodes de travail nouvelles qui portent déjà leurs fruits.

Militer, ensemble : les vies de La Quadrature

À travers une discussion ouverte et apaisée, nous avons pu faire le douloureux (mais lucide) constat d'un problème dans l'articulation entre deux éléments : une équipe de salarié·es faisant face à de très nombreuses sollicitations, dans un climat où en matière de libertés fondamentales tous les sujets ou presque sont urgents ; un bureau bénévole qui continuait à cristalliser des attentes irraisonnables, pour la plupart héritées de la structure très resserrée des débuts de La Quadrature, et empêchait mécaniquement une meilleure répartition des tâches et des responsabilités avec les autres membres. Tout cela générait des tensions.

C'est dans ce contexte que, après dix ans d'engagement au sein de La Quadrature, Félix — l'un des deux co-présidents — a annoncé qu'il quittait le bureau, estimant que les chantiers d'organisation étaient suffisamment avancés pour qu'il prenne un peu de recul. Benjamin Bayart, qui l'épaulait à ce poste, a décidé de faire de même. Tous les deux restent membres de l'association et continuent à s'investir dans des dossiers majeurs.

Tout ceci nous a conduit à prendre le temps d'une discussion de fond et à repenser en profondeur l'organisation de l'association. L'idée est de permettre à l'ensemble des membres de travailler main dans la main avec l'équipe salariée, à travers différents groupes fluides et fonctionnels. Nous avons également consacré la collégialité dans la prise de décision, avec une large autonomie laissée à ces groupes.

Un nouveau bureau a été élu — destiné à jouer un rôle purement administratif (c'est une obligation légale) — et les rôles au sein du bureau ont été tirés au sort. Sa composition est transitoire et sera revue à l'occasion de la refonte des statuts lors de la prochaine AG, dans 6 mois.

L'ouverture en actes

Le gros chantier de cette AG consistait à définir les conditions d'accueil des nouve·lles membres, dans le cadre d'un deuxième élargissement à venir pour s'ouvrir à de nouvelles expertises et bonnes volontés. Tout était à inventer. Nous publierons avant la fin de l'année des informations sur la manière dont les bénévoles peuvent devenir membres de LQDN.

Le statut de membre entérine en fait un engagement aux côtés de l'association. Ce qui implique que l'action quotidienne de LQDN s'accompagne de nouveaux espaces de travail ouverts à tou·tes. C'est une nécessité, compte tenu du nombre des sujets à traiter, de l'importance de faire vivre le débat, de partager les expertises, et de trouver de nouveaux leviers de mobilisation collective. Nous vous présenterons donc, dans les prochaines semaines, de nouveaux espaces pour travailler ensemble sur les très nombreux sujets dont La Quadrature peut s'emparer.

Conclusion

Au total, cette assemblée générale à mi-parcours nous a tou·tes surpris·es. Tout s'est encore mieux passé que prévu. Nous avons pris deux jours pour faire le point, comprendre les souffrances de chacun·e, dans un calme et une écoute exemplaires. Nous sommes parvenu·es à tout mettre sur la table pour acter des méthodes nouvelles et précises, sans fâcher ni exclure personne. Il s'agit maintenant de pérenniser ce travail dans nos statuts.

L'horizon politique est ce qu'il est, et celui du numérique est inquiétant. En dépit d'un contexte hostile, ou à cause de lui, nous jouerons à fond notre rôle dans la défense politique et juridique d'un Internet libre, tourné vers l'émancipation, en lien avec d'autres organisations militantes. En repensant notre organisation, nous travaillons à nous remettre en question pour nous réinventer et jouer ce rôle du mieux que nous le pourrons, en prenant soin les un·es des autres.

Internet, Datalove et libertés <3

]]>
Paris, 5 octobre 2018 – Comme annoncé fin 2017 lors du bilan de ses dix premières années, La Quadrature du Net a entamé une transformation profonde de son organisation et de ses modes d'action, pour tenir compte de son histoire et s'adapter à un environnement politique transformé. Cela s'est notamment traduit par un élargissement du noyau de l'équipe : il y a quelques mois, nous avons intégré une trentaine de bénévoles au fonctionnement et au travail quotidien de l'association, en qualité de membres.

Pendant le week-end du 29-30 septembre, 26 membres et salarié·es de l'association se sont réuni·es pour une seconde assemblée générale (AG), accompagné·es à distance par certain·es des absent·es excusé·es. Beaucoup de choses devaient être évoquées : des souffrances personnelles qui avaient été exprimées, des réflexions collectives que nous devions faire aboutir, des chantiers ouverts à reprendre. Il fallait notamment définir l'accueil et l'organisation des nouveaux membres, la mise en place des outils nécessaires à nos actions et la feuille de route des prochaines actions militantes.

C'est ce point d'étape que nous partageons avec vous aujourd'hui.

Bilan des six derniers mois

L'AG précédente avait formé des groupes de travail, soit en fonction des sujets traités par l'association (Startuffe Nation, surveillance d'État, régulation des télécoms, copyright, etc.), soit plus opérationnels comme le groupe adminsys, la revue de presse, la communication, ou le « routage » (l'accompagnement des nouveaux militants).

Six mois après, nous constatons que cette méthode est efficace. Ces groupes possèdent une vraie souplesse, notamment pour travailler avec d'autres associations (par exemple, sur la régulation des télécoms, sujet partagé avec la Fédération FDN).
Sans occulter les difficultés, nous avons partagé nos expériences les plus enthousiasmantes, les moments où nous avons été fièr·es de notre action à La Quadrature, où nous avons remporté des victoires.

  • La campagne GAFAM a largement rempli ses objectifs. La balle est aujourd'hui dans le camp des CNIL européennes.
  • La réforme européenne du droit des télécoms propose, pour la première fois, un cadre réglementaire taillé sur mesure pour les petits opérateurs (notamment ceux de FFDN, on vous en reparle bientôt).
  • La campagne Stop Data Retention a rassemblé pour la première fois soixante ONG à travers l'Europe, et nos autres recours devant les juges avancent .
  • Nous commençons à soulever le lièvre de la Smart City et de sa dimension « surveillance ».
  • Nous avons amorcé un changement de position sur le statut des hébergeurs qui, même s'il suscite des interrogations chez nos allié·es historiques, nous semble ouvrir une voie utile pour limiter la nocivité des géants du Net et garantir un cadre juridique vivable aux hébergeurs neutres, et ainsi mieux protéger la liberté d'expression sur Internet.

Concernant notre organisation, nous pouvons mentionner, en vrac : l'implication active des bénévoles dans la communication et l'image de La Quadrature (le nouveau site arrive), nos nombreuses interventions auprès d'étudiant·es et du grand public (nous avons quelque chose à transmettre !), notre instance Peertube qui est une des plus fournies du Fediverse.

Pour plusieurs de nos membres, ces six derniers mois ont été l'occasion de faire leurs premières interventions publiques au nom de La Quadrature : l'association n'est plus centrée sur ses cofondateurs et portes-parole habituels, mais s'est élargie à l'ensemble de ses membres. Les expertises et les points de vue particuliers se confrontent, recréent du débat et nourrissent maintenant la voix de l'association.

Au cours de ces six derniers mois, l'association a développé ses actions avec des méthodes de travail nouvelles qui portent déjà leurs fruits.

Militer, ensemble : les vies de La Quadrature

À travers une discussion ouverte et apaisée, nous avons pu faire le douloureux (mais lucide) constat d'un problème dans l'articulation entre deux éléments : une équipe de salarié·es faisant face à de très nombreuses sollicitations, dans un climat où en matière de libertés fondamentales tous les sujets ou presque sont urgents ; un bureau bénévole qui continuait à cristalliser des attentes irraisonnables, pour la plupart héritées de la structure très resserrée des débuts de La Quadrature, et empêchait mécaniquement une meilleure répartition des tâches et des responsabilités avec les autres membres. Tout cela générait des tensions.

C'est dans ce contexte que, après dix ans d'engagement au sein de La Quadrature, Félix — l'un des deux co-présidents — a annoncé qu'il quittait le bureau, estimant que les chantiers d'organisation étaient suffisamment avancés pour qu'il prenne un peu de recul. Benjamin Bayart, qui l'épaulait à ce poste, a décidé de faire de même. Tous les deux restent membres de l'association et continuent à s'investir dans des dossiers majeurs.

Tout ceci nous a conduit à prendre le temps d'une discussion de fond et à repenser en profondeur l'organisation de l'association. L'idée est de permettre à l'ensemble des membres de travailler main dans la main avec l'équipe salariée, à travers différents groupes fluides et fonctionnels. Nous avons également consacré la collégialité dans la prise de décision, avec une large autonomie laissée à ces groupes.

Un nouveau bureau a été élu — destiné à jouer un rôle purement administratif (c'est une obligation légale) — et les rôles au sein du bureau ont été tirés au sort. Sa composition est transitoire et sera revue à l'occasion de la refonte des statuts lors de la prochaine AG, dans 6 mois.

L'ouverture en actes

Le gros chantier de cette AG consistait à définir les conditions d'accueil des nouve·lles membres, dans le cadre d'un deuxième élargissement à venir pour s'ouvrir à de nouvelles expertises et bonnes volontés. Tout était à inventer. Nous publierons avant la fin de l'année des informations sur la manière dont les bénévoles peuvent devenir membres de LQDN.

Le statut de membre entérine en fait un engagement aux côtés de l'association. Ce qui implique que l'action quotidienne de LQDN s'accompagne de nouveaux espaces de travail ouverts à tou·tes. C'est une nécessité, compte tenu du nombre des sujets à traiter, de l'importance de faire vivre le débat, de partager les expertises, et de trouver de nouveaux leviers de mobilisation collective. Nous vous présenterons donc, dans les prochaines semaines, de nouveaux espaces pour travailler ensemble sur les très nombreux sujets dont La Quadrature peut s'emparer.

Conclusion

Au total, cette assemblée générale à mi-parcours nous a tou·tes surpris·es. Tout s'est encore mieux passé que prévu. Nous avons pris deux jours pour faire le point, comprendre les souffrances de chacun·e, dans un calme et une écoute exemplaires. Nous sommes parvenu·es à tout mettre sur la table pour acter des méthodes nouvelles et précises, sans fâcher ni exclure personne. Il s'agit maintenant de pérenniser ce travail dans nos statuts.

L'horizon politique est ce qu'il est, et celui du numérique est inquiétant. En dépit d'un contexte hostile, ou à cause de lui, nous jouerons à fond notre rôle dans la défense politique et juridique d'un Internet libre, tourné vers l'émancipation, en lien avec d'autres organisations militantes. En repensant notre organisation, nous travaillons à nous remettre en question pour nous réinventer et jouer ce rôle du mieux que nous le pourrons, en prenant soin les un·es des autres.

Internet, Datalove et libertés <3

]]>
Accès Internet en vol : Air France oublie la neutralité du Net sur le tarmac10632 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20181002_140049_Acces_Internet_en_vol____Air_France_oublie_la_neutralite_du_Net_sur_le_tarmacTue, 02 Oct 2018 12:00:49 +0000Paris, 2 octobre 2018 – L'entreprise Air France a annoncé le 26 septembre la mise à disposition d'une offre d'accès à Internet par Wi-Fi à bord de ses avions. Cette offre propose différentes tarifications, basées non pas sur un quota de données ou une vitesse de connexion, mais sur une hiérarchisation des services. L'accès « gratuit » permet aux voyageurs de communiquer via Whatsapp (Facebook), Facebook Messenger, iMessage (Apple) ou WeChat (Tencent). L'opérateur aérien favorise donc ces trois entreprises en incitant fortement ses passagers à passer par leurs services, à l'exclusion de tous les autres, créant ainsi une distorsion de concurrence évidente en empêchant les personnes utilisant d'autres protocoles et services de communiquer (que ce soit dans un cadre personnel ou professionnel).

Les deux autres possibilités payantes offrent respectivement un accès aux Web/Mail (et non à l'ensemble d'Internet comme annoncé) et à des services de streaming. On peut facilement craindre qu'elles limitent elles aussi les accès des utilisateurs aux seuls services mis en valeur par la compagnie.

Cette offre limitée d'accès au réseau viole outrageusement la neutralité du Net, garantie notamment par le Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un Internet ouvert. En effet, elle discrimine certains services aux dépens d'autres pourtant similaires, aux dépens des utilisateurs de ces derniers. L'ajustement des offres ne devrait avoir lieu que sur l'utilisation des ressources et non sur la discrimination de services.

Depuis de nombreuses années, La Quadrature du Net met en garde contre l'avènement d'un Internet à plusieurs vitesses, où des gardiens du temple favoriseraient les acteurs installés et leurs partenaires commerciaux, attaquant du même geste la liberté de choix des utilisateurs et utilisatrices, la concurrence non-faussée entre les services et, par extension, l'incroyable capacité d'innovation d'Internet.

Nous appelons Air France à revoir sa copie et à offrir à tous ses voyageurs un accès égal à Internet, quels que soient les services qu'ils souhaitent utiliser.

]]>
Paris, 2 octobre 2018 – L'entreprise Air France a annoncé le 26 septembre la mise à disposition d'une offre d'accès à Internet par Wi-Fi à bord de ses avions. Cette offre propose différentes tarifications, basées non pas sur un quota de données ou une vitesse de connexion, mais sur une hiérarchisation des services. L'accès « gratuit » permet aux voyageurs de communiquer via Whatsapp (Facebook), Facebook Messenger, iMessage (Apple) ou WeChat (Tencent). L'opérateur aérien favorise donc ces trois entreprises en incitant fortement ses passagers à passer par leurs services, à l'exclusion de tous les autres, créant ainsi une distorsion de concurrence évidente en empêchant les personnes utilisant d'autres protocoles et services de communiquer (que ce soit dans un cadre personnel ou professionnel).

Les deux autres possibilités payantes offrent respectivement un accès aux Web/Mail (et non à l'ensemble d'Internet comme annoncé) et à des services de streaming. On peut facilement craindre qu'elles limitent elles aussi les accès des utilisateurs aux seuls services mis en valeur par la compagnie.

Cette offre limitée d'accès au réseau viole outrageusement la neutralité du Net, garantie notamment par le Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un Internet ouvert. En effet, elle discrimine certains services aux dépens d'autres pourtant similaires, aux dépens des utilisateurs de ces derniers. L'ajustement des offres ne devrait avoir lieu que sur l'utilisation des ressources et non sur la discrimination de services.

Depuis de nombreuses années, La Quadrature du Net met en garde contre l'avènement d'un Internet à plusieurs vitesses, où des gardiens du temple favoriseraient les acteurs installés et leurs partenaires commerciaux, attaquant du même geste la liberté de choix des utilisateurs et utilisatrices, la concurrence non-faussée entre les services et, par extension, l'incroyable capacité d'innovation d'Internet.

Nous appelons Air France à revoir sa copie et à offrir à tous ses voyageurs un accès égal à Internet, quels que soient les services qu'ils souhaitent utiliser.

]]>
Réguler Internet par la décentralisation10626 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180926_195153_Reguler_Internet_par_la_decentralisationWed, 26 Sep 2018 17:51:53 +000027 septembre 2018 - La directive droit d’auteur et les récents débats sur les « fausses informations » ont servi d’introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes.

Le gouvernement français veut que les grands réseaux sociaux arrêtent de favoriser la diffusion de « propos haineux ou extrémistes ». Soit.

Le rapport visant à « renforcer la lutte contre le racisme et l'antisémitisme sur Internet », commandé par le Premier ministre et publié jeudi dernier, l'explique très bien. Il dénonce « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus, car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l'intérêt des réseaux sociaux est d'en héberger le plus possible ».

Plus généralement, le rapport regrette la « règle selon laquelle un propos choquant fera davantage de "buzz" qu'un propos consensuel, alimentant de façon plus sûre le modèle économique des plateformes ». C'est la même analyse que nous faisions pour expliquer pourquoi attaquer Google ou Facebook en mai dernier, quand nous préparions nos plaintes collectives contre les GAFAM.

Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d'imaginer, comme le fait le rapport cité ci-dessus, qu'on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop.

Non, si on veut traiter le problème sérieusement, c'est l'ensemble de l'économie de l'attention qu'il faut remettre en question. Et cela doit passer par l'émergence d'alternatives saines qui reposent sur un autre modèle que celui des GAFAM.

Un droit actuel favorable aux géants

Aujourd'hui et depuis 15 ans, le droit freine le développement de telles alternatives. Il impose des obligations lourdes à tous les « hébergeurs » (les personnes qui conservent et diffusent sur Internet des contenus fournis par le public). Si un contenu « manifestement illicite » est signalé à un hébergeur, il doit le censurer « promptement » ou en devient personnellement responsable1.

En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d'une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n'avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n'avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.

Alléger le régime des hébergeurs en les distinguant des plateformes géantes

Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d'alternatives à l'économie de l'attention. Voici notre proposition.

Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques.

Secondement, que les hébergeurs, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d'évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.

Le cercle vertueux de la régulation décentralisée

Permettre à une multitude de petits hébergeurs de se développer fait naître l'espoir d'une auto-régulation efficace, placée dans les mains de l'ensemble de la population.

Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l'espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d'hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d'un hébergeur à un autre, d'un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd'hui).

Chaque personne choisira de s'exposer ou non à tel ou tel type de conflit, et chaque hébergeur modérera sa communauté à une échelle humaine. Cette structure offre l'espoir de diminuer significativement les conflits interpersonnels non-souhaités sur Internet. Ainsi, les juridictions n'auront plus à trancher autant de conflits qu'il en existe sur les plateformes géantes et pourront se recentrer sur les infractions les plus graves.

Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d'alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.

]]>
27 septembre 2018 - La directive droit d’auteur et les récents débats sur les « fausses informations » ont servi d’introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes.

Le gouvernement français veut que les grands réseaux sociaux arrêtent de favoriser la diffusion de « propos haineux ou extrémistes ». Soit.

Le rapport visant à « renforcer la lutte contre le racisme et l'antisémitisme sur Internet », commandé par le Premier ministre et publié jeudi dernier, l'explique très bien. Il dénonce « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus, car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l'intérêt des réseaux sociaux est d'en héberger le plus possible ».

Plus généralement, le rapport regrette la « règle selon laquelle un propos choquant fera davantage de "buzz" qu'un propos consensuel, alimentant de façon plus sûre le modèle économique des plateformes ». C'est la même analyse que nous faisions pour expliquer pourquoi attaquer Google ou Facebook en mai dernier, quand nous préparions nos plaintes collectives contre les GAFAM.

Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d'imaginer, comme le fait le rapport cité ci-dessus, qu'on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop.

Non, si on veut traiter le problème sérieusement, c'est l'ensemble de l'économie de l'attention qu'il faut remettre en question. Et cela doit passer par l'émergence d'alternatives saines qui reposent sur un autre modèle que celui des GAFAM.

Un droit actuel favorable aux géants

Aujourd'hui et depuis 15 ans, le droit freine le développement de telles alternatives. Il impose des obligations lourdes à tous les « hébergeurs » (les personnes qui conservent et diffusent sur Internet des contenus fournis par le public). Si un contenu « manifestement illicite » est signalé à un hébergeur, il doit le censurer « promptement » ou en devient personnellement responsable1.

En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d'une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n'avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n'avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.

Alléger le régime des hébergeurs en les distinguant des plateformes géantes

Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d'alternatives à l'économie de l'attention. Voici notre proposition.

Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques.

Secondement, que les hébergeurs, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d'évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.

Le cercle vertueux de la régulation décentralisée

Permettre à une multitude de petits hébergeurs de se développer fait naître l'espoir d'une auto-régulation efficace, placée dans les mains de l'ensemble de la population.

Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l'espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d'hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d'un hébergeur à un autre, d'un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd'hui).

Chaque personne choisira de s'exposer ou non à tel ou tel type de conflit, et chaque hébergeur modérera sa communauté à une échelle humaine. Cette structure offre l'espoir de diminuer significativement les conflits interpersonnels non-souhaités sur Internet. Ainsi, les juridictions n'auront plus à trancher autant de conflits qu'il en existe sur les plateformes géantes et pourront se recentrer sur les infractions les plus graves.

Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d'alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.

]]>
Le fichier TES, prémisse à la reconnaissance faciale de masse, arrive devant le Conseil d'État10625 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180926_143827_Le_fichier_TES__premisse_a_la_reconnaissance_faciale_de_masse__arrive_devant_le_Conseil_d_EtatWed, 26 Sep 2018 12:38:27 +000026 septembre 2018 - Mercredi 3 octobre prochain à 14h se tiendra au Conseil d'État l'audience concernant le fichier TES. Ce décret, publié le 28 octobre 2016, autorise la création par le Gouvernement d'un fichier regroupant les données biométriques de la quasi-totalité de la population française. Dès le 27 décembre 2016, La Quadrature du Net, avec le soutien des Exégètes amateurs, avait demandé l'annulation de ce décret. Venez avec nous assister à l'audience !

Le décret n°2016-1460 du 28 octobre 2016 autorise la création par le Gouvernement d'une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille....) de la quasi-totalité de la population française, avec, comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.

Le 26 décembre 2016, La Quadrature du Net avait déposé, avec le soutien des Exégètes amateurs, une requête introductive d'instance devant le Conseil d’État visant à faire annuler ce décret avant de déposer un mémoire complémentaire le 27 mars 2017 et un mémoire en réplique, à la suite de la défense du gouvernement, le 18 août 20171. Depuis, aucune nouvelle jusqu'à ce qu'on nous annonce aujourd'hui qu'une audience aura lieu le mercredi 3 octobre prochain devant le Conseil d’État.

Comme nous l'avions relevé dans nos écritures (en lien ci-dessus), la création d'une telle base de données est inutile pour atteindre l'objectif annoncé. Celui-ci aurait pu en effet être poursuivi tout aussi efficacement en prévoyant la conservation de ces informations sur le seul titre d’identité (au moyen d'une puce électronique), tout en faisant disparaître les risques liés à leur centralisation (risques politiques de dévoiement du fichier et risques techniques de fuites de données biométriques). C'est déjà ce que prévoit l'Union européenne pour les passeports et bientôt les cartes d'identité : les données doivent être conservées sur le titre.

En réalité, et nous l'avions souligné dès la publication du décret, la création du fichier TES (et l'enregistrement automatisé des images des visages de la population) préfigure le développement et l'utilisation par le Gouvernement des technologies de reconnaissance faciale à des fins de surveillance généralisée de la population

Son article 4 prévoit ainsi déjà que l'accès à ce fichier n'est pas limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » (à l'exclusion des données concernant les empreintes digitales). D'ores et déjà, ce champ d'application très flou laisse craindre d'importantes dérives dans les usages policiers de ce fichier. À l'avenir, ils pourront être encore démultipliés par la voie d'une simple modification législative ou réglementaire, par exemple pour permettre de coupler ce fichier aux systèmes de surveillance dopés aux Big Data dont certaines polices municipales commencent à s'équiper.

L'actualité montre que nos craintes était bien fondées et que la reconnaissance faciale risque d'être l'un des outils principaux de la surveillance de masse de la population par les autorités. Si celle-ci est déjà mise en œuvre à grande échelle dans certains États (notamment en Chine), elle se développe à grande vitesse également en France, que ce soit dans nos aéroports, dans nos gares ou dans nos lycées. En 2016, quelques semaines avant la création du fichier TES, des propositions de loi avaient d'ailleurs été déposées visant à coupler vidéosurveillance et reconnaissance faciale pour les « fichés S »2.

Face à ce raz-de-marée qui déferle dans une relative indifférence, la CNIL en est aujourd'hui réduite à appeler « à un débat démocratique » sans pouvoir (ou sans oser ?) user de ses pouvoirs pour barrer la route à ces premiers déploiements grandeur nature.

Le fichier TES constitue en tous cas le préalable technique au développement généralisé et définitif de la reconnaissance faciale. Il nous faut obtenir du Conseil d'État son annulation et sa destruction.

Vous êtes toutes et tous invités à venir assister avec nous à l'audience de mercredi. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris.

À mercredi !

  • 1. La requête introductive d'instance est le premier mémoire envoyé au Conseil d'Etat pour introduire une demande en justice et doit être déposée dans les délais légaux de recours. Le mémoire complémentaire peut être envoyé plus tard et a pour but de développer les différents arguments. Le mémoire en réplique est envoyé pour répondre aux écritures de la partie adverse, ici le Gouvernement
  • 2. Quelques semaines avant l'adoption du fichier TES fin 2016, plusieurs propositions de loi avaient tenté d'inaugurer la reconnaissance faciale pour la lutte antiterroriste. Au même moment, on voyait dans les villes du Sud Est mise en avant la « vidéosurveillance intelligente » pour repérer des terroristes (en fait des fichés S) dans la rue (voir par exemple à Marseille). Opération de com concertée pour mettre la pression sur le gouvernement de l'époque ? Dans l'exposé des motifs de la PPL du Sénat, on pouvait lire :

    L'efficacité de la reconnaissance faciale dépend de plusieurs facteurs clés : la qualité de l'`image, la puissance de l'algorithme d'identification et l'accès à une base de données fiables. Toute la difficulté est d'établir des points de correspondance entre la nouvelle image et l'image source, en d'autres termes, les photos d'individus connus.
    Chaque fiche du fichier automatisé des empreintes digitales (FAED) comporte une photo prise dans un cadre normalisé et identique pour toutes, seule exploitable par des logiciels de reconnaissance faciale. Tel n'est pas le cas des autres fichiers, notamment celui des personnes recherchées (FPR) qui mentionne lui l'identité des personnes faisant l'objet de recherches pour prévenir des menaces graves pour la sécurité publique ou la sûreté de l'État dans ses fameuses « fiche S », mais ne comporte pas nécessairement de photos et ne contient pas de données anthropométriques.
    La présente proposition de loi a donc pour objet de permettre le couplage du fichier automatisé des empreintes digitales et du fichier des personnes recherchées, afin de constituer une base de données fiable, qui sera ensuite reliée à un système de vidéo-protection.

    Elles ne sont pas passées, mais le fichier TES était créé quelques mois plus tard.

]]>
26 septembre 2018 - Mercredi 3 octobre prochain à 14h se tiendra au Conseil d'État l'audience concernant le fichier TES. Ce décret, publié le 28 octobre 2016, autorise la création par le Gouvernement d'un fichier regroupant les données biométriques de la quasi-totalité de la population française. Dès le 27 décembre 2016, La Quadrature du Net, avec le soutien des Exégètes amateurs, avait demandé l'annulation de ce décret. Venez avec nous assister à l'audience !

Le décret n°2016-1460 du 28 octobre 2016 autorise la création par le Gouvernement d'une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille....) de la quasi-totalité de la population française, avec, comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.

Le 26 décembre 2016, La Quadrature du Net avait déposé, avec le soutien des Exégètes amateurs, une requête introductive d'instance devant le Conseil d’État visant à faire annuler ce décret avant de déposer un mémoire complémentaire le 27 mars 2017 et un mémoire en réplique, à la suite de la défense du gouvernement, le 18 août 20171. Depuis, aucune nouvelle jusqu'à ce qu'on nous annonce aujourd'hui qu'une audience aura lieu le mercredi 3 octobre prochain devant le Conseil d’État.

Comme nous l'avions relevé dans nos écritures (en lien ci-dessus), la création d'une telle base de données est inutile pour atteindre l'objectif annoncé. Celui-ci aurait pu en effet être poursuivi tout aussi efficacement en prévoyant la conservation de ces informations sur le seul titre d’identité (au moyen d'une puce électronique), tout en faisant disparaître les risques liés à leur centralisation (risques politiques de dévoiement du fichier et risques techniques de fuites de données biométriques). C'est déjà ce que prévoit l'Union européenne pour les passeports et bientôt les cartes d'identité : les données doivent être conservées sur le titre.

En réalité, et nous l'avions souligné dès la publication du décret, la création du fichier TES (et l'enregistrement automatisé des images des visages de la population) préfigure le développement et l'utilisation par le Gouvernement des technologies de reconnaissance faciale à des fins de surveillance généralisée de la population

Son article 4 prévoit ainsi déjà que l'accès à ce fichier n'est pas limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » (à l'exclusion des données concernant les empreintes digitales). D'ores et déjà, ce champ d'application très flou laisse craindre d'importantes dérives dans les usages policiers de ce fichier. À l'avenir, ils pourront être encore démultipliés par la voie d'une simple modification législative ou réglementaire, par exemple pour permettre de coupler ce fichier aux systèmes de surveillance dopés aux Big Data dont certaines polices municipales commencent à s'équiper.

L'actualité montre que nos craintes était bien fondées et que la reconnaissance faciale risque d'être l'un des outils principaux de la surveillance de masse de la population par les autorités. Si celle-ci est déjà mise en œuvre à grande échelle dans certains États (notamment en Chine), elle se développe à grande vitesse également en France, que ce soit dans nos aéroports, dans nos gares ou dans nos lycées. En 2016, quelques semaines avant la création du fichier TES, des propositions de loi avaient d'ailleurs été déposées visant à coupler vidéosurveillance et reconnaissance faciale pour les « fichés S »2.

Face à ce raz-de-marée qui déferle dans une relative indifférence, la CNIL en est aujourd'hui réduite à appeler « à un débat démocratique » sans pouvoir (ou sans oser ?) user de ses pouvoirs pour barrer la route à ces premiers déploiements grandeur nature.

Le fichier TES constitue en tous cas le préalable technique au développement généralisé et définitif de la reconnaissance faciale. Il nous faut obtenir du Conseil d'État son annulation et sa destruction.

Vous êtes toutes et tous invités à venir assister avec nous à l'audience de mercredi. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris.

À mercredi !

  • 1. La requête introductive d'instance est le premier mémoire envoyé au Conseil d'Etat pour introduire une demande en justice et doit être déposée dans les délais légaux de recours. Le mémoire complémentaire peut être envoyé plus tard et a pour but de développer les différents arguments. Le mémoire en réplique est envoyé pour répondre aux écritures de la partie adverse, ici le Gouvernement
  • 2. Quelques semaines avant l'adoption du fichier TES fin 2016, plusieurs propositions de loi avaient tenté d'inaugurer la reconnaissance faciale pour la lutte antiterroriste. Au même moment, on voyait dans les villes du Sud Est mise en avant la « vidéosurveillance intelligente » pour repérer des terroristes (en fait des fichés S) dans la rue (voir par exemple à Marseille). Opération de com concertée pour mettre la pression sur le gouvernement de l'époque ? Dans l'exposé des motifs de la PPL du Sénat, on pouvait lire :

    L'efficacité de la reconnaissance faciale dépend de plusieurs facteurs clés : la qualité de l'`image, la puissance de l'algorithme d'identification et l'accès à une base de données fiables. Toute la difficulté est d'établir des points de correspondance entre la nouvelle image et l'image source, en d'autres termes, les photos d'individus connus.
    Chaque fiche du fichier automatisé des empreintes digitales (FAED) comporte une photo prise dans un cadre normalisé et identique pour toutes, seule exploitable par des logiciels de reconnaissance faciale. Tel n'est pas le cas des autres fichiers, notamment celui des personnes recherchées (FPR) qui mentionne lui l'identité des personnes faisant l'objet de recherches pour prévenir des menaces graves pour la sécurité publique ou la sûreté de l'État dans ses fameuses « fiche S », mais ne comporte pas nécessairement de photos et ne contient pas de données anthropométriques.
    La présente proposition de loi a donc pour objet de permettre le couplage du fichier automatisé des empreintes digitales et du fichier des personnes recherchées, afin de constituer une base de données fiable, qui sera ensuite reliée à un système de vidéo-protection.

    Elles ne sont pas passées, mais le fichier TES était créé quelques mois plus tard.

]]>
La directive Copyright n’est pas une défaite pour l’Internet Libre et Ouvert !10624 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180918_155945_La_directive_Copyright_n___est_pas_une_defaite_pour_l___Internet_Libre_et_Ouvert__Tue, 18 Sep 2018 13:59:45 +000018 septembre 2018 - Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé.

C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog.

Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.

vote

L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.

Les votes dans les assemblées nous abusent telles des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.

barborossa

Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !

Nous avons pas « perdu Internet » !

Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.

On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).

Save interwhat?

Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ». Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait au mois d’août dernier :

Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.

Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.

Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci.

Sortir d’une conception « formelle » de la liberté d’expression

Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :

La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif.

On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.

Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.

Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?

Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens !

En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.

Se doter (enfin) d’une doctrine économique claire

Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…

Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues aiment à se construire sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille hégémonique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer.

Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » est en mesure de nous sauver des monstruosités qu’il a lui-même engendrées.

Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?

Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l'économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème.

On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.

Et maintenant, que faire ?

En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :

Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.

L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.

La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.

Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques du combat ont profondément évolué.

L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».

Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.

Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent une graine en laquelle nous pouvons encore placer nos espoirs. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines.

« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon.

]]>
18 septembre 2018 - Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé.

C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog.

Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.

vote

L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.

Les votes dans les assemblées nous abusent telles des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.

barborossa

Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !

Nous avons pas « perdu Internet » !

Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.

On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).

Save interwhat?

Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ». Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait au mois d’août dernier :

Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.

Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.

Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci.

Sortir d’une conception « formelle » de la liberté d’expression

Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :

La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif.

On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.

Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.

Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?

Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens !

En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.

Se doter (enfin) d’une doctrine économique claire

Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…

Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues aiment à se construire sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille hégémonique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer.

Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » est en mesure de nous sauver des monstruosités qu’il a lui-même engendrées.

Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?

Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l'économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème.

On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.

Et maintenant, que faire ?

En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :

Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.

L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.

La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.

Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques du combat ont profondément évolué.

L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».

Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.

Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent une graine en laquelle nous pouvons encore placer nos espoirs. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines.

« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon.

]]>
Censure antiterroriste: la Commission européenne veut détruire l'Internet décentralisé10614 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180912_150408_Censure_antiterroriste__la_Commission_europeenne_veut_detruire_l_Internet_decentraliseWed, 12 Sep 2018 13:04:08 +000012 septembre 2018 - Ce matin, alors que toute l'attention était tournée vers l'adoption de la directive droit d'auteur, la Commission européenne a publié sa proposition de règlement contre la propagande terroriste en ligne.

Ce texte sécuritaire prévoit d'imposer plusieurs obligations aux hébergeurs, et notamment le retrait en moins d'une heure des contenus signalés. Il banalise la censure policière ou privée et donc le contournement de la justice. Il fait des filtres automatiques - justement au coeur du débat sur la directive droit d'auteur - la clé des politiques de censure à l'ère numérique1.

Seule une poignée d'hébergeurs pourront satisfaire de telles obligations - en particulier le délai d'une heure pour censurer les contenus. Les autres hébergeurs - la très grande majorité qui, depuis les origines, ont constitué le corps d'Internet - seront incapables d'y répondre et s'exposeront systématiquement à des sanctions.

Si ce texte était adopté, les quasi-monopoles du Net (Google, Amazon, Facebook, Apple, Microsoft, Twitter...) se verront consacrés dans leur rôle clé pour les politiques sécuritaires des États membres, et renforcés dans leurs positions ultra-dominantes - tous les autres services ayant dû fermer boutique, y compris les services décentralisés qui respectent nos droits. Après avoir vaguement prétendu nous défendre avec le RGPD, la Commission européenne change radicalement de direction et compte désormais défaire l'État de droit en renforçant et en pactisant avec des firmes surpuissantes, qui exploitent nos libertés.

Pourtant, le reste de l'Internet, l'Internet décentralisé et gouvernable de façon démocratique, repose sur un contrôle fin et adapté à chaque personne des contenus qui y sont diffusés. Cette organisation est une des solutions les plus pertinentes pour freiner la propagation de messages problématiques, mais la Commission compte justement la détruire en lui imposant des obligations impossibles à respecter.

En pratique, la proposition de la Commission est donc non seulement inutile - les géants sont déjà largement actifs pour surveiller et censurer et collaborent très largement avec les autorités en matière antiterroriste.2 Elle est surtout contre-productive : son principal effet serait de détruire l'unique version d'Internet compatible avec nos libertés fondamentales.

Ce règlement vient à peine d'être proposé aujourd'hui. S'ensuivront des débats au sein des différentes institutions européennes. Nous y contribuerons avec la plus grande rigueur.

  • 1. Ce réglement prévoit une obligation pour tout hébergeur Internet, quelque soit sa taille ou son fonctionnement, de retirer dans un délai d'une heure les contenus jugés de nature terroriste, en cas d'injonction faite par les autorités judiciaires ou administratives (article 4). Il permet également à ces dernières d'imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015), mais sur la base des conditions d'utilisation des plateformes (article 5). Le texte invite aussi les acteurs du Net à adopter des mesures « proactives », sous la forme de filtres automatiques scannant les contenus mis en ligne pour bloquer ceux correspondants à certains critères arrêtés par ces firmes (article 6).
  • 2. Depuis 2015, les États comme la France et des organisations telles qu'Europol ont développé de multiples partenariats avec les géants du numérique pour lutter contre la propagande terroriste, le plus souvent au mépris du droit international.
]]>
12 septembre 2018 - Ce matin, alors que toute l'attention était tournée vers l'adoption de la directive droit d'auteur, la Commission européenne a publié sa proposition de règlement contre la propagande terroriste en ligne.

Ce texte sécuritaire prévoit d'imposer plusieurs obligations aux hébergeurs, et notamment le retrait en moins d'une heure des contenus signalés. Il banalise la censure policière ou privée et donc le contournement de la justice. Il fait des filtres automatiques - justement au coeur du débat sur la directive droit d'auteur - la clé des politiques de censure à l'ère numérique1.

Seule une poignée d'hébergeurs pourront satisfaire de telles obligations - en particulier le délai d'une heure pour censurer les contenus. Les autres hébergeurs - la très grande majorité qui, depuis les origines, ont constitué le corps d'Internet - seront incapables d'y répondre et s'exposeront systématiquement à des sanctions.

Si ce texte était adopté, les quasi-monopoles du Net (Google, Amazon, Facebook, Apple, Microsoft, Twitter...) se verront consacrés dans leur rôle clé pour les politiques sécuritaires des États membres, et renforcés dans leurs positions ultra-dominantes - tous les autres services ayant dû fermer boutique, y compris les services décentralisés qui respectent nos droits. Après avoir vaguement prétendu nous défendre avec le RGPD, la Commission européenne change radicalement de direction et compte désormais défaire l'État de droit en renforçant et en pactisant avec des firmes surpuissantes, qui exploitent nos libertés.

Pourtant, le reste de l'Internet, l'Internet décentralisé et gouvernable de façon démocratique, repose sur un contrôle fin et adapté à chaque personne des contenus qui y sont diffusés. Cette organisation est une des solutions les plus pertinentes pour freiner la propagation de messages problématiques, mais la Commission compte justement la détruire en lui imposant des obligations impossibles à respecter.

En pratique, la proposition de la Commission est donc non seulement inutile - les géants sont déjà largement actifs pour surveiller et censurer et collaborent très largement avec les autorités en matière antiterroriste.2 Elle est surtout contre-productive : son principal effet serait de détruire l'unique version d'Internet compatible avec nos libertés fondamentales.

Ce règlement vient à peine d'être proposé aujourd'hui. S'ensuivront des débats au sein des différentes institutions européennes. Nous y contribuerons avec la plus grande rigueur.

  • 1. Ce réglement prévoit une obligation pour tout hébergeur Internet, quelque soit sa taille ou son fonctionnement, de retirer dans un délai d'une heure les contenus jugés de nature terroriste, en cas d'injonction faite par les autorités judiciaires ou administratives (article 4). Il permet également à ces dernières d'imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015), mais sur la base des conditions d'utilisation des plateformes (article 5). Le texte invite aussi les acteurs du Net à adopter des mesures « proactives », sous la forme de filtres automatiques scannant les contenus mis en ligne pour bloquer ceux correspondants à certains critères arrêtés par ces firmes (article 6).
  • 2. Depuis 2015, les États comme la France et des organisations telles qu'Europol ont développé de multiples partenariats avec les géants du numérique pour lutter contre la propagande terroriste, le plus souvent au mépris du droit international.
]]>
Directive droit d'auteur : l'industrie culturelle et la presse réclament les miettes de l'économie de la surveillance de masse10613 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180912_100404_Directive_droit_d_auteur___l_industrie_culturelle_et_la_presse_reclament_les_miettes_de_l_economie_de_la_surveillance_de_masseWed, 12 Sep 2018 08:04:04 +000012 septembre 2018 - Le Parlement européen vient d'adopter la directive droit d'auteur, qu'il avait pourtant repoussée une première fois cet été. En ayant fait adopter cette directive, les industries culturelles et de la presse réclament les miettes de l'économie de la surveillance de masse. Plutôt que de combattre cette capitulation devant les GAFAM, le gouvernement français l'a vigoureusement encouragée.

En 20 ans, l'industrie culturelle française n'a jamais su s'adapter à Internet. Aujourd'hui, elle est folle de rage devant le succès de Netflix ou d'Amazon. Donc elle exige les miettes du gâteau. Elle veut contraindre les géants du Web, tels que Youtube ou Facebook, à partager avec elle les revenus de la publicité ciblée associée aux œuvres dont ils sont les ayants-droits.

Mais la publicité ciblée consiste surtout à surveiller tout le monde, partout, tout le temps, sans notre consentement libre. Depuis le 25 mai et le RGPD, c'est illégal, et c'est bien pourquoi nous avons attaqué chacun des GAFAM au printemps dernier devant la CNIL, dans des plaintes collectives réunissant 12 000 personnes.

Pourtant, ayant échoué à évoluer, l'industrie culturelle française est aujourd'hui prête à s'associer à ce modèle illégal. Avec le vote d'aujourd'hui, le financement de la culture se soumet à l'économie de la surveillance de masse. Et il est injustifiable que le gouvernement français, en soutenant lui aussi cette directive, ait consacré la toute puissance illicite des géants du Web, plutôt que de combattre leur modèle de surveillance pour nous en protéger.

Hélas, le débat ne s'arrête pas là. À côté, on retrouve les éditeurs de presse qui, eux non plus, pour la plupart, n'ont jamais su s'adapter. Du coup, ils exigent aujourd'hui que Facebook et Google les financent en les payant pour chaque extrait d'article cité sur leur service. Mais quand les revenus du Monde ou du Figaro dépendront des revenus de Google ou de Facebook, combien de temps encore pourrons-nous lire dans ces journaux des critiques de ces géants ? Plutôt que de s'adapter, les éditeurs de presse préfèrent renoncer entièrement à leur indépendance, sachant par ailleurs que bon nombre d'entre eux mettent en œuvre des pratiques tout aussi intrusives que celles des GAFAM en matière de publicité ciblée (relire notre analyse de leurs pratiques et de leurs positions sur le règlement ePrivacy).

Ici encore, le gouvernement français a encouragé cette capitulation générale face aux géants du Web, qui passent encore davantage pour les maîtres de l'Internet. Pourtant, ils ne sont les maîtres de rien du tout. Internet n'a pas besoin de Google ou de Facebook pour nous permettre de communiquer. Au contraire, ces géants nuisent à nos échanges, pour mieux vendre leur publicité.

Le vote d'aujourd'hui est le symptôme de l'urgence qu'il y a à changer de cadre. Le gouvernement français doit accepter qu'Internet ne se résume pas à une poignée de monopoles. Il doit renoncer aux multinationales du numérique et, enfin, commencer à promouvoir le développement d'un Internet décentralisé - seul capable de respecter nos droits et libertés. Maintenant.

]]>
12 septembre 2018 - Le Parlement européen vient d'adopter la directive droit d'auteur, qu'il avait pourtant repoussée une première fois cet été. En ayant fait adopter cette directive, les industries culturelles et de la presse réclament les miettes de l'économie de la surveillance de masse. Plutôt que de combattre cette capitulation devant les GAFAM, le gouvernement français l'a vigoureusement encouragée.

En 20 ans, l'industrie culturelle française n'a jamais su s'adapter à Internet. Aujourd'hui, elle est folle de rage devant le succès de Netflix ou d'Amazon. Donc elle exige les miettes du gâteau. Elle veut contraindre les géants du Web, tels que Youtube ou Facebook, à partager avec elle les revenus de la publicité ciblée associée aux œuvres dont ils sont les ayants-droits.

Mais la publicité ciblée consiste surtout à surveiller tout le monde, partout, tout le temps, sans notre consentement libre. Depuis le 25 mai et le RGPD, c'est illégal, et c'est bien pourquoi nous avons attaqué chacun des GAFAM au printemps dernier devant la CNIL, dans des plaintes collectives réunissant 12 000 personnes.

Pourtant, ayant échoué à évoluer, l'industrie culturelle française est aujourd'hui prête à s'associer à ce modèle illégal. Avec le vote d'aujourd'hui, le financement de la culture se soumet à l'économie de la surveillance de masse. Et il est injustifiable que le gouvernement français, en soutenant lui aussi cette directive, ait consacré la toute puissance illicite des géants du Web, plutôt que de combattre leur modèle de surveillance pour nous en protéger.

Hélas, le débat ne s'arrête pas là. À côté, on retrouve les éditeurs de presse qui, eux non plus, pour la plupart, n'ont jamais su s'adapter. Du coup, ils exigent aujourd'hui que Facebook et Google les financent en les payant pour chaque extrait d'article cité sur leur service. Mais quand les revenus du Monde ou du Figaro dépendront des revenus de Google ou de Facebook, combien de temps encore pourrons-nous lire dans ces journaux des critiques de ces géants ? Plutôt que de s'adapter, les éditeurs de presse préfèrent renoncer entièrement à leur indépendance, sachant par ailleurs que bon nombre d'entre eux mettent en œuvre des pratiques tout aussi intrusives que celles des GAFAM en matière de publicité ciblée (relire notre analyse de leurs pratiques et de leurs positions sur le règlement ePrivacy).

Ici encore, le gouvernement français a encouragé cette capitulation générale face aux géants du Web, qui passent encore davantage pour les maîtres de l'Internet. Pourtant, ils ne sont les maîtres de rien du tout. Internet n'a pas besoin de Google ou de Facebook pour nous permettre de communiquer. Au contraire, ces géants nuisent à nos échanges, pour mieux vendre leur publicité.

Le vote d'aujourd'hui est le symptôme de l'urgence qu'il y a à changer de cadre. Le gouvernement français doit accepter qu'Internet ne se résume pas à une poignée de monopoles. Il doit renoncer aux multinationales du numérique et, enfin, commencer à promouvoir le développement d'un Internet décentralisé - seul capable de respecter nos droits et libertés. Maintenant.

]]>
Directive sur le droit d’auteur : l’affrontement factice des deux têtes du capitalisme informationnel10612 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180910_111747_Directive_sur_le_droit_d___auteur___l___affrontement_factice_des_deux_tetes_du_capitalisme_informationnelMon, 10 Sep 2018 09:17:47 +0000Nous republions la tribune de Félix Tréguer parue dans Le Monde le 8 septembre 2018

Un quart de siècle qu’on se repasse ce même mauvais film, celui où les industries culturelles instrumentalisent la loi pour faire la guerre à leur public. En cause cette fois-ci, l’article 13 de la directive sur le droit d’auteur en cours d’examen à Bruxelles, et sur lequel le Parlement européen se prononcera le 12 septembre.

Dans sa rédaction actuelle, cette disposition impose que, dans le cadre d’accords avec les sociétés d’ayants droit (telle la Sacem), les ­plates-formes numériques (YouTube, Facebook et consorts) recourent à des outils de ­filtrage automatisés. Le but ? Repérer les ­contenus ­publiés par les internautes et bloquer ceux ­incluant des œuvres couvertes par le droit d’auteur. Une forme de censure préalable, automatisée et privatisée.

Rien de bien nouveau, donc. En effet, depuis le milieu des années 1990, les industries culturelles (musique, cinéma, édition…) n’ont eu de cesse d’exiger des législateurs et des tribunaux la « collaboration » forcée des fournisseurs ­d’accès à Internet et des hébergeurs pour lutter ­contre l’échange gratuit d’œuvres culturelles sur les réseaux.

L’ACTA rejeté en 2012

A l’époque déjà, ces débats avaient conduit à la mobilisation des associations de défense des droits dans l’environnement numérique. Comme aujourd’hui, ces dernières faisaient valoir que la logique poursuivie était dangereuse, puisqu’elle revenait à confier à des entreprises privées un rôle de surveillance et de censure des communications sur le Net.

Ces débats débouchèrent en Europe sur un compromis instable à travers une directive adoptée en juin 2000, qui semblait donner gain de cause aux militants et aux acteurs de l’économie numérique. Les « intermédiaires techniques » d’Internet, et en particulier les hébergeurs, ne seraient plus inquiétés tant qu’ils ne joueraient pas de rôle actif dans la diffusion des contenus litigieux. Il leur fallait répondre aux demandes judiciaires visant à retirer les publications illicites, mais les Etats ne pourraient pas leur imposer d’« obligation générale de surveillance » des communications pour détecter et empêcher de telles publications.

Depuis, les initiatives visant à imposer des filtres automatiques se sont pourtant multipliées. Et parfois, en France notamment, leurs promoteurs ont eu gain de cause devant les tribunaux. Toutefois, dans deux arrêts importants rendus en 2011 et 2012 au nom de la protection de la liberté de communication et de la vie privée, la Cour de justice de l’Union européenne s’est opposée aux demandes d’une ­société de gestion visant à imposer à un fournisseur d’accès ou à un hébergeur la mise en place de tels filtres. En 2012, le Parlement européen a également rejeté l’Accord commercial anti-contrefaçon (ACTA), qui aurait pu banaliser, à l’échelle mondiale, le recours à ces outils de filtrage.

Surveillance des utilisateurs

Sauf que, entre-temps, l’économie politique d’Internet a été profondément ébranlée par l’apparition d’un nouvel oligopole, composé de quelques firmes presque entièrement consacrées à la régulation algorithmique de l’information. Il y a ainsi plus de dix ans que Google, mis sous pression par les multinationales du divertissement, a déployé au sein de sa filiale YouTube un système de filtrage baptisé Content ID.

En scannant automatiquement l’ensemble des vidéos mises en ligne par les utilisateurs et en les confrontant à une base de données de contenus soumis au droit d’auteur, les algorithmes de Content ID permettent aux ayants droit de bloquer ou de monétiser les vidéos incluant des œuvres dont ils détiennent les droits. Un dispositif que l’article 13 de la directive sur le droit d’auteur cherche à généraliser.

Or, Content ID a conduit à de nombreux cas de censure voyant des ayants droit revendiquer des œuvres qui ne leur appartenaient pas. Il s’avère aussi incapable de respecter les exceptions légales au droit d’auteur ­(citation, parodie…) sur lesquelles se fondent des nouvelles pratiques artistiques (remix, mashups…). Google a donc beau jeu de critiquer l’article 13 au nom de la défense des libertés, en chœur avec d’autres entreprises du numérique qui ont placé la censure privée et la surveillance des utilisateurs au cœur de leurs modèles économiques.

Incapables de repenser les politiques culturelles

A l’hypocrisie des géants du numérique ­répond celle des industries culturelles. Trop occupées à défendre une vision « propriétariste » du droit d’auteur et à réprimer le partage d’œuvres sur les réseaux peer to peer (« de pair à pair »), elles se montrent incapables de repenser les politiques culturelles à l’ère numérique. Résultat : elles en sont aujourd’hui réduites à négocier piteusement avec les grandes entreprises de technologie qui, profitant de leur incurie, ont raflé la mise.

Car c’est bien ce qui se joue actuellement avec la directive sur le droit d’auteur : l’affrontement des deux têtes de l’hydre du capitalisme ­informationnel. Industries culturelles versus ­plates-formes numériques, qui veulent chacune se ménager le maximum de marge de manœuvre dans leur négociation d’une forme de « licence globale » privatisée, laquelle viendra renforcer leurs positions oligopolistiques au détriment tant du public que des artistes.
Que faire pour sortir de ce cycle délétère ? D’abord, rejeter l’article 13 et le monde qu’il représente, celui où l’espace public et la liberté d’expression sont soumis aux décisions d’algorithmes opaques. Si le Parlement européen tient encore à inscrire l’Union européenne dans la tradition de l’Etat de droit, il réaffirmera la position qui est la sienne depuis près de vingt ans et le rejettera.

Et après ? On voudrait croire, comme nous l’avions cru en 2012 avec le rejet de l’ACTA, qu’une telle décision marquera le début d’une refondation des politiques culturelles et ­numériques. Mais, en dépit de quelques signes encourageants de l’UE pour contrer la dominance des Gafam (Google, Apple, Facebook, Amazon et Microsoft), il y a fort à parier que les Etats continueront de composer avec les ­nouveaux seigneurs de l’espace public… D’où l’importance de cultiver des espaces de résistance renouant avec le projet de faire d’Internet une bibliothèque universelle, envers et contre le droit si nécessaire.

Félix Tréguer
Chercheur postdoctorant à l’Institut des sciences de la communication (CNRS) et membre de La Quadrature du Net.

]]>
Nous republions la tribune de Félix Tréguer parue dans Le Monde le 8 septembre 2018

Un quart de siècle qu’on se repasse ce même mauvais film, celui où les industries culturelles instrumentalisent la loi pour faire la guerre à leur public. En cause cette fois-ci, l’article 13 de la directive sur le droit d’auteur en cours d’examen à Bruxelles, et sur lequel le Parlement européen se prononcera le 12 septembre.

Dans sa rédaction actuelle, cette disposition impose que, dans le cadre d’accords avec les sociétés d’ayants droit (telle la Sacem), les ­plates-formes numériques (YouTube, Facebook et consorts) recourent à des outils de ­filtrage automatisés. Le but ? Repérer les ­contenus ­publiés par les internautes et bloquer ceux ­incluant des œuvres couvertes par le droit d’auteur. Une forme de censure préalable, automatisée et privatisée.

Rien de bien nouveau, donc. En effet, depuis le milieu des années 1990, les industries culturelles (musique, cinéma, édition…) n’ont eu de cesse d’exiger des législateurs et des tribunaux la « collaboration » forcée des fournisseurs ­d’accès à Internet et des hébergeurs pour lutter ­contre l’échange gratuit d’œuvres culturelles sur les réseaux.

L’ACTA rejeté en 2012

A l’époque déjà, ces débats avaient conduit à la mobilisation des associations de défense des droits dans l’environnement numérique. Comme aujourd’hui, ces dernières faisaient valoir que la logique poursuivie était dangereuse, puisqu’elle revenait à confier à des entreprises privées un rôle de surveillance et de censure des communications sur le Net.

Ces débats débouchèrent en Europe sur un compromis instable à travers une directive adoptée en juin 2000, qui semblait donner gain de cause aux militants et aux acteurs de l’économie numérique. Les « intermédiaires techniques » d’Internet, et en particulier les hébergeurs, ne seraient plus inquiétés tant qu’ils ne joueraient pas de rôle actif dans la diffusion des contenus litigieux. Il leur fallait répondre aux demandes judiciaires visant à retirer les publications illicites, mais les Etats ne pourraient pas leur imposer d’« obligation générale de surveillance » des communications pour détecter et empêcher de telles publications.

Depuis, les initiatives visant à imposer des filtres automatiques se sont pourtant multipliées. Et parfois, en France notamment, leurs promoteurs ont eu gain de cause devant les tribunaux. Toutefois, dans deux arrêts importants rendus en 2011 et 2012 au nom de la protection de la liberté de communication et de la vie privée, la Cour de justice de l’Union européenne s’est opposée aux demandes d’une ­société de gestion visant à imposer à un fournisseur d’accès ou à un hébergeur la mise en place de tels filtres. En 2012, le Parlement européen a également rejeté l’Accord commercial anti-contrefaçon (ACTA), qui aurait pu banaliser, à l’échelle mondiale, le recours à ces outils de filtrage.

Surveillance des utilisateurs

Sauf que, entre-temps, l’économie politique d’Internet a été profondément ébranlée par l’apparition d’un nouvel oligopole, composé de quelques firmes presque entièrement consacrées à la régulation algorithmique de l’information. Il y a ainsi plus de dix ans que Google, mis sous pression par les multinationales du divertissement, a déployé au sein de sa filiale YouTube un système de filtrage baptisé Content ID.

En scannant automatiquement l’ensemble des vidéos mises en ligne par les utilisateurs et en les confrontant à une base de données de contenus soumis au droit d’auteur, les algorithmes de Content ID permettent aux ayants droit de bloquer ou de monétiser les vidéos incluant des œuvres dont ils détiennent les droits. Un dispositif que l’article 13 de la directive sur le droit d’auteur cherche à généraliser.

Or, Content ID a conduit à de nombreux cas de censure voyant des ayants droit revendiquer des œuvres qui ne leur appartenaient pas. Il s’avère aussi incapable de respecter les exceptions légales au droit d’auteur ­(citation, parodie…) sur lesquelles se fondent des nouvelles pratiques artistiques (remix, mashups…). Google a donc beau jeu de critiquer l’article 13 au nom de la défense des libertés, en chœur avec d’autres entreprises du numérique qui ont placé la censure privée et la surveillance des utilisateurs au cœur de leurs modèles économiques.

Incapables de repenser les politiques culturelles

A l’hypocrisie des géants du numérique ­répond celle des industries culturelles. Trop occupées à défendre une vision « propriétariste » du droit d’auteur et à réprimer le partage d’œuvres sur les réseaux peer to peer (« de pair à pair »), elles se montrent incapables de repenser les politiques culturelles à l’ère numérique. Résultat : elles en sont aujourd’hui réduites à négocier piteusement avec les grandes entreprises de technologie qui, profitant de leur incurie, ont raflé la mise.

Car c’est bien ce qui se joue actuellement avec la directive sur le droit d’auteur : l’affrontement des deux têtes de l’hydre du capitalisme ­informationnel. Industries culturelles versus ­plates-formes numériques, qui veulent chacune se ménager le maximum de marge de manœuvre dans leur négociation d’une forme de « licence globale » privatisée, laquelle viendra renforcer leurs positions oligopolistiques au détriment tant du public que des artistes.
Que faire pour sortir de ce cycle délétère ? D’abord, rejeter l’article 13 et le monde qu’il représente, celui où l’espace public et la liberté d’expression sont soumis aux décisions d’algorithmes opaques. Si le Parlement européen tient encore à inscrire l’Union européenne dans la tradition de l’Etat de droit, il réaffirmera la position qui est la sienne depuis près de vingt ans et le rejettera.

Et après ? On voudrait croire, comme nous l’avions cru en 2012 avec le rejet de l’ACTA, qu’une telle décision marquera le début d’une refondation des politiques culturelles et ­numériques. Mais, en dépit de quelques signes encourageants de l’UE pour contrer la dominance des Gafam (Google, Apple, Facebook, Amazon et Microsoft), il y a fort à parier que les Etats continueront de composer avec les ­nouveaux seigneurs de l’espace public… D’où l’importance de cultiver des espaces de résistance renouant avec le projet de faire d’Internet une bibliothèque universelle, envers et contre le droit si nécessaire.

Félix Tréguer
Chercheur postdoctorant à l’Institut des sciences de la communication (CNRS) et membre de La Quadrature du Net.

]]>
Un collège-lycée contraint illégalement des enfants à être traçables en permanence10605 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180727_151455_Un_college-lycee_contraint_illegalement_des_enfants_a_etre_tra__ables_en_permanenceFri, 27 Jul 2018 13:14:55 +000030 juillet 2018 - Il y a dix jours, une lycéenne de l'établissement scolaire privé Rocroy Saint-Vincent de Paul, à Paris, a révélé un changement du règlement intérieur de l'établissement. À compter de la rentrée, chaque collégien et lycéen devra porter sur lui un porte-clef fourni à l'établissement par la start-up française New School et qui permettra de localiser l'élève via une puce Bluetooth intégrée. Voici le résultat de notre analyse juridique et technique de ce système, concluant à son illégalité.

Mise à jour du 29 août 2018 :

Newschool a publié hier une réponse aux critiques la visant. Pour défendre son système, la start-up met en avant l'obligation légale de faire l'appel en classe. L'existence de cette obligation n'est pas le sujet du débat : ce qui importe est de savoir si le porte-clef permet de répondre licitement à cette obligation - ce n'est pas le cas.

Ensuite, quant à la licéité du porte-clef, New School se contente d'évoquer des « informations erronées » de la part de ses détracteurs. La start-up ne propose pourtant aucun élément précis pour contredire les nombreux points de notre analyse technique et juridique.

Enfin, cette réponse montre que New School refuse de voir que le problème est avant tout dans le rapport à nos libertés fondamentales : renoncer à celles-ci pour rendre certaines tâches moins rébarbatives n'est pas une solution, et nous espérons que les écoles ne se laisseront pas prendre à ce piège.

Fonctionnement du porte-clef

L'établissement scolaire a expliqué que le porte-clef obligatoire lui sera fourni par New School, une start-up française soutenue notamment par Apple1 et mise en avant en 2016 par Qwant2.

Le porte-clef intègre une puce Bluetooth, gérée par un logiciel fourni par une autre start-up française, Ubudu, qui a annoncé sa collaboration avec New School depuis 2016.

Sur son site, Ubudu se décrit ainsi : « Ubudu est la solution RTLS de prochaine génération, qui piste, analyse et détecte biens et personnes sur des lieux industriels ou de services : aéroports, usines, hôpitaux, magasins, centres sportifs ou de loisir, etc. Ubudu fonctionne uniquement avec des petits tags ou smartphones échangeant des signaux radio avec des capteurs fixes, et un serveur de localisation qui calcule et traite la position »3.

Dans sa documentation technique, Ubudu décrit un de ces tags, le tag BLE (Bluetooth Low Energy) : « utilisez des tags BLE si vous avez de nombreux biens à pister et n'avez pas besoin d'une précision en deçà de 1-2m. [...] Des exemples de mise en œuvre comprennent la solution de service en salle de McDonalds ou le badge étudiant New School (voir photo). Vous pouvez aussi utiliser des équipements iBeacon standards, dont nous recommandons ceux de haute qualité, tels que ceux de EM Microelectronics »4.

Parmi les puces EM Microelectronics auxquelles renvoient Ubudu se trouve la puce EMBC01. La fiche technique de cette puce indique qu'elle peut signaler sa présence (en émettant un message radio) une fois par seconde, et qu'elle a alors une portée de 75 mètres et une durée de vie de 12,5 mois.

Nous pensons que cette puce (recommandée par Ubudu, partenaire de New School), ou une puce similaire, est celle intégrée dans le porte-clef New School. En effet, la documentation commerciale de New School indique que « la durée de vie de nos porte-clés connectés est d’environ 13 mois », ce qui correspond à la durée de 12,5 mois de la puce EMBC01. De même, après prise de contact avec New School, NextInpact explique que, « à en croire ses développeurs, cette clef [...] dispose d’une portée de 15 à 25 mètres en intérieur, et même 75 mètres à l’extérieur » - la même portée que la puce EMBC01.

Enfin, la puce qui apparait sur plusieurs photo du porte-clef New School (ici, en bas, une photo de 2016 tirée de l'article de Qwant en soutien à la start-up) est identique à l'image de la puce EMBC01 diffusée par EM Microelectronics dans sa documentation (ici, en haut).

Le porte-clef New School émet donc constamment, une fois par seconde et pendant 13 mois, un identifiant unique, propre à chaque porte-clef et, ainsi, à chaque enfant. Cet identifiant peut être capté par les smartphones situés dans un rayon de plusieurs dizaines de mètres.

Dans son règlement intérieur, l'établissement Rocroy explique que le port constant du porte-clef par les enfants permettra « de s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité ». Comme le détaille New School dans sa documentation, les professeurs et encadrants, munis de smartphone, pourront recevoir l'identifiant unique émis par chaque porte-clef et, ainsi, contrôler la présence des porte-clefs environnants (et, par là, en théorie, de chaque enfant dont le nom et la photo sont associés à chaque identifiant Bluetooth dans la base de données New School).

Charlemagne/EcoleDirecte

Dans sa documentation, New School explique que « tous les outils édités par NewSchool sont conçus avec un souci permanent de protéger les données : [...] chacun accède uniquement aux données auxquelles le chef d'établissement lui donne accès, le niveau de sécurité des mots de passe est celui dépendant du logiciel Charlemagne/EcoleDirecte ».

Charlemagne/EcoleDirecte est un logiciel de suivi de scolarité développé par l'entreprise française STATIM. Cette entreprise fournit en ligne la documentation du logiciel. On y découvre les fonctionnements d'une sécurité d'un autre âge...

Pour la création d'un nouveau profil, c'est l'administrateur qui choisit lui-même le mot de passe pour chaque utilisateur. Pour qu'un utilisateur récupère son mot de passe, celui-ci lui est alors envoyé en clair par email. Si le mot de passe peut lui être envoyé de la sorte, c'est manifestement qu'il est conservé en clair sur le serveur... contrairement aux recommandations élémentaires de la CNIL5.

Faire reposer l'identification de données de localisation d'enfants sur un système aussi peu sécurisé, initialement développé pour un usage très différent, est impensable. C'est pourtant ce qu'explique faire New School.

De fausses affirmations

Dans un communiqué réagissant à la polémique naissante, l'établissement Rocroy explique, tentant d'être rassurant, que « le bluetooth ne s’active que lorsque l’enseignant fait l’appel. Le reste du temps, les porte-clés s’éteignent automatiquement ».

Cette affirmation rend absurde la durée de vie de 13 mois du porte-clef annoncée par New School dans la documentation. Au regard de l'état de l'art des puces Bluetooth (tel qu'il en ressort des caractéristiques de la puce EMBC01), une puce qui serait activée une poignée de minutes seulement par jour (le temps de faire l'appel) aurait une durée de vie de plusieurs années et n'aurait pas besoin d'être renouvelée tous les 13 mois.

Ce renouvellement de la puce aurait pu être justifié par le passage d'une année à l'autre par chaque enfant, mais le délai de renouvellement aurait alors été de 12 mois et non de 13. Le renouvellement de la puce n'est donc justifiable que par une seule raison : la puce est activée de façon constante, 24h/24, même en dehors des 8 heures de classe quotidiennes (sans quoi la durée de vie annoncée serait triple, de l'ordre de 39 mois).

Par ailleurs, l'idée que la puce n'émette qu'au moment de l'appel est inconciliable avec la détection des enfants en CDI (en bibliothèque) : ce lieu pouvant être accédé n'importe quand, il n'y a pas d'appel à y faire à un instant déterminé. La puce doit émettre régulièrement pour signaler une présence au du CDI.

L'affirmation de l'établissement Rocroy semble donc fausse. Les conséquences seraient lourdes. Certes, l'identifiant unique émis par le porte-clef n'indique pas directement le nom d'un élève. Mais qu'importe : activé en permanence, il permettrait de suivre à la trace chaque enfant de façon individualisée (l'identifiant étant unique), au simple moyen d'un smartphone (EM Microelectronics fournit même une application à cette fin), n'importe où, même en dehors de l'école, pour peu qu'on se trouve dans un rayon de 75 mètres de l'enfant.

Si l'établissement ne fournit pas d'informations nouvelles permettant de contredire cette hypothèse, nous viendrons la vérifier en pratique à la rentrée devant son lycée, qui n'est pas très loin de nos locaux.

Par ailleurs, dans son communiqué de presse, l'établissement prétend que le porte-clef « n’utilise pas la géolocalisation, et ne permet donc pas de connaitre la position ou les déplacements des élèves ».

Ce n'est pas ce que révèle la fiche de l'application New School qui sera utilisée sur smartphone par le personnel de l'établissement afin de détecter les porte-clefs à proximité. Au moment de son installation, l'application demande de pouvoir transmettre à New School la géolocalisation précise du smartphone, notamment par GPS. Or, la géolocalisation du smartphone permettra aussi de géolocaliser les portes-clefs détectés qui, par définition, seront situés dans une proximité directe. L'affirmation de l'établissement est donc fausse : le porte-clef permettra d'indiquer à New School la position des enfants dès lors qu'ils se trouveront à proximité d'un smartphone utilisant l'application New School.

Enfin, dans son communiqué, l'établissement a cru bon de prétendre que « les données personnelles (nom de l’élève, emploi du temps) sont protégées et cryptées, en accord avec la CNIL ». Or, comme on l'a vu, le système Charlemagne/EcoleDirecte sur lequel repose New School ne satisfait aucune des recommandations de la CNIL élémentaires en matière de sécurité. Ainsi, contactée par Le Point sur cette affaire, la CNIL a déclaré mardi dernier « ne pas avoir eu d'échange avec le lycée Rocroy sur le dispositif ».

Un système illégal

Le port obligatoire du porte-clef New School par chaque enfant semble illicite du simple fait que l'information fournie par l'établissement sur l'interruption automatique du porte-clef serait fausse, alors que le règlement général sur la protection des données (RGPD) exige une information loyale.

De plus, quand bien même cette information serait juste (si le porte-clef n'émettait pas constamment), le système serait illicite pour d'autres raisons.

D'abord, le RGPD exige que tout traitement de données personnelles soit fondé sur une base légale : le consentement, la nécessité de fournir un service public ou la nécessité de poursuivre un « intérêt légitime ».

Ici, les enfants ne peuvent donner aucun consentement valide au traçage : ils n'ont pas le choix de l'accepter pour aller en cours et ne peuvent l'accepter qu'en même temps qu'ils acceptent l'ensemble du règlement intérieur. Leur consentement, qui ne serait ni libre ni spécifique, ne serait jamais reconnu comme valide par la CNIL (au sujet du caractère libre du consentement, voir l'analyse détaillée développée dans nos plaintes collectives contre les GAFAM).

S'agissant de la nécessité de fournir un service public ou de poursuivre un intérêt légitime (tel que faire l'appel des élèves), il faut d'abord démontrer que le système est « nécessaire ». En droit, ceci implique notamment qu'il n'existe aucun autre système alternatif qui, atteignant les mêmes objectifs, cause des risques moins élevés en matière d'atteinte aux libertés fondamentales. Ici, l'appel des enfants à l'oral remplit les mêmes objectifs sans poser de risque pour la vie privée. Le fait que le traçage par localisation automatique des enfants simplifie l'appel des élèves ne saurait le rendre « nécessaire », surtout au regard des risques importants qu'il cause quant à la traçabilité constante de la position de chaque enfant.

Toutefois, ce débat sur la « nécessité » a déjà été tranché par le groupe de l'article 29 (G29, l'institution qui réunissait les CNIL des 28 États membres de l'Union européenne et qui est devenu le Comité européen de la protection des données depuis le 25 mai 2018).

Depuis 2011, le G29 considère que, dans les cas où des personnes pourraient être localisées au moyen de signaux émis par un dispositif qu'elles transportent, et dans le cas où cela serait possible non pas sur la base de leur consentement mais sur celui d'un « intérêt légitime », il faut systématiquement que ces personnes puissent librement et facilement s'opposer à un tel traçage, à tout moment.

Dans notre cas, à l'inverse, l'établissement Rocroy sanctionne les enfants qui s'opposerait au pistage en refusant de porter le porte-clef. L'obligation de le porter est donc illicite de ce seul fait.

Par ailleurs, peu importe la base légale du traitement de données personnelles, le RGPD exige que celui-ci soit accompagné d'un certain nombre d'informations. Le responsable de traitement doit indiquer :

  1. son identité et ses coordonnées ;
  2. les finalités poursuivies ;
  3. l’étendue des droits de la personne concernée ;
  4. si les données sont transmises à des tiers, l'identité de ces destinataires ou la catégorie de ces destinataires ;
  5. la condition de licéité remplie par le traitement – en précisant, selon le cas, l'intérêt légitime défendu ou la possibilité de retirer le consentement donné ;
  6. la durée de conservation des données ;
  7. l'existence d'un transfert de données en dehors de l’Union, en précisant les garanties encadrant ce transfert ;
  8. l’existence d'une prise de décision automatisé.

Dans notre cas, l'établissement n'a fourni aucune de ces informations, si ce n'est, éventuellement, certaines des finalités envisagées (s'agissant des élèves, « s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité »), sans qu'on ne sache toutefois si ces finalités sont exhaustives.

Les autres informations sont simplement absentes, rendant le système illicite de ce seul fait.

Enfin, comme vu plus haut, les obligations de sécurité imposées par le RGPD ne sont pas respectées puisque le système New School repose sur le système complètement obsolète de Charlemagne/EcoleDirecte.

Et maintenant ?

Nous invitons les élèves et parents d'élèves de l'établissement Rocroy à se saisir des éléments développés ici pour saisir la justice en référé afin de faire changer le règlement intérieur avant la rentrée.

De façon plus générale, nous appelons la CNIL à enquêter sur la start-up New School avant que celle-ci ne démarche d'autres établissements. La situation est des plus inquiétante puisque, dès 2016, d'après Le Figaro Madame, « le cabinet de Valérie Pécresse lui fait savoir qu'ils aimeraient utiliser l'application pour toute la région Île-de-France ».

Politiquement, le cas de New School révèle un mouvement plus profond et plus grave : les puces choisies par New School ont initialement été pensées et sont normalement utilisées pour localiser des objets fixes (des murs) ou mobiles (des marchandises) afin qu'un humain muni d'un smartphone puisse se repérer parmi ces objets. Cette situation s'inverse ici : la puce n'est plus attachée à des objets mais à des enfants ; le smartphone ne sert plus à se repérer dans l'espace mais, immobile au poste du surveillant, à définir l'espace dans lequel les humains peuvent évoluer. L'humain ne se déplace plus parmi les choses : il est une chose comprise par d'autres.

  • 1. En janvier dernier, La Tribune explique, au sujet de la créatrice de New School, après que celle-ci a remporté un prix pour jeune startupeux :
    Quelques mois plus tard, Apple entre en contact avec elle et lui demande de pitcher deux jours plus tard dans ses bureaux londoniens. « J'étais déjà sur place, à croire qu'ils m'avaient tracée... » Dans le développement de NewSchool, la marque à la pomme a joué un rôle important, notamment dans la conception de l'application mais aussi dans la commercialisation : « Le marché de l'éducation en France est assez impénétrable, nous avons échangé beaucoup d'informations ».
    [...]
    Le coaching by Apple est toujours d'actualité. La jeune entrepreneure participe à de nombreux événements et voit régulièrement des développeurs, français et anglais, pour avancer sur l'application. Elle a même eu le privilège de rencontrer Tim Cook, en février dernier. Au tout début, il était question de faire de NewSchool une application préintégrée sur les appareils vendus aux établissements scolaires, mais « à l'époque nous n'étions pas assez développés, ni commercialement ni au niveau des fonctionnalités. Il nous faut encore grandir pour espérer un jour avoir une application commune », explique-t-elle. Et le travail en famille est toujours valable. « Ma mère est directrice commerciale, elle travaille beaucoup. Nous avons fait le salon de l'éducation la semaine dernière, c'est elle qui a tout géré », s'enthousiasme la jeune femme.
  • 2. Qwant semble avoir dé-publié son article en soutien à New School, mais nous en avions fait une copie. En réaction au présent article, Qwant a précisé que « Nous avons été invité à remettre un prix étudiant à la fondatrice pour son projet entrepreneurial (elle était la plus jeune entrepreneuse de France) mais notre lien avec l'entreprise n'a pas été au-delà de ce concours. »
  • 3. Notre traduction de « Ubudu is a next-generation RTLS solution, which tracks, analyses and detects assets and people in industrial or service sites: airports, factories, hospitals, retail, sport & leisure venues, etc. Ubudu simply works with small tags or smartphones exchanging radio-signals with fixed sensors, and a location server that computes and processes the position. »
  • 4. Notre traduction de « Use BLE Tags if you have many assets to track and do not need accuracy below 1-2m. (...) Examples of realizations include McDonald’s table service solution and New School student tokens (include pictures). You can also go with standard iBeacon devices, for which we recommend those of high quality, such as EM Microelectronics ».
  • 5. De bon sens, la CNIL exige que « le mot de passe ne doit pas être communiqué à l'utilisateur en clair par courrier électronique » et que « le mot de passe ne doit jamais être stocké en clair ».
]]>
30 juillet 2018 - Il y a dix jours, une lycéenne de l'établissement scolaire privé Rocroy Saint-Vincent de Paul, à Paris, a révélé un changement du règlement intérieur de l'établissement. À compter de la rentrée, chaque collégien et lycéen devra porter sur lui un porte-clef fourni à l'établissement par la start-up française New School et qui permettra de localiser l'élève via une puce Bluetooth intégrée. Voici le résultat de notre analyse juridique et technique de ce système, concluant à son illégalité.

Mise à jour du 29 août 2018 :

Newschool a publié hier une réponse aux critiques la visant. Pour défendre son système, la start-up met en avant l'obligation légale de faire l'appel en classe. L'existence de cette obligation n'est pas le sujet du débat : ce qui importe est de savoir si le porte-clef permet de répondre licitement à cette obligation - ce n'est pas le cas.

Ensuite, quant à la licéité du porte-clef, New School se contente d'évoquer des « informations erronées » de la part de ses détracteurs. La start-up ne propose pourtant aucun élément précis pour contredire les nombreux points de notre analyse technique et juridique.

Enfin, cette réponse montre que New School refuse de voir que le problème est avant tout dans le rapport à nos libertés fondamentales : renoncer à celles-ci pour rendre certaines tâches moins rébarbatives n'est pas une solution, et nous espérons que les écoles ne se laisseront pas prendre à ce piège.

Fonctionnement du porte-clef

L'établissement scolaire a expliqué que le porte-clef obligatoire lui sera fourni par New School, une start-up française soutenue notamment par Apple1 et mise en avant en 2016 par Qwant2.

Le porte-clef intègre une puce Bluetooth, gérée par un logiciel fourni par une autre start-up française, Ubudu, qui a annoncé sa collaboration avec New School depuis 2016.

Sur son site, Ubudu se décrit ainsi : « Ubudu est la solution RTLS de prochaine génération, qui piste, analyse et détecte biens et personnes sur des lieux industriels ou de services : aéroports, usines, hôpitaux, magasins, centres sportifs ou de loisir, etc. Ubudu fonctionne uniquement avec des petits tags ou smartphones échangeant des signaux radio avec des capteurs fixes, et un serveur de localisation qui calcule et traite la position »3.

Dans sa documentation technique, Ubudu décrit un de ces tags, le tag BLE (Bluetooth Low Energy) : « utilisez des tags BLE si vous avez de nombreux biens à pister et n'avez pas besoin d'une précision en deçà de 1-2m. [...] Des exemples de mise en œuvre comprennent la solution de service en salle de McDonalds ou le badge étudiant New School (voir photo). Vous pouvez aussi utiliser des équipements iBeacon standards, dont nous recommandons ceux de haute qualité, tels que ceux de EM Microelectronics »4.

Parmi les puces EM Microelectronics auxquelles renvoient Ubudu se trouve la puce EMBC01. La fiche technique de cette puce indique qu'elle peut signaler sa présence (en émettant un message radio) une fois par seconde, et qu'elle a alors une portée de 75 mètres et une durée de vie de 12,5 mois.

Nous pensons que cette puce (recommandée par Ubudu, partenaire de New School), ou une puce similaire, est celle intégrée dans le porte-clef New School. En effet, la documentation commerciale de New School indique que « la durée de vie de nos porte-clés connectés est d’environ 13 mois », ce qui correspond à la durée de 12,5 mois de la puce EMBC01. De même, après prise de contact avec New School, NextInpact explique que, « à en croire ses développeurs, cette clef [...] dispose d’une portée de 15 à 25 mètres en intérieur, et même 75 mètres à l’extérieur » - la même portée que la puce EMBC01.

Enfin, la puce qui apparait sur plusieurs photo du porte-clef New School (ici, en bas, une photo de 2016 tirée de l'article de Qwant en soutien à la start-up) est identique à l'image de la puce EMBC01 diffusée par EM Microelectronics dans sa documentation (ici, en haut).

Le porte-clef New School émet donc constamment, une fois par seconde et pendant 13 mois, un identifiant unique, propre à chaque porte-clef et, ainsi, à chaque enfant. Cet identifiant peut être capté par les smartphones situés dans un rayon de plusieurs dizaines de mètres.

Dans son règlement intérieur, l'établissement Rocroy explique que le port constant du porte-clef par les enfants permettra « de s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité ». Comme le détaille New School dans sa documentation, les professeurs et encadrants, munis de smartphone, pourront recevoir l'identifiant unique émis par chaque porte-clef et, ainsi, contrôler la présence des porte-clefs environnants (et, par là, en théorie, de chaque enfant dont le nom et la photo sont associés à chaque identifiant Bluetooth dans la base de données New School).

Charlemagne/EcoleDirecte

Dans sa documentation, New School explique que « tous les outils édités par NewSchool sont conçus avec un souci permanent de protéger les données : [...] chacun accède uniquement aux données auxquelles le chef d'établissement lui donne accès, le niveau de sécurité des mots de passe est celui dépendant du logiciel Charlemagne/EcoleDirecte ».

Charlemagne/EcoleDirecte est un logiciel de suivi de scolarité développé par l'entreprise française STATIM. Cette entreprise fournit en ligne la documentation du logiciel. On y découvre les fonctionnements d'une sécurité d'un autre âge...

Pour la création d'un nouveau profil, c'est l'administrateur qui choisit lui-même le mot de passe pour chaque utilisateur. Pour qu'un utilisateur récupère son mot de passe, celui-ci lui est alors envoyé en clair par email. Si le mot de passe peut lui être envoyé de la sorte, c'est manifestement qu'il est conservé en clair sur le serveur... contrairement aux recommandations élémentaires de la CNIL5.

Faire reposer l'identification de données de localisation d'enfants sur un système aussi peu sécurisé, initialement développé pour un usage très différent, est impensable. C'est pourtant ce qu'explique faire New School.

De fausses affirmations

Dans un communiqué réagissant à la polémique naissante, l'établissement Rocroy explique, tentant d'être rassurant, que « le bluetooth ne s’active que lorsque l’enseignant fait l’appel. Le reste du temps, les porte-clés s’éteignent automatiquement ».

Cette affirmation rend absurde la durée de vie de 13 mois du porte-clef annoncée par New School dans la documentation. Au regard de l'état de l'art des puces Bluetooth (tel qu'il en ressort des caractéristiques de la puce EMBC01), une puce qui serait activée une poignée de minutes seulement par jour (le temps de faire l'appel) aurait une durée de vie de plusieurs années et n'aurait pas besoin d'être renouvelée tous les 13 mois.

Ce renouvellement de la puce aurait pu être justifié par le passage d'une année à l'autre par chaque enfant, mais le délai de renouvellement aurait alors été de 12 mois et non de 13. Le renouvellement de la puce n'est donc justifiable que par une seule raison : la puce est activée de façon constante, 24h/24, même en dehors des 8 heures de classe quotidiennes (sans quoi la durée de vie annoncée serait triple, de l'ordre de 39 mois).

Par ailleurs, l'idée que la puce n'émette qu'au moment de l'appel est inconciliable avec la détection des enfants en CDI (en bibliothèque) : ce lieu pouvant être accédé n'importe quand, il n'y a pas d'appel à y faire à un instant déterminé. La puce doit émettre régulièrement pour signaler une présence au du CDI.

L'affirmation de l'établissement Rocroy semble donc fausse. Les conséquences seraient lourdes. Certes, l'identifiant unique émis par le porte-clef n'indique pas directement le nom d'un élève. Mais qu'importe : activé en permanence, il permettrait de suivre à la trace chaque enfant de façon individualisée (l'identifiant étant unique), au simple moyen d'un smartphone (EM Microelectronics fournit même une application à cette fin), n'importe où, même en dehors de l'école, pour peu qu'on se trouve dans un rayon de 75 mètres de l'enfant.

Si l'établissement ne fournit pas d'informations nouvelles permettant de contredire cette hypothèse, nous viendrons la vérifier en pratique à la rentrée devant son lycée, qui n'est pas très loin de nos locaux.

Par ailleurs, dans son communiqué de presse, l'établissement prétend que le porte-clef « n’utilise pas la géolocalisation, et ne permet donc pas de connaitre la position ou les déplacements des élèves ».

Ce n'est pas ce que révèle la fiche de l'application New School qui sera utilisée sur smartphone par le personnel de l'établissement afin de détecter les porte-clefs à proximité. Au moment de son installation, l'application demande de pouvoir transmettre à New School la géolocalisation précise du smartphone, notamment par GPS. Or, la géolocalisation du smartphone permettra aussi de géolocaliser les portes-clefs détectés qui, par définition, seront situés dans une proximité directe. L'affirmation de l'établissement est donc fausse : le porte-clef permettra d'indiquer à New School la position des enfants dès lors qu'ils se trouveront à proximité d'un smartphone utilisant l'application New School.

Enfin, dans son communiqué, l'établissement a cru bon de prétendre que « les données personnelles (nom de l’élève, emploi du temps) sont protégées et cryptées, en accord avec la CNIL ». Or, comme on l'a vu, le système Charlemagne/EcoleDirecte sur lequel repose New School ne satisfait aucune des recommandations de la CNIL élémentaires en matière de sécurité. Ainsi, contactée par Le Point sur cette affaire, la CNIL a déclaré mardi dernier « ne pas avoir eu d'échange avec le lycée Rocroy sur le dispositif ».

Un système illégal

Le port obligatoire du porte-clef New School par chaque enfant semble illicite du simple fait que l'information fournie par l'établissement sur l'interruption automatique du porte-clef serait fausse, alors que le règlement général sur la protection des données (RGPD) exige une information loyale.

De plus, quand bien même cette information serait juste (si le porte-clef n'émettait pas constamment), le système serait illicite pour d'autres raisons.

D'abord, le RGPD exige que tout traitement de données personnelles soit fondé sur une base légale : le consentement, la nécessité de fournir un service public ou la nécessité de poursuivre un « intérêt légitime ».

Ici, les enfants ne peuvent donner aucun consentement valide au traçage : ils n'ont pas le choix de l'accepter pour aller en cours et ne peuvent l'accepter qu'en même temps qu'ils acceptent l'ensemble du règlement intérieur. Leur consentement, qui ne serait ni libre ni spécifique, ne serait jamais reconnu comme valide par la CNIL (au sujet du caractère libre du consentement, voir l'analyse détaillée développée dans nos plaintes collectives contre les GAFAM).

S'agissant de la nécessité de fournir un service public ou de poursuivre un intérêt légitime (tel que faire l'appel des élèves), il faut d'abord démontrer que le système est « nécessaire ». En droit, ceci implique notamment qu'il n'existe aucun autre système alternatif qui, atteignant les mêmes objectifs, cause des risques moins élevés en matière d'atteinte aux libertés fondamentales. Ici, l'appel des enfants à l'oral remplit les mêmes objectifs sans poser de risque pour la vie privée. Le fait que le traçage par localisation automatique des enfants simplifie l'appel des élèves ne saurait le rendre « nécessaire », surtout au regard des risques importants qu'il cause quant à la traçabilité constante de la position de chaque enfant.

Toutefois, ce débat sur la « nécessité » a déjà été tranché par le groupe de l'article 29 (G29, l'institution qui réunissait les CNIL des 28 États membres de l'Union européenne et qui est devenu le Comité européen de la protection des données depuis le 25 mai 2018).

Depuis 2011, le G29 considère que, dans les cas où des personnes pourraient être localisées au moyen de signaux émis par un dispositif qu'elles transportent, et dans le cas où cela serait possible non pas sur la base de leur consentement mais sur celui d'un « intérêt légitime », il faut systématiquement que ces personnes puissent librement et facilement s'opposer à un tel traçage, à tout moment.

Dans notre cas, à l'inverse, l'établissement Rocroy sanctionne les enfants qui s'opposerait au pistage en refusant de porter le porte-clef. L'obligation de le porter est donc illicite de ce seul fait.

Par ailleurs, peu importe la base légale du traitement de données personnelles, le RGPD exige que celui-ci soit accompagné d'un certain nombre d'informations. Le responsable de traitement doit indiquer :

  1. son identité et ses coordonnées ;
  2. les finalités poursuivies ;
  3. l’étendue des droits de la personne concernée ;
  4. si les données sont transmises à des tiers, l'identité de ces destinataires ou la catégorie de ces destinataires ;
  5. la condition de licéité remplie par le traitement – en précisant, selon le cas, l'intérêt légitime défendu ou la possibilité de retirer le consentement donné ;
  6. la durée de conservation des données ;
  7. l'existence d'un transfert de données en dehors de l’Union, en précisant les garanties encadrant ce transfert ;
  8. l’existence d'une prise de décision automatisé.

Dans notre cas, l'établissement n'a fourni aucune de ces informations, si ce n'est, éventuellement, certaines des finalités envisagées (s'agissant des élèves, « s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité »), sans qu'on ne sache toutefois si ces finalités sont exhaustives.

Les autres informations sont simplement absentes, rendant le système illicite de ce seul fait.

Enfin, comme vu plus haut, les obligations de sécurité imposées par le RGPD ne sont pas respectées puisque le système New School repose sur le système complètement obsolète de Charlemagne/EcoleDirecte.

Et maintenant ?

Nous invitons les élèves et parents d'élèves de l'établissement Rocroy à se saisir des éléments développés ici pour saisir la justice en référé afin de faire changer le règlement intérieur avant la rentrée.

De façon plus générale, nous appelons la CNIL à enquêter sur la start-up New School avant que celle-ci ne démarche d'autres établissements. La situation est des plus inquiétante puisque, dès 2016, d'après Le Figaro Madame, « le cabinet de Valérie Pécresse lui fait savoir qu'ils aimeraient utiliser l'application pour toute la région Île-de-France ».

Politiquement, le cas de New School révèle un mouvement plus profond et plus grave : les puces choisies par New School ont initialement été pensées et sont normalement utilisées pour localiser des objets fixes (des murs) ou mobiles (des marchandises) afin qu'un humain muni d'un smartphone puisse se repérer parmi ces objets. Cette situation s'inverse ici : la puce n'est plus attachée à des objets mais à des enfants ; le smartphone ne sert plus à se repérer dans l'espace mais, immobile au poste du surveillant, à définir l'espace dans lequel les humains peuvent évoluer. L'humain ne se déplace plus parmi les choses : il est une chose comprise par d'autres.

  • 1. En janvier dernier, La Tribune explique, au sujet de la créatrice de New School, après que celle-ci a remporté un prix pour jeune startupeux :
    Quelques mois plus tard, Apple entre en contact avec elle et lui demande de pitcher deux jours plus tard dans ses bureaux londoniens. « J'étais déjà sur place, à croire qu'ils m'avaient tracée... » Dans le développement de NewSchool, la marque à la pomme a joué un rôle important, notamment dans la conception de l'application mais aussi dans la commercialisation : « Le marché de l'éducation en France est assez impénétrable, nous avons échangé beaucoup d'informations ».
    [...]
    Le coaching by Apple est toujours d'actualité. La jeune entrepreneure participe à de nombreux événements et voit régulièrement des développeurs, français et anglais, pour avancer sur l'application. Elle a même eu le privilège de rencontrer Tim Cook, en février dernier. Au tout début, il était question de faire de NewSchool une application préintégrée sur les appareils vendus aux établissements scolaires, mais « à l'époque nous n'étions pas assez développés, ni commercialement ni au niveau des fonctionnalités. Il nous faut encore grandir pour espérer un jour avoir une application commune », explique-t-elle. Et le travail en famille est toujours valable. « Ma mère est directrice commerciale, elle travaille beaucoup. Nous avons fait le salon de l'éducation la semaine dernière, c'est elle qui a tout géré », s'enthousiasme la jeune femme.
  • 2. Qwant semble avoir dé-publié son article en soutien à New School, mais nous en avions fait une copie. En réaction au présent article, Qwant a précisé que « Nous avons été invité à remettre un prix étudiant à la fondatrice pour son projet entrepreneurial (elle était la plus jeune entrepreneuse de France) mais notre lien avec l'entreprise n'a pas été au-delà de ce concours. »
  • 3. Notre traduction de « Ubudu is a next-generation RTLS solution, which tracks, analyses and detects assets and people in industrial or service sites: airports, factories, hospitals, retail, sport & leisure venues, etc. Ubudu simply works with small tags or smartphones exchanging radio-signals with fixed sensors, and a location server that computes and processes the position. »
  • 4. Notre traduction de « Use BLE Tags if you have many assets to track and do not need accuracy below 1-2m. (...) Examples of realizations include McDonald’s table service solution and New School student tokens (include pictures). You can also go with standard iBeacon devices, for which we recommend those of high quality, such as EM Microelectronics ».
  • 5. De bon sens, la CNIL exige que « le mot de passe ne doit pas être communiqué à l'utilisateur en clair par courrier électronique » et que « le mot de passe ne doit jamais être stocké en clair ».
]]>
Conservation généralisée de données : débat transmis au niveau européen !10604 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180726_144245_Conservation_generalisee_de_donnees___debat_transmis_au_niveau_europeen__Thu, 26 Jul 2018 12:42:45 +000026 juillet 2018 - Après trois ans de procédure, le Conseil d'État vient (enfin !) d'accepter de saisir la Cour de Justice de l'Union européenne, tel que nous le demandions. Le régime français de conservation généralisée des données de connexion imposé aux opérateurs téléphoniques et Internet ainsi qu'aux hébergeurs est-il conforme au droit de l'Union européenne ?

La décision d'aujourd'hui est une avancée importante dans le combat juridictionnel porté par La Quadrature du Net, la Fédération FDN et FDN contre la surveillance de masse.

Il faut toutefois dénoncer le délai démesuré pris par le Conseil d'État pour franchir cette étape. Le Conseil d'État est resté muet durant plusieurs années, retenant sa justice malgré plusieurs relances de notre part. Il ne s'est prononcé qu'au moment où le Gouvernement français, embourbé dans des débats politiques autour du règlement ePrivacy, a trouvé opportun de s'aligner sur nos propres demandes - saisir la Cour de justice de l'Union.

Revoir notre récit des procédures ayant conduit à la décision d'aujourd'hui.

Cet alignement du calendrier de la Justice sur le calendrier stratégique du gouvernement remettrait en cause l'idéal d'indépendance qui doit animer la Justice.

Heureusement, le débat se poursuit aujourd'hui devant une juridiction européenne qui, à plusieurs reprises ces dernières années, a su garder ses distances avec les volontés autoritaires des gouvernements occidentaux.

La CJUE s'est opposée à la directive de 2006 qui prévoyait une conservation généralisée des données de connexion, dans son arrêt Digital Rights Ireland. Elle a aussi invalidé le Safe Harbor au regard du régime de surveillance des États Unis, dans son arrêt Schrems. Dernièrement, elle s'est opposée aux régimes de conservation généralisée suédois et britannique, dans son arrêt Tele2.

Le gouvernement français espère pouvoir faire changer d'avis la Cour de justice de l'Union européenne. Ne prenons pas l'ambition du gouvernement à la légère : le combat qui s'ouvre déterminera le cadre de la surveillance européenne. Le gouvernement ne chômera pas pour défendre l'idéal d'un monde dans lequel chacun serait suspect. Nous ne chômerons pas nous plus pour défendre notre autre monde.

Les questions

La première question transmise par le Conseil d'État est la suivante : « L'obligation de conservation généralisée et indifférenciée, imposée aux fournisseurs sur le fondement des dispositions permissives de l'article 15, paragraphe 1, de la directive du 12 juillet 2002, ne doit-elle pas être regardée, notamment eu égard aux garanties et contrôles dont sont assortis ensuite le recueil et l'utilisation de ces données de connexion, comme une ingérence justifiée par le droit à la sûreté garanti à l'article 6 de la Charte des droits fondamentaux de l'Union européenne et les exigences de la sécurité nationale, dont la responsabilité incombe aux seuls Etats-membres en vertu de l'article 4 du traité sur l'Union européenne ? »

Par là, le Conseil demande si, alors que le Cour de justice a déjà reconnu la conservation généralisée injustifiée pour lutter contre les infractions (dans sa décision Tele2), cette conservation peut être justifiée pour protéger la sécurité nationale.

Pour rappel : en droit européen, la lutte contre le terrorisme n'est pas de l'ordre de la protection de la sécurité nationale - qui, selon la CNCIS, ne fondait en 2015 que 12% des interceptions réalisées par les services de renseignement. Le Conseil d'État demande donc si, pour 12% des besoins des services de renseignement (en matière militaire et de contre-espionnage, on imagine), il peut être porté atteinte à la vie privée de toute la population, considérée comme suspecte par défaut.

Une telle question nous semble disproportionnée par elle-même, mais elle ouvre un débat plus large dont il faudra se saisir devant la Cour de justice.

Par ailleurs, le Conseil d'État a transmis une ou plusieurs autres questions, dont nous n'avons pas encore connaissance : nous mettrons cet article à jour au fur et à mesure.

]]>
26 juillet 2018 - Après trois ans de procédure, le Conseil d'État vient (enfin !) d'accepter de saisir la Cour de Justice de l'Union européenne, tel que nous le demandions. Le régime français de conservation généralisée des données de connexion imposé aux opérateurs téléphoniques et Internet ainsi qu'aux hébergeurs est-il conforme au droit de l'Union européenne ?

La décision d'aujourd'hui est une avancée importante dans le combat juridictionnel porté par La Quadrature du Net, la Fédération FDN et FDN contre la surveillance de masse.

Il faut toutefois dénoncer le délai démesuré pris par le Conseil d'État pour franchir cette étape. Le Conseil d'État est resté muet durant plusieurs années, retenant sa justice malgré plusieurs relances de notre part. Il ne s'est prononcé qu'au moment où le Gouvernement français, embourbé dans des débats politiques autour du règlement ePrivacy, a trouvé opportun de s'aligner sur nos propres demandes - saisir la Cour de justice de l'Union.

Revoir notre récit des procédures ayant conduit à la décision d'aujourd'hui.

Cet alignement du calendrier de la Justice sur le calendrier stratégique du gouvernement remettrait en cause l'idéal d'indépendance qui doit animer la Justice.

Heureusement, le débat se poursuit aujourd'hui devant une juridiction européenne qui, à plusieurs reprises ces dernières années, a su garder ses distances avec les volontés autoritaires des gouvernements occidentaux.

La CJUE s'est opposée à la directive de 2006 qui prévoyait une conservation généralisée des données de connexion, dans son arrêt Digital Rights Ireland. Elle a aussi invalidé le Safe Harbor au regard du régime de surveillance des États Unis, dans son arrêt Schrems. Dernièrement, elle s'est opposée aux régimes de conservation généralisée suédois et britannique, dans son arrêt Tele2.

Le gouvernement français espère pouvoir faire changer d'avis la Cour de justice de l'Union européenne. Ne prenons pas l'ambition du gouvernement à la légère : le combat qui s'ouvre déterminera le cadre de la surveillance européenne. Le gouvernement ne chômera pas pour défendre l'idéal d'un monde dans lequel chacun serait suspect. Nous ne chômerons pas nous plus pour défendre notre autre monde.

Les questions

La première question transmise par le Conseil d'État est la suivante : « L'obligation de conservation généralisée et indifférenciée, imposée aux fournisseurs sur le fondement des dispositions permissives de l'article 15, paragraphe 1, de la directive du 12 juillet 2002, ne doit-elle pas être regardée, notamment eu égard aux garanties et contrôles dont sont assortis ensuite le recueil et l'utilisation de ces données de connexion, comme une ingérence justifiée par le droit à la sûreté garanti à l'article 6 de la Charte des droits fondamentaux de l'Union européenne et les exigences de la sécurité nationale, dont la responsabilité incombe aux seuls Etats-membres en vertu de l'article 4 du traité sur l'Union européenne ? »

Par là, le Conseil demande si, alors que le Cour de justice a déjà reconnu la conservation généralisée injustifiée pour lutter contre les infractions (dans sa décision Tele2), cette conservation peut être justifiée pour protéger la sécurité nationale.

Pour rappel : en droit européen, la lutte contre le terrorisme n'est pas de l'ordre de la protection de la sécurité nationale - qui, selon la CNCIS, ne fondait en 2015 que 12% des interceptions réalisées par les services de renseignement. Le Conseil d'État demande donc si, pour 12% des besoins des services de renseignement (en matière militaire et de contre-espionnage, on imagine), il peut être porté atteinte à la vie privée de toute la population, considérée comme suspecte par défaut.

Une telle question nous semble disproportionnée par elle-même, mais elle ouvre un débat plus large dont il faudra se saisir devant la Cour de justice.

Par ailleurs, le Conseil d'État a transmis une ou plusieurs autres questions, dont nous n'avons pas encore connaissance : nous mettrons cet article à jour au fur et à mesure.

]]>
La Fédération FDN soutient l'amendement Chaize qui encourage les offres activées sur les réseaux fibre optique10599 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180723_104944_La_Federation_FDN_soutient_l_amendement_Chaize_qui_encourage_les_offres_activees_sur_les_reseaux_fibre_optiqueMon, 23 Jul 2018 08:49:44 +000023 juillet 2018 - Nous republions ici le communiqué publié ce matin par la Fédération FDN, qui promeut l'accès aux offres activées sur les réseaux fibre optique.

L'accès « activé » à un réseau fibré consiste, pour un opérateur télécoms, à louer des fibres optiques déjà « activées » par un autre opérateur, qui gère et entretient les équipements de distribution du réseau.

Pour un petit opérateur, ce type d'accès activé est le seul moyen de fournir à ses abonnés un accès fibré à Internet dans les zones géographiques où il ne peut pas déployer d'équipements. En effet, un opérateur de petite taille a généralement des abonnés dispersés sur tout le territoire : il n'est pas économiquement viable de déployer ses propres équipements dans chaque zone géographique pour seulement quelques abonnés localement.

Ce communiqué intervient dans le cadre du projet de loi portant « évolution du logement, de l'aménagement et du numérique » (loi ELAN), actuellement en débat au Sénat, jusqu'à demain :

La Fédération FDN soutient l'amendement Chaize qui encourage les offres activées sur les réseaux fibre optique

La Fédération FDN soutient l'amendement à la loi Elan porté par M. Patrick Chaize, président de l'AVICCA et vice-président de la commission Aménagement du Territoire et Developpement Durable du Sénat. Cet amendement ouvre, sur tout le territoire national, le droit d'accéder à une offre activée raisonnable et non discriminatoire, et constitue à ce titre une belle opportunité de progression vers un marché des télécoms plus ouvert et plus innovant.

En effet, ces offres activées garantissent une concurrence saine sur le marché des télécoms en permettant à de petits acteurs, tels que les FAI de la Fédération FDN, d'y exister de manière durable en accédant à la boucle locale fibre optique.

Les petits opérateurs sont nécessaires à l'équilibre du marché des télécoms : ils peuvent faire émerger des offres de services différenciées, répondant aux besoins spécifiques des utilisateurs finals1. Ils entretiennent ainsi la vitalité du marché, qui menace toujours de se refermer sur quelques gros acteurs.

Les membres de la Fédération FDN, capables de s'adapter aux particularités de chaque territoire et aux demandes de leurs adhérents, sont également des acteurs indispensables d'un accès au numérique inclusif, où les zones les moins rentables et les besoins les plus spécifiques ne sont pas oubliés. « L'émergence d'une offre activée pertinente sur tout le territoire est la garantie de la pérénnité de notre travail », ajoute Oriane Piquer-Louis, présidente de la Fédération FDN.

Il ne s'agit pas de remettre en cause l'équilibre du marché, ni de pénaliser les acteurs qui ont pris le risque financier d'investir. L'intérêt des offres activées est de garantir les conditions d'un marché capable de répondre aux demandes de chacun, et ouvert vers l'innovation.

Nous appelons donc au maintien de l'article 64ter porté par M. Patrick Chaize dans la loi Elan, et au rejet de l'amendement de suppression porté par le gouvernement.

À propos de la Fédération FDN

La fédération FDN regroupe des Fournisseurs d'Accès à Internet associatifs se reconnaissant dans des valeurs communes : bénévolat, solidarité, fonctionnement démocratique et à but non lucratif; défense et promotion de la neutralité du Net.

A ce titre, la fédération FDN se donne comme mission de porter la voix de ses membres dans les débats concernant la liberté d'expression et la neutralité du Net.

Elle fournit à ses membres les outils pour se développer et répondre aux problèmes rencontrés dans le cadre de l'activité de fournisseur d'accès à Internet.

Edit du 26 juillet : Le Sénat a rejeté hier l'amendement de suppression porté par le gouvernement contre l'article 64ter. Cet "amendement Chaize" est donc maintenu dans la loi Elan.

  • 1. L'emploi du pluriel régulier « finals » au lieu du pluriel habituel « finaux » est l'usage courant en matière de télécoms.
]]>
23 juillet 2018 - Nous republions ici le communiqué publié ce matin par la Fédération FDN, qui promeut l'accès aux offres activées sur les réseaux fibre optique.

L'accès « activé » à un réseau fibré consiste, pour un opérateur télécoms, à louer des fibres optiques déjà « activées » par un autre opérateur, qui gère et entretient les équipements de distribution du réseau.

Pour un petit opérateur, ce type d'accès activé est le seul moyen de fournir à ses abonnés un accès fibré à Internet dans les zones géographiques où il ne peut pas déployer d'équipements. En effet, un opérateur de petite taille a généralement des abonnés dispersés sur tout le territoire : il n'est pas économiquement viable de déployer ses propres équipements dans chaque zone géographique pour seulement quelques abonnés localement.

Ce communiqué intervient dans le cadre du projet de loi portant « évolution du logement, de l'aménagement et du numérique » (loi ELAN), actuellement en débat au Sénat, jusqu'à demain :

La Fédération FDN soutient l'amendement Chaize qui encourage les offres activées sur les réseaux fibre optique

La Fédération FDN soutient l'amendement à la loi Elan porté par M. Patrick Chaize, président de l'AVICCA et vice-président de la commission Aménagement du Territoire et Developpement Durable du Sénat. Cet amendement ouvre, sur tout le territoire national, le droit d'accéder à une offre activée raisonnable et non discriminatoire, et constitue à ce titre une belle opportunité de progression vers un marché des télécoms plus ouvert et plus innovant.

En effet, ces offres activées garantissent une concurrence saine sur le marché des télécoms en permettant à de petits acteurs, tels que les FAI de la Fédération FDN, d'y exister de manière durable en accédant à la boucle locale fibre optique.

Les petits opérateurs sont nécessaires à l'équilibre du marché des télécoms : ils peuvent faire émerger des offres de services différenciées, répondant aux besoins spécifiques des utilisateurs finals1. Ils entretiennent ainsi la vitalité du marché, qui menace toujours de se refermer sur quelques gros acteurs.

Les membres de la Fédération FDN, capables de s'adapter aux particularités de chaque territoire et aux demandes de leurs adhérents, sont également des acteurs indispensables d'un accès au numérique inclusif, où les zones les moins rentables et les besoins les plus spécifiques ne sont pas oubliés. « L'émergence d'une offre activée pertinente sur tout le territoire est la garantie de la pérénnité de notre travail », ajoute Oriane Piquer-Louis, présidente de la Fédération FDN.

Il ne s'agit pas de remettre en cause l'équilibre du marché, ni de pénaliser les acteurs qui ont pris le risque financier d'investir. L'intérêt des offres activées est de garantir les conditions d'un marché capable de répondre aux demandes de chacun, et ouvert vers l'innovation.

Nous appelons donc au maintien de l'article 64ter porté par M. Patrick Chaize dans la loi Elan, et au rejet de l'amendement de suppression porté par le gouvernement.

À propos de la Fédération FDN

La fédération FDN regroupe des Fournisseurs d'Accès à Internet associatifs se reconnaissant dans des valeurs communes : bénévolat, solidarité, fonctionnement démocratique et à but non lucratif; défense et promotion de la neutralité du Net.

A ce titre, la fédération FDN se donne comme mission de porter la voix de ses membres dans les débats concernant la liberté d'expression et la neutralité du Net.

Elle fournit à ses membres les outils pour se développer et répondre aux problèmes rencontrés dans le cadre de l'activité de fournisseur d'accès à Internet.

Edit du 26 juillet : Le Sénat a rejeté hier l'amendement de suppression porté par le gouvernement contre l'article 64ter. Cet "amendement Chaize" est donc maintenu dans la loi Elan.

  • 1. L'emploi du pluriel régulier « finals » au lieu du pluriel habituel « finaux » est l'usage courant en matière de télécoms.
]]>
Teemo, Fidzup : la CNIL interdit la géolocalisation sauvage - l'UE pense à la légaliser10598 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180720_170056_Teemo__Fidzup___la_CNIL_interdit_la_geolocalisation_sauvage_-_l_UE_pense_a_la_legaliserFri, 20 Jul 2018 15:00:56 +000020 juillet 2018 - Hier, la CNIL a déclaré illicites les activités de deux start-ups françaises, Teemo et Fidzup, qui géolocalisent des millions de personnes à des fins publicitaires et sans leur consentement. Elles ont trois mois pour cesser ces activités. Hélas, sur le long terme, leur modèle pourrait devenir licite : c'est en tout cas ce sur quoi l'Union européenne débat via un futur règlement ePrivacy.

Teemo

Teemo est l'emblème des start-ups qui n'existent pas pour durer, mais pour amasser un maximum de profits par une activité qui, depuis le début, est illicite. En mode « take the money and run ». Employant 35 salariés pour un chiffre d'affaires de 2,6 millions (en 2016), Teemo ne pourra pas survivre à la décision rendue hier par la CNIL.

Teemo analyse les données de géolocalisation de 14 millions de téléphones, obtenues via les applications mobiles de ses partenaires commerciaux, afin de faire de la publicité ciblée localement. Évidemment, les personnes surveillées ne sont pas informées de ce pistage et n'ont pas leur mot à dire. La CNIL exige aujourd'hui le consentement de ces personnes - ce que la loi « informatique et libertés » impose sans ambiguïté.

Teemo peut donc fermer boutique, puisque son chiffre d'affaires repose désormais sur l'espoir absurde que des utilisateurs renoncent à leur vie privée, sans contrepartie, mais simplement pour enrichir la start-up.

Bien. Mais que dire de ses nombreux partenaires qui ont financé et bénéficié de ce système de surveillance généralisée ? Sur le site de Teemo, on peut lire les témoignages de LeaderPrice, ToysRus, InterSport ou Volkswagen se réjouissant qu'une telle violation massive de nos libertés ait pu faciliter leurs activités publicitaires. Plus loin, parmi les entreprises qui ont « fait confiance » à Teemo (sans avoir consulté aucun juriste, on imagine), on retrouve encore Carrefour, Macdo, Decathlon ou la Fnac.

Par ailleurs, il y a un an, Numérama publiait une enquête sur Teemo qui, probablement, a conduit la CNIL à se saisir de l'affaire. L'enquête expliquait que Teemo s'était notamment infiltrée sur les applications mobiles du Figaro, du Parisien, de l'Équipe ou de Closer, avec l'accord de ceux-ci.

Depuis, Exodus Privacy a décrit précisément le fonctionnement de Teemo et les applications l'intégrant.

Aujourd'hui, l'ensemble de ces entreprises nous doivent de sérieuses explications : comment ont-elles pu se permettre de financer et d'autoriser une violation aussi manifeste de la loi au détriment des libertés fondamentales de leurs clients ? Leur responsabilité juridique et politique est en jeu.

Fidzup

Le cas de Fidzup est plus complexe.

La start-up, plus petite (24 salariés, 500 000€ de chiffre d'affaires), opère en deux étapes. Dans une première étape, elle installe des bouts de code sur les applications mobiles de ses partenaires commerciaux. La CNIL décompte neuf applications différentes, qui lui auraient permis d'infiltrer 6 millions de téléphones. Ces bouts de code permettent à Fidzup de collecter certaines données techniques sur les téléphones espionnés. Dans une seconde étape, Fidzup fournit à une centaine de magasins des boîtiers qui identifient les téléphones qui passent à proximité, à partir des données techniques collectées dans la première étape. Les magasins peuvent donc tracer leurs clients, tant en ligne que hors-ligne.

Cette seconde étape est particulièrement pernicieuse. Techniquement, nos téléphones émettent régulièrement des données techniques afin de se connecter aux bornes WiFi environnantes. Les boîtiers fournis par Fidzup interceptent ces données techniques pour identifier les téléphones, alors même qu'ils ne sont pas du tout des bornes WiFi.

Exodus Privacy décrit en détail le fonctionnement et les applications mobiles collaborant avec Fidzup.

Heureusement, en droit, cette technique d'interception est explicitement interdite. La directive 2002/58 de l'Union européenne, dite « ePrivacy », prévoit depuis 2002 à son article 5 qu'il est interdit « à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes, ou de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés ». Les données captées par Fidzup sont ici des « données relatives au trafic », car destinées à réaliser une connexion avec une borne WiFi.

Reprenant assez facilement cette logique, la CNIL a exigé que Fidzup demande le consentement préalable des personnes avant de collecter ces données - ce qui n'était pas le cas.

On pourrait ici donner la même conclusion que pour Teemo : aucun utilisateur n'acceptera de céder sa vie privée, sans contrepartie, pour enrichir Fidzup. L'avenir de la start-up semblerait donc aussi compromis.

Hélas, la situation est plus inquiétante.

ePrivacy

La directive ePrivacy, qui interdit aujourd'hui l'activité de Fidzup, est en cours de révision par l'Union européenne.

Il y a un an, le Parlement européen arrêtait sa position sur le texte (relire notre bilan sur ce débat). À l'article 8, §2, du nouveau texte, le Parlement a autorisé la collecte sans consentement des « informations émises par les terminaux des utilisateurs » - abandonnant ainsi une protection fondamentale qui nous est aujourd'hui offerte.

Le Parlement autorise cette surveillance en imposant une poignée de conditions aussi vagues que creuses : l'analyse doit être limitée à des fins de « comptage statistique » (c'est déjà le service que fournit Fidzup), les données doivent être anonymisées dès que la finalité est remplie (dès que Fidzup a fini de nous compter), les utilisateurs disposent d'un droit d'opposition (qui leur est indiqué par une affiche plus ou moins visible dans le magasin surveillé - ce que fait déjà Fidzup).

Aujourd'hui, la réforme de la directive ePrivacy est débattue entre les États membres de l'Union. Peu d'États membres semblent vouloir contrer les dérives du Parlement en matière de géolocalisation.

D'une main, l'Union européenne prétend nous offrir une protection importante avec le règlement général sur la protection des données (RGPD). D'une autre main, elle réduit la protection de nos libertés afin de sauver quelques start-ups illicites et néfastes (inutiles).

Si les débats sur le règlement ePrivacy se confirmaient comme allant dans ce sens, il faudra s'opposer à toute idée de réformer le droit actuel - qui, couplé au RGPD, nous protège encore aujourd'hui des volontés de surveillance de sociétés telles que Teemo ou Fidzup et de leurs partenaires.

]]>
20 juillet 2018 - Hier, la CNIL a déclaré illicites les activités de deux start-ups françaises, Teemo et Fidzup, qui géolocalisent des millions de personnes à des fins publicitaires et sans leur consentement. Elles ont trois mois pour cesser ces activités. Hélas, sur le long terme, leur modèle pourrait devenir licite : c'est en tout cas ce sur quoi l'Union européenne débat via un futur règlement ePrivacy.

Teemo

Teemo est l'emblème des start-ups qui n'existent pas pour durer, mais pour amasser un maximum de profits par une activité qui, depuis le début, est illicite. En mode « take the money and run ». Employant 35 salariés pour un chiffre d'affaires de 2,6 millions (en 2016), Teemo ne pourra pas survivre à la décision rendue hier par la CNIL.

Teemo analyse les données de géolocalisation de 14 millions de téléphones, obtenues via les applications mobiles de ses partenaires commerciaux, afin de faire de la publicité ciblée localement. Évidemment, les personnes surveillées ne sont pas informées de ce pistage et n'ont pas leur mot à dire. La CNIL exige aujourd'hui le consentement de ces personnes - ce que la loi « informatique et libertés » impose sans ambiguïté.

Teemo peut donc fermer boutique, puisque son chiffre d'affaires repose désormais sur l'espoir absurde que des utilisateurs renoncent à leur vie privée, sans contrepartie, mais simplement pour enrichir la start-up.

Bien. Mais que dire de ses nombreux partenaires qui ont financé et bénéficié de ce système de surveillance généralisée ? Sur le site de Teemo, on peut lire les témoignages de LeaderPrice, ToysRus, InterSport ou Volkswagen se réjouissant qu'une telle violation massive de nos libertés ait pu faciliter leurs activités publicitaires. Plus loin, parmi les entreprises qui ont « fait confiance » à Teemo (sans avoir consulté aucun juriste, on imagine), on retrouve encore Carrefour, Macdo, Decathlon ou la Fnac.

Par ailleurs, il y a un an, Numérama publiait une enquête sur Teemo qui, probablement, a conduit la CNIL à se saisir de l'affaire. L'enquête expliquait que Teemo s'était notamment infiltrée sur les applications mobiles du Figaro, du Parisien, de l'Équipe ou de Closer, avec l'accord de ceux-ci.

Depuis, Exodus Privacy a décrit précisément le fonctionnement de Teemo et les applications l'intégrant.

Aujourd'hui, l'ensemble de ces entreprises nous doivent de sérieuses explications : comment ont-elles pu se permettre de financer et d'autoriser une violation aussi manifeste de la loi au détriment des libertés fondamentales de leurs clients ? Leur responsabilité juridique et politique est en jeu.

Fidzup

Le cas de Fidzup est plus complexe.

La start-up, plus petite (24 salariés, 500 000€ de chiffre d'affaires), opère en deux étapes. Dans une première étape, elle installe des bouts de code sur les applications mobiles de ses partenaires commerciaux. La CNIL décompte neuf applications différentes, qui lui auraient permis d'infiltrer 6 millions de téléphones. Ces bouts de code permettent à Fidzup de collecter certaines données techniques sur les téléphones espionnés. Dans une seconde étape, Fidzup fournit à une centaine de magasins des boîtiers qui identifient les téléphones qui passent à proximité, à partir des données techniques collectées dans la première étape. Les magasins peuvent donc tracer leurs clients, tant en ligne que hors-ligne.

Cette seconde étape est particulièrement pernicieuse. Techniquement, nos téléphones émettent régulièrement des données techniques afin de se connecter aux bornes WiFi environnantes. Les boîtiers fournis par Fidzup interceptent ces données techniques pour identifier les téléphones, alors même qu'ils ne sont pas du tout des bornes WiFi.

Exodus Privacy décrit en détail le fonctionnement et les applications mobiles collaborant avec Fidzup.

Heureusement, en droit, cette technique d'interception est explicitement interdite. La directive 2002/58 de l'Union européenne, dite « ePrivacy », prévoit depuis 2002 à son article 5 qu'il est interdit « à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes, ou de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés ». Les données captées par Fidzup sont ici des « données relatives au trafic », car destinées à réaliser une connexion avec une borne WiFi.

Reprenant assez facilement cette logique, la CNIL a exigé que Fidzup demande le consentement préalable des personnes avant de collecter ces données - ce qui n'était pas le cas.

On pourrait ici donner la même conclusion que pour Teemo : aucun utilisateur n'acceptera de céder sa vie privée, sans contrepartie, pour enrichir Fidzup. L'avenir de la start-up semblerait donc aussi compromis.

Hélas, la situation est plus inquiétante.

ePrivacy

La directive ePrivacy, qui interdit aujourd'hui l'activité de Fidzup, est en cours de révision par l'Union européenne.

Il y a un an, le Parlement européen arrêtait sa position sur le texte (relire notre bilan sur ce débat). À l'article 8, §2, du nouveau texte, le Parlement a autorisé la collecte sans consentement des « informations émises par les terminaux des utilisateurs » - abandonnant ainsi une protection fondamentale qui nous est aujourd'hui offerte.

Le Parlement autorise cette surveillance en imposant une poignée de conditions aussi vagues que creuses : l'analyse doit être limitée à des fins de « comptage statistique » (c'est déjà le service que fournit Fidzup), les données doivent être anonymisées dès que la finalité est remplie (dès que Fidzup a fini de nous compter), les utilisateurs disposent d'un droit d'opposition (qui leur est indiqué par une affiche plus ou moins visible dans le magasin surveillé - ce que fait déjà Fidzup).

Aujourd'hui, la réforme de la directive ePrivacy est débattue entre les États membres de l'Union. Peu d'États membres semblent vouloir contrer les dérives du Parlement en matière de géolocalisation.

D'une main, l'Union européenne prétend nous offrir une protection importante avec le règlement général sur la protection des données (RGPD). D'une autre main, elle réduit la protection de nos libertés afin de sauver quelques start-ups illicites et néfastes (inutiles).

Si les débats sur le règlement ePrivacy se confirmaient comme allant dans ce sens, il faudra s'opposer à toute idée de réformer le droit actuel - qui, couplé au RGPD, nous protège encore aujourd'hui des volontés de surveillance de sociétés telles que Teemo ou Fidzup et de leurs partenaires.

]]>
Tor est pour tout le monde10596 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180718_130825_Tor_est_pour_tout_le_mondeWed, 18 Jul 2018 11:08:25 +0000Tribune de Lunar, membre de La Quadrature du Net

Il y a quelques mois, Nos oignons, une association qui participe au réseau Tor, a une nouvelle fois été contactée par un·e journaliste qui souhaitait « expliquer aux lecteurs comment on va dans le web profond (via Tor) et quel intérêt il y aurait à y aller, en oubliant tous les sites “dark” de type ventes d’armes ». Mais après quelques échanges, le sujet semble finalement difficile à vendre à la direction : « À ce stade nous manquons franchement d’arguments, au point que je me demande si l’article va finalement sortir. » À notre connaissance l’article n’est finalement jamais sorti.

Ce manque d’« arguments » nous semble provenir d’une erreur fondamentale de compréhension : l’usage de Tor (ou des sites .onion) n’est pas différent de l’usage du web et d’Internet en général. Si Internet est pour tout le monde, Tor l’est tout autant.

Sur Internet, on lit la presse. Pourtant, l’expérience est différente de celle de lire de la presse sur papier. Une personne qui attrape la dernière édition d’un quotidien sur le comptoir d’un café n’informe pas l’équipe du journal qu’elle vient de gagner en audience. Elle ne les prévient pas non plus être dans un café, ni du nom du café, ni de quelles pages elle a lu, ni de combien de temps elle a pu passer sur chacun des articles…

Or, si cette même personne se rend sur le site web du journal, alors il pourra au moins connaître la connexion utilisée, quelles pages ont été lues et pendant combien de temps. Mais ces informations ne sont pas uniquement accessibles au journal : la régie publicitaire en apprendra autant, tout comme Google qui fournit les polices de caractères, Facebook avec son bouton «  Like », Twitter pour son bouton « Tweet », pour ne citer que les plus courants.

Alors soyons clair : qu’il soit en papier ou en ligne, quand on lit un journal, on ne s’attend pas à ce qu’il nous lise en retour…

Lorsqu’on remplace Firefox ou Chrome par le navigateur Tor, on rend beaucoup plus difficile cette collecte d’information contre notre gré. On retrouve un Internet conforme à nos attentes.

Voir Tor principalement comme un outil pour l’anonymat ou le contournement de la censure, c’est penser son usage comme nécessairement marginal. Alors qu’au contraire, Tor constitue un pas vers un Internet davantage conforme aux intuitions les plus courantes sur son fonctionnement.

Le temps où Internet était réservé aux personnes ayant un bagage en science informatique est terminé. La plupart des internautes ne peuvent pas faire un choix informé sur les données et les traces enregistrées et partagées par les ordinateurs impliqués dans leur communications. Même les personnes qui développent des applications ont parfois bien du mal à mesurer l’étendue des données que fuitent les outils qu’elles conçoivent ! Utiliser le navigateur Tor permet justement de limiter les informations que nous communiquons à des tiers sans en avoir explicitement l’intention.

Maîtriser les informations que nous partageons lors de nos communications ne devrait pas être réservé à une élite. Voilà pourquoi Tor se destine au plus grand nombre.

Nos oignons contribue modestement au fonctionnement du réseau Tor en faisant fonctionner des relais en France. L’association démarre aujourd’hui une nouvelle campagne de financement afin de récolter les 12 000 € nécessaires pour fonctionner une année supplémentaire. La Quadrature du Net, qui veille à ce que l'usage de tels outils reste autorisé en France et en Europe, relaye donc cet appel. Soutenons Nos Oignons, ainsi que le projet Tor qui développe les logiciels.

]]>
Tribune de Lunar, membre de La Quadrature du Net

Il y a quelques mois, Nos oignons, une association qui participe au réseau Tor, a une nouvelle fois été contactée par un·e journaliste qui souhaitait « expliquer aux lecteurs comment on va dans le web profond (via Tor) et quel intérêt il y aurait à y aller, en oubliant tous les sites “dark” de type ventes d’armes ». Mais après quelques échanges, le sujet semble finalement difficile à vendre à la direction : « À ce stade nous manquons franchement d’arguments, au point que je me demande si l’article va finalement sortir. » À notre connaissance l’article n’est finalement jamais sorti.

Ce manque d’« arguments » nous semble provenir d’une erreur fondamentale de compréhension : l’usage de Tor (ou des sites .onion) n’est pas différent de l’usage du web et d’Internet en général. Si Internet est pour tout le monde, Tor l’est tout autant.

Sur Internet, on lit la presse. Pourtant, l’expérience est différente de celle de lire de la presse sur papier. Une personne qui attrape la dernière édition d’un quotidien sur le comptoir d’un café n’informe pas l’équipe du journal qu’elle vient de gagner en audience. Elle ne les prévient pas non plus être dans un café, ni du nom du café, ni de quelles pages elle a lu, ni de combien de temps elle a pu passer sur chacun des articles…

Or, si cette même personne se rend sur le site web du journal, alors il pourra au moins connaître la connexion utilisée, quelles pages ont été lues et pendant combien de temps. Mais ces informations ne sont pas uniquement accessibles au journal : la régie publicitaire en apprendra autant, tout comme Google qui fournit les polices de caractères, Facebook avec son bouton «  Like », Twitter pour son bouton « Tweet », pour ne citer que les plus courants.

Alors soyons clair : qu’il soit en papier ou en ligne, quand on lit un journal, on ne s’attend pas à ce qu’il nous lise en retour…

Lorsqu’on remplace Firefox ou Chrome par le navigateur Tor, on rend beaucoup plus difficile cette collecte d’information contre notre gré. On retrouve un Internet conforme à nos attentes.

Voir Tor principalement comme un outil pour l’anonymat ou le contournement de la censure, c’est penser son usage comme nécessairement marginal. Alors qu’au contraire, Tor constitue un pas vers un Internet davantage conforme aux intuitions les plus courantes sur son fonctionnement.

Le temps où Internet était réservé aux personnes ayant un bagage en science informatique est terminé. La plupart des internautes ne peuvent pas faire un choix informé sur les données et les traces enregistrées et partagées par les ordinateurs impliqués dans leur communications. Même les personnes qui développent des applications ont parfois bien du mal à mesurer l’étendue des données que fuitent les outils qu’elles conçoivent ! Utiliser le navigateur Tor permet justement de limiter les informations que nous communiquons à des tiers sans en avoir explicitement l’intention.

Maîtriser les informations que nous partageons lors de nos communications ne devrait pas être réservé à une élite. Voilà pourquoi Tor se destine au plus grand nombre.

Nos oignons contribue modestement au fonctionnement du réseau Tor en faisant fonctionner des relais en France. L’association démarre aujourd’hui une nouvelle campagne de financement afin de récolter les 12 000 € nécessaires pour fonctionner une année supplémentaire. La Quadrature du Net, qui veille à ce que l'usage de tels outils reste autorisé en France et en Europe, relaye donc cet appel. Soutenons Nos Oignons, ainsi que le projet Tor qui développe les logiciels.

]]>
Demain, la surveillance française devant le Conseil d'État !10591 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180710_165517_Demain__la_surveillance_fran__aise_devant_le_Conseil_d_Etat__Tue, 10 Jul 2018 14:55:17 +000010 juillet 2018 - Demain à 14h se tiendront au Conseil d'État deux audiences décisives sur la loi renseignement et sur le régime de conservation généralisée des données de connexion. Ces deux contentieux ont été engagés il y a bientôt trois ans par La Quadrature du net, FDN et FFDN avec le soutien des Exégètes amateurs. Ces affaires pourraient bien connaître la conclusion espérée.

Venez avec nous assister à l'audience !

Avant de voir l'enjeu précis de l'audience de demain, revenons sur ces trois riches années de procédure, déjà cousues de quelques belles victoires et des centaines de pages écrites par les Exégètes amateurs contre une dizaine de textes différents.

À l'attaque de la loi renseignement

Il y a trois ans, le 24 juillet 2015, la loi renseignement était publiée. Elle venait d'être examinée une première fois par le Conseil constitutionnel, devant qui nous avions produit de nombreux arguments - en partie suivis par le Conseil pour, déjà, censurer certaines parties de la loi.

Voir l'amicus curiae que nous produisions contre la loi devant le Conseil constitutionnel

Deux mois après, une série de décrets étaient adoptés pour appliquer cette loi : ces décrets nous offraient l'opportunité, en les attaquant devant le Conseil d'État, de contester la loi dans son ensemble.

C'est donc deux mois plus tard que, le 30 novembre 2015, La Quadrature du Net, FDN et FFDN déposaient leur « requête introductive », qui conduira à l'audience de demain.

Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs

Quatre mois après, le 6 mai 2016, nous soulevions une question prioritaire de constitutionnalité (QPC) : nous invitions le Conseil d'État à demander au Conseil constitutionnel si la loi renseignement violait la Constitution lorsqu'elle prévoyait un régime de surveillance généralisée des communications « empruntant la voie hertzienne » (ce qui veut à peu près tout dire).

Six mois plus tard, le 21 octobre 2016, nous gagnions cette manche : cette partie de la loi était censurée !

Voir la décision du Conseil constitutionnel censurant la surveillance hertzienne

Toutefois, nous avions formulé bien d'autres arguments contre la loi renseignement. Le Conseil d'État, devant qui le reste de l'affaire était revenue, devait encore les examiner.

Pendant un an et huit mois, nous sommes restés sans nouvelles du Conseil d'État et pensions qu'il avait oublié l'affaire...

Il y a douze jours, après quasiment deux années de silence, le Premier ministre et le ministère de l'intérieur ont subitement envoyé des arguments pour défendre la loi.

Cinq jours plus tard, sans crier gare, le Conseil d'État a fixé une date d'audience (demain), qui marquera la fin des débats. Il ne nous laissait ainsi qu'une poignée de jours pour contre-attaquer.

Voir notre dernier mémoire en réplique déposé ce matin par Patrice Spinosi, l'avocat qui nous représente devant le Conseil d'État dans cette affaire

Un problème de conservation généralisée

La loi renseignement n'est pas ici le seul problème. Elle s'ajoute à un régime distinct qui, en France et depuis sept ans, impose aux opérateurs téléphonique et Internet, ainsi qu'aux hébergeurs de contenus en ligne, de conserver pendant un an des « données de connexion » sur l'ensemble des utilisateurs (qui parle à qui, d'où, avec quelle adresse IP, etc.). Les services de renseignement peuvent ainsi accéder, pendant un an, aux données concernant toute la population.

Il nous fallait aussi, en parallèle, attaquer cette conservation généralisée.

Il y a quatre ans, en avril 2014, la Cour de justice de l'Union européenne rendait une décision capitale dans l'affaire « Digital Right Ireland ». Elle annulait une directive européenne qui, depuis 2006, imposait un même régime de conservation généralisée dans toute l'Union. Pour la Cour, la Charte des droits fondamentaux de l'Union européenne s'opposait à une telle surveillance qui, par définition, considère comme suspecte l'ensemble de la population.

Voir la décision du 4 avril 2014 de la Cour de justice

Il y a trois ans, le 1er septembre 2015, La Quadrature du Net, FDN et FFDN saisissaient cette occasion pour contester le régime de conservation généralisée en droit français devant le Conseil d'État, dans une affaire en parallèle à celle contre la loi renseignement.

Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs

Dix mois plus tard, en juin 2016, le ministère de la justice envoyait ses arguments pour défendre la conservation généralisée. Ici encore, le gouvernement restera ensuite muet pendant deux ans....

Toutefois, entre-temps, il y a dix-huit mois, le 21 décembre 2016, la Cour de justice rendait une autre décision déterminante dans l'affaire « Tele2 Sverige ». Interrogée par des juges suédois et anglais, elle avait reconnu que les lois de ces deux pays, qui prévoyaient une conservation généralisée des données de connexion, violaient elles-aussi la Charte de l'Union.

Voir l'article des Exégètes amateurs analysant l'arrêt Tele2

C'est exactement la solution que nous recherchions depuis le début : nous demandons au Conseil d'État, à l'instar des juges suédois et anglais, d'interroger la Cour de justice de l'Union européenne sur la validité de notre régime.

En effet, depuis dix-huit mois, le droit français viole le droit de l'Union en refusant d'abroger son régime de conservation généralisée, ce que la Cour de justice impose pourtant de façon évidente.

Lire la tribune des Exégètes amateurs publiée sur Libération

Il y a vingt jours, le Premier ministre sortait enfin de son silence de deux ans pour défendre la loi française. Comme pour l'affaire sur la loi renseignement, le Conseil d'État a fixé l'audience pour demain.

Voir notre dernier mémoire en réplique déposé aujourd'hui

Demain, c'est donc la voie pour mettre fin à l'incohérence du droit français qui, enfin, semble s'ouvrir.

Le débat passe au niveau européen

Il y a quinze jours, nous lancions une campagne européenne pour pousser la Commission européenne à agir contre les dix-sept États membres de l'Union européenne qui, comme la France, violent le droit de l'Union en maintenant un régime de conservation généralisée des données de connexion.

Dans le même temps, depuis un an, les gouvernements européens - dont le gouvernement français - tentent difficilement de modifier le droit européen pour contourner la jurisprudence de la Cour de justice. C'est notamment ce à quoi La Quadrature du Net s'oppose dans les débat sur le règlement ePrivacy.

Face à ces nombreuses et vives difficultés, il semble que le gouvernement français, dos au mur, renonce enfin à fuir le débat.

Après deux années de silence, dans ses toutes dernières écritures, le Premier ministre a admis que, dans les deux procédures que nous avons engagées devant le Conseil d'État, il serait utile d'interroger la Cour de justice sur la validité de la conservation généralisée française. Sans doute espère-t-il convaincre la Cour de revenir sur ses décisions passées, pour les contredire : nous acceptons ce débat car, de notre côté, nous espérons convaincre la Cour d'éloigner encore plus fermement la surveillance de masse !

Ce matin, le rapporteur public du Conseil d'État (chargé d'assister ce dernier dans la prise de ses décisions) a indiqué que, lors de l'audience de demain, il comptait conclure en faveur de la transmission d'un tel débat à la Cour de justice.

Ainsi, tout porte à croire que, demain soir, nous aurons une autre victoire à fêter ! Si le Premier ministre et le rapporteur public épousent notre volonté de porter la question au niveau européen, il semble très peu vraisemblable que le Conseil d'État le refuse lorsqu'il rendra sa décision dans quelques semaines.

Nous devrons ensuite nous préparer pour la bataille finale devant la Cour de justice qui, si nous l'emportons, changera radicalement et durablement le cadre de la surveillance française, mettant un coup d'arrêt aux ambitions de surveillance de masse de François Hollande puis d'Emmanuel Macron.

D'ici là, vous êtes toutes et tous invités à venir assister avec nous à l'audience de demain qui clôturera ces trois années de débat français. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris (comment s'y rendre).

À demain !

]]>
10 juillet 2018 - Demain à 14h se tiendront au Conseil d'État deux audiences décisives sur la loi renseignement et sur le régime de conservation généralisée des données de connexion. Ces deux contentieux ont été engagés il y a bientôt trois ans par La Quadrature du net, FDN et FFDN avec le soutien des Exégètes amateurs. Ces affaires pourraient bien connaître la conclusion espérée.

Venez avec nous assister à l'audience !

Avant de voir l'enjeu précis de l'audience de demain, revenons sur ces trois riches années de procédure, déjà cousues de quelques belles victoires et des centaines de pages écrites par les Exégètes amateurs contre une dizaine de textes différents.

À l'attaque de la loi renseignement

Il y a trois ans, le 24 juillet 2015, la loi renseignement était publiée. Elle venait d'être examinée une première fois par le Conseil constitutionnel, devant qui nous avions produit de nombreux arguments - en partie suivis par le Conseil pour, déjà, censurer certaines parties de la loi.

Voir l'amicus curiae que nous produisions contre la loi devant le Conseil constitutionnel

Deux mois après, une série de décrets étaient adoptés pour appliquer cette loi : ces décrets nous offraient l'opportunité, en les attaquant devant le Conseil d'État, de contester la loi dans son ensemble.

C'est donc deux mois plus tard que, le 30 novembre 2015, La Quadrature du Net, FDN et FFDN déposaient leur « requête introductive », qui conduira à l'audience de demain.

Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs

Quatre mois après, le 6 mai 2016, nous soulevions une question prioritaire de constitutionnalité (QPC) : nous invitions le Conseil d'État à demander au Conseil constitutionnel si la loi renseignement violait la Constitution lorsqu'elle prévoyait un régime de surveillance généralisée des communications « empruntant la voie hertzienne » (ce qui veut à peu près tout dire).

Six mois plus tard, le 21 octobre 2016, nous gagnions cette manche : cette partie de la loi était censurée !

Voir la décision du Conseil constitutionnel censurant la surveillance hertzienne

Toutefois, nous avions formulé bien d'autres arguments contre la loi renseignement. Le Conseil d'État, devant qui le reste de l'affaire était revenue, devait encore les examiner.

Pendant un an et huit mois, nous sommes restés sans nouvelles du Conseil d'État et pensions qu'il avait oublié l'affaire...

Il y a douze jours, après quasiment deux années de silence, le Premier ministre et le ministère de l'intérieur ont subitement envoyé des arguments pour défendre la loi.

Cinq jours plus tard, sans crier gare, le Conseil d'État a fixé une date d'audience (demain), qui marquera la fin des débats. Il ne nous laissait ainsi qu'une poignée de jours pour contre-attaquer.

Voir notre dernier mémoire en réplique déposé ce matin par Patrice Spinosi, l'avocat qui nous représente devant le Conseil d'État dans cette affaire

Un problème de conservation généralisée

La loi renseignement n'est pas ici le seul problème. Elle s'ajoute à un régime distinct qui, en France et depuis sept ans, impose aux opérateurs téléphonique et Internet, ainsi qu'aux hébergeurs de contenus en ligne, de conserver pendant un an des « données de connexion » sur l'ensemble des utilisateurs (qui parle à qui, d'où, avec quelle adresse IP, etc.). Les services de renseignement peuvent ainsi accéder, pendant un an, aux données concernant toute la population.

Il nous fallait aussi, en parallèle, attaquer cette conservation généralisée.

Il y a quatre ans, en avril 2014, la Cour de justice de l'Union européenne rendait une décision capitale dans l'affaire « Digital Right Ireland ». Elle annulait une directive européenne qui, depuis 2006, imposait un même régime de conservation généralisée dans toute l'Union. Pour la Cour, la Charte des droits fondamentaux de l'Union européenne s'opposait à une telle surveillance qui, par définition, considère comme suspecte l'ensemble de la population.

Voir la décision du 4 avril 2014 de la Cour de justice

Il y a trois ans, le 1er septembre 2015, La Quadrature du Net, FDN et FFDN saisissaient cette occasion pour contester le régime de conservation généralisée en droit français devant le Conseil d'État, dans une affaire en parallèle à celle contre la loi renseignement.

Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs

Dix mois plus tard, en juin 2016, le ministère de la justice envoyait ses arguments pour défendre la conservation généralisée. Ici encore, le gouvernement restera ensuite muet pendant deux ans....

Toutefois, entre-temps, il y a dix-huit mois, le 21 décembre 2016, la Cour de justice rendait une autre décision déterminante dans l'affaire « Tele2 Sverige ». Interrogée par des juges suédois et anglais, elle avait reconnu que les lois de ces deux pays, qui prévoyaient une conservation généralisée des données de connexion, violaient elles-aussi la Charte de l'Union.

Voir l'article des Exégètes amateurs analysant l'arrêt Tele2

C'est exactement la solution que nous recherchions depuis le début : nous demandons au Conseil d'État, à l'instar des juges suédois et anglais, d'interroger la Cour de justice de l'Union européenne sur la validité de notre régime.

En effet, depuis dix-huit mois, le droit français viole le droit de l'Union en refusant d'abroger son régime de conservation généralisée, ce que la Cour de justice impose pourtant de façon évidente.

Lire la tribune des Exégètes amateurs publiée sur Libération

Il y a vingt jours, le Premier ministre sortait enfin de son silence de deux ans pour défendre la loi française. Comme pour l'affaire sur la loi renseignement, le Conseil d'État a fixé l'audience pour demain.

Voir notre dernier mémoire en réplique déposé aujourd'hui

Demain, c'est donc la voie pour mettre fin à l'incohérence du droit français qui, enfin, semble s'ouvrir.

Le débat passe au niveau européen

Il y a quinze jours, nous lancions une campagne européenne pour pousser la Commission européenne à agir contre les dix-sept États membres de l'Union européenne qui, comme la France, violent le droit de l'Union en maintenant un régime de conservation généralisée des données de connexion.

Dans le même temps, depuis un an, les gouvernements européens - dont le gouvernement français - tentent difficilement de modifier le droit européen pour contourner la jurisprudence de la Cour de justice. C'est notamment ce à quoi La Quadrature du Net s'oppose dans les débat sur le règlement ePrivacy.

Face à ces nombreuses et vives difficultés, il semble que le gouvernement français, dos au mur, renonce enfin à fuir le débat.

Après deux années de silence, dans ses toutes dernières écritures, le Premier ministre a admis que, dans les deux procédures que nous avons engagées devant le Conseil d'État, il serait utile d'interroger la Cour de justice sur la validité de la conservation généralisée française. Sans doute espère-t-il convaincre la Cour de revenir sur ses décisions passées, pour les contredire : nous acceptons ce débat car, de notre côté, nous espérons convaincre la Cour d'éloigner encore plus fermement la surveillance de masse !

Ce matin, le rapporteur public du Conseil d'État (chargé d'assister ce dernier dans la prise de ses décisions) a indiqué que, lors de l'audience de demain, il comptait conclure en faveur de la transmission d'un tel débat à la Cour de justice.

Ainsi, tout porte à croire que, demain soir, nous aurons une autre victoire à fêter ! Si le Premier ministre et le rapporteur public épousent notre volonté de porter la question au niveau européen, il semble très peu vraisemblable que le Conseil d'État le refuse lorsqu'il rendra sa décision dans quelques semaines.

Nous devrons ensuite nous préparer pour la bataille finale devant la Cour de justice qui, si nous l'emportons, changera radicalement et durablement le cadre de la surveillance française, mettant un coup d'arrêt aux ambitions de surveillance de masse de François Hollande puis d'Emmanuel Macron.

D'ici là, vous êtes toutes et tous invités à venir assister avec nous à l'audience de demain qui clôturera ces trois années de débat français. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris (comment s'y rendre).

À demain !

]]>
La Smart City policière se répand comme traînée de poudre10581 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180706_104142_La_Smart_City_policiere_se_repand_comme_trainee_de_poudreFri, 06 Jul 2018 08:41:42 +0000En mars, nous levions un bout du voile qui entoure encore le projet orwellien de la « Smart City™ » marseillaise. Mais force est de constater que le cas de Marseille n'est que l'arbre qui cache la forêt. Car la police prédictive et les centres de surveillance policière dopés aux Big Data pullulent désormais sur le territoire français. Une dérive qu'illustre très bien le cas de Nice : la ville de Christian Estrosi, grand obsédé sécuritaire, a fait appel à Engie Inéo et Thalès, par ailleurs concurrents sur ce marché en plein essor, pour deux projets censés faire advenir la « Safe City™ » niçoise. Or, face à cette fuite en avant dans les technologies de contrôle social que nos élus assument sans rougir, la présidente de la CNIL semble trouver qu'il urgent de... suivre la situation. Ce qui revient à laisser faire.

Cet hiver, Christian Estrosi, maire de Nice, a encore fait parler de lui. Il paradait, tout fier du contrat passé avec une entreprise israëlienne pour permettre, via une application smartphone, aux citoyens de se faire auxiliaires de police. Sollicitée par le conseil municipal de la ville, la CNIL a fait savoir fin mars son opposition, pointant le manque de base légale du dispositif ainsi que l'atteinte « disproportionnée » au droit à la vie privée qui en résultait.

Mais cette controverse relayée dans les médias a masqué l'essentiel. Car depuis l'an dernier, Nice aussi se prépare à devenir la Smart City™ du turfu en misant sur des partenariats avec de grandes entreprises des technologies de contrôle. Et on ne parle pas d'une petite boîte israélienne. On parle de Thales, bien connue, ou d'Engie-Inéo, une filiale Big Data du groupe Engie (Suez) (dans lesquelles l'État français détient respectivement 26,4% et 32,76% de parts). On ne parle pas non plus d'une simple « app » permettant de faire entrer le vigilantisme et la délation à l'ère 3.0, non. On parle de centres de contrôle-commande équipés de tout l'attirail moderne pour sonder quantités de bases de données issues des services publics ou d'entreprises privées, surveiller en temps réel l'espace public urbain et ce qui se dit sur les réseaux sociaux, faire de la police « prédictive »...

À Nice, première expérimentation d'Engie Inéo

D'une part, il y a le projet d'Engie Inéo, une expérimentation annoncée à l'été 2017 (on devait être à la plage, on était en tout cas passé à côté), qui aurait pris fin en février 2018. L'an dernier la mairie présentait le projet en ces termes :

ENGIE Ineo expérimentera à Nice une solution globale de sécurité inédite : un centre de contrôle et de commandement basé sur une table tactile et tactique « DECIDE » et la plateforme SenCity.

Le développement progressif de ce dispositif a pour but de mettre à disposition, notamment des autorités policières, une plateforme tactique et tactile pour assurer une coordination globale en temps réel.

(...) En s’appuyant sur les ressources locales et sur l’ensemble des données collectées par la métaplateforme SenCity, (caméras, bornes escamotables, feux de circulation, boutons d’alerte, contrôles d’accès des bâtiments) ce dispositif révolutionne les solutions de sécurité mises à disposition des décideurs.

C'est du « totalement inédit », à en croire Thierry Orosco, Directeur des Stratégies de Sécurité d’Engie Inéo. Ça ressemble à s'y méprendre à ce qui se trame à Marseille, et dont nous soulignions les dangers il y a quelques semaines. Cette « révolution » marque en tout cas une nouvelle étape dans la privatisation des forces de sécurité, alors que ces outils techniques sont appelés à jouer un rôle central non seulement dans la préemption et la répression policières, mais aussi plus largement dans le « management » des forces de l'ordre. Comme le rappelle le premier syndicat de la police municipale en réaction à l'affaire Reporty : « Il n'est jamais bon, sur le plan moral, de déléguer le service public de la sécurité à des personnes privées ».

La team Thales dans la roue

Quant à Thales, elle semble reprendre le flambeau à la tête d'un consortium qui propose une nouvelle « expérimentation ». Le mois dernier, le conseil municipal de Nice votait en effet une convention d'expérimentation « Safe City » (pdf), en dépit des critiques d'une partie de l'opposition.

Thales a aussi jeté son dévolu sur le quartier de La Défense en région parisienne. Le groupe se targue de son expérience dans le domaine de la sécurité et du numérique. Non, il ne s'agit pas de la Plateforme nationale des informations judiciaire des interceptions (PNIJ) (qui, pour le coup, est un fiasco total, très coûteux). Il s'agit de « vidéosurveillance intelligente ».

La vidéosurveillance devient « smart »

C'est la grande mode. Après avoir dépensé des centaines de millions d'euros pour des caméras aux résultats insignifiants, les industriels ne jurent désormais que par l'analyse automatique des images. Le ministre de l'Intérieur, Gérard Collomb, s'en faisait le VRP encore récemment, alors qu'il dissertait le 8 juin dernier sur la répression des mouvements sociaux (il parlait des ZAD et des manifestations). Et le ministère amer d'indiquer :

En matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre1.

On imagine, demain, ce que donnera l'utilisation de la reconnaissance faciale en lien avec des fichiers biométriques comme le fichier TES dans ces nouveaux dispositifs répressifs. Ce n'est pas céder à la facilité que de dire qu'en la matière, la Chine montre le chemin.

Vers un « Waze de la sécurité »

À Nice, dans le cadre de ce nouveau « Projet d'expérimentation Safe City » (pdf) voté par la Ville en juin (et que La Quadrature s'est procuré), Thales et le consortium qu'il dirige veulent aller plus loin, en créant le « Waze de la sécurité » à la sauce Big Data. Pour aider les « décideurs », il s'agit de « collecter le maximum de données existantes et d'en chercher les corrélations et les signaux faibles » (p. 23), de « développer les nouveaux algorithmes d’analyse et de corrélation permettant de mieux comprendre une situation et de développer des capacités prédictives » (p. 24). Comme à Marseille, la surveillance des réseaux sociaux et autres « données ouvertes » sont en ligne de mire, notamment pour les « textes courts et mal écrits » chers à Twitter qui passeront à la moulinette d'outils d'analyse sémantique pour aider à la gestion des foules, à l'analyse des rumeurs, et le « suivi des actions de certains individus ou groupes de personnes » (là, le spécialiste du consortium est l'entreprise GEOLSemantics).

Les partenaires du projet « Safe City » piloté par Thales.

Certes, pour l'heure, tout cela relève aussi et surtout d'un discours marketing destiné à appâter des élus en mal de sensationnel. Ces projets sont bien des expérimentations, avec des « cas d'usage » en apparence délimités. Ils permettent en fait à ces grands groupes de faire financer par l'État et les collectivités françaises, avec l'aide de l'Europe2 ou de la Banque publique d'investissement3, leur recherche et développement, et de disposer de « démonstrateurs » grandeur nature pour alimenter leurs campagnes de marketing sécuritaire.

Smart City policière, realpolitik industrielle ?

Pour ces grands groupes français et leurs émanations institutionnelles telles que le CoFIS (le comité de la filière industrielle de sécurité, organisé au niveau du ministère de l'Intérieur), il s'agit en effet de se positionner dans le marché en plein essor de la Smart City™, alors que les grandes multinationales américaines comme Google ou chinoises comme Huawei sont en embuscade.

Car tout cela va évidemment bien au-delà du champ de la sécurité. Dans le viseur, l'ensemble des services publics sont concernés, des transports à l'énergie en passant par la gestion des déchets. Sur tous ces sujets, des entreprises comme Thalès ou Engie Inéo espèrent pousser les ville à faire exploser leurs budgets. Et Pierre Cunéo, en charge de la Stratégie, recherche et technologie chez Tales, de regretter que « pour l'instant pas une ville ne demande de tout mettre en réseau (...). Tout cela ne concerne que la sécurité. Les budgets des villes ne permettent pas encore d'aller plus loin ». Là aussi, ces projets d'expérimentation ont valeur de test pour des stratégies de séduction des agents, et convertir ainsi les services publics à leurs « solutions » et les rendant toujours plus dépendants de l'expertise privée. Avec à la clé pléthore de juteux contrats publics.

Mais revenons-en à la police. Si, aux États-Unis, les incursions de plus en plus marquées des GAFAM dans le complexe militaro-industriel suscitent des oppositions en interne4, on n'attend pas forcément grand-chose de la part des employés de grandes boîtes associées depuis longtemps aux politiques sécuritaires (mais si on se trompe, des lanceurs d'alerte peuvent nous écrire ou répondre à l'appel de Mediapart !).

À Nice, autour du projet de Big Data policier, Estrosi appelle aussi à « faire vivre un éco-contexte favorable à l’innovation en renforçant ses collaborations avec de grands groupes industriels, des PME et des start-up locales, notamment liées au réseau de la French Tech, ainsi qu’avec le monde de la recherche et de l’enseignement ». De fait, les acteurs qui participent au développement et à la banalisation de ces outils de surveillance sont nombreux. Côté recherche, l'origine et la structure des financements et les rapprochements marqués des champs sécuritaires et universitaires sont un véritable problème qui devrait interroger (plusieurs des solutions proposées à Nice par le consortium de Thales sont issues des projets de recherche de la Commission européenne ou de l'Agence nationale de la recherche). Quant à la French Tech, peut-être voudra-t-elle bien, dans un futur pas trop lointain, faire connaître sa volonté de ne pas devenir « pigeon des espions » ? Ou pas.

La CNIL attentiste

Dans le Sud-Est, on est habitué aux délires sécuritaires. Mais ne vous y trompez pas : tout le monde risque d'y passer dans un futur proche. À Toulouse, à Valenciennes, à Paris, à Dijon, des initiatives similaires sont achevées ou en cours. La vague de la Smart City policière déferle sur la France.

En janvier dernier, La Quadrature écrivait à la CNIL pour demander un rendez-vous et discuter de l'action du gendarme de la vie privée dans ces dossiers, et notamment du cas marseillais. Les travaux du comité de prospective de la CNIL l'an dernier5, de même que la « jurisprudence » Reporty qui pointait l'absence de base légale, laissaient augurer d'une opposition claire à l'ensemble de ces projets. Après plusieurs demandes et relances, nous avons finalement reçu un courrier (pdf) fin juin, qui a pour le moins douché nos espoirs. Isabelle Falque Pierrotin, présidente de la CNIL, nous y écrit :

La CNIL entend se montrer particulièrement vigilante quant au développement de dispositifs de ce type qui, à l'évidence, sont susceptibles d'engendrer des risques élevés pour les droits et libertés des individus. (...) J'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles, tel qu'issu de la Directive (UE) 2016/680 et du Règlement (UE) 2016/679 du Parlement européen et du Conseil.

S’agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées.

La Commission suivra attentivement la façon dont la Ville a apprécié la pertinence et la proportionnalité des données et opérations auxquels elle envisage de recourir, comme la compatibilité des finalités de réutilisation de ces informations avec celles ayant présidé à leur collecte. Elle s'attachera également à contrôler que l'exploitation de celles-ci, dans les conditions projetées, ne se heurte pas à des dispositions légales encadrant leur traitement et si les intérêts légitimes des individus ont été suffisamment pris en compte. Enfin, elle sera très attentive aux mesures d'encadrement techniques et organisationnelles, prises par la ville pour garantir aux informations un niveau de sécurité approprié.

« Vigilance », « analyse d'impact », « suivi attentif ». Autant le diagnostic technique est juste, autant la réponse esquissée s'apparente à un inquiétant laisser-faire. Pour nous, en jugeant sur la base des documents obtenus, il est évident qu'en l'absence d'un cadre législatif ad hoc, et comme le soulignait la CNIL elle-même dans l'affaire Reporty6, ces dispositifs sont illégaux. À l'heure où tout le monde se gausse de l'entrée en vigueur des nouveaux textes européens sur la vie privée, il est pour le moins surprenant de voir ces nouvelles techniques fondamentalement contraires aux grands principes qui fondent ces textes s'imposer au cœur de nos villes .

Quant aux études d'impact sur la vie privée que la CNIL appelle de ses vœux, les projets en cours ne l'envisagent pas (ou alors en des termes très vagues). Si elles sont finalement menées, tout porte à croire que ce sont les prestataires retenus qui seront priés de les réaliser à l'issue de ces expérimentations... Cette posture attentiste de la CNIL permet juste de temporiser, le temps que Ministère de l'Intérieur nous sorte un projet de loi sur la « police 3.0 » chère à Gérard Collomb, pour venir légaliser le tout7.

Bref, si l'on veut éviter d'être une nouvelle fois mis devant le fait accompli (comme en 2015 avec la loi renseignement), ce n'est pas la vigilance qu'il nous faut, c'est un moratoire sur l'ensemble de ces projets de Smart City policière. Et des gens qui, sur le terrain, puissent tenir en échec ces technocratie obsédée par le contrôle social.

  • 1. Source : La Croix
  • 2. Dans le projet marseillais, 500 000 euros viennent des fonds FEDER consacré à la cohésion des territoires européens (voir PDF).
  • 3. La BPI finance le projet d'expérimentation à Nice, à en croire la délibération du Conseil municipal.
  • 4. Voir par exemple les cas de Google ou d'Amazon
  • 5. “Smart City et Données Personnelles : Quels Enjeux de Politiques Publiques et de Vie Privée ?”, CNIL, Octobre 2017. https://www.cnil.fr/sites/default/files/atoms/files/cnil_cahiers_ip5.pdf.
  • 6. En mars, la CNIL estimait ainsi : « Au regard des risques élevés de surveillance des personnes et d’atteinte à la vie privée qui pourraient résulter d’un usage non maîtrisé d’un tel dispositif, la CNIL a donc estimé qu’il était hautement souhaitable qu’un tel dispositif fasse l’objet d’un encadrement législatif spécifique ; par ailleurs elle a conclu que la proportionnalité du dispositif REPORTY n’était en l’état pas garantie ».
  • 7. Pour le ministre, la « police 3.0 » renvoie à « la vision que nous devons avoir d’une police et d’une gendarmerie qui doivent sans cesse savoir prendre le virage des évolutions technologiques et d’un monde en réseaux » (source). Voir aussi : Gerric Poncet, « Gérard Collomb : "À délinquance numérique, police numérique" ». Le Point, Février 2018. http://www.lepoint.fr/politique/gerard-collomb-a-delinquance-numerique-police-numerique-08-02-2018-2193250_20.php.
]]>
En mars, nous levions un bout du voile qui entoure encore le projet orwellien de la « Smart City™ » marseillaise. Mais force est de constater que le cas de Marseille n'est que l'arbre qui cache la forêt. Car la police prédictive et les centres de surveillance policière dopés aux Big Data pullulent désormais sur le territoire français. Une dérive qu'illustre très bien le cas de Nice : la ville de Christian Estrosi, grand obsédé sécuritaire, a fait appel à Engie Inéo et Thalès, par ailleurs concurrents sur ce marché en plein essor, pour deux projets censés faire advenir la « Safe City™ » niçoise. Or, face à cette fuite en avant dans les technologies de contrôle social que nos élus assument sans rougir, la présidente de la CNIL semble trouver qu'il urgent de... suivre la situation. Ce qui revient à laisser faire.

Cet hiver, Christian Estrosi, maire de Nice, a encore fait parler de lui. Il paradait, tout fier du contrat passé avec une entreprise israëlienne pour permettre, via une application smartphone, aux citoyens de se faire auxiliaires de police. Sollicitée par le conseil municipal de la ville, la CNIL a fait savoir fin mars son opposition, pointant le manque de base légale du dispositif ainsi que l'atteinte « disproportionnée » au droit à la vie privée qui en résultait.

Mais cette controverse relayée dans les médias a masqué l'essentiel. Car depuis l'an dernier, Nice aussi se prépare à devenir la Smart City™ du turfu en misant sur des partenariats avec de grandes entreprises des technologies de contrôle. Et on ne parle pas d'une petite boîte israélienne. On parle de Thales, bien connue, ou d'Engie-Inéo, une filiale Big Data du groupe Engie (Suez) (dans lesquelles l'État français détient respectivement 26,4% et 32,76% de parts). On ne parle pas non plus d'une simple « app » permettant de faire entrer le vigilantisme et la délation à l'ère 3.0, non. On parle de centres de contrôle-commande équipés de tout l'attirail moderne pour sonder quantités de bases de données issues des services publics ou d'entreprises privées, surveiller en temps réel l'espace public urbain et ce qui se dit sur les réseaux sociaux, faire de la police « prédictive »...

À Nice, première expérimentation d'Engie Inéo

D'une part, il y a le projet d'Engie Inéo, une expérimentation annoncée à l'été 2017 (on devait être à la plage, on était en tout cas passé à côté), qui aurait pris fin en février 2018. L'an dernier la mairie présentait le projet en ces termes :

ENGIE Ineo expérimentera à Nice une solution globale de sécurité inédite : un centre de contrôle et de commandement basé sur une table tactile et tactique « DECIDE » et la plateforme SenCity.

Le développement progressif de ce dispositif a pour but de mettre à disposition, notamment des autorités policières, une plateforme tactique et tactile pour assurer une coordination globale en temps réel.

(...) En s’appuyant sur les ressources locales et sur l’ensemble des données collectées par la métaplateforme SenCity, (caméras, bornes escamotables, feux de circulation, boutons d’alerte, contrôles d’accès des bâtiments) ce dispositif révolutionne les solutions de sécurité mises à disposition des décideurs.

C'est du « totalement inédit », à en croire Thierry Orosco, Directeur des Stratégies de Sécurité d’Engie Inéo. Ça ressemble à s'y méprendre à ce qui se trame à Marseille, et dont nous soulignions les dangers il y a quelques semaines. Cette « révolution » marque en tout cas une nouvelle étape dans la privatisation des forces de sécurité, alors que ces outils techniques sont appelés à jouer un rôle central non seulement dans la préemption et la répression policières, mais aussi plus largement dans le « management » des forces de l'ordre. Comme le rappelle le premier syndicat de la police municipale en réaction à l'affaire Reporty : « Il n'est jamais bon, sur le plan moral, de déléguer le service public de la sécurité à des personnes privées ».

La team Thales dans la roue

Quant à Thales, elle semble reprendre le flambeau à la tête d'un consortium qui propose une nouvelle « expérimentation ». Le mois dernier, le conseil municipal de Nice votait en effet une convention d'expérimentation « Safe City » (pdf), en dépit des critiques d'une partie de l'opposition.

Thales a aussi jeté son dévolu sur le quartier de La Défense en région parisienne. Le groupe se targue de son expérience dans le domaine de la sécurité et du numérique. Non, il ne s'agit pas de la Plateforme nationale des informations judiciaire des interceptions (PNIJ) (qui, pour le coup, est un fiasco total, très coûteux). Il s'agit de « vidéosurveillance intelligente ».

La vidéosurveillance devient « smart »

C'est la grande mode. Après avoir dépensé des centaines de millions d'euros pour des caméras aux résultats insignifiants, les industriels ne jurent désormais que par l'analyse automatique des images. Le ministre de l'Intérieur, Gérard Collomb, s'en faisait le VRP encore récemment, alors qu'il dissertait le 8 juin dernier sur la répression des mouvements sociaux (il parlait des ZAD et des manifestations). Et le ministère amer d'indiquer :

En matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre1.

On imagine, demain, ce que donnera l'utilisation de la reconnaissance faciale en lien avec des fichiers biométriques comme le fichier TES dans ces nouveaux dispositifs répressifs. Ce n'est pas céder à la facilité que de dire qu'en la matière, la Chine montre le chemin.

Vers un « Waze de la sécurité »

À Nice, dans le cadre de ce nouveau « Projet d'expérimentation Safe City » (pdf) voté par la Ville en juin (et que La Quadrature s'est procuré), Thales et le consortium qu'il dirige veulent aller plus loin, en créant le « Waze de la sécurité » à la sauce Big Data. Pour aider les « décideurs », il s'agit de « collecter le maximum de données existantes et d'en chercher les corrélations et les signaux faibles » (p. 23), de « développer les nouveaux algorithmes d’analyse et de corrélation permettant de mieux comprendre une situation et de développer des capacités prédictives » (p. 24). Comme à Marseille, la surveillance des réseaux sociaux et autres « données ouvertes » sont en ligne de mire, notamment pour les « textes courts et mal écrits » chers à Twitter qui passeront à la moulinette d'outils d'analyse sémantique pour aider à la gestion des foules, à l'analyse des rumeurs, et le « suivi des actions de certains individus ou groupes de personnes » (là, le spécialiste du consortium est l'entreprise GEOLSemantics).

Les partenaires du projet « Safe City » piloté par Thales.

Certes, pour l'heure, tout cela relève aussi et surtout d'un discours marketing destiné à appâter des élus en mal de sensationnel. Ces projets sont bien des expérimentations, avec des « cas d'usage » en apparence délimités. Ils permettent en fait à ces grands groupes de faire financer par l'État et les collectivités françaises, avec l'aide de l'Europe2 ou de la Banque publique d'investissement3, leur recherche et développement, et de disposer de « démonstrateurs » grandeur nature pour alimenter leurs campagnes de marketing sécuritaire.

Smart City policière, realpolitik industrielle ?

Pour ces grands groupes français et leurs émanations institutionnelles telles que le CoFIS (le comité de la filière industrielle de sécurité, organisé au niveau du ministère de l'Intérieur), il s'agit en effet de se positionner dans le marché en plein essor de la Smart City™, alors que les grandes multinationales américaines comme Google ou chinoises comme Huawei sont en embuscade.

Car tout cela va évidemment bien au-delà du champ de la sécurité. Dans le viseur, l'ensemble des services publics sont concernés, des transports à l'énergie en passant par la gestion des déchets. Sur tous ces sujets, des entreprises comme Thalès ou Engie Inéo espèrent pousser les ville à faire exploser leurs budgets. Et Pierre Cunéo, en charge de la Stratégie, recherche et technologie chez Tales, de regretter que « pour l'instant pas une ville ne demande de tout mettre en réseau (...). Tout cela ne concerne que la sécurité. Les budgets des villes ne permettent pas encore d'aller plus loin ». Là aussi, ces projets d'expérimentation ont valeur de test pour des stratégies de séduction des agents, et convertir ainsi les services publics à leurs « solutions » et les rendant toujours plus dépendants de l'expertise privée. Avec à la clé pléthore de juteux contrats publics.

Mais revenons-en à la police. Si, aux États-Unis, les incursions de plus en plus marquées des GAFAM dans le complexe militaro-industriel suscitent des oppositions en interne4, on n'attend pas forcément grand-chose de la part des employés de grandes boîtes associées depuis longtemps aux politiques sécuritaires (mais si on se trompe, des lanceurs d'alerte peuvent nous écrire ou répondre à l'appel de Mediapart !).

À Nice, autour du projet de Big Data policier, Estrosi appelle aussi à « faire vivre un éco-contexte favorable à l’innovation en renforçant ses collaborations avec de grands groupes industriels, des PME et des start-up locales, notamment liées au réseau de la French Tech, ainsi qu’avec le monde de la recherche et de l’enseignement ». De fait, les acteurs qui participent au développement et à la banalisation de ces outils de surveillance sont nombreux. Côté recherche, l'origine et la structure des financements et les rapprochements marqués des champs sécuritaires et universitaires sont un véritable problème qui devrait interroger (plusieurs des solutions proposées à Nice par le consortium de Thales sont issues des projets de recherche de la Commission européenne ou de l'Agence nationale de la recherche). Quant à la French Tech, peut-être voudra-t-elle bien, dans un futur pas trop lointain, faire connaître sa volonté de ne pas devenir « pigeon des espions » ? Ou pas.

La CNIL attentiste

Dans le Sud-Est, on est habitué aux délires sécuritaires. Mais ne vous y trompez pas : tout le monde risque d'y passer dans un futur proche. À Toulouse, à Valenciennes, à Paris, à Dijon, des initiatives similaires sont achevées ou en cours. La vague de la Smart City policière déferle sur la France.

En janvier dernier, La Quadrature écrivait à la CNIL pour demander un rendez-vous et discuter de l'action du gendarme de la vie privée dans ces dossiers, et notamment du cas marseillais. Les travaux du comité de prospective de la CNIL l'an dernier5, de même que la « jurisprudence » Reporty qui pointait l'absence de base légale, laissaient augurer d'une opposition claire à l'ensemble de ces projets. Après plusieurs demandes et relances, nous avons finalement reçu un courrier (pdf) fin juin, qui a pour le moins douché nos espoirs. Isabelle Falque Pierrotin, présidente de la CNIL, nous y écrit :

La CNIL entend se montrer particulièrement vigilante quant au développement de dispositifs de ce type qui, à l'évidence, sont susceptibles d'engendrer des risques élevés pour les droits et libertés des individus. (...) J'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles, tel qu'issu de la Directive (UE) 2016/680 et du Règlement (UE) 2016/679 du Parlement européen et du Conseil.

S’agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées.

La Commission suivra attentivement la façon dont la Ville a apprécié la pertinence et la proportionnalité des données et opérations auxquels elle envisage de recourir, comme la compatibilité des finalités de réutilisation de ces informations avec celles ayant présidé à leur collecte. Elle s'attachera également à contrôler que l'exploitation de celles-ci, dans les conditions projetées, ne se heurte pas à des dispositions légales encadrant leur traitement et si les intérêts légitimes des individus ont été suffisamment pris en compte. Enfin, elle sera très attentive aux mesures d'encadrement techniques et organisationnelles, prises par la ville pour garantir aux informations un niveau de sécurité approprié.

« Vigilance », « analyse d'impact », « suivi attentif ». Autant le diagnostic technique est juste, autant la réponse esquissée s'apparente à un inquiétant laisser-faire. Pour nous, en jugeant sur la base des documents obtenus, il est évident qu'en l'absence d'un cadre législatif ad hoc, et comme le soulignait la CNIL elle-même dans l'affaire Reporty6, ces dispositifs sont illégaux. À l'heure où tout le monde se gausse de l'entrée en vigueur des nouveaux textes européens sur la vie privée, il est pour le moins surprenant de voir ces nouvelles techniques fondamentalement contraires aux grands principes qui fondent ces textes s'imposer au cœur de nos villes .

Quant aux études d'impact sur la vie privée que la CNIL appelle de ses vœux, les projets en cours ne l'envisagent pas (ou alors en des termes très vagues). Si elles sont finalement menées, tout porte à croire que ce sont les prestataires retenus qui seront priés de les réaliser à l'issue de ces expérimentations... Cette posture attentiste de la CNIL permet juste de temporiser, le temps que Ministère de l'Intérieur nous sorte un projet de loi sur la « police 3.0 » chère à Gérard Collomb, pour venir légaliser le tout7.

Bref, si l'on veut éviter d'être une nouvelle fois mis devant le fait accompli (comme en 2015 avec la loi renseignement), ce n'est pas la vigilance qu'il nous faut, c'est un moratoire sur l'ensemble de ces projets de Smart City policière. Et des gens qui, sur le terrain, puissent tenir en échec ces technocratie obsédée par le contrôle social.

  • 1. Source : La Croix
  • 2. Dans le projet marseillais, 500 000 euros viennent des fonds FEDER consacré à la cohésion des territoires européens (voir PDF).
  • 3. La BPI finance le projet d'expérimentation à Nice, à en croire la délibération du Conseil municipal.
  • 4. Voir par exemple les cas de Google ou d'Amazon
  • 5. “Smart City et Données Personnelles : Quels Enjeux de Politiques Publiques et de Vie Privée ?”, CNIL, Octobre 2017. https://www.cnil.fr/sites/default/files/atoms/files/cnil_cahiers_ip5.pdf.
  • 6. En mars, la CNIL estimait ainsi : « Au regard des risques élevés de surveillance des personnes et d’atteinte à la vie privée qui pourraient résulter d’un usage non maîtrisé d’un tel dispositif, la CNIL a donc estimé qu’il était hautement souhaitable qu’un tel dispositif fasse l’objet d’un encadrement législatif spécifique ; par ailleurs elle a conclu que la proportionnalité du dispositif REPORTY n’était en l’état pas garantie ».
  • 7. Pour le ministre, la « police 3.0 » renvoie à « la vision que nous devons avoir d’une police et d’une gendarmerie qui doivent sans cesse savoir prendre le virage des évolutions technologiques et d’un monde en réseaux » (source). Voir aussi : Gerric Poncet, « Gérard Collomb : "À délinquance numérique, police numérique" ». Le Point, Février 2018. http://www.lepoint.fr/politique/gerard-collomb-a-delinquance-numerique-police-numerique-08-02-2018-2193250_20.php.
]]>
Zwiebelfreunde, la police allemande s'en prend à nos oignons10582 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180705_165034_Zwiebelfreunde__la_police_allemande_s_en_prend_a_nos_oignonsThu, 05 Jul 2018 14:50:34 +0000Tribune de Taziden, membre de La Quadrature du Net

Le 20 juin, des perquisitions ont été menées1 chez plusieurs dirigeants de l'association allemande « Zwiebelfreunde ». Tous leurs ordinateurs et supports de stockage (disques durs, clés usb) ont été saisis par la police allemande.

Le motif invoqué ? Ces trois personnes seraient des « témoins » dans le cadre d'une enquête en cours sur un blog appelant à des manifestations anti-fascistes à Augsbourg, toujours en Allemagne. La police considère que ce blog appelle à des actions violentes.

Le lien entre ce blog et Zwiebelfreunde ? Il faut s'accrocher. L'adresse e-mail associée au blog est hébergée par l'organisation américaine Riseup. Et Zwiebelfreunde recueille des dons pour le compte de Riseup. On imagine difficilement une saisie du même acabit chez Google si les personnes à l'origine du blog avaient choisi Gmail.
Un peu comme si le local de La Quadrature du Net ainsi que les domiciles de ses dirigeants avaient été perquisitionnés à cause d'un compte créé sur mamot.fr, l'instance Mastodon de l'association.
Ça n'a aucun sens.

Il s'agit donc d'une attaque claire contre Zwiebelfreunde qui, depuis des années, promeut et facilite l'utilisation d'outils de protection de la vie privée, comme ceux du projet Tor. Elle œuvre à collecter des fonds pour ces projets, Riseup dans le cas présent.
L'argent recueilli par Zwiebelfreunde sert notamment à développer les outils et services fournis par Riseup, à rembourser des frais de déplacement et à maintenir l'infrastructure Tor de Riseup.

Des perquisitions ont également eu lieu au siège de l'association, se trouvant être le bureau d'un avocat, ainsi qu'au domicile d'un ancien dirigeant.
On peine à comprendre un tel déploiement policier et une telle intrusion dans la vie privée de personnes considérées comme « témoins ».

Ne se contentant pas de ces descentes, la police a d'elle-même choisi d'étendre ses recherches au hackerspace d'Augsbourg, OpenLab2. Interprétant le contenu d'un tableau blanc comme décrivant l'élaboration d'une bombe (sic), trois personnes présentes au hackerspace ont été arrêtées et une fouille du local s'en est suivie.
La police a saisi du matériel et forcé les cadenas des armoires du lieu contenant des informations personnelles sur les membres du hackerspace. Il ne fait aucun doute que ces données ont été copiées par la police.
L'accusation de « préparation d'un attentat à l'aide d'explosifs » semble tout aussi ridicule que le motif de « témoin » invoqué dans le cas des dirigeants de Zwiebelfreunde.

Tout comme ces derniers mois avec Bure3, la police allemande semble faire peu de cas des libertés individuelles au profit d'une répression féroce contre les mouvements sociaux et toutes les personnes et organisations pouvant les soutenir, ou fournir une infrastructure indépendante leur permettant de s'organiser.

Cette tendance est inquiétante et elle montre qu'il est plus que jamais important de soutenir les initiatives fournissant des outils et services informatiques permettant de s'organiser en autonomie. Nous pensons notamment à Riseup, Tor, Tails, Nos Oignons mais également à Mastodon, Funkwhale, Peertube, Pixelfed et toute cette vague d'outils décentralisés et fédérés qui ne manqueront pas d'être les prochains à être inquiétés par la police, que ça soit par incompétence ou malice.




Vous avez encore quelques heures pour soutenir le développement de PeerTube, le réseau de streaming vidéo génial et non-centralisé de nos amis de chez Framasoft.

Vous pouvez aussi revoir la vidéo de Lunar, membre du projet Tor et de La Quadrature du Net, qui nous explique pourquoi utiliser Tor.

]]>
Tribune de Taziden, membre de La Quadrature du Net

Le 20 juin, des perquisitions ont été menées1 chez plusieurs dirigeants de l'association allemande « Zwiebelfreunde ». Tous leurs ordinateurs et supports de stockage (disques durs, clés usb) ont été saisis par la police allemande.

Le motif invoqué ? Ces trois personnes seraient des « témoins » dans le cadre d'une enquête en cours sur un blog appelant à des manifestations anti-fascistes à Augsbourg, toujours en Allemagne. La police considère que ce blog appelle à des actions violentes.

Le lien entre ce blog et Zwiebelfreunde ? Il faut s'accrocher. L'adresse e-mail associée au blog est hébergée par l'organisation américaine Riseup. Et Zwiebelfreunde recueille des dons pour le compte de Riseup. On imagine difficilement une saisie du même acabit chez Google si les personnes à l'origine du blog avaient choisi Gmail.
Un peu comme si le local de La Quadrature du Net ainsi que les domiciles de ses dirigeants avaient été perquisitionnés à cause d'un compte créé sur mamot.fr, l'instance Mastodon de l'association.
Ça n'a aucun sens.

Il s'agit donc d'une attaque claire contre Zwiebelfreunde qui, depuis des années, promeut et facilite l'utilisation d'outils de protection de la vie privée, comme ceux du projet Tor. Elle œuvre à collecter des fonds pour ces projets, Riseup dans le cas présent.
L'argent recueilli par Zwiebelfreunde sert notamment à développer les outils et services fournis par Riseup, à rembourser des frais de déplacement et à maintenir l'infrastructure Tor de Riseup.

Des perquisitions ont également eu lieu au siège de l'association, se trouvant être le bureau d'un avocat, ainsi qu'au domicile d'un ancien dirigeant.
On peine à comprendre un tel déploiement policier et une telle intrusion dans la vie privée de personnes considérées comme « témoins ».

Ne se contentant pas de ces descentes, la police a d'elle-même choisi d'étendre ses recherches au hackerspace d'Augsbourg, OpenLab2. Interprétant le contenu d'un tableau blanc comme décrivant l'élaboration d'une bombe (sic), trois personnes présentes au hackerspace ont été arrêtées et une fouille du local s'en est suivie.
La police a saisi du matériel et forcé les cadenas des armoires du lieu contenant des informations personnelles sur les membres du hackerspace. Il ne fait aucun doute que ces données ont été copiées par la police.
L'accusation de « préparation d'un attentat à l'aide d'explosifs » semble tout aussi ridicule que le motif de « témoin » invoqué dans le cas des dirigeants de Zwiebelfreunde.

Tout comme ces derniers mois avec Bure3, la police allemande semble faire peu de cas des libertés individuelles au profit d'une répression féroce contre les mouvements sociaux et toutes les personnes et organisations pouvant les soutenir, ou fournir une infrastructure indépendante leur permettant de s'organiser.

Cette tendance est inquiétante et elle montre qu'il est plus que jamais important de soutenir les initiatives fournissant des outils et services informatiques permettant de s'organiser en autonomie. Nous pensons notamment à Riseup, Tor, Tails, Nos Oignons mais également à Mastodon, Funkwhale, Peertube, Pixelfed et toute cette vague d'outils décentralisés et fédérés qui ne manqueront pas d'être les prochains à être inquiétés par la police, que ça soit par incompétence ou malice.




Vous avez encore quelques heures pour soutenir le développement de PeerTube, le réseau de streaming vidéo génial et non-centralisé de nos amis de chez Framasoft.

Vous pouvez aussi revoir la vidéo de Lunar, membre du projet Tor et de La Quadrature du Net, qui nous explique pourquoi utiliser Tor.

]]>
La Smart City policière se répand comme traînée de poudre10581 at https://www.laquadrature.nethttp://streisand.me.thican.net/laquadrature.net/index.php?20180705_104142_La_Sm