Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Le Parlement européen s’opposera-t-il à la censure sécuritaire ?

Mon, 10 Dec 2018 14:26:01 +0000 - (source)

Le 12 décembre, le Parlement européen votera le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ». S’il est adopté, ce texte, sans avoir l’effet d’une loi, recommandera l’adoption de mesures prévues dans le règlement de censure antiterroriste : la sous-traitance de la censure aux géants de l’Internet et le contournement des juges nationaux (lire notre dernière analyse).

La Quadrature du Net envoie aux députés du Parlement européen le message suivant, leur demandant de voter le rejet de ce rapport :

Chers députés du Parlement européen,

Le mercredi 12 décembre prochain, vous voterez le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ».

Ces recommandations prônent des mesures sécuritaires absurdes qui porteraient atteinte aux libertés fondamentales. De manière plus précise, ce rapport prône l’adoption des mêmes mesures que celles prévues dans le règlement de censure antiterroriste, qui sera débattu dans quelques semaines au Parlement : la remise en cause du chiffrement de bout en bout, la délégation de la censure aux géants de l’Internet et le pouvoir donné aux polices européennes de contourner les juges nationaux (points BD, BH, 47, 113 et 125). Pour l’ensemble de ces raisons, nous vous demandons de voter le rejet de ce rapport.

Utilisant le prétexte de la lutte contre la radicalisation en ligne, ces mesures suggérées par le rapport et inscrites dans le règlement de censure antiterroriste imposeront de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.

Alors que la Commission européenne et les gouvernements européens ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.

Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.

Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.

Quant aux acteurs associatifs et collaboratifs à but non lucratif, ils n’auront d’autres choix que de cesser leurs activités.

Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie (lire notre dernière analyse).

Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information.

Pour l’ensemble de ces raisons, La Quadrature du Net, avec 58 autres acteurs de cet écosystème et défenseurs des libertés fondamentales, avons déjà demandé à Emmanuel Macron de renoncer à son projet de règlement de censure antiterroriste.

Nous vous demandons donc de rejeter ce rapport pour mettre dès maintenant un frein à cette volonté absurde de déléguer la censure de l’Internet aux géants du Web et de permettre à toutes les polices de l’Union européenne de contourner les juges nationaux.

Les parlementaires qui refuseront de protéger les libertés fondamentales et l’écosystème numérique européen seront affichés publiquement.


Not Safe For (sex)Work

Mon, 10 Dec 2018 12:32:07 +0000 - (source)

Tribune de okhin

Les dirigeants de Tumblr ont publié le 3 Décembre 2018 un communiqué de presse annonçant une mise à jour de leurs conditions générales d’utilisation, signifiant qu’ils retirent tout contenu classifié comme adulte. Ils justifient leur décision par la décision unilatérale et sans appel d’Apple de supprimer l’application de leur AppStore. Décision motivée par le fait que Tumblr n’ait pas réussi à détecter des images de pédopornographie, en dépit des filtres automatisés déjà existant.

J’ai voulu rédiger quelque chose de construit, essayant de donner le contexte dans lequel cette suppression de contenu s’opère, hors de tout cadre légal (autre que celui des conditions générales d’utilisation d’Apple). J’ai voulu essayer de donner des arguments, de faire les liens entre sexualité, pornographie et identité de genre, mais au final ce n’est pas ce qui est important. Et énormément de monde — y compris sur Tumblr — a déjà écrit à ce sujet, et bien mieux que je ne pourrais le faire ici. Je vous invite d’ailleurs à aller lire ce que les premières concernées en disent comme, par exemple, cette Lettre d’amour à Tumblr écrite par Vex.

Voilà Tumblr qui supprime le contenu qui a fait son intérêt, sa spécificité, détruisant le travail fait par de nombreuses personnes minorisées, que ce soit par racisme, homophobie, misogynie, transphobie et/ou un mélange de tout cela. Ce travail permet à ces communautés d’exister, de vivre, de s’éduquer et d’échanger dans un cadre dans lequel elles ne sont pas mises en danger (notamment grâce au pseudonymat et au multi compte). Il permet aussi à de nombreuses personnes de travailler, qu’il s’agisse d’acteurs ou d’actrices cherchant à faire ce qu’elles ont envie hors des gros studios de porno hétéronormés, d’escort ou d’autres formes de travail sexuel. Il permet enfin de parler de sexualité, de permettre aux personnes en questionnement de se poser ces questions, d’essayer de comprendre comment se positionner dans ce monde, d’explorer leur corps, leur sexualité ou de poser des questions pratiques. Ou juste de se faire des amies qui partagent un bout de leurs galères quotidiennes… face à tout ce que Tumblr s’apprête à détruire, je me suis naïvement dit que cela ferait réagir, que le débat irait plus loin que la seule question du porno.

Mais la plupart des sites d’informations, quand ils en parlent, ne parlent pas de sexualité. Ou de travail sexuel. Le porno y est indiqué comme étant scanné pour lutter contre la pédopornographie. Reprenant donc les arguments de Christine Albanel en 2005, lors des débats HADOPI, ou ceux des associations familiales catholiques voulant défendre et protéger les enfants du grand méchant pornographe, celui-ci étant de toutes façons lié au puissant lobby LGBT d’après elles.
Pas de remise en contexte. Pas de liens effectués avec des actions similaires menées par Alphabet, Patreon, Kickstarter ou la plupart des plateformes de financement participatif qui, sous couvert de lutter contre la pornographie, empêchent des actrices de financer des soins dont elles ont besoin et qui n’ont aucun rapport avec leur travail, les mettant ainsi délibérément en danger.

Et quand, avec La Quadrature, on essaye de dire que l’on ne peut pas traiter les plateformes géantes telles que Tumblr de la même manière que les initiatives libres et distribuées, parce qu’elles effectuent de fait une sélection éditoriale et suppriment de l’espace public toute forme d’expression ne correspondant pas à leurs cibles commerciales ou à leur vision puritaine du monde — les deux étant apparemment compatibles, nous ne sommes pas à un paradoxe près — on nous dit que l’on veut abandonner les utilisateur·rice·s de ces plateformes.

Pourtant ce sont ces plateformes qui, non seulement invisibilisent et suppriment de l’espace public ces utilisateur·rice·s que nous « abandonnons », utilisant des systèmes arbitraires et ayant de nombreux faux positifs, tout en empêchant tout recours effectif contre la suppression de contenus, ou en coupant une source de revenus pour certaines activistes queer, féministe ou afroféministes. Ce sont ces plateformes qui nous imposent leur ordre moral hétérosexuel, patriarcal, blanc.
À en lire la presse, c’est juste un problème de filtrage d’Internet.

Et j’en ai marre. Je suis énervé. Je suis énervé de devoir justifier que j’existe, que mes ami·e·s existent, que nous avons le droit d’exister dans l’espace public. Je suis fatigué de devoir encore et toujours expliquer l’effet de réseau rendant socialement impossible la migration vers d’autres plateformes et donc l’importance de pouvoir socialiser sur ces plateformes pour des personnes souvent isolé·e·s dans un milieu hostile. Je suis fatigué que l’obligation de s’identifier, avec une seule identité, correspondant à votre état civil, ne soit pas débattue et que l’on se contente de vouloir distribuer. Je suis fatigué de lire « t’as qu’à aller sur mastodon » ou que c’est juste un effet de bord pour lutter contre la pédophilie, assimilant éducation sexuelle et pédophilie.

Après tout si, pour protéger les enfants, il est acceptable de taper un peu large et de supprimer toute forme de contenu parlant de sexualité, il devrait être acceptable de supprimer tout le contenu d’incitation à la haine raciale, au génocide, à l’appel aux meurtres de femmes et de queers, quitte à ce que tout contenu politique disparaisse ? Au delà du fait qu’il reste à prouver que la suppression de contenu est effectivement une méthode efficace de lutte contre la pédocriminalité organisée, ou du fait qu’on ne parle que des enfants victimes de ces crimes, et non de n’importe quelle personne victimes de violence sexuelle, s’il est acceptable de supprimer automatiquement tout contenu adulte pour lutter contre la pédophilie, alors il est acceptable de supprimer tout contenu politique pour lutter contre la haine de l’autre, non ?

C’est d’ailleurs ce qui se produit sur de nombreuses plateformes. Les comptes de personnes minorisées et militantes sont régulièrement fermés alors qu’elles sont victimes de harcèlement, les auteurs de ces harcèlement profitant d’une impunité de fait fournie par ces plateformes. Ces plateformes qui s’excusent régulièrement, promis, la prochaine fois, elles feront tout pour que leur communauté puisse s’exprimer sereinement. Quitte à récupérer sans aucune gène les luttes de ces personnes afin de se donner une image cool, respectable. Alphabet qui empêche les queers de monétiser leur contenu mais qui, dans le même temps, lors des marches des fiertés, affiche son soutien à la communauté LGBT en est l’exemple parfait.

Suppressions justifiées, une fois encore, non pas par des décisions de justice, mais par un principe de précaution. Suppressions effectuées en amont, par des filtres à l’upload, donnant à ces plateformes un rôle éditorial. Suppressions effectuées par des machines, entraînées à distinguer les tétons d’apparence féminine des autres. Suppressions qui, inévitablement, amènent à la disparition du corps des femmes de l’espace public. Suppressions qui, à cause des biais sexistes et racistes, se fera en utilisant une référence définissant ce qu’est une femme, ce qui est une représentation acceptable d’une femme en ligne, effaçant encore et toujours les femmes non blanches, ou ne correspondant pas au canon établi par ces filtres pseudo-intelligents.

On entend beaucoup de gens dire qu’il est inacceptable de supprimer du contenu incitant à la haine, du contenu posté par des personnes se définissant elles-mêmes comme des nazis. Je suis d’accord, parce que supprimer ce contenu est une tâche complexe, nécessitant entre autre des mises en contexte rigoureuses de propos tenus. C’est un travail nécessitant aussi une part d’archivage, et encore une fois, il n’est pas prouvé que la suppression du contenu seul ait un effet quelconque sur la diffusion des idées.

Les néo nazis, les réacs, les pro-BREXIT ou la Manif Pour Tous ont le droit aussi d’exister en ligne. Oui. Absolument. Notamment parce que cela facilite le travail de la police et de la justice. Mais ce que font les GAFAMs et les principaux sites de médias en ligne, n’est pas assimilable au simple fait d’exister. Ce que font les GAFAMs, c’est choisir quels contenus sont mis en avant, permettant même à chaque personne de les sponsoriser pour les diffuser vers un plus grand nombre de personnes. Ce que font les GAFAMs, ce n’est pas vivre et laisser vivre. C’est s’assurer que certains contenus soient vus par le plus grand nombre. C’est s’assurer que certains contenus ne soient jamais vus par personne. Ces entreprises, qui récupèrent petit à petit le contrôle sur l’ensemble des infrastructures, des contenus, des standards de communication, qui n’ont aucune légitimité pour décider du contenu qui a le droit d’exister, n’ont pas un simple rôle passif d’hébergement, mais un rôle actif d’éditorialisation du contenu.

Ces décisions de supprimer tel ou tel contenu, de classifier, d’empêcher certaines personnes de financer leurs projets ou de gagner un peu mieux leur vie, ces décisions sont politiques. Elles définissent le discours acceptable, elles définissent la seule culture devant exister, leur positions hégémonique empêchant toute existence hors de leur sphère d’influence. Ces décisions politiques doivent être considérées comme telles, et ces entreprises doivent etre responsables de leurs décisions, de même qu’un journal, et non ses auteurs individuels, est responsable du contenu qu’il publie.

Donc je suis énervé. Pas tellement contre Tumblr ou Apple au final, ils ne sont que le reflet de notre société. J’entends des « Apple protège ma vie privée ». Mais uniquement si vous ne parlez pas de cul, de sexualité, que vous ne travaillez pas autour de le sexualité, que vous n’êtes pas queer. Parce qu’à ce moment-là, vous n’existez plus.

Je vais donc le dire, encore une fois : le problème ce n’est pas le filtrage automatisé. Le problème ce n’est pas qu’aucun juge ne prenne plus de décisions, permettant au moins de contextualiser le contenu. Le problème c’est de considérer l’invisibilisation des minorités sexuelles, des femmes, des noirs, des musulmans, etc … du simple point de vue du filtrage et de la responsabilité des plateformes sans remettre tout cela dans un contexte politique.

Du coup, que faire ? est-ce qu’on a des choses à proposer ? En l’état des choses, pas vraiment. La solution de la distribution est un premier pas, mais ne résout pas le problème sous-jacent de la gestion d’un espace public commun. Au lieu de déléguer le pouvoir à une entreprise multinationale, on le délègue à une communauté de personnes. Effectivement, n’importe qui peut monter un service ActivityPub, mais tout le monde ne le fait pas. Et est-ce que vous pouvez vraiment faire confiance à des « amis » sur le fait qu’ils résisteront à toute forme de pression policière ? La réponse est non, même si ils sont les mieux intentionnés. Au mieux, ils suspendront le service, vous forçant à trouver une autre plateforme et recommençant encore une fois le même cycle.

D’autant qu’avoir un nom de domaine identifié, public, connoté, associé à une activité peut poser plus de problèmes qu’aller sur facebook et peut, dans malheureusement trop d’endroits, avoir des conséquences très concrètes sur notre sécurité. Et la plupart des alternatives nécessitent en plus une identification forte. Prenons le cas de Signal par exemple. Si je ne veux pas que quelqu’un puisse me joindre au-delà d’une conversation, je suis obligé de changer de numéro de téléphone. Et donc de devoir prévenir tous mes contacts avec qui je veux maintenir un contact que j’ai changé de numéro de téléphone.

Il n’y a pas, à ce jour, de plateformes logicielles et grand public permettant à des enfants, adolescents, jeunes adultes et adultes de se questionner sur leur orientation sexuelle sans être immédiatement détectés soit par leur FAI, soit par l’hébergeur de l’application — et donc Amazon, étant donné qu’une part de plus en plus grande d’applications et de systèmes de communications est hébergée chez eux. Il n’existe aucune plateforme ne nécessitant pas de compte ou d’informations pouvant identifier l’utilisateur·ice, aucune plateforme permettant d’effectuer des transactions bancaires entre deux personnes sans intermédiaire technique ou sans révéler l’identité des deux parties, il n’existe pas non plus d’applications sur lesquelles on peut envoyer des photos de nus et garantir que l’image ne soit pas facilement republiable en ligne.

Il y a du travail dans cette direction, mais on en est au stade de la recherche, encore loin d’avoir quelque chose de fonctionnel. Des applications telles que Briar, ou Cwtch, vont dans la bonne direction à mon sens, mais j’aimerais que les personnes qui développent les futures infrastructures de communications qui remplaceront les GAFAMs quand on aura fini par les mettre à terre, se posent la question de pouvoir répondre aux problèmes auxquels nous, membres de minorités, faisont face quotidiennement pour avoir simplement eu l’outrecuidance d’exister.


Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook1Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique., livrons-nous à un peu de politique-fiction : comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ?

C’est un texte dont personne ne parle ou presque, et il est pourtant fondamental pour l’avenir des libertés publiques à l’échelle de l’Europe entière. Présenté au mois de septembre, il s’agit du règlement européen dédié à « la prévention de la diffusion de contenus à caractère terroriste en ligne ».

L’article 4 du règlement permet aux autorités publiques de demander directement à n’importe quel hébergeur le retrait d’un contenu relevant de l’apologie du terrorisme. En pratique, cela entérine la situation qui prévaut dans tous les pays réprimant l’apologie ou la provocation au terrorisme. Ainsi en France, depuis 2015, le ministère de l’Intérieur est compétent pour censurer la provocation ou l’apologie du terrorisme sur Internet (si l’hébergeur n’empêche pas l’accès au contenu visé sous 24 heures, alors le blocage de l’ensemble du site peut être mis en place par les fournisseurs d’accès à Internet français). Le tout sans aucun contrôle judiciaire préalable, dans le cadre d’une procédure secrète. Ainsi, en 2015, la France est devenue (devant l’Inde et la Turquie) le pays qui a obtenu le plus grand nombre de suppressions de pages Facebook (38 000 suppressions en un an, pendant que l’Allemagne ou Israël n’en obtenaient que 500).

Là où le règlement européen « innove » radicalement, c’est qu’il impose qu’un tel retrait par les hébergeurs intervienne en un délai record de une heure, sous peine de sanctions financières. Il prévoit aussi de passer par une voie encore plus discrète pour censurer ces contenus : les « mesures proactives », ces outils de censure automatique déjà développés par les grandes plateformes comme Facebook ou YouTube et qui pourront être paramétrés en concertation avec les autorités (article 6 du règlement). Comme nous l’avons déjà expliqué (lire notre analyse plus complète), le futur règlement européen prévoit de généraliser ces outils à l’ensemble des acteurs du Web (non seulement Facebook et YouTube mais aussi OVH, Gandi, NextCloud, Mastodon, etc.), voire même aux outils de messagerie (WhatsApp, Signal, Télégram, Protonmail, etc.)2Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
. Concrètement, tous les acteurs du numérique devront développer des « mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ».

Mais du coup, c’est quoi, un « contenu à caractère terroriste » ?

L’article 2 du règlement explique que les contenus auxquels le texte s’appliquera sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.

La liste est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.

Bref, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.

Maintenant que le cadre est posé, commençons la politique-fiction. Parmi les contenus susceptibles d’être publiés sur Internet par des gilets jaunes, quels sont ceux qui pourraient être considérés comme relevant du « terrorisme » (selon les très larges définitions européennes) par Facebook et Google (soumis à la menace de sanctions en cas d’échec) ou par la police ? Par exemple :

  • un appel à manifester sur les Champs-Élysées, alors que le rassemblement précédent a conduit à d’importantes détériorations matérielles et enfonce le gouvernement dans une crise politique ;
  • une vidéo qui, prise depuis le balcon d’en face, filmerait la destruction d’une banque ou d’un fast-food, accompagnée d’un commentaire audio du spectateur surpris, du type « ahahah, c’est bien fait pour eux » ;
  • une vidéo d’altercations agressives entre manifestants et CRS au prétexte qu’elle serait diffusée par une personne se réjouissant que les autorités publiques soient ainsi remises en cause ;
  • un texte menaçant le gouvernement de blocage généralisé de l’économie ou de grève générale ;
  • une invective orale du type « si Macron ne démissionne pas, on va venir mettre le feu à l’Élysée » ;
  • un communiqué justifiant le fait d’avoir détruit un véhicule de police ;
  • etc.

En appliquant le droit à la lettre, on pourrait se demander lequel de ces contenus ne devrait pas être censuré automatiquement par les plateformes du Web une fois que le règlement anti-terroriste sera entré en application. De même, en théorie, ces contenus pourraient être censurés sur simple demande de la police.

Même si, pour l’heure, il s’agit encore de politique-fiction, le droit actuel en France va déjà en ce sens, comme l’illustre le type de discours qui ont pu passer pour de l’« apologie du terrorisme » ces dernières années. Par exemple, des peines de prison ferme pour des provocations lancées par certain·es au sujet des attentats de janvier 2015, ou l’injonction faite par le gouvernement fin 2016 à deux sites participatifs pour qu’ils censurent un article revendiquant l’incendie d’un hangar de gendarmerie commis en solidarité avec des personnes poursuivies en justice dans le cadre des manifestations contre la loi travail.

Censure privée, censure totale

Une censure de tels contenus pourrait donc intervenir de deux manières. C’est en quelque sorte « ceinture et bretelles » : quand les « mesures proactives » prises par un réseau social comme Facebook n’auront pas suffi à bloquer les contenus visés, la police pourra prendre le relais, pouvant exiger des services défaillants la suppression d’un contenu dans un délai d’une heure. Tout cela sans l’autorisation préalable d’un juge. Les acteurs concernés s’exposeront à des sanctions s’ils échouent trop souvent à censurer dans le délai d’une heure (article 18).

Bref, pour éviter d’avoir à répondre toute la journée aux demandes des polices des 28 États membres de l’Union européenne, et de subir des sanctions en cas d’échecs à y répondre dans l’heure, les services Web auront franchement intérêt à détecter à l’avance et le plus strictement possible tout ce qui ressemblera de près ou de loin à un « contenu à caractère terroriste », défini de façon extrêmement large.

Or, il est clair que les outils mis au point par Facebook et Google s’imposeront à l’ensemble du Web, même en dehors de leur plateforme, où certains pourraient chercher refuge. De ce que nous ont clairement expliqué des gens du gouvernement (revoir notre compte-rendu) et de ce qui apparaît dès 2017 dans les publications de la Commission européenne3Dès juin 2017, la Commission européenne
se félicite publiquement
d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.
, l’objectif de ce texte est au final d’imposer les filtres automatiques mis au point par les grosses plateformes à tous les acteurs du Web, petits ou grands, européens ou non. Ces derniers devront automatiquement respecter une large « liste noire » de contenus considérés comme illicites par les prétendues intelligences artificielles de Facebook et Google, qui décideront seuls et selon leurs propres critères s’il est autorisé ou non d’appeler à tel mouvement ou d’applaudir telle action contestataire.

Soyons clairs : notre analyse ne cherche pas à savoir quels propos devraient ou non être tenus en ligne, ni quelles revendications seraient ou non légitimes. Notre question est de savoir si nous acceptons de déléguer à la police et à une poignée d’entreprises privées hégémoniques, qui ne sont soumises à aucun contrôle démocratique, le rôle de juger nos actes et nos opinions, et de modeler le débat public en conséquence. Nous répondons résolument que non : seul un juge, indépendant des pouvoirs politiques et économiques, doit pouvoir censurer les propos qui, d’après des lois adoptées en bonne et due forme, seraient susceptibles de nuire de manière disproportionnée à autrui.

C’est tout l’inverse que propose Macron, principal promoteur du futur règlement européen : en cédant les pouvoirs de l’État aux géants du Web, il s’imagine pouvoir échapper à toute responsabilité politique en cas de censure abusive et massive du Web.

Ce règlement européen est une loi de censure que les gouvernements français et allemands souhaitent faire adopter d’ici aux prochaines élections européennes, en mai. Ils ont déjà réussi à faire accepter hier leur projet aux autres gouvernements européens, à une vitesse jamais vue au sein de l’Union européenne. Les eurodéputés et toutes celles et ceux qui entendent se présenter aux prochaines élections européennes doivent faire connaitre leur opposition à ce texte scélérat.

Nos autres articles sur le sujet :

References   [ + ]

1. Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique.
2. Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
3. Dès juin 2017, la Commission européenne
se félicite publiquement
d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.

Pour le juriste Lionel Maurel, l’approche individualiste de la protection des données personnelles ne permet pas d’appréhender la dimension sociale qu’exploitent les grandes plateformes du Net. Il appelle à la mise en place d’un droit à la migration collective.

En 1978, la loi informatique et libertés introduisait dans le droit français la notion de « donnée à caractère personnel ». Quarante ans plus tard, l’entrée en application, en mai dernier, du règlement général sur la protection des données (RGPD) a marqué un renforcement des droits des citoyens européens en la matière. Mais nos données dites « personnelles » le sont-elles vraiment, surtout à l’ère du numérique ubiquitaire, des réseaux sociaux, de la puissance d’une poignée de grandes plateformes centralisées qui structurent largement nos vies en ligne ? A tout le moins, il est grand temps de les envisager aussi comme des données « sociales » et de trouver les instruments pour les défendre en tant que telles, répond le juriste Lionel Maurel, membre de l’association de défense des libertés la Quadrature du Net et du comité de prospective de la Commission nationale de l’informatique et des libertés (Cnil). Il intervient ce vendredi à 20 heures [NDLRP, le vendredi 30/11/2018], à la Gaîté lyrique à Paris, lors d’une table ronde au festival Persona non data, dont Libération est partenaire. […]

https://www.liberation.fr/debats/2018/11/29/lionel-maurel-on-doit-pouvoir-quitter-facebook-sans-perdre-les-liens-qu-on-y-a-crees_1695042


Il y a une semaine, nous faisions un point sur les dons récoltés depuis le lancement de notre campagne de soutien.
Pour rappel, pour continuer notre activité l’an prochain, nous avons besoin de 320.000€.
Aujourd’hui nous avons atteint 41% de cette somme, ce qui signifie que nous avons encore besoin de vous. Il est essentiel que toutes celles et ceux qui nous suivent parlent de La Quadrature autour d’eux.

Nous avions placé cette campagne de dons sous le signe des constellations, pour évoquer notre Internet, celui qui est libre, partagé et décentralisé. Nous voulions être positifs et faire rêver. Ironiquement, c’est maintenant qu’un règlement de censure sécuritaire s’abat sur l’Europe et menace notre Internet. Macron et les dirigeants des États de l’Union européenne veulent un Internet bien cadré, facile à surveiller et comptent confier cet encadrement à Google et Facebook, qui ne se priveront pas de confirmer ainsi leur position de monopole.

Se battre pour notre Internet, c’est se battre contre ce règlement liberticide. Pour que La Quadrature continue son combat, faites un don sur laquadrature.net/donner.


Nous n’aurons jamais vu un règlement européen être accepté aussi rapidement par les gouvernements européens (en moins de 3 mois !), et ce malgré les inquiétudes exprimées par divers États1Se sont notamment opposés à la version actuelle du texte la Finlande, la Slovaquie, la République Tchèque, la Pologne, le Danemark. Macron les a manifestement convaincu que, les élections européennes approchant, ils pourraient maintenir leur pouvoir en agitant l’inaltérable prétexte terroriste. En résulte une censure et une surveillance généralisée de l’Internet.

Le Conseil de l’Union européenne vient donc d’acter, à l’instant et sans le moindre débat sérieux, un projet de loi qui obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google2Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
, tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle jugera « terroriste », sans l’autorisation d’un juge.

Deux mesures aussi délirantes qu’inédites, qui conduiront à soumettre tout l’écosystème numérique européen à une poignée de géants que l’Union prétend cyniquement vouloir combattre (lire notre analyse), tout en risquant de remettre en cause la confidentialité de nos correspondances3Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée aujourd’hui par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
… Et tout ça alors que ni la Commission européenne ni les gouvernements n’ont jamais réussi à démontrer en quoi cette loi serait utile pour lutter contre le terrorisme4En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Le rapport conclut que « l’état actuel des preuves sur le lien entre Internet, les médias sociaux et la radicalisation violente est très limité et toujours pas conclusif » et qu’il n’y a « pas de preuves suffisantes pour conclure qu’il existe un lien de causalité entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour empêcher la radicalisation des jeunes sur les aspects Internet n’ont pas prouvé leur efficacité mais, d’autre part, peuvent clairement nuire aux libertés en ligne, particulièrement la liberté d’expression » (notre traduction de l’anglais)..

Le débat sur ce texte se poursuivra maintenant devant le Parlement européen. Celui-ci votera mercredi prochain, le 12 décembre, un premier « rapport sur la lutte anti-terroriste » qui, sans avoir l’effet d’une loi, promeut peu ou prou les mêmes mesures absurdes que celles prévues dans le « règlement de censure anti-terroriste », que le Parlement examinera dans les semaines suivantes.

Ce premier vote de mercredi sera l’occasion pour chaque député européen de révéler sa position face au projet totalitaire d’Emmanuel Macron, et ils devront en rendre compte alors que s’amorce la campagne électorale pour les élections européennes de 2019.

References   [ + ]

1. Se sont notamment opposés à la version actuelle du texte la Finlande, la Slovaquie, la République Tchèque, la Pologne, le Danemark
2. Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
3. Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée aujourd’hui par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
4. En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Le rapport conclut que « l’état actuel des preuves sur le lien entre Internet, les médias sociaux et la radicalisation violente est très limité et toujours pas conclusif » et qu’il n’y a « pas de preuves suffisantes pour conclure qu’il existe un lien de causalité entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour empêcher la radicalisation des jeunes sur les aspects Internet n’ont pas prouvé leur efficacité mais, d’autre part, peuvent clairement nuire aux libertés en ligne, particulièrement la liberté d’expression » (notre traduction de l’anglais).

Sept associations ont saisi les autorités de protection des données pour dénoncer les pratiques de Google en matière de géolocalisation. Elles se basent sur une enquête norvégienne pointant les stratagèmes de l’entreprise pour forcer l’activation de cette option.

Google s’attendait-il à ce que le Règlement général sur la protection des données personnelles entraîne une telle activité contre lui ? Depuis le 25 mai, de nombreux fronts ont été ouverts : on compte deux actions collectives (l’une de La Quadrature du Net, l’autre de NOYB), mais aussi une initiative de l’UFC-Que Choisir dénonçant les stratagèmes de manipulation de l’internaute.

À cette liste, non-exhaustive, il faut ajouter une action coordonnée de sept associations de consommateurs du Vieux Continent qui, chacune dans leur pays, alertent leur autorité de protection des données. Ces signalements ont lieu en Grèce, en Norvège, aux Pays-Bas, en Pologne, en République tchèque, en Slovénie et en Suède. Elles dénoncent les pratiques de Google en matière de localisation des utilisateurs. […]

https://www.numerama.com/politique/443725-geolocalisation-7-associations-se-dressent-contre-google-et-ses-pratiques-deloyales.html


Méconnus en France, les géants du web chinois, Baidu, Alibaba, Tencent, Xiaomu (les « BATX ») inquiètent. Comment appréhender l’arrivée de tels mastodontes numériques en Europe ? Leurs pratiques sont-elles plus problématiques que celles de Google, Apple, Facebook et Amazon (les « GAFA ») ? […]

Les Baidu, Tencent, Alibaba et autres Xiaomi restent encore peu connus en dehors de leur pays d’origine. Mais que se passera-t-il quand les géants chinois de l’internet s’éveilleront ? Leur proximité (c’est un euphémisme) avec le pouvoir politique a de quoi inquiéter, du point de vue des libertés publiques. Car derrière leur puissance économique, c’est un modèle politique qui est véhiculé par ces entreprises. […]

Intervenants :

  • Julien Nocetti : Chercheur à l’Institut français des relations internationales (IFRI) où il est membre du Centre Russie/NEI et responsable des recherches sur les sujets numériques internationaux
  • Stéphanie Balme : Professeure de la faculté permanent de Sciences Po
  • Benjamin Bayart : Cofondateur de la Quadrature du Net, co-président de la fédération des Fournisseur d’Accès à Internet associatifs (FFDN)

https://www.franceculture.fr/emissions/du-grain-a-moudre/faut-il-avoir-peur-des-gafa-chinois


Police fiscale, surveillance sur la toile… Le trésor public a annoncé la mise en place de nouveaux outils jugés plutôt intrusifs pour en finir avec la fraude et vérifier que vous déclarez bien ce qu’il faut […]

Contactée par la rédaction de Planet, la CNIL a fait parvenir plusieurs éléments de réponse relatifs à ce projet. Elle assure, dans un premier temps, ne pas avoir été saisie. Elle explique aussi que le « fait que les données soient accessibles publiquement ne leur ôte pas leur caractère de données personnelles et l’exigence de protection de la vie privée qui s’applique« . Dans un deuxième temps, la commission s’inquiète : « La lutte contre la fraude constitue en soi un objectif légitime, mais un projet de ce type soulève, par nature, d’importantes questions de proportionnalité compte tenu de son caractère intrusif dans la vie privée des personnes et du caractère potentiellement massif de la collecte.« 

Car la surveillance généralisée, c’est bien ce qui inquiète plusieurs spécialistes du web et des libertés individuelles, à l’instar d’Alexis Fitzjean, avocat spécialisé du numérique et membre de l’association La Quadrature du Net. « En 2015, lorsque la loi sur le renseignement a été votée, on nous a agité le spectre du terrorisme et de la pédopornographie pour justifier la surveillance de masse. Aujourd’hui, avec cette future expérimentation, l’Etat semble glisser de l’excuse de la menace terroriste à celle du problème de la fraude fiscale. La question se pose en terme de légitimité« , confie-t-il. […]

https://www.planet.fr/societe-surveillance-du-fisc-sur-les-reseaux-sociaux-est-ce-vraiment-legal.1670096.29336.html


58 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.

Les gouvernements européens se réuniront le 6 décembre pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook (relire notre analyse) et à remettre en cause la confidentialité de nos communications (relire notre analyse).

Mise à jour (4 décembre) : notre lettre commune est toujours ouverte à signature par des organisations (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre censure » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !

La lettre en PDF ou ci-dessous :

Monsieur le Président,

Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.

Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.

Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.

Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.

Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.

Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.

Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.

Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.

Signataires :

Mise à jour du 6 décembre, passant les signataires de 44 à 58


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles