Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 4 avril 2025La Quadrature du Net

QSPTAG #320 — 4 avril 2025

Par : robinson
4 avril 2025 à 12:31

Lire sur le site

La loi « Narcotrafic » étend le domaine du flicage numérique

Le 11 mars dernier, on publiait un article avec un zeste de réjouissance dans un grand seau de prudence : la commission des Lois de l’Assemblée nationale avait supprimé la plupart des articles les plus liberticides de la loi « Narcotrafic ». Cette réaction des député·es ne venait pas de nulle part, vous avez agi en nombre pour les interpeller — bravo et merci ! Mais si des mesures désastreuses avaient sauté en commission, (on pense en particulier à la menace qui pesait sur le chiffrement des messageries), d’autres mesures étaient malheureusement restées, et on s’attendait à ce que les pires reviennent par amendements du gouvernement au moment de la discussion dans l’Hémicycle. Badaboum, ça n’a pas raté.

Le gouvernement, représenté par le ministre de l’Intérieur Retailleau et soutenu par quelques députés de la droite et de l’extrême-droite, a de nouveau défendu l’idée d’une « backdoor » pour la police et le renseignement dans les messagerie chiffrées, en camouflant cette rupture du chiffrement sous des appellations alambiquées (un « utilisateur fantôme » qui s’inviterait dans les conversations, par exemple). Heureusement, les député·es ne se sont pas laissé avoir, pour le plus grand dépit des défenseurs de la mesure qui ont même dénoncé un « concours des geeks ». La compromission du chiffrement a été rejetée.

Mais il reste le reste. L’activation à distance des appareils numériques (micros et caméras) pour les transformer en mouchards : adoptée. Extension du périmètre des « boîtes noires » de renseignement qui analysent le réseau pour trouver les comportements « suspects » : adoptée. La création d’un « dossier coffre », c’est-à-dire que les procès-verbaux d’instruction ne décriront plus les méthodes de surveillance utilisées : adoptée. Les personnes visées par la définition large et mouvante de la « criminalité en bande organisée » pourront donc être surveillées par tous les moyens et ne pourront plus contester la légalité de ces moyens devant le tribunal (lieux de vie « sonorisés », etc.). La main sur le cœur, en jurant de s’attaquer aux « narcotrafiquants », les parlementaires ont validé des mesures qui pourront être utilisées contre des militants politiques, des activistes écologiques, des opposants à l’industrie polluante et aux autoroutes inutiles, des syndicalistes qui préparent une manifestation ou une occupation d’usine. Et ce faisant, ils ont réduit les droits politiques de tout le monde.

Comme le texte voté par l’Assemblée nationale n’est pas identique à celui que le Sénat avait adopté, il y aura une commission mixte paritaire (CMP) dans le courant du mois d’avril et un nouveau vote dans les deux chambres à la fin du mois. On suit ça de près et on vous tient au courant !

La page de la campagne : Contre la loi surveillance et narcotraficotage
Article du 11 mars : Loi « Narcotraficotage » : la mobilisation paye alors ne lâchons rien
Article du 18 mars : Le gouvernement prêt à tout pour casser le droit au chiffrement

Loi «Transports » et prolongement de la VSA

Le 18 mars dernier, avant de commencer l’examen de la loi « Narcotrafic », l’Assemblée nationale a voté la loi « Transports ». Quel rapport ? Encore des mesures de surveillance numérique. Cette loi sur « la sécurité dans les transports » a donc été le véhicule choisi par le gouvernement pour prolonger l’expérimentation de la vidéosurveillance algorithmique (VSA) qui avait été mise en place à l’occasion de la loi «Jeux Olympiques ». Autorisée au départ jusqu’à mars 2025, cette expérimentation aux résultats pourtant très décevants est donc prolongée de deux ans, jusqu’en mars 2027, au mépris du processus d’évaluation pourtant défini un an avant par la même Assemblée. Ce passage en force n’est malheureusement qu’un signe supplémentaire du mépris de l’exécutif pour les institutions et tout ce qui le gêne. Un article sombre et énervé à lire sur notre site.

Article du 17 mars : Prolongement de la VSA : la petite danse autoritaire du gouvernement

Data centers partout, réflexion nulle part

Quand on pense à l’intelligence artificielle, on n’imagine pas d’abord les bétonnières, les pylônes électriques et les rivières à sec. C’est pourtant un aspect non négligeable de la course mondiale aux serveurs et aux centres de données géants. Lors du Sommet de Paris sur l’IA en février dernier, Emmanuel Macron a mis en avant l’électricité nucléaire française, moins chère et moins carbonée, et invité les opérateurs étrangers à venir en profiter, son « Plug, baby, plug » répondant au « Drill, baby, drill » lancé par Donal Trump en direction des compagnies pétrolières.

Après les annonces en grand pompe, il faut tenir ses promesses. La « loi pour la simplification économique », en discussion à l’Assemblée après son adoption par le Sénat, est justement là pour lever un certain nombre de contraintes réglementaires, administratives et fiscales et faciliter la vie des investisseurs et des industriels. L’article 15 concerne précisément la construction des centres de données géants : l’État prendrait la main sur les pouvoirs locaux pour imposer ces grands chantiers, y compris au mépris des règles environnementales.

Dans le cadre de notre travail sur l’IA et de la coalition Hiatus pour résister à l’IA et son monde, nous appelons donc à la mobilisation contre cette loi et son article, et nous demandons un moratoire de deux ans sur la construction de centre de données géants, le temps de discuter de leur encadrement. Contre la fuite en avant techno-n’importe quoi, contre la course économique des poulets sans tête, exigeons un débat démocratique sur les besoins et les moyens de notre développement collectif.

Article du 21 mars : Loi « simplification » : un déni de démocratie pour mieux imposer les data centers
Page de campagne pour peser sur le vote des : Mobilisation pour un moratoire sur les gros data centers !

Le Conseil d’État donne une leçon de censure

Oui, le blocage de TikTok en Nouvelle-Calédonie en mai 2024 était illégal. On le disait déjà, et c’est le Conseil d’État qui le confirme dans sa décision du 1er avril. Malheureusement, la décision est aussi très inquiétante. Car si le blocage est jugé disproportionné, le principe de couper un réseau est, en tant que tel, validé. Dans sa décision, le Conseil d’État explique ce que le gouvernement aurait dû faire pour justifier le blocage de l’application et donne par là un mode d’emploi très simple à tous les gouvernements, présents ou à venir, qui voudraient s’en prendre à la liberté d’expression. Qui pourra se plaindre quand un gouvernement RN fera ce qu’il voudra en brandissant la décision du CE ?

Si vous avez l’intention de prendre le pouvoir, d’invoquer des circonstances exceptionnelles et de censurer des services numériques, ne vous lancez pas dans le vide : lisez d’abord notre article, on vous explique le raisonnement du Conseil (pour la censure) d’État.

Article du 2 avril : Blocage de Tiktok en Nouvelle-Calédonie : le Conseil d’État se dérobe en faveur de l’arbitraire

Campagne de soutien 2025

Notre campagne de soutien pour 2025 est toujours ouverte ! Nous avons récolté environ 50% de notre objectif pour l’année. En prenant en compte les dons mensuels, on arrive environ à 80% de l’objectif. Aidez-nous à boucler le budget 2025 ! Vous pouvez nous faire un don sur notre site.

Agenda

La Quadrature dans les médias

Loi Narcotrafic

TikTok

VSA et loi Transports

IA et data centers

Divers

Blocage de Tiktok en Nouvelle-Calédonie : le Conseil d’État se dérobe en faveur de l’arbitraire

Par : bastien
2 avril 2025 à 10:53

On aurait préféré que ce soit un poisson d’avril : dans une décision rendue ce 1er avril 2025, le Conseil d’État a validé le principe de la censure arbitraire et opaque d’un réseau social. Derrière l’apparente annulation de la décision du Premier ministre de l’époque, Gabriel Attal, de bloquer Tiktok, la plus haute juridiction française offre en réalité le mode d’emploi de la « bonne censure ». Cette décision est inquiétante, tant cette affaire aura montré l’inefficacité du Conseil d’État à être un rempart efficace contre le fascisme montant.

Le 15 mai 2024, alors que la Nouvelle-Calédonie était le théâtre d’une très forte contestation sociale dans un contexte de passage en force d’une réforme du collège électoral calédonien, le Premier ministre Gabriel Attal annonçait, en même temps que l’activation de l’état d’urgence, la censure de Tiktok sur tout le territoire de Nouvelle-Calédonie.

Comme La Ligue des droits de l’homme, ainsi que des habitant·es calédonien·nes, La Quadrature du Net avait attaqué en référé cette décision. Ce premier recours avait été rejeté dans les jours qui suivirent pour défaut d’urgence, mais nous n’avions pas voulu lâcher l’affaire et avions continué notre combat contre cette mesure de blocage en l’attaquant à nouveau, cette fois par la procédure classique -dite « au fond »- qui a conduit à la décision d’hier.

Formellement, le Conseil d’État a annulé le blocage de Tiktok. Mais derrière cette apparente victoire se cache une décision qui ouvre la voie à de futures censures de plateformes en ligne en dehors de tout contrôle démocratique.

La validation d’un arbitraire d’État

Cette affaire aura été l’occasion de tous les arbitraires. Pour justifier factuellement son blocage, le gouvernement a toujours louvoyé (voir notre récapitulatif de l’affaire), laissant croire que ce serait d’abord pour lutter contre le terrorisme, puis contre des ingérences étrangères, pour enfin expliquer que de simples contenus violents l’autorisaient à procéder à un tel blocage (nous revenons sur ce point plus bas). Par la suite, il justifiait légalement ce blocage en sortant de son chapeau la « théorie des circonstances exceptionnelles ». Cette théorie est une invention du juge administratif datant de plus d’un siècle. Elle a été élaborée à l’occasion d’une guerre – c’est-à-dire dans un contexte de suspension du pouvoir civil – et n’avait jamais été utilisée jusqu’à présent pour justifier de porter atteinte à la liberté d’expression.

Dans sa décision, le Conseil d’État admet que cette « théorie des circonstances exceptionnelles » puisse être invoquée, pour justifier légalement le blocage d’une plateforme en ligne dans le cas d’une « période de troubles à l’ordre public d’une gravité exceptionnelle ». Arrêtons-nous déjà sur cette première brèche à l’État de droit : cela signifie que lorsque cette condition de « trouble » est remplie, un gouvernement peut donc porter des atteintes à la liberté d’expression, alors qu’aucune loi existante ne l’y autorise et donc qu’aucune condition prévue par le législateur n’est à respecter. Cette « théorie des circonstances exceptionnelles » n’a jamais été reprise par le législateur : elle ne comporte aucune limite précise et n’est présente nulle part ailleurs que dans les quelques décisions du Conseil d’État. Ce dernier autorise donc un empiétement pur et simple du pouvoir exécutif sur le pouvoir législatif.

Et quels sont ces « troubles à l’ordre public d’une gravité exceptionnelle » qui permettent de nier le principe de séparation des pouvoirs ? On peut légitimement se demander si les manifestations des gilets jaunes en 2018 et 2019, émaillées de violences souvent entretenues par une politique de maintien de l’ordre désastreuse, auraient pu être qualifiées de suffisamment graves. De même, les révoltes suite à la mort de Nahel Merzouk auraient-elles pu justifier le blocage des réseaux sociaux alors que la droite réactionnaire française voyait dans ces derniers le coupable idéal et que Emmanuel Macron s’était, à cette occasion, prononcé en faveur de leur censure ?

Ne soyons pas naïf·ves : tout est « exceptionnellement grave » pour l’exécutif et la police. Grâce à cette notion floue, la voie à tous les abus est ouverte. N’importe quoi servira de prétexte, demain, pour continuer dans la direction de la censure, de la réponse répressive facile au lieu d’une remise en cause profonde du système qui a conduit aux violences.

Et l’arbitraire d’État ne s’arrête pas là : le Conseil d’État a, d’une certaine manière, autorisé le gouvernement à ne pas respecter la loi lorsque celle-ci ne lui convient pas. En effet, au moment de la censure, la loi sur l’état d’urgence avait été déclenchée. Celle-ci autorisait bel et bien le blocage d’une plateforme, mais uniquement dans le cadre de la lutte contre le terrorisme. Or, dans le cas du blocage de Tiktok, il ne s’agissait justement pas de lutte contre le terrorisme. Alors qu’une telle possibilité de censure visant une plateforme en ligne, prévue par la loi sur l’état d’urgence, est déjà très contestable en soi1Nous avions initialement demandé à ce qu’une question prioritaire de constitutionnalité (QPC) soit transmise au Conseil constitutionnel. Celle-ci a été rejetée par le Conseil d’État parce qu’il estimait que la loi sur l’état d’urgence n’était pas applicable au litige puisqu’il ne s’agissait pas de lutte contre le terrorisme., le Conseil d’État neutralise encore plus le législateur en permettant d’avoir recours à une théorie jurisprudentielle qui permet de contourner ces limites.

Un contrôle juridictionnel de pacotille

L’auditoire optimiste pourrait se dire que le juge administratif resterait présent pour empêcher les abus de ce recours à la censure en cas de « troubles à l’ordre public d’une gravité exceptionnelle . Et après tout, en ce qui concerne Tiktok, on pourrait être tenté de se rassurer par le fait que la décision de censurer le réseau social a finalement été annulée par le Conseil d’État. Pourtant, dans cette affaire, après avoir refusé d’agir au moment où sa décision aurait été utile, c’est-à-dire lorsqu’il était saisi en référé l’année dernière, le Conseil d’État a repris à son compte toutes les affirmations grossières du gouvernement pour justifier le besoin de bloquer la plateforme.

La question de l’existence de certains contenus qui seraient illégaux au point de couper tout le réseau social a été longuement débattue en mai 2024 à l’occasion de notre référé. Après avoir été mis en difficulté lors de l’audience de référé, le gouvernement s’était enfin décidé à produire des exemples de contenus prétendument illicites… qui étaient en fait totalement légaux. Nous publions ces contenus2Politico avait déjà publié certains de ces contenus l’année dernière. pour que chacun·e puisse constater que leur illégalité ne saute pas aux yeux : dénoncer des violences policières, la constitution de milices privées avec le soutien des forces de l’ordre, les agressions racistes sur des policiers kanaks, ou encore prendre des photos ou vidéos de lieux en flamme comme l’a fait la presse locale est donc, pour le gouvernement, susceptible de justifier une restriction à la liberté d’expression…

Depuis ces quelques exemples produits l’année dernière, le gouvernement n’a pas complété ses dires. On devine un certain embarras à travers ce silence sur ces fameux contenus censés être « violents » : cette décision de bloquer Tiktok ne semble en réalité pas avoir été prise en raison d’un besoin impératif pour restaurer l’ordre sur l’archipel, mais pour couvrir une décision politique du Haut-Commissaire (l’équivalent du préfet en Nouvelle-Calédonie). Fin mai 2024, La Lettre écrivait ainsi que « Très vite, cependant, le premier ministre a été averti de la fragilité juridique de cette décision, prise par le haut-commissaire Louis Le Franc, à la demande du Gouvernement de la Nouvelle-Calédonie, l’organe exécutif de la collectivité présidé par Louis Mapou. » Le média spécialisé précisait également que « l’exécutif a écarté l’hypothèse de désavouer publiquement le haut-commissaire et les élus locaux » et que le gouvernement n’avait « aucun grief contre TikTok ». Ce qu’a admis en creux le représentant de Tiktok quelques jours après devant le Sénat : il a indiqué, sous serment, que la plateforme n’a non seulement pas reçu de demande de retrait de contenus de la part de l’exécutif, mais n’a également pas détecté lui-même de contenus illicites une fois le blocage décidé par le gouvernement.

Tout cela n’a pourtant pas empêché le Conseil d’État de valider l’obsession gouvernementale. Pour les juges, il s’agit bien de « contenus incitant au recours à la violence »3Les juristes remarqueront probablement que le Conseil d’État ne parle plus de contenus « manifestement illicites », mais adopte une formulation beaucoup plus englobante.. Pour appuyer l’illégalité des contenus diffusés à l’époque sur Tiktok, le Conseil d’État explique que les « algorithmes » de ce réseau social favoriseraient leur diffusion très rapide. Il est vrai que des études, notamment d’Amnesty International, ont montré la grande toxicité des choix algorithmiques de Tiktok. Et nous ne nous cachons pas sur le fait que nous combattons en général ce modèle économique et technique de réseau social. Mais, pour ce qui est de la Nouvelle-Calédonie, le gouvernement s’est contenté d’affirmations non-sourcées, sans rien démontrer. Dans son mémoire, le Premier ministre affirmait ainsi simplement que le choix de bloquer Tiktok était justifié par « les caractéristiques des algorithmes utilisés par “Tiktok”, qui amplifient l’effet de valorisation mimétique » sans fournir d’étude ni même de constatations par ses services. Autrement dit, le Conseil d’État se contente d’affirmations du gouvernement pour en faire une généralité, créant ainsi une forme de présomption de nécessité de bloquer Tiktok. Et, à supposer même qu’il y ait eu quelques contenus manifestement illicites sur Tiktok, cela ne devrait pourtant pas permettre de prendre une mesure aussi grave que limiter ou bloquer toute un réseau social. Ce qu’autorise pourtant le Conseil d’État.

En fin de compte, dans cette affaire, le seul point qui a permis au Conseil d’État d’affirmer que le blocage était illégal réside dans le fait que le gouvernement n’a pas cherché à d’abord limiter certaines fonctionnalités de la plateforme avant d’en ordonner le blocage complet. En d’autres mots, la décision de bloquer est jugée disproportionnée uniquement sur le fait que le gouvernement aurait d’abord dû prévenir Tiktok et lui demander de limiter les contenus, avant de pouvoir ordonner le blocage du réseau social. Le principe même de bloquer n’est pas remis en question.

Cet argument s’inscrit dans la continuité d’une idée exprimée par Emmanuel Macron, après les révoltes faisant suite à la mort de Nahel Merzouk, de limiter certaines fonctionnalités des réseaux sociaux, voire les bloquer lors de prochaines émeutes. Le Conseil d’État légitime le chantage auquel s’était déjà adonné le gouvernement en 2023 : fin juin 2023, les représentants de TikTok, Snapchat, Twitter et Meta étaient convoqués par le ministre de l’intérieur, dans le but de mettre une « pression maximale » sur les plateformes pour qu’elles coopèrent et qui a conduit à des demandes de retraits de contenus hors de tout cadre légal (voir notre analyse de l’époque). Désormais, le gouvernement a une nouvelle arme, la menace de censure, fraîchement inventée par le Conseil d’État, pour forcer les plateformes à collaborer, quitte à retirer des contenus légaux.

Mode d’emploi pour le fascisme montant

Il ne s’agit donc absolument pas d’une victoire. Le Conseil d’État valide quasiment toute la démarche du Premier ministre. Désormais, même pour sauver la face d’un préfet qui préfère censurer avant de réfléchir, un gouvernement peut bloquer une plateforme en ligne, à la condition de trouver sur cette plateforme quelques contenus vaguement violents et de justifier de « troubles à l’ordre public d’une gravité exceptionnelle ».

Pas besoin de justifier d’une habilitation par le législateur. Pas besoin de justifier de manière rigoureuse des contenus incriminés. Pas besoin de faire la moindre publicité autour de cette décision. Les associations se débrouilleront pour comprendre l’ampleur et les raisons du blocage, et le gouvernement pourra même changer de version si les premières justifications qu’il aura trouvées s’avèrent bancales.

Lors de l’audience publique, l’avocat de la Ligue des droits de l’Homme, elle aussi requérante dans cette affaire, avait prévenu que les futurs régimes illibéraux s’empareront du mode d’emploi ainsi apporté par le Conseil d’État. De notre côté, nous avions rappelé que les régimes qui se sont jusqu’alors aventurés dans la voie de la censure arbitraire d’Internet et qui se sont fait condamner par la Cour européenne des droits de l’Homme sont tous des régimes autoritaires, Russie et Turquie en tête. Et peut-être, demain, la France.

Car cette décision doit être replacée dans son contexte : celui d’un autoritarisme qui fait la courte-échelle depuis des années à un fascisme désormais aux portes du pouvoirs ; celui de garde-fous qui s’avèrent inefficaces lorsque l’accompagnement de l’État dans ses délires sécuritaires prend la place de la protection des droits ; celui de proximités entre décideurs publics et lobbys sécuritaires qui interrogent ; celui d’un pouvoir politique qui préfère la réponse facile ou la désinformation plutôt que de revoir de fond en comble le système de violence qu’il renforce ; celui de la remise en question quotidienne d’un du principe fondateur de nos démocraties modernes qu’est l’État de droit, par un ministre de l’intérieur récidiviste, ou par une alliance inquiétante entre une extrême droite prise la main dans le pot de confiture, un Premier ministre qui sait qu’il sera peut-être le prochain, et une gauche qui a manqué une occasion de se taire.

Quand on voit avec quelle rapidité l’État de droit est en train de s’écrouler aux États-Unis, on ne peut que s’inquiéter. Car même si Tiktok est une plateforme intrinsèquement problématique, utilisée comme caisse de résonance pour la désinformation et autres contenus extrêmement toxiques, la fin ne peut pas tout justifier. L’État de droit se décompose et le fascisme est aux portes du pouvoir. Il est urgent de porter une voix hautement critique sur ces institutions incapables de protéger la démocratie alors qu’elles devraient être à l’avant-garde de la lutte contre l’extrême droite et l’autoritarisme. Alors si vous le pouvez, vous pouvez nous aider en nous faisant un don.

References[+]

References
1 Nous avions initialement demandé à ce qu’une question prioritaire de constitutionnalité (QPC) soit transmise au Conseil constitutionnel. Celle-ci a été rejetée par le Conseil d’État parce qu’il estimait que la loi sur l’état d’urgence n’était pas applicable au litige puisqu’il ne s’agissait pas de lutte contre le terrorisme.
2 Politico avait déjà publié certains de ces contenus l’année dernière.
3 Les juristes remarqueront probablement que le Conseil d’État ne parle plus de contenus « manifestement illicites », mais adopte une formulation beaucoup plus englobante.

Mobilisation pour un moratoire sur les gros data centers !

1 avril 2025 à 07:37

Du 8 au 11 avril, les député·es examineront en séance publique le projet de loi de « simplification de la vie économique ». Cette loi fourre-tout, conçue sur mesure pour répondre aux demandes des industriels, contient un article 15 qui permettrait à l’État d’imposer la construction d’immenses data centers aux collectivités locales et à la population. Face à la fuite en avant sous l’égide de l’industrie de la tech, nous appelons les député·es à rejeter l’article 15 du projet de loi « simplification » et à soutenir un moratoire de deux ans sur la construction des plus gros data centers en France, le temps qu’un débat public puisse se tenir sur la manière de les encadrer.

Contexte

Alors que la construction des data centers est en plein boom pour accompagner la prolifération de l’IA dans tout les pans de la société, les multinationales de la tech s’allient à l’État pour imposer ces infrastructures à la population et éviter toute contestation citoyenne face à l’accaparement des ressources qu’elles supposent.

À son article 15, le projet de loi « simplification » – en fait une loi de dérégulation – autorise le gouvernement à octroyer aux projets de construction de très gros data centers un statut issu de la loi de 2023 sur l’industrie verte : le label « projet d’intérêt national majeur » (PINM). C’est une promesse d’Emmanuel Macron aux investisseurs internationaux. D’après le gouvernement, ce statut a vocation à être réservé aux data centers d’une surface d’au moins 40 hectares, soit plus de 50 terrains de foot ! Avec ce statut de « projet d’intérêt national majeur », les industriels de la tech verraient le gouvernement travailler main dans la main avec eux pour imposer les data centers aux communes : l’État prendrait alors la main sur les compétences des collectivités locales relatives à l’urbanisme et à l’aménagement du territoire, en menant lui-même la réécriture des plans locaux d’urbanisme afin de les adapter à ces projets de data centers. Les procédures de consultation du public seront encore allégées. Et l’État pourra par la même occasion décider que ces infrastructures peuvent déroger aux réglementations environnementales, notamment celles relatives aux espèces protégées.

Pour ne pas laisser les multinationales de la tech s’allier au gouvernement français pour alimenter cette fuite en avant délétère et écocide, La Quadrature du Net et le collectif Le Nuage était sous nos pieds, en lien avec les membres de la coalition Hiatus, appellent à l’adoption d’un moratoire sur la construction des grands entrepôts à serveurs1. Nous appelons toutes les personnes et organisations inquiètes de cette dérégulation au bénéfice de la tech à dénoncer ce passage en force et à contacter les député·es pour obtenir la suppression de cet article 15 et l’adoption d’un moratoire sur la construction des gros data centers ! Vous trouverez sur cette page toutes les ressources pour contacter les député·es et les convaincre de voter en ce sens.

Appelez vos député·es !

Argumentaire pour un moratoire sur les gros data centers

Voici quelques données à avoir en tête pour convaincre les député·es de rejeter l’article 15 et d’adopter un moratoire sur les gros data centers !

1. Les data centers engendrent une intense prédation des ressources en eau et en électricité

  • Les data centers sont particulièrement électro-intensifs : selon RTE, il y a 300 data centers en France (en 2022). Leur consommation est estimée à environ 10 TWh, soit autour de 2% de la consommation française totale annuelle. Les projets se multiplient et il n’est pas rare selon RTE de recevoir des demandes de raccordement à hauteur de 100 à 200 MWh, soit une fourchette équivalente aux consommations électriques des villes de Rouen et Bordeaux.
  • On assiste aujourd’hui à un boom spéculatif autour de l’IA et des data centers : en France, le bilan prévisionnel de RTE prévoit un triplement de la consommation d’électricité des data centers d’ici à 2035, elle pourrait atteindre 4% de la consommation nationale. Plus de 4,5 GW de demandes de raccordement de data centers ont déjà été signées et le même volume est en cours d’instruction. Plusieurs data centers d’une puissance maximale de 1 GW, soit l’équivalent d’un réacteur nucléaire, ont été annoncés en février 2025 lors du sommet sur l’IA.
  • Les data centers nécessitent la création (et donc le financement public) de nouvelles sources de production énergétique, comme en attestent les réouvertures de centrales nucléaires ou fossiles dédiées un peu partout dans le monde et de nouveaux réseaux saturés par leurs consommations.
  • En ce qui concerne l’eau utilisée en masse pour refroidir les serveurs, Google a par exemple révélé avoir prélevé dans le monde 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, pour refroidir ses data centers. La même année, Microsoft rapporte une augmentation de 34% de sa consommation d’eau annuelle pour ce même usage. À Marseille, Digital Realty s’accapare de l‘eau « qualité potable » pour refroidir ses installations, avec le soutien financier de l’ADEME.

→ Des instances de maîtrise démocratique de l’impact écologique et foncier de l’industrie de la tech doivent d’urgence être établies pour lutter contre ces prédations croisées sur l’eau et l’électricité, et assurer une trajectoire de sobriété.

2. Accompagnant la prolifération de l’IA, les data centers sont l’objet d’un déploiement territorial incontrôlable

  • Depuis une dizaine d’années, les centres de données (aujourd’hui au nombre de 300 environ à l’échelle française) se multiplient en France. La proportion des grands data centers (+ de 2 000m2) se concentre notamment en Ile-de-France (95 sites) et à Marseille (12 sites) (source).
  • Les industriels profitent de manquements et d’imprécisions juridiques sur leurs statuts, et les data centers peuvent ainsi être qualifiés d’entrepôts ou de local industriel. Le Code Général des impôts n’en propose aucune définition légale, leur fiscalité reste floue, et les industriels du data center comme Orange jouent avec l’optimisation fiscale. De ce fait, de nombreuses techniques de contournements du peu de législations existantes sont ainsi documentées, notamment autour des techniques dites de phasage ou de saucissonnage, c’est-à-dire la construction de plusieurs data centers interconnectés sur un même site ou l’augmentation progressive de capacité. Ces tactiques permettent aux data centers de rester sous les seuils de contrôle notamment ICPE, comme on l’observe à Aubervilliers (Digital Realty), La Courneuve (Digital Realty) ou à Wissous (Cyrus One et Amazon).
  • Les industriels des data centers profitent également d’une absence de planification territoriale et urbaine : il n’existe pas de schéma directeur d’implantation, ou d’outil de régulation sur l’expansion territoriale des data centers (source). Ils s’accaparent ainsi d’immenses espaces fonciers : l’entreprise étasunienne de data centers Digital Realty possède 17 data centers en France, occupe plus de 111 000 m2 de terrains, sans compter les dizaines de nouvelles implantations en cours, pour seulement 230 employé·es en CDI.
  • Les data centers ne génèrent presque aucun emploi. Le ratio est évalué à un Emploi Temps Plein (ETP) pour 10 000 m2 occupés en moyenne. La prolifération des data centers sur le territoire se fait donc au détriment d’autres projets plus alignés avec les besoins des territoires et créateurs d’emplois locaux.
  • Le modèle de déploiement des data centers aggrave les inégalités territoriales, avec une concentration et prédation territoriale due à l’effet « magnet » (« aimant ») : les data centers fonctionnent en « hub » et ne sont jamais isolés.

→ Il est nécessaire de mettre ce déploiement en pause, de construire une stratégie concertée sur des infrastructures du numériques qui répondent aux besoins de la société et non aux intérêts économiques de la tech et des fonds d’investissements qui la soutiennent.

3. Les data centers se multiplient dans une opacité systémique, sans prise en compte des alternatives

  • Les data center sont des infrastructures complexes, en constante évolution. Il en résulte une grande méconnaissance des pouvoirs publics et de la population, et donc une réelle difficulté à répondre aux argumentaires volontairement techniques et au greenwashing avancés par les industriels pour défendre le bien-fondé de leurs projets.
  • Nous sommes confrontés à une absence totale de transparence, de données et de mesures partagées par les industriels sur leurs consommations (en eau ou électricité notamment), sur les impacts et coûts réels des data centers. Souvent, le débat est tronqué par des mensonges par omissions et autres manipulations. Ainsi, selon le Guardian, les émissions de gaz à effet de serre des centres de données de Google, Microsoft, Meta et Apple sont environ 662% plus élevées que les déclarations officielles.
  • La Directive européenne sur l’Efficacité Énergétique (DEE) de 2022 rend obligatoire pour tous les data centers de plus de 500 kWh la publication d’un ensemble de données sur leurs consommations. Or, actuellement, en mars 2025, ces données ne sont toujours pas disponibles.
  • Les alternatives au modèle dominant dans la construction des data centers sont aujourd’hui très mal connues et documentées, laissant supposer que des data centers de plus en plus gros sont absolument nécessaires au bon fonctionnement d’Internet et des services numériques. Or, de nombreux collectifs, associations, organisations, proposent des alternatives locales, low tech et décentralisées, qui ne reposent pas sur des besoins de stockages de données à grande échelle.

→ Face à l’opacité systémique, il nous faut produire une connaissance précise qui prenne en compte les enjeux sociaux, écologiques et géopolitiques des infrastructures du numériques aussi bien que les alternatives aux technologies dominantes.

4. Les data centers sont des infrastructures sensibles à la dangerosité mal évaluée

  • Les data center sont des bâtiments dangereux et présentant de nombreux risques pour les habitant·es et les territoires. Cuves de fioul ou de gaz perfluorés susceptibles de fuiter, stockage important de batteries au lithium qui peuvent générer d’immenses incendies (comme celui de Strasbourg), grande vulnérabilité à la chaleur. Bien loin de l’image du simple entrepôt inerte, un data center est bien une usine de production industrielle dédiée au stockage de données et aux calculs informatiques.
  • Ils génèrent de nombreuses pollutions (accidentelles ou fonctionnelles), notamment atmosphériques, ainsi que des nombreuses nuisances ainsi qu’une quantité importante de ainsi que des nombreuses nuisances ainsi qu’une quantité importante de déchets non recyclables et une production de chaleur très importante qui augmente les risques de canicule ou de réchauffement non mesurés des milieux adjacents
  • Selon l’ADEME, le numérique est à l’origine de 4,4 % de l’empreinte carbone en France en 2024, en nette augmentation (2,5% en 2020). Entre 2016 et 2024, l’empreinte carbone des data centers dans l’impact global du numérique est passée de 16% à 46%.

→ Les data centers sont des infrastructures dangereuses, et il est nécessaire de protéger les habitant.e.s et les écosystèmes des pollutions et des nuisances qu’ils engendrent.

5. Les data centers s’accompagnent d’impacts sociétaux nombreux et insoutenables

  • Les data centers encouragent l’extractivisme minier, les nombreux conflits qui y sont liés et les crimes contre l’humanité documentés dans de nombreux contextes miniers, comme en République démocratique du Congo.
  • Ils présentent en outre des risques structurels pour l’économie française, tel le déploiement massif des IA et des processus d’automatisation dans tous les pans de la société.
  • Le gouvernement prétend assurer la souveraineté nationale mais accroît en fait notre dépendance technologique aux GAFAM, comme l’illustre le rôle majeur d’entreprises étasuniennes telles Amazon, Microsoft ou Digital Realty ainsi que des fonds d’investissements extra-européens dans le boom actuel de ces infrastructures. Compte tenu de la structure actuelle de l’économie numérique, la « territorialité de la donnée » est une illusion.
  • Parce que la France se targue d’une énergie nucléaire qui permet de faire baisser les « bilans carbone » des multinationales de la tech, et parce qu’elle est idéalement placée sur la carte internationale des câbles sous-marins, elle est vue comme un territoire de choix, faisant de nos territoires une ressource vendue plus offrants dans un marché en surchauffe.

→ Il faut reprendre la main sur les infrastructures du numériques et le monde qu’elles génèrent. Il ne s’agit jamais d’enjeux simplement techniques : derrière les data centers, de nombreux enjeux politiques doivent être soulevés et débattus.


  1. Voir la proposition d’amendement de suppression de l’article 15, et celle portant sur un moratoire sur la construction de gros data centers. ↩

Loi « simplification » : un déni de démocratie pour mieux imposer les data centers

Par : marne
21 mars 2025 à 12:13

L’Assemblée nationale a débuté l’examen du projet de loi relatif à la simplification de la vie économique. À son article 15, ce projet de loi « simplification » (ou PLS) prévoit d’accélérer la construction d’immenses data centers sur le territoire français, en permettant à l’État de les imposer aux territoires concernés et en multipliant les dérogations au droit de l’urbanisme, de l’environnement ou au principe de participation du public. Contre cette fuite en avant, La Quadrature du Net et le collectif « Le Nuage était sous nos pieds », en lien avec les autres membres de la coalition Hiatus, demandent la suppression de l’article 15 et un moratoire de deux ans sur la construction de gros data centers, le temps de poser les conditions d’une maîtrise démocratique de ces infrastructures du numérique.

Début février, lors du sommet de Paris sur l’IA, Emmanuel Macron endossait de nouveau son costume de grand chef de la Startup Nation. À la clé, des annonces de financements tous azimuts : alors que le Parlement venait d’adopter le budget le plus austéritaire du XXIe siècle, les milliards pleuvaient, en particulier pour financer un boom des « centres de données » en France. Les data centers sont des usines de production industrielle, d’immenses entrepôts où sont entassés des milliers de serveurs appartenant en grande majorité aux multinationales de la tech, notamment étasuniennes. À l’ère de l’IA, on assiste à un véritable boom dans la construction de ces infrastructures de calcul et de stockage de données, amplifiant du même coup les méfaits de l’informatique, non seulement du point de vue écologique, mais aussi en terme de surveillance, d’exploitation du travail, de casse des services publics, comme le dénonce la coalition Hiatus dans son manifeste fondateur.

Parce que la France dispose d’une énergie nucléaire qui permet de faire baisser les « bilans carbone » des multinationales de la tech, et parce qu’elle est idéalement placée sur la carte internationale des câbles sous-marins, Macron le VRP la présente comme une terre promise aux investisseurs. Pour les attirer, le président français leur a d’ailleurs fait une promesse : simplifier et déréguler pour éviter les contestations et assurer une construction la plus rapide possible de ces infrastructures très consommatrices en ressourcesLa loi relative à la simplification de la vie économique, déjà votée au Sénat et actuellement examinée par l’Assemblée nationale, vise à traduire cette promesse en actes.

Ce que dit le projet de loi de simplification (PLS)

À son article 15, le projet de loi « simplification » – en fait une loi de dérégulation – autorise le gouvernement à octroyer aux projets de construction de très gros data centers un label issu de la loi de 2023 sur l’industrie verte : le label « projet d’intérêt national majeur » (PINM). D’après le gouvernement, ce label a vocation à être réservé aux data centers d’une surface d’au moins 40 hectares, soit plus de 50 terrains de foot !

Avec ce statut de « projet d’intérêt national majeur », les industriels de la tech verraient le gouvernement travailler avec eux à imposer les data centers aux communes : l’État prendrait alors la main sur les compétences des collectivités locales relatives à l’urbanisme et à l’aménagement du territoire, en menant lui-même la réécriture des plans locaux d’urbanisme afin de les adapter à ces projets de data centers1. Les procédures de consultation du public seront encore allégées. Et l’État pourra par la même occasion décider que ces infrastructures peuvent déroger aux réglementations environnementales, notamment celles relatives aux espèces protégées ou à la non-artificialisation des sols2. Enfin, à son article 15 bis, le projet de loi simplification grave dans le marbre de la loi la réduction de 50% dont bénéficient les centres de données au-delà de 1 gigawatt consommés dans l’année – un dispositif aujourd’hui prévu par un arrêté conjoint du ministre chargé de l’énergie et du ministre chargé de l’industrie.

Ainsi, en encourageant l’explosion de data centers toujours plus gigantesques et voraces en ressources, la loi « simplification » accélère l’impact écocidaire de l’industrie informatique, le tout pour permettre à la France et à l’Europe de rester dans une illusoire « course à l’IA ».

Pourquoi cette dérégulation des data centers est inacceptable

Cette tentative d’« accélérer » est d’autant plus malvenue que la multiplication des data centers sur le territoire français fait d’ores et déjà l’objet de contestations citoyennes à travers le pays en raison des conflits d’usage qu’ils génèrent.

Comme le documente le collectif Le Nuage était sous nos pieds, auquel participe La Quadrature, leur implantation dans la zone du port de Marseille a par exemple conduit à l’accaparement du foncier en front de mer. Elle a conduit à remettre à plus tard l’électrification des quais où accostent les bateaux de croisières, comme en attestent les documents de RTE. Ces derniers continuent ainsi de recracher leurs fumées toxiques dans les quartiers Nord, occasionnant diverses maladies chez les habitant·es. Enfin, pour refroidir les serveurs qui tournent à plein régime, les data centers nécessitent également d’immenses quantité d’eau, accaparant une ressource essentielle aux écosystèmes et au maintien de l’agriculture. À cela s’ajoute le rejet régulier de gaz fluorés à fort effet de serre, et une pollution sonore quasiment constante.

Compte tenu de ces problèmes, le flou juridique et démocratique actuel autour des data centers est particulièrement choquant. Élu·es locaux et collectifs citoyens s’accordent sur la nécessité de repenser le cadre réglementaire autour des data centers. Quant à la Commission nationale du débat public (CNDP), elle demande à être saisie lors de la construction de ces infrastructures mais se heurte à la volonté de l’État d’exclure l’instance d’un nombre croissant de projets industriels, à travers un récent projet de décret.

À l’heure actuelle, la situation est donc éminemment problématique. Mais avec la loi « simplification », le gouvernement propose de déréguler encore davantage, en aggravant le déni de démocratie. Il s’agit de dérouler le tapis rouge aux industriels et autre spéculateurs de la tech, pour leur permettre de faire de la France une sorte de « colonie numérique » estampillée « bas carbone ».

Pour un moratoire sur la construction des nouveaux data centers

Nous refusons que nos villes, nos villages, nos quartiers soient ainsi accaparés par les géants de la tech. Nous refusons de voir nos territoires et nos ressources naturelles vendues aux plus offrants, en sapant les quelques mécanismes de régulation et de maîtrise collective qui existent aujourd’hui. Nous ne voulons pas « accélérer » la fuite en avant écocidaire de la tech comme y invite Emmanuel Macron, nous voulons y mettre un terme !

C’est pourquoi nous appelons les député·es à rejeter l’article 15 du projet de loi « simplification » et à soutenir un moratoire de deux ans sur la construction des gros data centers en France, le temps qu’un débat public puisse se tenir sur la manière de les encadrer. Le moratoire de deux ans porterait sur les data centers de plus de 2 000 m2 ou de 2 mégawatts de puissance installée. Selon la typologie mise en place par Cécile Diguet et Fanny Lopez, dans leur rapport de recherche pour l’ADEME, un moratoire sur les installations de plus de 2 000m2 préserve la possibilité de data centers de taille moyenne, et n’entrave pas d’éventuels projets que l’État ou les collectivités voudraient conduire pour des usages publics.

Le débat public auquel nous appelons pourrait prendre la forme d’une convention citoyenne. Il devra porter à la fois sur la maîtrise démocratique des infrastructures numériques que sont les data centers et sur les systèmes d’intelligence artificielle aujourd’hui déployés dans tous les pans de la société. Il devra poser la question des usages des services numériques en tâchant de défaire les dépendances aux modèles toxiques des grandes multinationales du secteur. Contre la dérégulation industrielle consentie à la tech, contre la concentration des pouvoirs et l’amplification de l’injustice sociale que renforce l’intelligence artificielle, il est urgent de remettre le numérique à sa place et de penser un modèle de développement de ses infrastructures compatible avec les limites écologiques et les droits humains et sociaux.

Prochaines étapes

Les membres de la commission spéciale chargée de l’examen du texte ont déjà déposé des amendements jeudi 20 mars. Plusieurs d’entre eux visent à supprimer l’article 15. Un amendement visant à demander un moratoire a également été déposé par les député·es écologistes Hendrik Davi et Lisa Belluco. Ces amendements seront examinés par la commission spéciale du lundi 24 au jeudi 27 mars. L’examen en séance publique se tiendra ensuite du 8 au 11 avril 2024.

Nous diffuserons bientôt une page de campagne visant à faciliter la participation de toutes et de tous ! En attendant, faites tourner l’info et préparez-vous pour la bataille contre cette énième loi de merde ! <3


  1. L’article 15 du PLS vise à qualifier de projets d’intérêt national majeur pour la transition numérique, la transition écologique ou la souveraineté nationale les centres de données de dimension industrielle, dans la continuité du dispositif applicable aux projets industriels d’envergure tel qu’introduit par l’article 19 de la loi du 23 octobre 2023 relative à l’industrie verte. Ce statut, défini à l’article L. 300-6-2 du code de l’urbanisme et accordé par décret, permet, après accord du maire ou du président d’un regroupement de collectivités locales accueillant le projet industriel, la mise en compatibilité par l’État des documents de planification et d’urbanisme. Le statut PINM donne compétence à l’Etat – et non pas aux maires – pour délivrer les autorisations d’urbanisme pour les projets d’intérêt national majeur. L’article 15 précise en outre que les articles 27 et 28 de la loi du 10 mars 2023 relative à l’accélération des énergies renouvelables, qui permettent de faciliter les raccordements aux réseaux de transport d’électricité, s’appliquent aux centres de données qualifiés de PINM. Il en découle une priorisation du raccordement du projet au réseau d’électricité (par extension de dispositions issues de la loi APER) et la simplification des consultations du public sur les projets de raccordement. ↩
  2. La loi industrie verte permettait déjà qu’un projet PINM puisse être reconnu « raison impérative d’intérêt public majeur » (RIIPM), qui permet aux porteurs de projets industriels de bénéficier d’une dérogation à l’obligation de protection stricte des espèces protégées. La RIIPM est présumée acquise (via une présomption simple, la loi ne pouvant reconnaître d’office ce critère) dès lors que s’applique le statut PINM, et non plus au moment ultérieur de l’examen de la dérogation espèces protégées. L’article 15 de la PLS prévoit par ailleurs qu’un décret en Conseil d’État précise les conditions dans lesquelles la raison impérative d’intérêt public majeur (RIIPM) peut être reconnue pour les centres de données par l’autorité administrative compétente. Quant à l’artificialisation des sols, l’alinéa 36 de l’article 15 amende la disposition « ZAN » de la loi Climat & résilience pour prévoir qu’un espace naturel occupé par un projet d’intérêt national majeur n’est pas comptabilisé dans les quotas ZAN locaux. ↩

Le gouvernement prêt à tout pour casser le droit au chiffrement

Par : noemie
18 mars 2025 à 09:48

Les discussions viennent de recommencer à l’Assemblée nationale concernant la loi « Narcotrafic ». Les mesures les plus dangereuses pourraient être réintroduites par voie d’amendement : obligation pour les services de communication chiffrée de donner accès au contenu des échanges (article 8 ter), logiciels-espions pour accéder à distance aux fonctionnalités d’un appareil numérique (articles 15 ter et 15 quater) et « dossier coffre » (article 16). Elles sont toutes soutenues par le gouvernement et en particulier Bruno Retailleau. Concernant le chiffrement, celui-ci n’hésite pas à aligner les mensonges pour justifier la disposition. Petite (re)mise au point.

Le fantôme derrière la porte

Tel qu’introduit au Sénat, l’article 8 ter visait à créer une obligation pour les fournisseurs de services de messagerie chiffrée de donner à la police et au renseignement un accès au contenu des communications. Il s’agit d’une attaque frontale contre la technologie de chiffrement de bout-en-bout, aujourd’hui intégrée dans de nombreux services de communications tels que Signal, Whatsapp, Matrix ou encore la messagerie étatique Tchap, et qui permet d’empêcher quiconque autre que le destinataire d’accéder aux échanges. Avec d’autres organisations telles que la Global Encryption Coalition, nous avons fortement dénoncé l’absurdité et le danger d’une telle mesure qui mettrait fin à la confidentialité des correspondances en ligne. Cette disposition a été supprimée en commission dans une quasi-unanimité assez rare. Seuls le centre et la droite se sont abstenus.

Trois députés demandent pourtant son rétablissement  : Paul Midy (EPR), Mathieu Lefevre (EPR) et Olivier Marleix (LR). Ces amendements sont soutenus par le gouvernement. Cela n’est guère étonnant puisqu’on a vu le ministre de l’intérieur défendre tant bien que mal cette mesure lors de son audition à l’Assemblée. Il a insisté de nouveau ce week-end dans une interview au journal Le Parisien, tout comme Céline Berthon, la directrice de la DGSI, dans l’hebdomadaire d’extrême droite Le JDD. Que ce soit en audition ou dans les journaux, ceux-ci expliquent que l’article 8 ter n’affaiblirait pas le chiffrement ni ne créerait de « porte dérobée » ou de « backdoor » (les termes sont d’ailleurs savamment évités dans ces interviews) car il s’agirait uniquement d’introduire un participant fantôme dans la conversation.

Par cela, ils tentent surtout de semer la confusion chez les député·es censé·es voter la loi. En effet, contourner le chiffrement de bout-en-bout en autorisant une personne tierce à connaître le contenu des messages constitue, par définition, une « porte dérobée ». Dans un article datant d’il y a quelques années déjà, l’Internet Society expliquait très bien le fonctionnement et l’impasse de ce type de mécanisme vis-à-vis des promesses de confidentialité des messageries chiffrées.

Il faut comprendre que le chiffrement repose sur un échange de clés qui garantit que seuls les destinataires de messages possédant les clés pourront déchiffrer les échanges. À l’inverse, le mécanisme du « fantôme » distribue en secret des clés à d’autres personnes non-autorisées, pour qu’elles aient accès au contenu des conversations. Ce dispositif oblige donc à modifier le code derrière les messageries ou les services d’hébergement chiffrés et la conséquence est la même que de modifier directement l’algorithme de chiffrement. N’en déplaise au gouvernement qui cherche à embrouiller les esprits en jouant avec les mots, ceci est bien une méthode, parmi d’autres, de création d’une porte dérobée. La « proposition du fantôme », revient purement et simplement à remettre en cause le principe même du chiffrement de bout-en-bout qui repose sur la garantie que seuls les destinataires d’un message sont en mesure de lire son contenu.

L’Internet Society est d’ailleurs très claire : « Bien que la proposition du fantôme ne modifierait pas les algorithmes utilisés par les applications de messagerie à chiffrement de bout en bout pour chiffrer et déchiffrer les messages, elle introduirait une vulnérabilité de sécurité systémique dans ces services, qui aurait des conséquences négatives pour tous les utilisateurs, y compris les utilisateurs commerciaux et gouvernementaux. Cette proposition nuit à la gestion des clés et à la fiabilité du système ; par conséquent, les communications supposées être confidentielles entre l’émetteur et le destinataire peuvent ne plus l’être, et sont moins sécurisées. »

Un piège démocratique

Casser un protocole de chiffrement et le contourner posent, dans les deux cas, exactement les mêmes problèmes :

  • le service est contraint de modifier son code et son algorithme ;
  • cela crée une vulnérabilité qui peut être utilisé par d’autres acteurs ;
  • cela peut être étendu à d’autres finalités ;
  • cela affaiblit la sécurité générale des infrastructures de réseau ;
  • toutes les personnes utilisatrices sont touchées par cet affaiblissement.

Non seulement le gouvernement tente de minimiser ces conséquences très graves, mais il ne s’arrête pas là. Il prétend désormais qu’une solution respectueuse de la vie privée pourrait exister pour mettre en œuvre cette obligation auprès des fournisseurs de messageries. Ainsi, dans les amendements soutenus par le gouvernement, il serait ajouté à l’article 8 ter un paragraphe précisant que « ces dispositifs techniques préservent le secret des correspondances et assurent la protection des données à caractère personnel au titre du respect de la vie privée », qu’ils doivent « exclure toute possibilité d’accès par une personne autre que les agents autorisés à mettre en œuvre les techniques de recueil de renseignement » et enfin qu’ils ne « peuvent porter atteinte à la prestation de cryptologie visant à assurer une fonction de confidentialité. »

De nouveau, affirmer avec assurance qu’un tel compromis serait possible est faux. Au regard du principe du chiffrement de bout-en-bout, il ne peut exister de possibilité d’accès au contenu des messages. Cette promesse constitue une escroquerie démocratique en ce qu’elle tend à faire adopter une mesure en pariant sur l’avenir, alors qu’une telle mise en œuvre est impossible techniquement. Cette manœuvre avait déjà été utilisée par le Royaume-Uni pour faire adopter le « UK Safety Bill », ou par la Commission européenne lors des discussions sur le règlement « Chat Control ». Dans les deux cas, il s’agissait de convaincre de voter une mesure attentatoire à la vie privée en affirmant qu’on trouverait bien demain comment faire. Faire croire cela est non seulement un mensonge, mais c’est aussi dangereux d’un point de vue démocratique : le gouvernement est en train d’essayer de tromper la représentation nationale en lui expliquant mal une technologie, en plus de l’avoir introduite sans prévenir au milieu des débats au Sénat.

Continuer le rapport de force

Cette bataille n’a rien de nouveau. Il existe depuis toujours une tension politique autour du chiffrement des communications électroniques, et cela est bien logique puisque le chiffrement est politique par nature. Les outils de chiffrement ont été pensé pour se protéger des surveillances illégitimes et sont nécessaires pour garantir le secret des correspondances. Elles ont été déployées sur Internet pour protéger les communications de la surveillance d’acteurs dangereux et notamment des États qui voudraient surveiller leur population. C’est pourquoi ces mêmes États ont toujours opposé une résistance au développement et à la généralisation du chiffrement. À l’occasion du procès dit du « 8-Décembre », qui a remis ce sujet au cœur de l’actualité, nous revenions sur l’histoire des « crypto-wars » dans les années 1990 et des évènements ayant freiné la démocratisation du chiffrement.

En 2025, le gouvernement ne fait donc qu’essayer de nouvelles manœuvres pour mener à bien un projet politique ancien, visant à limiter le plus possible la confidentialité de nos vies numériques. Et il ne s’arrête pas là puisque deux autres mesures très problématiques font leur retour par des amendements, largement soutenus du Modem jusqu’au RN. Il s’agit de l’autorisation du piratage de nos appareils pour activer à distance le micro et la caméra, et du retour du « dossier coffre », qui permet à la police de s’affranchir des règles de procédure pénale en matière de surveillance intrusive et qui a suscité une forte fronde de la part des avocats.

Ces dispositions sont tout aussi dangereuses que l’attaque contre le chiffrement et il faut convaincre les député·es de rejeter les amendements visant à les réintroduire. Les débats reprendront l’après-midi du 18 mars. Si vous le pouvez, c’est maintenant qu’il faut contacter les parlementaires pour expliquer le danger de ces mesures et réfuter les mensonges du gouvernement.

Retrouvez nos arguments et les coordonnées des parlementaires sur notre page de campagne : www.laquadrature.net/narcotraficotage.

Un grand merci à vous pour votre aide dans cette lutte !

Prolongement de la VSA : la petite danse autoritaire du gouvernement

Par : noemie
17 mars 2025 à 10:11

Pendant que le gouvernement fait adopter au pas de course les mesures de surveillance de la loi « Narcotrafic », un autre coup de force est en train de se jouer à l’Assemblée nationale. La vidéosurveillance algorithmique (VSA), cette technologie de surveillance de masse que nous dénonçons depuis des années et qui a été récemment déclarée illégale par le tribunal administratif de Grenoble, va être étendue au détour d’un tour de passe-passe législatif.

Les droits humains mis de coté

Nous vous en parlions il y a quelques semaines : le cadre « expérimental » d’utilisation de la VSA prévu par la loi sur les Jeux Olympiques devait prendre fin au 31 mars 2025. Alors que le rapport d’évaluation constatait l’immaturité et l’absence d’utilité opérationnelle de cette technologie, le ministre des transports Philippe Tabarot déposait un amendement opportuniste au dernier moment sur une loi qui n’avait rien à voir, relative aux transports, pour repousser ce délai jusqu’à la fin de l’année 2027. Ce texte comporte par ailleurs de nombreuses autres mesures de surveillance, comme l’expérimentation de micros dans les bus et les cars, la pérennisation des caméras piétons pour les agents de contrôle ainsi que le renforcement des pouvoirs coercitifs de ces agents (palpations, taser…). Malheureusement, le rythme soutenu de l’activité législative ne nous a pas permis de lutter efficacement au Parlement contre cette extension de la répression dans l’espace public et notre quotidien.

L’Assemblée nationale s’apprête à voter solennellement cette loi relative à la sûreté dans les transports demain, mardi 18 mars. Si la commission mixte paritaire a réduit de quelques mois le prolongement de l’expérimentation de VSA – ramenant son achèvement au mois de mars 2027 – cela ne change rien à la situation.

Car ce qui est révélé par cette séquence dépasse les enjeux de surveillance. Sur le fond, nous ne sommes pas surpris·es de cette volonté d’étendre la surveillance algorithmique de l’espace public, tant cela a été affiché par les promoteurs de la Technopolice année après année, rapport après rapport. En revanche, la manière dont l’opération est menée est aussi brutale qu’inquiétante. Elle révèle l’indifférence et le mépris croissant de la classe politique dominante vis-à-vis de l’État de droit. Les mécanismes juridiques de protection des droits humains sont ainsi perçus comme des « lourdeurs administratives », empêchant « l’efficacité » de l’action qu’il faudrait mener pour la « sécurité ».

Au nom de cette logique, nulle peine de s’expliquer ni de prendre en compte les décisions des tribunaux, les promesses que le gouvernement a lui-même faites à la représentation parlementaire ou encore les exigences posées par le Conseil constitutionnel. La fin — légaliser la VSA, structurer le marché et l’imposer dans les usages policiers — justifie les moyens — violer les promesses d’évaluation, mentir en assurant la représentation nationale que ces technologies ont donné entière satisfaction, prétendre que la VSA n’a rien à avoir avec la reconnaissance faciale alors que le ministère est évidemment dans l’attente de pouvoir légalement suivre des personnes et les identifier au travers de ces technologies.

Le symptôme d’une dérive générale

Ce nouveau déni de démocratie n’est pas un cas isolé. Nous voyons ce phénomène s’étendre de plus en plus, et dans toutes nos luttes. Nous voyons ainsi l’État vouloir écarter le droit à se défendre et le principe du contradictoire dans la loi Narcotrafic, tout en supprimant les limites aux pouvoirs du renseignement, le tout pour toujours surveiller davantage. Nous suivons également ses intentions de modifier la réglementation environnementale afin de construire des data centers sans s’embêter avec la protection des territoires et des ressources, perçue comme une entrave. Nous documentons aussi la destruction organisée de la solidarité et de la protection sociale, à travers un système de surveillance et de flicage automatisé des administré·es de la CAF, de la CNAM ou de France Travail, sans que jamais ces institutions n’aient à expliquer ou à rendre des comptes sur le contrôle social qu’elles mettent en place. Nous assistons, enfin, à l’élargissement toujours plus important des pouvoirs des préfets, qui s’en servent pour limiter abusivement les libertés d’association, empêcher des manifestations ou fermer des établissements. S’ils se font parfois rattraper par les tribunaux, ils parient le plus souvent sur l’impossibilité d’agir des personnes réprimées, faisant de nouveau primer le coercitif sur la légalité.

L’extension de la VSA qui sera votée demain doit donc s’analyser dans ce contexte plus général de recul de l’État de droit. Dès lors que l’on se place dans le jeu légaliste et démocratique, ces méthodes brutales du gouvernement sont révélatrices de la dynamique autoritaire en cours. Et le silence médiatique et politique entourant cet épisode, alors que la VSA a pourtant suscité beaucoup d’oppositions et de critiques depuis le début de l’expérimentation, est particulièrement inquiétant. Le Conseil constitutionnel sera probablement saisi par les groupes parlementaires de gauche et il reste la possibilité qu’il censure cette prolongation. Nous ne sommes pas rassuré·es pour autant.

Ce processus de mise à l’écart des règles de droit ne fait que s’accélérer et nos alertes ne seront certainement pas suffisantes pour arrêter le gouvernement. Le sursaut doit venir des parlementaires encore attaché·es au respect des droits et des libertés en démocratie.

Pour nous aider dans nos combats, pensez si vous le pouvez à nous faire un don.

Loi « Narcotraficotage » : la mobilisation paye alors ne lâchons rien

Par : noemie
11 mars 2025 à 09:34

Il y a quelques semaines, nous avons alerté sur les dangers de la loi dite « Narcotrafic » qui arrivait à toute allure à l’Assemblée nationale. Vous avez été nombreuses et nombreux à réagir à ces annonces, à partager les informations et à contacter les député·es. Un grand merci à vous ! La mobilisation a en partie payé : les membres de la commission des lois ont supprimé plusieurs mesures problématiques. Mais nous ne pouvons malheureusement pas totalement nous réjouir : la loi reste très déséquilibrée et certains articles peuvent revenir lors de l’examen, en séance, qui débutera le lundi 17 mars.
Voici un récapitulatif des articles les plus dangereux en matière de surveillance. Et si vous voulez aller plus loin, vous pouvez lire l’analyse juridique que nous avions envoyée aux député·es juste avant les travaux en commission des lois ou revoir l’émission d’Au Poste sur le sujet.

Banco pour le renseignement

Les grands gagnants de cette loi sont pour l’instant les services de renseignement qui ont réussi à obtenir gain de cause sur toutes leurs demandes. Car, oui, cette loi « Narcotrafic » est aussi une petite « loi renseignement » déguisée. En effet, la Coordination nationale du renseignement et de la lutte contre le terrorisme (CNRLT) assumait de chercher des « briques législatives » pour faire passer ses revendications – étant donné que l’instabilité politique empêche de garantir qu’un projet de loi porté par le gouvernement soit adopté. Dans cette proposition de loi, trois mesures accroissent les pouvoirs des services.

L’article 1er facilite l’échange d’informations entre les services de renseignement. Normalement, les services doivent demander l’autorisation du Premier ministre, après un avis de la Commission nationale de contrôle des techniques de renseignement (CNCTR), s’ils veulent partager certains renseignements pour une autre raison que celle qui a en justifié la collecte. Une autorisation est par exemple aujourd’hui nécessaire pour la DGSE qui aurait surveillé des personnes pour « prévention du terrorisme » et voudrait transférer les informations ainsi obtenues à la DGSI pour la finalité, différente, de « prévention des violences collectives de nature à porter atteinte à la paix publique ». Ce filtre permet de vérifier que les services ne contournent pas les règles du code de sécurité intérieure et que l’échange est bien nécessaire, tout en les obligeant à une certaine transparence sur leurs pratiques. Mais cette nécessité d’autorisation préalable a été supprimée pour toutes les situations – et pas uniquement en cas de criminalité organisée – au nom d’une « lourdeur » procédurale, laissant ainsi le champ libre aux services pour s’échanger les informations qu’ils veulent, sans contrôle.

L’article 6 permet à la justice de transmettre aux services de renseignement des informations relatives à des dossiers de délinquance et criminalité organisée. En principe, ces échanges sont interdits au nom de la séparation des pouvoirs : les renseignements font de la « prévention » administrative et la justice est la seule autorité pouvant rechercher et réprimer les auteurs d’infractions. Si elle a des éléments, elle doit les conserver en attendant de rassembler davantage de preuves et non les donner à un service de renseignement, qui est une administration et qui n’a pas de pouvoir de répression alors que son activité est par nature secrète. Cette disposition affaiblit donc les garanties procédurales qui entourent l’action judiciaire et renforcent les capacités de surveillance du renseignement et donc du gouvernement.

Enfin, l’article 8 est un des plus dangereux de la proposition de loi puisqu’il étend la technique de renseignement dite des « boites noires ». Cette mesure consiste à analyser le réseau internet via des algorithmes pour trouver de prétendus comportements « suspects ». Tout le réseau est scanné, sans distinction : il s’agit donc de surveillance de masse. Autorisée pour la première fois en 2015 pour la prévention du terrorisme, cette technique de renseignement a été étendue en 2024 à la prévention des ingérences étrangères. Avec cet article 8, cette surveillance serait à nouveau étendue et s’appliquerait alors à la « prévention de la criminalité organisée ». On ne sait pas grand-chose de ces boites noires, ni de leur utilisation, puisque les quelques rapports sur le sujet ont été classés secret défense. En revanche, pendant les débats en commission, le député Sacha Houlié (qui a été le promoteur de leur extension l’année dernière) a donné des indications de leurs fonctionnement. Il explique ainsi que les comportements recherchés seraient ceux faisant de « l’hygiène numérique », soit, d’après lui, des personnes qui par exemple utiliseraient plusieurs services à la fois (WhatsApp, Signal, Snapchat). L’ensemble de ce passage est édifiant. Le député macroniste, ancien membre de la délégation parlementaire au renseignement, semble peu maîtriser le sujet mais laisse comprendre en creux que l’algorithme pourrait être configuré pour rechercher toute personne ayant des pratiques numériques de protection de sa vie privée. Les métadonnées révélant le recours à un nœud Tor ou l’utilisation d’un VPN pourrait semblent de fait être considérées comme suspectes. Ce mouvement consistant à considérer comme suspectes les les bonnes pratiques numériques n’est malheureusement pas nouveau et a notamment été très présent lors de l’affaire du « 8-Décembre ».

Ces trois dispositions sont passées sans encombre et demeurent donc dans la proposition de loi.

Le droit au chiffrement en sursis

L’article 8 ter du texte prévoyait une obligation pour les fournisseurs de services de messagerie chiffrée de donner à la police et au renseignement un accès au contenu des communications. Cette mesure consiste en pratique à installer une « porte dérobée », ou « backdoor », pour compromettre le fonctionnement de ces services. Elle a fait l’unanimité contre elle. Qu’il s’agisse des associations fédérées au sein de la Global Encryption Coalition, des entreprises (réunies au sein de l’Afnum ou de Numeum) ou encore de certaines personnalités politiques et institutionnelles dans une tribune du journal Le Monde, tout le monde rappelait le caractère insensé et dangereux de cette mesure, pourtant adoptée avec la loi à l’unanimité du Sénat.

À l’Assemblée nationale aussi, le front contre cette disposition était large puisque des amendements de suppression sont venus de tous les bords politiques. Lors de son audition, le ministre Retailleau a tant bien que mal essayé de défendre cette mesure, en répétant les bobards fournis par le renseignement, sans sembler pleinement les comprendre. Et le ministre d’expliquer par exemple que cette mesure ne « casserait » pas le chiffrement mais viserait uniquement à transférer le contenu des conversations à un utilisateur fantôme… Or, contourner le chiffrement en autorisant une personne tierce à connaître le contenu des messages constitue bien une « porte dérobée », puisque celle-ci disposera de nouvelles clés de déchiffrement, que le service de messagerie aura été obligé de fournir aux autorités (voir notamment les explications de l’ISOC). De plus, contrairement à ce qu’affirmait le ministre de l’intérieur, une telle modification impacterait nécessairement le service dans son intégralité et concernerait de fait tous·tes ses utilisateur·ices.

Cette mesure controversée a été supprimée… pour l’instant. Nous restons en effet prudent·es car les attaques contre le chiffrement sont récurrentes. Si les menaces se cantonnaient en général à des postures médiatiques de personnalités politiques, le rapport de force est constant et les stratégies autoritaires pour faire adopter de tels dispositifs sont régulièrement remises à l’ordre du jour. Que ce soit pour préparer leurs acceptabilité sociale ou pour faire diversion sur d’autres mesures, il n’empêche que ces attaques contre le chiffrement sont de plus en plus fréquentes et révèlent une volonté assumée des services de renseignement de voir, un jour, cette technologie mise au pas. C’est aussi et surtout au niveau européen qu’il faut être vigilant·es pour l’avenir. De nombreux pays (comme la Suède, le Danemark ou le Royaume-Uni) essayent également de mettre la pression sur les services de messagerie ou d’hébergement chiffrés. De leur côté, les institutions de l’Union européenne poussent plusieurs projets visant à affaiblir la confidentialité des communications, comme le règlement « Chat Control » ou le projet du groupe de travail « Going Dark ». C’est pour cela que montrer une forte résistance est crucial. Plus nous rendons le rapport de force coûteux pour les adversaires du chiffrement, plus nous montrons qu’il sera compliqué de revenir la prochaine fois.

Des conquêtes prudentes

D’autres mesures très dangereuses ont été supprimées par les membres de la commission des lois. Tel est ainsi le cas des articles 15 ter et 15 quater qui permettaient à la police judiciaire de compromettre la sécurité des objets connectés pour activer à distance des micros et des caméras. Une disposition quasi-identique avait été invalidée par le Conseil constitutionnel en 2023, ce qui semble avoir refroidi une majorité de député·es.

De la même manière, le « dossier coffre » prévu par l’article 16 a été supprimé. Cette mesure crée une atteinte inédite aux droits de la défense en empêchant les personnes poursuivies d’avoir accès aux procès-verbaux détaillant les mesures de surveillance les concernant, donc de les contester. À travers ce mécanisme de PV séparé, la police pourrait donc utiliser en toute opacité des outils très intrusifs (comme les logiciel-espions par exemple) sans jamais avoir à rendre de comptes auprès des personnes poursuivies.

Mais ces deux mesures ont été supprimées à seulement quelques voix près et sont défendues bec et ongles par le gouvernement, ce qui nous fait dire qu’elles vont très probablement être remises sur la table lors de l’examen en séance, ou ensuite en commission mixte paritaire.

De la même manière, nous avons fortement critiqué l’article 12 du texte qui prévoit l’extension de la censure administrative d’internet par la police. En l’état, cette mesure permettait aux agents de Pharos d’exiger le retrait de contenus liés à un champ très large d’infractions liées au trafic et à l’usage de drogues, comme « la provocation à l’usage de drogues ». Cela pouvait donc inclure aussi bien des extraits de films que des articles publiés sur des sites de réduction des risques. Les membres de la commission des lois ont drastiquement réduit le périmètre des infractions concernées par cette censure, qui est désormais limité aux publications relatives à la vente de drogues. Si cette avancée est bienvenue, il n’empêche que le mécanisme a été validé et continue de renforcer la capacité de l’État à censurer internet en dehors de tout contrôle judiciaire.

Pour ces trois mesures, nous restons donc très prudent·es car elles peuvent être rétablies dans leur version d’origine en hémicycle. La mobilisation auprès des député·es reste donc très importante.

Une loi qui reste dangereuse

De nombreuses autres mesures ont été votées : la collecte, et la conservation pendant une durée disproportionnée de cinq années, des informations d’identité de toute personne achetant notamment une carte SIM prépayée (article 12 bis), la banalisation des enquêtes administratives de sécurité pour l’accès à de nombreux emplois (article 22) ou l’utilisation des drones par l’administration pénitentiaires (article 23). Au-delà de ces mesures de surveillance, le texte renforce une vision très répressive de la détention, de la peine ou de la justice des mineurs et – comme le dénonce l’association Droit Au Logement – facilite les expulsions locatives.

L’élargissement du nombre des agents pouvant consulter le fichier TAJ (article 15) a en revanche été supprimée. Non pas pour le respect des libertés mais parce qu’en pratique ces accès sont déjà possibles.

Surtout, comme nous l’expliquons depuis le début de la mobilisation, cette proposition de loi s’applique à un champ bien plus large de situations que le seul trafic de drogues. En effet, elle modifie toutes les règles liées au régime dérogatoire de la délinquance et la criminalité organisées, qui sont fréquemment utilisées pour réprimer les auteurs et autrices d’actions militantes. Par exemple, les procureurs n’hésitent pas à mobiliser la qualification de « dégradation en bande organisée » pour pouvoir jouir de ces pouvoirs plus importants et plus attentatoires aux libertés publiques. Tel a été le cas pendant le mouvement des Gilets jaunes, lors de manifestations ou contre les militant·es ayant organisé des mobilisations contre le cimentier Lafarge. Ce cadre juridique d’exception s’applique également à l’infraction « d’aide à l’entrée et à la circulation de personnes en situation irrégulière en bande organisée », qualification qui a été utilisée contre des militant·es aidant des personnes exilées à Briançon, mais a ensuite été abandonnée lors du procès.

En l’état, la loi Narcotrafic reste donc fondamentalement la même : un texte qui utilise la question du trafic du drogue pour légitimer une extension de pouvoirs répressifs, aussi bien au bénéfice de la police judiciaire que de l’administration. Il faut donc continuer de lutter contre ce processus d’affaiblissement de l’État de droit et refuser cette narration jouant sur les peurs et le chantage à la surveillance. Nous avons eu beaucoup de retours de personnes qui ont contacté les député·es pour les pousser à voter contre la loi. Un grand merci à elles et eux ! Cela a très certainement dû jouer dans le retrait des mesures les plus dangereuses.

Il ne faut cependant pas s’arrêter là. La proposition de loi va désormais passer en hémicycle, c’est-à-dire avec l’ensemble des député·es, à partir du lundi 17 mars. Les propositions d’amendements seront publiées d’ici la fin de semaine et donneront une idée de la nature des débats à venir. En attendant, vous pouvez retrouver notre page de campagne mise à jour et les moyens de contacter les parlementaires sur la page de campagne dédiée. Vous pouvez aussi nous faire un don pour nous aider à continuer la lutte.

QSPTAG #319 — 7 mars 2025

Par : robinson
7 mars 2025 à 11:06

Loi « Narcotrafic » : une loi de surveillance où le numérique joue un rôle central

On en parlait fin janvier, la proposition de loi contre le « narcotrafic » est un grand fourre-tout sécuritaire qui joue la surenchère répressive dans tous les domaines, et les mesures de surveillance numérique ne sont pas les moins délirantes.

Imaginez. Il y aurait, dans un petit pays loin, loin d’ici, un gouvernement qui naviguerait à vue au gré des paniques médiatiques, qui godillerait de fait divers en fait divers, et qui entretiendrait avec complaisance une ambiance de panique morale collective, une sorte d’état d’urgence permanent : l’économie irait mal, la dette serait abyssale, les immigrés seraient trop nombreux et trop criminels, d’ailleurs le terrorisme frapperait de nouveau, et le trafic de drogue gangrènerait nos quartiers, etc. Bien conscient que sa politique économique, écologique et sociale serait peu populaire, ce gouvernement aurait besoin de la police pour résoudre la plupart de ses problèmes. Ce que la police demanderait, la police l’obtiendrait.

Dans ce contexte hostile à la réflexion et au respect des droits – une chose archaïque, visiblement, que des lois anciennes voulaient bizarrement protéger – c’est la foire aux mesures de surveillance intrusives. Activer à distance les micros et les caméras des appareils mobiles, casser le chiffrement des messageries instantanées, etc. La panoplie est détaillée dans l’article que nous avons publié le 24 février et dans la page de campagne.

« Mais pourquoi s’en inquiéter ? Ne s’agit-il pas de punir des criminels ? Vous ne voulez quand même pas protéger des assassins ? » Le danger est justement que ces mesures ne concernent pas « seulement les trafiquants de drogue ». Elles viennent étoffer un objet juridique qui existe déjà et qui s’appelle le régime de la « criminalité organisée ». Et ce régime censé cibler le grand banditisme a déjà été utilisé de nombreuses fois contre des actions militantes, justement en raison des facilités de procédure et de surveillance qu’il permet. On croit être dur pour les grossistes de cocaïne et on devient dur contre les opposants à une autoroute ou à une usine polluante. Quand une mesure liberticide entre dans la loi, d’abord de façon encadrée, elle reste dans la panoplie des mesures à appliquer quand on élargit le champ d’application à autre chose.

Nous avons donc appelé à une action collective pour interpeler les député·es de la commission des Lois qui devaient amender le texte cette semaine. Et vous avez répondu en nombre ! Un grand merci à vous !
L’action paye, et la commission a rejeté les mesures les plus dangereuses. Mais le gouvernement tentera sans doute de les introduire de nouveau lors de la discussion dans l’hémicycle, qui doit commencer le 17 mars. On en reparle très vite !

Lire l’article : La loi Narcotrafic est une loi de surveillance : mobilisons nous !
La page de la campagne : Contre la loi surveillance et narcotraficotage

Campagne de soutien 2025

Notre campagne de soutien pour 2025 est toujours ouverte ! Nous avons récolté environ 45% de notre objectif pour l’année. En prenant en compte les dons mensuels, on arrivera environ à 75% de l’objectif. Aidez-nous à boucler le budget 2025 ! Vous pouvez nous faire un don sur notre site.

Agenda

La Quadrature dans les médias

Loi Narcotrafic

VSA

Divers

Lire sur le site

Expérimentation VSA : le gouvernement sur le point d’obtenir trois ans de rab 

5 mars 2025 à 10:21

Mise-à-jour du 7 mars : La commission mixte paritaire a validé l’extension du dispositif expérimental jusqu’en mars 2027.

Demain jeudi, au Parlement, se tiendra la commission mixte paritaire en vue de l’adoption de la proposition de loi relative à la sécurité dans les transports. C’est le vecteur choisi par le gouvernement Bayrou mi-février pour proroger de deux années supplémentaires l’expérimentation de la vidéosurveillance algorithmique (VSA), lancée dans le cadre de la loi JO. S’il a beaucoup été question d’intelligence artificielle ces dernières semaines, c’était plutôt pour promettre des investissements massifs ou appeler à la dérégulation. Moins pour mettre la lumière sur nouveau coup de force visant à imposer la surveillance policière constante et automatisée de nos espaces publics. Retour sur les derniers rebondissements de la lutte contre la vidéosurveillance algorithmique.

Des rapports d’évaluation dont on aimerait pouvoir se moquer

Tout d’abord et après plusieurs semaines de rétention, le ministère de l’intérieur a fini par publier le rapport d’évaluation de « l’expérimentation » de vidéosurveillance algorithmique prévue par la loi de 2023 sur les Jeux olympiques. Pour rappel, pendant plusieurs mois, la VSA a été utilisée légalement pour détecter 8 situations lors d’événements « récréatifs, sportifs ou culturels ». Et on comprend pourquoi ce rapport n’a pas été exhibé fièrement par le gouvernement : il ne fait qu’enchaîner les preuves de dysfonctionnements techniques souvent risibles (une branche qui bouge et déclenche une alerte, un problème de perspective qui rend le système de détection d’une personne inopérant, etc.), pointant l’absence de maturité de ces technologies ainsi que leur inutilité opérationnelle.

Par ailleurs, le rapport analyse au plus près l’expérimentation autorisée par la loi JO, mais ne se penche pas sur les centaines de déploiement qui restent illégaux dans le pays, ni sur les velléités du lobby techno-sécuritaire, qui ne compte évidemment pas s’arrêter en si bon chemin et se tient prêt à multiplier les cas d’usage, notamment dans une logique d’identification des personnes. On pense par exemple aux propos tenus récemment par le représentant de la société suisse Technis, qui a racheté Videtics et dont les algorithmes sont utilisés dans le cadre de l’expérimentation : « L’avantage de la vidéo », explique-t-il tranquillement dans cet entretien, « c’est qu’elle est désormais multifonction. Il y a le volet sécuritaire (surveillance d’un lieu et alerte en cas d’intrusion), le volet statistique (analyse de la fréquentation d’un espace) et le volet reconnaissance faciale ou d’identité (identification de personnes) ». Dont acte.

Ces intentions d’aller plus loin sont d’ailleurs partagées par la RATP et la SNCF, qui ont été les principaux acteurs de l’utilisation de la VSA « légale » de la loi JO. Et c’est là un des passages les plus intéressants du rapport d’évaluation : ces deux opérateurs de transports assument de vouloir aller plus loin que ce qui est aujourd’hui autorisé, pour faire du suivi automatisé de personnes ou encore de la détection de « rixes ». Est également relayée la volonté de pouvoir utiliser la VSA dans davantage de moments et de lieux, et donc de s’affranchir du seul cadre des grands événements sportifs, récréatifs ou culturels prévu actuellement par la loi aujourd’hui. Des revendications du même ordre ont été relayées par des sénateurs et sénatrices, qui ont produit leur propre rapport d’évaluation.

Le gouvernement fonce tête baissée pour pérenniser la VSA

Le satisfecit ridicule du préfet de police Laurent Nuñez au mois de septembre, affirmant que la VSA avait fait ses preuves lors des JO et devait donc être pérennisée, avait déjà posé le cadre : le gouvernement ne prendrait aucune pincette pour tirer son propre bilan de l’expérimentation et forcer son agenda politique.

Et pour cause ! Avant même la publication du rapport officiel d’évaluation, profitant d’un énième retour de la loi relative à la sûreté dans les transports à l’Assemblée, le gouvernement a déposé un amendement sorti de nulle part et sans lien avec le texte, demandant l’extension du dispositif de VSA pour trois années supplémentaires, au prétexte que les services n’auraient pas eu assez de temps pour tester la technologie. Mais que la VSA « marche » ou pas est, au fond, accessoire. Pour le gouvernement Bayrou, il s’agit de l’imposer, coûte que coûte, et ce alors même que des experts indépendants de l’ONU viennent de dénoncer le caractère disproportionné de ces déploiements.

En prolongeant l’expérimentation pour trois années supplémentaires, le gouvernement permet d’installer un peu plus cette technologie dans les pratiques, en se laissant la possibilité d’exploiter les largesses que la France a réussi à obtenir au niveau de de l’Union européenne à travers l’« AI Act » et ainsi légaliser la reconnaissance faciale et d’autres cas d’usage de la VSA politiquement sensibles. Cela dit, comme nous l’avons déjà expliqué, sur le plan juridique, la régularité de cet amendement visant à prolonger l’expérimentation de la VSA est parfaitement douteuse, et il est possible qu’il soit déclaré contraire à la Constitution.

Un caillou juridique dans la chaussure de la Technopolice

Ces coups de butoir sont intervenus juste après une décision historique obtenue de haute lutte dans l’« affaire Moirans » – du nom de cette petite commune isèroise qui a acquis le logiciel de VSA de l’entreprise Briefcam. Au terme de notre recours et à l’issue d’une passe d’arme avec la CNIL qui faisait valoir sa position très accommodante pour l’industrie de la VSA et le ministère de l’intérieur, le tribunal administratif de Grenoble a jugé que le recours à la VSA aussi bien dans le cadre de la police administrative (hors enquêtes pénales, pour faire simple) que lors d’enquêtes judiciaires était illégal et disproportionné.

Depuis l’interdiction de la reconnaissance faciale dans les établissements scolaires en 2020, c’est l’une des principales victoires juridiques dans l’opposition populaire à la vidéosurveillance algorithmique. Depuis un an, nous encourageons les collectifs locaux à interpeller les responsables municipaux pour les appeler à s’engager contre la VSA dans le cadre de notre campagne « Pas de VSA dans ma ville ». De nombreuses personnes ont déjà répondu à cette initiative et demandé à leur maire de refuser cette surveillance. Désormais, avec cette jurisprudence qui pointe l’illégalité des centaines de déploiements locaux de la VSA, en dehors du cadre restreint de la loi JO, nous avons des arguments de poids pour poursuivre cette lutte.

Si le prolongement de la VSA « légale » jusqu’en 2027 venait donc à être confirmé en commission mixte paritaire demain, puis de façon définitive par le Parlement, il faudra utiliser tous les moyens à notre disposition pour mettre fin à cette fuite en avant, et contre-carrer l’alliance d’élus locaux, de fonctionnaires et d’industriels prêts à tout pour conforter leur pouvoir techno-sécuritaire. Ce combat passe notamment par la découverte et la documentation ces projets, car les sortir de l’opacité permet de mettre la pression aux instances dirigeantes des communes et des collectivités et les mettre face à leurs responsabilités. Si vous même prenez part à un collectif local dans une commune ayant recourt à un système de VSA du style du logiciel Briefcam, n’hésitez pas à vous saisir de nos écritures pour porter vous-mêmes un recours ! Et si vous aviez besoin de conseil, nous sommes joignables à l’adresse contact@technopolice.fr.

Contre la VSA, la bataille continue !

Et si vous voulez nous aider à continuer à l’animer, vous pouvez aussi nous soutenir en faisant un don.

La loi Narcotrafic est une loi de surveillance : mobilisons nous !

Par : noemie
24 février 2025 à 09:56

La semaine prochaine, l’Assemblée nationale discutera d’une proposition de loi relative au « narcotrafic ». Contrairement à ce que le nom du texte indique, les mesures qui pourraient être adoptées vont bien au-delà du seul trafic de stupéfiants. En réalité, son champ d’application est si large qu’il concernerait également la répression des mouvements militants. Cette loi prévoit de légaliser de nombreuses mesures répressives. Si elle était adoptée, elle hisserait la France en tête des pays les plus avancés en matière de surveillance numérique.

C’est l’un des textes les plus dangereux pour les libertés publiques proposés ces dernières années. En réaction, et face à un calendrier législatif extrêmement resserré, La Quadrature du Net lance aujourd’hui une campagne de mobilisation pour lutter contre la loi Narcotrafic. Le but est d’abord d’informer sur le contenu de ce texte, en faisant en sorte que les mesures techniques et répressives qu’il cherche à légaliser soient compréhensibles par le plus grand nombre. Nous souhaitons également dénoncer l’instrumentalisation de la problématique du trafic de stupéfiants — une « guerre contre la drogue » qui, là encore, a une longue histoire bardée d’échecs — pour pousser des mesures sécuritaires bien plus larges, à grand renfort de discours sensationnalistes. Notre page de campagne répertorie ainsi différents décryptages, des ressources, mais aussi des outils pour contacter les député⋅es et les alerter sur les nombreux dangers de cette proposition de loi. Nous avons pour l’occasion décidé de renommer cette loi « Surveillance et narcotraficotage » tant elle est l’espace fourre-tout d’une large panoplie sécuritaire.

Parmi les mesures proposées et largement retravaillées par le ministre de l’Intérieur Bruno Retailleau, on retrouve l’extension de la surveillance du réseau par algorithmes, la censure administrative d’Internet ou encore l’instauration d’une procédure de surveillance secrète échappant aux débats contradictoires et largement dénoncée par la profession des avocat·es. Au gré de son examen au Sénat, la proposition de loi n’a fait qu’empirer, incluant de nouvelles techniques de surveillance extrêmement intrusives, comme l’espionnage à travers les caméras et micros des personnes via le piratage de leurs appareils et l’obligation pour les messageries chiffrées de donner accès au contenu des communications. Cette dernière mesure va à contre-courant des recommandations de nombreuses institutions et pourrait conduire à l’éviction de France de services comme Signal ou Whatsapp ou d’abaisser leur niveau de sécurité, comme Apple vient d’être contraint de le faire pour ses produits au Royaume-Uni. Ces dispositions ne sont nullement limitées aux trafiquants de drogue : la police peut y avoir recours pour l’ensemble de la « criminalité organisée », un régime juridique extrêmement large qui est notamment utilisé dans la répression des actions militantes.

Face à cela, les groupes politiques au Sénat ont voté à l’unanimité pour ce texte — y compris à gauche. La Quadrature du Net appelle les élu·es à se réveiller et à réaliser la gravité des enjeux posés par ce texte. La lutte contre le trafic de stupéfiants ne peut pas servir à justifier des atteintes aussi graves aux principes fondateurs de la procédure pénale, ni à banaliser des pouvoirs de surveillance aussi intrusifs et qui pourraient encore être étendus à l’avenir.

Pour prendre connaissance de nos arguments, de nos ressources ainsi que des coordonnées des député⋅es pour les contacter, rendez-vous sur notre page de campagne : laquadrature.net/narcotraficotage

À partir d’avant-hierLa Quadrature du Net

Les contenus haineux et négatifs sont rentables pour les médias sociaux publicitaires

20 janvier 2025 à 09:57

Ce 20 janvier, 5 personnalités d’associations citoyennes expliquent dans cette tribune les liens, entre médias sociaux publicitaires et les contenus haineux et négatifs. Elles appellent à aller sur des réseaux sociaux sans pub, à bloquer la publicité sur internet, à financer autrement les médias et à avoir des lois protégeant les usager·éres d’internet de ces dérives.

Elon Musk sera nommé au gouvernement de Donald Trump ce 20 janvier.

Pour protester contre son investiture et ouvrir une réflexion sur l’impact politique des réseaux sociaux, un collectif a lancé HelloQuitteX. Cette communauté a pour but de donner des outils et inciter à aller vers des réseaux sociaux « plus ouverts et sains »1.

Le rachat de Twitter par Elon Musk en 2022 avait déjà allumé des inquiétudes qui sont loin d’être calmées. Celui-ci se targue désormais d’utiliser sa plateforme comme une arme au service des candidat·es qui lui plaisent : Donald Trump, ou récemment le parti d’extrême droite allemand l’AfD.

HelloQuitteX et les déclarations provocatrices d’Elon Musk marquent une étape dans la reconnaissance de ce que l’on sait depuis longtemps : les plateformes et leur architecture ont un effet sur les contenus qui s’y échangent, et donc les visions du monde de leurs utilisateur·ices.

Changer de réseau social ne sera pas suffisant : il faut changer leur modèle de financement. Car ces dérives ne sont pas uniquement liées aux personnalités d’Elon Musk, Jeff Bezos ou Mark Zuckerberg, elles sont inscrites dans l’architecture d’Internet.

La publicité est la source principale de financement des sites Internet2. Les plateformes ont donc besoin de nous connaître, le plus intimement possible. Plus elles possèdent d’informations sur nous, plus elles pourront cibler les publicités et mesurer leur efficacité, satisfaisant ainsi leurs véritables clients : les annonceurs.

Les plateformes ont mis en place une architecture de surveillance qui n’a rien à envier à celles des pires dystopies, dans le but principal de vendre plus cher leurs espaces publicitaires3.

Les réseaux sociaux ont un intérêt économique énorme à nous garder devant nos écrans, et rivalisent de techniques pour nous rendre « accros » à leurs applications, malgré les effets négatifs qu’ils entraînent4.

Mais ce n’est pas tout. Pour améliorer encore l’efficacité des publicités, ces réseaux sociaux se vantent de modifier nos émotions. Les recherches internes de Facebook ont montré que l’entreprise pouvait, en modifiant le fil d’actualités, influer sur l’humeur de ses utilisateur·ices5.

Meta propose donc aux annonceurs de cibler leurs annonces vers les moments où l’internaute se sent « mal dans sa peau » ou « en manque de reconnaissance », car ses recherches ont montré que les actes d’achat venaient pallier aux souffrances du quotidien. Meta favorise donc les contenus négatifs ou polarisants. Résultat ? « Plus les ados vont sur Instagram, plus leur bien-être général, leur confiance en soi, leur satisfaction à l’égard de la vie, leur humeur et l’image qu’ils ont de leur corps se dégradent »6. En 2016, une publication interne à Facebook montrait que « 64% des entrées dans des groupes extrémistes sont dûes à nos outils de recommandation »7. Ce n’est pas du hasard, c’est parce que c’est rentable.

Ils poussent ainsi tous les acteurs du jeu politique à aligner leur communication sur des contenus haineux et sans concessions. Les internautes sont enfermés dans des « bulles de filtres », entouré·es de contenus justifiant et radicalisant leurs opinions sans jamais les ouvrir à la contradiction8.

Le débat public et les discussions constructives entre internautes en deviennent de plus en plus difficiles, et cette sensation de différences irréconciliables se transfère vers les discussions en chair et en os9. Le discours de haine n’est pas qu’une abstraction numérique, il peut attiser la violence, miner la cohésion sociale, et causer des blessures profondes qui vont bien au delà des écrans, comme de nombreux rapports d’associations et institutions l’attestent10.

Ces contenus viennent nourrir des « visions du monde »11 basées sur la peur et une sensation d’envahissement, venant ainsi conforter encore les tenants du « Grand Remplacement » et autres arguments portés par les mouvements d’extrême-droite.

Quitter X pour aller sur un autre réseau social publicitaire comme BlueSky ne réglera donc pas le problème. Petit à petit, les pressions financières le porteront à modifier ses contenus vers plus de publicité12, et donc une emprise toujours plus grande de la manipulation13.

À ces effets structurels s’ajoute la guerre culturelle menée par certains grands milliardaires de la tech comme Elon Musk et récemment Mark Zuckerberg, pour imposer des idées ultra-libérales et ouvertement d’extrême droite. La concentration du secteur autour de quelques entreprises monopolistiques14 permet à ces hommes d’imposer leur vision du monde en utilisant les plateformes comme des porte-voix. Ils modèlent les règles de partage des contenus en faisant passer leur propagande pour de la liberté d’expression15.

La publicité en tant que source principale de financement des réseaux sociaux est responsable de toutes ces dérives. Pour espérer les réguler, il faut prendre en compte ce mécanisme fondamental.

C’est pourquoi nous relayons l’appel à quitter X, tout en questionnant nos pratiques des réseaux sociaux et services numériques basés sur la publicité.

Il existe de nombreuses alternatives libres efficaces comme les réseaux sociaux du Fediverse (Mastodon, Pixelfed,…), les suites de Framasoft pour les bureautiques partagés, ou PeerTube pour les vidéos.

Il est aussi particulièrement important d’installer un bloqueur de publicité, pour plus de confort de navigation et cesser de nourrir la machine à récolter les données. Le site bloquelapub.net présente des tutoriels simples.

Enfin, toutes ces mesures individuelles doivent nécessairement être complétées par des mesures contraignantes au niveau législatif. Une première étape pourrait être de rendre les réseaux sociaux responsables des contenus qui s’y échangent. Le site de La Quadrature du Net détaille les différentes lois nationales et européennes tout en donnant des pistes pour pallier aux manques16.

Il est aussi urgent de réfléchir à des modèles de financement alternatifs à la fausse gratuité publicitaire. Pour cela, nous appelons les médias et sites intéressés à prendre contact avec nous pour réfléchir ensemble à d’autres modèles possibles.

Thomas Citharel, codirecteur de Framasoft

Raquel Radaut, militante et porte-parole à La Quadrature du Net

Marie Youakim, co-présidente de Ritimo

Marie Cousin, co-présidente de Résistance à l’Agression Publicitaire

Tanguy Delaire, militant de Résistance à l’Agression Publicitaire

1Voir le manifeste de HelloQuittX https://www.helloquitx.com/MANIFESTO-HelloQuitteX.html

2Voir Shoshanna ZUBOFF, L’Âge du capitalisme de surveillance, Zulma, 2022

3Ethan ZUCKERMAN, « The Internet’s Original Sin », The Atlantic, 14 août 2014, https://www.theatlantic.com/technology/archive/2014/08/advertising-is-the-internets-original-sin/376041/

4Voir à ce sujet la mini série Dopamine, diffusée sur Arte : https://www.arte.tv/fr/videos/RC-017841/dopamine/

5Selon Frances Haugen, ancienne employée de Facebook, lanceuse d’alerte, citée par David CHAVALARIAS, Toxic Data, Comment les réseaux manipulent nos opinions, Flammarion, 2022, p. 100

6Christia SPEARS BROWN, « Comment plusieurs études montrent qu’Instagram peut nuire au bien-être des jeunes », The Conversation, 26 septembre 2021 https://theconversation.com/comment-plusieurs-etudes-montrent-quinstagram-peut-nuire-au-bien-etre-des-jeunes-168514

7Mathilde SALIOU, Technoféminisme, Comment le numérique aggrave les inégalités, Éditions Grasset & Fasquelle, 2023, p. 59

8Voir l’analyse de David Chavalarias : David CHAVALARIAS, Toxic Data, op. cit.

9Tanguy DELAIRE, « Publicité sur Internet : un terrain favorable à l’extrême droite », Le Club de Mediapart, 13 novembre 2024

10 Voir par exemple  le constat d’Amnesty International ‘ https://www.amnesty.fr/actualites/sinformer-se-former-eduquer-et-agir-face-a-la-montee-des-discours-de-haine-et-anti-droits ou celui de la commission européenne https://www.coe.int/fr/web/combating-hate-speech/what-is-hate-speech-and-why-is-it-a-problem- ) ou encore ce que rapportait en juin 2024 le secrétaire général de l’ONU « L’impact négatif des discours de haine sur la paix, le développement durable, les droits de l’homme et la prévention des génocides et des crimes connexes continue d’être observé dans le monde entier » ( https://www.un.org/africarenewal/fr/magazine/juin-2024/la-jeunesse-au-service-de-la-lutte-contre-les-discours-dincitation-%C3%A0-la-haine ). »

11Voir Félicien FAURY, Des électeurs ordinaires, Enquête sur la normalisation de l’extrême droite, Éditions du Seuil, 2024

12On lit sur le site de HelloQuitteX « À noter que Bluesky a récemment fait entrer un investisseur privé, Blockchain Capital, une entreprise du monde de la blockchain et des cryptomonnaies, ce qui influencera peut-être à l’avenir son modèle économique. » https://helloquittex.com/Quitter-Twitter-X-Etape-2-Je-cree-un-compte-Mastodon-et-ou-Bluesky.html consulté le 9 janvier 2025

13Blog de Résistance à l’Agression Publicitaire, « Publicité : l’industrialisation de la manipulation », Le Club de Mediapart, 23 novembre 2021 https://blogs.mediapart.fr/resistance-agression-pub/blog/231121/publicite-lindustrialisation-de-la-manipulation

14Nikos SMYRNAIOS, « Les GAFAM, entre emprise structurelle et crise d’hégémonie », Pouvoirs, N° 185(2), 19-30, https://droit.cairn.info/revue-pouvoirs-2023-2-page-19?lang=fr

15AFP, Le Nouvel Obs, « Meta met fin à son programme de fact-checking aux Etats-Unis, Musk trouve ça « cool », Trump dit qu’il a « probablement » influencé la décision », Le Nouvel Observateur, 7 janvier 2025 https://www.nouvelobs.com/monde/20250107.OBS98735/meta-met-fin-a-son-programme-de-fact-checking-aux-etats-unis-musk-trouve-ca-cool-trump-dit-qu-il-a-probablement-influence-la-decision.html

16Voir par exemple l‘analyse du « Règlement IA » adopté par la commission européenne en mai 2024 : https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-poursuivre/ ou « ou les propositions en terme d’interopérabilité des réseaux sociaux : https://www.laquadrature.net/?s=interop%C3%A9rabilit%C3%A9« 

Nous quittons Twitter

Par : nono
20 janvier 2025 à 07:47

Nous avons pris la décision de quitter X, anciennement Twitter, ce lundi 20 janvier 2025. Cette décision est mûrement réfléchie ; Twitter encourage depuis longtemps les discours de haine et le harcèlement mais, ces derniers mois, il est devenu l’espace d’expression privilégié de l’extrême droite.

Nous nous joignons donc, comme des milliers de personnes, à l’initiative HelloQuitX afin de réamorcer la désertion des réseaux sociaux commerciaux centralisés vers de meilleurs espaces. Elle facilite notamment le départ en Twitter en proposant un outil de migration.

En effet, le retour de Donald Trump au pouvoir marque un tournant dans l’histoire de X. Le soutien d’Elon Musk, patron de X, à la candidature de D. Trump a conduit à des changements significatifs dans la modération et l’algorithme de la plateforme. Les contenus fascistes ont été fortement mis en avant, tandis que les contenus issus des luttes pour l’émancipation ont vu leur portée réduite. Nous l’avons personnellement constaté, notre compte ayant une portée bien moindre qu’auparavant, ce qui nous a aussi amené à réfléchir à la pertinence de notre présence sur cette plateforme.

Depuis notre création, nous luttons contre la centralisation des plateformes numériques et ses conséquences. Nous avons notamment régulièrement souligné les risques d’une concentration excessive du pouvoir dans les mains d’entreprises privées. Nous reconnaissions malgré tout l’importance de l’effet de réseau dont bénéficiait Twitter et c’est pour ça que jusqu’à présent nous y étions resté.es. Il s’agissait de garder le contact avec nos sympathisant.es et les organisations qui partagent nos valeurs.

Cependant, maintenant qu’un départ collectif se met en place grâce à HelloQuitX, nous considérons qu’il est temps de prendre une décision courageuse et de participer à montrer l’exemple, en attendant que des initiatives similaires puissent bientôt s’organiser contre d’autres réseaux sociaux centralisés et toxiques, à commencer par ceux de Mark Zuckerberg, patron de Meta.

Des alternatives existent, et nous gérons depuis longtemps un serveur faisant partie du réseau Mastodon : mamot.fr. Mastodon est un réseau qui permet une modération propre à chaque serveur, qui soit à l’image de sa communauté. Avec déjà plusieurs millions d’utilisateurices, nous sommes convaincu.es que Mastodon est la meilleure alternative à Twitter pour nous.

BlueSky existe également, mais nous craignons que ce réseau répète les erreurs de Twitter. La décentralisation de cette plateforme est pour l’heure limitée et nous sommes inquiet.es quant au contrôle qu’une entreprise unique pourrait exercer sur elle.

Afin de vous permettre de quitter X tranquillement, nous avons aussi pris la décision d’ouvrir temporairement les inscriptions sur Mamot.fr, notre instance Mastodon où sont déjà inscrites 43 000 personnes. Vous pouvez vous y faire un compte dès maintenant, gratuitement. Vous pouvez aussi trouver d’autres serveurs sur joinmastodon.org . Et grâce à l’interopérabilité, vous pouvez suivre les millions d’autres personnes inscrites sur d’autres serveurs Mastodon depuis Mamot.fr, ainsi que suivre des comptes sur Peertube, Pixelfed et d’autres.

Notre compte Mastodon est sur https://mamot.fr/@LaQuadrature. Nous serons heureux de discuter avec vous sur ce réseau social fédéré !

Nous vous invitons à rejoindre le mouvement qui se met en place grâce à HelloQuitX. Rejoignez-nous sur Mastodon et parlez-en avec vos amis et autour de vous ! Ensemble, nous pouvons créer un avenir meilleur et des réseaux sociaux libres.

Les trous noirs dans le contrôle des services de renseignement

23 décembre 2024 à 08:12

Ce texte restitue la prise de parole d’un membre de La Quadrature du Net à l’occasion d’un colloque organisé conjointement par la revue Études Françaises de Renseignement et de Cyber et par la CNCTR, la Commission nationale de contrôle des techniques de renseignement, à Paris le 14 octobre 2024.

Ces dernières années, les services de renseignement français ont connu une croissance continue de leurs pouvoirs, qu’il s’agisse des ressources budgétaires et humaines dont ils disposent que des prérogatives juridiques dont ils bénéficient. Or, l’enjeu du contrôle démocratique du renseignement – historiquement faible dans ces matières relevant de la raison d’État, et ce particulièrement en France – est largement resté secondaire. Il n’est donc pas surprenant de constater la permanence de véritables « trous noirs » dans le dispositif institutionnel français.

Opacité

Avant d’en venir à ces trous noirs, le premier point qu’il nous faut aborder à trait l’opacité des politiques publiques du renseignement, et la façon dont ce manque de transparence empêche une organisation comme La Quadrature du Net de cultiver une expertise sur le renseignement, et donc de porter une critique correctement informée, et donc perçue comme légitime. Si c’est à l’honneur des deux présidents de la CNCTR que d’avoir accepté, à l’occasion, de nous rencontrer, que dire des silences assourdissants que des parlementaires de la Délégation parlementaire au renseignement, des services eux-mêmes, ont opposé à nos demandes répétées de rendez-vous et d’échange ?

Ce colloque – le premier du genre – est certes bienvenu. Mais il ne permet pas de remédier à l’opacité systémique du champ du renseignement, la manière dont il maintient sciemment tout critique externe à distance, qu’il s’agisse de celle nourrie par des journalistes d’investigation ou de groupes militants attachés à la défense des droits humains. Alors que dans l’histoire du renseignement, en France et dans d’autres pays, c’est presque toujours cette critique externe qui semble avoir permise de remédier aux abus les plus graves, de documenter les illégalités en matière de surveillance, et ce bien sûr en lien avec leurs sources et autres lanceurs d’alerte issus le plus souvent des services.

Cette critique externe ne joue pas seulement un rôle crucial dans le cadre des controverses qui, régulièrement, se nouent autour des servies de renseignement. Elle est aussi nécessaire au travail des organes de contrôle institutionnalisés, ne serait-ce que pour leur permettre d’entendre un autre son de cloche, d’autoriser une forme de pluralisme dans ces matières, et faire en sorte que ces organes puissent être exposés à un autre d’autres points de vue. Cela est de nature à éviter que ces organes ne deviennent inféodés aux services qu’ils sont censés contrôler.

De fait, en dehors des quelques informations ayant filtré via des journalistes, et outre les rares allusions faites par les responsables du renseignement lors d’auditions parlementaires ou par la CNCTR, aucune information officielle n’est fournie en France quant à la nature et le coût des technologies de surveillance déployées par les services pour collecter, stocker et analyser les communications et autres données numériques. L’enjeu de leur imbrication dans les processus de production du renseignement, la nature des marchés publics et l’identité des sous-traitants privés, et même les interprétations juridiques ayant cours au sein des services quant à l’utilisation de ces système, restent également marqués par une grande opacité.

Pour finir, rappelons que cette opacité est d’autant plus illégitime, d’autant plus dangereuse, que depuis la dernière publication de la stratégie nationale du renseignement en 2019, et grâce aux rapports de la CNCTR depuis lors, on sait que l’activité des services dans les matières les plus sensibles sur le plan démocratique – qu’on pense à la surveillance des mouvements sociaux —, sont en forte recrudescence. C’est notamment le cas s’agissant de groupes militants non seulement légitimes en démocratie mais nécessaires pour sortir nos sociétés de leur immobilisme face à la crise sociale et écologique.

Techniques

Outre cette opacité systémique, le droit du renseignement français reste marqué par de véritables trous noirs dans le contrôle de certaines modalités de collecte ou d’analyse des données. Passons donc en revue certaines des plus graves lacune du cadre juridique français.

Le plus significatif réside sans aucun doute dans l’absence de contrôle des échanges de données avec des services de renseignement étrangers. Depuis plusieurs années, la CNCTR demande de pouvoir contrôler le partage de données entre services français et services étrangers. En France, la question est d’autant plus pressante que les flux de données échangés entre la DGSE et la NSA ont connu une augmentation rapide suite à la conclusion des accords SPINS, signés fin 2015.
Or, la loi française exclut explicitement tout contrôle de la CNCTR sur ces collaborations internationales nourries par des services jouissant d’une forte autonomie.

Dans son rapport annuel publié en 2019, la CNCTR admettait que ce trou noir dans le contrôle du renseignement présentait un risque majeur, puisqu’il pourrait permettre aux services français de recevoir de leurs homologues des données qu’ils n’auraient pas pu se procurer légalement au travers des procédures définies dans la loi française. Dans le langage feutré qui la caractérise, la commission estimait qu’« une réflexion devait être menée sur l’encadrement légal des échanges de données entre les services de renseignement français et leurs partenaires étrangers ». La CEDH a en effet rappelé dans son arrêt Big Brother Watch du 25 mai 2021 que ces échanges devaient être encadrés par le droit national et soumis au contrôle d’une autorité indépendante (§ 362). Pourtant, à ce jour, la France est le dernier État membre de l’Union européenne à ne disposer d’aucun cadre juridique pour encadrer ces échanges internationaux.

Un autre de ces trous noirs est bien sûr l’immunité pénale liée à l’article 323-8 du code pénal et l’absence de tout encadrement législatif des activités de piratage informatique menées par les services français sur des équipements situés hors des frontières nationales. Cette absence d’encadrement conduit à ce que ces activités soient de facto illégales. L’immunité pénale ainsi accordée apparaît également contraire à l’article 32(b) de la convention de Budapest sur la cybercriminalité.

Autre forme de surveillance non couverte par la loi et donc tout aussi illégale : la surveillance dite « en source ouverte » (OSINT), notamment sur les réseaux sociaux comme Facebook ou X – une activité sur laquelle peu de choses ont fuité dans la presse mais dont on sait qu’elle a pris une importance croissante ces dix dernières années. L’achat de données aux data brokers n’est pas non plus régulé en droit français. Or rien ne permet de penser que cette activité, qui a fait la controverse aux États-Unis, ne soit pas aussi coutumière pour les services français.

Droits et garanties

Le droit français présente aussi d’énormes lacunes du point de vue des droits apportés aux personnes surveillées.

Le droit à l’information tout d’abord. Il s’agit-là d’un principe essentiel dégagé par la jurisprudence européenne : les personnes ayant fait l’objet d’une mesure de surveillance secrète doivent pouvoir en être informées, dès lors qu’une telle information n’est plus susceptible d’entraver l’enquête menée à leur encontre par les services. Dès son rapport publié en janvier 2018, la CNCTR passait en revue la jurisprudence afférente et mentionnait plusieurs exemples de législations étrangères – la loi allemande notamment – garantissant une procédure de notification des personnes surveillées, prévoyant un certain nombre d’exceptions étroitement limitées.

Il y a enfin l’absence de pouvoirs octroyés à la CNCTR pour tenir en échec des formes de surveillance illégale, et notamment l’absence d’avis conforme. Le Conseil d’État rappelait pourtant dans son arrêt du 21 avril 2021 relatif à la conservation généralisée des données de connexion que ce dernier était une exigence du point de vue du droit de l’Union européenne. Dans cette décision qui donnait largement gain de cause au gouvernement, le Conseil d’État se fondait sur l’arrêt La Quadrature du Net de la CJUE, en date d’octobre 2020, pour exiger que les avis rendus par la CNCTR sur les mesures de surveillance soient « conformes » (c’est-à-dire impératifs pour le gouvernement) et non plus simplement consultatifs.

Ces quelques aspects, loin de donner un aperçu exhaustif de tous les problèmes posés par le droit français en matière de surveillance numérique conduite par les services de renseignement, suffit à illustrer le fait que, en dépit des compliments reçus par la France de la part d’un certain rapporteur de l’ONU à la vie privée qui restera de triste mémoire, la France a encore beaucoup à faire pour se hisser au niveau des standards internationaux, lesquels devraient pourtant être considéré comme un socle minimal dans tout État de droit qui se respecte.

2025 marquera les 10 ans de la loi renseignement. Pour continuer notre travail sur la surveillance d’État l’année prochaine, nous avons besoin de votre soutien. Alors si vous le pouvez, faites un don à La Quadrature du Net.

QSPTAG #316 — 20 décembre 2024

Par : robinson
20 décembre 2024 à 11:29

Campagne de soutien 2025 : C’est pas de l’IA, c’est de l’exploitation dernier cri

Pour animer notre campagne de dons de fin d’année, nous avons choisi de traiter le thème de l’IA, qui sera un de nos grands axes de travail en 2025 : au lieu de tomber dans le panneau des fantasmes inutiles — ceux d’une intelligence surhumaine qui détruira l’humanité ou qui la sauvera de ses propres errements — et si on s’intéressait plutôt à ses usages concrets et à ses effets réels ? Après un article d’introduction accompagné d’une vidéo, on s’est penché plus spécialement sur les algorithmes de « scoring » utilisés par les administrations sociales, en lien avec notre campagne France Contrôle. La semaine suivante, on est allé à Marseille pour suivre le travail du collectif Le Nuage était sous nos pieds, dont font partie des membres de La Quadrature, qui étudie l’impact des infrastructures du numérique, démultipliées par l’IA, sur les villes, les ressources et les personnes. Et cette semaine, on revient sur la place de l’IA dans les discours sécuritaires et dans les dispositifs de surveillance qui se déploient aujourd’hui, au présent, dans nos rues. Une vidéo qui rejoint évidemment nos campagnes Technopolice et Pas de VSA dans ma ville. C’est pas de l’IA, c’est de la surveillance, du contrôle social et beaucoup, beaucoup de discours creux qui cachent la réalité d’un numérique au service de la contrainte et de l’exploitation des ressources et des personnes. Soutenez La Quadrature en 2025, faites-nous un don si vous pouvez !

Rendez-vous sur la page de la campagne de dons : https://www.laquadrature.net/donner/
Introduction : https://www.laquadrature.net/2024/11/29/cest-pas-de-lia-cest-de-lexploitation-dernier-cri/
Vidéo générale : https://video.lqdn.fr/w/kzeD86nXj12pKnEqwZKQEF
Vidéo IA et contrôle social : https://video.lqdn.fr/w/6Gi2v2ZhqDYWfvk3HP2MrR
Vidéo IA et écologie : https://video.lqdn.fr/w/48uz581ZbdNvWyXC9KV37n
Vidéo IA et Technopolice : https://video.lqdn.fr/w/6aMhTgir5dGpn8ByQjR87i

Attrap est public : un outil pour repérer les arrêtés préfectoraux trop discrets

Depuis que l’utilisation des drones policiers a été légalisée par la loi Sécurité intérieure de 2022, et l’utilisation « expérimentale » de la vidéosurveillance algorithmique (VSA) par la loi Jeux Olympiques de 2023, nous passons du temps à chercher des arrêtés préfectoraux en ligne. Pas pour le plaisir (encore que), mais parce que chaque sortie des drones policiers et chaque déclenchement de la VSA doit être autorisé et précédé par un arrêté du préfet, qui doit être rendu public. Et c’est là que ça se complique : documents publiés à la dernière minute (ou même après), documents planqués dans les arrière-fonds des sites web des préfectures, documents scannés au format image donc inaccessibles aux outils de recherche de texte, processus différents d’une préfecture à l’autre, architecture des sites préfectoraux pas du tout standardisée, etc. On pourrait presque croire que tout est fait pour que l’information soit aussi difficile à trouver que possible. Le pouvoir a une habitude de secret et de discrétion, il ne faudrait quand même pas que la population, les journalistes, les chercheur·euses ou les militant·es exercent leur droit trop facilement.

Mais comme La Quadrature est un mélange de juristes et de geeks, et parfois de juristes-geeks, on a développé un outil pour abattre le boulot et explorer pour nous les sites préfectoraux et rapporter les arrêtés en fonction des mots clés qu’on lui donne. « On » s’appelle d’abord Bastien, vite rejoint par Nono et par une bande de bénévoles, merci à elleux, pour déchiffrer et défricher les labyrinthes préfectoraux et perfectionner l’outil. Aucune IA n’a été maltraitée durant ce processus, seulement des militant·es motivé·es. Le logiciel s’appelle Automate de Traque de Termes et de Recherche dans les Arrêtés Préfectoraux, ou Attrap pour faire plus court – et c’est également plus facile à prononcer, ça tombe quand même drôlement bien.

On utilise Attrap depuis quelques mois, avec des recherches sur les mots-clés liés aux drones et à la VSA, pour alimenter un compte Mastodon nommé Attrap’Surveillance et documenter la mise en œuvre quasi quotidienne de ces dispositifs de surveillance qui nous paraissaient encore si effrayants et exotiques lors du confinement de mars 2020.
On avait en tête depuis le début de rendre un jour l’outil public pour que tout le monde puisse s’en servir. C’est chose faite. Le site Attrap est en ligne depuis quelques jours, avec un article qui explique sa genèse et son utilité, et il fonctionne comme un moteur de recherche. On a aussi lancé des exemples de suivi de certaines décisions repérées par Attrap avec des thèmes précis, ici ou par exemple, en espérant que cela donnera envie à d’autres collectifs de s’approprier l’outil. Dorénavant Attrap est à vous : apprenez à connaître votre préfecture, ce n’est pas sale !

Et si vous allez en Allemagne au Chaos Computer Congress (CCC) cette année, vous pouvez venir ajouter de nouvelles préfectures dans le moteur de recherche, lors du hackathon Attrap organisé le 27 décembre à 18h au Komona. Une rumeur dit que les participant·es pourront récupérer des oreilles de chat qui brillent dans le noir en guise de petit remerciement…

Pour lire la présentation d’Attrap : https://www.laquadrature.net/2024/12/19/contre-lopacite-de-la-surveillance-locale-attrap-tes-arretes-prefectoraux/
Le compte Mastodon de Attrap’Surveillance : https://mamot.fr/@AttrapSurveillance
Pour utiliser Attrap tout de suite : attrap.fr

Agenda

  • 27-30 décembre : Chaos Communication Congress (38C3) à Hambourg (Allemagne). La Quadrature sera présente avec une table et des ateliers !
  • 8 janvier : Réunion Technopolice Paris-Banlieue, à partir de 19h au Bar Commun, 135 rue des Poissonniers, Paris 18e.
  • 9 janvier : Réunion mensuelle du groupe Technopolice Marseille, à partir de 19h au Manifesten, 59 Rue Adolphe Thiers, Marseille.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

IA et VSA

France Contrôle

Divers

Contre l’opacité de la surveillance locale : Attrap tes arrêtés préfectoraux !

Par : bastien
19 décembre 2024 à 08:12

Un des obstacles les plus importants dans la lutte contre la Technopolice est l’opacité persistante de l’utilisation des technologies de surveillance. Pour contrer cette difficulté, La Quadrature du Net lance aujourd’hui Attrap (pour « Automate de Traque de Termes et de Recherche dans les Arrêtés Préfectoraux »), un moteur de recherche d’arrêtés préfectoraux qui contribue ainsi à une plus grande transparence de l’action de l’administration. Cet outil est destiné aux journalistes, militant·es, avocat·es, habitant·es qui souhaitent faire des recherches facilement et rapidement dans la masse d’arrêtés préfectoraux, et ainsi pouvoir connaître quels sont les outils de surveillance et de contrôle utilisés par l’État sur elles et eux.

Ces dernières années, la multiplication des outils de surveillance à disposition des autorités publiques s’est accompagnée d’une augmentation du pouvoir des préfets, émanations locales de l’État. Par exemple, depuis 1995, il revient aux préfets de département d’autoriser les communes ou commerces à mettre en place de la vidéosurveillance. On retrouve ce même mécanisme d’autorisation préfectorale pour les drones depuis 2023 ou, depuis la loi sur les Jeux Olympiques, pour la vidéosurveillance algorithmique dont la première autorisation a été délivrée en avril 2024.

Les préfets sont également dotés de pouvoirs d’interdictions ou de restrictions. Ils peuvent ainsi interdire des manifestations, créer des locaux de rétention administrative (équivalent temporaire des centres de rétention administratifs, CRA, qui servent à enfermer les personnes étrangères avant de les expulser) ou, depuis la loi SILT (qui introduisait en 2017 dans le droit commun les mesures de l’état d’urgence), mettre en place des « périmètres de sécurité ».

En théorie, toutes ces décisions des préfets doivent être publiées. Mais en pratique, il est très difficile d’accéder à cette information. Parfois, les préfectures communiquent sur les réseaux sociaux. Mais cela reste exceptionnel et cantonné à quelques grands événements. La plupart du temps, toutes ces décisions sont enterrées au fond des recueils des actes administratifs des préfectures.

Les recueils des actes administratifs, triste exemple d’inaccessibilité

Les recueils des actes administratifs (RAA) sont les journaux officiels des préfectures : dans un objectif très théorique de transparence, beaucoup de décisions prises par les préfectures doivent être publiée dans ces RAA. Cette publicité est cependant limitée en pratique : les RAA sont délibérément organisés de manière à être les moins accessibles possibles.

Prenons un cas pratique pour illustrer cette inaccessibilité. De passage à Antibes le week-end du 25-26 août 2024, vous avez constaté qu’un drone survolait le centre-ville. Vous souhaitez alors connaître la décision (en l’occurrence ici, un arrêté) qui a autorisé cette surveillance et voir les justifications avancées par les pouvoirs publics pour son déploiement, la durée d’autorisation ou encore les personnes responsables.

Une recherche sur le site de la préfecture des Alpes-Maritimes ne retourne aucun résultat. Vous devez alors rechercher par vous-même dans les RAA. Mais ceux de la préfecture des Alpes-Maritimes sont dispersés dans une multitude de fichiers PDF, eux-même éparpillés dans de nombreuses pages et sous-pages du site de l’administration. Vous devez donc scruter l’ensemble des recueils mensuels, spéciaux et spécifiques. Mais gare à vous si vous ouvrez trop rapidement plusieurs fichiers PDF : vous vous retrouverez bloqué·e par la plateforme et devrez attendre plusieurs dizaines de minutes avant de pouvoir continuer ! De plus, en utilisant la fonction Recherche de votre navigateur dans les fichiers PDF des RAA publiés autour de la date recherchée, vous ne trouvez nulle part le terme « aéronef » (expression légalement consacrée pour désigner les drones).

Finalement, en recherchant « drone », vous trouvez une petite ligne dans le sommaire du RAA spécial du 14 août. En vous rendant à la page indiquée dans le sommaire, vous constaterez qu’il s’agit bien de l’arrêté préfectoral que vous cherchez. Mais il n’est pas possible de sélectionner le texte (donc de faire une recherche dans le corps des arrêtés du RAA) parce que les services de la préfecture ont publiée sa version scannée…

Il ne s’agit pas du pire exemple, même si certaines préfectures rendent leurs recueils d’actes administratifs un peu plus accessibles que celle des Alpes-Maritimes. Et, dans notre cas pratique, il s’agissait de retrouver un arrêté précis. Autant dire qu’il n’est pas possible de faire une veille efficace, et donc d’exercer un contrôle sur les actes pris par les préfectures, notamment en termes de surveillance de la population.

Une interface unique pour rendre accessible les recueil des actes administratifs

Pour contourner ces obstacles pratiques, nous avons créé Attrap. Il s’agit d’un moteur de recherche qui analyse automatiquement les sites des préfectures, télécharge les différents fichiers PDF des RAA, reconnaît les caractères, extrait le texte et rend tout cela disponible dans une interface web unique. À partir de cette dernière, vous pouvez alors rechercher des mots-clés dans les RAA de toutes les préfectures ou certaines seulement, trier les résultats par pertinence ou chronologiquement, ou encore faire des recherches avancées avec les mots « AND » ou « OR ». Ainsi, l’arrêté d’autorisation de drones de notre exemple peut se trouver en quelques instants.

Mieux ! Si vous savez coder et voulez développer des fonctionnalités que n’offre pas Attrap (par exemple un système de statistiques, de veille, ou d’analyse plus poussée des arrêtés préfectoraux), vous pouvez utiliser librement l’API du service. C’est grâce à celle-ci que nous avons créé les robots de veille Mastodon Attrap’Surveillance (qui détecte la vidéosurveillance, la VSA et les drones), Attrap’Silt (qui détecte les périmètres de sécurité de la loi Silt) et Attrap’LRA (qui détecte les créations de locaux de rétention administrative). Et le code source de notre robot est lui aussi libre.

Redonner du pouvoir aux individus

Attrap est un nouvel outil pour, par exemple, les groupes locaux Technopolice qui documentent et veillent sur le développement des technologies de surveillance, dans nos quartiers, villes et villages. Cet outil permet ainsi de rendre visible, en alertant les habitant·es, de ce que la police voudrait invisible : la surveillance de nos rues et donc de nos vies. Il permettra également de documenter qui seront les futurs cobayes de la vidéo surveillance algorithmique (VSA) dans le cadre de la loi JO qui se poursuit jusqu’en mars 2025.

Ainsi, c’est grâce à Attrap que nous avons pu par exemple visibiliser les usages de VSA cette année, y compris saisir la CNIL d’une plainte lorsque la préfecture de police de Paris a utilisé cette technologie illégalement. C’est également grâce à cet outil que le groupe Technopolice Marseille a pu documenter les usages massifs de drones dans la cité phocéenne, notamment lors des « opérations place nette », vaste séquence médiatique de Gérald Darmanin au bilan très critiqué, ou pour surveiller le centre de rétention administrative du Canet (arrêté qui vient d’être suspendu par la justice suite à un recours de l’Ordre des avocats au barreau de Marseille et de La Cimade, soutenus par le Syndicat des Avocats de France, le Syndicat de la magistrature et le Gisti).

Attrap comporte encore quelques limites. Pour l’instant, seule une trentaine de préfectures de département et deux préfectures de région sont supportées. L’ajout d’une nouvelle administration nécessite du temps puisqu’il faut s’adapter à la manière qu’a chaque préfecture de répertorier en ligne ses RAA. Également, pour la plupart des préfectures, seuls les RAA de l’année 2024 sont indexés. Mais la couverture d’Attrap s’améliorera dans les prochains mois.

Pour améliorer Attrap, nous organisons un hackathon lors du 38ème Chaos Communication Congress (38C3) à Hambourg en Allemagne. Si vous aimez le Python, n’hésitez pas à venir ! Mais si vous n’êtes pas au 38C3, vous pouvez également vous rendre sur notre canal Matrix dédié pour commencer à contribuer ! 🤓

À l’avenir, d’autres fonctionnalités seront également ajoutées. Nous prévoyons notamment d’ajouter un système de veille, qui vous permettra d’être notifié·e par email des derniers résultats sans avoir à créer vous-même votre propre robot de veille.

Par cet outil, nous souhaitons donner plus de pouvoirs aux personnes concernées par les décisions préfectorales. Vous pouvez dès aujourd’hui avoir un aperçu des mesures les moins acceptables que les préfectures ont tendance à enterrer au fond de leurs RAA : interdictions de manifestations, vidéosurveillance, drones, vidéosurveillance algorithmique, interdictions de festivals de musique clandestins, mesures de police justifiées par des appels au « zbeul » sur les réseaux sociaux, etc.

Nous espérons qu’Attrap permettra de mieux visibiliser l’action locale (et les abus) de l’État. L’opacité entretenue par les préfectures vient de perdre un peu de terrain. Pour nous aider à continuer nos actions, vous pouvez nous faire un don. Et si vous voulez contribuer à Attrap, rendez-vous sur le canal Matrix dédié.

QSPTAG #315 — 6 décembre 2024

Par : robinson
6 décembre 2024 à 12:34

C’est pas de l’IA, c’est du soutien !

Jeudi dernier, le 28 novembre, nous avons lancé notre campagne de dons pour 2025. Comme à chaque fin d’année, les associations font leur appel à soutien pour boucler le budget de l’année qui va commencer. La Quadrature n’y échappe pas, d’autant moins qu’elle tient principalement par vos dons et qu’elle refuse de solliciter des subventions publiques, pour des raisons d’indépendance de plus en plus évidentes. Si vous le pouvez, merci de nous soutenir financièrement !

Pour animer ce mois de campagne, on a décidé de parler d’un sujet qui nous intéresse depuis un moment déjà, mais qu’on veut prendre à bras le corps tant les choses s’accélèrent : l’IA. Derrière le buzzword du moment se cachent énormément de fantasmes et des réalités trop mal connues. Tant de croyances entourent l’IA qu’elle joue le rôle d’un mythe, endossant tantôt le rôle du sauveur ou celui du bourreau de l’humanité. Mais elle a des réalités concrètes à partir desquelles il faut l’appréhender. Par où commencer ?

D’abord, supprimer l’effet de fascination causé par l’expression elle même. « L’intelligence artificielle » n’existe pas. Ou plutôt, il faut regarder de plus près ce que recouvre le mot magique. Nous avons publié un premier article accompagné d’une première vidéo pour présenter les grandes lignes de notre lecture du phénomène. L’IA n’est rendue possible que par une énorme concentration de moyens qui la place d’entrée entre les mains du système industriel et financier dominant, avec tous les dégâts sociaux et environnementaux qui s’ensuivent. Elle sert logiquement les intérêts de ces dominants. Comme instrument de police avec la VSA, comme instrument de contrôle social avec les algorithmes administratifs, comme instrument de l’exploitation salariale avec l’entrée de l’IA générative dans les entreprises… Autant d’aspects que nous essaierons d’explorer tout au long de cette campagne et dans les mois qui viennent. Soutenez La Quadrature en 2025 !

Rendez-vous sur la page de la campagne de dons : https://www.laquadrature.net/donner/
Premier article sur l’IA : https://www.laquadrature.net/2024/11/29/cest-pas-de-lia-cest-de-lexploitation-dernier-cri/
Lien direct vers la vidéo : https://video.lqdn.fr/w/kzeD86nXj12pKnEqwZKQEF

France Contrôle : un algo de contrôle discriminatoire à l’Assurance maladie

Exemple concret des espoirs et des ambitions confiées à « l’intelligence artificielle » (naguère, on appelait ça le « big data ») : identifier les fraudes aux prestations sociales. Nous avons publié l’année dernière les résultats de notre travail sur l’algorithme de notation utilisé par la Caisse nationale d’allocations familiales (CNAF) pour attribuer un « score de risque » à ses bénéficiaires. Nous avions découvert, et montré preuve à l’appui, que l’algorithme en question était écrit pour cibler plus particulièrement les personnes en situation de grande précarité (solitude, charge de famille, faibles revenus, etc.). Nous publions cette semaine la suite de cette enquête.

Cette fois, c’est l’algorithme de notation utilisé par la Caisse nationale de l’assurance maladie (CNAM) qui est décortiqué. Nos conclusions sont les mêmes : sous prétexte de lutter contre la fraude, la CNAM accentue la pression de contrôle sur les personnes les plus fragiles. Adultes handicapées, mères célibataires, voilà les ennemis de la solidarité sociale et les « fraudeurs » désignés par les responsables des services sociaux qui mettent au point ces algorithmes de contrôle. Un article à lire sur notre site.

Lire l’article : https://www.laquadrature.net/2024/12/05/notation-algorithmique-lassurance-maladie-surveille-les-plus-pauvres-et-harcele-les-meres-precaires/

Surveillance algorithmique : la CNIL démissionne

Autre usage de l’IA. On vous a souvent parlé de Briefcam, un logiciel de VSA doté de puissantes fonctions d’identification faciale et d’analyse biométrique, acheté par de nombreuses villes en France et utilisé aussi par la police nationale et la gendarmerie nationale, comme l’a révélé l’an dernier le média Disclose.

L’outil est si puissant et si profondément installé dans le marché de la vidéosurveillance algorithmique à la française (VSA), qu’à la suite de l’article de Disclose, la CNIL a mené une enquête sur l’usage du logiciel par la police et la gendarmerie, dont elle a publié les conclusions cette semaine (juste après notre article qui actait sa démission, et le moins qu’on puisse dire, c’est que les conclusions de son enquête ne sont pas de nature à nous contredire).

Le logiciel Briefcam (comme ses semblables) est capable d’identifier une personne dans la foule à l’aide de traits individuels caractéristiques : taille, démarche, vêtements, couleur de la peau ou des cheveux, etc. Cette identification individuelle permet au logiciel de retrouver la même personne sur toutes les images des caméras publiques de la ville, et de la suivre partout – un véritable fantasme policier. Mais dans l’état du droit actuel, tout traitement de données qui permet d’identifier une personne de façon certaine, et isole l’individu au sein d’un groupe, relève du traitement de données biométriques, dites « sensibles », c’est-à-dire encore plus protégées et encadrées par la loi. On ne fait pas ce qu’on veut avec des données personnelles, encore moins avec des données biométriques, et c’est le rôle de la CNIL d’y veiller depuis sa création en janvier 1978.

Or, devant les parlementaires qui la consultaient sur la Loi Transports (laquelle cherchait à légaliser l’usage de la VSA pour certaines enquêtes pénales) comme dans les conclusions de son enquête sur Briefcam, la CNIL se défausse. Elle se contente de rappeler l’interdiction de la reconnaissance faciale mais pour le reste des fonctions d’analyse biométriques – tout aussi dangereuses, et tout aussi illégales –, elle refuse de faire appliquer le droit et se contente des explications fournies par les institutions policières. En donnant ainsi son aval à une pratique illégale de surveillance passible de sanctions pénales, la CNIL trahit sa mission de protection des droits et des libertés. Notre analyse complète dans l’article.

Lire l’article : https://www.laquadrature.net/2024/12/04/vsa-et-biometrie-la-cnil-demissionnaire/

Data centers : le coût écologique du tout numérique

C’est un des pires aspects de l’IA : basée sur d’énormes puissances de calcul, elle contribue à l’explosion des besoins en infrastructures, et particulièrement en data centers, gourmands en énergie et en eau de refroidissement. La ville de Marseille, grand nœud portuaire et « porte » du sud de la France vers la Méditerranée et le reste du monde, est particulièrement concernée par le sujet : placée au point d’arrivée sur le continent de nombreux câbles sous-marins, elle est envahie par les data centers qui stockent et traitent les données en transit.

Le collectif marseillais « Le nuage était sous nos pieds », dont fait partie La Quadrature, veut re-matérialiser le cloud pour montrer la réalité de nos usages numériques. Il a organisé un festival informatif et militant en novembre à Marseille, et publié un premier article sur le sujet en septembre dernier. Voici le deuxième article, qui analyse en détails la situation à Marseille.

Lire l’article : https://www.laquadrature.net/2024/11/20/accaparement-du-territoire-par-les-infrastructures-du-numerique/

Agenda

La Quadrature dans les médias

Data centers à Marseille

Technopolice, le livre

Vidéosurveillance algorithmique

France Contrôle

Notation algorithmique: l’Assurance Maladie surveille les plus pauvres et harcèle les mères précaires

Par : bastien
5 décembre 2024 à 07:21

Depuis 2021, nous documentons via notre campagne France Contrôle les algorithmes de contrôle social utilisés au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysé le recours aux algorithmes de notation. Après avoir révélé que l’algorithme utilisé par la CAF visait tout particulièrement les plus précaires, nous démontrons, via la publication de son code1Plus précisément, nous avons eu accès à l’ensemble des odds ratio associés aux variables, ce qui nous a permis de rétro-ingéniérer le code de l’algorithme., que l’Assurance Maladie utilise un algorithme similaire ciblant directement les femmes en situation de précarité.

Depuis 2018, un algorithme développé par l’Assurance Maladie (CNAM) attribue une note, ou score de suspicion, à chaque foyer bénéficiant de la Complémentaire Santé Solidaire gratuite (C2SG), soit 6 millions de personnes parmi les plus pauvres de France2La C2S gratuite (C2SG) est une complémentaire santé gratuite accordée sous conditions de revenus et de composition familiale. Réservée aux foyers les plus précaires, elle bénéficiait, en 2023, à 5,9 millions de personnes (voir ici). Le plafond annuel de ressources de la C2SG a été fixé à 9 719 € pour une personne seule, en métropole, au 1er avril 2023, modulable en fonction de la composition du foyer du demandeur (voir ici). Attribuée au niveau du foyer et non au niveau individuel, elle sert à couvrir tout ou partie des frais restant à la charge de l’assuré·e. La C2S peut aussi être soumise à participation financière en cas de revenus légèrement supérieurs (1,5 million de personnes).. Cette note sert à sélectionner les foyers devant faire l’objet d’un contrôle. Plus elle est élevée, plus la probabilité qu’un foyer soit contrôlé est grande. Suite à une erreur de la CNAM, nous avons pu avoir accès au code source de cet algorithme que nous rendons public avec cet article. Le constat est accablant.

L’algorithme cible délibérément les mères précaires. Ces dernières, ouvertement présentées dans des documents officiels par les responsables de la CNAM comme étant « les plus à risques d’anomalies et de fraude »3Voir ce document de présentation du modèle de datamining en « Comité de Direction Fraude » le 11 janvier 2020. C’est ce document qui a été mal occulté par les équipes de la CNAM., reçoivent un score de suspicion plus élevé que le reste des assuré·es. En retour, elles subissent un plus grand nombre de contrôles. Notons que les – trop rares – témoignages dont nous disposons montrent que ces contrôles peuvent notamment aboutir à des suspensions abusives de couverture santé entraînant des ruptures d’accès aux soins aux conséquences particulièrement graves, et ce, pour l’ensemble des ayants droit du foyer dont les enfants4Si la violence des contrôles organisés par la CAF sont particulièrement bien documentés – voir notamment les travaux des collectifs Changer de Cap et Stop Contrôles –, il n’existe pas, à notre connaissance, de travail équivalent sur les contrôles CNAM. Nous avons cependant pu échanger avec des associations de défense des droits des assuré·es qui ont confirmé l’existence de suspensions abusives de couverture santé..

Stigmatiser les femmes précaires

« Première demande dont le demandeur est une femme de plus de 25 ans avec plus d’un majeur et au moins un mineur dans le foyer »5Voir ce document de présentation du modèle de datamining en « Comité de Direction Fraude » le 11 janvier 2020. C’est ce document qui a été mal occulté par les équipes de la CNAM.. Voici, mot pour mot, comment est décrit, au détour d’une slide PowerPoint, ce que les responsables de la CNAM appellent le « profil-type du fraudeur »6L’expression « profil-type du fraudeur » est tirée du rapport 2020 de lutte contre la fraude de l’Assurance Maladie disponible ici.. C’est ce « profil-type » que l’algorithme est chargé d’aller détecter parmi les assuré·es. Plus une personne se rapproche de ce profil, plus son score de suspicion est élevé et sa probabilité d’être contrôlée est grande.

L’analyse du code de l’algorithme vient confirmer cette description. Parmi les variables utilisées par l’algorithme et augmentant le score de suspicion, on trouve notamment le fait d’être une femme, d’avoir des enfants mineurs ou d’être âgé·e de plus de 25 ans7Un premier modèle a été utilisé par l’Assurance Maladie entre 2018 et 2021. Visant à prédire le risque d’indus, il est basé sur une régression logistique simple comprenant 5 variables en entrée, dont le sexe, l’âge ou la composition du foyer. En 2021, ce modèle a été modifié à la marge. L’entraînement semble être réalisé dans les « règles de l’art », à partir de la sélection aléatoire de plusieurs milliers de dossiers, envoyés aux équipes de contrôle puis utilisés comme base d’apprentissage. Pour plus de détails, voir l’analyse sur notre Gitlab..

Si cet algorithme ne fait pas directement apparaître de critères liés à la précarité économique, c’est tout simplement que ce critère est déjà présent de base dans la définition de la population analysée. Bénéficiaire de la C2SG, cette « femme de plus de 25 ans » fait partie des 6 millions de personnes les plus pauvres de France, dont la majorité est allocataire du RSA et/ou privée d’emploi8Pour une présentation du public concerné par la C2SG, voir notamment le rapport annuel 2023 portant sur la Complémentaire Santé Solidaire de la Direction de la Sécurité Sociale disponible ici..

Vers un ciblage des personnes malades ou en situation de handicap ?

En complément du code de l’algorithme utilisé depuis 2018, nous avons obtenu celui d’un modèle expérimental développé en vue d’évolutions futures. En plus de cibler les mères précaires, ce modèle ajoute aux critères venant augmenter le score de suspicion d’un·e assuré·e le fait d’être en situation de handicap (« bénéficier d’une pension d’invalidité »), d’être malade (être « consommateur de soin » ou avoir « perçu des indemnités journalières », c’est-à-dire avoir été en arrêt maladie) ou encore… d’être « en contact avec l’Assurance Maladie »9Voir ce document de présentation du modèle de datamining en « Comité de Direction Fraude » le 11 janvier 2020. C’est ce document qui a été mal occulté par les équipes de la CNAM. Ajoutons qu’il est possible que les équipes de la CNAM aient réalisé des traitements illégaux pour arriver à ces tristes conclusions. Si le modèle alternatif nécessite des croisements de données illégaux – rappelons par ailleurs qu’il est question de données de santé – il est légitime de s’interroger sur la base légale à partir de laquelle son « efficience » a pu être testée..

Une précision s’impose. Le fait que ce modèle expérimental n’ait pas été généralisé n’est en rien lié à un sursaut de décence de la part de la CNAM. Son « efficience » fut au contraire vantée dans des documents distribués lors de sa présentation en « Comité de direction Fraude » début 202010Voir ce document de présentation du modèle de datamining en « Comité de Direction Fraude » le 11 janvier 2020. C’est ce document qui a été mal occulté par les équipes de la CNAM.. Le seul problème, y expliquent les équipes de statisticien·nes de la CNAM, est que son utilisation n’est pas légale car ce nouveau modèle nécessiterait un « croisement de données non autorisé ». Pour pouvoir le mettre en place, les équipes cherchent à appâter les dirigeant⸱es de la CNAM afin de gagner leur appui pour obtenir le changement réglementaire nécessaire à la mise en place de ce croisement de données11Le croisement demandé semble concerner notamment la base SIAM Erasme, soit une base de données nominatives particulièrement intrusives puisque portant sur les dépenses de santé. Voir ce rapport de la Cour des Comptes. L’accès aux données des comptes bancaires semble aussi être au centre des « limitations réglementaires » empêchant la CNAM de généraliser les modèles expérimentaux..

Opacité et indécence

S’il est une chose cruciale que montrent les documents que nous rendons publics, c’est que les dirigeant⸱es de la CNAM sont parfaitement au courant de la violence des outils qu’ils et elles ont validé. Nul besoin d’être expert·e en statistique pour comprendre les descriptions retranscrites ci-dessus relatives du « profil-type du fraudeur »12L’expression « profil-type du fraudeur » est tirée du rapport 2020 de lutte contre la fraude de l’Assurance Maladie disponible ici. que l’algorithme est chargé de cibler.

Mais plutôt que de s’y opposer, les responsables de la CNAM ont préféré utiliser l’opacité entourant son fonctionnement pour en tirer profit. Technique « à la pointe de la technologie », « intelligence artificielle » permettant une « détection proactive » de la fraude, outil prédictif « à la Minority Report » : voici comment, au gré de rapports officiels ou d’interventions publiques, ce type d’outil est vanté13Ces citations se réfèrent globalement à l’ensemble des algorithmes de notation utilisé par la CNAM à des fins de contrôle, ce qui inclut tant l’algorithme de notation des bénéficiaires de la C2SG que les algorithmes utilisé pour le profilage et le contrôle des professionnels de santé. Voir le site de l’assurance maladie, le rapport annuel 2021 de lutte contre la fraude à l’assurance maladie disponible ici et l’article publié en 2022 sur Challenges, « Pour débusquer les fraudeurs, la Sécu met le paquet sur l’IA et les cyber-enquêteurs » et le 30 septembre 2022 disponible ici.. L’absence de transparence vis à vis du grand public quant aux critères de ciblage de l’algorithme permet de masquer la réalité des politiques de contrôles. Cette situation permet alors aux dirigeant.es de l’Assurance Maladie de faire briller leurs compétences gestionnaires et leur capacité d’innovation sur le dos des plus précaires.

Au caractère indécent d’une telle présentation, ajoutons ici qu’elle est en plus mensongère. Car, contrairement à la manière dont il est présenté, l’algorithme n’est pas construit pour détecter les seules situations de fraudes. La documentation technique montre qu’il est entraîné pour prédire le fait qu’un dossier présente ce que l’Assurance Maladie appelle une « anomalie », c’est à dire le fait que les revenus d’un·e assuré·e dépasse le plafond de revenus de la C2S14Pour qu’une anomalie soit déclarée comme fraude, il faut que le niveau de revenu constaté après contrôle soit supérieur à 3 fois le plafond de la C2S. Voir notamment le rapport annuel 2021 de lutte contre la fraude disponible ici.. Or seule une partie de ces « anomalies » – lorsque l’écart entre les revenus et le plafond dépasse un certain montant – est classifiée comme fraude par l’Assurance-Maladie. Tout laisse à penser que la majorité des « anomalies » détectées par l’algorithme résulte avant tout d’erreurs involontaires, liées à la complexité des critères d’attribution de la C2SG qui inclut notamment l’ensemble des revenus dont le foyer dispose, et ce, jusqu’aux cadeaux et dons familiaux15Si nous n’avons pu trouver de chiffres précis quant à la proportion d’« anomalies » liées à des erreurs involontaires dans le cas de la C2SG, nous nous basons sur les études existantes portant sur l’origine des trop-perçus liés au Revenu de Solidarité Active (RSA) dont les conditions d’attribution – nonobstant la fréquence trimestrielle ou annuelle des déclarations – sont similaires à celle de la C2SG. Or, les études portant sur les RSA démontrent sans exception que la très grande majorité des trop-perçus sont liés à des erreurs déclaratives liés à la complexité déclarative de cette prestation. Plusieurs de ces études sont citées dans cet article..

Cette communication est finalement à mettre en perspective face aux enjeux financiers. En 2022, le directeur de l’Assurance Maladie annonçait que la fraude à l’ensemble de la C2S était estimée à 1% de son coût, soit 25 millions sur plus de 2,5 milliards d’euros16En 2022, le directeur de l’Assurance Maladie a présenté les premières estimations devant le Sénat. Son audition est disponible ici. Voir aussi le rapport annuel de lutte contre la fraude de l’Assurance Maladie 2021 disponible ici. Les chiffres des montants de la C2S (gratuite et avec participation financière) gérés par la CNAM sont disponibles dans le rapport annuel 2023 de la direction de la sécurité sociale.. En revanche, le taux de non-recours à cette prestation sociale était lui estimé à plus de 30%, soit un « gain » d’environ… un milliard d’euros pour la CNAM17Voir Mathilde Caro, Morgane Carpezat, Loïcka Forzy, « Le recours et le non-recours à la complémentaire santé solidaire. Les dossiers de la Drees 2023 », disponible ici.. Ces chiffres soulignent l’hypocrisie politique de l’importance de lutter contre la fraude à la C2SG – et la nécessité des outils dopés à l’intelligence artificielle – tout en démontrant que le recours à de tels outils est avant tout une question d’image et de communication au service des dirigeant·es de l’institution.

Technique et déshumanisation

Il est une dernière chose que mettent en lumière les documents que nous rendons public. Rédigés par les équipes de statisticien·nes de la CNAM, ils offrent un éclairage particulièrement cru sur l’absence flagrante de considération éthique par les équipes techniques qui développent les outils numériques de contrôle social. Dans ces documents, nulle part n’apparaît la moindre remarque quant aux conséquences humaines de leurs algorithmes. Leur construction est abordée selon des seules considérations techniques et les modèles uniquement comparés à l’aune du sacro-saint critère d’efficience.

On perçoit alors le risque que pose la numérisation des politiques de contrôle dans le poids qu’elle donne à des équipes de data-scientists coupées des réalités de terrain – ils et elles ne seront jamais confrontées à la réalité d’un contrôle et à leurs conséquences en termes d’accès aux soins – et nourries d’une vision purement mathématique du monde.

On appréhende aussi l’intérêt d’une telle approche pour les responsables des administrations sociales. Ils et elles n’ont plus à faire face aux éventuelles réticences des équipes de contrôleur·ses lors de la définition des politiques de contrôle18Sur la contestation lors de l’élaboration de politiques de contrôle par les équipes internes à la CNAF, voir le livre Contrôler les assistés. Genèses et usage d’un mot d’ordre, de Vincent Dubois, page 250.. Ils et elles n’ont d’ailleurs même plus à expliquer la façon dont ces politiques ont été construites aux équipes de contrôleur·ses, à qui il est simplement demandé de contrôler les dossiers les moins bien notés par un algorithme-boîte-noire.

Le problème n’est pas technique mais politique

Depuis maintenant deux ans, nous documentons la généralisation des algorithmes de notation à des fins de contrôle au sein de notre système social. À l’instar de la CNAM, nous avons montré qu’ils étaient aujourd’hui utilisés à la Caisse Nationale des Allocations Familiales (CNAF), l’Assurance-Vieillesse ou encore la Mutualité Sociale Agricole et ont été expérimentés à France Travail.

Depuis deux ans, nous alertons sur les risques associés à l’essor de ces techniques, tant en termes de surveillance numérique que de discriminations et de violence institutionnelle. Surtout, nous n’avons eu de cesse de répéter que, quelques soient les institutions sociales, ces algorithmes ne servent qu’un seul objectif : faciliter l’organisation de politiques de harcèlement et de répression des plus précaires, et ce grâce à l’opacité et au vernis scientifique qu’ils offrent aux responsables des administrations sociales.

C’est désormais chose prouvée pour deux administrations. Pour la CNAM avec cet article. Mais aussi pour la CNAF, dont nous avons publié il y a tout juste un an le code de l’algorithme de notation alimenté par les données personnelles de plus de 30 millions de personnes, et que nous avons attaqué devant le Conseil d’État en octobre dernier avec 14 autres organisations en raison du ciblage des personnes en situation de précarité, de handicap ou encore les mères isolées.

Nous espérons que cet article, associé à ceux publiés sur la CNAF, finira de démontrer qu’il n’est pas nécessaire d’accéder au code de l’ensemble de ces algorithmes pour connaître leurs conséquences sociales. Car le problème n’est pas technique mais politique.

Vendus au nom de la soi-disant « lutte contre la fraude sociale », ces algorithmes sont en réalité conçus pour détecter des trop-perçus, ou indus, dont toutes les études montrent qu’ils se concentrent sur les personnes précaires en très grande difficulté. En effet, ces indus sont largement le fait d’erreurs déclaratives involontaires consécutives à deux principaux facteurs: la complexité des règles d’attribution des minima sociaux (RSA, AAH, C2SG…) et des situations personnelles de grande instabilité (personnelle, professionnelle ou administrative). Un ancien responsable de la CNAF expliquait ainsi que « Les indus s’expliquent […] par la complexité des prestations, le grand nombre d’informations mobilisées pour déterminer les droits et l’instabilité accrue de la situation professionnelle des allocataires », ce qui est avant tout le cas pour les « prestations liées à la précarité […] très tributaires de la situation familiale, financière et professionnelle des bénéficiaires »19Voir les articles d’un directeur du service « contrôle et lutte contre la fraude ». Le premier « Du contrôle des pauvres à la maîtrise des risques » a été publié en 2006 et est disponible ici. Le second est intitulé « Le paiement à bon droit des prestations sociales des CAF » publié en 2013 et disponible ici..

Autrement dit, ces algorithmes ne peuvent pas être améliorés car ils ne sont que la traduction technique d’une politique visant à harceler et réprimer les plus précaires d’entre nous.

Lutter

L’hypocrisie et la violence de ces pratiques et des politiques qui les sous-tendent doivent être dénoncées et ces algorithmes abandonnés. Quant aux responsables qui les appellent de leurs vœux, les valident et les promeuvent, ils et elles doivent répondre de leur responsabilité.

Pour nous aider à continuer à documenter ces abus, vous pouvez nous faire un don. Nous appelons également celles et ceux qui, bénéficiaires de la C2SG ou non, souhaitent agir contre cet algorithme et plus largement les politiques de contrôles de la CNAM. Assuré·es, collectifs, syndicats, employé·es de la CNAM, vous pouvez nous contacter sur algos@laquadrature.net pour réfléchir collectivement aux suites à donner à cette publication.

References[+]

References
1 Plus précisément, nous avons eu accès à l’ensemble des odds ratio associés aux variables, ce qui nous a permis de rétro-ingéniérer le code de l’algorithme.
2 La C2S gratuite (C2SG) est une complémentaire santé gratuite accordée sous conditions de revenus et de composition familiale. Réservée aux foyers les plus précaires, elle bénéficiait, en 2023, à 5,9 millions de personnes (voir ici). Le plafond annuel de ressources de la C2SG a été fixé à 9 719 € pour une personne seule, en métropole, au 1er avril 2023, modulable en fonction de la composition du foyer du demandeur (voir ici). Attribuée au niveau du foyer et non au niveau individuel, elle sert à couvrir tout ou partie des frais restant à la charge de l’assuré·e. La C2S peut aussi être soumise à participation financière en cas de revenus légèrement supérieurs (1,5 million de personnes).
3, 5, 10 Voir ce document de présentation du modèle de datamining en « Comité de Direction Fraude » le 11 janvier 2020. C’est ce document qui a été mal occulté par les équipes de la CNAM.
4 Si la violence des contrôles organisés par la CAF sont particulièrement bien documentés – voir notamment les travaux des collectifs Changer de Cap et Stop Contrôles –, il n’existe pas, à notre connaissance, de travail équivalent sur les contrôles CNAM. Nous avons cependant pu échanger avec des associations de défense des droits des assuré·es qui ont confirmé l’existence de suspensions abusives de couverture santé.
6, 12 L’expression « profil-type du fraudeur » est tirée du rapport 2020 de lutte contre la fraude de l’Assurance Maladie disponible ici.
7 Un premier modèle a été utilisé par l’Assurance Maladie entre 2018 et 2021. Visant à prédire le risque d’indus, il est basé sur une régression logistique simple comprenant 5 variables en entrée, dont le sexe, l’âge ou la composition du foyer. En 2021, ce modèle a été modifié à la marge. L’entraînement semble être réalisé dans les « règles de l’art », à partir de la sélection aléatoire de plusieurs milliers de dossiers, envoyés aux équipes de contrôle puis utilisés comme base d’apprentissage. Pour plus de détails, voir l’analyse sur notre Gitlab.
8 Pour une présentation du public concerné par la C2SG, voir notamment le rapport annuel 2023 portant sur la Complémentaire Santé Solidaire de la Direction de la Sécurité Sociale disponible ici.
9 Voir ce document de présentation du modèle de datamining en « Comité de Direction Fraude » le 11 janvier 2020. C’est ce document qui a été mal occulté par les équipes de la CNAM. Ajoutons qu’il est possible que les équipes de la CNAM aient réalisé des traitements illégaux pour arriver à ces tristes conclusions. Si le modèle alternatif nécessite des croisements de données illégaux – rappelons par ailleurs qu’il est question de données de santé – il est légitime de s’interroger sur la base légale à partir de laquelle son « efficience » a pu être testée.
11 Le croisement demandé semble concerner notamment la base SIAM Erasme, soit une base de données nominatives particulièrement intrusives puisque portant sur les dépenses de santé. Voir ce rapport de la Cour des Comptes. L’accès aux données des comptes bancaires semble aussi être au centre des « limitations réglementaires » empêchant la CNAM de généraliser les modèles expérimentaux.
13 Ces citations se réfèrent globalement à l’ensemble des algorithmes de notation utilisé par la CNAM à des fins de contrôle, ce qui inclut tant l’algorithme de notation des bénéficiaires de la C2SG que les algorithmes utilisé pour le profilage et le contrôle des professionnels de santé. Voir le site de l’assurance maladie, le rapport annuel 2021 de lutte contre la fraude à l’assurance maladie disponible ici et l’article publié en 2022 sur Challenges, « Pour débusquer les fraudeurs, la Sécu met le paquet sur l’IA et les cyber-enquêteurs » et le 30 septembre 2022 disponible ici.
14 Pour qu’une anomalie soit déclarée comme fraude, il faut que le niveau de revenu constaté après contrôle soit supérieur à 3 fois le plafond de la C2S. Voir notamment le rapport annuel 2021 de lutte contre la fraude disponible ici.
15 Si nous n’avons pu trouver de chiffres précis quant à la proportion d’« anomalies » liées à des erreurs involontaires dans le cas de la C2SG, nous nous basons sur les études existantes portant sur l’origine des trop-perçus liés au Revenu de Solidarité Active (RSA) dont les conditions d’attribution – nonobstant la fréquence trimestrielle ou annuelle des déclarations – sont similaires à celle de la C2SG. Or, les études portant sur les RSA démontrent sans exception que la très grande majorité des trop-perçus sont liés à des erreurs déclaratives liés à la complexité déclarative de cette prestation. Plusieurs de ces études sont citées dans cet article.
16 En 2022, le directeur de l’Assurance Maladie a présenté les premières estimations devant le Sénat. Son audition est disponible ici. Voir aussi le rapport annuel de lutte contre la fraude de l’Assurance Maladie 2021 disponible ici. Les chiffres des montants de la C2S (gratuite et avec participation financière) gérés par la CNAM sont disponibles dans le rapport annuel 2023 de la direction de la sécurité sociale.
17 Voir Mathilde Caro, Morgane Carpezat, Loïcka Forzy, « Le recours et le non-recours à la complémentaire santé solidaire. Les dossiers de la Drees 2023 », disponible ici.
18 Sur la contestation lors de l’élaboration de politiques de contrôle par les équipes internes à la CNAF, voir le livre Contrôler les assistés. Genèses et usage d’un mot d’ordre, de Vincent Dubois, page 250.
19 Voir les articles d’un directeur du service « contrôle et lutte contre la fraude ». Le premier « Du contrôle des pauvres à la maîtrise des risques » a été publié en 2006 et est disponible ici. Le second est intitulé « Le paiement à bon droit des prestations sociales des CAF » publié en 2013 et disponible ici.

VSA et biométrie : la CNIL démissionnaire

Par : noemie
4 décembre 2024 à 09:36

Particulièrement défaillante sur les sujets liés à la surveillance d’État, la CNIL a encore manqué une occasion de s’affirmer comme véritable contre-pouvoir et, au passage, d’assurer la défense des droits humains. À l’occasion de l’examen de la proposition de loi sur la sécurité dans les transports, elle a ainsi plongé tête la première pour venir au secours des institutions policières et justifier leur utilisation d’un logiciel de vidéosurveillance algorithmique dite « a posteriori », telle que celle commercialisée par la société Briefcam. Si nous avions de moins en moins d’attentes envers la CNIL, nous ne pouvons aujourd’hui qu’acter ce constat : l’autorité se pense chaque jour davantage comme une institution d’accompagnement de l’« innovation » au service des start-ups et du pouvoir plutôt qu’une autorité de défense des droits.

Après la loi sur les Jeux Olympiques de 2023 qui légitimait la vidéosurveillance algorithmique (VSA) en temps réel, la VSA dite « a posteriori » s’est récemment retrouvée à l’agenda législatif. Nous vous en avons déjà parlé : ce type de logiciel permet de faire des analyses et recherches dans les enregistrements vidéo après la survenue d’un événement (et non en direct comme la VSA en temps réel ) sur la base d’attributs physiques et biométriques. Un texte déposé par la droite sénatoriale proposait ainsi une nouvelle expérimentation de ce type de VSA dans les transports, jusqu’en 2027, sur les vidéos réquisitionnées par la police lors de ses enquêtes auprès de la SNCF et la RATP. Passée à la trappe suite à la dissolution de l’Assemblée, cette proposition de loi revenait mercredi dernier en commission des lois.

Explication de texte

Concrètement, sans même recourir aux empreintes faciales des individus (reconnaissance faciale), ces méthodes de VSA permettent de suivre une personne précise à mesure qu’elle évolue dans l’espace urbain et passe dans le champ de vision de différentes caméras – grâce à la combinaison d’informations sur son apparence, par exemple, la couleur de ses vêtements ou des signes distinctifs comme la taille, la couleur et la coupe de cheveux, ou d’autres caractéristiques déduites à partir de l’identité de genre. En nous appuyant sur l’état du droit, il est très clair pour nous que, dès lors que les algorithmes de VSA permettent de retrouver une personne parmi d’autres, à partir des données physiques ou comportementales qui lui sont propres, il s’agit d’une identification biométrique. Or, en droit des données personnelles, les traitements biométriques sont strictement encadrés et en conséquence, l’utilisation de ces logiciels en l’absence de tout cadre juridique spécifique doit être considérée comme illégale.

Pourtant, la proposition de loi relative à la sécurité dans les transports prétendait échapper à cette catégorie, évoquant des « logiciels de traitement de données non biométriques pour extraire et exporter les images […] réquisitionnées » par la police. Si les logiciels visés sont bien ceux de Briefcam et consorts, une telle affirmation est donc incohérente, voire mensongère. Elle a uniquement pour but de minimiser l’impact de ces logiciels, tant d’un point vue technique que juridique. Nous avons donc envoyé une note détaillée (disponible ici) aux membres de la commission des lois afin de leur expliquer le fonctionnement de cette technologie ainsi que les conséquences juridiques qu’ils et elles devaient en tirer.

Puis, coup de théâtre lors de l’examen du texte : l’article est retiré. Mais si le rapporteur du texte, Guillaume Gouffier Valente, a voulu supprimer cet article, ce n’est non pas au motif que la VSA serait effectivement trop dangereuse pour les droits et libertés, mais parce que la CNIL, lors de son audition sur cette proposition de loi, aurait expressément affirmé qu’une telle loi n’était pas nécessaire et que ces logiciels étaient de toute façon d’ores et déjà utilisés. ll s’agirait donc de la part de la CNIL d’un renoncement à faire appliquer le droit qu’elle est pourtant censée connaître. Nous avons envoyé aux services de la CNIL une demande de rendez-vous pour en savoir plus et comprendre précisément la position de l’autorité dans ce dossier. Mais celle-ci est restée à ce jour sans réponse.

Protéger les pratiques policières

La position de la CNIL s’explique sans doute par sa volonté de justifier sa propre défaillance dans le dossier de la VSA. En effet, la solution d’analyse vidéo de Briefcam est déjà utilisée dans plus de 200 villes en France d’après un article du Monde Diplomatique et a été acquise par la police nationale en 2015 puis par la gendarmerie nationale en 2017. Autant d’usages illégaux qui auraient dû faire l’objet de sanctions fermes de sa part. Il n’en a rien été.

Après la révélation du média Disclose concernant le recours au logiciel Briefcam par la police et la gendarmerie nationale, le ministre de l’Intérieur avait commandé à l’Inspection générale de l’administration, l’Inspection générale de la gendarmerie nationale et l’Inspection générale de la police nationale un rapport d’évaluation, récemment publié, faisant état de l’utilisation de ce logiciel. Si on lit dans ce document différentes justifications et contorsions hasardeuses pour expliquer l’usage la fonction de reconnaissance faciale, ces institutions assument par contre totalement l’utilisation de Briefcam pour les autres fonctionnalités de reconnaissance biométrique.

Un exemple est même donné page 35, expliquant qu’un homme a pu être identifié grâce à la fonction de « similitude d’apparence » du logiciel, notamment parce qu’il portait un T-shirt très reconnaissable. Juridiquement, il s’agit donc d’un traitement de données biométriques. On apprend dans ce même rapport d’inspection que, désormais, pour sauver les meubles, la police et la gendarmerie qualifieraient cette solution de « logiciel de rapprochement judiciaire », une catégorie juridique spécifique qui n’est pas du tout adaptée à ces logiciels, comme nous l’expliquions ici.

À quoi bon la CNIL ?

À l’occasion de ce débat sur la proposition de loi sur les transports, la CNIL aurait donc pu se positionner fermement sur ce sujet, taper du poing sur la table et enfin mettre un coup d’arrêt à toutes ces justifications juridiques farfelues. Elle aurait pu poser une doctrine sur le sujet qui, aujourd’hui, manque cruellement, et ce, malgré nos appels du pied et les interprétations claires du monde universitaire sur la nature biométrique de ce type de technologies1 Voir par exemple le livre blanc « Surveiller les foules » de Caroline Lequesne, maîtresse de conférences en droit public à l’Université Côte d’Azur, ou encore les articles sur la « technopolice administrative » publiés dans la Revue des Droits de l’Homme par Robin Médard Inghilterra, maître de conférence à l’Université Paris I, accessibles en ligne ici et ici.. À l’inverse, elle a préféré acter sa démission totale devant les député⋅es.

Le laisser-faire coupable de la CNIL s’inscrit dans la continuité de ses prises de positions antérieures sur le sujet. En 2022 déjà, lorsque la CNIL avait adopté pour la première fois une position sur la VSA, elle avait fini par expressément exclure de son analyse – et sans explication – les usages « a posteriori » de la technologie, pourtant tout aussi dangereux que les usages en temps réel. Faute de « lignes directrices » sur le sujet, ces usages « a posteriori » ne sont donc couverts par aucune position de l’autorité administrative. Cela n’a pas empêché la CNIL d’intervenir lors d’actions en justice pour dédouaner la communauté de communes de Coeur Cote Fleurie de son utilisation de Briefcam.

Nous continuons donc d’assister au lent déclin de la CNIL en tant que contre-pouvoir étatique. Préférant se consacrer à l’accompagnement des entreprises (même techno-sécuritaires) et à la régulation du secteur économique, elle semble manquer de courage pour tenir tête aux ardeurs sécuritaires des pouvoirs publics, ce qui a logiquement et inexorablement mené à une inflation de textes autorisant les administrations à utiliser tout un tas de techniques de surveillance. Ce positionnement sur la VSA ressemble aujourd’hui à une capitulation complète. En refusant de rappeler le droit et en validant des interprétations hasardeuses et favorables aux intérêts policiers et industriels, elle semble aujourd’hui se satisfaire d’être une simple caution visant à valider des formes de surveillance illégales, reléguant les libertés publiques derrière les demandes du « terrain ».

Un réveil nécessaire

Quel est alors censé être le rôle de cette institution dans un supposé État de droit, si elle ne rappelle pas les exigences de proportionnalité à des agents demandant toujours plus de pouvoirs de contrôle sur la population ? À quoi sert l’expertise accumulée depuis plus de 45 ans si elle n’est pas mise au service des libertés des habitant·es, à l’heure où la France s’enfonce dans une course à la surveillance avec des pays comme les États-Unis, Israël ou la Chine ? Que faire lorsqu’on réalise que la CNIL est désormais davantage à l’écoute des administrations policières que des expert⋅es universitaires ou de la société civile ?

Face à ces dérives qui participent de la dérive autoritaire de l’État, nous appelons les commissaires et agent·es de la CNIL au sursaut. Si rien n’est fait pour contrecarrer ces tendances, le laisser-faire qui tient lieu de politique de la CNIL dans la plupart des dossiers technopoliciers de ces dernières années conduira à la disqualification définitive de l’autorité de protection des droits, ne lui laissant pour seule fonction que la régulation d’un marché de la surveillance désormais dopée par la prolifération des systèmes d’intelligence artificielle.

Du côté de La Quadrature du Net, nous ne nous résignons pas. En lien avec la mobilisation populaire, nous souhaitons tenter d’activer les contre-pouvoirs institutionnels qui peuvent encore l’être pour barrer la route à la légalisation programmée de la VSA et à la banalisation de ses usages policiers. Pour nous aider, rendez-vous sur notre page de campagne, et si vous le pouvez sur notre page de dons pour nous soutenir dans nos prochaines actions sur ce dossier.

References[+]

References
1 Voir par exemple le livre blanc « Surveiller les foules » de Caroline Lequesne, maîtresse de conférences en droit public à l’Université Côte d’Azur, ou encore les articles sur la « technopolice administrative » publiés dans la Revue des Droits de l’Homme par Robin Médard Inghilterra, maître de conférence à l’Université Paris I, accessibles en ligne ici et ici.

C’est pas de l’IA, c’est de l’exploitation dernier cri

Par : robinson
29 novembre 2024 à 09:39

Après deux ans passés à diversifier ses champs d’action, La Quadrature du Net s’attaque désormais à un nouveau front : la lutte contre le déferlement de l’intelligence artificielle (IA) dans tous les pans de la société. Pour continuer à faire vivre la critique d’une politique numérique autoritaire et écocide, La Quadrature a plus que jamais besoin de votre soutien en 2025.

Depuis plusieurs années, en lien avec d’autres collectifs en France et en Europe, nous documentons les conséquences sectorielles très concrètes de l’adoption croissante de l’intelligence artificielle : à travers les campagnes Technopolice et France Contrôle, ou encore plus récemment avec des enquêtes pour documenter l’impact environnemental des data centers qui accompagnent la croissance exponentielle des capacités de stockage et de calcul.

Une triple accumulation capitaliste

Ces derniers mois, suite à la hype soudaine de l’intelligence artificielle générative et des produits comme ChatGPT, nous assistons à une nouvelle accélération du processus d’informatisation, sous l’égide des grandes entreprises et des États complices. Or, cette accélération est la conséquence directe de tout ce qui pose déjà problème dans la trajectoire numérique dominante. D’abord, une formidable accumulation de données depuis de nombreuses années par les grandes multinationales de la tech comme Google, Microsoft, Meta ou Amazon, qui nous surveillent pour mieux prédire nos comportements, et qui sont désormais capables d’indexer de gigantesques corpus de textes, de sons et d’images en s’appropriant le bien commun qu’est le Web.

Pour collecter, stocker et traiter toutes ces données, il faut une prodigieuse accumulation de ressources. Celle-ci transparaît via les capitaux, d’abord : l’essor de la tech, dopée au capitalisme de surveillance, a su s’attirer les faveurs des marchés financiers et profiter de politiques publiques accommodantes. Grâce à ces capitaux, ces entreprises peuvent financer une croissance quasi-exponentielle de la capacité de stockage et de calcul de données nécessaire pour entraîner et faire tourner leurs modèles d’IA, en investissant dans des puces graphiques (GPU), des câbles sous-marins et des data centers. Ces composants et infrastructures nécessitant à leur tour des quantités immenses de terres et métaux rares, d’eau et d’électricité.

Lorsqu’on a en tête cette triple accumulation — de données, de capitaux, de ressources —, on comprend pourquoi l’IA est le produit de tout ce qui pose déjà problème dans l’économie du numérique, et en quoi elle aggrave la facture. Or, le mythe marketing (et médiatique) de l’intelligence artificielle occulte délibérément les enjeux et les limites intrinsèques à ces systèmes, y compris pour les plus performants d’entre eux (biais, hallucinations, gabegie des moyens nécessaires à leur fonctionnement).

L’exploitation au carré

L’emballement politico-médiatique autour de l’IA fait l’impasse sur les effets concrets de ces systèmes. Car bien loin de résoudre les problèmes actuels de l’humanité grâce à une prétendue rationalité supérieure qui émergerait de ses calculs, « l’IA » dans ses usages concrets amplifie toutes les injustices existantes. Dans le champ économique, elle se traduit par l’exploitation massive et brutale des centaines de milliers de « travailleur·euses de la donnée » chargées d’affiner les modèles et de valider leurs résultats. En aval, dans les organisations au sein desquelles ces systèmes sont déployés, elle induit une nouvelle prise de pouvoir des managers sur les travailleur·euses afin d’augmenter la rentabilité des entreprises.

Certes, il existe des travailleur·euses relativement privilégié·es du secteur tertiaire ou encore des « classes créatives » qui y voient aujourd’hui une opportunité inespérée de « gagner du temps », dans une société malade de la course à la productivité. C’est une nouvelle « dictature de la commodité » : à l’échelle individuelle, tout nous incite à être les complices de ces logiques de dépossession collective. Plutôt que de libérer les salarié⋅es, il y a fort à parier que l’automatisation du travail induite par le recours croissant à l’IA contribuera, en réalité, à accélérer davantage les cadences de travail. Comme ce fut le cas lors des précédentes vagues d’informatisation, il est probable que l’IA s’accompagne également d’une dépossession des savoirs et d’une déqualification des métiers qu’elle touche, tout en contribuant à la réduction des salaires, à la dégradation des conditions de travail et à des destructions massives d’emploi qualifiés — aggravant du même coup la précarité de pans entiers de la population.

Dans le secteur public aussi, l’IA accentue l’automatisation et l’austérité qui frappent déjà les services publics, avec des conséquences délétères sur le lien social et les inégalités. L’éducation nationale, où sont testées depuis septembre 2024 et sans aucune évaluation préalable, les IA « pédagogiques » d’une startup fondée par un ancien de Microsoft, apparaît comme un terrain particulièrement sensible où ces évolutions sont d’ores et déjà à l’œuvre.

Défaire le mythe

Pour soutenir le mythe de l’« intelligence artificielle » et minimiser ses dangers, un exemple emblématique est systématiquement mis en exergue : elle serait capable d’interpréter les images médicales mieux qu’un œil humain, et de détecter les cancers plus vite et plus tôt qu’un médecin. Elle pourrait même lire des résultats d’analyses pour préconiser le meilleur traitement, grâce à une mémoire encyclopédique des cas existants et de leurs spécificités. Pour l’heure, ces outils sont en développement et ne viennent qu’en appoint du savoir des médecins, que ce soit dans la lecture des images ou l’aide au traitement.

Quelle que soit leur efficacité réelle, les cas d’usage « médicaux » agissent dans la mythologie de l’IA comme un moment héroïque et isolé qui cache en réalité un tout autre programme de société. Une stratégie de la mystification que l’on retrouve aussi dans d’autres domaines. Ainsi, pour justifier la surveillance des communications, les gouvernements brandissent depuis plus de vingt ans la nécessité de lutter contre la pédocriminalité, ou celle de lutter contre le terrorisme. Dans la mythologie de la vidéosurveillance algorithmique policière (VSA), c’est l’exemple de la petite fille perdue dans la ville, et retrouvée en quelques minutes grâce au caméras et à la reconnaissance faciale, qui est systématiquement utilisé pour convaincre du bien fondé d’une vidéosurveillance totale de nos rues.

Il faut écarter le paravent de l’exemple vertueux pour montrer les usages inavouables qu’on a préféré cacher derrière, au prix de la réduction pernicieuse des libertés et des droits. Il faut se rendre compte qu’en tant que paradigme industriel, l’IA décuple les méfaits et la violence du capitalisme contemporain et aggrave les exploitations qui nous asservissent. Qu’elle démultiplie la violence d’État, ainsi que l’illustre la place croissante accordée à ces dispositifs au sein des appareils militaires, comme à Gaza où l’armée israélienne l’utilise pour accélérer la désignation des cibles de ses bombardements.

Tracer des alternatives

Au lieu de lutter contre l’IA et ses méfaits, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter l’hégémonie de la tech. C’est notamment le cas du AI Act ou « règlement IA », pourtant présenté à l’envi comme un rempart face aux dangers de « dérives » alors qu’il cherche à déréguler un marché en plein essor. C’est qu’à l’ère de la Startup Nation et des louanges absurdes à l’innovation, l’IA apparaît aux yeux de la plupart des dirigeants comme une planche de salut, un Graal qui serait seul capable de sauver l’Europe d’un naufrage économique.

Encore et toujours, c’est l’argument de la compétition géopolitique qui est mobilisé pour faire taire les critiques : que ce soit dans le rapport du Comité gouvernemental dédié à l’IA générative ou dans celui de Mario Draghi, il s’agit d’inonder les multinationales et les start-ups de capitaux, pour permettre à l’Europe de rester dans la course face aux États-Unis et à la Chine. Ou comment soigner le mal par le mal, en reproduisant les erreurs déjà commises depuis plus de quinze ans : toujours plus d’« argent magique » pour la tech, tandis que les services publics et autres communs sont astreints à l’austérité. C’est le choix d’un recul des protections apportées aux droits et libertés pour mieux faire proliférer l’IA partout dans la société.

Ces politiques sont absurdes, puisque tout laisse à penser que le retard industriel de l’Europe en matière d’IA ne pourra pas être rattrapé, et que cette course est donc perdue d’avance. Surtout, ces politiques sont dangereuses dans la mesure où, loin de la technologie salvatrice souvent mise en exergue, l’IA accélère au contraire le désastre écologique, amplifie les discriminations et accroît de nombreuses formes de dominations. Le paradigme actuel nous enferme non seulement dans une fuite en avant insoutenable, mais il nous empêche aussi d’inventer une trajectoire politique émancipatrice en phase avec les limites planétaires.

L’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Face au consensus mou qui conforte un système capitaliste dévastateur, nous voulons contribuer à organiser la résistance et à esquisser des alternatives. Mais pour continuer notre action en 2025, nous avons besoin de votre soutien. Alors si vous le pouvez, rendez-vous sur www.laquadrature.net/donner !

C’EST PAS DE L’IA

Par : marne
28 novembre 2024 à 12:27

Quand on entend parler d’intelligence artificielle, c’est l’histoire d’un mythe moderne qui nous est racontée. Celui d’une IA miraculeuse qui doit sauver le monde, ou d’une l’IA douée de volonté qui voudrait le détruire. Pourtant derrière cette « IA » fantasmée se trouve une réalité matérielle avec de vraies conséquences. Cette thématique sera centrale dans notre travail en 2025, voilà pourquoi nous commençons par déconstruire ces fantasmes : non, ce n’est pas de l’IA, c’est l’exploitation de la nature, l’exploitation des humains, et c’est l’ordonnancement de nos vies à des fins autoritaires ciblant toujours les personnes les plus vulnérables.

Pour faire vivre notre combat contre le numérique autoritaire, capitaliste et écocide, et poursuivre notre travail de proposition positive pour un numérique libre, émancipateur et fédérateur, nous avons besoin de votre soutien !

C’est pas de l’IA, c’est de l’exploitation dernier cri

L’IA est le prolongement direct des logiques d’exploitation capitalistes. Si cette technologie a pu émerger, c’est du fait de l’accaparement de nombreuses ressources par le secteur de la tech : d’abord nos données personnelles, puis d’immenses capitaux financiers et enfin les ressources naturelles, extraites en reposant sur le colonialisme ainsi que sur le travail humain nécessaires à l’entraînement des modèles d’IA. Une fois déployée dans le monde professionnel et le secteur public, l’IA aggrave la précarisation et la déqualification des personnes au nom d’une course effrénée à la productivité.

Faire un don

C’est pas de l’IA, c’est une immense infrastructure écocide

L’essor de l’IA repose sur l’extraction de minerais rares afin de fabriquer les puces électroniques indispensables à ses calculs. Elle conduit aussi à la multiplication des data centers par les multinationales de la tech, des équipements gigantesques et coûteux en énergie qu’il faut en permanence refroidir. Partout sur la planète, des communautés humaines se voient ainsi spoliées de leur eau, tandis qu’on rallume des centrales à charbons pour produire l’électricité nécessaire à leur fonctionnement. Derrière les discours de greenwashing des entreprises, les infrastructures matérielles de l’IA génèrent une augmentation effrayante de leurs émissions de gaz à effet de serre.

C’est pas de l’IA, c’est l’automatisation de l’État policier

Que ce soit au travers de la police prédictive ou de la vidéosurveillance algorithmique, l’IA amplifie la brutalité policière et renforce les discriminations structurelles. Derrière un vernis prétendument scientifique, ces technologies arment la répression des classes populaires et des militant·es politiques. Elles rendent possible une surveillance systématique de l’espace public urbain et, ce faisant, participent à l’avènement d’un monde où le moindre écart à la norme peut être détecté puis puni par l’État.

C’est pas de l’IA, c’est la chasse aux pauvres informatisée

Sous couvert de « rationalisation », l’IA envahit les administrations sociales à travers le développement d’algorithmes auto-apprenants visant à détecter de potentiels fraudeurs. Allocations Familiales, Assurance Maladie, Assurance Vieillesse, Mutualité Sociale Agricole : ces systèmes sont aujourd’hui déployés dans les principales administrations de l’« État providence ». Associant un « score de suspicion » à chacune d’entre nous pour sélectionner les personnes à contrôler, nos recherches montrent qu’ils ciblent délibérément les personnes les plus précaires .

C’est pas de l’IA, c’est la mise aux enchères de notre temps de cerveau disponible

L’accaparement de nos données personnelles permet de nourrir les IA de profilage publicitaire, qui associent en temps réel des publicités à nos « profils » vendus aux plus offrants. Cette marchandisation de notre attention a aussi pour effet de façonner les réseaux sociaux centralisés, régulés par des IA de recommandation de contenus qui les transforment en lieux de radicalisation binaire des camps politiques. Enfin, pour développer des produits comme ChatGPT, les entreprises du secteur doivent amasser d’immenses corpus de textes, de sons et d’images, s’appropriant pour ce faire le bien commun qu’est le Web.

Faire un don

Pourquoi nous faire un don cette année ?

Pour boucler le budget de l’année qui vient, nous souhaitons récolter 260 000 € de dons, en comptant les dons mensuels déjà existants, et tous les nouveaux dons mensuels ou ponctuels.

À quoi servent concrètement vos dons ?

L’association a une fantastique équipe de membres bénévoles, mais elle a aussi besoin d’une équipe salariée.
Les dons recueillis servent principalement à payer les salaires des permanentes de l’association (75 % des dépenses). Les autres frais à couvrir sont le loyer et l’entretien du local, les déplacements en France et à l’étranger (en train uniquement), les frais liés aux campagnes et aux évènements ainsi que les divers frais matériels propres à toute activité militante (affiches, stickers, papier, imprimante, t-shirts, etc.).

Pour vous donner une idée, quand on ventile nos dépenses de 2024 (salaires inclus) sur nos campagnes, en fonction du temps passé par chacun·e sur les sujets de nos luttes, ça ressemble à ça :
Algos : 13 %, Technopolice : 10 %, VSA : 11 %, Chiffrement : 3,45 %, GAFAM : 3 %, IA : 5 %, Surveillance & fichage : 4 %, Surveillance des militants : 4 %, Numérique & écologie : 6 %, Plateformes : 4 %, Communauté : 20% (relations avec d’autres associations, rencontres publiques, week-ends de travail avec des bénévoles, participation à des festivals et au chos communication Camp (CCC)), Vie de l’association : 17,44 % (réunions internes, AG, temps de réflexion stratégique, coordination de l’association, campagne de dons, achat et envoi des contreparties)

Quelles sont nos sources de financement ?

L’association ne touche aucun argent public, mais reçoit des soutiens, à hauteur de 40 % de son budget, de la part de diverses fondations philanthropiques : la Fondation pour le progrès de l’Homme, la fondation Un monde par tous, Open Society Foundations, la Limelight Foundation et le Digital Freedom Fund.
Le reste de notre budget provient de vos dons. Alors si vous le pouvez, aidez-nous !
Attention, comme nous l’expliquons dans la FAQ de notre site, les dons qui sont faits à La Quadrature ne sont pas déductibles des impôts, les services fiscaux nous ayant refusé cette possibilité à deux reprises.

Comment donner ?

Vous pouvez faire un don par CB, par chèque, ou par virement bancaire.
Et si vous pouvez faire un don mensuel — même un tout petit ! — n’hésitez pas, ce sont nos préférés : en nous assurant des rentrées d’argent tout au long de l’année, ils nous permettent de travailler avec plus de confiance dans la pérennité de nos actions.
En plus, le cumul de vos dons vous donne droit à des contreparties (sac, t-shirt, sweat). Attention, l’envoi n’est pas automatique, il faut vous connecter et faire la demande sur votre page personnelle de donateur/donatrice. Et si les contreparties tardent un peu à arriver, ce qui n’est pas rare, c’est parce qu’on est débordé·es, ou qu’on attend le réassort dans certaines tailles, et aussi parce qu’on fait tout ça nous-mêmes avec nos petites mains. Mais elles finissent toujours par arriver !

Merci encore pour votre générosité, et merci beaucoup pour votre patience Faire un don

❌
❌