❌

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraĂźchir la page.
À partir d’avant-hierFlux principal

Mobilisation pour un moratoire sur les gros data centers !

1 avril 2025 Ă  07:37

Du 8 au 11 avril, les dĂ©puté·es examineront en sĂ©ance publique le projet de loi de « simplification de la vie Ă©conomique Â». Cette loi fourre-tout, conçue sur mesure pour rĂ©pondre aux demandes des industriels, contient un article 15 qui permettrait Ă  l’État d’imposer la construction d’immenses data centers aux collectivitĂ©s locales et Ă  la population. Face Ă  la fuite en avant sous l’égide de l’industrie de la tech, nous appelons les dĂ©puté·es Ă  rejeter l’article 15 du projet de loi « simplification Â» et Ă  soutenir un moratoire de deux ans sur la construction des plus gros data centers en France, le temps qu’un dĂ©bat public puisse se tenir sur la maniĂšre de les encadrer.

Contexte

Alors que la construction des data centers est en plein boom pour accompagner la prolifĂ©ration de l’IA dans tout les pans de la sociĂ©tĂ©, les multinationales de la tech s’allient Ă  l’État pour imposer ces infrastructures Ă  la population et Ă©viter toute contestation citoyenne face Ă  l’accaparement des ressources qu’elles supposent.

À son article 15, le projet de loi « simplification Â» – en fait une loi de dĂ©rĂ©gulation – autorise le gouvernement Ă  octroyer aux projets de construction de trĂšs gros data centers un statut issu de la loi de 2023 sur l’industrie verte : le label « projet d’intĂ©rĂȘt national majeur Â» (PINM). C’est une promesse d’Emmanuel Macron aux investisseurs internationaux. D’aprĂšs le gouvernement, ce statut a vocation Ă  ĂȘtre rĂ©servĂ© aux data centers d’une surface d’au moins 40 hectares, soit plus de 50 terrains de foot ! Avec ce statut de « projet d’intĂ©rĂȘt national majeur Â», les industriels de la tech verraient le gouvernement travailler main dans la main avec eux pour imposer les data centers aux communes : l’État prendrait alors la main sur les compĂ©tences des collectivitĂ©s locales relatives Ă  l’urbanisme et Ă  l’amĂ©nagement du territoire, en menant lui-mĂȘme la rĂ©Ă©criture des plans locaux d’urbanisme afin de les adapter Ă  ces projets de data centers. Les procĂ©dures de consultation du public seront encore allĂ©gĂ©es. Et l’État pourra par la mĂȘme occasion dĂ©cider que ces infrastructures peuvent dĂ©roger aux rĂ©glementations environnementales, notamment celles relatives aux espĂšces protĂ©gĂ©es.

Pour ne pas laisser les multinationales de la tech s’allier au gouvernement français pour alimenter cette fuite en avant dĂ©lĂ©tĂšre et Ă©cocide, La Quadrature du Net et le collectif Le Nuage Ă©tait sous nos pieds, en lien avec les membres de la coalition Hiatus, appellent Ă  l’adoption d’un moratoire sur la construction des grands entrepĂŽts Ă  serveurs1. Nous appelons toutes les personnes et organisations inquiĂštes de cette dĂ©rĂ©gulation au bĂ©nĂ©fice de la tech Ă  dĂ©noncer ce passage en force et Ă  contacter les dĂ©puté·es pour obtenir la suppression de cet article 15 et l’adoption d’un moratoire sur la construction des gros data centers ! Vous trouverez sur cette page toutes les ressources pour contacter les dĂ©puté·es et les convaincre de voter en ce sens.

Appelez vos dĂ©puté·es !

Argumentaire pour un moratoire sur les gros data centers

Voici quelques donnĂ©es Ă  avoir en tĂȘte pour convaincre les dĂ©puté·es de rejeter l’article 15 et d’adopter un moratoire sur les gros data centers !

1. Les data centers engendrent une intense prédation des ressources en eau et en électricité

  • Les data centers sont particuliĂšrement Ă©lectro-intensifs : selon RTE, il y a 300 data centers en France (en 2022). Leur consommation est estimĂ©e Ă  environ 10 TWh, soit autour de 2% de la consommation française totale annuelle. Les projets se multiplient et il n’est pas rare selon RTE de recevoir des demandes de raccordement Ă  hauteur de 100 Ă  200 MWh, soit une fourchette Ă©quivalente aux consommations Ă©lectriques des villes de Rouen et Bordeaux.
  • On assiste aujourd’hui Ă  un boom spĂ©culatif autour de l’IA et des data centers : en France, le bilan prĂ©visionnel de RTE prĂ©voit un triplement de la consommation d’électricitĂ© des data centers d’ici Ă  2035, elle pourrait atteindre 4% de la consommation nationale. Plus de 4,5 GW de demandes de raccordement de data centers ont dĂ©jĂ  Ă©tĂ© signĂ©es et le mĂȘme volume est en cours d’instruction. Plusieurs data centers d’une puissance maximale de 1 GW, soit l’équivalent d’un rĂ©acteur nuclĂ©aire, ont Ă©tĂ© annoncĂ©s en fĂ©vrier 2025 lors du sommet sur l’IA.
  • Les data centers nĂ©cessitent la crĂ©ation (et donc le financement public) de nouvelles sources de production Ă©nergĂ©tique, comme en attestent les rĂ©ouvertures de centrales nuclĂ©aires ou fossiles dĂ©diĂ©es un peu partout dans le monde et de nouveaux rĂ©seaux saturĂ©s par leurs consommations.
  • En ce qui concerne l’eau utilisĂ©e en masse pour refroidir les serveurs, Google a par exemple rĂ©vĂ©lĂ© avoir prĂ©levĂ© dans le monde 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, pour refroidir ses data centers. La mĂȘme annĂ©e, Microsoft rapporte une augmentation de 34% de sa consommation d’eau annuelle pour ce mĂȘme usage. À Marseille, Digital Realty s’accapare de l‘eau « qualitĂ© potable Â» pour refroidir ses installations, avec le soutien financier de l’ADEME.

→ Des instances de maĂźtrise dĂ©mocratique de l’impact Ă©cologique et foncier de l’industrie de la tech doivent d’urgence ĂȘtre Ă©tablies pour lutter contre ces prĂ©dations croisĂ©es sur l’eau et l’électricitĂ©, et assurer une trajectoire de sobriĂ©tĂ©.

2. Accompagnant la prolifĂ©ration de l’IA, les data centers sont l’objet d’un dĂ©ploiement territorial incontrĂŽlable

  • Depuis une dizaine d’annĂ©es, les centres de donnĂ©es (aujourd’hui au nombre de 300 environ Ă  l’échelle française) se multiplient en France. La proportion des grands data centers (+ de 2 000m2) se concentre notamment en Ile-de-France (95 sites) et Ă  Marseille (12 sites) (source).
  • Les industriels profitent de manquements et d’imprĂ©cisions juridiques sur leurs statuts, et les data centers peuvent ainsi ĂȘtre qualifiĂ©s d’entrepĂŽts ou de local industriel. Le Code GĂ©nĂ©ral des impĂŽts n’en propose aucune dĂ©finition lĂ©gale, leur fiscalitĂ© reste floue, et les industriels du data center comme Orange jouent avec l’optimisation fiscale. De ce fait, de nombreuses techniques de contournements du peu de lĂ©gislations existantes sont ainsi documentĂ©es, notamment autour des techniques dites de phasage ou de saucissonnage, c’est-Ă -dire la construction de plusieurs data centers interconnectĂ©s sur un mĂȘme site ou l’augmentation progressive de capacitĂ©. Ces tactiques permettent aux data centers de rester sous les seuils de contrĂŽle notamment ICPE, comme on l’observe Ă  Aubervilliers (Digital Realty), La Courneuve (Digital Realty) ou Ă  Wissous (Cyrus One et Amazon).
  • Les industriels des data centers profitent Ă©galement d’une absence de planification territoriale et urbaine : il n’existe pas de schĂ©ma directeur d’implantation, ou d’outil de rĂ©gulation sur l’expansion territoriale des data centers (source). Ils s’accaparent ainsi d’immenses espaces fonciers : l’entreprise Ă©tasunienne de data centers Digital Realty possĂšde 17 data centers en France, occupe plus de 111 000 m2 de terrains, sans compter les dizaines de nouvelles implantations en cours, pour seulement 230 employé·es en CDI.
  • Les data centers ne gĂ©nĂšrent presque aucun emploi. Le ratio est Ă©valuĂ© Ă  un Emploi Temps Plein (ETP) pour 10 000 m2 occupĂ©s en moyenne. La prolifĂ©ration des data centers sur le territoire se fait donc au dĂ©triment d’autres projets plus alignĂ©s avec les besoins des territoires et crĂ©ateurs d’emplois locaux.
  • Le modĂšle de dĂ©ploiement des data centers aggrave les inĂ©galitĂ©s territoriales, avec une concentration et prĂ©dation territoriale due Ă  l’effet « magnet Â» (« aimant Â») : les data centers fonctionnent en « hub Â» et ne sont jamais isolĂ©s.

→ Il est nĂ©cessaire de mettre ce dĂ©ploiement en pause, de construire une stratĂ©gie concertĂ©e sur des infrastructures du numĂ©riques qui rĂ©pondent aux besoins de la sociĂ©tĂ© et non aux intĂ©rĂȘts Ă©conomiques de la tech et des fonds d’investissements qui la soutiennent.

3. Les data centers se multiplient dans une opacité systémique, sans prise en compte des alternatives

  • Les data center sont des infrastructures complexes, en constante Ă©volution. Il en rĂ©sulte une grande mĂ©connaissance des pouvoirs publics et de la population, et donc une rĂ©elle difficultĂ© Ă  rĂ©pondre aux argumentaires volontairement techniques et au greenwashing avancĂ©s par les industriels pour dĂ©fendre le bien-fondĂ© de leurs projets.
  • Nous sommes confrontĂ©s Ă  une absence totale de transparence, de donnĂ©es et de mesures partagĂ©es par les industriels sur leurs consommations (en eau ou Ă©lectricitĂ© notamment), sur les impacts et coĂ»ts rĂ©els des data centers. Souvent, le dĂ©bat est tronquĂ© par des mensonges par omissions et autres manipulations. Ainsi, selon le Guardian, les Ă©missions de gaz Ă  effet de serre des centres de donnĂ©es de Google, Microsoft, Meta et Apple sont environ 662% plus Ă©levĂ©es que les dĂ©clarations officielles.
  • La Directive europĂ©enne sur l’EfficacitĂ© ÉnergĂ©tique (DEE) de 2022 rend obligatoire pour tous les data centers de plus de 500 kWh la publication d’un ensemble de donnĂ©es sur leurs consommations. Or, actuellement, en mars 2025, ces donnĂ©es ne sont toujours pas disponibles.
  • Les alternatives au modĂšle dominant dans la construction des data centers sont aujourd’hui trĂšs mal connues et documentĂ©es, laissant supposer que des data centers de plus en plus gros sont absolument nĂ©cessaires au bon fonctionnement d’Internet et des services numĂ©riques. Or, de nombreux collectifs, associations, organisations, proposent des alternatives locales, low tech et dĂ©centralisĂ©es, qui ne reposent pas sur des besoins de stockages de donnĂ©es Ă  grande Ă©chelle.

→ Face Ă  l’opacitĂ© systĂ©mique, il nous faut produire une connaissance prĂ©cise qui prenne en compte les enjeux sociaux, Ă©cologiques et gĂ©opolitiques des infrastructures du numĂ©riques aussi bien que les alternatives aux technologies dominantes.

4. Les data centers sont des infrastructures sensibles à la dangerosité mal évaluée

  • Les data center sont des bĂątiments dangereux et prĂ©sentant de nombreux risques pour les habitant·es et les territoires. Cuves de fioul ou de gaz perfluorĂ©s susceptibles de fuiter, stockage important de batteries au lithium qui peuvent gĂ©nĂ©rer d’immenses incendies (comme celui de Strasbourg), grande vulnĂ©rabilitĂ© Ă  la chaleur. Bien loin de l’image du simple entrepĂŽt inerte, un data center est bien une usine de production industrielle dĂ©diĂ©e au stockage de donnĂ©es et aux calculs informatiques.
  • Ils gĂ©nĂšrent de nombreuses pollutions (accidentelles ou fonctionnelles), notamment atmosphĂ©riques, ainsi que des nombreuses nuisances ainsi qu’une quantitĂ© importante de ainsi que des nombreuses nuisances ainsi qu’une quantitĂ© importante de dĂ©chets non recyclables et une production de chaleur trĂšs importante qui augmente les risques de canicule ou de rĂ©chauffement non mesurĂ©s des milieux adjacents
  • Selon l’ADEME, le numĂ©rique est Ă  l’origine de 4,4 % de l’empreinte carbone en France en 2024, en nette augmentation (2,5% en 2020). Entre 2016 et 2024, l’empreinte carbone des data centers dans l’impact global du numĂ©rique est passĂ©e de 16% Ă  46%.

→ Les data centers sont des infrastructures dangereuses, et il est nĂ©cessaire de protĂ©ger les habitant.e.s et les Ă©cosystĂšmes des pollutions et des nuisances qu’ils engendrent.

5. Les data centers s’accompagnent d’impacts sociĂ©taux nombreux et insoutenables

  • Les data centers encouragent l’extractivisme minier, les nombreux conflits qui y sont liĂ©s et les crimes contre l’humanitĂ© documentĂ©s dans de nombreux contextes miniers, comme en RĂ©publique dĂ©mocratique du Congo.
  • Ils prĂ©sentent en outre des risques structurels pour l’économie française, tel le dĂ©ploiement massif des IA et des processus d’automatisation dans tous les pans de la sociĂ©tĂ©.
  • Le gouvernement prĂ©tend assurer la souverainetĂ© nationale mais accroĂźt en fait notre dĂ©pendance technologique aux GAFAM, comme l’illustre le rĂŽle majeur d’entreprises Ă©tasuniennes telles Amazon, Microsoft ou Digital Realty ainsi que des fonds d’investissements extra-europĂ©ens dans le boom actuel de ces infrastructures. Compte tenu de la structure actuelle de l’économie numĂ©rique, la « territorialitĂ© de la donnĂ©e Â» est une illusion.
  • Parce que la France se targue d’une Ă©nergie nuclĂ©aire qui permet de faire baisser les « bilans carbone Â» des multinationales de la tech, et parce qu’elle est idĂ©alement placĂ©e sur la carte internationale des cĂąbles sous-marins, elle est vue comme un territoire de choix, faisant de nos territoires une ressource vendue plus offrants dans un marchĂ© en surchauffe.

→ Il faut reprendre la main sur les infrastructures du numĂ©riques et le monde qu’elles gĂ©nĂšrent. Il ne s’agit jamais d’enjeux simplement techniques : derriĂšre les data centers, de nombreux enjeux politiques doivent ĂȘtre soulevĂ©s et dĂ©battus.


  1. Voir la proposition d’amendement de suppression de l’article 15, et celle portant sur un moratoire sur la construction de gros data centers. ↩

ExpĂ©rimentation VSA : le gouvernement sur le point d’obtenir trois ans de rab 

5 mars 2025 Ă  10:21

Mise-Ă -jour du 7 mars : La commission mixte paritaire a validĂ© l’extension du dispositif expĂ©rimental jusqu’en mars 2027.

Demain jeudi, au Parlement, se tiendra la commission mixte paritaire en vue de l’adoption de la proposition de loi relative Ă  la sĂ©curitĂ© dans les transports. C’est le vecteur choisi par le gouvernement Bayrou mi-fĂ©vrier pour proroger de deux annĂ©es supplĂ©mentaires l’expĂ©rimentation de la vidĂ©osurveillance algorithmique (VSA), lancĂ©e dans le cadre de la loi JO. S’il a beaucoup Ă©tĂ© question d’intelligence artificielle ces derniĂšres semaines, c’était plutĂŽt pour promettre des investissements massifs ou appeler Ă  la dĂ©rĂ©gulation. Moins pour mettre la lumiĂšre sur nouveau coup de force visant Ă  imposer la surveillance policiĂšre constante et automatisĂ©e de nos espaces publics. Retour sur les derniers rebondissements de la lutte contre la vidĂ©osurveillance algorithmique.

Des rapports d’évaluation dont on aimerait pouvoir se moquer

Tout d’abord et aprĂšs plusieurs semaines de rĂ©tention, le ministĂšre de l’intĂ©rieur a fini par publier le rapport d’évaluation de « l’expĂ©rimentation Â» de vidĂ©osurveillance algorithmique prĂ©vue par la loi de 2023 sur les Jeux olympiques. Pour rappel, pendant plusieurs mois, la VSA a Ă©tĂ© utilisĂ©e lĂ©galement pour dĂ©tecter 8 situations lors d’évĂ©nements « rĂ©crĂ©atifs, sportifs ou culturels Â». Et on comprend pourquoi ce rapport n’a pas Ă©tĂ© exhibĂ© fiĂšrement par le gouvernement : il ne fait qu’enchaĂźner les preuves de dysfonctionnements techniques souvent risibles (une branche qui bouge et dĂ©clenche une alerte, un problĂšme de perspective qui rend le systĂšme de dĂ©tection d’une personne inopĂ©rant, etc.), pointant l’absence de maturitĂ© de ces technologies ainsi que leur inutilitĂ© opĂ©rationnelle.

Par ailleurs, le rapport analyse au plus prĂšs l’expĂ©rimentation autorisĂ©e par la loi JO, mais ne se penche pas sur les centaines de dĂ©ploiement qui restent illĂ©gaux dans le pays, ni sur les vellĂ©itĂ©s du lobby techno-sĂ©curitaire, qui ne compte Ă©videmment pas s’arrĂȘter en si bon chemin et se tient prĂȘt Ă  multiplier les cas d’usage, notamment dans une logique d’identification des personnes. On pense par exemple aux propos tenus rĂ©cemment par le reprĂ©sentant de la sociĂ©tĂ© suisse Technis, qui a rachetĂ© Videtics et dont les algorithmes sont utilisĂ©s dans le cadre de l’expĂ©rimentation : « L’avantage de la vidĂ©o Â», explique-t-il tranquillement dans cet entretien, « c’est qu’elle est dĂ©sormais multifonction. Il y a le volet sĂ©curitaire (surveillance d’un lieu et alerte en cas d’intrusion), le volet statistique (analyse de la frĂ©quentation d’un espace) et le volet reconnaissance faciale ou d’identitĂ© (identification de personnes) Â». Dont acte.

Ces intentions d’aller plus loin sont d’ailleurs partagĂ©es par la RATP et la SNCF, qui ont Ă©tĂ© les principaux acteurs de l’utilisation de la VSA « lĂ©gale Â» de la loi JO. Et c’est lĂ  un des passages les plus intĂ©ressants du rapport d’évaluation : ces deux opĂ©rateurs de transports assument de vouloir aller plus loin que ce qui est aujourd’hui autorisĂ©, pour faire du suivi automatisĂ© de personnes ou encore de la dĂ©tection de « rixes Â». Est Ă©galement relayĂ©e la volontĂ© de pouvoir utiliser la VSA dans davantage de moments et de lieux, et donc de s’affranchir du seul cadre des grands Ă©vĂ©nements sportifs, rĂ©crĂ©atifs ou culturels prĂ©vu actuellement par la loi aujourd’hui. Des revendications du mĂȘme ordre ont Ă©tĂ© relayĂ©es par des sĂ©nateurs et sĂ©natrices, qui ont produit leur propre rapport d’évaluation.

Le gouvernement fonce tĂȘte baissĂ©e pour pĂ©renniser la VSA

Le satisfecit ridicule du prĂ©fet de police Laurent Nuñez au mois de septembre, affirmant que la VSA avait fait ses preuves lors des JO et devait donc ĂȘtre pĂ©rennisĂ©e, avait dĂ©jĂ  posĂ© le cadre : le gouvernement ne prendrait aucune pincette pour tirer son propre bilan de l’expĂ©rimentation et forcer son agenda politique.

Et pour cause ! Avant mĂȘme la publication du rapport officiel d’évaluation, profitant d’un Ă©niĂšme retour de la loi relative Ă  la sĂ»retĂ© dans les transports Ă  l’AssemblĂ©e, le gouvernement a dĂ©posĂ© un amendement sorti de nulle part et sans lien avec le texte, demandant l’extension du dispositif de VSA pour trois annĂ©es supplĂ©mentaires, au prĂ©texte que les services n’auraient pas eu assez de temps pour tester la technologie. Mais que la VSA « marche Â» ou pas est, au fond, accessoire. Pour le gouvernement Bayrou, il s’agit de l’imposer, coĂ»te que coĂ»te, et ce alors mĂȘme que des experts indĂ©pendants de l’ONU viennent de dĂ©noncer le caractĂšre disproportionnĂ© de ces dĂ©ploiements.

En prolongeant l’expĂ©rimentation pour trois annĂ©es supplĂ©mentaires, le gouvernement permet d’installer un peu plus cette technologie dans les pratiques, en se laissant la possibilitĂ© d’exploiter les largesses que la France a rĂ©ussi Ă  obtenir au niveau de de l’Union europĂ©enne Ă  travers l’« AI Act Â» et ainsi lĂ©galiser la reconnaissance faciale et d’autres cas d’usage de la VSA politiquement sensibles. Cela dit, comme nous l’avons dĂ©jĂ  expliquĂ©, sur le plan juridique, la rĂ©gularitĂ© de cet amendement visant Ă  prolonger l’expĂ©rimentation de la VSA est parfaitement douteuse, et il est possible qu’il soit dĂ©clarĂ© contraire Ă  la Constitution.

Un caillou juridique dans la chaussure de la Technopolice

Ces coups de butoir sont intervenus juste aprĂšs une dĂ©cision historique obtenue de haute lutte dans l’« affaire Moirans Â» – du nom de cette petite commune isĂšroise qui a acquis le logiciel de VSA de l’entreprise Briefcam. Au terme de notre recours et Ă  l’issue d’une passe d’arme avec la CNIL qui faisait valoir sa position trĂšs accommodante pour l’industrie de la VSA et le ministĂšre de l’intĂ©rieur, le tribunal administratif de Grenoble a jugĂ© que le recours Ă  la VSA aussi bien dans le cadre de la police administrative (hors enquĂȘtes pĂ©nales, pour faire simple) que lors d’enquĂȘtes judiciaires Ă©tait illĂ©gal et disproportionnĂ©.

Depuis l’interdiction de la reconnaissance faciale dans les Ă©tablissements scolaires en 2020, c’est l’une des principales victoires juridiques dans l’opposition populaire Ă  la vidĂ©osurveillance algorithmique. Depuis un an, nous encourageons les collectifs locaux Ă  interpeller les responsables municipaux pour les appeler Ă  s’engager contre la VSA dans le cadre de notre campagne Â« Pas de VSA dans ma ville Â». De nombreuses personnes ont dĂ©jĂ  rĂ©pondu Ă  cette initiative et demandĂ© Ă  leur maire de refuser cette surveillance. DĂ©sormais, avec cette jurisprudence qui pointe l’illĂ©galitĂ© des centaines de dĂ©ploiements locaux de la VSA, en dehors du cadre restreint de la loi JO, nous avons des arguments de poids pour poursuivre cette lutte.

Si le prolongement de la VSA « lĂ©gale Â» jusqu’en 2027 venait donc Ă  ĂȘtre confirmĂ© en commission mixte paritaire demain, puis de façon dĂ©finitive par le Parlement, il faudra utiliser tous les moyens Ă  notre disposition pour mettre fin Ă  cette fuite en avant, et contre-carrer l’alliance d’élus locaux, de fonctionnaires et d’industriels prĂȘts Ă  tout pour conforter leur pouvoir techno-sĂ©curitaire. Ce combat passe notamment par la dĂ©couverte et la documentation ces projets, car les sortir de l’opacitĂ© permet de mettre la pression aux instances dirigeantes des communes et des collectivitĂ©s et les mettre face Ă  leurs responsabilitĂ©s. Si vous mĂȘme prenez part Ă  un collectif local dans une commune ayant recourt Ă  un systĂšme de VSA du style du logiciel Briefcam, n’hĂ©sitez pas Ă  vous saisir de nos Ă©critures pour porter vous-mĂȘmes un recours ! Et si vous aviez besoin de conseil, nous sommes joignables Ă  l’adresse contact@technopolice.fr.

Contre la VSA, la bataille continue !

Et si vous voulez nous aider à continuer à l’animer, vous pouvez aussi nous soutenir en faisant un don.

Les contenus haineux et négatifs sont rentables pour les médias sociaux publicitaires

20 janvier 2025 Ă  09:57

Ce 20 janvier, 5 personnalitĂ©s d’associations citoyennes expliquent dans cette tribune les liens, entre mĂ©dias sociaux publicitaires et les contenus haineux et nĂ©gatifs. Elles appellent Ă  aller sur des rĂ©seaux sociaux sans pub, Ă  bloquer la publicitĂ© sur internet, Ă  financer autrement les mĂ©dias et Ă  avoir des lois protĂ©geant les usager·éres d’internet de ces dĂ©rives.

Elon Musk sera nommé au gouvernement de Donald Trump ce 20 janvier.

Pour protester contre son investiture et ouvrir une rĂ©flexion sur l’impact politique des rĂ©seaux sociaux, un collectif a lancĂ© HelloQuitteX. Cette communautĂ© a pour but de donner des outils et inciter Ă  aller vers des rĂ©seaux sociaux « plus ouverts et sains Â»1.

Le rachat de Twitter par Elon Musk en 2022 avait dĂ©jĂ  allumĂ© des inquiĂ©tudes qui sont loin d’ĂȘtre calmĂ©es. Celui-ci se targue dĂ©sormais d’utiliser sa plateforme comme une arme au service des candidat·es qui lui plaisent : Donald Trump, ou rĂ©cemment le parti d’extrĂȘme droite allemand l’AfD.

HelloQuitteX et les dĂ©clarations provocatrices d’Elon Musk marquent une Ă©tape dans la reconnaissance de ce que l’on sait depuis longtemps : les plateformes et leur architecture ont un effet sur les contenus qui s’y Ă©changent, et donc les visions du monde de leurs utilisateur·ices.

Changer de rĂ©seau social ne sera pas suffisant : il faut changer leur modĂšle de financement. Car ces dĂ©rives ne sont pas uniquement liĂ©es aux personnalitĂ©s d’Elon Musk, Jeff Bezos ou Mark Zuckerberg, elles sont inscrites dans l’architecture d’Internet.

La publicitĂ© est la source principale de financement des sites Internet2. Les plateformes ont donc besoin de nous connaĂźtre, le plus intimement possible. Plus elles possĂšdent d’informations sur nous, plus elles pourront cibler les publicitĂ©s et mesurer leur efficacitĂ©, satisfaisant ainsi leurs vĂ©ritables clients : les annonceurs.

Les plateformes ont mis en place une architecture de surveillance qui n’a rien à envier à celles des pires dystopies, dans le but principal de vendre plus cher leurs espaces publicitaires3.

Les rĂ©seaux sociaux ont un intĂ©rĂȘt Ă©conomique Ă©norme Ă  nous garder devant nos Ă©crans, et rivalisent de techniques pour nous rendre « accros Â» Ă  leurs applications, malgrĂ© les effets nĂ©gatifs qu’ils entraĂźnent4.

Mais ce n’est pas tout. Pour amĂ©liorer encore l’efficacitĂ© des publicitĂ©s, ces rĂ©seaux sociaux se vantent de modifier nos Ă©motions. Les recherches internes de Facebook ont montrĂ© que l’entreprise pouvait, en modifiant le fil d’actualitĂ©s, influer sur l’humeur de ses utilisateur·ices5.

Meta propose donc aux annonceurs de cibler leurs annonces vers les moments oĂč l’internaute se sent « mal dans sa peau Â» ou « en manque de reconnaissance Â», car ses recherches ont montrĂ© que les actes d’achat venaient pallier aux souffrances du quotidien. Meta favorise donc les contenus nĂ©gatifs ou polarisants. RĂ©sultat ? Â« Plus les ados vont sur Instagram, plus leur bien-ĂȘtre gĂ©nĂ©ral, leur confiance en soi, leur satisfaction Ă  l’égard de la vie, leur humeur et l’image qu’ils ont de leur corps se dĂ©gradent Â»6. En 2016, une publication interne Ă  Facebook montrait que « 64% des entrĂ©es dans des groupes extrĂ©mistes sont dĂ»es Ă  nos outils de recommandation Â»7. Ce n’est pas du hasard, c’est parce que c’est rentable.

Ils poussent ainsi tous les acteurs du jeu politique Ă  aligner leur communication sur des contenus haineux et sans concessions. Les internautes sont enfermĂ©s dans des « bulles de filtres Â», entouré·es de contenus justifiant et radicalisant leurs opinions sans jamais les ouvrir Ă  la contradiction8.

Le dĂ©bat public et les discussions constructives entre internautes en deviennent de plus en plus difficiles, et cette sensation de diffĂ©rences irrĂ©conciliables se transfĂšre vers les discussions en chair et en os9. Le discours de haine n’est pas qu’une abstraction numĂ©rique, il peut attiser la violence, miner la cohĂ©sion sociale, et causer des blessures profondes qui vont bien au delĂ  des Ă©crans, comme de nombreux rapports d’associations et institutions l’attestent10.

Ces contenus viennent nourrir des « visions du monde Â»11 basĂ©es sur la peur et une sensation d’envahissement, venant ainsi conforter encore les tenants du « Grand Remplacement Â» et autres arguments portĂ©s par les mouvements d’extrĂȘme-droite.

Quitter X pour aller sur un autre réseau social publicitaire comme BlueSky ne réglera donc pas le problÚme. Petit à petit, les pressions financiÚres le porteront à modifier ses contenus vers plus de publicité12, et donc une emprise toujours plus grande de la manipulation13.

À ces effets structurels s’ajoute la guerre culturelle menĂ©e par certains grands milliardaires de la tech comme Elon Musk et rĂ©cemment Mark Zuckerberg, pour imposer des idĂ©es ultra-libĂ©rales et ouvertement d’extrĂȘme droite. La concentration du secteur autour de quelques entreprises monopolistiques14 permet Ă  ces hommes d’imposer leur vision du monde en utilisant les plateformes comme des porte-voix. Ils modĂšlent les rĂšgles de partage des contenus en faisant passer leur propagande pour de la libertĂ© d’expression15.

La publicité en tant que source principale de financement des réseaux sociaux est responsable de toutes ces dérives. Pour espérer les réguler, il faut prendre en compte ce mécanisme fondamental.

C’est pourquoi nous relayons l’appel Ă  quitter X, tout en questionnant nos pratiques des rĂ©seaux sociaux et services numĂ©riques basĂ©s sur la publicitĂ©.

Il existe de nombreuses alternatives libres efficaces comme les réseaux sociaux du Fediverse (Mastodon, Pixelfed,
), les suites de Framasoft pour les bureautiques partagés, ou PeerTube pour les vidéos.

Il est aussi particuliĂšrement important d’installer un bloqueur de publicitĂ©, pour plus de confort de navigation et cesser de nourrir la machine Ă  rĂ©colter les donnĂ©es. Le site bloquelapub.net prĂ©sente des tutoriels simples.

Enfin, toutes ces mesures individuelles doivent nĂ©cessairement ĂȘtre complĂ©tĂ©es par des mesures contraignantes au niveau lĂ©gislatif. Une premiĂšre Ă©tape pourrait ĂȘtre de rendre les rĂ©seaux sociaux responsables des contenus qui s’y Ă©changent. Le site de La Quadrature du Net dĂ©taille les diffĂ©rentes lois nationales et europĂ©ennes tout en donnant des pistes pour pallier aux manques16.

Il est aussi urgent de rĂ©flĂ©chir Ă  des modĂšles de financement alternatifs Ă  la fausse gratuitĂ© publicitaire. Pour cela, nous appelons les mĂ©dias et sites intĂ©ressĂ©s Ă  prendre contact avec nous pour rĂ©flĂ©chir ensemble Ă  d’autres modĂšles possibles.

Thomas Citharel, codirecteur de Framasoft

Raquel Radaut, militante et porte-parole Ă  La Quadrature du Net

Marie Youakim, co-présidente de Ritimo

Marie Cousin, co-prĂ©sidente de RĂ©sistance Ă  l’Agression Publicitaire

Tanguy Delaire, militant de RĂ©sistance Ă  l’Agression Publicitaire

1Voir le manifeste de HelloQuittX https://www.helloquitx.com/MANIFESTO-HelloQuitteX.html

2Voir Shoshanna ZUBOFF, L’Âge du capitalisme de surveillance, Zulma, 2022

3Ethan ZUCKERMAN, « The Internet’s Original Sin Â», The Atlantic, 14 aoĂ»t 2014, https://www.theatlantic.com/technology/archive/2014/08/advertising-is-the-internets-original-sin/376041/

4Voir Ă  ce sujet la mini sĂ©rie Dopamine, diffusĂ©e sur Arte : https://www.arte.tv/fr/videos/RC-017841/dopamine/

5Selon Frances Haugen, ancienne employĂ©e de Facebook, lanceuse d’alerte, citĂ©e par David CHAVALARIAS, Toxic Data, Comment les rĂ©seaux manipulent nos opinions, Flammarion, 2022, p. 100

6Christia SPEARS BROWN, « Comment plusieurs Ă©tudes montrent qu’Instagram peut nuire au bien-ĂȘtre des jeunes Â», The Conversation, 26 septembre 2021 https://theconversation.com/comment-plusieurs-etudes-montrent-quinstagram-peut-nuire-au-bien-etre-des-jeunes-168514

7Mathilde SALIOU, TechnofĂ©minisme, Comment le numĂ©rique aggrave les inĂ©galitĂ©s, Éditions Grasset & Fasquelle, 2023, p. 59

8Voir l’analyse de David Chavalarias : David CHAVALARIAS, Toxic Data, op. cit.

9Tanguy DELAIRE, « PublicitĂ© sur Internet : un terrain favorable Ă  l’extrĂȘme droite Â», Le Club de Mediapart, 13 novembre 2024

10 Voir par exemple  le constat d’Amnesty International ‘ https://www.amnesty.fr/actualites/sinformer-se-former-eduquer-et-agir-face-a-la-montee-des-discours-de-haine-et-anti-droits ou celui de la commission europĂ©enne https://www.coe.int/fr/web/combating-hate-speech/what-is-hate-speech-and-why-is-it-a-problem- ) ou encore ce que rapportait en juin 2024 le secrĂ©taire gĂ©nĂ©ral de l’ONU « L’impact nĂ©gatif des discours de haine sur la paix, le dĂ©veloppement durable, les droits de l’homme et la prĂ©vention des gĂ©nocides et des crimes connexes continue d’ĂȘtre observĂ© dans le monde entier Â» ( https://www.un.org/africarenewal/fr/magazine/juin-2024/la-jeunesse-au-service-de-la-lutte-contre-les-discours-dincitation-%C3%A0-la-haine ). Â»

11Voir FĂ©licien FAURY, Des Ă©lecteurs ordinaires, EnquĂȘte sur la normalisation de l’extrĂȘme droite, Ă‰ditions du Seuil, 2024

12On lit sur le site de HelloQuitteX « Ă€ noter que Bluesky a rĂ©cemment fait entrer un investisseur privĂ©, Blockchain Capital, une entreprise du monde de la blockchain et des cryptomonnaies, ce qui influencera peut-ĂȘtre Ă  l’avenir son modĂšle Ă©conomique. Â» https://helloquittex.com/Quitter-Twitter-X-Etape-2-Je-cree-un-compte-Mastodon-et-ou-Bluesky.html consultĂ© le 9 janvier 2025

13Blog de RĂ©sistance Ă  l’Agression Publicitaire, « PublicitĂ© : l’industrialisation de la manipulation Â», Le Club de Mediapart, 23 novembre 2021 https://blogs.mediapart.fr/resistance-agression-pub/blog/231121/publicite-lindustrialisation-de-la-manipulation

14Nikos SMYRNAIOS, « Les GAFAM, entre emprise structurelle et crise d’hĂ©gĂ©monie Â», Pouvoirs, N° 185(2), 19-30, https://droit.cairn.info/revue-pouvoirs-2023-2-page-19?lang=fr

15AFP, Le Nouvel Obs, « Meta met fin Ă  son programme de fact-checking aux Etats-Unis, Musk trouve ça « cool Â», Trump dit qu’il a « probablement Â» influencĂ© la dĂ©cision Â», Le Nouvel Observateur, 7 janvier 2025 https://www.nouvelobs.com/monde/20250107.OBS98735/meta-met-fin-a-son-programme-de-fact-checking-aux-etats-unis-musk-trouve-ca-cool-trump-dit-qu-il-a-probablement-influence-la-decision.html

16Voir par exemple l‘analyse du « RĂšglement IA Â» adoptĂ© par la commission europĂ©enne en mai 2024 : https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-poursuivre/ ou « ou les propositions en terme d’interopĂ©rabilitĂ© des rĂ©seaux sociaux : https://www.laquadrature.net/?s=interop%C3%A9rabilit%C3%A9« 

Les trous noirs dans le contrĂŽle des services de renseignement

23 décembre 2024 à 08:12

Ce texte restitue la prise de parole d’un membre de La Quadrature du Net Ă  l’occasion d’un colloque organisĂ© conjointement par la revue Études Françaises de Renseignement et de Cyber et par la CNCTR, la Commission nationale de contrĂŽle des techniques de renseignement, Ă  Paris le 14 octobre 2024.

Ces derniĂšres annĂ©es, les services de renseignement français ont connu une croissance continue de leurs pouvoirs, qu’il s’agisse des ressources budgĂ©taires et humaines dont ils disposent que des prĂ©rogatives juridiques dont ils bĂ©nĂ©ficient. Or, l’enjeu du contrĂŽle dĂ©mocratique du renseignement – historiquement faible dans ces matiĂšres relevant de la raison d’État, et ce particuliĂšrement en France â€“ est largement restĂ© secondaire. Il n’est donc pas surprenant de constater la permanence de vĂ©ritables « trous noirs Â» dans le dispositif institutionnel français.

Opacité

Avant d’en venir Ă  ces trous noirs, le premier point qu’il nous faut aborder Ă  trait l’opacitĂ© des politiques publiques du renseignement, et la façon dont ce manque de transparence empĂȘche une organisation comme La Quadrature du Net de cultiver une expertise sur le renseignement, et donc de porter une critique correctement informĂ©e, et donc perçue comme lĂ©gitime. Si c’est Ă  l’honneur des deux prĂ©sidents de la CNCTR que d’avoir acceptĂ©, Ă  l’occasion, de nous rencontrer, que dire des silences assourdissants que des parlementaires de la DĂ©lĂ©gation parlementaire au renseignement, des services eux-mĂȘmes, ont opposĂ© Ă  nos demandes rĂ©pĂ©tĂ©es de rendez-vous et d’échange ?

Ce colloque – le premier du genre â€“ est certes bienvenu. Mais il ne permet pas de remĂ©dier Ă  l’opacitĂ© systĂ©mique du champ du renseignement, la maniĂšre dont il maintient sciemment tout critique externe Ă  distance, qu’il s’agisse de celle nourrie par des journalistes d’investigation ou de groupes militants attachĂ©s Ă  la dĂ©fense des droits humains. Alors que dans l’histoire du renseignement, en France et dans d’autres pays, c’est presque toujours cette critique externe qui semble avoir permise de remĂ©dier aux abus les plus graves, de documenter les illĂ©galitĂ©s en matiĂšre de surveillance, et ce bien sĂ»r en lien avec leurs sources et autres lanceurs d’alerte issus le plus souvent des services.

Cette critique externe ne joue pas seulement un rĂŽle crucial dans le cadre des controverses qui, rĂ©guliĂšrement, se nouent autour des servies de renseignement. Elle est aussi nĂ©cessaire au travail des organes de contrĂŽle institutionnalisĂ©s, ne serait-ce que pour leur permettre d’entendre un autre son de cloche, d’autoriser une forme de pluralisme dans ces matiĂšres, et faire en sorte que ces organes puissent ĂȘtre exposĂ©s Ă  un autre d’autres points de vue. Cela est de nature Ă  Ă©viter que ces organes ne deviennent infĂ©odĂ©s aux services qu’ils sont censĂ©s contrĂŽler.

De fait, en dehors des quelques informations ayant filtrĂ© via des journalistes, et outre les rares allusions faites par les responsables du renseignement lors d’auditions parlementaires ou par la CNCTR, aucune information officielle n’est fournie en France quant Ă  la nature et le coĂ»t des technologies de surveillance dĂ©ployĂ©es par les services pour collecter, stocker et analyser les communications et autres donnĂ©es numĂ©riques. L’enjeu de leur imbrication dans les processus de production du renseignement, la nature des marchĂ©s publics et l’identitĂ© des sous-traitants privĂ©s, et mĂȘme les interprĂ©tations juridiques ayant cours au sein des services quant Ă  l’utilisation de ces systĂšme, restent Ă©galement marquĂ©s par une grande opacitĂ©.

Pour finir, rappelons que cette opacitĂ© est d’autant plus illĂ©gitime, d’autant plus dangereuse, que depuis la derniĂšre publication de la stratĂ©gie nationale du renseignement en 2019, et grĂące aux rapports de la CNCTR depuis lors, on sait que l’activitĂ© des services dans les matiĂšres les plus sensibles sur le plan dĂ©mocratique – qu’on pense Ă  la surveillance des mouvements sociaux â€”, sont en forte recrudescence. C’est notamment le cas s’agissant de groupes militants non seulement lĂ©gitimes en dĂ©mocratie mais nĂ©cessaires pour sortir nos sociĂ©tĂ©s de leur immobilisme face Ă  la crise sociale et Ă©cologique.

Techniques

Outre cette opacitĂ© systĂ©mique, le droit du renseignement français reste marquĂ© par de vĂ©ritables trous noirs dans le contrĂŽle de certaines modalitĂ©s de collecte ou d’analyse des donnĂ©es. Passons donc en revue certaines des plus graves lacune du cadre juridique français.

Le plus significatif rĂ©side sans aucun doute dans l’absence de contrĂŽle des Ă©changes de donnĂ©es avec des services de renseignement Ă©trangers. Depuis plusieurs annĂ©es, la CNCTR demande de pouvoir contrĂŽler le partage de donnĂ©es entre services français et services Ă©trangers. En France, la question est d’autant plus pressante que les flux de donnĂ©es Ă©changĂ©s entre la DGSE et la NSA ont connu une augmentation rapide suite Ă  la conclusion des accords SPINS, signĂ©s fin 2015.
Or, la loi française exclut explicitement tout contrĂŽle de la CNCTR sur ces collaborations internationales nourries par des services jouissant d’une forte autonomie.

Dans son rapport annuel publiĂ© en 2019, la CNCTR admettait que ce trou noir dans le contrĂŽle du renseignement prĂ©sentait un risque majeur, puisqu’il pourrait permettre aux services français de recevoir de leurs homologues des donnĂ©es qu’ils n’auraient pas pu se procurer lĂ©galement au travers des procĂ©dures dĂ©finies dans la loi française. Dans le langage feutrĂ© qui la caractĂ©rise, la commission estimait qu’« une rĂ©flexion devait ĂȘtre menĂ©e sur l’encadrement lĂ©gal des Ă©changes de donnĂ©es entre les services de renseignement français et leurs partenaires Ă©trangers Â». La CEDH a en effet rappelĂ© dans son arrĂȘt Big Brother Watch du 25 mai 2021 que ces Ă©changes devaient ĂȘtre encadrĂ©s par le droit national et soumis au contrĂŽle d’une autoritĂ© indĂ©pendante (§ 362). Pourtant, Ă  ce jour, la France est le dernier État membre de l’Union europĂ©enne Ă  ne disposer d’aucun cadre juridique pour encadrer ces Ă©changes internationaux.

Un autre de ces trous noirs est bien sĂ»r l’immunitĂ© pĂ©nale liĂ©e Ă  l’article 323-8 du code pĂ©nal et l’absence de tout encadrement lĂ©gislatif des activitĂ©s de piratage informatique menĂ©es par les services français sur des Ă©quipements situĂ©s hors des frontiĂšres nationales. Cette absence d’encadrement conduit Ă  ce que ces activitĂ©s soient de facto illĂ©gales. L’immunitĂ© pĂ©nale ainsi accordĂ©e apparaĂźt Ă©galement contraire Ă  l’article 32(b) de la convention de Budapest sur la cybercriminalitĂ©.

Autre forme de surveillance non couverte par la loi et donc tout aussi illĂ©gale : la surveillance dite « en source ouverte Â» (OSINT), notamment sur les rĂ©seaux sociaux comme Facebook ou X – une activitĂ© sur laquelle peu de choses ont fuitĂ© dans la presse mais dont on sait qu’elle a pris une importance croissante ces dix derniĂšres annĂ©es. L’achat de donnĂ©es aux data brokers n’est pas non plus rĂ©gulĂ© en droit français. Or rien ne permet de penser que cette activitĂ©, qui a fait la controverse aux États-Unis, ne soit pas aussi coutumiĂšre pour les services français.

Droits et garanties

Le droit français prĂ©sente aussi d’énormes lacunes du point de vue des droits apportĂ©s aux personnes surveillĂ©es.

Le droit Ă  l’information tout d’abord. Il s’agit-lĂ  d’un principe essentiel dĂ©gagĂ© par la jurisprudence europĂ©enne : les personnes ayant fait l’objet d’une mesure de surveillance secrĂšte doivent pouvoir en ĂȘtre informĂ©es, dĂšs lors qu’une telle information n’est plus susceptible d’entraver l’enquĂȘte menĂ©e Ă  leur encontre par les services. DĂšs son rapport publiĂ© en janvier 2018, la CNCTR passait en revue la jurisprudence affĂ©rente et mentionnait plusieurs exemples de lĂ©gislations Ă©trangĂšres – la loi allemande notamment – garantissant une procĂ©dure de notification des personnes surveillĂ©es, prĂ©voyant un certain nombre d’exceptions Ă©troitement limitĂ©es.

Il y a enfin l’absence de pouvoirs octroyĂ©s Ă  la CNCTR pour tenir en Ă©chec des formes de surveillance illĂ©gale, et notamment l’absence d’avis conforme. Le Conseil d’État rappelait pourtant dans son arrĂȘt du 21 avril 2021 relatif Ă  la conservation gĂ©nĂ©ralisĂ©e des donnĂ©es de connexion que ce dernier Ă©tait une exigence du point de vue du droit de l’Union europĂ©enne. Dans cette dĂ©cision qui donnait largement gain de cause au gouvernement, le Conseil d’État se fondait sur l’arrĂȘt La Quadrature du Net de la CJUE, en date d’octobre 2020, pour exiger que les avis rendus par la CNCTR sur les mesures de surveillance soient « conformes Â» (c’est-Ă -dire impĂ©ratifs pour le gouvernement) et non plus simplement consultatifs.

Ces quelques aspects, loin de donner un aperçu exhaustif de tous les problĂšmes posĂ©s par le droit français en matiĂšre de surveillance numĂ©rique conduite par les services de renseignement, suffit Ă  illustrer le fait que, en dĂ©pit des compliments reçus par la France de la part d’un certain rapporteur de l’ONU Ă  la vie privĂ©e qui restera de triste mĂ©moire, la France a encore beaucoup Ă  faire pour se hisser au niveau des standards internationaux, lesquels devraient pourtant ĂȘtre considĂ©rĂ© comme un socle minimal dans tout État de droit qui se respecte.

2025 marquera les 10 ans de la loi renseignement. Pour continuer notre travail sur la surveillance d’État l’annĂ©e prochaine, nous avons besoin de votre soutien. Alors si vous le pouvez, faites un don Ă  La Quadrature du Net.

Briefcam au MinistĂšre de l’IntĂ©rieur : le rapport d’inspection tente de noyer le poisson

8 novembre 2024 Ă  07:10

L’an dernier, le mĂ©dia d’investigation Disclose rĂ©vĂ©lait que depuis des annĂ©es, en se sachant dans l’illĂ©galitĂ© la plus totale, la police nationale avait recouru au logiciel de l’entreprise israĂ©lienne Briefcam, qui permet d’automatiser l’analyse des images de vidĂ©osurveillance. Cette solution comporte une option « reconnaissance faciale Â» qui, d’aprĂšs Disclose, serait « activement utilisĂ©e Â». AprĂšs avoir tentĂ© d’étouffer l’affaire, le ministĂšre de l’IntĂ©rieur a enfin publiĂ© le rapport d’inspection commandĂ© Ă  l’époque par GĂ©rald Darmanin pour tenter d’éteindre la polĂ©mique. Ce rapport, rĂ©digĂ© par des membres de l’Inspection gĂ©nĂ©rale de l’administration, de l’Inspection gĂ©nĂ©rale de la police nationale et de l’Inspection de la Gendarmerie nationale, permet d’étayer les rĂ©vĂ©lations de Disclose. FondĂ© sur la seule bonne foi des forces de l’ordre, il s’apparente toutefois Ă  une tentative choquante de couvrir des faits passibles de sanctions pĂ©nales.

Tout au long du rapport, les auteur·rices utilisent diverses techniques de minimisation et d’euphĂ©misation – quand il ne s’agit pas tout bonnement de mauvaise foi â€“ pour justifier l’utilisation illĂ©gale du logiciel Briefcam depuis 2015 par la police et 2017 par la gendarmerie. Pour rappel, ce logiciel permet d’analyser et filtrer les attributs physiques des personnes filmĂ©es afin de les retrouver sur les enregistrements vidĂ©o. En plus de la reconnaissance faciale, il propose la reconnaissance de vĂȘtements, de genre, de taille, d’apparence ou encore la « similitude de visage Â» que les services tentent grossiĂšrement de distinguer de la reconnaissance faciale alors qu’au fond, il s’agit peu ou prou de la mĂȘme chose, Ă  savoir identifier des personnes. PlutĂŽt que de reconnaĂźtre l’usage hors-la-loi de l’ensemble de ces cas d’usages depuis quasiment dix ans, les services d’inspection multiplient les pirouettes juridiques pour mieux lĂ©gitimer ces pratiques.

Ainsi, les auteur·rices du rapport reprennent une analyse bancale dĂ©jĂ  esquissĂ©e par GĂ©rald Darmanin l’an dernier pour couvrir un usage intrinsĂšquement illĂ©gal de VSA dans le cadre d’enquĂȘtes pĂ©nales, lorsque ces dispositifs sont utilisĂ©s par les enquĂȘteurs pour analyser automatiquement des flux de vidĂ©osurveillance archivĂ©s. Reprenant l’interprĂ©tation secrĂštement proposĂ©e en interne par les services du ministĂšre de l’IntĂ©rieur pour couvrir ces activitĂ©s au plan juridique, les auteur·rices estiment que ces utilisations a posteriori (par opposition au temps rĂ©el) de logiciels de VSA constitueraient des logiciels de « rapprochement judiciaire Â» au sens de l’article 230-20 du code de procĂ©dure pĂ©nale. Pourtant, cet article du code de procĂ©dure pĂ©nale n’autorise que le « rapprochement de modes opĂ©ratoires Â» (par exemple des logiciels d’analyse de documents pour faire ressortir des numĂ©ros de tĂ©lĂ©phones liĂ©s entre eux). Cela n’a rien Ă  voir avec la VSA a posteriori, laquelle consiste Ă  rechercher des personnes sur une image en fonction de leurs attributs physiques via des techniques d’intelligence artificielle. Pour ĂȘtre licites, ces dispositifs devraient au minimum faire l’objet d’une base lĂ©gale spĂ©cifique. C’est la base en matiĂšre de droits fondamentaux. Et cette base n’a clairement pas Ă©tĂ© respectĂ©e.

L’argumentation des rapporteurs paraĂźt d’autant plus choquante que le logiciel VSA de Briefcam analyse des donnĂ©es personnelles biomĂ©triques et est donc soumis Ă  des restrictions fortes du RGPD et de la directive police-justice. Les lacunes du cadre lĂ©gal actuel pour des usages de VSA dans le cadre d’enquĂȘtes judiciaires et la nĂ©cessitĂ© d’une base lĂ©gale spĂ©cifique est d’ailleurs confortĂ©e par diffĂ©rents projets de lĂ©galisation de cette technologie qui ont pu ĂȘtre proposĂ©s : tel est le cas de la rĂ©cente proposition de loi relative Ă  la sĂ»retĂ© dans les transports, ou plus anciennement un projet de dĂ©cret de 2017 « autorisant des traitements de donnĂ©es personnelles permettant l’analyse des enregistrements vidĂ©o dans le cadre d’enquĂȘtes judiciaires Â», mentionnĂ© dans le rapport. De mĂȘme, l’autorisation par un dĂ©cret de 2012 du recours Ă  la comparaison faciale dans le fichier TAJ (« Traitement des antĂ©cĂ©dants judiciaires Â») illustre la nĂ©cessitĂ© parfois bien comprise au ministĂšre de l’IntĂ©rieur de prĂ©voir un encadrement juridique spĂ©cifique pour diffĂ©rentes technologies de surveillance mobilisĂ©e dans le cadre d’enquĂȘte pĂ©nale1.

Non content·es de couvrir des abus pourtant passibles de sanctions pĂ©nales, les auteur·ices du rapport envisagent aussi l’avenir. Iels proposent ainsi de relĂącher encore davantage la bride de la police pour lui permettre de tester de nouvelles technologies de surveillance policiĂšre. Assouplir toujours plus les modalitĂ©s de contrĂŽle, dĂ©jĂ  parfaitement dĂ©faillantes, dans la logique des « bacs Ă  sable rĂ©glementaires Â», Ă  savoir des dispositifs expĂ©rimentaux dĂ©rogeant aux rĂšgles en matiĂšre de protection des droits fondamentaux, le tout au nom de ce qu’iels dĂ©signent comme l’« innovation permanente Â». Les auteur·rices s’inscrivent en cela dans la filiation du rĂšglement IA qui encourage ces mĂȘmes bacs Ă  sable rĂ©glementaires, et du rapport Aghion-Bouverot (commission de l’intelligence artificielle) rendu au printemps dernier2. Il faut bien mesurer que ces propositions inacceptables, si elles venaient Ă  ĂȘtre effectivement mises en Ɠuvre, sonneraient le glas des promesses de la loi « informatique et libertĂ©s Â» en matiĂšre de protection des droits fondamentaux et des libertĂ©s publiques (Ă  ce sujet, on est toujours en attente de l’issue de l’autosaisine de la CNIL dans ce qu’il faut bien appeler « l’affaire Briefcam Â», un an aprĂšs son dĂ©clenchement
).

En bref, ce rapport s’inscrit dans une logique de couverture de faits passibles de peines de prison et qui constituent aussi un dĂ©tournement de fonds publics. Surtout, il contribue Ă  banaliser la vidĂ©osurveillance algorithmique, suivant en cela la politique du gouvernement Barnier. En effet, aprĂšs avoir annoncĂ© le mois dernier la pĂ©rennisation de « l’expĂ©rimentation Â» de la VSA suite aux Jeux Olympiques, le gouvernement entend Ă©galement, via le projet de loi de finances 2025, d’installer des radars routiers dopĂ©s Ă  la VSA pour dĂ©tecter trois nouvelles infractions concernant « l’inter-distance (entre les vĂ©hicules), le non-respect du port de la ceinture et le tĂ©lĂ©phone tenu en main (au volant) Â». Sans oublier la proposition de loi sur la sĂ©curitĂ© dans les transports qui fait son retour Ă  l’AssemblĂ©e d’ici la fin du mois de novembre. Tout est bon pour lĂ©gitimer cette technologie dangereuse et l’imposer Ă  la population.

Pour nous aider Ă  tenir ces manƓuvres en Ă©chec, RDV sur notre page de campagne !


  1. La police et la gendarmerie utilisent de façon trĂšs frĂ©quente la reconnaissance faciale en application de ce cadre liĂ© au fichier TAJ : en 2021, c’était 498 871 fois par la police nationale et environ 117 000 fois par la gendarmerie nationale, d’aprĂšs un rapport parlementaire. ↩
  2. Le rapport Aghion-Bouverot appelait Ă  l’assouplissement de certaines procĂ©dures d’autorisation pour utiliser des donnĂ©es personnelles, notamment dans la santĂ© ou par la police. On y lit notamment :
    « Le RGPD a renversĂ© complĂštement la logique du droit qui prĂ©valait en France depuis la loi « informatique et libertĂ© Â» de 1978 Alors que la possibilitĂ© de traiter des donnĂ©es Ă  caractĂšre personnel reposait sur des procĂ©dures d’autorisation ou de dĂ©claration prĂ©alables auprĂšs de l’administration, le RGPD a posĂ© les principes de libertĂ© et de responsabilitĂ© : les acteurs sont libres de crĂ©er et de mettre en Ɠuvre des traitements de donnĂ©es Ă  caractĂšre personnel, sous rĂ©serve de veiller eux-mĂȘmes Ă  la conformitĂ© de ces traitements aux principes et rĂšgles prĂ©vus par le rĂšglement europĂ©en Ils doivent en particulier analyser les risques spĂ©cifiques que peuvent crĂ©er les traitements les plus sensibles et prendre les mesures appropriĂ©es pour y remĂ©dier En contrepartie de cette libertĂ©, instituĂ©e dans le but prĂ©cis de favoriser l’innovation, les exigences de protection des donnĂ©es personnelles ont Ă©tĂ© renforcĂ©es, de mĂȘme que les pouvoirs de contrĂŽle et de sanction a posteriori des autoritĂ©s en charge de la protection des donnĂ©es En France, il s’agit de la Commission nationale de l’informatique et des libertĂ©s (Cnil).
    En France, cette Ă©volution n’a pas Ă©tĂ© conduite jusqu’à son terme Il demeure des procĂ©dures d’autorisation prĂ©alables non prĂ©vues par le droit europĂ©en. C’est en particulier le cas pour l’accĂšs aux donnĂ©es de santĂ© pour la recherche Une procĂ©dure simplifiĂ©e de dĂ©claration de conformitĂ© Ă  des mĂ©thodologies de rĂ©fĂ©rence existe mais elle est loin d’ĂȘtre gĂ©nĂ©ralisĂ©e En pratique, la procĂ©dure simplifiĂ©e reste l’exception par rapport Ă  la procĂ©dure d’autorisation prĂ©alable car le moindre Ă©cart par rapport Ă  ces mĂ©thodologies implique d’en passer par une autorisation prĂ©alable qui peut impliquer jusqu’à trois niveaux d’autorisation prĂ©alable On trouve des lourdeurs analogues dans les domaines de l’ordre public, de la sĂ©curitĂ© et de la justice Â». ↩

Parution du livre « Technopolice Â»

11 octobre 2024 Ă  06:00

Technopolice, la surveillance policiĂšre Ă  l’ùre de l’intelligence artificielle paraĂźt aujourd’hui aux Ă©ditions Divergences. Dans ce livre, FĂ©lix TrĂ©guer, membre de La Quadrature du Net et chercheur associĂ© au Centre Internet & SociĂ©tĂ© du CNRS, fait le rĂ©cit personnel d’un engagement au sein du collectif Technopolice. MĂȘlant les anecdotes de terrain aux analyses issues des sciences humaines et sociales, il retrace les mĂ©canismes qui prĂ©sident Ă  la technologisation croissante du maintien de l’ordre et de la gestion urbaine.

Résumé

Voici le résumé du livre, disponible dans votre librairie de quartier.

« Drones, logiciels prĂ©dictifs, vidĂ©osurveillance algorithmique, reconnaissance faciale : le recours aux derniĂšres technologies de contrĂŽle se banalise au sein de la police. Loin de juguler la criminalitĂ©, toutes ces innovations contribuent en rĂ©alitĂ© Ă  amplifier la violence d’État. Elles referment nos imaginaires politiques et placent la ville sous contrĂŽle sĂ©curitaire. C’est ce que montre ce livre Ă  partir d’expĂ©riences et de savoirs forgĂ©s au cours des luttes rĂ©centes contre la surveillance policiĂšre. De l’industrie de la sĂ©curitĂ© aux arcanes du ministĂšre de l’IntĂ©rieur, de la CNIL au vĂ©hicule de l’officier en patrouille, il retrace les liens qu’entretient l’hĂ©gĂ©monie techno-solutionniste avec la dĂ©rive autoritaire en cours. Â»

Présentations

Retrouvez toutes les dates dans l’agenda public de La Quadrature.

Extraits

« Lorsque vient notre tour de parler, Martin et moi montons sur l’estrade. Face Ă  l’amphi bondĂ©, face aux kĂ©pis et aux costumes-cravate, face au commandant Schoenher et Ă  la futurologue de la prĂ©fecture de police, face au prĂ©fet Vedel et aux cadres d’Idemia ou de Thales, il nous faut dĂ©jouer le piĂšge qui nous est tendu. Dans le peu de temps qui nous est imparti, nous leur disons que nous savons. Nous savons que ce qu’ils attendent, c’est que nous disions ce que pourraient ĂȘtre des lois et des usages « socialement acceptables Â» [s’agissant de la reconnaissance faciale]. La mĂȘme proposition vient alors de nous ĂȘtre faite par le Forum Ă©conomique mondial et le Conseil national du numĂ©rique. Un peu plus de transparence, un semblant de contrĂŽle par la CNIL, une rĂ©duction des biais racistes et autres obstacles apparemment  Â»techniques Â» auxquels se heurtent encore ces technologies, et l’on croit possible d’assurer un compromis  Â»Ă©thique Â» entre la dĂ©fense automatisĂ©e de l’ordre public et l’État de droit.

Mais nous leur disons tout net : la reconnaissance faciale et les autres technologies de VSA [vidĂ©osurveillance algorithmique] doivent ĂȘtre proscrites. PlutĂŽt que de discuter des modalitĂ©s d’un  Â»encadrement appropriĂ© Â», nous exprimons notre refus. Nous leur disons que, pour nous, la sĂ©curitĂ© consiste d’abord en des logements dignes, un air sain, la paix Ă©conomique et sociale, l’accĂšs Ă  l’éducation, la participation politique, l’autonomie patiemment construite, et que ces technologies n’apportent rien de tout cela. Que sous prĂ©texte d’efficacitĂ©, elles perpĂ©tuent des logiques coloniales et dĂ©shumanisent encore davantage les rapports qu’entretiennent les bureaucraties policiĂšres Ă  la population. Â»


.

« Le glissement de l’urbanisme cybernĂ©tique vers des applications techno-sĂ©curitaires semble irrĂ©sistible. DĂ©but 1967, aux États-Unis, une autre commission lancĂ©e par le prĂ©sident Johnson et dirigĂ©e par l’ancien ministre de la Justice de Kennedy, Nicholas Katzenbach – qui rejoindra d’ailleurs IBM en 1969 et y fera une bonne partie de sa carriĂšre â€“ a, elle aussi, rendu un rapport sur la montĂ©e des « troubles Ă  l’ordre public Â» (
). C’est un programme d’ampleur qui est proposĂ© : Ă©diction d’un plan national de R&D qui devra notamment se pencher sur l’approche des politiques pĂ©nales en termes de « systĂšme Â», relevĂ©s statistiques couplĂ©s au dĂ©ploiement d’ordinateurs et Ă  la gĂ©olocalisation des vĂ©hicules de police pour optimiser voire automatiser l’allocation des patrouilles et s’adapter en temps rĂ©el Ă  la dĂ©linquance, automatisation de l’identification biomĂ©trique par empreintes digitales, technologies d’aide Ă  la dĂ©cision dans le suivi des personnes condamnĂ©es, etc. La pensĂ©e techno-sĂ©curitaire infuse l’ensemble des recommandations. Et l’on remarquera au passage combien la police du futur des annĂ©es 1960 ressemble Ă  la nĂŽtre. Comme si le futur, lui non plus, ne passait pas. Â»




« Lorsque la technologie Ă©choue Ă  rendre la police plus prĂ©cise ou efficace dans la lutte contre la dĂ©linquance, cela ne signifie pas qu’elle ne produit pas d’effets. Constater un tel Ă©chec doit plutĂŽt inviter Ă  dĂ©placer le regard : l’une des principales fonctions politiques dĂ©volues aux technologies ne consiste pas tant Ă  produire de la « sĂ©curitĂ© publique Â» qu’à relĂ©gitimer l’action de la police, Ă  redorer le blason de l’institution en faisant croire Ă  un progrĂšs en termes d’efficience, d’allocation des ressources, de bonne gestion, de transparence, de contrĂŽle hiĂ©rarchique. Il en va ainsi depuis la fin du XIXe siĂšcle et le dĂ©but de la modernisation de la police, lorsque le prĂ©fet LĂ©pine mettait en scĂšne l’introduction de nouveaux Ă©quipements, les bicyclettes ou les chiens de police. C’est aussi une dimension centrale des premiers chantiers informatiques des annĂ©es 1960 que de rationaliser une administration perçue comme archaĂŻque. Reste que cette promesse d’une police rendue plus acceptable, transparente ou lĂ©gitime grĂące Ă  la technologie est toujours trahie dans les faits. Â»




« Tandis que l’extrĂȘme droite s’affirme de maniĂšre toujours plus dĂ©complexĂ©e partout dans le champ du pouvoir, ces processus grĂące auxquels les Ă©lites libĂ©rales gĂšrent la dissonance cognitive induite par leur complicitĂ© objective avec la spirale autoritaire en cours forment l’un des rouages les plus efficaces du fascisme qui vient. Â»

ConfĂ©rence de presse Ă  Marseille contre les data centers

16 septembre 2024 Ă  03:52

À l’aune du paradigme de l’Intelligence Artificielle, les data centers sont amenĂ©s Ă  prolifĂ©rer partout sur le territoire. Ces entrepĂŽts de serveurs dĂ©diĂ©s au traitement et au stockage des donnĂ©es informatiques gĂ©nĂšrent de nombreux conflits d’usage d’eau et d’électricitĂ©. Ils multiplient les emprises fonciĂšres et les pollutions environnementales. Ils accaparent des fonds publics et accĂ©lĂšrent la crise socio-Ă©cologique en cours..

Dans le cadre de son groupe de travail « Ă‰cologie et numĂ©rique Â», La Quadrature du Net est investie depuis plusieurs mois dans une lutte locale contre ces infrastructures Ă  Marseille, portĂ©e notamment par le collectif « Le nuage Ă©tait sous nos pieds Â». Aujourd’hui, lundi 16 septembre, se tient une premiĂšre confĂ©rence de presse visant Ă  dĂ©noncer le projet de nouveau data center de Digital Realty, l’un des plus gros acteurs mondiaux de ce marchĂ© en pleine expansion.

Ce texte reproduit la prise de parole du collectif « Le nuage Ă©tait sous nos pieds Â» lors de cette confĂ©rence de presse visant notamment Ă  dĂ©noncer MRS5, le projet de nouveau data center de Digital Realty dans l’enceinte du Grand Port Maritime de Marseille (GPMM), Ă  appeler les habitantes de la ville qui le souhaitent Ă  rĂ©pondre Ă  l’enquĂȘte publique relative Ă  ce projet, ainsi qu’à rejoindre et poursuivre cette lutte collective. Y participent Ă©galement des reprĂ©sentants de la fĂ©dĂ©ration des ComitĂ©s d’intĂ©rĂȘt de quartier (CIQ) des habitants du 16Ăšme arrondissement, concernĂ©s directement par ce nouveau data center, des reprĂ©sentants des associations France Nature Environnement 13 et Cap au Nord, ainsi que des Ă©lu·es locaux et parlementaires NFP.

« Reprendre le contrĂŽle sur les infrastructures du numĂ©rique ! Â»

Je prends aujourd’hui la parole au nom du collectif marseillais « Le nuage Ă©tait sous nos pieds Â», qui est composĂ© d’au moins trois entitĂ©s : La Quadrature du Net, qui dĂ©fend les libertĂ©s fondamentales dans l’environnement numĂ©rique ; Technopolice, qui analyse et lutte contre les technologies de surveillance ; le collectif des Gammares, collectif d’éducation populaire sur les enjeux de l’eau. Nous nous sommes rassemblĂ©es, alertĂ©es par la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numĂ©rique dans le dĂ©bat public alors mĂȘme que Marseille voit se multiplier les arrivĂ©es de cĂąbles sous-marins pour les liaisons Internet intercontinentales et l’émergence de data centers dans un grand silence politique et mĂ©diatique.

La surchauffe d’intĂ©rĂȘt gĂ©nĂ©ral ?

Dans la plaquette de communication du MRS5 dont il est ici question, le « data center Â» est prĂ©sentĂ© comme Ă©tant en parfaite continuitĂ© avec les usages historiques de cet emplacement au sein du systĂšme portuaire. Le stockage de donnĂ©es succĂ©derait au stockage agroalimentaire, au marchĂ© au bestiaux, au silo Ă  sucre. On pourrait rĂ©torquer dans un premier temps que la donnĂ©e ne se mange pas, mais plus sĂ©rieusement, il convient d’insister sur le flou que ce vocabulaire marketing entretient par rapport Ă  l’objet technique lui-mĂȘme.

Un data center n’est pas un simple entrepĂŽt de stockage, c’est un mĂ©ga-ordinateur bĂ©tonnĂ© composĂ© de centaines de serveurs qui tournent en permanence. Les industriels du numĂ©rique et autres entreprises y louent des espaces pour pouvoir bĂ©nĂ©ficier des capacitĂ©s de stockage et de la puissance de calcul de ce « mĂ©ga-ordinateur Â», et pendant ce temps le mĂ©ga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville dĂ©jĂ  trop souvent sujette Ă  la canicule, pompe des quantitĂ©s astronomiques d’eau et d’électricitĂ© sur le rĂ©seau public, et ne gĂ©nĂšre pratiquement aucun emploi direct.

On entend aussi souvent dire, par les industriels du secteur et les startupeux du gouvernement, que les data centers seraient « des projets d’intĂ©rĂȘt national majeur Â», comme les ponts ou les gares ferroviaires d’hier. Qu’ils sont les nouvelles infrastructures « indispensables au fonctionnement de l’ensemble de la sociĂ©tĂ© française Â» comme le suggĂšre l’actuel projet de loi de simplification de la vie Ă©conomique, et qu’ils servent l’intĂ©rĂȘt gĂ©nĂ©ral. Inscrire les centres de donnĂ©es dans la filiation des grandes infrastructures territoriales publiques permet de faire comme s’ils relevaient de l’évidence et ne rĂ©pondaient qu’à la demande naturelle du progrĂšs civilisationnel. Si l’on considĂšre que ces infrastructures servent rĂ©ellement l’intĂ©rĂȘt gĂ©nĂ©ral, elles pourraient ĂȘtre municipalisĂ©es, et s’inscrire dans les besoins rĂ©els des collectivitĂ©s territoriales plutĂŽt que d’ĂȘtre confiĂ©es Ă  des multinationales privĂ©es telle que Digital Realty.

Nous pensons que c’est l’idĂ©e mĂȘme selon laquelle ces infrastructures peuvent servir l’intĂ©rĂȘt gĂ©nĂ©ral qui doit ĂȘtre remise en question. Nous pensons que l’objet « data center Â», ce mĂ©ga-ordinateur, est imposĂ© par une poignĂ©e de multinationales du numĂ©rique en accord avec des gouvernements avides de profits Ă  court terme. Il est grand temps d’ouvrir la boite noire des systĂšmes techniques et d’admettre que les questions techniques sont toujours aussi des questions politiques. Les gĂ©ants du numĂ©rique s’imposent sans aucune concertation au niveau local ou national, contournant les systĂšmes de planification et de dĂ©cision collectives. Il faut redonner le pouvoir au peuple pour une autodĂ©termination quant aux enjeux du numĂ©rique et explorer des alternatives dĂ©centralisĂ©es et communautaires, qui prennent soin de nous, des uns et des autres et de notre territoire.

Accaparements

Le numĂ©rique est souvent dĂ©signĂ© comme un prĂ©tendu « cloud Â», un nuage qui n’a en rĂ©alitĂ© rien de vaporeux. Le « cloud Â», ce sont ces mĂ©ga-ordinateurs reliĂ©s Ă  travers le monde par des cĂąbles sous-marins en fibre optique, dont 18 arrivent aujourd’hui Ă  Marseille. Or, ces mĂ©ga-ordinateurs accaparent le foncier disponible, que ce soit dans l’enceinte du GPMM et en dehors avec les quatre autres data centers de Digital Realty dĂ©jĂ  en place MRS1, MRS2, MRS3, MRS4 et ce nouveau cinquiĂšme candidat, ou que ce soit dans les quartiers Nord, Ă  Saint-AndrĂ©, Ă  Saint-Henri, Ă  la Belle-de-Mai, ou hors des limites municipales, comme le projet de Digital Realty Ă  Bouc Bel Air. Il y a mĂȘme un projet de data center flottant !

Ces entrepĂŽts de serveurs s’accaparent aussi les rĂ©seaux Ă©lectriques publics et l’énergie disponible, jusqu’à faire saturer leurs capacitĂ©s1. Nous prenons aujourd’hui la parole juste en face du poste source d’électricitĂ©, construit spĂ©cifiquement par Digital Realty afin d’alimenter ses centres de donnĂ©es. Leurs moyens capitalistiques dĂ©mesurĂ©s permettent donc de construire leurs propres infrastructures Ă©lectriques, sans jamais se prĂ©occuper des consĂ©quences sur les habitant·es et leurs territoires. Tant et si bien que les conflits d’usage s’amoncellent. Ici Ă  Marseille, il faut choisir entre l’électrification des bus ou des quais pour les bateaux de croisiĂšres et celle de ces data centers, qui accaparent ainsi l’énergie disponible en lieu et place de nos infrastructures et services publics2.

Enfin, les gĂ©ants du numĂ©rique s’accaparent aussi notre eau. Le « river-cooling Â» utilisĂ© Ă  Marseille par Digital Realty pour refroidir ses data centers, n’est rien d’autre que le dĂ©tournement des eaux de qualitĂ© potable de l’ancienne galerie miniĂšre de Gardanne, pour un gain Ă©nergĂ©tique peu consĂ©quent3. Attribuer l’usage de ces eaux Ă  ce besoin industriel pose la question de futurs conflits d’usage que les derniĂšres sĂ©cheresses estivales nous ont laissĂ© entrevoir. À l’échelle mondiale, la question de l’eau atteint des proportions prĂ©occupantes : Google annonçait par exemple, en 2021, avoir utilisĂ© plus de 15 milliards de mĂštres cubes d’eau pour le refroidissement de ses centres.

Greenwashing

Les services marketing des multinationales du numĂ©rique redoublent d’imagination pour nous faire croire que les data centers sont des « usines vertes Â», qui n’auraient aucun impact sur l’environnement. À les Ă©couter, les centres de donnĂ©es seraient mĂȘme des infrastructures lĂ©gĂšres, utilisant les ressources en eau et en Ă©lectricitĂ© avec parcimonie et de maniĂšre « optimisĂ©e Â». C’est faux.

L’urgence actuelle est d’entrer dans une trajectoire de sobriĂ©tĂ© Ă©nergĂ©tique. L’explosion des demandes Ă©nergĂ©tiques que le dĂ©ploiement de data center produit n’est absolument pas compatible avec nos objectifs climatiques plus gĂ©nĂ©raux. Car les ressources ne sont pas illimitĂ©es. MRS5 va s’accaparer l’eau et l’électricitĂ©, et nĂ©cessiter la construction d’autres centrales de production d’énergie verte, pourtant dĂ©jĂ  controversĂ©es4. MĂȘme s’il semble parfois Ă©culĂ©, il faut encore une fois rappeler l’adage selon lequel « la seule Ă©nergie verte, c’est celle qu’on ne produit pas Â».

Surtout que les calculs d’efficacitĂ© environnementale ont souvent la fĂącheuse tendance Ă  oblitĂ©rer et externaliser une partie de leurs impacts : jusqu’oĂč calcule-t-on les coĂ»ts Ă©nergĂ©tiques et humains d’un data center ? Faut-il regarder les micropuces extrĂȘmement gourmandes en eau pure, les dĂ©gĂąts causĂ©s par les cĂąbles sous-marins obsolĂštes5, les autres dĂ©chets du numĂ©rique que l’ONU compte Ă  10,5 millions de tonnes ?

Peut-on continuer Ă  invisibiliser les filiĂšres d’extractions miniĂšres extranationales extrĂȘmement violentes, en RĂ©publique DĂ©mocratique du Congo notamment et dans le reste du monde. David Maenda Kithoko, prĂ©sident de l’association GĂ©nĂ©ration LumiĂšre, lui mĂȘme rĂ©fugiĂ© climatique congolais, le rappelle haut et fort : la rĂ©volution numĂ©rique fait couler le sang de son peuple. MRS5 est construit sur le silo Ă  sucre Saint-Louis, bĂątiment emblĂ©matique de l’impĂ©rialisme français et du commerce colonial. Et si l’on trouvait pour cet ancien bĂątiment une autre fonction, qui ne rejouerait pas ces violences, mais qui s’inscrirait rĂ©ellement dans une trajectoire de sobriĂ©tĂ© et de justice sociale ?

Reprendre le contrĂŽle

Pour finir, la question centrale qui se pose ici est : Ă  quoi – Ă  qui – servent ces data centers ? L’immense majoritĂ© des flux de donnĂ©es qui circulent dans les data centers sont Ă  destination des entreprises. On nous laisse croire que ces mĂ©ga-ordinateurs ne feraient que rĂ©pondre Ă  un besoin criant des consommateurs libres que nous serions, alors qu’une bonne partie de leurs usages nous concernant sont destinĂ©s Ă  capter nos donnĂ©es personnelles et gĂ©nĂ©rer de la publicitĂ© pour polluer nos espaces de vie en ligne. Mais en regardant la liste des futures entreprises clientes de MRS5, on voit : Oracle Corporation, ce gĂ©ant Ă©tasunien qui offre des services informatiques uniquement Ă  des entreprises ; KP1, spĂ©cialiste de prĂ©fabriquĂ© bĂ©ton – le bĂ©ton rappelons-le est responsable de 8% des Ă©missions de gaz Ă  effet de serre â€“ ; Flowbird, sociĂ©tĂ© actrice de la « ville intelligente Â» ; MisterFly, agence de voyage en ligne pour la rĂ©servation d’avions, etc. En dehors d’un dĂ©partement de recherche en archĂ©ologie, les premiers clients connus de MRS5 ne semblent pas forcĂ©ment « d’intĂ©rĂȘt public national Â». Bien au contraire, ce sont des acteurs issus du mĂȘme monde technocratique que les data centers eux-mĂȘmes.

Tout comme MRS5, des milliers de nouveaux data centers seront bientĂŽt construits pour mieux accompagner l’essor programmĂ© de l’Intelligence Artificielle (IA), se surajoutant Ă  toutes les infrastructures informatiques dĂ©jĂ  existantes. Or, on pourrait dĂ©jĂ  lĂ©gitimement se poser la question de savoir s’il n’y a pas dĂ©jĂ  trop de numĂ©rique dans nos vies, non seulement d’un point de vue environnemental mais aussi du point de vue des impacts sociĂ©taux. Alors que de plus en plus de professionnels de la santĂ© nous alertent sur l’impact des Ă©crans sur la santĂ© mentale, le patron de Netflix peut se permettre de nommer le sommeil comme son principal concurrent. Le boom de l’IA, qui est entiĂšrement entraĂźnĂ©e et servie dans et par ces data centers, annonce de nombreuses nouvelles violences et violations des droits humains auxquelles nous devrons faire face : deep fakes, harcĂšlement, algorithmes de prises de dĂ©cisions discriminatoires. C’est bien lĂ  l’un des enjeux des gĂ©ants du numĂ©rique : prendre d’assaut notre temps et notre attention, en dĂ©pit de notre santĂ© et de nos droits fondamentaux.

L’immixtion du numĂ©rique dans la plupart des champs professionnels se heurte trĂšs souvent Ă  des rĂ©sistances. Que ce soit en mĂ©decine, en agriculture, dans l’éducation, Ă  la poste, dans les administrations, la logique qui sous-tend ce dĂ©veloppement est presque toujours la mĂȘme : l’optimisation et la dĂ©possession technique, menant Ă  des pertes de sens professionnel, Ă  de l’isolement, Ă  une intensification des cadences, Ă  l’industrialisation. La crise professionnelle qui traverse ces secteurs est bien plus une crise de moyens humains que d’efficacitĂ© technique.

Pour autant, il n’y a pas de fatalitĂ© au « tout numĂ©rique Â», nous pouvons et nous devons reprendre le contrĂŽle. Cela passe notamment par la contestation des projets de construction d’infrastructures nouvelles, telles que MRS5 de Digital Realty dans le port de Marseille.


L’enquĂȘte publique relative au projet MRS5 est ouverte jusqu’au 27 septembre 2024.

Vous ĂȘtes vous aussi engagé·e dans une lutte locale contre les data centers ? Écrivez-nous Ă  : lenuageetaitsousnospieds@riseup.net.


  1. « Ă€ l’échelle française, les prĂ©visions les plus rĂ©centes de RTE aboutissent dĂ©sormais Ă  une demande totale des data centers de puissance de pointe de l’ordre de 8 Ă  9 GW, pour une consommation qui atteindrait 80 TWh/an si tous ces projets se concrĂ©tisent rapidement, loin des 10 TWh/an qu’ils consomment actuellement, mais aussi loin des prĂ©visions de RTE, qui estimait jusqu’alors une consommation de 15 Ă  20 TWh/an en 2030 et 28 en 2035. Â» tribune de CĂ©cile Diguet « Les data centers s’implantent de maniĂšre totalement opportuniste Â», juillet 2024. ↩
  2. Comme notĂ© par le conseil municipal de Marseille dans sa dĂ©libĂ©ration 23/0568/VAT du 20 octobre 2023 sur la « StratĂ©gie municipale pour une implantation planifiĂ©e et rĂ©gulĂ©e des cĂąbles sous-marins et des data centers sur le territoire marseillais Â». ↩
  3. D’aprĂšs les documents fournis par Digital Realty lors de la prĂ©sentation du projet MRS5, la rĂ©duction de la consommation Ă©nergĂ©tique du site gĂ©nĂ©rĂ©e par la mise en Ɠuvre de la solution river-cooling serait de uniquement 4,33 % de l’énergie Ă©lectrique annuelle totale consommĂ©e par le site. En effet cette solution ne permet pas de se passer totalement d’un refroidissement par climatisation Ă©lectrique, Ă  laquelle elle viens s’ajouter pour ne la remplacer en usage qu’à hauteur de 32%. ↩
  4. D’aprĂšs CĂ©cile Diguet, les projets de data center actuellement planifiĂ©s par RTE d’ici 2030 en France consommeraient l’équivalent de la production Ă©nergĂ©tique de 3 nouvelles centrales nuclĂ©aires et demi. France Inter, Ă©mission Interception, Septembre 2024. ↩
  5. D’aprĂšs un rapport d’expertise Ă©cologique du Parc Marin de la CĂŽte Bleue alertant sur l’effet des cĂąbles sous-marins dĂ©sactivĂ©s et abandonnĂ©s par Orange au dĂ©but des annĂ©es 2000 sur les fonds marins et l’espĂšce protĂ©gĂ©e des herbiers de Posidonie qui habitent ce site protĂ©gĂ© classĂ© Natura 2000. Voir Ă©galement le travail de recherche menĂ© par Loup Cellard et ClĂ©ment Marquet sur les cĂąbles sous-marins de Marseille et de la CĂŽte Bleue en particulier, qui montre comment les prises de dĂ©cisions en matiĂšre de pose ou de dĂ©pose de ces cĂąbles, sont dominĂ©es par des impĂ©ratifs avant tout Ă©conomiques et industriels, et non pas Ă©cologiques : « Frictions sous-marines Â», dĂ©cembre 2023. ↩

Affaires Lafarge – Dessaisir la Sous-direction anti-terroriste

2 juillet 2024 Ă  19:29

La Quadrature du Net est signataire de cette tribune que nous reproduisons ici.

Le 2 juillet, les 4 personnes mises en examen dans l’affaire dite « Lafarge Â» sont convoquĂ©es devant les juges d’instruction. Un collectif de 180 personnalitĂ©s, avocats, magistrats, intellectuel·les de renom et activistes, dĂ©noncent le rĂŽle croissant de la Sous-Direction-Anti-Terroriste dans la rĂ©pression des mouvements sociaux. « Si les gouvernements prĂ©cĂ©dents ont donnĂ© toujours plus de latitude aux services anti-terroristes, les prochains ne se gĂȘneront pas pour en profiter pleinement Â».

Mais pour qui travaille la SDAT ?

Ce mardi 2 juillet, les 4 personnes mises en examen dans l’affaire dite « Lafarge Â», accusĂ©es d’avoir participĂ© au dĂ©sarmement de l’usine de Bouc-Bel-Air en dĂ©cembre 2022, sont convoquĂ©es devant les juges d’instruction. Elles devront rĂ©pondre de faits de dĂ©gradation et d’association de malfaiteurs, prĂ©tendument aggravĂ©s par le caractĂšre de « bande organisĂ©e Â». Peine encourue : 20 ans de prison. Les victimes de cette affaire – sacs de ciment, armoires Ă©lectriques et autres vĂ©hicules de chantier – n’étant pas douĂ©es de parole, le parquet n’a pas osĂ© qualifier ces faits de « terroristes Â». Pourtant, c’est la Sous-Direction-Anti-Terroriste (SDAT), en collaboration avec la section de recherche de Marseille, qui est chargĂ©e de l’enquĂȘte, toujours en cours Ă  ce jour.

C’est encore la SDAT qui a Ă©tĂ© saisie de l’enquĂȘte pour d’autres dĂ©gradations : peinture et mousse expansive sur le site Lafarge de Val-de-Reuil en dĂ©cembre 2023. Parmi les 17 personnes initialement interpellĂ©es, 9 devront comparaĂźtre au tribunal d’Évreux Ă  l’hiver prochain. À chaque fois, la SDAT a coordonnĂ© des opĂ©rations d’interpellations spectaculaires oĂč l’on a pu voir des commandos cagoulĂ©s et armĂ©s dĂ©foncer les portes de dizaines de militant·es â€“ quand ce ne sont pas celles de leurs voisins – pour les emmener dans les sous-sols de leurs locaux Ă  Levallois-Perret.

L’enquĂȘte sur l’affaire Lafarge a permis et permet sans doute encore de traquer les dĂ©placements, les relations et les conversations de centaines de personnes, et d’éplucher les comptes de nombreuses associations. ParticuliĂšrement alarmant, le dossier montre l’usage d’un mystĂ©rieux logiciel espion qui, Ă  l’instar de Pegasus, est employĂ© pour aspirer le contenu des tĂ©lĂ©phones et notamment celui des messageries cryptĂ©es, ou encore le fichier des titres d’identitĂ© (TES) dĂ©tournĂ© de maniĂšre abusive pour rĂ©colter les empreintes digitales (1). Plus largement, cette enquĂȘte fait planer la menace d’une perquisition sur la tĂȘte de quiconque aurait les mauvais ami·es, se serait rendu sur les lieux d’une manifestation, ou aurait le malheur d’ĂȘtre gĂ©olocalisĂ© au mauvais endroit et au mauvais moment, comme de nombreux tĂ©moignages l’ont montrĂ©.

Pourquoi une telle opĂ©ration ? La SDAT travaillerait-elle pour une des entreprises les plus toxiques de la planĂšte, actuellement mise en examen par le Parquet National Anti-Terroriste pour complicitĂ© de crime contre l’humanitĂ© et financement du terrorisme ? La dĂ©fense de Lafarge par les services français, dĂ©jĂ  largement documentĂ©e dans le cadre du financement de Daesh, se reconduit-elle en France ?

La SDAT, service de police spĂ©cialisĂ©, Ă©troitement liĂ© Ă  la direction du renseignement intĂ©rieur, a rĂ©guliĂšrement mis ses capacitĂ©s d’exception au service d’intĂ©rĂȘts politiques variĂ©s de l’État français. Les arrestations rĂ©centes de militants indĂ©pendantistes du CCAT en Kanaky par la mĂȘme SDAT, et leur transfert Ă  17 000 km de chez eux, montre encore une fois le rĂŽle de la police antiterroriste dans la rĂ©pression des mouvements sociaux.

Dans l’affaire Lafarge, elle est saisie pour des enquĂȘtes de simples dĂ©gradations sans mobile terroriste, quinze ans aprĂšs la tentative infructueuse de faire tomber le fantasmatique groupe anarcho-autonome de Tarnac et quelques annĂ©es aprĂšs l’effarante affaire du 8 dĂ©cembre qui avait provoquĂ© l’incarcĂ©ration de plusieurs personnes pendant des mois. De son propre aveu, il lui faut bien trouver des figures de l’ennemi intĂ©rieur pour justifier de son budget face Ă  la baisse de la « menace djihadiste Â» et « chercher de nouveaux dĂ©bouchĂ©s du cĂŽtĂ© de l’écologie Â». Qu’importe si les enquĂȘteurs de la SDAT reconnaissent que ceux qu’ils catĂ©gorisent comme appartenant Ă  l’« ultra gauche Â» ne s’en prennent pas aux personnes mais aux biens.

Brandir la criminalitĂ© organisĂ©e pour des faits de dĂ©gradations a le mĂ©rite de crĂ©er de toute piĂšce une nouvelle menace repoussoir : celle de l’écoterroriste. Dans la lecture policiĂšre, une manifestation devient un commando, telle personne connue des services de renseignement pour son activitĂ© dans les mouvements sociaux devient cadre, ou encore coordinateur, ou logisticienne. On catĂ©gorise les membres prĂ©sumĂ©s de cette bande en les faisant appartenir Ă  un cercle dirigeant et stratĂ©gique ou Ă  un cercle opĂ©rationnel. L’enquĂȘte, menĂ©e Ă  charge contre les SoulĂšvements de la Terre a notamment permis, via la traque des supposĂ©s « cadres Â», de justifier une surveillance accrue Ă  la veille de la manifestation de Sainte Soline en mars 2023. On est bien loin des Ă©vĂ©nements de Bouc Bel Air. La SDAT assure bien sĂ»r n’enquĂȘter que sur des « faits Â», se dĂ©fendant « d’enquĂȘter sur un mouvement dans le but de le faire tomber Â» (10). L’affirmation prĂȘterait presque Ă  rire si les consĂ©quences n’étaient pas aussi lourdes. Il suffit de rappeler que les arrestations dans l’affaire Lafarge ont eu lieu la veille de la dissolution des SoulĂšvements de la terre en Conseil des ministres, empĂȘchant ainsi plusieurs de ses porte-parole de s’exprimer Ă  un moment crucial.

La construction policiĂšre rĂ©vĂ©lĂ©e par des rapports de synthĂšse fantasmagoriques est dangereuse parce qu’elle fabrique des figures qui ont pour fonction premiĂšre d’orienter les dĂ©cisions des magistrats instructeurs. Elle altĂšre profondĂ©ment le principe de prĂ©somption d’innocence et la garantie des droits pour les personnes poursuivies. Sur le fond, la saisie des services de la SDAT, dont « l’excellence Â» se mesure Ă  sa capacitĂ© Ă  s’exonĂ©rer du rĂ©gime de droit commun de l’enquĂȘte(2) et aux moyens dĂ©mesurĂ©s mis Ă  sa disposition, pour des faits qui sont strictement en dehors de sa vocation, relĂšve avant tout de la rĂ©pression politique. François Molins lui-mĂȘme, visage de la lutte anti-terroriste et procureur au tribunal de Paris de 2011 Ă  2018, s’inquiĂšte du dĂ©tournement par les prĂ©fets des dispositifs mis en place pour combattre les menaces d’attentats Ă  des fins de maintien de l’ordre. À la veille des Jeux Olympique de Paris les « MICAS Â» Mesures Individuelles de ContrĂŽle Administratif et de SĂ©curitĂ© commencent Ă  tomber, elles constituent des Ă©quivalents des assignations Ă  rĂ©sidence en l’absence de l’état d’urgence qui les conditionnent normalement. Relevant de la lutte anti-terroriste, elles constituent une procĂ©dure amplement dĂ©tournĂ©e pour priver des libertĂ©s de manifester et de se dĂ©placer des militants qui pourraient dĂ©ranger.

Si les gouvernements prĂ©cĂ©dents ont donnĂ© toujours plus de latitude aux services anti-terroristes, les prochains ne se gĂȘneront pas pour en profiter pleinement, tant l’outil Ă  leur disposition est commode pour traquer les opposants et paralyser les mouvements sociaux. Dans cette pĂ©riode agitĂ©e oĂč le RN est aux portes du pouvoir, les consĂ©quences politiques de l’augmentation des moyens et du champ d’action de la police antiterroriste sont profondĂ©ment dangereuses. Elles s’inscrivent dans une pĂ©riode d’extension de la surveillance de masse, d’aggravation des violences policiĂšres et de la rĂ©pression judiciaire des mouvements de contestation. Puisque les intĂ©rĂȘts Ă©conomiques et idĂ©ologiques des puissances industrielles qui ravagent le monde convergent fortement avec ceux du RN, ce parti ouvertement climato-sceptique, on peut lĂ©gitimement se demander : Ă  quoi servira un outil tel que la SDAT s’il tombait aux mains de l’extrĂȘme droite ?

Pour toutes ces raisons, nous, participant·es ou soutiens des luttes Ă©cologiques, sociales et dĂ©coloniales, dĂ©nonçons le rĂŽle croissant de la SDAT dans la rĂ©pression des mouvements sociaux et Ă©cologistes. Nous, magistrat·es ou avocat·es, demandons qu’elle soit dessaisie des enquĂȘtes sur des faits qui ne relĂšvent pas de ses compĂ©tences, Ă  commencer par l’affaire Lafarge de Bouc Bel Air.

Notes : 

(1) Le fichier des titres Ă©lectroniques sĂ©curisĂ©s est une base de donnĂ©es gĂ©rĂ©e par le ministĂšre de l’IntĂ©rieur qui rassemble les donnĂ©es personnelles et biomĂ©triques des Français pour la gestion des cartes nationales d’identitĂ© et des passeports français. 

(2) Hors contexte de terrorisme, les agents de police ont la possibilitĂ© d’anonymiser leur signature dans les actes de procĂ©dure si et seulement si une autorisation individuelle est dĂ©livrĂ©e par un magistrat dans une dĂ©cision motivĂ©e. La SDAT ne s’encombre pas de cet encadrement et anonymise systĂ©matiquement ses actes.

Retrouvez la liste des signataires.

« Vous ĂȘtes filmé·es Â» : une critique documentaire de la surveillance

31 mai 2024 Ă  06:05

Dans la lignĂ©e des festivals organisĂ©s ces deux derniĂšres annĂ©es par nos ami·es de Technopolice Marseille, La Quadrature du Net s’associe Ă  TĂ«nk pour proposer une sĂ©lection de films documentaires abordant l’enjeu de la surveillance policiĂšre. Il s’agit, par le cinĂ©ma, de mieux penser les technologies et les rapports de pouvoirs qu’elles produisent, pour mieux les combattre. Voici le texte introduisant cette sĂ©lection Ă  retrouver sur TĂ«nk.

Sous couvert d’optimisation et de contrĂŽle, la surveillance prolifĂšre. Ă€ l’ùre de l’informatique, nos messages privĂ©s sont traquĂ©s, nos publications constamment analysĂ©es, nos corps scrutĂ©s par les dispositifs de vidĂ©osurveillance dissĂ©minĂ©s dans nos rues. Partout dans le monde, des data centers stockent des fichiers nous concernant qui, pris ensemble, disent tout ou presque de nos activitĂ©s, de nos dĂ©placements, de nos attachements. 

Si la surveillance est partout, si elle sature aussi l’actualitĂ© de mĂȘme que les discours militants ou nos conversations intimes, elle reste largement invisible, souvent mal comprise. De grands schĂšmes tirĂ©s d’exemples historiques ou de science fiction – au hasard, la Stasi ou 1984 d’Orwell –, nous font gĂ©nĂ©ralement office de grilles de lecture. Mais on peine Ă  en saisir avec nuance les ressorts et les ramifications, Ă  discerner ses infrastructures, Ă  en comprendre les effets ou les Ă©volutions.

À La Quadrature du Net, nous travaillons depuis des annĂ©es Ă  la dĂ©fense des droits humains face Ă  la prolifĂ©ration de la surveillance numĂ©rique. Et d’expĂ©rience, nous savons que produire un discours sur cet objet nĂ©cessite un effort constant de rĂ©flexion et d’élaboration.

C’est ce que nous tĂąchons de faire dans le cadre du projet Technopolice, en mettant l’accent sur les nouvelles technologies de surveillance policiĂšre des espaces publics urbains : vidĂ©osurveillance algorithmique, police prĂ©dictive, drones, et bien d’autres encore. Dans ce travail d’enquĂȘte militante et d’éducation populaire qui est aussi une tentative de rĂ©sistance, le cinĂ©ma documentaire apparaĂźt comme un outil puissant. C’est pourquoi nous somme ravi·es de pouvoir faire cette escale en partenariat avec TĂ«nk, en proposant cette sĂ©lection de films variĂ©s et complĂ©mentaires.

À travers cette sĂ©lection, il s’agit d’abord de tendre un miroir aux surveillants, de lever le voile sur ces acteurs en position de pouvoir qui produisent ou lĂ©gitiment la surveillance (voir le film mĂ©diactiviste Supervision, tournĂ© dans le centre de vidĂ©osurveillance de Marseille ; voir aussi la super-production expĂ©rimentale All Light Everywhere, qui fait l’incroyable rencontre d’un reprĂ©sentant commercial d’Axon, leader du marchĂ© des bodycams policiĂšres ; voire enfin PrĂ©dire les crimes). Le documentaire permet aussi de convoquer un passĂ© pas si lointain pour se remettre en mĂ©moire ses mĂ©faits – par exemple en rappelant le viol de l’intimitĂ© et le contrĂŽle qu’induit le regard policier (comme sous le rĂ©gime polonais dans les annĂ©es 1970 dans An Ordinary Country), ou en revenant sur la gĂ©nĂ©alogie carcĂ©rale de la vidĂ©osurveillance (Je croyais voir des prisonniers). Par la poĂ©sie, il peut enfin souligner, au-delĂ  de l’État et de sa police, la multiplicitĂ© des formes de surveillance, la maniĂšre dont nous pouvons parfois nous en faire complices, et interroger la frontiĂšre entre surveillance et partage, domination et rencontre (L’Îlot).

Le choix des films, fait en collaboration avec le comitĂ© de programmation de TĂ«nk, laisse Ă©videmment de cĂŽtĂ© d’autres excellents titres. Mais l’ensemble donne bien Ă  voir ce contre quoi nous luttons, Ă  savoir ce vieux fantasme policier que dĂ©crivait Michel Foucault dans Surveiller et Punir (1975) : une « surveillance permanente, exhaustive, omniprĂ©sente, capable de tout rendre visible, mais Ă  la condition de se rendre elle-mĂȘme invisible Â», « un regard sans visage qui transforme tout le corps social en un champ de perception Â».

À travers la puissance du cinĂ©ma, il s’agit aussi de remettre un tant soit peu de symĂ©trie dans le rapport de force. Car si la surveillance peut s’interprĂ©ter comme un champ de perception au service du pouvoir, alors notre proposition Ă©ditoriale recĂšle aussi un espoir : l’espoir qu’en faisant collectivement l’expĂ©rience de ces films, nous puissions nous constituer ensemble en une sorte de contre-champ, en un faisceau de rĂ©sistances.

Bon visionnage !

La Quadrature du Net

Le rÚglement IA adopté, la fuite en avant techno-solutionniste peut se poursuivre

22 mai 2024 Ă  09:44

RĂ©unis au sein du Conseil de l’Union europĂ©enne, les États-membres ont adoptĂ© hier le rĂšglement IA, dĂ©diĂ© Ă  la rĂ©gulation des systĂšmes d’Intelligence Artificielle. Cette Ă©tape marque l’adoption dĂ©finitive de cet Ă©difice lĂ©gislatif en discussion depuis 2021, et prĂ©sentĂ© au dĂ©part comme un instrument de protection des droits et libertĂ©s face au rouleau compresseur de l’IA. À l’arrivĂ©e, loin des promesses initiales et des commentaires emphatiques, ce texte est taillĂ© sur mesure pour l’industrie de la tech, les polices europĂ©ennes et autres grandes bureaucraties dĂ©sireuses d’automatiser le contrĂŽle social. Largement fondĂ© sur l’auto-rĂ©gulation, bardĂ© de dĂ©rogations, il s’avĂšre totalement incapable de faire obstacle aux dĂ©gĂąts sociaux, politiques et environnementaux liĂ©s Ă  la prolifĂ©ration de l’IA.

L’histoire avait commencĂ© avec de belles promesses. En avril 2021, au moment de prĂ©senter sa proposition de rĂšglement relatif Ă  l’Intelligence Artificielle, la Commission europĂ©enne nous Ă©crivait pour nous rassurer : elle porterait la « plus grande attention Â» Ă  la pĂ©tition europĂ©enne lancĂ©e Ă  l’époque contre la reconnaissance faciale. Le texte prĂ©sentĂ© quelques jours plus tard par la Commission s’accompagnait d’une proposition de moratoire sur certains de ces usages, au milieu d’un ensemble de mesures conçues pour mettre un minimum d’ordre dans un marchĂ© de l’IA en plein essor.

Lettre d'avril 2021 transmise par les services de la Commission européenne

Deux ans plus tard, le Parlement europĂ©en poussait le texte un cran loin, Ă©tendant diverses interdictions relatives aux usages policiers des techniques d’IA, ou contre les systĂšmes de « scoring Â» et autres formes de « notation sociale Â». Mais aprĂšs les coups de butoir des gouvernements des États-membres, au premier rang desquels les autoritĂ©s françaises, rien ou presque des promesses initiales ne subsiste. Reste un « paquet lĂ©gislatif Â» certes volumineux, voire bavard, mais aussi trĂšs flou. Le rĂšglement fait la part belle Ă  l’auto-rĂ©gulation et s’avĂ©rera incapable de protĂ©ger l’intĂ©rĂȘt gĂ©nĂ©ral face Ă  la prolifĂ©ration programmĂ©e des systĂšmes d’IA.

Une loi pour faire prolifĂ©rer l’IA

Comme nous l’avions craint, plutĂŽt que d’élever les garanties en matiĂšre de droits fondamentaux, le rĂšglement IA vise Ă  faire prolifĂ©rer la production de donnĂ©es et leur collecte au bĂ©nĂ©fice de l’industrie. Les textes europĂ©ens comme le RĂšglement europĂ©en sur la protection des donnĂ©es (RGPD), entrĂ©s en vigueur en 2018, se retrouvent en partie affaiblis par ces nouvelles rĂšgles spĂ©ciales applicables aux systĂšmes d’IA.

Mais pour les acteurs publics et privĂ©s ayant poussĂ© Ă  l’adoption de ce texte, l’enjeu prioritaire n’a jamais Ă©tĂ© de protĂ©ger les droits fondamentaux. Le rĂšglement est fondĂ© sur une approche « par les risques Â», classant les types de systĂšmes d’IA ou leurs domaines d’application (police, santĂ©, emploi, etc.) en fonction de quatre catĂ©gories de risque (risque faible non ciblĂ© par le rĂšglement ; risque limitĂ© pour certains systĂšmes soumis aux seules mesures de transparence prĂ©vues par l’article 50 ; risque Ă©levĂ© soumis aux obligations diverses du rĂšglement ; risque inacceptable pour les quelques pratiques interdites par l’article 5).

À travers cet Ă©difice lĂ©gislatif destinĂ© Ă  rĂ©guler un sous-secteur de l’industrie informatique en pleine expansion, et alors que les controverses autour de l’IA se multiplient – qu’il s’agisse de ses effets dĂ©shumanisants sur le travail, de son coĂ»t environnemental, de son impact sur les droits fondamentaux â€“, l’objectif est avant tout de poser les conditions d’une plus grande « acceptabilitĂ© sociale Â» de ces technologies pour mieux les imposer.

Dans ce processus, Emmanuel Macron et le gouvernement français auront jouĂ© Ă  merveille leur partition. Tout affairĂ© Ă  la promotion de la Startup Nation, obnubilĂ© par la course Ă  l’innovation pour mieux attirer les capitaux Ă©trangers, ne craignant pas les conflits d’intĂ©rĂȘt et autres formes de corruption au cours des nĂ©gociations sur le rĂšglement, l’État français a en effet une responsabilitĂ© historique dans ce reniement.

La stratĂ©gie française est assumĂ©e. Elle se poursuit aujourd’hui Ă  travers le projet de loi « simplification de la vie Ă©conomique Â», qui vise notamment Ă  accĂ©lĂ©rer les procĂ©dures de construction de data centers en faisant obstacle aux contestations locales. Microsoft en est l’un des principaux bĂ©nĂ©ficiaires, puisque le gĂ©ant de l’informatique vient d’annoncer un investissement de 4 milliards d’euros pour dĂ©multiplier ses infrastructures de stockage et de calcul sur le territoire français. Et c’est Ă©galement Microsoft qui a mis le grappin sur Mistral AI, promu comme champion national de l’IA, en annonçant un accord de partenariat avec la startup française sitĂŽt l’accord politique conclu sur le texte du rĂšglement IA. L’argument de la souverainetĂ© numĂ©rique avancĂ© par la France pour abaisser les exigences du rĂšglement IA a donc bon dos, puisqu’en pratique l’État s’accommode trĂšs bien du renforcement des positions dominantes des multinationales de la tech.

En vertu du rĂšglement adoptĂ© hier, ce sont les entreprises qui conçoivent les systĂšmes d’IA qui seront les premiĂšres compĂ©tentes pour de prononcer sur le niveau de risque que prĂ©sentent leurs produits (article 43). Il leur sera alors loisible de considĂ©rer que ces systĂšmes ne sont pas risquĂ©s et donc exempts de toute rĂ©gulation en vertu du rĂšglement. Autrement, ce sont des organismes privĂ©s de certification qui seront amenĂ©s Ă  dĂ©livrer des attestations de conformitĂ©1. De maniĂšre gĂ©nĂ©rale, les formes de rĂ©gulation promues par le rĂšglement s’assimilent essentiellement Ă  de l’auto-rĂ©gulation et au suivi de « bonnes pratiques Â», le tout sous l’égide d’organismes de standardisation de droit privĂ© (le CEN-CENELEC au niveau europĂ©en ou l’AFNOR en France) au sein desquels l’industrie aura toutes latitudes2. Et si un peu de transparence est permise, pas question qu’elle mette pour autant en cause le sacro-saint « secret des affaires Â», mentionnĂ© Ă  de multiples reprise dans le texte. Autant dire que le dĂ©bat consistant Ă  savoir qui, en France, de la CNIL, de l’Arcep ou de l’Arcom sera chargĂ©e de superviser l’application du rĂšglement ne revĂȘt pas d’énorme enjeu. 

Autre signe des considĂ©rations dont l’industrie fait l’objet, le chapitre VI contient un grand nombre de dispositifs rĂ©glementaires censĂ©s « soutenir l’innovation Â», afin de permettre au secteur privĂ© d’entraĂźner ses modĂšles d’IA avec un soutien renforcĂ© des pouvoirs publics.

La Technopolice en roue libre

S’il Ă©tait clair depuis le dĂ©but que l’approche par les risques promue par l’Union europĂ©enne pour rĂ©guler l’IA Ă©tait conçue pour rĂ©guler un marchĂ© plutĂŽt que de protĂ©ger les droits fondamentaux, au moins pouvait-on espĂ©rer que les usages les plus dangereux des systĂšmes d’IA, Ă  l’image de la reconnaissance faciale, seraient bannis au titre des « risques inacceptables Â». C’était en tout cas une demande de dizaines d’ONG et de plus de 250 000 citoyen·nes europĂ©en·nes rĂ©uni·es dans la coalition Reclaim Your Face et ce que laissait entendre la Commission au dĂ©part.

LĂ  encore, la France a ƓuvrĂ© avec d’autres États Ă  tenir en Ă©chec toutes prĂ©tentions en la matiĂšre, laissant les coudĂ©es franches aux forces de police et Ă  l’industrie de la surveillance. L’analyse du texte permet de l’illustrer. L’article 5, qui dresse la liste des diverses interdictions ayant subsistĂ©, proscrit bel et bien « l’utilisation de systĂšmes d’identification biomĂ©trique Ă  distance en temps rĂ©el Â». L’article 5.2 semble ici couvrir de nombreuses applications de vidĂ©osurveillance algorithmique (VSA). Sauf que, d’une part, toute utilisation de tels systĂšmes Ă©chappe Ă  cette formulation dĂšs lors qu’elle est conduite en temps diffĂ©rĂ©. Et que lĂ  encore, des exceptions en rĂ©duisent drastiquement la portĂ©e : le recours Ă  la reconnaissance faciale en temps rĂ©el sera en effet possible dĂšs lors qu’il s’agit de retrouver des victimes « d’enlĂšvement, de la traite ou de l’exploitation sexuelle d’ĂȘtres humains, ainsi que la recherche de personnes disparues Â», s’il s’agit de prĂ©venir « une menace spĂ©cifique, substantielle et imminente pour la vie ou la sĂ©curitĂ© physique de personnes physiques Â», ou encore pour prĂ©venir « une menace rĂ©elle et actuelle ou rĂ©elle et prĂ©visible d’attaque terroriste Â». Autant de pieds dans la porte qui pourront facilement ĂȘtre Ă©tendus Ă  de nouvelles situations Ă  l’avenir.

Qui plus est, en la matiĂšre, l’armĂ©e et les services de renseignement se voient libĂ©rĂ©s de toute contrainte. C’est Ă©galement le cas des Ă©quipes de recherches scientifiques pourront « innover Â» Ă  loisir. L’article 2.3, relatif au champ d’application du rĂšglement, prĂ©cise en effet que celui-ci, et donc les interdictions qu’il Ă©nonce, ne s’applique pas aux systĂšmes d’IA dĂ©veloppĂ©s « Ă  des fins de recherche scientifique Â», ni Ă  ceux utilisĂ©s Ă  « des fins militaires, de dĂ©fense ou de sĂ©curitĂ© nationale Â». Soit d’autres trous bĂ©ants dans la raquette.

En pratique, toutes les formes d’IA policiĂšres contre lesquelles nous nous battons dans le cadre du projet Technopolice semblent permises par le rĂšglement, de la VSA Ă  la police prĂ©dictive. Tout au plus pourront-elles ĂȘtre considĂ©rĂ©es comme « Ă  haut risque Â», car relevant de certains domaines d’applications sensibles dĂ©finis dans l’annexe III3. Elles seront alors soumises Ă  des obligations renforcĂ©es de transparence et de standardisation : les responsables de ces systĂšmes devront ainsi identifier, Ă©valuer et traiter les « risques raisonnablement prĂ©visibles (
) pour la santĂ©, la sĂ©curitĂ© ou les droits fondamentaux Â» (article 9.2), mettre en place des bonnes pratiques en matiĂšre de gouvernance des donnĂ©es (article 10), et tenir des registres liĂ©s aux activitĂ©s de leurs systĂšmes (article 12). Standardisation et auto-rĂ©gulation, sous l’égide d’agences publiques chargĂ©es d’organiser le tout, seront donc de mise.

La transparence des systĂšmes Ă  haut risque restera extrĂȘmement limitĂ©e en matiĂšre technopoliciĂšre. Car si de tels systĂšmes doivent normalement ĂȘtre rĂ©pertoriĂ©s dans un registre public, les forces de l’ordre et les services d’immigration ont obtenu une dĂ©rogation (articles 49.4 et 71). Ils n’auront pas non plus Ă  publier les Ă©tudes d’impact, ce qui est normalement obligatoire pour les systĂšmes Ă  haut risque.

Enfin, mĂȘme lorsqu’ils seront effectivement classĂ©s Ă  haut risque, encore faut-il que les systĂšmes IA n’échappent pas Ă  l’autre dĂ©rogation lĂ©onine ajoutĂ©e au texte. Un « filtre Â» dĂ©fini Ă  l’article 6.3 prĂ©voit en effet que les obligations ad hoc ne s’appliquent pas dĂšs lors que les systĂšmes d’IA considĂ©rĂ©s sont destinĂ©s Ă  « accomplir un tĂąche procĂ©durale Ă©troite Â», Ă  « amĂ©liorer ou optimiser Â» le rĂ©sultat d’une « tĂąche humaine Â» dĂ©jĂ  accomplie, s’ils ne rĂ©alisent qu’une « tĂąche prĂ©paratoire Â», ou si plus gĂ©nĂ©ralement, bien que relevant thĂ©oriquement des applications Ă  haut risque dĂ©finies Ă  l’annexe III, ils « ne prĂ©sente pas de risque important de prĂ©judice pour la santĂ©, la sĂ©curitĂ© ou les droits fondamentaux des personnes physiques Â». Toutes ces notions juridiques paraissent particuliĂšrement larges et laissent la porte ouverte Ă  tous les abus, a fortiori dĂšs lors qu’elles sont laissĂ©es Ă  l’apprĂ©ciation d’acteurs privĂ©s.

Quant aux systĂšmes de police prĂ©dictive basĂ©s sur le calcul de scores de risque par zones gĂ©ographiques, dont nous soulignions rĂ©cemment les dangers en terme de discrimination, il semble qu’ils Ă©chappent Ă  la dĂ©finition trĂšs restrictive proposĂ©e en la matiĂšre dans l’annexe III relative aux systĂšmes Ă  haut risque, et donc aux obligations prĂ©vues pour cette catĂ©gorie4.

Algos de contrĂŽle social et greenwashing en embuscade

En matiĂšre de « crĂ©dit social Â», Ă©galement mis en avant comme l’une des proscriptions les plus ambitieuses posĂ©es par le texte et qui apparaissait comme une maniĂšre de prĂ©server la bonne conscience europĂ©enne face Ă  la dystopie numĂ©rique « Ă  la chinoise Â», c’est encore la douche froide. La « notation sociale Â» – par exemple celle pratiquĂ©e par les Caisses d’allocations familiales que nous documentons depuis des mois – reste permise dĂšs lors qu’elle ne relĂšve pas, Ă  l’instar des systĂšmes expĂ©rimentĂ©s en Chine, d’un systĂšme centralisĂ© captant des donnĂ©es issues de contextes sociaux diffĂ©rents (police, travail, Ă©cole, etc.) (considĂ©rant 31). Les notations sectorielles utilisĂ©es par les organismes sociaux pourront donc continuer de plus belle : bien qu’il les classe dans les applications Ă  haut risque, et en dehors de quelques obligations procĂ©durales dĂ©jĂ  Ă©voquĂ©es, le rĂšglement n’apporte rien pour lutter efficacement contre les algorithmes discriminatoires des administrations sociales en matiĂšre de notation et de flicage des bĂ©nĂ©ficiaires.

Restent des dĂ©clarations de principe, dont la nature contradictoire devrait pourtant sauter aux yeux. On pense notamment au vƓu pieu que « les systĂšmes d’IA [soient] dĂ©veloppĂ©s et utilisĂ©s d’une maniĂšre durable et respectueuse de l’environnement Â» (considĂ©rant 27). Ou de l’idĂ©e dĂ©cidĂ©ment tenace qu’une informatisation toujours plus poussĂ©e permettra de rĂ©pondre Ă  l’enjeu du changement climatique (considĂ©rant 4), et ce alors que dans le mĂȘme temps, notamment Ă  travers la loi de simplification dĂ©jĂ  citĂ©e, on encourage Ă  tout-va la construction de data centers hyper-Ă©nergivores et qu’on relance l’extraction miniĂšre pour accompagner la « transition numĂ©rique Â». Rien de bien surprenant cela dit puisque, chez les technocrates et autres apĂŽtres des hautes technologies, l’IA est dĂ©sormais un Ă©lĂ©ment clĂ© de tout bon discours de greenwashing.

Les seules rĂšgles en matiĂšre d’impact environnemental posĂ©es par le rĂšglement IA consistent en la fourniture, par les concepteurs de systĂšme d’IA Ă  haut risque qui cherchent Ă  faire certifier leurs produits, d’informations visant Ă  « amĂ©liorer les performances des systĂšmes d’IA en matiĂšre de ressources, telles que la rĂ©duction de la consommation d’énergie et d’autres ressources par le systĂšme d’IA (
) au cours de son cycle de vie Â», ou relatives au « dĂ©veloppement Ă©conome en Ă©nergie de modĂšles d’IA Ă  usage gĂ©nĂ©ral Â» (article 40). Dans le mĂȘme ordre d’idĂ©es, dans le cadre de l’annexe XI, les concepteurs d’IA gĂ©nĂ©ratives fondĂ©es sur de grands modĂšles de donnĂ©es, Ă  l’image d’OpenAI, devront Ă©galement fournir des informations sur « la consommation d’énergie connue ou estimĂ©e Â» liĂ©e Ă  l’entraĂźnement et Ă  l’utilisation de ces modĂšles. Le tout Ă©tant lĂ  aussi chapeautĂ© par les organismes de normalisation, l’exercice ne devrait ĂȘtre qu’une simple formalitĂ© aux effets parfaitement cosmĂ©tiques.

À l’arrivĂ©e, loin de protĂ©ger les valeurs de dĂ©mocratie, d’État de droit et de respect pour l’environnement que l’Union europĂ©enne prĂ©tend encore incarner comme un phare dans la nuit, le rĂšglement IA reste le produit d’une realpolitik dĂ©sastreuse. Face Ă  l’étau formĂ© par la Chine et les États-Unis, il doit en effet permettre de relancer l’Europe dans la course aux derniĂšres technologies informatiques, perçues comme de vĂ©ritables Ă©talons de puissance. Non seulement cette course paraĂźt perdue d’avance mais, ce faisant, l’Union europĂ©enne participe Ă  lĂ©gitimer une fuite en avant techno-solutionniste dangereuse pour les libertĂ©s et insoutenable au plan Ă©cologique.

La gĂ©nĂ©ralisation de l’IA, en tant que paradigme technique et politique, a pour principal effet de dĂ©multiplier les dĂ©gĂąts engendrĂ©s par la sur-informatisation de nos sociĂ©tĂ©s. Puisqu’il est dĂ©sormais clair que ce rĂšglement ne sera d’aucune utilitĂ© pour enrayer l’emballement actuel, c’est d’autres moyens de lutte qu’il va nous falloir collectivement envisager.


  1. Veale, Michael, et Frederik Zuiderveen Borgesius. « Demystifying the Draft EU Artificial Intelligence Act — Analysing the Good, the Bad, and the Unclear Elements of the Proposed Approach Â». Computer Law Review International 22, n° 4 (1 aoĂ»t 2021), p. 106. https://doi.org/10.9785/cri-2021-220402 ↩
  2. Perarnaud, ClĂ©ment. « Loi europĂ©enne sur l’IA : une rĂ©glementation « digne de conïŹance » ? Â» La revue europĂ©enne des mĂ©dias et du numĂ©rique, mars 2024. https://la-rem.eu/2024/03/loi-europeenne-sur-lia-une-reglementation-digne-de-con%ef%ac%81ance/. ↩
  3. L’annexe III dĂ©finit comme Ă©tant Ă  haut risque les systĂšmes d’IA liĂ©es aux applications suivantes :  surveillance biomĂ©trique, gestion d’infrastructures critiques, de l’éducation et de la formation professionnelle, de l’emploi et de la gestion de la main d’Ɠuvre, l’accĂšs aux services publics et prestations sociales, la police prĂ©dictive, le contrĂŽle des migrations et l’administration de la justice. ↩
  4. L’annexe III, qui dresse la liste des applications Ă  haut risque, n’évoque Ă  l’article 6.d. que « les systĂšmes d’IA destinĂ©s Ă  ĂȘtre utilisĂ©s par les autoritĂ©s rĂ©pressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autoritĂ©s rĂ©pressives pour Ă©valuer le risque qu’une personne physique commette une infraction ou rĂ©cidive, sans se fonder uniquement sur le profilage des personnes physiques visĂ© Ă  l’article 3, paragraphe 4, de la directive (UE) 2016/680, ou pour Ă©valuer les traits de personnalitĂ©, les caractĂ©ristiques ou les antĂ©cĂ©dents judiciaires de personnes physiques ou de groupes Â». ↩

Contre l’empire de la vidĂ©osurveillance algorithmique, La Quadrature du Net contre-attaque

2 mai 2024 Ă  10:02

L’« expĂ©rimentation Â» de la vidĂ©osurveillance algorithmique (VSA) dans le cadre fixĂ© par la loi « Jeux Olympiques Â» adoptĂ©e l’an dernier n’en est pas une : elle n’est qu’une manƓuvre hypocrite destinĂ©e Ă  lĂ©galiser par petites touches une infrastructure policiĂšre dĂ©jĂ  massivement dĂ©ployĂ©e en France. Pour contrer cette stratĂ©gie, La Quadrature du Net lance aujourd’hui une campagne visant Ă  nourrir l’opposition populaire Ă  la VSA, une technologie basĂ©e sur des techniques d’« Intelligence Artificielle Â» qui s’assimile Ă  un contrĂŽle constant et automatisĂ© des espaces publics, et qui marque un tournant historique dans la surveillance d’État. Une plainte a Ă©galement Ă©tĂ© dĂ©posĂ©e devant la CNIL afin de dĂ©noncer l’hypocrisie des promoteurs de la VSA et pointer l’incurie de l’autoritĂ© de protection des donnĂ©es personnelles.

Le prétexte des Jeux Olympiques

Depuis quelques jours, les services de police du pays et les services de sĂ©curitĂ© des sociĂ©tĂ©s de transport ont lĂ©galement recours Ă  la VSA1Voir notre article consacrĂ© aux premiers arrĂȘtĂ©s prĂ©fectoraux autorisant le recours Ă  la VSA.. Fin avril, invoquant des afflux importants de personnes liĂ©s Ă  des matchs de foot ou des concerts, la prĂ©fecture de police de Paris a en effet autorisĂ© la SNCF et la RATP Ă  utiliser les technologies de la startup Wintics pour croiser les flux des centaines de camĂ©ras installĂ©es dans certaines gares et stations de mĂ©tro parisiennes2Les catĂ©gories d’évĂ©nements Ă  repĂ©rer par les systĂšmes de VSA reprennent une partie des catĂ©gories prĂ©vues par la loi de 2023, en l’espĂšce : franchissement ou prĂ©sence d’une personne dans une zone interdite ou sensible, densitĂ© trop importante de personnes, mouvement de foule, prĂ©sence d’objets abandonnĂ©s.. Ces « expĂ©rimentations Â» vont se poursuivre jusqu’en mars 2025, dans le cadre juridique fixĂ© par la loi relative aux Jeux Olympiques adoptĂ©e l’an dernier.

Qu’importe l’efficacitĂ© dĂ©risoire de ces systĂšmes de surveillance automatisĂ©e des espaces publics. Pour le ministĂšre de l’intĂ©rieur, les industriels et leurs relais politiques, ces expĂ©rimentations servent avant tout Ă  dĂ©tourner l’attention, alors qu’en parallĂšle, des centaines de systĂšmes de VSA sont illĂ©galement utilisĂ©s depuis des annĂ©es par l’État, les collectivitĂ©s locales ou les rĂ©gies de transport. Il s’agit aussi de faire oublier qu’au croisement d’intĂ©rĂȘts Ă©conomiques, Ă©lectoralistes et autoritaires, les promoteurs de la Technopolice travaillent depuis des annĂ©es Ă  l’imposition de la VSA partout sur le territoire.

Le pire est Ă  venir

De fait, les projets de loi visant Ă  pĂ©renniser la VSA en recourant aux applications les plus sensibles – Ă  l’image de la reconnaissance faciale en temps rĂ©el dans l’espace public ou de la vidĂ©overbalisation automatique des petites infractions – sont pour certains dĂ©jĂ  dans les cartons.

La proposition de loi Transports est un parfait exemple : l’AssemblĂ©e nationale s’apprĂȘte Ă  dĂ©battre de cette proposition poussĂ©e par la droite sĂ©natoriale et visant Ă  lĂ©galiser la VSA dans les transports. Le gouvernement soutient l’initiative parlementaire puisqu’il a activĂ© la procĂ©dure accĂ©lĂ©rĂ©e sur ce texte, sans mĂȘme attendre les Ă©valuations imposĂ©es par la loi JO3Guillaume Jacquot. « Transports : le SĂ©nat adopte une proposition de loi qui renforce l’arsenal de sĂ©curitĂ©, avec le soutien du gouvernement Â», Public SĂ©nat, 14 fĂ©vrier 2024..

Par ailleurs, en juin 2023, soit moins de trois mois aprĂšs l’adoption de la loi JO, le SĂ©nat reprenait un projet d’expĂ©rimentation d’abord mĂ»ri par la majoritĂ© macroniste en adoptant une proposition de loi prĂ©voyant une expĂ©rimentation de trois ans de la reconnaissance faciale couplĂ©e Ă  la vidĂ©osurveillance. « Trop tĂŽt Â», avait en substance rĂ©pondu le gouvernement, estimant que les conditions politiques n’étaient pas rĂ©unies et prĂ©fĂ©rant s’en tenir Ă  une stratĂ©gie des petits pas4Simon Barbarit, « Reconnaissance faciale : le SĂ©nat adopte une proposition de loi pour expĂ©rimenter cette technologie Â». Public SĂ©nat, 12 juin 2023..

DĂ©noncer l’hypocrisie ambiante

Pour mieux illustrer l’hypocrisie des « expĂ©rimentations Â» liĂ©es Ă  la loi JO, La Quadrature du Net vient de dĂ©poser une plainte devant la CNIL contre un dĂ©ploiement de la VSA totalement illĂ©gal et restĂ© largement sous les radars : le projet Prevent PCP.

Associant la SNCF et la RATP avec un panel d’entreprises, dont le groupe Atos et ChapsVision (par ailleurs toutes deux prestataires des expĂ©rimentations liĂ©es Ă  la loi JO), Prevent PCP prend formellement la forme d’un marchĂ© public subventionnĂ© par l’Union europĂ©enne. En pratique, les entreprises voient leurs systĂšmes de VSA dĂ©ployĂ©s dans des grandes gares Ă  travers l’Europe pour dĂ©tecter des « bagages abandonnĂ©s Â», via une mĂ©thode reposant sur l’identification et le suivi des propriĂ©taires des bagages. En France, ces systĂšmes de VSA sont ainsi dĂ©ployĂ©s depuis des mois dans la gare du Nord et la gare de Lyon Ă  Paris ou, plus rĂ©cemment, dans la gare de Marseille-Saint-Charles.

GrĂące aux Ă©lĂ©ments mis au jour par le groupe local Technopolice Marseille, La Quadrature du Net a donc dĂ©posĂ© une plainte devant la CNIL contre ce projet, qui n’est qu’un exemple parmi les centaines de dĂ©ploiements illĂ©gaux de la VSA en France. À travers cette dĂ©marche, il s’agit de renvoyer l’autoritĂ© en charge de la protection des donnĂ©es personnelles au rĂŽle qui devrait ĂȘtre le sien, alors qu’elle laisse prolifĂ©rer des projets illĂ©gaux de VSA tout en accompagnant le processus de lĂ©galisation. Cette plainte permet Ă©galement de souligner l’hypocrisie des protagonistes de Prevent PCP : alors mĂȘme qu’elles prennent part Ă  l’expĂ©rimentation de la VSA prĂ©vue par loi JO, la SNCF, la RATP, Atos ou ChapsVision se livrent en parallĂšle Ă  des dĂ©ploiements dĂ©pourvus de toute base lĂ©gale.

Nourrir une opposition populaire Ă  la VSA

Aujourd’hui, La Quadrature du Net lance Ă©galement diffĂ©rents outils destinĂ©s Ă  nourrir des mobilisations contre la VSA dans les prochains mois, et rĂ©sister Ă  sa lĂ©galisation programmĂ©e. Une brochure dĂ©taillĂ©e expliquant les dangers de la VSA, ainsi que des affiches destinĂ©es Ă  informer la population sont disponibles sur cette page de campagne dĂ©diĂ©e, qui sera enrichie dans les semaines et mois Ă  venir5La page de campagne est disponible Ă  l’adresse laquadrature.net/vsa..

Cette campagne contre la VSA s’inscrit dans le cadre de l’initiative Technopolice, lancĂ©e en 2019 par La Quadrature pour rĂ©sister au nouvelles technologies de surveillance policiĂšre. Le site Technopolice propose un forum public ainsi qu’une plateforme de documentation participative (appelĂ©e le « carrĂ© Â»), libre d’utilisation et destinĂ©s Ă  organiser et fĂ©dĂ©rer des collectifs locaux opposĂ©s Ă  ces technologies.

Pour faire la lumiĂšre sur les arrĂȘtĂ©s prĂ©fectoraux qui autorisent localement la VSA dans le cadre de la loi JO, nous avons Ă©galement lancĂ© un compte Mastodon, Attrap’Surveillance, qui analyse les recueils des actes administratifs des prĂ©fectures et diffuse des alertes lorsque des autorisations de surveillance policiĂšre sont dĂ©tectĂ©es. C’est ce dispositif qui a permis de repĂ©rer mi-avril les premiers arrĂȘtĂ©s de VSA. Dans les prochaines semaines, il permettra d’ĂȘtre averti des expĂ©rimentations de la VSA autorisĂ©es par les prĂ©fets afin de les dĂ©noncer.

Par tous les moyens, il nous faut faire valoir notre refus d’un contrĂŽle permanent de nos faits et gestes, dĂ©noncer ces expĂ©rimentations, documenter les projets illĂ©gaux qui continuent de prolifĂ©rer, et nous organiser localement pour battre en brĂšche la Technopolice. Ensemble, luttons pour que l’espace public ne se transforme pas dĂ©finitivement en lieu de rĂ©pression policiĂšre, pour que nos villes et nos villages soient des espaces de libertĂ©, de crĂ©ativitĂ© et de rencontres !

Pour suivre l’actualitĂ© de La Quadrature et suivre cette campagne contre la VSA, vous pouvez vous abonner Ă  notre lettre d’information.

References[+]

References
↑1 Voir notre article consacrĂ© aux premiers arrĂȘtĂ©s prĂ©fectoraux autorisant le recours Ă  la VSA.
↑2 Les catĂ©gories d’évĂ©nements Ă  repĂ©rer par les systĂšmes de VSA reprennent une partie des catĂ©gories prĂ©vues par la loi de 2023, en l’espĂšce : franchissement ou prĂ©sence d’une personne dans une zone interdite ou sensible, densitĂ© trop importante de personnes, mouvement de foule, prĂ©sence d’objets abandonnĂ©s.
↑3 Guillaume Jacquot. « Transports : le SĂ©nat adopte une proposition de loi qui renforce l’arsenal de sĂ©curitĂ©, avec le soutien du gouvernement Â», Public SĂ©nat, 14 fĂ©vrier 2024.
↑4 Simon Barbarit, « Reconnaissance faciale : le SĂ©nat adopte une proposition de loi pour expĂ©rimenter cette technologie Â». Public SĂ©nat, 12 juin 2023.
↑5 La page de campagne est disponible à l’adresse laquadrature.net/vsa.

Contre la criminalisation et la surveillance des militant·es politiques

8 avril 2024 Ă  10:44

Ce texte a Ă©tĂ© lu par un·e membre de La Quadrature du Net le 5 avril 2024 lors du rassemblement devant le Tribunal judiciaire d’Aix-en-Provence, Ă  l’occasion des deux nouvelles mises en examen dans l’affaire Lafarge.

On est lĂ  aujourd’hui pour dire notre soutien aux personnes convoquĂ©es, Ă  toutes les personnes placĂ©es en garde Ă  vue et inquiĂ©tĂ©es dans cette affaire. On est lĂ  pour dĂ©noncer l’instrumentalisation de la justice et des services antiterroristes pour rĂ©primer les militantes et militants et dissuader toute forme de dĂ©sobĂ©issance civile. LĂ , enfin, pour dire notre indignation face au recours systĂ©matique Ă  des formes de surveillance intrusives et totalement disproportionnĂ©es.

Les mises en examen de ce jour, ou celles qui les ont prĂ©cĂ©dĂ© dans cette « affaire Lafarge Â», s’inscrivent dans un contexte plus global. Jusqu’à un passĂ© pas si lointain, de nombreuses formes d’action directes Ă©taient tolĂ©rĂ©es par les autoritĂ©s. Mais progressivement, en lien avec la dĂ©rive nĂ©o-libĂ©rale amorcĂ©e dans les annĂ©es 1980, l’espace accordĂ© Ă  la critique d’un systĂšme injuste et Ă©cocide a fondu comme neige au soleil. De crise en crise, on a assistĂ© Ă  la consolidation d’un État d’exception, Ă  l’inflation des services de renseignement, Ă  la multiplication de dĂ©rogations au droit libĂ©ral — un droit certes bien trop imparfait, mais qui n’en demeurait pas moins un hĂ©ritage fondamental des luttes passĂ©es. On a Ă©galement vu un pouvoir politique s’entĂȘter au point de ne plus tolĂ©rer la moindre contestation, instrumentalisant le droit commun Ă  coup d’amendes, de dissolutions, de maintien de l’ordre hyper-violent.

Le tout pour rĂ©primer toutes celles et ceux qui ont la dignitĂ© de dire leur refus d’un systĂšme Ă  la violence dĂ©complexĂ©e, et le courage de mettre ce refus en actes. Dans ce processus du criminalisation des militant·es, les services de renseignement, de police judiciaire comme les magistrats du parquet peuvent dĂ©sormais s’appuyer sur les exorbitants moyens de surveillance. Autant de dispositifs qui se sont accumulĂ©s depuis 25 ans et qui, dans l’affaire Lafarge et d’autres jugĂ©es rĂ©cemment, s’emboĂźtent pour produire une surveillance totale. Une surveillance censĂ©e produire des Ă©lĂ©ments sur lesquels pourront s’édifier le rĂ©cit policier et la rĂ©pression.

Cette surveillance, elle commence par l’activitĂ© des services de renseignement. ContrĂŽles d’identitĂ© qui vous mettent dans le viseur des services, camĂ©ras et micro planquĂ©es autour de lieux militants ou dans des librairies, balises GPS, interceptions, analyse des mĂ©tadonnĂ©es, 
 Tout est bon pour servir les prioritĂ©s politiques et justifier la pĂ©rennisation des crĂ©dits. L’activitĂ© du renseignement consacrĂ©e Ă  la surveillance des militant·es – Ă©rigĂ©e en prioritĂ© depuis la stratĂ©gie nationale du renseignement de 2019 –, elle a doublĂ© sous Macron, passant de 6 % au moins du total des mesures de surveillance en 2017 Ă  plus de 12% en 2022.

AprĂšs le fichage administratif, aprĂšs les notes blanches du renseignement, vient le stade des investigations judiciaires. LĂ  encore, comme l’illustre l’affaire Lafarge, la surveillance en passe par le recours Ă  la vidĂ©osurveillance – plus de 100 000 camĂ©ras sur la voie publique aujourd’hui –, puis par l’identification biomĂ©trique systĂ©matique, notamment via la reconnaissance faciale et le fichier TAJ, ou quand ce n’est pas possible par le fichier des cartes d’identitĂ© et de passeport, l’infĂąme fichier TES, qui est ainsi dĂ©tournĂ©.

Pour rappel, le recours Ă  la reconnaissance faciale via le fichier TAJ, ce n’est pas de la science fiction. Ce n’est pas non plus l’exception. Il est aujourd’hui utilisĂ©e au moins 1600 fois par jour par la police, et ce alors que cette modalitĂ© d’identification dystopique n’a jamais Ă©tĂ© autorisĂ©e par une loi et que, de fait, son usage n’est pas contrĂŽlĂ© par l’autoritĂ© judiciaire.

Cette reconnaissance faciale, elle est employĂ©e y compris pour des infractions dĂ©risoires, notamment lorsqu’il s’agit d’armer la rĂ©pression d’opposants politiques comme l’ont illustrĂ© les jugements de la semaine derniĂšre Ă  Niort, un an aprĂšs Sainte-Soline. Et ce alors que le droit europĂ©en impose normalement un critĂšre de « nĂ©cessitĂ© absolue Â».

La surveillance dĂ©coule enfin du croisement de toutes les traces numĂ©riques laissĂ©es au grĂ© de nos vies et nos activitĂ©s sociales. Dans cette affaire et d’autres encore, on voit ainsi se multiplier les rĂ©quisitions aux rĂ©seaux sociaux comme Twitter ou Facebook, l’espionnage des conversations tĂ©lĂ©phoniques et des SMS, le suivi des correspondances et des dĂ©placements de groupes entiers de personnes via leurs mĂ©tadonnĂ©es, la surveillance de leurs publications et de leurs lectures, la rĂ©quisition de leurs historiques bancaires ou des fichiers dĂ©tenus par les services sociaux, 
 Le tout, souvent sur la seule base de vagues soupçons. Et Ă  la clĂ©, une violation systĂ©matique de leur intimitĂ© ensuite jetĂ©e en pĂąture Ă  des policiers, lesquels n’hĂ©sitent pas Ă  Ă  s’en servir pour intimider ou tenter d’humilier lors des interrogatoires, et construire une vision biaisĂ©e de la rĂ©alitĂ© qui puisse corroborer leurs fantasmes.

De plus en plus, c’est la logique mĂȘme de la rĂ©sistance Ă  la dĂ©rive autoritaire qui est criminalisĂ©e. Vous utilisez des logiciels libres et autres services alternatifs aux multinationales qui dominent l’industrie de la tech et s’imbriquent dans les systĂšmes de surveillance d’État ? Cela suffit Ă  faire de vous un suspect, comme le rĂ©vĂšle l’affaire du « 8 dĂ©cembre Â» jugĂ©e il y a quelques mois. Vous choisissez des messageries dotĂ©es de protocoles de chiffrement pour protĂ©ger votre droit Ă  la confidentialitĂ© des communications ? On pourra recourir aux spywares et autres mĂ©thodes d’intrusion informatique pour aspirer le maximum de donnĂ©es contenues dans vos ordinateurs ou smartphones. C’est ce dont a Ă©tĂ© victime le photographe mis en cause dans cette affaire. Et si vous refusez de livrer vos codes de chiffrement lors d’une garde Ă  vue, on retiendra cela contre vous et on intentera des poursuites, quand bien mĂȘme l’infraction censĂ©e lĂ©gitimer votre garde Ă  vue s’est avĂ©rĂ©e tout Ă  fait grotesque.

Pour conclure, nous voudrions rappeler que, dans les annĂ©es 30, alors que l’Europe cĂ©dait peu Ă  peu au fascisme, un gouvernement français pouvait faire du pays une terre d’accueil pour les militant·es, les artistes, les intellectuelles. C’était juste avant la fin honteuse de la IIIe rĂ©publique, juste avant le rĂ©gime de Vichy. Aujourd’hui, alors que, Ă  travers l’Europe comme dans le monde entier, les militant·es des droits humains, les militant·es Ă©cologistes, celles et ceux qui dĂ©noncent la violence systĂ©mique des États ou les mĂ©faits des multinationales, sont chaque jour plus exposé·es Ă  la rĂ©pression, l’État français se place aux avant-gardes de la dĂ©rive post-fasciste.

Reste Ă  voir si, plutĂŽt que de s’en faire la complice active comme le font craindre les dĂ©cisions rĂ©centes, l’institution judiciaire aura encore la volontĂ© d’y rĂ©sister.

Le rĂšglement europĂ©en sur l’IA n’interdira pas la surveillance biomĂ©trique de masse

19 janvier 2024 Ă  09:56

Traduction du communiqué de presse de la coalition Reclaim Your Face.

Le 8 dĂ©cembre 2023, les lĂ©gislateurs de l’Union europĂ©enne se sont fĂ©licitĂ©s d’ĂȘtre parvenus Ă  un accord sur la proposition de rĂšglement tant attendue relative l’intelligence artificielle (« rĂšglement IA Â»). Les principaux parlementaires avaient alors assurĂ© Ă  leurs collĂšgues qu’ils avaient rĂ©ussi Ă  inscrire de solides protections aux droits humains dans le texte, notamment en excluant la surveillance biomĂ©trique de masse (SBM).

Pourtant, malgrĂ© les annonces des dĂ©cideurs europĂ©ens faites alors, le rĂšglement IA n’interdira pas la grande majoritĂ© des pratiques dangereuses liĂ©es Ă  la surveillance biomĂ©trique de masse. Au contraire, elle dĂ©finit, pour la premiĂšre fois dans l’UE, des conditions d’utilisation licites de ces systĂšmes. Les eurodĂ©putĂ©s  et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.

L’UE entre dans l’histoire – pour de mauvaises raisons

La coalition Reclaim Your Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquĂ©es de par leur conception, et qu’elles n’ont pas leur place dans une sociĂ©tĂ© dĂ©mocratique. La police et les autoritĂ©s publiques disposent dĂ©jĂ  d’un grand nombre de donnĂ©es sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos visages et nos corps sur simple pression d’un bouton.

Pourtant, malgrĂ© une position de nĂ©gociation forte de la part du Parlement europĂ©en qui demandait l’interdiction de la plupart des pratiques de SBM, trĂšs peu de choses avaient survĂ©cu aux nĂ©gociations du rĂšglement relatif Ă  l’IA. Sous la pression des reprĂ©sentants des forces de l’ordre, le Parlement a Ă©tĂ© contraint d’accepter des limitations particuliĂšrement faibles autour des pratiques intrusives en matiĂšre de SBM.

L’une des rares garanties en la matiĂšre ayant apparemment survĂ©cu aux nĂ©gociations – une restriction sur l’utilisation de la reconnaissance faciale a posteriori [par opposition Ă  l’utilisation en temps rĂ©el] – a depuis Ă©tĂ© vidĂ©e de sa substance lors de discussions ultĂ©rieures dites « techniques Â» qui se sont tenues ces derniĂšres semaines.

MalgrĂ© les promesses des reprĂ©sentants espagnols en charge des nĂ©gociations, qui juraient que rien de substantiel ne changerait aprĂšs le 8 dĂ©cembre, cette Ă©dulcoration des protections contre la reconnaissance faciale a posteriori  est une nouvelle dĂ©ception dans notre lutte contre la sociĂ©tĂ© de surveillance.

Quel est le contenu de l’accord ?

D’aprĂšs ce que nous avons pu voir du texte final, le rĂšglement IA est une occasion manquĂ©e de protĂ©ger les libertĂ©s publiques. Nos droits de participer Ă  une manifestation, d’accĂ©der Ă  des soins de santĂ© reproductive ou mĂȘme de nous asseoir sur un banc pourraient ainsi ĂȘtre menacĂ©s par une surveillance biomĂ©trique omniprĂ©sente de l’espace public. Les restrictions Ă  l’utilisation de la reconnaissance faciale en temps rĂ©el et a posteriori prĂ©vues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privĂ©es ni aux autoritĂ©s administratives.

Nous sommes Ă©galement déçus de voir qu’en matiĂšre de « reconnaissance des Ă©motions Â» et les pratiques de catĂ©gorisation biomĂ©trique, seuls des cas d’utilisation trĂšs limitĂ©s sont interdits dans le texte final, avec d’énormes lacunes.

Cela signifie que le rĂšglement IA autorisera de nombreuses formes de reconnaissance des Ă©motions – telles que l’utilisation par la police de systĂšmes d’IA pour Ă©valuer qui dit ou ne dit pas la vĂ©ritĂ© â€“ bien que ces systĂšmes ne reposent sur aucune base scientifique crĂ©dible. Si elle est adoptĂ©e sous cette forme, le rĂšglement IA lĂ©gitimera une pratique qui, tout au long de l’histoire, a partie liĂ©e Ă  l’eugĂ©nisme.

Le texte final prĂ©voit Ă©galement d’autoriser la police Ă  classer les personnes filmĂ©es par les camĂ©ras de vidĂ©osurveillance en fonction de leur couleur de peau. Il est difficile de comprendre comment cela peut ĂȘtre autorisĂ© Ă©tant donnĂ© que la lĂ©gislation europĂ©enne interdit normalement toute discrimination. Il semble cependant que, lorsqu’elle est pratiquĂ©e par une machine, les lĂ©gislateurs considĂšrent de telles discriminations comme acceptables.

Une seule chose positive Ă©tait ressortie des travaux techniques menĂ©s Ă  la suite des nĂ©gociations finales du mois de dĂ©cembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait Ă  la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face Â» ait rĂ©clamĂ© des rĂšgles encore plus strictes en la matiĂšre, cela constituait un progrĂšs significatif par rapport Ă  la situation actuelle, caractĂ©risĂ©e par un recours massif Ă  ces pratiques par les États membres de l’UE.

Il s’agissait d’une victoire pour le Parlement europĂ©en, dans un contexte oĂč tant de largesses sont concĂ©dĂ©es Ă  la surveillance biomĂ©trique. Or, les nĂ©gociations menĂ©es ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement Ă  accepter de supprimer cette limitation aux crimes transfrontaliers graves tout en affaiblissant les garanties qui subsistent. DĂ©sormais, un vague lien avec la « menace Â» d’un crime pourrait suffire Ă  justifier l’utilisation de la reconnaissance faciale rĂ©trospective dans les espaces publics.

Il semblerait que ce soit la France qui ait menĂ© l’offensive visant Ă  faire passer au rouleau compresseur notre droit Ă  ĂȘtre protĂ©gĂ©s contre les abus de nos donnĂ©es biomĂ©triques. À l’approche des Jeux olympiques et paralympiques qui se tiendront Ă  Paris cet Ă©tĂ©, la France s’est battue pour prĂ©server ou Ă©tendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systĂšmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux nĂ©gociateurs du Parlement n’ont pas rĂ©ussi Ă  la contrer dans cette dĂ©marche.

En vertu du rĂšglement IA, nous serons donc tous coupables par dĂ©faut et mis sous surveillance algorithmique, l’UE ayant accordĂ© un blanc-seing Ă  la surveillance biomĂ©trique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui crĂ©era un prĂ©cĂ©dent mondial Ă  faire froid dans le dos.

La police prĂ©dictive en France : contre l’opacitĂ© et les discriminations, la nĂ©cessitĂ© d’une interdiction

18 janvier 2024 Ă  05:08

AprĂšs plusieurs mois d’enquĂȘte, dans le cadre d’une initiative europĂ©enne coordonnĂ©e par l’ONG britannique Fair Trials, La Quadrature publie aujourd’hui un rapport sur l’état de la police prĂ©dictive en France. Au regard des informations recueillies et compte tenu des dangers qu’emportent ces systĂšmes dĂšs lors notamment qu’ils intĂšgrent des donnĂ©es socio-dĂ©mographiques pour fonder leurs recommandations, nous appelons Ă  leur interdiction.

AprĂšs avoir documentĂ© dĂšs 2017 l’arrivĂ©e de systĂšmes assimilables Ă  la police prĂ©dictive, puis ayant Ă©tĂ© confrontĂ©s Ă  l’absence d’informations Ă  jour et de rĂ©el dĂ©bat public sur ces systĂšmes, nous avons souhaitĂ© enquĂȘter plus en dĂ©tail. Pour ce rapport, nous avons donc rĂ©uni les informations accessibles sur plusieurs logiciels de police prĂ©dictive anciennement ou actuellement en utilisation au sein des forces de police françaises, et notamment :

  • RTM (Risk Terrain Modelling), un logiciel de « prĂ©vention situationnelle Â» utilisĂ© par la prĂ©fecture de Police de Paris pour cibler les zones d’intervention Ă  partir des donnĂ©es « environnementales Â» (prĂ©sence d’écoles, de commerces, de stations de mĂ©tro, etc.) ;
  • PredVol, logiciel dĂ©veloppĂ© en 2015 au sein d’Etalab, expĂ©rimentĂ© en Val d’Oise en 2016 pour Ă©valuer le risque de vols de vĂ©hicule, abandonnĂ© en 2017 ou 2018 ;
  • PAVED, logiciel dĂ©veloppĂ© Ă  partir de 2017 par la Gendarmerie et expĂ©rimentĂ© Ă  partir de 2018 dans diffĂ©rents dĂ©partements mĂ©tropolitains pour Ă©valuer le risque de vols de voiture ou de cambriolages. En 2019, peu avant sa gĂ©nĂ©ralisation prĂ©vue sur tout le territoire, le projet a Ă©tĂ© mis « en pause Â» ;
  • M-Pulse, auparavant nommĂ© Big Data de la TranquillitĂ© Publique, dĂ©veloppĂ© par la ville de Marseille en partenariat avec la sociĂ©tĂ© Engie pour Ă©valuer l’adĂ©quation des dĂ©ploiements de la police municipale dans l’espace public urbain ;
  • Smart Police, logiciel comportant notamment un module « prĂ©dictif Â» et mis au point par la startup française Edicia qui, d’aprĂšs son site web, a vendu cette suite logicielle Ă  plus de 350 forces municipales.

Des technologies dangereuses, sans encadrement ni Ă©valuation

Nous rĂ©sumons ici les principales critiques Ă  l’encontre des systĂšmes Ă©tudiĂ©s, dont la plupart font appel Ă  des techniques d’intelligence artificielle.

CorrĂ©lation n’est pas causalitĂ©

Le premier danger associĂ© Ă  ces systĂšmes, lui-mĂȘme amplifiĂ© par l’absence de transparence, est le fait qu’ils extrapolent des rĂ©sultats Ă  partir de corrĂ©lations statistiques entre les diffĂ©rentes sources de donnĂ©es qu’ils agrĂšgent. En effet, par mauvaise foi ou fainĂ©antise idĂ©ologique, les dĂ©veloppeurs de ces technologies entretiennent une grave confusion entre corrĂ©lation et causalitĂ© (ou du moins refusent-ils de faire la distinction entre les deux). Or, ces amalgames se traduisent de façon trĂšs concrĂšte dans le design et les fonctionnalitĂ©s des applications et logiciels utilisĂ©s sur le terrain par les policiers, mais aussi dans leurs consĂ©quences sur les habitantes exposĂ©es Ă  une policiarisation accrue.

Lorsqu’elle recourt Ă  ces systĂšmes d’aide Ă  la dĂ©cision, la police devrait donc au minimum tĂącher de dĂ©montrer la pertinence explicative de l’utilisation de variables socio-dĂ©mographiques spĂ©cifiques dans ses modĂšles prĂ©dictifs (c’est-Ă -dire aller au-delĂ  des simples corrĂ©lations pour retracer les causes structurelles de la dĂ©linquance, ce qui pourrait conduire Ă  envisager d’autres approches que les politiques sĂ©curitaires pour y faire face). Cela implique en premier lieu d’ĂȘtre transparent au sujet de ces variables, ce dont on est pour l’instant trĂšs loin.

S’agissant par exemple de PAVED, le modĂšle prĂ©dictif utiliserait quinze variables socio-dĂ©mographiques qui, selon les dĂ©veloppeurs, sont fortement corrĂ©lĂ©es avec la criminalitĂ©. Cependant, il n’y a aucune transparence sur la nature de ces variables, et encore moins de tentative de dĂ©monstration d’une vĂ©ritable relation de cause Ă  effet. Il en va globalement de mĂȘme pour les variables utilisĂ©es par Smart Police, le logiciel d’Edicia, quoiqu’on ait dans ce cas encore moins de visibilitĂ© sur la nature exacte des variables mobilisĂ©es.

Des variables potentiellement discriminatoires

Or, il est probable que, Ă  l’image des algorithmes utilisĂ©s par la Caisse nationale des allocations familiales (CNAF), certaines variables socio-dĂ©mographiques mobilisĂ©es soient discriminatoires.

En effet, les scores de risque sont possiblement corrĂ©lĂ©s Ă  un taux de chĂŽmage ou de pauvretĂ© important, ou encore Ă  un taux Ă©levĂ© de personnes nĂ©es en dehors de l’Union europĂ©enne dans le quartier considĂ©rĂ©. Et ce d’autant plus que l’on sait que, pour PAVED, parmi les donnĂ©es pertinentes pour l’établissement des « prĂ©dictions Â», on retrouve les indicateurs suivants : nationalitĂ© et donnĂ©es d’immigration, revenus et composition des mĂ©nages ou encore niveau de diplĂŽme. Autant de variables qui risquent de conduire Ă  cibler les populations les plus prĂ©carisĂ©es et les plus exposĂ©es au racisme structurel.

De fausses croyances criminologiques

Un autre danger associĂ© Ă  ces systĂšmes rĂ©side dans le fait qu’ils enracinent des doctrines criminologiques dĂ©criĂ©es. Les promoteurs de la police prĂ©dictive refusent de s’atteler Ă  une comprĂ©hension gĂ©nĂ©rale et Ă  une analyse sociale des comportements dĂ©viants et des illĂ©galismes : nulle mention des politiques de prĂ©carisation, d’exclusion, de discrimination, et de la violence sociale des politiques publiques. Et lorsqu’ils s’aventurent Ă  proposer des modĂšles explicatifs et qu’ils tentent d’inscrire ces modĂšle dans les algorithme de scoring, ils semblent s’en remettre Ă  des « savoirs Â» dont la pertinence est parfaitement douteuse.

Certaines allusions doctrinales apparaissent par exemple dans les articles de recherche du principal dĂ©veloppeur de PAVED, le colonel de gendarmerie Patrick Perrot. Ce dernier y fait part d’hypothĂšses de base concernant la criminalitĂ© (par exemple, la criminalitĂ© comme « phĂ©nomĂšne en constante Ă©volution Â»), et Ă©voque les « signaux faibles Â» et autres « signes prĂ©curseurs Â» de la dĂ©linquance qui font Ă©cho aux thĂ©ories de la « vitre brisĂ©e Â», dont la scientificitĂ© est largement mise en cause. De mĂȘme, dans le cas d’Edicia, le module prĂ©dictif semble reposer sur l’idĂ©e selon laquelle la dĂ©linquance a un effet de dĂ©bordement gĂ©ographique (ou effet de « contagion Â») et intĂšgre lui aussi des postulats « remontĂ©s Â» du « terrain Â» qui prĂ©tendent que « la petite dĂ©linquance entraĂźne la grande dĂ©linquance Â».

Autant de doctrines ineptes qui servent surtout Ă  masquer les consĂ©quences dĂ©sastreuses des politiques ultralibĂ©rales, Ă  criminaliser les incivilitĂ©s du quotidien, qui doivent s’interprĂ©ter comme l’élĂ©ment clĂ© d’une tentative de criminalisation des pauvres. Aujourd’hui, elles sont donc incorporĂ©es aux systĂšmes automatisĂ©s que s’octroie la police, lesquels contribuent Ă  les invisibiliser.

Un risque d’auto-renforcement

La critique est largement connue, mais elle mĂ©rite d’ĂȘtre rappelĂ©e ici : les logiciels de police prĂ©dictive soulĂšvent un important risque d’effet d’auto-renforcement et donc d’une dĂ©multiplication de la domination policiĂšre de certains quartiers (surveillance, contrĂŽle d’identitĂ©, usages de pouvoirs coercitifs).

En effet, leur usage conduit nĂ©cessairement Ă  sur-reprĂ©senter les aires gĂ©ographiques dĂ©finies comme Ă©tant Ă  haut risque dans les donnĂ©es d’apprentissage. DĂšs lors qu’un nombre important de patrouilles sont envoyĂ©es dans une zone donnĂ©e en rĂ©ponse aux recommandations de l’algorithme, elles seront conduites Ă  constater des infractions – mĂȘmes mineures – et Ă  collecter des donnĂ©es relatives Ă  cette zone, lesquelles seront Ă  leur tour prises en compte par le logiciel et contribueront Ă  renforcer la probabilitĂ© que cette mĂȘme zone soit perçue comme « Ă  risque Â».

La police prédictive produit ainsi une prophétie auto-réalisatrice en concentrant des moyens importants dans des zones déjà en proie aux discriminations et à la sur-policiarisation.

De possibles abus de pouvoir

Bien que nous n’ayons pas trouvĂ© d’élĂ©ments relatifs aux instructions particuliĂšres donnĂ©es aux policiers lorsqu’ils patrouillent dans des zones jugĂ©es Ă  haut risque par les systĂšmes prĂ©dictifs, une source nous indique que, grĂące Ă  PAVED, la gendarmerie a pu obtenir auprĂšs du procureur de la RĂ©publique l’autorisation pour que les agents en patrouille se positionnent dans les lieux de passage et arrĂȘtent les vĂ©hicules Ă  proximitĂ©. Dans ce cadre, il s’agissait pour eux de vĂ©rifier les plaques d’immatriculation et les permis de conduire des conducteurs, et de procĂ©der dans certains cas Ă  des fouilles de vĂ©hicule.

Si l’information s’avĂ©rait exacte, cela signifierait que des contrĂŽles prĂ©ventifs, menĂ©s dans le cadre d’une autorisation du Parquet, ont Ă©tĂ© dĂ©cidĂ©s sur la seule base d’une technologie fondĂ©e sur des postulats douteux et dont l’efficacitĂ© n’a jamais Ă©tĂ© Ă©valuĂ©e. Une situation qui, en elle-mĂȘme, matĂ©rialiserait une disproportion caractĂ©risĂ©e des mesures restrictives de libertĂ© prises Ă  l’encontre des personnes concernĂ©es.

Des outils Ă  l’efficacitĂ© douteuse

Au regard de leur nature discriminatoire, mĂȘme dans la mesure oĂč ces systĂšmes de police prĂ©dictive s’avĂ©reraient efficaces du point de vue de la rationalitĂ© policiĂšre, ils poseraient d’importants problĂšmes en terme de justice sociale et de respect des droits humains. Or, en dĂ©pit de l’absence d’évaluation officielle, le fait est que les donnĂ©es disponibles semblent confirmer l’absence de valeur ajoutĂ©e des modĂšles prĂ©dictifs pour atteindre les objectifs que la police s’était fixĂ©s.

De fait, ces outils semblent loin d’avoir convaincu leurs utilisateurs et utilisatrices. PredVol ne ferait pas mieux que la simple dĂ©duction humaine. Quant Ă  PAVED, mĂȘme s’il pourrait avoir empĂȘchĂ© quelques vols de voiture, il s’avĂšre dĂ©cevant en termes de capacitĂ©s de prĂ©vision et ne se traduit pas par une hausse du nombre d’arrestations en flagrant dĂ©lit, qui pour la police reste l’étalon de l’efficacitĂ© sous le rĂšgne de la politique du chiffre1. MalgrĂ© ce qui Ă©tait envisagĂ© au dĂ©part, la gĂ©nĂ©ralisation de PAVED au sein de la gendarmerie nationale n’a jamais vu le jour. À l’issue d’une phase expĂ©rimentale, menĂ©e de 2017 Ă  2019, il a Ă©tĂ© dĂ©cidĂ© de mettre le logiciel de cĂŽtĂ©. Et si M-Pulse a trouvĂ© une nouvelle jeunesse au grĂ© du « rebranding citoyenniste Â» poussĂ© par la nouvelle majoritĂ© municipale marseillaise de centre gauche, ses usages sĂ©curitaires semblent relativement marginaux.

Pour quelles raisons ? L’opacitĂ© qui entoure ces expĂ©rimentations ne permet pas de le dire avec certitude, mais l’hypothĂšse la plus probable rĂ©side Ă  la fois dans l’absence de vraie valeur ajoutĂ©e par rapport aux savoirs et croyances existantes au sein des forces de police et dans la complexitĂ© organisationnelle et technique associĂ©e Ă  l’usage et Ă  la maintenance de ces systĂšmes.

De graves lacunes dans la gestion des données

Pour les opposants Ă  ces systĂšmes, les informations prĂ©sentĂ©es dans ce rapport pourraient sembler rassurantes. Mais en rĂ©alitĂ©, mĂȘme si l’effet de mode autour de la « police prĂ©dictive Â» semble passĂ©, les processus de R&D relatifs aux systĂšmes d’aide Ă  la dĂ©cision des forces de police continuent. Des sommes d’argent consĂ©quentes continuent d’ĂȘtre dĂ©pensĂ©es pour rĂ©pondre Ă  l’ambition affichĂ©e de « porter le ministĂšre de l’IntĂ©rieur Ă  la frontiĂšre technologique Â», ainsi que l’envisageait le livre blanc de la sĂ©curitĂ© intĂ©rieure de 20202. Dans ce contexte d’un primat accordĂ© aux approches techno-sĂ©curitaires, PAVED pourrait ainsi ĂȘtre rĂ©-activĂ© ou remplacĂ© par d’autres systĂšmes dans un futur proche. Quant Ă  Edicia, l’entreprise envisageait ces derniers mois d’incorporer Ă  son module prĂ©dictif de nouvelles sources de donnĂ©es issues des rĂ©seaux sociaux, comme l’envisageaient les concepteurs de M-Pulse au dĂ©but du projet. La police prĂ©dictive reste donc d’actualitĂ©.

InterrogĂ©e via une demande CADA en mars 2022 et Ă  nouveau en novembre 2023, la CNIL nous a indiquĂ© qu’elle n’avait jamais reçu ou produit de document relatif aux logiciels de police prĂ©dictive dans le cadre de ses prĂ©rogatives. Cela semble indiquer que l’autoritĂ© de protection des donnĂ©es personnelles ne s’est jamais intĂ©ressĂ©e Ă  ces logiciels dans le cadre de sa politique de contrĂŽle. En soit, cela interroge lorsqu’on sait que, pour certains, ils sont utilisĂ©s par des milliers d’agents de police municipale Ă  travers le pays.

Enfin, dans la mesure oĂč les pouvoirs de police administrative exercĂ©s dans les zones jugĂ©es « Ă  risque Â» par les systĂšmes prĂ©dictifs peuvent ĂȘtre considĂ©rĂ©s sur le plan juridique comme des « dĂ©cisions administratives individuelles Â», les exigences Ă©noncĂ©es par le Conseil constitutionnel dans sa jurisprudence sur les algorithmes devraient ĂȘtre respectĂ©es3. Or, celles-ci proscrivent notamment l’interdiction d’utiliser des « donnĂ©es sensibles Â» et imposent de prĂ©voir des possibilitĂ©s de recours administratifs pour les personnes concernĂ©es. S’y ajoutent des obligations de transparence imposĂ©es par la loi, notamment la loi de 2016 dite « RĂ©publique numĂ©rique Â»4.

Ces exigences lĂ©gislatives et jurisprudentielles ne semblent pas respectĂ©es s’agissant des systĂšmes de police prĂ©dictive. Non seulement il n’y a pas de tentative significative et proactive d’informer les citoyens et les autres parties prenantes sur le fonctionnement exact de ces systĂšmes, en dehors des quelques informations parfois dissĂ©minĂ©es de maniĂšre opportuniste. Plus grave encore, le droit Ă  la libertĂ© d’information que nous avons exercĂ© via nos demandes CADA pour en apprendre davantage n’a donnĂ© lieu qu’à des informations partielles, et s’est heurtĂ© le plus souvent Ă  l’absence de rĂ©ponse, notamment de la part du ministĂšre de l’IntĂ©rieur.

Il est urgent d’interdire la police prĂ©dictive

L’effet de mode semble passĂ©. La police prĂ©dictive ne fait presque plus parler d’elle. Et pourtant


MalgrĂ© une absence flagrante d’évaluation, d’encadrement lĂ©gislatif et en dĂ©pit de piĂštres rĂ©sultats opĂ©rationnels, les promoteurs de ces technologies continuent d’entretenir la croyance selon laquelle l’« intelligence artificielle Â» pourra permettre de rendre la police plus « efficace Â». De notre point de vue, ce que ces systĂšmes produisent c’est avant tout une automatisation de l’injustice sociale et de la violence policiĂšre, une dĂ©shumanisation encore plus poussĂ©e des relations entre police et population.

Dans ce contexte, il est urgent de mettre un coup d’arrĂȘt Ă  l’utilisation de ces technologies pour ensuite conduire une Ă©valuation rigoureuse de leur mise en Ɠuvre, de leurs effets et de leurs dangers. L’état de nos connaissances nous conduit Ă  penser qu’une telle transparence fera la preuve de leur ineptie et de leurs dangers, ainsi que de la nĂ©cessitĂ© de les interdire.

Nous aider

Pour pallier l’opacitĂ© volontairement entretenue par les concepteurs de ces systĂšmes et par les autoritĂ©s publiques qui les utilisent, si vous avez Ă  votre disposition des documents ou Ă©lĂ©ments permettant de mieux comprendre leur fonctionnement et leurs effets, nous vous invitons Ă  les dĂ©poser sur notre plateforme de partage anonyme de document. Il est Ă©galement possible de nous les envoyer par la poste Ă  l’adresse suivante : 115 rue de MĂ©nilmontant, 75020 Paris.

Enfin, n’hĂ©sitez pas Ă  nous signaler la moindre erreur factuelle ou d’analyse que vous pourriez identifier dans ce rapport en nous Ă©crivant Ă  contact@technopolice.fr. Et pour soutenir ce type de recherche Ă  l’avenir, n’hĂ©sitez pas non plus Ă  faire un don Ă  La Quadrature du Net.

Lire le rapport complet


  1. Lecorps, Yann, et Gaspard Tissandier. « PAVED with good intentions : an evaluation of the Gendarmerie predictive policing system Â». Centre d’Économie de la Sorbonne (CES), UniversitĂ© Paris 1 PanthĂ©on Sorbonne. Paris, septembre 2022. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4314831. ↩
  2. Le livre blanc proposait de consacrer 1% du PIB aux missions de sĂ©curitĂ© intĂ©rieure Ă  l’horizon 2030, soit une augmentation escomptĂ©e d’environ 30% du budget du ministĂšre sur la dĂ©cennie.MinistĂšre de l’intĂ©rieur, « Livre blanc de la sĂ©curitĂ© intĂ©rieure Â» (Paris : Gouvernement français, 16 novembre 2020), https://www.interieur.gouv.fr/Actualites/L-actu-du-Ministere/Livre-blanc-de-la-securite-interieure. ↩
  3. Voir la dĂ©cision sur la transposition du RGPD (dĂ©cision n° 2018-765 DC du 12 juin 2018) et celle sur Parcoursup (dĂ©cision n° 2020-834 QPC du 3 avril 2020). ↩
  4. Sur les obligations lĂ©gales de transparence des algorithmes publics, voir : Loup Cellard, « Les demandes citoyennes de transparence au sujet des algorithmes publics Â», Note de recherche (Paris : Mission Etalab, 1 juillet 2019), http://www.loupcellard.com/wp-content/uploads/2019/07/cellard_note_algo_public.pdf. ↩

Smart Police d’Edicia, le logiciel à tout faire des polices municipales

10 janvier 2024 Ă  08:55

Dans le cadre d’une enquĂȘte sur les technologies de police prĂ©dictive dont nous vous reparlerons trĂšs bientĂŽt, La Quadrature s’est intĂ©ressĂ©e de prĂšs Ă  Edicia. Cette startup est peu connue du grand public. Elle joue pourtant un rĂŽle central puisqu’elle Ă©quipe des centaines de polices municipales Ă  travers le pays. Son logiciel Smart Police, dont nous avons obtenu le manuel d’utilisation, permet de faire un peu tout et n’importe quoi. Loin de tout contrĂŽle de la CNIL, Smart Police encourage notamment le fichage illĂ©gal, une pratique policiĂšre en vogue


L’entreprise Edicia a Ă©tĂ© crĂ©Ă©e en 2013 et a son siĂšge Ă  Nantes. Cette annĂ©e-lĂ , Vincent Loubert, un ancien consultant de Cap Gemini, rachĂšte, avec le soutien du fonds d’investissement Newfund, une sociĂ©tĂ© de logiciels du nom d’Access, lancĂ©e Ă  l’origine par un policier Ă  la retraite qui cherchait Ă  dĂ©velopper une application simplifiant le travail des policiers. Sous l’égide d’Edicia, ce logiciel va prendre le nom de Smart Police.

En 2019, aprĂšs une expansion rapide en France (Edicia prĂ©tend alors Ă©quiper prĂšs de 600 villes Ă  travers le pays)1, la startup s’internationalise en dĂ©veloppant ses activitĂ©s aux États-Unis, vendant notamment son logiciel Ă  la police de Denver, dans le Colorado, oĂč elle ouvre mĂȘme une antenne avec une trentaine de salariĂ©s. En France, cette annĂ©e-lĂ , la startup emploie une quarantaine de personnes et rĂ©alise des bĂ©nĂ©fices pour la premiĂšre fois depuis son lancement. Loubert affirme alors avoir consacrĂ© prĂšs de 10 millions d’euros Ă  la R&D.

Depuis, il est possible que l’entreprise ait connu quelques difficultĂ©s financiĂšres. Le site d’Edicia comme ses comptes sur les rĂ©seaux sociaux sont globalement inactifs. Elle semble Ă©galement embaucher moins de salariĂ©s. Pour autant, son logiciel Smart Police continue d’ĂȘtre utilisĂ© au quotidien par des milliers de policier municipaux Ă  travers le pays.

Aperçu de Smart Police

À quoi sert Smart Police ? À un peu tout et n’importe quoi. Il permet aux agents de police d’utiliser leur tĂ©lĂ©phone ou tablette pour rĂ©diger leurs rapports directement depuis le terrain, d’ajouter Ă  une base de donnĂ©e des clichĂ©s photographiques, de rapporter des Ă©vĂšnements ou encore d’établir des procĂšs-verbaux (voir les captures d’écran du logiciel Ă  la fin de cet article, ou explorer le manuel d’utilisation au format HTML2). Smart Police est aussi utilisĂ© par les officiers pour suivre depuis leurs bureaux les Ă©quipes sur le terrain, cartographier les incidents, consulter leurs rapports et recevoir divers indicateurs statistiques en temps rĂ©el, de mĂȘme que les photographies prises en intervention (par exemple lors d’une manifestation).

Les villes de Marseille, Nice, Élancourt, Antony, Le PrĂ©-Saint-Gervais, Libourne, Chinon, CoignĂšres, Maurepas, ou encore la communautĂ© de communes Grand Paris Sud- Seine Essonne SĂ©nart comptent parmi les clientes d’Edicia (avec en tout 350 villes clientes d’aprĂšs les derniers chiffres fournis sur le site d’Edicia). Mais bien Ă©videmment, en dehors des affirmations pĂ©remptoires des patrons d’Edicia ou de quelques Ă©diles relayĂ©s dans la presse, aucune Ă©tude disponible ne permet de dĂ©montrer le prĂ©tendu surcroĂźt d’efficacitĂ© policiĂšre induit par Smart Police. Par ailleurs, une demande CADA nous a appris qu’une ville comme Cannes avait Ă©tĂ© cliente d’Edicia, avant de dĂ©commissionner le logiciel sans qu’on sache exactement pourquoi. Il est possible qu’à l’image de certains logiciels utilisĂ©s aux États-Unis puis abandonnĂ©s, le rapport coĂ»t-efficacitĂ© ait Ă©tĂ© jugĂ© trop faible.

Fichage en mode YOLO ?

L’une des composantes les plus importantes de Smart Police, dont le manuel d’utilisation nous a Ă©tĂ© communiquĂ© via une demande CADA et est dĂ©sormais disponible, rĂ©side dans son menu « ActivitĂ©s de terrain Â», que les agents utilisateurs manient quotidiennement. Il leur permet de crĂ©er de nouvelles « mains courantes Â», d’écrire et de rĂ©fĂ©rencer des rapports de police (procĂšs-verbaux) documentant diverses infractions que les agents de la police municipale sont autorisĂ©s Ă  constater. Lorsqu’ils crĂ©ent ces fiches, les agents doivent fournir des informations gĂ©nĂ©rales, la localisation gĂ©ographique de l’évĂ©nement, le type d’infraction, l’identitĂ© et les coordonnĂ©es du suspect ou des tĂ©moins (qui peuvent ĂȘtre enregistrĂ©es facilement en scannant une carte d’identitĂ©), etc. En tant que telles, ces fiches de signalement peuvent ĂȘtre dĂ©tournĂ©es pour des finalitĂ©s qui dĂ©passent les prĂ©rogatives de la police municipale – lesquelles sont limitĂ©es, notamment en matiĂšre de contrĂŽle d’identitĂ©3 â€“, et devraient ĂȘtre soumises Ă  un contrĂŽle Ă©troit.

Un autre module prĂ©sente un risque encore plus important de fichage illĂ©gal : il s’agit du module « Demande administrĂ© Â», qui comme son nom l’indique, permet d’enregistrer les signalements faits par des administrĂ©s Ă  la police municipale (bruit, dĂ©gradation, prĂ©sence d’un animal dangereux, etc.). LĂ  encore, l’interface rend possible l’ajout de donnĂ©es gĂ©olocalisĂ©es et de photographies.

Enfin, Smart Police comporte un module « Vigilance active Â», au sein duquel les agents peuvent rassembler des informations non officielles sur des Ă©vĂ©nements passĂ©s ou futurs. Par exemple, si un agent de police a rapportĂ© une rumeur entendue dans la rue ou repĂ©rĂ©e sur les rĂ©seaux sociaux (par exemple concernant un « rassemblement non autorisĂ© Â», ainsi que l’illustre le manuel), une fiche peut ĂȘtre crĂ©Ă©e pour la consigner. Celle-ci peut trĂšs bien comporter toutes sortes de donnĂ©es dont le traitement par la police est, dans un tel cadre, totalement illĂ©gal (identitĂ© des personnes suspectĂ©es d’organiser ce rassemblement, des photographies extraites des rĂ©seaux sociaux, etc.). Ces fiches de renseignement peuvent ensuite ĂȘtre transformĂ©es en « missions Â» assignĂ©es aux agents depuis l’interface Ă  disposition des managers, conduire Ă  la crĂ©ation de nouvelles fiches « mains courantes Â», mais aussi alimenter le module « Analyse prĂ©dictive Â» si la ville cliente d’Edicia y a souscrit (nous y reviendrons dans un prochain article).

On le comprend au regard de ces descriptions, Smart Police comporte un risque important de voir consignĂ©es des donnĂ©es identifiantes, et donc lĂ  encore de conduire Ă  des opĂ©rations de fichage illĂ©gal. Notamment, il ne semble pas respecter le cadre rĂ©glementaire s’agissant des traitements automatisĂ©s utilisĂ©s par les polices municipales pour gĂ©rer les mains courantes, puisque ce dernier exclut la prise de photographies4.

Loin de tout contrĂŽle

Par deux fois, nous avons interrogĂ© la CNIL via des demandes CADA pour savoir si elle s’était penchĂ©e sur l’utilisation de Smart Police en France. Par deux fois, la mĂȘme rĂ©ponse nous a Ă©tĂ© faite : en dehors de quelques formalitĂ©s prĂ©alables rĂ©alisĂ©es par une demi-douzaine de communes avant l’entrĂ©e en vigueur du RGPD, nada (voir ici pour la derniĂšre rĂ©ponse en date). Nous avons bien mis la main sur l’attestation de conformitĂ© RGPD, dĂ©livrĂ©e Ă  Edicia par le cabinet Olivier Iteanu et obtenue via une demande CADA Ă  la ville de Libourne, ainsi qu’un document relatif Ă  la politique de gestion des donnĂ©es d’Edicia, mais celles-ci n’offrent aucun Ă©lĂ©ment rĂ©ellement rassurant s’agissant du risque de voir Smart Police servir Ă  des opĂ©rations de fichage illĂ©gal. Enfin, aucune des dizaines de demandes CADA envoyĂ©es aux mairies s’agissant d’Edicia n’a mis en Ă©vidence de contrĂŽle rĂ©alisĂ© par les personnes dĂ©lĂ©guĂ©es Ă  la protection des donnĂ©es au sein des villes.

Nos inquiĂ©tudes Ă  ce sujet sont Ă©videmment renforcĂ©es par des rĂ©vĂ©lations rĂ©centes. La presse locale s’est rĂ©cemment faite l’écho de pratiques de policiers municipaux dans une commune de la rĂ©gion PACA consistant Ă  Ă©changer, sur des boucles WhatsApp privĂ©es et Ă  partir de leurs smartphones personnels, des donnĂ©es sensibles relatives Ă  des personnes : images extraites de la vidĂ©osurveillance, photos des personnes contrĂŽlĂ©es, plaques d’immatriculation, piĂšces d’identitĂ©, etc5. Des pratiques totalement illĂ©gales mais dont on peut supposer qu’elles sont monnaie courante, non seulement au sein des polices municipales mais aussi au sein de la police nationale.

Quant au dernier rapport de l’Inspection gĂ©nĂ©rale de la police nationale (IGPN)6, il note une hausse sensible des faits de dĂ©tournements de fichiers (56 enquĂȘtes, contre 38 en 2021 et 27 en 2020), une Ă©volution qu’elle qualifie de « prĂ©occupante Â» :

Ces faits sont de gravitĂ© trĂšs inĂ©gale selon qu’ils procĂšdent de la curiositĂ© « malsaine Â» (passage aux fichiers d’une ex-compagne ou d’un nouveau compagnon, de membres de sa famille, d’une personne connue, d’un chef de service, sans argent versĂ© ou contrepartie) ou du commerce des informations rĂ©coltĂ©es. Ces cas sont les plus sensibles, lorsque les informations confidentielles issues des fichiers de police sont remises Ă  des tiers, avec ou sans but lucratif. Si la preuve de la consultation illĂ©gale est assez simple Ă  rapporter par les enquĂȘteurs, il en va diffĂ©remment pour la preuve Ă©ventuelle d’une rĂ©tribution Ă  titre de contrepartie.

Pour l’institution, « cette situation tient Ă  la fois Ă  la multiplication du nombre de fichiers de police et une meilleure accessibilitĂ© Â», notamment du fait d’un dĂ©ploiement croissant des tablettes et smartphones Neo, lesquelles permettent un accĂšs plus aisĂ© aux fichiers de police pour les agents de la police nationale et de la gendarmerie nationale. L’IGPN estime que l’intelligence artificielle pourrait permettre de dĂ©tecter plus aisĂ©ment ces consultations illĂ©gales.

Et maintenant ?

Pour notre part, plutĂŽt qu’un solutionnisme technologique abscons, la rĂ©ponse tiendrait plutĂŽt Ă  une dĂ©sescalade techno-sĂ©curitaire, Ă  savoir le fait de battre en brĂšche l’augmentation exponentielle du fichage de la population, le recul constant des garanties concrĂštes apportĂ©es aux droits fondamentaux (recul auquel le RGPD et les textes associĂ©s ont participĂ© par de nombreux aspects). Au minimum, les contre-pouvoirs institutionnels, comme la CNIL, devraient faire leur travail, Ă  savoir lutter contre les illĂ©galismes policiers, plutĂŽt que d’instaurer une impunitĂ© de fait par leur coupable laisser-faire.

De ce point de vue, un premier pas dans la bonne direction consisterait Ă  procĂ©der Ă  un contrĂŽle rĂ©solu des polices municipales clientes d’Edicia, en n’hĂ©sitant pas Ă  prononcer de vraies sanctions contre les responsables hiĂ©rarchiques dĂšs lors que des infractions seront constatĂ©es.

Page d’accueil personnalisĂ©e du logiciel Smart Police (version 2020).
Page d’accueil personnalisĂ©e du module « Supervision Â» montrant la distribution gĂ©ographique des Ă©quipes (voiture en patrouille, agents piĂ©tons, deux-roues).
Enregistrement d’un nouvel « Ă©vĂ©nement Â» dans le module « Vigilance active Â».
Liste des indicateurs disponibles dans le module « observatoire Â» et, Ă  droite, une liste des infractions pour lesquelles des indicateurs peuvent ĂȘtre affichĂ©s.
Vue d’une fonctionnalitĂ© disponible dans le menu « ActivitĂ©s de terrain Â» : la liste des derniers rapports de mains courantes (avec leur origine, l’horodatage, etc.).

Une vue d’une autre fonctionnalitĂ© disponible dans le champ « ActivitĂ©s de terrain Â» : la liste de tous les rapports inclus dans Smart Police (y compris les mains courantes, les procĂšs-verbaux, les « demandes administrĂ©s Â», etc.).
Images extraites du menu « Suivi en images Â» qui prĂ©sente sous forme de vignettes « les derniĂšres photos prises par les agents Â» via le menu « Mains courantes Â». Dans l'exemple prĂ©sentĂ©, la vue « dĂ©tail du suivi Â» rĂ©vĂšle qu'il s'agit d'une photo prise lors d'une manifestation de Gilets jaunes.

Images extraites du menu « Suivi en images Â» qui prĂ©sente sous forme de vignettes « les derniĂšres photos prises par les agents Â» via le menu « Mains courantes Â». Dans l’exemple prĂ©sentĂ©, la visualisation « dĂ©tail du suivi Â» rĂ©vĂšle qu’il s’agit d’une photo prise lors d’une manifestation de Gilets jaunes.

Pour soutenir notre travail, vous pouvez faire un don Ă  La Quadrature du Net.


  1. À noter : sur son site web, Edicia se targue Ă©galement de compter parmi ses clients quelques services du ministĂšre de l’IntĂ©rieur, mais nos demandes CADA envoyĂ©es au ministĂšre sur ces collaborations sont restĂ©es infructueuses, le ministĂšre prĂ©tendant qu’il n’existe aucun lien avec Edicia. ↩
  2. Le manuel d’utilisation de Smart Police est disponible Ă  l’adresse suivante : https://technopolice.fr/police-predictive/manuel-edicia/Edicia.html. ↩
  3. Lorsqu’ils crĂ©ent des procĂšs-verbaux dans Edicia, les agents sont invitĂ©s Ă  choisir parmi une liste d’infractions prĂ©sĂ©lectionnĂ©es et tirĂ©es d’une base de donnĂ©es nationale catĂ©gorisant tous les types d’infractions (la base de donnĂ©es NATINF). Rappelons que les types d’infractions que les agents de police municipale peuvent constater sont trĂšs limitĂ©s. Ils peuvent par exemple sanctionner les propriĂ©taires de chiens dangereux qui ne respectent pas la loi, inspecter visuellement et fouiller (avec l’autorisation du propriĂ©taire) les sacs et bagages lors de manifestations publiques ou Ă  l’entrĂ©e d’un bĂątiment municipal, dĂ©livrer des amendes en cas d’incivilitĂ©s telles que le dĂ©pĂŽt d’ordures dans la nature, le tapage nocturne, le fait de laisser des animaux dangereux en libertĂ©, et constater la plupart des infractions au code de la route commises sur le territoire communal dĂšs lors qu’elles ne nĂ©cessitent pas d’enquĂȘte. Cependant, les agents de la police municipale disposent de pouvoirs beaucoup plus Ă©tendus que ne le laisse supposer le code pĂ©nal : arrestation en flagrant dĂ©lit d’une personne ayant commis un crime ou un dĂ©lit passible de prison pour l’amener au poste de police nationale ou de gendarmerie le plus proche, Ă©tablissement de rapports et procĂšs-verbaux concernant tout crime, dĂ©lit ou contravention dont les agents municipaux seraient tĂ©moins, documents qui peuvent soit ĂȘtre directement transmis Ă  la police nationale ou Ă  la gendarmerie, soit au maire. Celui-ci, ayant qualitĂ© d’officier de police judiciaire, transmet alors l’information au procureur de la rĂ©publique. Bien que la loi ne les autorise pas Ă  procĂ©der Ă  des contrĂŽles d’identitĂ©, les agents de police municipaux peuvent collecter l’identitĂ© d’une personne, tant qu’ils ne demandent pas de produire une piĂšce attestant de celle-ci, et sont autorisĂ©s Ă  demander une preuve d’identitĂ© dans le cas des quelques dĂ©lits qui rentrent dans leurs prĂ©rogatives. Le logiciel d’Edicia semble donc offrir des fonctionnalitĂ©s qui vont bien au-delĂ  du cadre juridique. Voir « MĂ©mento policiers municipaux et gardes champĂȘtres Â». MinistĂšre de l’IntĂ©rieur, 10 novembre 2021. https://www.interieur.gouv.fr/content/download/129786/1033871/file/memento-polices-muni-gardes-champetres.pdf. ↩
  4. ArrĂȘtĂ© du 14 avril 2009 autorisant la mise en Ɠuvre de traitements automatisĂ©s dans les communes ayant pour objet la recherche et la constatation des infractions pĂ©nales par leurs fonctionnaires et agents habilitĂ©s, consultĂ© le 9 dĂ©cembre 2023, https://www.legifrance.gouv.fr/loda/id/JORFTEXT000020692173. ↩
  5. Éric Galliano, « Saint-Laurent-du-Var : Les policiers municipaux ont constituĂ© leurs propres fichiers de dĂ©linquants Â», Nice Matin, 20 novembre 2023, https://www.nicematin.com/justice/a-saint-laurent-du-var-les-policiers-municipaux-ont-constitue-leurs-propres-fichiers-de-delinquants-886441. ↩
  6. Voir le rapport d’activitĂ© de l’Inspection gĂ©nĂ©rale de la Police nationale pour l’annĂ©e 2022, disponible Ă  l’adresse : https://www.interieur.gouv.fr/Publications/Rapports-de-l-IGPN/Rapport-annuel-d-activite-de-l-IGPN-2022 ↩ ↩
❌
❌