Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 9 novembre 2024La Quadrature du Net

QSPTAG #314 — 8 novembre 2024

Par : robinson
8 novembre 2024 à 12:05

Campagne anti-GAFAM : LinkedIn enfin condamné à une grosse amende

Nous avions lancé notre campagne anti-GAFAM au moment de l’entrée en vigueur du RGPD, en mai 2018… Sur la base du tout nouveau règlement européen sur la protection des données personnelles, nous avions décidé d’attaquer les pratiques illégales des cinq plus grandes sociétés du numérique mondial : Google, Apple, Facebook, Amazon et Microsoft. C’était la première action collective en Europe — une nouveauté permise par le RGPD — contre les entreprises privées qui exploitent délibérément et en toute illégalité les données personnelles des internautes sans leur consentement. Pour cette action collective, nous avions reçu le soutien de 12 000 personnes qui avaient décidé de nous donner leur mandat pour porter la plainte devant la CNIL. C’était chose faite le 18 mai 2018. Il y a six ans.

Le RGPD donne à la CNIL le pouvoir d’instruire les plaintes concernant les entreprises dont le siège européen est en France, ou n’ayant pas de siège social dans un autre pays de l’Union européenne. C’était le cas de Google à l’époque. La CNIL a donc traité d’abord la plainte contre Google, sans donner signe de son travail avant mai 2021, où elle a soudain rendu une décision bancale et insatisfaisante, assortie d’une amende minime de 50 millions de dollars, avant de transmettre le dossier à son homologue irlandais, la DPC, Google ayant entre temps créé un siège européen en Irlande (plus de détails dans cet article, dans le paragraphe « Google perdu au rebond »).

Les autres plaintes avaient été transmises dès 2018 aux autorités compétentes pour la protection des données dans les pays concernés : Facebook, Apple et Microsoft en Irlande, et Amazon au Luxembourg. C’est de là qu’est venue, contre toute attente, la deuxième condamnation, en juillet 2021 : les pratiques illégales d’Amazon étaient bien reconnues, et l’entreprise condamnée à une amende record de 746 millions d’euros.

Malgré la solidité juridique de nos plaintes, confirmée par deux fois, nous n’avions alors toujours aucune nouvelle des quatre dossiers traités par la DPC irlandaise : Apple, Microsoft, Facebook (Meta) et Google. Jusqu’à ce mois d’octobre 2024, plus de 6 ans après le dépôt des plaintes. La DPC a enfin rendu sa décision concernant LinkedIn (qui appartient à Microsoft), et condamne l’entreprise à une amende de 310 millions d’euros, en plus d’un obligation de mise en conformité avec la loi.

C’est bien, mais c’est peu. Pourquoi faut-il six ans pour appliquer une loi européenne ? Et plus encore pour trois autres dossiers ? On sait que l’Irlande ouvre grand les bras aux multinationales, en leur offrant un statut fiscal privilégié. On sait que la DPC est surchargée de dossiers et en sous-effectif. On se doute que la balance entre l’application des lois et le bénéfice économique est un arbitrage très politique. Et on sait que les entreprises fortunées continuent d’exploiter les données personnelles au mépris de leurs obligations légales. Bref, un constat de victoire teinté d’amertume, à lire sur notre site.

Lire l’article : https://www.laquadrature.net/2024/10/25/linkedin-condamnee-a-310-millions-deuros-suite-a-notre-plainte-collective/
La campagne anti-GAFAM : https://gafam/laquadrature.net/

« Pas de VSA dans ma ville », deuxième round

Alors que la période « d’expérimentation » de la VSA autorisée par la loi JO n’est même pas terminée, et sans même attendre les conclusions de l’expérience, le législateur et le gouvernement envisagent déjà sa légalisation complète et son déploiement généralisé. Nous savons que le combat au niveau législatif sera difficile, même si nous le mènerons. Et nous savons aussi que le point d’entrée de la VSA dans nos rues, c’est le niveau municipal. C’est aux communes que les industriels vendent leurs caméras et leurs logiciels, avec l’appui financier et idéologique de l’État. Et c’est au niveau municipal que de piètres politiciens dépensent l’argent public dans une surenchère sécuritaire dispendieuse et illégale. C’est pourquoi nous invitons chacun et chacune à écrire à ses élus locaux pour demander l’abandon de cette technologie de surveillance.

« Pas de VSA dans ma ville », c’est le nom de cette campagne collective qui invite tout le monde à prendre le débat en mains et à interpeller les décideurs locaux. Nous avons besoin de vous pour faire reculer la surveillance ! Courriers, procédures, arguments, vous trouverez tout sur notre site de campagne.

Lire l’article : https://www.laquadrature.net/2024/10/31/assaut-contre-la-videosurveillance-algorithmique-dans-nos-villes/
Le site de la campagne anti-VSA : https://www.laquadrature.net/vsa/

Agenda

  • Du vendredi 8 au dimanche 10 novembre 2024 : Festival « Le nuage était sous nos pieds » à Marseille, tout le programme ici : https://lenuageetaitsousnospieds.org.
  • Jeudi 14 novembre 2024 : conférence « Technopolice : 5 ans de lutte contre les technologies de surveillance en France » lors de l’évènement Ethics by Design à Nantes, plus d’infos ici : https://ethicsbydesign.fr/.
  • Jeudi 14 novembre 2024 : Causerie mensuelle Technopolice Marseille, 19h, Manifesten (59 rue Adolphe Thiers, Marseille).
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

Amende de LinkedIn

Vidéosurveillance algorithmique

Algorithmes de scoring

Divers

Briefcam au Ministère de l’Intérieur : le rapport d’inspection tente de noyer le poisson

8 novembre 2024 à 07:10

L’an dernier, le média d’investigation Disclose révélait que depuis des années, en se sachant dans l’illégalité la plus totale, la police nationale avait recouru au logiciel de l’entreprise israélienne Briefcam, qui permet d’automatiser l’analyse des images de vidéosurveillance. Cette solution comporte une option « reconnaissance faciale » qui, d’après Disclose, serait « activement utilisée ». Après avoir tenté d’étouffer l’affaire, le ministère de l’Intérieur a enfin publié le rapport d’inspection commandé à l’époque par Gérald Darmanin pour tenter d’éteindre la polémique. Ce rapport, rédigé par des membres de l’Inspection générale de l’administration, de l’Inspection générale de la police nationale et de l’Inspection de la Gendarmerie nationale, permet d’étayer les révélations de Disclose. Fondé sur la seule bonne foi des forces de l’ordre, il s’apparente toutefois à une tentative choquante de couvrir des faits passibles de sanctions pénales.

Tout au long du rapport, les auteur·rices utilisent diverses techniques de minimisation et d’euphémisation – quand il ne s’agit pas tout bonnement de mauvaise foi – pour justifier l’utilisation illégale du logiciel Briefcam depuis 2015 par la police et 2017 par la gendarmerie. Pour rappel, ce logiciel permet d’analyser et filtrer les attributs physiques des personnes filmées afin de les retrouver sur les enregistrements vidéo. En plus de la reconnaissance faciale, il propose la reconnaissance de vêtements, de genre, de taille, d’apparence ou encore la « similitude de visage » que les services tentent grossièrement de distinguer de la reconnaissance faciale alors qu’au fond, il s’agit peu ou prou de la même chose, à savoir identifier des personnes. Plutôt que de reconnaître l’usage hors-la-loi de l’ensemble de ces cas d’usages depuis quasiment dix ans, les services d’inspection multiplient les pirouettes juridiques pour mieux légitimer ces pratiques.

Ainsi, les auteur·rices du rapport reprennent une analyse bancale déjà esquissée par Gérald Darmanin l’an dernier pour couvrir un usage intrinsèquement illégal de VSA dans le cadre d’enquêtes pénales, lorsque ces dispositifs sont utilisés par les enquêteurs pour analyser automatiquement des flux de vidéosurveillance archivés. Reprenant l’interprétation secrètement proposée en interne par les services du ministère de l’Intérieur pour couvrir ces activités au plan juridique, les auteur·rices estiment que ces utilisations a posteriori (par opposition au temps réel) de logiciels de VSA constitueraient des logiciels de « rapprochement judiciaire » au sens de l’article 230-20 du code de procédure pénale. Pourtant, cet article du code de procédure pénale n’autorise que le « rapprochement de modes opératoires » (par exemple des logiciels d’analyse de documents pour faire ressortir des numéros de téléphones liés entre eux). Cela n’a rien à voir avec la VSA a posteriori, laquelle consiste à rechercher des personnes sur une image en fonction de leurs attributs physiques via des techniques d’intelligence artificielle. Pour être licites, ces dispositifs devraient au minimum faire l’objet d’une base légale spécifique. C’est la base en matière de droits fondamentaux. Et cette base n’a clairement pas été respectée.

L’argumentation des rapporteurs paraît d’autant plus choquante que le logiciel VSA de Briefcam analyse des données personnelles biométriques et est donc soumis à des restrictions fortes du RGPD et de la directive police-justice. L’absence de cadre légal actuel pour des usages de VSA dans le cadre d’enquêtes judiciaires est d’ailleurs confortée par différents projets de légalisation de cette technologie qui ont pu être proposés : tel est le cas de la récente proposition de loi relative à la sûreté dans les transports, ou plus anciennement un projet de décret de 2017 « autorisant des traitements de données personnelles permettant l’analyse des enregistrements vidéo dans le cadre d’enquêtes judiciaires », mentionné dans le rapport. De même, l’autorisation par un décret de 2012 du recours à la comparaison faciale dans le fichier TAJ (« Traitement des antécédants judiciaires ») illustre la nécessité parfois bien comprise au ministère de l’Intérieur de prévoir un encadrement juridique spécifique pour différentes technologies de surveillance mobilisée dans le cadre d’enquête pénale1.

Non content·es de couvrir des abus pourtant passibles de sanctions pénales, les auteur·ices du rapport envisagent aussi l’avenir. Iels proposent ainsi de relâcher encore davantage la bride de la police pour lui permettre de tester de nouvelles technologies de surveillance policière. Assouplir toujours plus les modalités de contrôle, déjà parfaitement défaillantes, dans la logique des « bacs à sable réglementaires », à savoir des dispositifs expérimentaux dérogeant aux règles en matière de protection des droits fondamentaux, le tout au nom de ce qu’iels désignent comme l’innovation « permanente ». Les auteur·rices s’inscrivent en cela dans la filiation du règlement IA qui encourage ces mêmes bacs à sable réglementaires, et du rapport Aghion-Bouverot (commission de l’intelligence artificielle) rendu au printemps dernier2. Il faut bien mesurer que ces propositions inacceptables, si elles venaient à être effectivement mises en œuvre, sonneraient le glas des promesses de la loi informatique et libertés en matière de protection des droits fondamentaux et des libertés publiques (à ce sujet, on est toujours en attente de l’issue de l’autosaisine de la CNIL dans ce qu’il faut bien appeler « l’affaire Briefcam », un an après son déclenchement…).

En bref, ce rapport s’inscrit dans une logique de couverture de faits passibles de peines de prison et qui constituent aussi un détournement de fonds publics. Surtout, il contribue à banaliser la vidéosurveillance algorithmique, suivant en cela la politique du gouvernement Barnier. Car après avoir annoncé le mois dernier la pérennisation de « l’expérimentation » de la VSA suite aux Jeux Olympiques, le gouvernement entend également, via le projet de loi de finances 2025, d’installer des radars routiers dopés à la VSA pour détecter trois nouvelles infractions concernant « l’inter-distance (entre les véhicules), le non-respect du port de la ceinture et le téléphone tenu en main (au volant) ». Sans oublier la proposition de loi sur la sécurité dans les transports qui fait son retour à l’Assemblée d’ici la fin du mois de novembre. Tout est bon pour légitimer cette technologie dangereuse et l’imposer à la population.

Pour nous aider à tenir ces manœuvres en échec, RDV sur notre page de campagne !


  1. La police et la gendarmerie utilisent de façon très fréquente la reconnaissance faciale en application de ce cadre lié au fichier TAJ : en 2021, c’était 498 871 fois par la police nationale et environ 117 000 fois par la gendarmerie nationale, d’après un rapport parlementaire. ↩
  2. Le rapport Aghion-Bouverot appelait à l’assouplissement de certaines procédures d’autorisation pour utiliser des données personnelles, notamment dans la santé ou par la police. On y lit notamment :
    « Le RGPD a renversé complètement la logique du droit qui prévalait en France depuis la loi « informatique et liberté » de 1978 Alors que la possibilité de traiter des données à caractère personnel reposait sur des procédures d’autorisation ou de déclaration préalables auprès de l’administration, le RGPD a posé les principes de liberté et de responsabilité : les acteurs sont libres de créer et de mettre en œuvre des traitements de données à caractère personnel, sous réserve de veiller eux-mêmes à la conformité de ces traitements aux principes et règles prévus par le règlement européen Ils doivent en particulier analyser les risques spécifiques que peuvent créer les traitements les plus sensibles et prendre les mesures appropriées pour y remédier En contrepartie de cette liberté, instituée dans le but précis de favoriser l’innovation, les exigences de protection des données personnelles ont été renforcées, de même que les pouvoirs de contrôle et de sanction a posteriori des autorités en charge de la protection des données En France, il s’agit de la Commission nationale de l’informatique et des libertés (Cnil).
    En France, cette évolution n’a pas été conduite jusqu’à son terme Il demeure des procédures d’autorisation préalables non prévues par le droit européen. C’est en particulier le cas pour l’accès aux données de santé pour la recherche Une procédure simplifiée de déclaration de conformité à des méthodologies de référence existe mais elle est loin d’être généralisée En pratique, la procédure simplifiée reste l’exception par rapport à la procédure d’autorisation préalable car le moindre écart par rapport à ces méthodologies implique d’en passer par une autorisation préalable qui peut impliquer jusqu’à trois niveaux d’autorisation préalable On trouve des lourdeurs analogues dans les domaines de l’ordre public, de la sécurité et de la justice ». ↩
À partir d’avant-hierLa Quadrature du Net

Assaut contre la vidéosurveillance algorithmique dans nos villes

Par : noemie
31 octobre 2024 à 07:58

La question de pérenniser ou non l’expérimentation de la vidéosurveillance algorithmique (VSA) fait actuellement beaucoup de bruit dans le débat public. Si l’on entend principalement les ministres et préfets au niveau national, c’est aussi – et surtout – à l’échelle locale que ces enjeux se cristallisent. Profitant de l’engouement des Jeux Olympiques et du cadre législatif créé à l’occasion de cet évènement, de nombreuses communes tentent de légitimer et normaliser leurs usages de cette technologie, qui reste pourtant totalement illégaux. Ces manœuvres, qui doivent être révélées et dénoncées, constituent aussi pour les habitant⋅es un levier d’action majeur pour faire entendre leurs voix et exiger l’interdiction de la VSA dans nos villes.

Lorsque nous avons lancé notre campagne contre la VSA au printemps dernier, nous l’affirmions haut et fort : ce qui se joue avec la loi sur les Jeux Olympiques est une grande hypocrisie. La vidéosurveillance algorithmique s’est déployée depuis quasiment une dizaine d’années en toute illégalité dans les villes et les collectivités locales, qui ont acheté des logiciels de VSA à des entreprises de surveillance en quête de profit. Marseille, Reims, Vannes ou encore Moirans… nous avons documenté au fil des mois comment les villes se dotaient de ces outils de surveillance en toute illégalité. La loi JO vient donc légitimer une pratique existante en masquant l’étendue de cette réalité. En effet, le périmètre prévu par la loi ne prévoit la détection que de huit types d’analyses d’images. Or, les entreprises de VSA n’ont jamais caché qu’elles savaient déjà faire bien plus : reconnaissance d’émotions, reconnaissance faciale ou encore suivi et identification des personnes au travers d’attributs physiques… Le rôle de la loi JO apparaît alors comme évident : il s’agissait surtout de créer une première étape pour sortir cette technologie de l’illégalité et amorcer un projet plus large de surveillance de l’espace public.

Débusquer les mensonges

Ce processus de normalisation et d’instrumentalisation est déjà à l’œuvre. Ainsi, les villes n’ont pas attendu bien longtemps pour s’appuyer sur la récente loi JO – qui normalise la VSA dans un cadre précis – afin de légitimer les logiciels dont elles se seraient doté de façon illégale, dans leur coin. Par exemple, la ville de Saint-Denis a très récemment acheté un logiciel de vidéosurveillance algorithmique auprès de l’entreprise Two-I. Cette acquisition s’est faite en dehors du périmètre de la loi JO qui impose à la fois une autorisation préfectorale et l’utilisation d’un logiciel spécifique acquis par marché public (en l’occurrence celui de Wintics). Cependant, pour donner un vernis de légalité à cette initiative unilatérale, le maire socialiste de la commune, Mathieu Hanotin, a essayé de la rattacher autant que faire se peut aux Jeux Olympiques. Il prétendait ainsi que ce logiciel pourrait servir pour les Jeux Paralympiques (nous étions alors au mois d’août 2024) et que les algorithmes de détection seraient identiques aux usages prévus par la loi JO. Il s’agissait surtout d’un écran de fumée pour masquer l’illégalité de cette démarche, d’autant que celle-ci s’est faite en toute opacité, le conseil municipal de Saint-Denis n’ayant même pas été informé, si l’on en croit les informations du journal Le Parisien et du media StreetPress.

Autre exemple dans l’Oise, où la ville de Méru possède désormais un logiciel de détection des personnes déposant des « ordures sauvages » développé par la société Vizzia. Ce type d’usages a connu un essor important ces dernières années en raison de l’existence d’entreprises de VSA toujours plus nombreuses voulant surfer sur une image green, après avoir misé sur le fantasme de la smart city pendant des années, tout en jouant avec les différentes évolutions législatives. En effet, d’une part, il existe un cadre juridique pour l’installation de caméras dans les villes : le code de la sécurité intérieure prévoit une liste de finalités précises pour lesquelles une commune peut implanter des caméras dans les rues. Or, depuis des lois de 2019 et 2020 relatives à l’écologie, cette liste contient la « la prévention et la constatation des infractions relatives à l’abandon d’ordures, de déchets, de matériaux ou d’autres objets ».

D’autre part, la police est autorisée à avoir recours à de la « vidéoverbalisation » pour certaines infractions routières. C’est-à-dire qu’elle peut émettre des procès-verbaux de verbalisation uniquement sur la base d’enregistrements vidéo : concrètement, la police relève la plaque d’immatriculation sur l’image de vidéosurveillance et envoie une amende à la personne propriétaire du véhicule. Celle-ci reçoit alors le PV à domicile, sans aucun contact avec un·e agent·e. Or, cette possibilité est limitée à une liste précise de contraventions au code de la route, telle que le franchissement d’une ligne blanche ou un stationnement interdit. En dehors de cette liste, il n’est pas possible de vidéoverbaliser les personnes sur la seule base d’une image captée par une caméra de surveillance. D’ailleurs, ce marché de la vidéoverbalisation des délits routiers est un marché important pour les entreprises de VSA, qui proposent l’automatisation de la lecture des plaques (dites « LAPI »). Et le dépôt d’ordures, s’il peut légalement justifier la pose de caméras, ne figure pas dans la liste des infractions pouvant être vidéoverbalisées.

Pour antant, cela n’empêche aucunement des entreprises de faire croire l’inverse aux municipalités pour leur vendre leur solution. Tel est le cas de la start-up Vizzia, petite dernière dans le monde de la VSA, qui affirme sans vergogne sur son site internet qu’il « est possible de vidéo-constater les dépôts sauvages ». Vizzia explique ainsi à ses potentielles villes clientes qu’il suffirait de relever la plaque du véhicule associé à un dépot d’ordure identifié par son logiciel puis de consulter le fichier SIV (Système d’Immatriculation des Véhicules, qui recense tous les véhicules et les coordonnées de leurs propriétaires) pour identifier les auteur·rices d’un dépot sauvage d’ordures. Pour se justifier, l’entreprise va même jusqu’à citer une réponse du ministère de l’Intérieur à une sénatrice … qui dit exactement le contraire de ce qu’affirme l’entreprise ! En réalité, le ministre de l’Intérieur rappelle expressément qu’« il n’est pas possible de verbaliser le titulaire du certificat d’immatriculation du véhicule ayant servi au dépôt d’ordures ». Il conclut très clairement que les images de vidéosurveillance peuvent uniquement servir dans le cadre d’une procédure judiciaire et que le relevé de plaque est insuffisant pour constater le délit.

Ainsi, non seulement la ville de Méru – parmi tant d’autres1Pour savoir si Vizzia est présente dans votre commune, ses clients sont affichées sur cette page https://www.vizzia.eu/nos-references – s’est doté d’un logiciel illégal mais en plus, si l’on en croit cet article de France 3 régions, elle tente de s’appuyer sur le cadre de la loi sur les Jeux Olympiques pour faire passer la pilule. Ainsi, les responsables expliquent que le dépôt d’ordure serait identique à la détection « d’objet abandonné » autorisée par la loi JO. Cela est évidemment faux et un tel usage reste totalement contraire à la réglementation de protection des données personnelles.

Surtout, le chef de la police municipale de Méru se vante du fait que l’outil de VSA de Vizzia verbalise et remplisse tout seul les procès-verbaux à partir des plaques d’immatriculation. Son constat est clair : « L’intelligence artificielle me permet de ne pas avoir d’agent derrière une caméra tout le temps. Elle m’envoie des alertes quand elle détecte une infraction. C’est l’outil qui fait le travail et moi, je n’ai plus qu’à traiter directement les infractions. Mes agents sont dédiés à d’autres missions pendant ce temps-là. On ne cherche pas l’infraction, ça tombe dans le panier tout seul. Elle traite les infractions même quand on est fermés ». Une telle posture va à rebours du discours habituel des institutions et industriels qui tentent généralement de minimiser le rôle de l’IA et préfèrent affirmer mordicus que toute décision serait in fine prise par un humain. Ici, la volonté est clairement affichée de vouloir se diriger vers une automatisation de la répression, nécessairement induite par ces technologies – un projet que que nous dénonçons depuis longtemps.

Enfin, la ville de Cannes illustre un autre exemple de stratégie d’acceptation. Elle est à ce jour la seule commune en dehors de l’Île-de-France a avoir demandé une autorisation préfectorale pour utiliser la VSA dans le cadre de la loi JO, à l’occasion du festival de cinéma en mai dernier. Elle a par ailleurs annoncé qu’elle souhaitait l’utiliser à nouveau à cinq reprises d’ici la fin de la durée légale de l’expérimentation en mars 2025, prétendant avoir été convaincue de son utilité. Pourtant, on retrouve dès 2016 des traces d’utilisation illégale de logiciels de VSA par la ville de Cannes. Cette communication de la commune démontre surtout que la ville se sert de la loi JO pour faire passer comme légal et donc acceptable ce qu’elle pratique en violation de la loi depuis des années.

Pas de VSA dans nos villes

En parallèle des gros sabots ministériels et des manœuvres des entreprises, les collectivités locales constituent ainsi des entités motrices du déploiement de la surveillance dans nos rues. C’est donc à cette échelle là que nous pouvons repousser ce projet sécuritaire. C’est également dans ces espaces que nous serons le plus audibles. En effet, la majorité des victoires passées l’ont été au niveau des communes et des quartiers. Ainsi, des habitant·es de la ville de Saint-Étienne ont réussi en 2019 à faire annuler un projet de micros « détecteurs de bruits suspects ». À Marseille et à Nice, des parents d’élèves, aux cotés de La Quadrature, ont empêché l’installation de portiques de reconnaissance faciale devant des lycées. Tandis qu’à Montpellier, la ville a adopté une délibération s’interdisant d’utiliser de la surveillance biométrique dans la ville.

Le refus des habitant·es des villes à cette technologie de surveillance est donc essentiel pour faire pression sur les mairies. Il permet aussi de peser dans la bataille de l’« acceptabilité sociale » de la VSA et dans le débat public en général. D’autant que l’évaluation prévue par la loi JO exige que soit prise en compte la « perception du public » de l’impact de la VSA sur nos libertés. En agissant dans nos villes, nous pouvons donc combattre la VSA et nous faire entendre à deux titres : auprès des maires, mais aussi du gouvernement qui souhaite pérenniser l’expérimentation.

Pour vous aider dans cette lutte, nous avons mis à disposition de nombreuses ressources. Afin de s’informer et d’informer les autres, nous avons compilé les informations relatives au contexte, au fonctionnement et aux dangers de la vidéosurveillance algorithmique dans une brochure. Elle est à lire, imprimer et diffuser au plus grand nombre ! Pour organiser l’opposition locale, renseignez-vous sur l’existence de potentiels logiciels dans votre commune en faisant des demandes de documents administratifs ou en contactant les élu·es de votre conseil municipal. Enfin, rejoignez le mouvement « Pas de VSA dans ma ville » en demandant à votre maire de s’engager à ne jamais installer de vidéosurveillance algorithmique dans sa ville. Des affiches sont également disponibles sur la page de campagne pour visibiliser cette opposition dans l’espace public. Enfin, les futures expérimentations de la loi JO, qui auront notamment lieu lors des marchés de Noël, seront l’occasion de sensibiliser et d’organiser des actions pour faire connaître cette technologie et ses dangers au plus grand nombre.

Ensemble, nous devons contrer les manœuvres visant à faire accepter la vidéosurveillance algorithmique, et rappeler le refus populaire de cette technologie. Nous devons clamer haut et fort notre opposition à devenir les cobayes d’une surveillance menée main dans la main par la police et les entreprises. Nous devons affirmer que nous ne voulons pas d’une société où chaque comportement considéré comme une « anomalie sociale » dans la rue soit traité par un dispositif technique pour alerter la police. Par nos voix communes, nous pouvons empêcher le prolongement de l’expérimentation et préserver l’espace public d’une surveillance toujours plus oppressante, afin que celui-ci reste un lieu que nous pouvons habiter et investir librement.

References[+]

References
1 Pour savoir si Vizzia est présente dans votre commune, ses clients sont affichées sur cette page https://www.vizzia.eu/nos-references

LinkedIn condamnée à 310 millions d’euros suite à notre plainte collective

Par : marne
25 octobre 2024 à 08:40

Après Google et Amazon, c’est au tour de Microsoft d’être condamnée pour non respect du droit des données personnelles. Hier, l’autorité de protection des données irlandaise a adressé à Microsoft une amende de 310 millions d’euros suite à notre plainte contre son service LinkedIn, au motif du non respect du consentement de ses utilisateurs.

Le 25 mai 2018, le RGPD (Règlement Général sur la Protection des Données) entrait en application, venant renforcer le droit des données personnelles. Il donnait une place particulière au consentement, qui devenait la principale base légale à appliquer pour la collecte et l’usage des données personnelles. Le RGPD apportait également deux autres nouveautés : la possibilité de déposer des plaintes de manière collective, ainsi qu’un pouvoir de sanction donné aux CNIL de l’Union européenne. Les CNIL, responsables de l’application du règlement, peuvent dès lors adresser des amendes à hauteur de 4% du chiffre d’affaire mondial des entreprises ne respectant pas le droit. Les CNIL européennes travaillent de concert sur les plaintes, guidées par une CNIL dite « cheffe de file », celle du pays ou le siège social de l’entreprise attaquée est établi.

Quelques mois avant son entrée en application, nous avions lancé un appel aux utilisateurices de certains services des GAFAM en leur proposant de se joindre à nous pour déposer une plainte contre chacune de ces grosses entreprises. Nos plaintes, déposées avec plus de 12 000 personnes, se fondaient sur le présupposé que ces entreprises ne respecteraient pas le RGPD une fois que le règlement serait applicable, notamment car leur modèle économique est en partie construit autour de l’exploitation sans consentement des données, particulièrement Google et Facebook. Comme nous l’avions parié, plus de six ans après, ces entreprises ne respectent toujours pas notre droit fondamental à la vie privée. Amazon fut condamnée par la CNIL luxembourgeoise à une amende de 746 millions d’euros en 2021. Google, n’ayant à l’époque du dépôt des plaintes pas de siège social dans l’Union européenne, avait été condamnée par la CNIL française (lieu du dépôt de la plainte) à 50 millions d’euros d’amende, puis s’était empressée de localiser son siège social en Irlande.

L’Irlande, connue pour sa politique fiscale avantageuse, héberge les sièges sociaux de nombreuses entreprises. C’est donc l’autorité irlandaise qui s’est retrouvée cheffe de file pour la plupart de nos plaintes : celle contre Microsoft (LinkedIn) mais aussi celles contre Apple (iOS) et Meta (Facebook et Instagram) qui sont encore en cours d’instruction, ainsi qu’Alphabet (Google Search, Youtube et Gmail).
Hier, elle a donc prononcé à l’encontre de Linkedin un rappel à l’ordre, une injonction de mise en conformité du traitement et trois amendes administratives d’un montant total de 310 millions d’euros. Cette sanction est donc de bon augure pour la suite de nos plaintes, et pour le respect du droit des données personnelles. Elle vient une nouvelle fois confirmer notre interprétation du RGPD selon laquelle les services en ligne doivent garantir un accès sans contraindre leurs utilisateurices à céder leurs données personnelless. Dans le cas contraire, le consentement donné ne peut être considéré comme libre.

En revanche, il faut relever qu’il a fallu plus de six ans à l’autorité irlandaise pour arriver à cette sanction. Cela n’est pas dû à une quelconque complexité de l’affaire mais à des dysfonctionnements structurels et à l’absence de volonté politique caractéristique de cette autorité. En effet, des associations dénoncent régulièrement son manque de moyens, sa proximité avec les entreprises, son refus de traiter certaines plaintes ou encore son manque de coopération avec les autres autorités européennes. L’Irish Council for Civil Liberties a ainsi publié l’année dernière un rapport pointant les manquements et l’inefficacité de la Data Protection Commission irlandaise.

Si nous nous réjouissons de cette petite victoire, elle reste faible. La plus grosse partie de l’Internet reste entre les mains de grosses entreprises. Ce sont elles qui hébergent nos échanges en ligne et gardent les pleins pouvoirs dessus : malgré le RGPD, la plupart d’entre elles continueront de récolter nos données sans notre consentement afin de nourrir leurs algorithmes de profilage publicitaire, transformant par la même occasion nos moindre faits et gestes en ligne en marchandises.

D’autant que ce système repose sur de la puissance de calcul et de l’énergie afin d’afficher ces images publicitaires sur nos écrans. Le tout pour toujours nous faire consommer davantage alors que la crise écologique prend de l’ampleur de jour en jour. Dans ce contexte, nous attendons avec hâte les décisions de la CNIL irlandaise concernant nos autres plaintes et espérons qu’elle sera vigilante quant au respect de la mise en conformité de LinkedIn.

Pour nous soutenir dans la suite de ce combat, n’hésitez pas à nous faire un don !

Festival Le Nuage était sous nos pieds

Par : edaa
23 octobre 2024 à 06:49

Les data centers, ces méga-ordinateurs bétonnés dédiés au traitement et au stockage des données informatiques, prolifèrent partout dans le monde. Ils s’accaparent l’eau et l’électricité, génèrent pollutions environnementales et artificialisation des sols, multiplient les emprises foncières et la bétonisation des villes, s’accaparent les fonds publics, et accélèrent ainsi la crise socio-écologique en cours.

Pendant trois jours à Marseille, les 8, 9 et 10 novembre 2024, nous vous proposons un festival fait d’échanges, de rencontres, de projections et d’une balade-conférencée pour s’informer, s’organiser collectivement et lutter contre l’accaparement de nos territoires et de nos vies par les infrastructures du numérique techno-capitaliste dominant. Programme détaillé sur pieds.cloud.

Ce festival est à l’initiative du collectif marseillais le Nuage était sous nos pieds, composé notamment de trois entités : le collectif des Gammares, collectif d’éducation populaire sur les enjeux de l’eau, Technopolice, qui analyse et lutte contre les technologies de surveillance, et La Quadrature du Net, qui défend les libertés fondamentales dans l’environnement numérique. Depuis 2023, le collectif enquête, analyse et lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique dominant et de leur monde. Alertées par la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public, alors même que Marseille voit se multiplier les arrivées de câbles sous-marins pour les liaisons Internet intercontinentales et l’émergence de data centers dans un grand silence politique et médiatique, le collectif propose un espace de rencontres et de discussions pour politiser la question de l’accaparement des terres et des vies par le techno-capitalisme, et créer des espaces de solidarités pour penser ensemble des pratiques d’auto-défense numérique, et d’autres mondes possibles, où l’on place le soin pour nous mêmes, les uns pour les autres et le soin de la Terre au centre de nos débats.

Le festival se veut à la fois un espace de restitution de l’enquête locale menée par le collectif Le nuage était sous nos pieds sur les impacts des data centers, câbles sous-marins intercontinentaux et autres infrastructures du numérique à Marseille, mais aussi un espace de réflexion commune en compagnie d’autres collectifs et associations marseillaises et d’ailleurs. Ouvert à toutes et tous, le festival propose de nombreuses tables-rondes, infokiosques, des projections de films, une balade et des rencontres intercollectifs. Retrouvez son programme détaillé sur pieds.cloud.

En présence des collectifs invité·es :
Tu Nube Seca Mi Rio (Talavera de la Reina, Espagne), Paris Marx – du podcast Tech Won’t Save Us (Canada), Génération Lumière (République démocratique du Congo et Lyon), StopMicro (Grenoble), Stop Mine 03 (Echassières, Allier), le Mouton numérique (France), Framasoft (France), le collectif des Gammares (Marseille), La Quadrature du Net (France), Technopolice (France), et de nombreux autres collectifs de Marseille et d’ailleurs.

En collaboration avec le Bureau des Guides 2013, le cinéma Le Gyptis, et La Cité de l’Agriculture à Marseille.
Une sélection de livres en collaboration avec la librairie Transit à Marseille, sera disponible sur tous les lieux du festival.
Tout au long du festival, retrouvez l’exposition Technopolice : 5 ans de lutte à la librairie l’Hydre aux milles têtes, 96 rue Saint-Savournin, du mardi au samedi de 10h à 19h, du 18 octobre au 19 novembre.

QSPTAG #313 — 18 octobre 2024

Par : robinson
18 octobre 2024 à 10:24

CNAF : recours collectif contre l’algo de la galère

La Quadrature travaille depuis des années sur les algorithmes utilisés par les administrations et les services sociaux, et en particulier sur l’algorithme de « scoring » de la Caisse nationale d’allocations familiales (CNAF). Il a fallu d’abord batailler contre l’administration pour obtenir la communication du code source, avant de publier en novembre 2023 l’analyse de la version n-1 de cet algo, la CNAF ayant refusé de fournir le code de l’algorithme en usage aujourd’hui. Et ce 16 octobre, La Quadrature et 14 autres associations de défense des droits attaquent donc l’algorithme de la CNAF devant le Conseil d’État, pour discrimination et surveillance excessive.

Cet algorithme analyse chaque mois les données personnelles (et intimes) de 13 millions de foyers touchant des allocations familiales, soit environ 32 millions de personnes en France, pour leur attribuer un « score de risque ». Si ce score est trop élevé, un contrôle est déclenché.
La CNAF présente cet outil comme un « algorithme de lutte contre la fraude ». En réalité, l’algorithme n’est évidemment pas capable de détecter des fraudes, qui supposent un mensonge intentionnel impossible à traduire en calcul. En revanche, que peut faire un algorithme ? Il peut identifier les personnes les plus susceptibles d’avoir reçu des « indus » ou des « trop-perçus », c’est-à-dire des sommes supérieures à ce que le calcul de leurs droits leur destine. Comment ? En identifiant les personnes dont la situation est la plus susceptible de provoquer des erreurs de déclaration. Qui sont ces personnes ? Celles qui changent souvent d’adresse, de travail, de situation familiale, qui sont mères célibataires, qui bénéficient de minima sociaux ou ont de faibles revenus. C’est-à-dire celles dont la vie est la plus marquée par la précarité.
Voici comment, sous couvert de « lutter contre la fraude », on traque systématiquement les personnes en difficulté.

L’analyse du code source a confirmé sans ambiguïté la fonction discriminatoire de cet algorithme. Les critères choisis et leur pondération ciblent de façon délibérée les personnes les plus précaires : famille monoparentale, bénéficiaires du RSA, personnes sans emploi, au domicile instable, etc.
Cette discrimination, couplée à une surveillance de masse (près de la moitié de la population française est concernée), nous ont poussées à saisir le Conseil d’État. Si vous voulez comprendre le raisonnement juridique qui structure le recours, tout est dans le communiqué de la coalition. Et si vous voulez suivre notre campagne de long cours contre les algorithmes administratifs, visitez notre page France Contrôle.

Lire le communiqué : https://www.laquadrature.net/2024/10/16/lalgorithme-de-notation-de-la-cnaf-attaque-devant-le-conseil-detat-par-15-organisations/

Livre : une histoire de la Technopolice

Notre campagne Technopolice a cinq ans. Félix Tréguer, chercheur et membre de La Quadrature, raconte à la première personne, dans Technopolice, la surveillance policière à l’ère de l’intelligence artificielle, ce long travail d’enquête collective sur les pratiques de surveillance numérique de la police, depuis la découverte de « l’observatoire du Big Data de de la tranquillité publique » de Marseille fin 2017, jusqu’à la légalisation de la VSA par la loi Jeux Olympiques en 2023, en passant par le récit étonnant et éclairant du quotidien d’un policier dans la ville de Denver au Colorado.

Croisant les analyses politiques et sociologiques, les enquêtes de terrain et les chiffres, l’ouvrage analyse la Technopolice comme un fait social complexe, qui met en jeu des idéologies politiques, des ambitions industrielles, des fantasmes policiers, au prise avec des problèmes matériels, économiques et humains. Et si vous voulez rencontrer l’auteur et lui poser des questions, le site recense les nombreuses rencontres en librairie à venir pour les mois d’octobre, novembre et décembre.

Lire l’article : https://www.laquadrature.net/202fondateur4/10/11/parution-du-livre-technopolice/

Action à Marseille contre le data center de trop

Le 16 septembre dernier, La Quadrature du Net et le collectif local Le nuage est sous nos pieds ont organisé une conférence de presse pour alerter au sujet de la construction d’un data center géant dans l’agglomération de Marseille : gourmand en énergie et en eau potable, ce projet s’incrit dans une logique d’inflation numérique dispendieuse, dont la nécessité n’est jamais questionnée ni soumise à la délibération démocratique de la population qu’elle touche directement. Lisez le communiqué du collectif Le nuage et sous nos pieds sur notre site.

Lire le communiqué : https://www.laquadrature.net/2024/09/16/conference-de-presse-a-marseille-contre-les-data-centers/

Agenda

La Quadrature dans les médias

Livre « Technopolice »

Algo de la CNAF

Data center à Marseille

Divers

L’algorithme de notation de la CNAF attaqué devant le Conseil d’État par 15 organisations

Par : bastien
16 octobre 2024 à 06:13

En cette veille de journée mondiale du refus de la misère, 15 organisations de la société civile attaquent l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF) en justice, devant le Conseil d’État, au nom du droit de la protection des données personnelles et du principe de non-discrimination. Ce recours en justice contre un algorithme de ciblage d’un organisme ayant mission de service public est une première.

Cet algorithme attribue à chaque allocataire un score de suspicion dont la valeur est utilisée pour sélectionner celles et ceux faisant l’objet d’un contrôle. Plus il est élevé, plus la probabilité d’être contrôlé·e est grande. Chaque mois, l’algorithme analyse les données personnelles des plus de 32 millions de personnes vivant dans un foyer recevant une prestation CAF et calcule plus de 13 millions de scores. Parmi les facteurs venant augmenter un score de suspicion on trouve notamment le fait d’avoir de faibles revenus, d’être au chômage, de bénéficier du revenu de solidarité active (RSA) ou de l’allocation adulte handicapé (AAH). En retour, les personnes en difficulté se retrouvent sur-contrôlées par rapport au reste de la population.

Notre recours devant le Conseil d’État porte tant sur l’étendue de la surveillance à l’œuvre que sur la discrimination opérée par cet algorithme envers des allocataires déjà fragilisé·es dans leurs parcours de vie. En assimilant précarité et soupçon de fraude, cet algorithme participe d’une politique de stigmatisation et de maltraitance institutionnelle des plus défavorisé·es. Les contrôles sont des moments particulièrement difficiles à vivre, générateurs d’une forte charge administrative et d’une grande anxiété. Ils s’accompagnent régulièrement de suspensions du versement des prestations, précédant des demandes de remboursements d’indus non-motivés. Dans les situations les plus graves, des allocataires se retrouvent totalement privé·es de ressources, et ce en toute illégalité. Quant aux voies de recours, elles ne sont pas toujours compréhensibles ni accessibles.

Alors que l’utilisation de tels algorithmes de notation se généralise au sein des organismes sociaux, notre coalition, regroupant des organisations aux horizons divers, vise à construire un front collectif afin de faire interdire ce type de pratiques et d’alerter sur la violence dont sont porteuses les politiques dites de « lutte contre la fraude sociale ».

« Cet algorithme est la traduction d’une politique d’acharnement contre les plus pauvres. Parce que vous êtes précaire, vous serez suspect·e aux yeux de l’algorithme, et donc contrôlé·e. C’est une double peine. » déclare Bastien Le Querrec, juriste à La Quadrature du Net.

Associations requérantes:


Retrouvez l’ensemble de nos travaux sur la numérisation des administrations sociales et la gestion algorithmique des populations sur notre page de campagne France contrôle.

Parution du livre « Technopolice »

11 octobre 2024 à 06:00

Technopolice, la surveillance policière à l’ère de l’intelligence artificielle paraît aujourd’hui aux éditions Divergences. Dans ce livre, Félix Tréguer, membre de La Quadrature du Net et chercheur associé au Centre Internet & Société du CNRS, fait le récit personnel d’un engagement au sein du collectif Technopolice. Mêlant les anecdotes de terrain aux analyses issues des sciences humaines et sociales, il retrace les mécanismes qui président à la technologisation croissante du maintien de l’ordre et de la gestion urbaine.

Résumé

Voici le résumé du livre, disponible dans votre librairie de quartier.

« Drones, logiciels prédictifs, vidéosurveillance algorithmique, reconnaissance faciale : le recours aux dernières technologies de contrôle se banalise au sein de la police. Loin de juguler la criminalité, toutes ces innovations contribuent en réalité à amplifier la violence d’État. Elles referment nos imaginaires politiques et placent la ville sous contrôle sécuritaire. C’est ce que montre ce livre à partir d’expériences et de savoirs forgés au cours des luttes récentes contre la surveillance policière. De l’industrie de la sécurité aux arcanes du ministère de l’Intérieur, de la CNIL au véhicule de l’officier en patrouille, il retrace les liens qu’entretient l’hégémonie techno-solutionniste avec la dérive autoritaire en cours. »

Présentations

Retrouvez toutes les dates dans l’agenda public de La Quadrature.

Extraits

« Lorsque vient notre tour de parler, Martin et moi montons sur l’estrade. Face à l’amphi bondé, face aux képis et aux costumes-cravate, face au commandant Schoenher et à la futurologue de la préfecture de police, face au préfet Vedel et aux cadres d’Idemia ou de Thales, il nous faut déjouer le piège qui nous est tendu. Dans le peu de temps qui nous est imparti, nous leur disons que nous savons. Nous savons que ce qu’ils attendent, c’est que nous disions ce que pourraient être des lois et des usages « socialement acceptables » [s’agissant de la reconnaissance faciale]. La même proposition vient alors de nous être faite par le Forum économique mondial et le Conseil national du numérique. Un peu plus de transparence, un semblant de contrôle par la CNIL, une réduction des biais racistes et autres obstacles apparemment  »techniques » auxquels se heurtent encore ces technologies, et l’on croit possible d’assurer un compromis  »éthique » entre la défense automatisée de l’ordre public et l’État de droit.

Mais nous leur disons tout net : la reconnaissance faciale et les autres technologies de VSA [vidéosurveillance algorithmique] doivent être proscrites. Plutôt que de discuter des modalités d’un  »encadrement approprié », nous exprimons notre refus. Nous leur disons que, pour nous, la sécurité consiste d’abord en des logements dignes, un air sain, la paix économique et sociale, l’accès à l’éducation, la participation politique, l’autonomie patiemment construite, et que ces technologies n’apportent rien de tout cela. Que sous prétexte d’efficacité, elles perpétuent des logiques coloniales et déshumanisent encore davantage les rapports qu’entretiennent les bureaucraties policières à la population. »

….

« Le glissement de l’urbanisme cybernétique vers des applications techno-sécuritaires semble irrésistible. Début 1967, aux États-Unis, une autre commission lancée par le président Johnson et dirigée par l’ancien ministre de la Justice de Kennedy, Nicholas Katzenbach – qui rejoindra d’ailleurs IBM en 1969 et y fera une bonne partie de sa carrière – a, elle aussi, rendu un rapport sur la montée des « troubles à l’ordre public » (…). C’est un programme d’ampleur qui est proposé : édiction d’un plan national de R&D qui devra notamment se pencher sur l’approche des politiques pénales en termes de « système », relevés statistiques couplés au déploiement d’ordinateurs et à la géolocalisation des véhicules de police pour optimiser voire automatiser l’allocation des patrouilles et s’adapter en temps réel à la délinquance, automatisation de l’identification biométrique par empreintes digitales, technologies d’aide à la décision dans le suivi des personnes condamnées, etc. La pensée techno-sécuritaire infuse l’ensemble des recommandations. Et l’on remarquera au passage combien la police du futur des années 1960 ressemble à la nôtre. Comme si le futur, lui non plus, ne passait pas. »

« Lorsque la technologie échoue à rendre la police plus précise ou efficace dans la lutte contre la délinquance, cela ne signifie pas qu’elle ne produit pas d’effets. Constater un tel échec doit plutôt inviter à déplacer le regard : l’une des principales fonctions politiques dévolues aux technologies ne consiste pas tant à produire de la « sécurité publique » qu’à relégitimer l’action de la police, à redorer le blason de l’institution en faisant croire à un progrès en termes d’efficience, d’allocation des ressources, de bonne gestion, de transparence, de contrôle hiérarchique. Il en va ainsi depuis la fin du XIXe siècle et le début de la modernisation de la police, lorsque le préfet Lépine mettait en scène l’introduction de nouveaux équipements, les bicyclettes ou les chiens de police. C’est aussi une dimension centrale des premiers chantiers informatiques des années 1960 que de rationaliser une administration perçue comme archaïque. Reste que cette promesse d’une police rendue plus acceptable, transparente ou légitime grâce à la technologie est toujours trahie dans les faits. »

« Tandis que l’extrême droite s’affirme de manière toujours plus décomplexée partout dans le champ du pouvoir, ces processus grâce auxquels les élites libérales gèrent la dissonance cognitive induite par leur complicité objective avec la spirale autoritaire en cours forment l’un des rouages les plus efficaces du fascisme qui vient. »

Après les Jeux de Paris, la bataille de la VSA est loin d’être finie

Par : bastien
9 octobre 2024 à 08:06

Les Jeux Olympiques et Paralympiques se sont achevés il y a un mois. Alors que les rues de Marseille ou de Paris et sa banlieue sont encore parsemées de décorations olympiennes désormais désuètes, les promoteurs de la surveillance s’empressent d’utiliser cet événement pour pousser leurs intérêts et légitimer la généralisation des dispositifs de vidéosurveillance algorithmique (VSA). Si nous ne sommes pas surpris, cette opération de communication forcée révèle une fois de plus la stratégie des apôtres de la Technopolice : rendre à tout prix acceptable une technologie dont le fonctionnement reste totalement opaque et dont les dangers sont complètement mis sous silence. Les prochains mois seront cruciaux pour peser dans le débat public et rendre audible et visible le refus populaire de ce projet techno-sécuritaire.

Des algos dans le métro

Comme prévu, la vidéosurveillance algorithmique a été largement déployée pendant les Jeux Olympiques. Il le fallait bien, puisque c’est au nom de ce méga événement sportif qu’a été justifiée l’« expérimentation » de cette technologie d’analyse et de détection des comportements des personnes dans l’espace public. Pour rappel, la loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024 a permis aux préfectures d’autoriser un certain nombres d’acteurs à déployer des logiciels dopés à l’« intelligence artificielle » sur les images des caméras publiques afin de repérer un certain nombre de comportements soi-disant « suspects » et déclencher des alertes auprès des agents de sécurité ou des forces de l’ordre.

Contrairement à ce que le nom de la loi indique, cette capacité de mettre en place une surveillance algorithmique dépasse largement le moment des seuls Jeux Olympiques. Les policiers peuvent ainsi réquisitionner la VSA pour des « manifestations sportives, récréatives ou culturelles qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». Or, ce critère de « risque » a rapidement été apprécié de façon très large. La VSA a été déployée à l’occasion de concerts, de matchs de foot, de festivals ou encore lors du défilé du 14 juillet. Également, la durée de l’expérimentation dépasse largement celle des seuls Jeux et s’étend jusqu’en mars 2025. La ville de Cannes a ainsi annoncé qu’elle déploiera la VSA à l’occasion de cinq événements à venir : les NRJ Music Awards, le Marathon des Alpes-Maritimes, le marché de Noël, le feu d’artifice du Nouvel An et… le Marché international des professionnels de l’immobilier 2025. On le comprend, il ne s’agit pas tant de prouver un lien avec un risque particulier pour la sécurité que de trouver un prétexte pour tester ces technologies.

Mais revenons aux Jeux et à ce moment de « vraie vie » selon les termes employés par Emmanuel Macron. Que s’y est-il passé ? D’abord, les algorithmes de détection de l’entreprise Wintics ont été déployés dans 46 stations de métros et 11 gares SNCF ou RER. Comme cela avait déjà pu être le cas pour d’autres expérimentations, les stations concernées n’avaient parfois aucun rapport avec les lieux où se déroulaient les épreuves des Jeux. De nouveau, les acteurs de la surveillance tordent le cadre juridique pour le plier à leurs volontés. Aussi, alors que les pouvoirs publics sont tenus d’informer les personnes filmées qu’elles sont transformées en cobayes, ceux-ci se sont contentés du service minimum. Des petites affichettes ont été placardées dans le métro, peu visibles pour les passant⋅es dont le regard était davantage incité à lire une propagande sécuritaire « légèrement » plus grande.

Deux affiches de vidéosurveillance dans une station de métro : en très grand à droite, l'affiche de vidéosurveillance classique, en tout petit à gauche, l'affichette VSA.
En très grand à droite, l’affiche de vidéosurveillance classique, en tout petit à gauche, l’affichette VSA.

Ensuite, la VSA s’est étendue aux images de l’espace public aux alentours de 11 sites des Jeux Olympiques (comme le Stade de France ou la Place de la Concorde). Pour cette surveillance des rues, la préfecture de police n’a publié que le 30 juillet au soir l’autorisation préfectorale nécessaire à cette expérimentation, qui avait pourtant débuté… le 26 juillet. Comme on suivait cela de près, nous avons déposé une plainte auprès la CNIL, et ce afin de la pousser à faire son travail en sanctionnant l’État pour ces quatre jours de surveillance illégale. Les mêmes dispositifs de VSA ont ensuite été renouvelés lors des Jeux Paralympiques pour prendre fin le 9 septembre dernier. Depuis cette date, la course à la promotion de ces outils a repris de plus belle au sein des acteurs du système de surveillance qui n’hésitent pas à jouer des coudes pour imposer leur agenda.

Opération mal masquée

Théoriquement, la loi sur les JO prévoit que cette « expérimentation » de VSA soit soumise à une évaluation par un comité créé pour l’occasion, regroupant expert·es de la société civile, parlementaires et policiers. Ce comité est chargé d’analyser l’efficacité et l’impact de cette technologie selon des critères prévus par décret. Un rapport doit ensuite être remis au Parlement, le 31 décembre 2024 au plus tard. Si nous n’avions déjà que peu d’espoir quant à la capacité pour le comité de travailler de manière indépendante et d’être entendu dans ses conclusions, il n’empêche que celui-ci existe. Le Parlement a en effet choisi de conditionner une éventuelle pérennisation du cadre expérimental de la loi JO à son évaluation. Un garde-fou minimal dont le Conseil constitutionnel a souligné l’importance pour assurer toute éventuelle pérennisation du dispositif, qui serait alors à nouveau soumise à un examen de constitutionnalité.

Cela n’empêche pourtant pas les promoteurs de la VSA de placer leurs pions en communiquant de manière opportuniste afin de faire pression sur le comité d’évaluation et l’ensemble des parlementaires. Ainsi, le 25 septembre dernier, le préfet de police et ancien ministre Laurent Nuñez a ouvert le bal lors d’une audition par les député⋅es de la commission des lois. Sans apporter aucun élément factuel étayant ses dires, sans même faire part des très probables bugs techniques qui ont certainement émaillé le déploiement d’algorithmes de VSA qui pour certains étaient testés pour la première fois à grande échelle, il affirme alors que la VSA aurait d’ores et déjà « démontré son utilité », et appelle à sa prorogation. Et il s’emploie à minimiser les atteintes pour les libertés publiques : le préfet de police assure ainsi qu’il ne s’agirait en aucun cas de surveillance généralisée mais d’une simple aide technique pour trouver des flux anormaux de personnes. Comme si la légalisation des cas d’usage les plus problématiques de la VSA, dont la reconnaissance faciale, n’étaient pas l’un des objectifs des promoteurs de la Technopolice. Même le journal Le Monde s’est inquiété de cette déclaration de Nuñez dans un éditorial dénonçant la technique du « pied dans la porte » utilisée par le préfet.

Ensuite est venu le tour du gouvernement. Dans sa déclaration de politique générale, Michel Barnier a prononcé la phrase suivante, floue au possible : « Le troisième chantier est celui de la sécurité au quotidien : les Français nous demandent d’assurer la sécurité dans chaque territoire. Nous généraliserons la méthode expérimentée pendant les Jeux olympiques et paralympiques. ». À aucun moment le Premier ministre ne précise s’il a en tête la VSA ou la concentration ahurissante de « bleus » dans les rues, ou d’autres aspects du dispositif policier massif déployé cet été. Cela n’a pas empêché France Info de publier un article largement repris dans les médias annonçant, sur la base de cette déclaration, que le gouvernement envisageait de prolonger l’expérimentation de la vidéosurveillance algorithmique. En réalité, il s’agissait d’une « interprétation » venant du ministère de l’Intérieur, pressé d’imposer l’idée d’une pérennisation, quitte à faire fi du cadre légal de l’évaluation (le nouveau ministre Bruno Retailleau ayant bien fait comprendre que le respect du droit n’était pas sa tasse de thé). Résultat de cette opération d’intox de Beauvau : Matignon, soucieux de ne pas froisser le comité, « rectifie » auprès de France Info et affirme que le gouvernement attendra bien le rapport du comité. Bref, des petites phrases et des rétropédalages qui permettent au final au gouvernement de miser sur les deux tableaux : d’un côté, il tente de préempter le débat en imposant d’emblée la perspective d’une pérennisation et, de l’autre, il s’efforce de sauver les apparences, en laissant entendre qu’il suivra scrupuleusement le processus défini dans la loi. Reste qu’à Beauvau et très certainement aussi à Matignon, la pérennisation de la VSA est un objectif partagé. Le désaccord, si désaccord il y a, semblerait plutôt porter sur le tempo des annonces.

Tout ceci nous rappelle une chose : la bataille qui se joue maintenant est celle de l’acceptabilité de la VSA. Il s’agit pour les pouvoirs publics de fabriquer le consentement de la population à une technologie présentée comme évidente et nécessaire, alors qu’elle porte en elle un projet d’accaparement sécuritaire de l’espace public, de discrimination et de contrôle social, portés à la fois par une industrie de la surveillance en croissance et un régime de moins en moins démocratique.

Pour vous informer sur la VSA et vous y opposer, retrouvez notre brochure sur le sujet et d’autres ressources sur notre page de campagne. Et pour soutenir notre travail, n’hésitez pas à faire un don.

Conférence de presse à Marseille contre les data centers

16 septembre 2024 à 03:52

À l’aune du paradigme de l’Intelligence Artificielle, les data centers sont amenés à proliférer partout sur le territoire. Ces entrepôts de serveurs dédiés au traitement et au stockage des données informatiques génèrent de nombreux conflits d’usage d’eau et d’électricité. Ils multiplient les emprises foncières et les pollutions environnementales. Ils accaparent des fonds publics et accélèrent la crise socio-écologique en cours..

Dans le cadre de son groupe de travail « Écologie et numérique », La Quadrature du Net est investie depuis plusieurs mois dans une lutte locale contre ces infrastructures à Marseille, portée notamment par le collectif « Le nuage était sous nos pieds ». Aujourd’hui, lundi 16 septembre, se tient une première conférence de presse visant à dénoncer le projet de nouveau data center de Digital Realty, l’un des plus gros acteurs mondiaux de ce marché en pleine expansion.

Ce texte reproduit la prise de parole du collectif « Le nuage était sous nos pieds » lors de cette conférence de presse visant notamment à dénoncer MRS5, le projet de nouveau data center de Digital Realty dans l’enceinte du Grand Port Maritime de Marseille (GPMM), à appeler les habitantes de la ville qui le souhaitent à répondre à l’enquête publique relative à ce projet, ainsi qu’à rejoindre et poursuivre cette lutte collective. Y participent également des représentants de la fédération des Comités d’intérêt de quartier (CIQ) des habitants du 16ème arrondissement, concernés directement par ce nouveau data center, des représentants des associations France Nature Environnement 13 et Cap au Nord, ainsi que des élu·es locaux et parlementaires NFP.

« Reprendre le contrôle sur les infrastructures du numérique ! »

Je prends aujourd’hui la parole au nom du collectif marseillais « Le nuage était sous nos pieds », qui est composé d’au moins trois entités : La Quadrature du Net, qui défend les libertés fondamentales dans l’environnement numérique ; Technopolice, qui analyse et lutte contre les technologies de surveillance ; le collectif des Gammares, collectif d’éducation populaire sur les enjeux de l’eau. Nous nous sommes rassemblées, alertées par la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public alors même que Marseille voit se multiplier les arrivées de câbles sous-marins pour les liaisons Internet intercontinentales et l’émergence de data centers dans un grand silence politique et médiatique.

La surchauffe d’intérêt général ?

Dans la plaquette de communication du MRS5 dont il est ici question, le « data center » est présenté comme étant en parfaite continuité avec les usages historiques de cet emplacement au sein du système portuaire. Le stockage de données succéderait au stockage agroalimentaire, au marché au bestiaux, au silo à sucre. On pourrait rétorquer dans un premier temps que la donnée ne se mange pas, mais plus sérieusement, il convient d’insister sur le flou que ce vocabulaire marketing entretient par rapport à l’objet technique lui-même.

Un data center n’est pas un simple entrepôt de stockage, c’est un méga-ordinateur bétonné composé de centaines de serveurs qui tournent en permanence. Les industriels du numérique et autres entreprises y louent des espaces pour pouvoir bénéficier des capacités de stockage et de la puissance de calcul de ce « méga-ordinateur », et pendant ce temps le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct.

On entend aussi souvent dire, par les industriels du secteur et les startupeux du gouvernement, que les data centers seraient « des projets d’intérêt national majeur », comme les ponts ou les gares ferroviaires d’hier. Qu’ils sont les nouvelles infrastructures « indispensables au fonctionnement de l’ensemble de la société française » comme le suggère l’actuel projet de loi de simplification de la vie économique, et qu’ils servent l’intérêt général. Inscrire les centres de données dans la filiation des grandes infrastructures territoriales publiques permet de faire comme s’ils relevaient de l’évidence et ne répondaient qu’à la demande naturelle du progrès civilisationnel. Si l’on considère que ces infrastructures servent réellement l’intérêt général, elles pourraient être municipalisées, et s’inscrire dans les besoins réels des collectivités territoriales plutôt que d’être confiées à des multinationales privées telle que Digital Realty.

Nous pensons que c’est l’idée même selon laquelle ces infrastructures peuvent servir l’intérêt général qui doit être remise en question. Nous pensons que l’objet « data center », ce méga-ordinateur, est imposé par une poignée de multinationales du numérique en accord avec des gouvernements avides de profits à court terme. Il est grand temps d’ouvrir la boite noire des systèmes techniques et d’admettre que les questions techniques sont toujours aussi des questions politiques. Les géants du numérique s’imposent sans aucune concertation au niveau local ou national, contournant les systèmes de planification et de décision collectives. Il faut redonner le pouvoir au peuple pour une autodétermination quant aux enjeux du numérique et explorer des alternatives décentralisées et communautaires, qui prennent soin de nous, des uns et des autres et de notre territoire.

Accaparements

Le numérique est souvent désigné comme un prétendu « cloud », un nuage qui n’a en réalité rien de vaporeux. Le « cloud », ce sont ces méga-ordinateurs reliés à travers le monde par des câbles sous-marins en fibre optique, dont 18 arrivent aujourd’hui à Marseille. Or, ces méga-ordinateurs accaparent le foncier disponible, que ce soit dans l’enceinte du GPMM et en dehors avec les quatre autres data centers de Digital Realty déjà en place MRS1, MRS2, MRS3, MRS4 et ce nouveau cinquième candidat, ou que ce soit dans les quartiers Nord, à Saint-André, à Saint-Henri, à la Belle-de-Mai, ou hors des limites municipales, comme le projet de Digital Realty à Bouc Bel Air. Il y a même un projet de data center flottant !

Ces entrepôts de serveurs s’accaparent aussi les réseaux électriques publics et l’énergie disponible, jusqu’à faire saturer leurs capacités1. Nous prenons aujourd’hui la parole juste en face du poste source d’électricité, construit spécifiquement par Digital Realty afin d’alimenter ses centres de données. Leurs moyens capitalistiques démesurés permettent donc de construire leurs propres infrastructures électriques, sans jamais se préoccuper des conséquences sur les habitant·es et leurs territoires. Tant et si bien que les conflits d’usage s’amoncellent. Ici à Marseille, il faut choisir entre l’électrification des bus ou des quais pour les bateaux de croisières et celle de ces data centers, qui accaparent ainsi l’énergie disponible en lieu et place de nos infrastructures et services publics2.

Enfin, les géants du numérique s’accaparent aussi notre eau. Le « river-cooling » utilisé à Marseille par Digital Realty pour refroidir ses data centers, n’est rien d’autre que le détournement des eaux de qualité potable de l’ancienne galerie minière de Gardanne, pour un gain énergétique peu conséquent3. Attribuer l’usage de ces eaux à ce besoin industriel pose la question de futurs conflits d’usage que les dernières sécheresses estivales nous ont laissé entrevoir. À l’échelle mondiale, la question de l’eau atteint des proportions préoccupantes : Google annonçait par exemple, en 2021, avoir utilisé plus de 15 milliards de mètres cubes d’eau pour le refroidissement de ses centres.

Greenwashing

Les services marketing des multinationales du numérique redoublent d’imagination pour nous faire croire que les data centers sont des « usines vertes », qui n’auraient aucun impact sur l’environnement. À les écouter, les centres de données seraient même des infrastructures légères, utilisant les ressources en eau et en électricité avec parcimonie et de manière « optimisée ». C’est faux.

L’urgence actuelle est d’entrer dans une trajectoire de sobriété énergétique. L’explosion des demandes énergétiques que le déploiement de data center produit n’est absolument pas compatible avec nos objectifs climatiques plus généraux. Car les ressources ne sont pas illimitées. MRS5 va s’accaparer l’eau et l’électricité, et nécessiter la construction d’autres centrales de production d’énergie verte, pourtant déjà controversées4. Même s’il semble parfois éculé, il faut encore une fois rappeler l’adage selon lequel « la seule énergie verte, c’est celle qu’on ne produit pas ».

Surtout que les calculs d’efficacité environnementale ont souvent la fâcheuse tendance à oblitérer et externaliser une partie de leurs impacts : jusqu’où calcule-t-on les coûts énergétiques et humains d’un data center ? Faut-il regarder les micropuces extrêmement gourmandes en eau pure, les dégâts causés par les câbles sous-marins obsolètes5, les autres déchets du numérique que l’ONU compte à 10,5 millions de tonnes ?

Peut-on continuer à invisibiliser les filières d’extractions minières extranationales extrêmement violentes, en République Démocratique du Congo notamment et dans le reste du monde. David Maenda Kithoko, président de l’association Génération Lumière, lui même réfugié climatique congolais, le rappelle haut et fort : la révolution numérique fait couler le sang de son peuple. MRS5 est construit sur le silo à sucre Saint-Louis, bâtiment emblématique de l’impérialisme français et du commerce colonial. Et si l’on trouvait pour cet ancien bâtiment une autre fonction, qui ne rejouerait pas ces violences, mais qui s’inscrirait réellement dans une trajectoire de sobriété et de justice sociale ?

Reprendre le contrôle

Pour finir, la question centrale qui se pose ici est : à quoi – à qui – servent ces data centers ? L’immense majorité des flux de données qui circulent dans les data centers sont à destination des entreprises. On nous laisse croire que ces méga-ordinateurs ne feraient que répondre à un besoin criant des consommateurs libres que nous serions, alors qu’une bonne partie de leurs usages nous concernant sont destinés à capter nos données personnelles et générer de la publicité pour polluer nos espaces de vie en ligne. Mais en regardant la liste des futures entreprises clientes de MRS5, on voit : Oracle Corporation, ce géant étasunien qui offre des services informatiques uniquement à des entreprises ; KP1, spécialiste de préfabriqué béton – le béton rappelons-le est responsable de 8% des émissions de gaz à effet de serre – ; Flowbird, société actrice de la « ville intelligente » ; MisterFly, agence de voyage en ligne pour la réservation d’avions, etc. En dehors d’un département de recherche en archéologie, les premiers clients connus de MRS5 ne semblent pas forcément « d’intérêt public national ». Bien au contraire, ce sont des acteurs issus du même monde technocratique que les data centers eux-mêmes.

Tout comme MRS5, des milliers de nouveaux data centers seront bientôt construits pour mieux accompagner l’essor programmé de l’Intelligence Artificielle (IA), se surajoutant à toutes les infrastructures informatiques déjà existantes. Or, on pourrait déjà légitimement se poser la question de savoir s’il n’y a pas déjà trop de numérique dans nos vies, non seulement d’un point de vue environnemental mais aussi du point de vue des impacts sociétaux. Alors que de plus en plus de professionnels de la santé nous alertent sur l’impact des écrans sur la santé mentale, le patron de Netflix peut se permettre de nommer le sommeil comme son principal concurrent. Le boom de l’IA, qui est entièrement entraînée et servie dans et par ces data centers, annonce de nombreuses nouvelles violences et violations des droits humains auxquelles nous devrons faire face : deep fakes, harcèlement, algorithmes de prises de décisions discriminatoires. C’est bien là l’un des enjeux des géants du numérique : prendre d’assaut notre temps et notre attention, en dépit de notre santé et de nos droits fondamentaux.

L’immixtion du numérique dans la plupart des champs professionnels se heurte très souvent à des résistances. Que ce soit en médecine, en agriculture, dans l’éducation, à la poste, dans les administrations, la logique qui sous-tend ce développement est presque toujours la même : l’optimisation et la dépossession technique, menant à des pertes de sens professionnel, à de l’isolement, à une intensification des cadences, à l’industrialisation. La crise professionnelle qui traverse ces secteurs est bien plus une crise de moyens humains que d’efficacité technique.

Pour autant, il n’y a pas de fatalité au « tout numérique », nous pouvons et nous devons reprendre le contrôle. Cela passe notamment par la contestation des projets de construction d’infrastructures nouvelles, telles que MRS5 de Digital Realty dans le port de Marseille.


L’enquête publique relative au projet MRS5 est ouverte jusqu’au 27 septembre 2024.

Vous êtes vous aussi engagé·e dans une lutte locale contre les data centers ? Écrivez-nous à : lenuageetaitsousnospieds@riseup.net.


  1. « À l’échelle française, les prévisions les plus récentes de RTE aboutissent désormais à une demande totale des data centers de puissance de pointe de l’ordre de 8 à 9 GW, pour une consommation qui atteindrait 80 TWh/an si tous ces projets se concrétisent rapidement, loin des 10 TWh/an qu’ils consomment actuellement, mais aussi loin des prévisions de RTE, qui estimait jusqu’alors une consommation de 15 à 20 TWh/an en 2030 et 28 en 2035. » tribune de Cécile Diguet « Les data centers s’implantent de manière totalement opportuniste », juillet 2024. ↩
  2. Comme noté par le conseil municipal de Marseille dans sa délibération 23/0568/VAT du 20 octobre 2023 sur la « Stratégie municipale pour une implantation planifiée et régulée des câbles sous-marins et des data centers sur le territoire marseillais ». ↩
  3. D’après les documents fournis par Digital Realty lors de la présentation du projet MRS5, la réduction de la consommation énergétique du site générée par la mise en œuvre de la solution river-cooling serait de uniquement 4,33 % de l’énergie électrique annuelle totale consommée par le site. En effet cette solution ne permet pas de se passer totalement d’un refroidissement par climatisation électrique, à laquelle elle viens s’ajouter pour ne la remplacer en usage qu’à hauteur de 32%. ↩
  4. D’après Cécile Diguet, les projets de data center actuellement planifiés par RTE d’ici 2030 en France consommeraient l’équivalent de la production énergétique de 3 nouvelles centrales nucléaires et demi. France Inter, émission Interception, Septembre 2024. ↩
  5. D’après un rapport d’expertise écologique du Parc Marin de la Côte Bleue alertant sur l’effet des câbles sous-marins désactivés et abandonnés par Orange au début des années 2000 sur les fonds marins et l’espèce protégée des herbiers de Posidonie qui habitent ce site protégé classé Natura 2000. Voir également le travail de recherche mené par Loup Cellard et Clément Marquet sur les câbles sous-marins de Marseille et de la Côte Bleue en particulier, qui montre comment les prises de décisions en matière de pose ou de dépose de ces câbles, sont dominées par des impératifs avant tout économiques et industriels, et non pas écologiques : « Frictions sous-marines », décembre 2023. ↩

QSPTAG #312 — 13 septembre 2024

Par : robinson
13 septembre 2024 à 11:26

Telegram stop

Paul Durov, fondateur et président de la société qui édite la messagerie Telegram, a été arrêté en France le 24 août 2024. Le parquet lui reprocherait de ne pas modérer les contenus échangés sur la messagerie. On a aussitôt crié au mépris de la liberté d’expression et du secret des correspondances. Mais c’est mal connaître la messagerie, largement utilisée aussi comme un réseau social, avec des chaînes ouvertes ou publiques suivies par des milliers d’abonnés. De ce côté-là, rien à redire : tous les réseaux sociaux sont placés devant la même obligation de retirer les contenus illicites qui leur ont été signalés. En refusant de le faire, Telegram est en faute.

Mais le parquet est volontairement ambigu. Une ambiguïté inquiétante, parce qu’elle laisse planer le soupçon que Telegram devrait surveiller aussi le contenu des conversations privées tenues sur la messagerie. Cette attaque contre le secret des correspondances s’inscrit dans la continuité d’autres pressions judiciaires allant jusqu’à la criminalisation de l’usage du chiffrement, comme l’a montré le dossier du procès du « 8 décembre », tandis que le gouvernement a récemment multiplié les attaques contre les réseaux sociaux lors des émeutes urbaines de 2023 et cette année en Nouvelle-Calédonie. Lisez notre première analyse de ce dossier encore très nébuleux.

Lire l’article : https://www.laquadrature.net/2024/09/03/affaire-telegram-des-inquietudes-dans-un-contexte-de-guerre-contre-les-messageries-les-reseaux-sociaux-et-le-chiffrement/

La surveillance, grande gagnante des JO

Les JO de Paris 2024 ont été un tremplin pour des pratiques de surveillance sans précédent. On pense évidemment à la vidéosurveillance algorithmique (VSA), les JO ayant servi de prétexte à des législateurs opportunistes pour une « expérimentation » dont les conclusions sont tirées d’avance. Mais la surenchère sécuritaire a été l’occasion de mobiliser tous les moyens récemment acquis par la police, et notamment la grande quantité de nouveaux fichiers créés depuis vingt ans (il en existe aujourd’hui plus de 100).

C’est la lecture de la presse qui a attiré notre attention : des personnes qui devaient travailler durant les JO, en tant que bénévoles ou salariées, avaient été écartées au dernier moment — leur accréditation refusée sans plus d’explication. Après un appel à témoignages, nous avons réuni des récits individuels qui présentent plusieurs points communs : les employeurs sont avisés du refus d’accréditation sans en connaître la raison, et les personnes concernées ont toutes eu une activité politique ou militante qui a pu occasionner une interaction — même brève — avec la police.

Les fichiers de police permettent aujourd’hui d’entraver l’activité professionnelle des personnes en fonction de leur couleur politique. Une médaille de plus pour la France ? Lisez notre article pour lire les témoignages et tout savoir sur le processus de « criblage » appliqué lors des JO.

Lire l’article  : https://www.laquadrature.net/2024/07/30/jeux-olympiques-fichage-de-masse-et-discrimination-politique/

VSA en supermarché : des algorithmes illégaux et bidons ?

Les supermarchés sont des temples de la vidéosurveillance et les fabricants de VSA ne pouvaient pas laisser échapper ce juteux marché. Tandis que les grands groupes industriels s’adressent aux polices et aux États, certaines entreprises, dont la start-up française Veesion, s’adressent plus spécifiquement aux supermarchés en leur proposant des logiciels soi-disant capables d’identifier les comportements « suspects » de leurs clients. Le système offrirait deux avantages : améliorer la détection des vols, et soulager les pauvres agents de surveillance qui doivent passer la journée à s’user les yeux devant des écrans trop nombreux. Petit problème que nous avions soulevé l’an dernier : filmer les gens et analyser leur comportement avec un logiciel, c’est un traitement illégal de données biométriques.

La CNIL s’en est mêlée, confirmant notre analyse et exigeant que les magasins qui utilisent les logiciels de Veesion affichent un panneau pour informer leurs clients de ce traitement illégal. Veesion a essayé de bloquer l’intervention de la CNIL, mais le Conseil d’État lui a donné tort en juin dernier. Une bonne nouvelle, même si ce dernier rempart juridique nous semble malheureusement un peu trop fragile, dans un contexte politique plus large où la police a obtenu le droit d’utiliser les mêmes outils pour surveiller les JO et bientôt les transports en commun.

Par ailleurs, nous avons de bonnes raisons de penser que les algorithmes de Veesion sont du vent, et reposent en réalité sur des travailleurs pauvres qui vivent à Madagascar et passent leurs journées à s’user les yeux devant des écrans trop nombreux…

Lire l’article  : https://www.laquadrature.net/2024/07/18/veesion-et-surveillance-en-supermarches-vraie-illegalite-faux-algorithmes/

Pas d’oreilles numériques à Orléans

Nous avions déposé un recours il y a trois ans contre le projet de la ville d’Orléans, qui voulait installer des micros dans les rues « sensibles » , en plus des caméras déjà en place, pour détecter des situations « anormales ». Le tribunal administratif a rendu son jugement en juillet : le couplage des images et du son est illégal. Un soutien précieux dans notre lutte, quand l’État ferme les yeux sur les pratiques ordinaires des municipalités qui achètent des systèmes de VSA en toute illégalité depuis des années. Lisez notre analyse complète de cette victoire !

Lire l’article  : https://www.laquadrature.net/2024/07/17/premiere-victoire-contre-laudiosurveillance-algorithmique-devant-la-justice/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour boucler notre budget pour l’année 2024. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 14 septembre 2024 :« J’t’ai à l’oeil », triathlon vidéosurveillé à Montreuil, rendez-vous à Croix de Chavaux à 14h. Événement organisé par la LDH-section de Montreuil, avec la participation d’Amnesty international, de l’orchestre Le Grand Marcel et de La Quadrature du Net. Voir ici.
  • 25 septembre 2024 : Conférence « Vidéosurveillance algorithmique, dangers et contre-attaque » de La Quadrature du Net, à 18h15 à la Faculté des Sciences et Technologies de Nancy (bâtiment Victor Grignard, amphi 8), Vandoeuvre-lès-Nancy. Conférence organisée par le collectif Stop Vidéosurveillance 54.
  • 2 octobre 2024 : Réunion mensuelle du groupe Technopolice Paris-Banlieue au Bar commun, 135 rue des poissonniers à Paris 18e, à partir de 19h.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

Divers

Telegram

VSA (et JO)

Orléans

Algorithmes de France Travail

Veesion et supermarchés

Affaire Telegram : des inquiétudes dans un contexte de guerre contre les messageries, les réseaux sociaux et le chiffrement

Par : bastien
3 septembre 2024 à 07:15

Le dirigeant de la plateforme Telegram, Pavel Durov, a été placé en garde à vue il y a une dizaine de jours puis mis en examen mercredi dernier. Le parquet de Paris, qui communique opportunément sur l’affaire depuis le début, met en avant l’absence de modération sur la plateforme pour justifier les poursuites. Au-delà de cette question de modération et sans tomber dans la défense d’un service en ligne peu recommandable, les quelques éléments qu’a bien voulu rendre public le parquet et sa manière de présenter l’affaire interrogent fortement, dans un contexte de mise sous pression de la France et de l’Union européenne des messageries interpersonnelles et des réseaux sociaux.

Une confusion entre messagerie et réseau social entretenue par le parquet

Telegram est à la fois une messagerie personnelle et un réseau social. C’est une messagerie personnelle puisque ses utilisateur·rices peuvent avoir des conversations privées, via des discussions individuelles ou des groupes fermés. En cela, Telegram est similaire, sur le principe, à des SMS ou des messages sur Signal ou Whatsapp. Mais c’est également un réseau social dans la mesure où Telegram offre une fonctionnalité de canaux publics, dans lesquels il est possible de diffuser massivement un contenu, à un nombre très large de personnes qui peuvent s’abonner au canal.

Dans son dernier communiqué de presse sur l’affaire Telegram, le parquet de Paris se borne pourtant à présenter Telegram comme « une application de messagerie instantanée », ce qui laisse penser que la justice ne s’intéresserait qu’aux messages privés. Pourtant, les faits reprochés à la plateforme démontrent que c’est bien l’aspect « réseau social » qui est en cause. Cette confusion est étonnante puisqu’on ne pourra pas reprocher la même chose si les messages sont publics ou s’ils sont privés.

L’absence de modération des contenus publics signalés à Telegram est un problème. Comme le rappelait Access Now en début de semaine dernière, cette critique est faite à Telegram depuis plusieurs années. Mais l’absence de modération reprochée à la plateforme ne peut que concerner des contenus publiquement accessibles, c’est-à-dire ceux publiés sur des canaux publics de Telegram ou des conversations de groupe largement ouvertes. En effet, les intermédiaires techniques comme Telegram bénéficient d’un principe d’irresponsabilité du fait des usages faits par les utilisateur·rices de leur service, irresponsabilité qui ne peut être levée que lorsque la plateforme a été notifiée du caractère illicite d’un contenu qu’elle héberge et qui, malgré cette notification, a décidé de maintenir en ligne ce contenu. Pour que Telegram puisse avoir connaissance que certains messages sont illicites, il faut donc que ces derniers soient publics1Pour faciliter la compréhension du propos, on écartera volontairement le cas très particulier d’un message privé non-sollicité et illicite qui serait notifié par le destinataire : dans ce cas très précis, Telegram devrait également retirer de sa plateforme le contenu. afin de pouvoir être notifiés par des tiers.

Or, la communication du parquet est floue puisqu’elle entretient une confusion entre des messages privés et des messages publics. En lisant ses éléments de langage, on a le sentiment que le parquet reprocherait à Telegram de ne pas modérer les conversations privées. Une telle « modération » de contenus privés ne serait pourtant possible qu’en forçant la plateforme à surveiller de manière généralisée l’ensemble des contenus échangés sur son service, au mépris des principes éthiques et politiques les plus fondamentaux de secret des correspondances et de droit à la vie privée, et qui est explicitement interdit par le droit aujourd’hui.

Une affaire à remettre dans un contexte plus large

Notre crainte d’un parquet qui tenterait de forcer une interprétation du droit allant dans le sens d’une obligation de surveillance des conversations privées est notamment fondée par un contexte français de mise sous pression des messageries et des moyens de communication en général. Dans son dernier communiqué, le parquet reprend le même récit que dans les affaires Encrochat ou SkyECC : des téléphones avec Telegram sont apparus dans des dossiers criminels, ce qui justifierait l’enquête actuelle qui, aujourd’hui, conduit à poursuivre le dirigeant de la plateforme. Or, dans ces affaires Encrochat et SkyECC, la police française n’a pas hésité à compromettre l’intégralité de ces plateformes au motif, décidé au doigt mouillé, qu’elles seraient massivement utilisées par la grande criminalité. Le tri entre ce qui intéresse l’enquête pénale et le reste est fait après avoir décidé de la surveillance de toutes les communications échangées sur ces plateformes. Une telle logique est dangereuse : estimer qu’un service de messagerie pourrait être compromis dans son ensemble parce que la police estime que ses utilisateur·rices sont massivement des criminels est la porte ouverte aux pires abus : une surveillance de masse, décidée sur la base des seules analyses de la police (les affaires Encrochat et SkyECC ont montré que la présence d’un juge d’instruction n’est pas de nature à empêcher ces dérives) alors que n’importe quel service en ligne sera nécessairement utilisé un jour ou l’autre pour des activités illicites. Voici un scoop pour le parquet de Paris : Signal, Whatsapp ou Olvid sont aussi utilisées par des criminels.

La France n’est pas la seule à s’attaquer aux messageries. Depuis 2 ans et demi, la Commission européenne tente de forcer les messageries privées à surveiller automatiquement les conversations de leurs utilisateur·rices, avec son projet de règlement dit « CSAR », également appelé « Chat Control ». Malgré les multiples scandales autour de ce texte, la commissaire européenne Ylva Johansson continue son passage en force alors qu’elle est accusée de faire la promotion de l’industrie de la surveillance et de manipuler l’opinion en faisant de la communication en faveur du CSAR sur les réseaux sociaux grâce au ciblage de certaines personnes en fonction de leurs opinions politiques. Et dans cette bataille, la Commission européenne a réussi à rallier la France à sa position. La légitimité du CSAR est d’autant plus questionnable qu’il existe plétore d’autres moyens pour lutter contre les abus sur enfant que la surveillance des communications : éducation, prévention, réforme des institutions pour accompagner les victimes, …

À côté de cette mise sous pression des messageries, on assiste également en France à une attaque sans précédent contre les réseaux sociaux. Il y a à peine un an, alors que des violences urbaines éclataient suite au meurtre par un policier d’un adolescent en banlieue parisienne, le gouvernement accusait les réseaux sociaux de tous les maux. Emmanuel Macron annonçait qu’il voulait plus de pouvoir entre les mains de la police pour que celle-ci soit autorisée à bloquer l’accès à l’intégralité d’un réseau social en temps de crise, ou a minima pouvoir désactiver certaines fonctionnalités. En plein débat sur la loi SREN, et alors que le rapporteur du texte au Sénat était prêt à offrir ce nouveau pouvoir à la police, le gouvernement s’adonnait alors à un chantage inédit envers les plateformes consistant à brandir la menace d’une plus grande régulation des réseaux sociaux (avec plus de pouvoirs de censure policière) si ces derniers ne collaborent pas volontairement avec le gouvernement pour retirer des contenus. C’est dans ce contexte que Snapchat a admis devant l’Assemblée nationale avoir, suite à une convocation du ministère de l’intérieur, collaboré activement avec la police pour retirer des contenus dont l’illégalité n’était pas flagrante.

Pire encore, au moment des révoltes en Nouvelle-Calédonie en mai dernier, c’est le blocage de tout Tiktok qui a été exigé par le gouvernement à l’opérateur public calédonien qui fournit Internet sur l’archipel. Par une décision non-écrite, dont la justification fluctuait en fonction des commentaires dans la presse, le gouvernement a fini par trouver comme excuse à cette censure le fait que des contenus violents (mais probablement pas illégaux !) étaient diffusés sur Tiktok.

Avec cette affaire Telegram, nous espérons donc que le parquet n’est pas en train de passer à l’étape suivante, à savoir reprocher une complicité de Telegram du fait que des messages privés illicites, dont la plateforme ne pouvait avoir connaissance sans violer le secret des correspondances, auraient été échangés. À défaut d’avoir plus d’informations sur l’affaire, en particulier tant que nous n’en saurons pas plus sur la nature des messages ou des publications qui sont ciblées par le parquet, nous ne pouvons, au regard du contexte dans lequel s’inscrit cette affaire, exclure cette grave hypothèse.

L’affaire Telegram est aussi une attaque contre le chiffrement

L’affaire Telegram ne se résume pas à ces problèmes de modération : le parquet de Paris a précisé que l’affaire concerne également le « refus de communiquer, sur demande des autorités habilitées, les informations ou documents nécessaires pour la réalisation et l’exploitation des interceptions autorisées par la loi ». Il fait ici référence à l’article L. 871-2 du code de la sécurité intérieure, qui exige des opérateurs et des plateformes qu’elles collaborent avec l’autorité judiciaire en lui transmettant les « informations ou documents qui [lui] sont nécessaires pour la réalisation et l’exploitation des interceptions autorisées par la loi ». Autrement dit, opérateurs et plateformes doivent divulguer toute information qui permettrait une interception des communications dans le cadre d’une procédure judiciaire. C’est cet article qui, par exemple, oblige un opérateur téléphonique à donner à la police les éléments nécessaires pour mettre sur écoute un de ses clients. Mais la formulation de cette obligation est extrêmement floue, ouvrant la voie à des interprétations très larges2Cette disposition a d’ailleurs servi à couvrir l’accès illégal à des centaines de milliers de données de connexion par les services de renseignement intérieur avant leur légalisation en 2013 (Jean-Jacques Urvoas et Patrice Verchère, Rapport en conclusion des travaux d’une mission d’information sur l’évaluation du cadre juridique applicable aux services de renseignement, Commission des Lois de l’Assemblée nationale, 14 mai 2013, https://www.assemblee-nationale.fr/14/controle/lois/renseignement.asp). : au-delà du cas d’écoutes téléphoniques, elle s’applique également à d’autres formes de communications, et notamment au cas d’écoutes de l’ensemble du trafic Internet d’un internaute.

Pour comprendre quels documents Telegram pourrait divulguer pour qu’une interception judiciaire soit mise en place, il faut comprendre son fonctionnement technique. Lorsqu’un message est transmis via Telegram, les données sont envoyées depuis le téléphone ou l’ordinateur (c’est le « client ») jusqu’aux serveurs de Telegram. Ces messages du client aux serveurs sont chiffrés à l’aide de deux couches. La première couche de chiffrement utilisée est le fait que la connexion entre le client et les serveurs de Telegram est chiffrée par la technologie HTTPS. Puis, les messages entre le client et le serveur sont chiffrés par une deuxième couche de chiffrement, à l’aide d’un protocole maison appelée MTProto3Pour en savoir plus sur le chiffrement de Telegram, voir la synthèse de Matthew Green sur son blog et la présentation technique faite par Telegram. et qui fonctionne de manière assez similaire à HTTPS. Enfin, dans un cas très marginal activable sur demande explicite de l’internaute via la fonction de « message secret » (disponible uniquement pour les discussions individuelles), une fonctionnalité optionnelle de chiffrement de bout-en-bout est utilisée comme troisième couche de chiffrement entre deux clients.

Quels documents ou informations Telegram pourrait-il alors divulguer pour permettre à la justice de procéder à des interceptions ? Rien d’autre que les clés de chiffrement entre ses serveurs et chaque utilisateur·rice utilisées pour les deux premières couches de chiffrement : la clé privée du certificat HTTPS utilisé pour la première couche de chiffrement, et la clé privée du serveur utilisée par la deuxième couche de chiffrement. Lorsque la troisième couche de chiffrement n’est pas utilisée, une compromission des deux premières permet d’accéder aux conversations. Autrement dit, la seule manière pour l’autorité judiciaire de faire des interceptions de communications serait d’obtenir ces clés qui servent à chiffrer toutes les communications vers les serveurs de Telegram, donc d’obtenir de quoi violer le secret de toute correspondance sur Telegram qui ne serait pas également chiffrée par la fonctionnalité optionnelle de « message secret ».

Alors que le refus de communiquer ces informations est lourdement puni de deux ans d’emprisonnement et de 150 000 € d’amende, il semble qu’aucune condamnation n’ait jamais été prononcée (nous n’avons en tout cas trouvé aucune décision par un tribunal), probablement parce que forcer les plateformes à une telle compromission pose de sérieuses questions de conformité à la Constitution, notamment au regard du droit à la vie privée et du droit à la liberté d’expression.

Ici encore, en absence de plus de détails sur l’affaire, nous ne pouvons qu’émettre des hypothèses. Mais notre crainte est fondée sur un contexte d’attaques incessantes contre le chiffrement. Il faut ici rappeler l’affaire du 8-Décembre, dans laquelle La Quadrature s’est largement mobilisée aux côtés de plus de 130 personnes et organisations : le jugement de première instance a retenu, pour caractériser un soi-disant comportement clandestin justifiant une condamnation, le fait que les personnes mises en cause utilisaient des messageries chiffrées. Signalons également les attaques du gouvernement contre la confidentialité des communications : après l’attentat d’Aras, Gérald Darmanin surfait sur ce drame pour exiger l’ajout de portes dérobées dans les messageries, ciblant explicitement « Signal, Whatsapp, Telegram », tout en reconnaissant que le droit ne l’autorisait actuellement pas. Le parquet serait-il en train de forcer une autre interprétation du droit ? Nous le craignons.

De manière toute aussi choquante, le parquet invoque également une vieille obligation de déclarer « la fourniture ou l’importation d’un moyen de cryptologie n’assurant pas exclusivement des fonctions d’authentification ou de contrôle d’intégrité », qui exige notamment de mettre à disposition le code source dudit outil à l’ANSSI. Le fait de ne pas procéder à cette déclaration est punie d’un an d’emprisonnement et d’une amende de 15 000 euros. Il s’agit d’un délit archaïque en 2024, qui n’a d’ailleurs jamais été sanctionné à notre connaissance. Et pour cause : réguler ainsi les outils de chiffrement est anachronique, alors que le chiffrement est omniprésent au quotidien. Nouveau scoop pour le parquet : chaque responsable d’un site web sécurisant en HTTPS la connexion des internautes à son service fournit ou importe un « moyen de cryptologie ».

Des questions en suspens et un parquet à la manœuvre communicationnelle

Dans cette affaire, on observe également une communication millimétrée de la part du parquet. Ainsi, dès le lendemain de la garde à vue du dirigeant de Telegram, le parquet faisant fuiter par l’AFP le fait qu’était reproché à Telegram une absence de modération. Alors que, on l’a dit plus haut, l’absence de modération sur les canaux publics de Telegram est effectivement un problème, les « sources proches du dossier » (comprendre : le parquet) passaient sous silence les charges relatives à la fourniture ou l’importation d’un « moyen de cryptologie » sans déclaration et le délit de ne pas divulguer les documents permettant la mise en place d’interceptions judiciaires.

Autre coup de communication étrange du parquet : il semble avoir fait fuiter via Politico des extraits de documents judiciaires qui indiqueraient que « la messagerie a laissé “sans réponse” une demande d’identification d’un de ses utilisateurs dans une enquête de la police française sur des faits de pédopornographie »4Par souci de rigueur, on rappellera que cette fuite pourrait aussi provenir de la défense de Pavel Durov. Mais cela est peu probable compte tenu de la description négative de Telegram faite par cette fuite.. Cette information est, depuis, reprise un peu partout dans la presse. Il est vrai qu’une plateforme comme Telegram est tenue de communiquer, sur demande de la justice, les informations qu’elle détient sur un de ses utilisateur·rices (souvent il s’agit de l’adresse IP associée à un compte). Mais ne pas répondre à une telle réquisition judiciaire n’est sanctionné au maximum que d’une amende de 3750€. Il ne s’agit donc pas de faits qui justifient une garde à vue de 96 heures (ce qui n’est possible que pour des faits de criminalité grave).

On peut supposer qu’il est vrai que Telegram n’a pas répondu à une réquisition judiciaire demandant d’identifier un·e de ses utilisateur·rices ; ce serait cohérent avec la politique d’absence de retrait de contenu de la plateforme. Mais il ne s’agit ici que d’un élément de contexte, et non une incrimination : le communiqué de presse du parquet, qui liste les faits reprochés au dirigeant de Telegram ne fait d’ailleurs pas référence à l’absence de réponse aux réquisitions judiciaires.

Beaucoup de questions restent donc encore sans réponse. En l’absence d’éléments précis sur l’affaire, on ne peut à ce stade faire que des hypothèses. Mais les quelques éléments distillés par le parquet, qui n’est pas neutre dans cette affaire puisqu’il conduit l’enquête, sont préoccupants. Telegram n’est pas une plateforme recommandable : non-sécurisée, centralisée, aux mains d’une entreprise opaque, elle est aux antipodes des valeurs que défend La Quadrature. Mais comme lorsque le réseau social toxique Tiktok a été bloqué en Nouvelle-Calédonie, il s’agit ici de s’opposer à un dévoiement des règles du droit pénal dont les prochaines victimes seront les personnes que nous défendons : les internautes soucieux·ses de protéger leur vie privée, les messageries réellement chiffrées, les réseaux sociaux décentralisés. Alors pour nous permettre de continuer de jouer notre rôle de vigie, vous pouvez nous faire un don.

References[+]

References
1 Pour faciliter la compréhension du propos, on écartera volontairement le cas très particulier d’un message privé non-sollicité et illicite qui serait notifié par le destinataire : dans ce cas très précis, Telegram devrait également retirer de sa plateforme le contenu.
2 Cette disposition a d’ailleurs servi à couvrir l’accès illégal à des centaines de milliers de données de connexion par les services de renseignement intérieur avant leur légalisation en 2013 (Jean-Jacques Urvoas et Patrice Verchère, Rapport en conclusion des travaux d’une mission d’information sur l’évaluation du cadre juridique applicable aux services de renseignement, Commission des Lois de l’Assemblée nationale, 14 mai 2013, https://www.assemblee-nationale.fr/14/controle/lois/renseignement.asp).
3 Pour en savoir plus sur le chiffrement de Telegram, voir la synthèse de Matthew Green sur son blog et la présentation technique faite par Telegram.
4 Par souci de rigueur, on rappellera que cette fuite pourrait aussi provenir de la défense de Pavel Durov. Mais cela est peu probable compte tenu de la description négative de Telegram faite par cette fuite.

Jeux Olympiques : fichage de masse et discrimination politique

Par : noemie
30 juillet 2024 à 05:56

Les Jeux Olympiques viennent de débuter, la surveillance et la répression y sont reines. En vue de cet évènement, l’État a mis en œuvre tous les pouvoirs sécuritaires accumulés ces dernières années : drones, QR code, périmètres de sécurité, vidéosurveillance algorithmique, assignations à résidence, présence policière intense, hélicoptères… De façon inédite, l’ensemble de ces moyens sont employés en même temps et à une échelle très importante. Au gré de cet emballement répressif, une autre mesure exceptionnelle mérite l’attention : l’utilisation hors norme des fichiers de police pour écarter des emplois liés aux JO les personnes ayant des activités militantes. Une forme de discrimination fondée sur des critères opaques et proprement inacceptable.

Fouiller le passé au nom de la sécurité

En France, l’accumulation d’informations sur la population à travers le fichage est une pratique ancienne et énormément utilisée par la police et le renseignement. Mais depuis une vingtaine d’années le nombre de fichiers a explosé, tout comme le périmètre des informations collectées et des personnes visées. En parallèle, leurs usages ont été largement facilités, avec peu de contrôle, tandis que leur légitimité est de moins en moins contestée dans la sphère politique et médiatique. Rappelons – au cas où cela aurait été oublié – que dans une logique démocratique, l’État n’a pas à connaître ce que fait ou pense sa population et que ce n’est que par exception qu’il peut garder en mémoire certaines informations concernant les faits et gestes d’individus. Cependant, et nous l’observons malheureusement pour toute forme de surveillance, ces principes théoriques sont écartés au nom de la sécurité et de « l’utilité ». Toute information disponible peut dès lors être conservée de façon préventive, peu importe la proportionnalité, la nécessité ou le fait que cela transforme chaque personne exposant des informations personnelles en potentiel suspect. Avec les Jeux Olympiques, nous avons aujourd’hui un exemple d’où cette démesure, couplée à une criminalisation croissante du militantisme, mène.

En 2016, la loi relative à la procédure pénale a créé la notion de « grand évènement ». Définie par l’article L.211-11-1 du code de la sécurité intérieure, elle recouvre des évènements exposés « par leur ampleur ou leurs circonstances particulières, à un risque exceptionnel de menace terroriste». Lorsqu’un rassemblement est désigné comme tel par décret, toute personne y travaillant de près ou loin (technicien·ne, bénévole, soignant·e, agent·e de sécurité…) doit alors faire l’objet d’une enquête administrative. À la suite de cette enquête, le « service national des enquêtes administratives de sécurité » (SNEAS) créé en 2017 délivre un avis désormais contraignant. S’il est défavorable, la personne ne pourra alors pas se rendre et travailler sur l’évènement.

Si des sommets géopolitiques ont été qualifiés de « grand évènement », c’est également le cas pour le Festival de Cannes, la Route du Rhum ou la Fête du citron à Menton. Dès 2021, les Jeux Olympiques 2024 ont ainsi été désignés comme « grand évènement », englobant par là l’ensemble des infrastructures, sites et animations associés aux Jeux. Cela a donc impliqué que des enquêtes soient effectuées sur un nombre immense de personnes, à la fois les équipes et délégations sportives mais également toute personne devant travailler autour de cet évènement. S’agissant des Jeux Olympiques, le 17 juillet dernier, le ministre de l’intérieur annonçait que 870 000 enquêtes avaient été menées conduisant à écarter « 3 922 personnes susceptibles de constituer une menace sur la sécurité de l’événement ». Gérald Darmanin se targuait ainsi que « 131 personnes fichées S » et « 167 personnes fichées à l’ultragauche » s’étaient vu refuser leur accréditation. Mais derrière cet effet d’annonce, il y a une réalité, celle d’une surveillance massive et de choix arbitraires opérés en toute opacité.

Une interconnexion massive de fichiers

Concrètement, les agents du SNEAS interrogent un système dénommé « ACCReD », créé en 2017 et qui interconnecte désormais 14 fichiers. Le système ACCReD a été créé pour faciliter ce que l’on appelle les « enquêtes administratives de sécurité ». Ce type d’enquête est encadré par l’article L.114-1 du code de la sécurité intérieure. Originellement prévu pour le recrutement d’emplois dans les secteurs sensibles, elle est aujourd’hui utilisée pour un spectre bien plus large, dont l’instruction des demandes d’acquisition de la nationalité française et la délivrance des titres de séjour. La CNIL exigeait ainsi en 2019 que soit précisé le périmètre de ces enquêtes, d’autant qu’elles « conditionnent l’adoption de décisions administratives nombreuses, très diverses et ne présentant pas toutes le même degré de sensibilité1Voir la Délibération CNIL n°2019-06, 11 juillet 2019, portant avis sur un projet de décret modifiant le décret n°2017- 1224 du 3 août 2017 portant création d’un traitement automatisé de données à caractère personnel dénommé « Automatisation de la consultation centralisée de renseignements et de données » (ACCReD), accessible ici ».

ACCReD interroge de nombreux fichiers2Voir la liste complète à l’article R.211-32 du code de la sécurité intérieure aux périmètres et objets très différents. Parmi eux on retrouve le fichier de traitement des antécédents judiciaires (TAJ) qui rassemble les informations de toute personne ayant eu affaire à la police, même si celle-ci n’a pas fait l’objet de poursuite ou a été ensuite relaxée. Les personnes interpellées à l’occasion de manifestations ou d’actions politiques sont donc dans le TAJ. Contenant environ 20 millions de fiches, le TAJ est un véritable fourre-tout comprenant de nombreuses données incorrectes. Dans un rapport de 2019, des députés pourtant de droite dénonçaient même le dévoiement de sa finalité première « pour se rapprocher du rôle du casier judiciaire » et que « le fait que le TAJ contienne de nombreuses informations inexactes (erreurs diverses, absence de prise en compte de suites judiciaires favorables par l’effacement des données ou l’ajout d’une mention) [puisse] en effet avoir des conséquences extrêmement lourdes pour les personnes concernées par une enquête administrative. 3Didier Paris, Pierre Morel-À-L’Huissier, Rapport d’information sur les fichiers mis à la disposition des forces de sécurité, 17 octobre 2018, page 58, URL : https://www.assemblee-nationale.fr/dyn/15/rapports/cion_lois/l15b1335_rapport-information.pdf»

Il y a également le fichier des personnes recherchées (FPR) contenant les célèbres fiches S compilées de manière discrétionnaire par la police, le fichier des données relatives aux objets et véhicules volés ou signalés ainsi que le fichier d’information Schengen sur les personnes recherchées dans l’Union européenne. Mais ACCReD interroge aussi d’autres fichiers de renseignement politique comme le PASP et le GIPASP, contestés il y a quelques années en justice pour leur champ extrêmement large : opinions politiques, état de santé, activités sur les réseaux sociaux ou encore convictions religieuses… Ces fichiers ayant malgré tout été validés par le Conseil d’État, la police et la gendarmerie sont donc autorisées à collecter de nombreuses informations sur les personnes « dont l’activité individuelle ou collective indique qu’elles peuvent porter atteinte à la sécurité publique ou à la sûreté de l’État ». Cette définition large et floue permet en pratique de cibler de nombreuses personnes, et notamment des militant·es.

D’autres fichiers de renseignements sont interrogés mais ceux-ci sont classés secret-défense ou font l’objet de décrets non publiés, ce qui signifie qu’il est impossible de savoir précisément ce qu’ils contiennent et qui y a accès4L’ article 1er du décret n°2007-914 du 15 mai 2007 liste l’ensemble des fichiers de renseignement qui ne font pas l’objet de publication. Il en est ainsi du fichier de traitement des signalements pour la prévention de la radicalisation à caractère terroriste (FSPRT), du fichier CRISTINA, (pour « centralisation du renseignement intérieur pour la sécurité du territoire et des intérêts nationaux ») du fichier GESTEREXT (« Gestion du terrorisme et des extrémistes à potentialité violente ») géré par la Direction du renseignement de la Préfecture de Police de Paris (DRPP). Depuis fin 2023, l’extrait B2 du casier judiciaire, deux fichiers d’Interpol ainsi que deux fichiers de renseignement non publiés ont fait leur entrée dans ACCReD, en l’occurrence le fichier SIRCID (système d’information du renseignement de contre-ingérence de la défense) et le fichier TREX de la Direction générale de la sécurité extérieure (DGSE). Pour en savoir plus sur l’ensemble de ces fichiers, vous pouvez trouver des informations dans la brochure « La folle volonté de tout contrôler », qui propose également des modèles de courriers pour demander à accéder à ses données et faire supprimer des fiches.

On le comprend, à travers la consultation de ces fichiers – aussi appelé « criblage » – le SNEAS a accès a une montagne d’informations. Si le nom de la personne apparaît dans un ou plusieurs de ces fichiers, l’agent du service doit, en théorie, évaluer à partir des informations accessibles si son comportement ou ses agissements « sont de nature à porter atteinte à la sécurité des personnes, à la sécurité publique ou à la sûreté de l’État ». Si tel est le cas, il délivre un avis défavorable que l’organisateur de l’évènement est obligé de suivre et doit donc refuser d’employer la personne. Mais en pratique, il n’existe aucune information sur la manière dont cette évaluation est faite ni sur les critères utilisés pour évaluer un tel « risque ». Cette appréciation se fait donc de manière opaque et arbitraire, sur la base d’une définition large et floue, et la motivation du rejet ne sera jamais communiquée.

De plus, la loi précise bien que les enquêtes administratives ne peuvent pas concerner les spectateur·ices des grands évènements. Pourtant, le préfet de police Laurent Nuñez a affirmé lors d’une conférence de presse le 25 avril dernier que la préfecture avait « la possibilité de faire un certain nombre d’enquêtes » sur les spectateur·ices de la cérémonie d’ouverture. Le média AEF indique ainsi que l’entourage de Darmanin a évoqué « un criblage par la Direction du renseignement de la Préfecture de police (DRPP) de toute personne dont on pense sérieusement qu’elle présente un problème ». En effet, puisque les spectateur·ices étaient obligé·es de s’inscrire sur une plateforme, il était possible de récupérer leurs noms et de faire une enquête via des moyens détournés. En l’occurrence, la DRPP est un service de renseignement dit du « second cercle », qui dispose de nombreuses attributions, parmi lesquelles la consultation de fichiers identiques à ceux présents dans dans le système ACCReD. Ainsi, l’article R234-4 du code de la sécurité intérieure lui permet de consulter le fichier TAJ et l’article R236-16 l’autorise à accéder au PASP, c’est à dire les deux fichiers susceptibles de contenir des informations sur les activités politiques. Au nom des Jeux Olympiques, l’État et la préfecture de police contournent la loi et jouent avec le droit pour étendre toujours plus leur contrôle.

Une discrimination politique inédite

Alors que ce « criblage » a concerné des centaines de milliers de personnes, des récits relatifs à des refus d’accréditation ont commencé à émerger ces dernières semaines. Il en ressort que la principale cause potentielle de la mise à l’écart de certaines personnes réside dans leur activité militante, à l’instar de Léon, intermittent du spectacle dont le témoignage a été publié par Mediapart. Nous avons donc lancé un appel à témoignages, et ceux-ci se sont avérés nombreux. En voici quelques-uns (tous les prénoms ont été modifiés).

Jeanne est secouriste bénévole et l’association dont elle fait partie a été sollicitée pour les JO. Jeanne s’est donc proposée pour se mobiliser une semaine. En parallèle, elle milite contre le dérèglement climatique depuis plusieurs années et a notamment participé à différentes actions de désobéissance civile au cours desquelles elle s’est fait arrêter par la police, sans jamais être poursuivie ni condamnée. Début juin, le président de l’antenne locale de son association de secourisme a reçu une lettre de refus de l’organisation des JO. Elle ne pourra pas exercer comme secouriste durant les JO, malgré la demande.

Marc est salarié d’un opérateur de transport et devait travailler pendant les JO pour les dépôts de bus des accrédités et athlètes. Mais Marc fait partie d’Extinction Rebellion. Il a été contrôlé en manifestation et a participé à des actions de désobéissance civile, ce qui l’a mené à être arrêté et gardé à vue deux fois. Il est le seul des 300 personnes de son employeur mobilisées sur ces sites à s’être vu refuser son accréditation.

Simon devait travailler pour l’accueil du public dans un stade où il y a des épreuves des JO. Il avait déjà reçu son emploi du temps lorsqu’il a reçu son refus d’accréditation le 12 juillet dernier. Par le passé, il a été reconnu coupable pour entrave à la circulation dans le cadre du mouvement des Gilets jaunes, mais a été dispensé de peine. Il milite également au sein d’Extinction Rebellion et des Soulèvements de la Terre.

Juliette est une militante qui a subi quelques gardes à vue dans le cadre de manifestations. Poursuivie une fois, elle a été relaxée avec un stage de citoyenneté. Elle devait être bénévole en secourisme, mais n’a jamais reçu son autorisation, quand le reste des membres de son association l’ont eue.

Mathieu travaille depuis plusieurs années pour une chaîne de télévision comme opérateur de prise de vue. Il a milité pendant plus d’une dizaine d’années dans des associations de chômeurs avec lesquelles il a fait des actions d’occupation, ce qui l’a conduit à des interpellations et des gardes à vue il y a plus de 10 ans. Plus récemment, en 2020, il a été envoyé par une chaîne afin de filmer les militant·es d’Alternatiba lors de l’envahissement du tarmac de Roissy. Il a été arrêté avec elles et eux, et malgré sa lettre de mission et l’intervention de l’avocat de la chaîne, il a fait 12 heures de garde à vue. Depuis 2023, il se voit désormais refuser l’entrée des ministères au sein desquels il doit filmer, alors qu’il l’a fait pendant 20 ans. Pour les JO, il reçoit le même traitement de faveur : un avis défavorable du SNEAS qui l’empêche d’accéder au Paris Media Center. Même si son employeur est compréhensif, il est néanmoins beaucoup moins appelé qu’auparavant pour des missions de travail.

Camille devait travailler pendant les Jeux et animer des visites pour les touristes, via un opérateur affilié à Paris 2024. Elle participe à des activités de désobéissance civile depuis une petite année. Son identité a été relevée par les policiers au cours d’une de ces actions. Son nom a aussi été utilisé pour déclarer une manifestation dénonçant les violences sexistes et sexuelles devant une école de commerce, où étaient présents des agents des renseignements territoriaux. Elle a été prévenue la dernière semaine de juin qu’elle ne pourrait pas travailler pendant les JO. Elle n’a jamais obtenu de réponse de la part de l’adresse mail indiquée à laquelle elle a écrit pour contester.

Thomas, professionnel de l’audiovisuel, avait obtenu un contrat pour participer à la réalisation des Jeux afin d’opérer une prestation technique complexe. Début juillet, il est extrêmement surpris quand il reçoit un refus d’accréditation. Il n’a jamais eu aucune interaction avec la police à part pour une altercation en voiture, il y a longtemps. Il évolue dans un cercle amical militant et a participé il y a quelques années à des actions et réunions d’Extinction Rebellion, sans en avoir été organisateur. Il soupçonne donc être dans un fichier de renseignement.

Loris travaille pour l’hôtel de luxe du Collectionneur, dans lequel le comité international olympique réside pour les JO. Loris est délégué Syndical CGT et participe aux négociations annuelles qui ont lieu en ce moment. Mais il ne peut plus se rendre à l’hôtel – et donc négocier – depuis qu’il a reçu un avis négatif du SNEAS. Par le passé, il avait été interpellé et contrôlé par la police dans le cadre de sa participation à la défense de la cause arménienne. La CGT a publié un communiqué dénonçant cette situation inédite.

Théo, intermittent du spectacle, devait effectuer une mission de dix jours en tant que technicien afin d’installer les systèmes de sonorisation de la cérémonie d’ouverture. Il ne fait pas partie d’une association en particulier, mais a participé à un certain nombre de manifestations. Il a été interpellé l’année dernière lors des arrestations massives ayant eu lieu pendant le mouvement contre la réforme des retraites. Il est ressorti sans poursuite, mais il n’a pas pu travailler, faute d’avis favorable. Une situation très proche de celle d’Elie, également technicien son. Pour sa part, il avait fait une garde à vue après une manifestation étudiante le lendemain de l’annonce du recours au 49-3. Elie a aussi pu être arrêté – sans poursuite – au cours de free parties.

Une criminalisation aux conséquences concrètes

Au regard des situations décrites ci-dessus, il semble très probable que le SNEAS ait eu pour consigne d’écarter toute les personnes ayant un lien avec des actions militantes, sans une quelconque forme de nuance. La plupart d’entre elles se sont vu notifier abruptement cette décision, sans aucun moyen de la contester ou de faire un recours. Pour toutes ces personnes – et toutes les autres qui seraient concernées – un tel refus signifie faire une croix sur une mission, sur une activité souhaitée, et pour la majorité sur de l’argent sur lequel elles comptaient pour vivre. C’est aussi devoir se justifier et dévoiler sa vie privée à la structure qui les emploie ou celle où elles exercent, pour expliquer un tel avis défavorable, et risquer d’autres conséquences futures. Enfin, c’est comprendre qu’elles se retrouvent « marquées » comme de potentiel·les délinquant·es ou en tout cas comme une source de risques pour la sécurité.

Surtout, ces témoignages dévoilent non seulement l’ampleur de l’édifice de fichage qui s’est construit petit à petit mais également les potentielles applications concrètes de discrimination à une échelle importante. Couplée aux mécanismes « d’exception » développés en réaction aux attentats des années 2010 – dont les « grands évènements » font partie – cette accumulation d’information sur la population permet de façon bien concrète d’écarter des personnes de la société, en tant qu’« ennemis d’État ».

Au sein de La Quadrature du Net, nous avons connaissance de ces dispositifs, nous en suivons les terribles évolutions et nous en documentons les risques de potentielles utilisations liberticides. Ici c’est une application massive et plus que dangereuse qui s’est concrétisée au prétexte de sécuriser les Jeux Olympiques. Le système tentaculaire du contrôle policier et de la multiplication des fichiers de police montre une nouvelle efficacité : être en capacité – à très grande échelle – d’exclure, isoler, contraindre des individus et de les priver de leurs libertés en dehors de tout cadre judiciaire et par des décisions administratives arbitraires. Cela peut se faire en dehors de toute condamnation passée ou dans une forme de « double peine » possible à vie pour des condamnations pourtant très limitées. Loin de toute mesure supposément « ciblée » – comme le gouvernement aime le laisser entendre – il s’agit bel et bien d’une surveillance massive de la population sur laquelle est opérée un tri arbitraire et politique.

Cette discrimination politique s’accompagne de la répression et de l’invisibilisation de toute forme de critique des Jeux Olympiques. Des personnes ont été assignées à résidence, des manifestations ont été interdites sur le parcours de la flamme, des militant·es ont été arrêté·es notamment pour avoir collé des stickers dans le métro ou ont été considéré·es comme saboteurices pour des bottes de paille, tandis que des journalistes ont été placés en garde à vue pour avoir couvert une visite symbolique des dégâts causés par les Jeux en Seine-Saint-Denis, organisée par Saccage 2024. Cette répression inquiétante s’inscrit dans la continuité des discours et des volontés politiques visant à criminaliser toute forme d’activisme.

En régime représentatif, la critique du pouvoir et de ses institutions par des actions militantes est la condition de tout réel processus démocratique. Pourtant, en France, les formes de contestation – chaque jour plus essentielles au regard des urgences liées au dérèglement climatique et à la résurgence forte des idées racistes – sont de plus en plus réprimées, quels que soient leurs modes d’expression (manifestation, désobéissance civile, blocage, expression sur les réseaux sociaux…). Cette modification rapide et brutale de la manière dont sont perçues et bloquées des actions de contestation, qui étaient depuis toujours tolérées et même écoutées par les pouvoirs publics, renverse l’équilibre voulu en démocratie. Quand tout le monde ou presque peut être considéré comme une menace potentielle, quand on doit questionner ses opinions politiques pour obtenir un emploi, quand il apparaît acceptable que l’État en sache toujours plus sur sa population au nom d’un risque pour la sécurité qui est présenté comme permanent et impérieux, comment se prétendre encore du camp démocratique ?

Malgré une machine répressive lancée à pleine vitesse, malgré l’inquiétude légitime, il est néanmoins toujours plus urgent et crucial de continuer à militer, de continuer à organiser des actions pour se faire entendre. Cela demeure la meilleure méthode pour dénoncer les abus de pouvoirs et les dérives liberticides aujourd’hui amplifiées au nom de « l’esprit olympique ».

References[+]

References
1 Voir la Délibération CNIL n°2019-06, 11 juillet 2019, portant avis sur un projet de décret modifiant le décret n°2017- 1224 du 3 août 2017 portant création d’un traitement automatisé de données à caractère personnel dénommé « Automatisation de la consultation centralisée de renseignements et de données » (ACCReD), accessible ici
2 Voir la liste complète à l’article R.211-32 du code de la sécurité intérieure
3 Didier Paris, Pierre Morel-À-L’Huissier, Rapport d’information sur les fichiers mis à la disposition des forces de sécurité, 17 octobre 2018, page 58, URL : https://www.assemblee-nationale.fr/dyn/15/rapports/cion_lois/l15b1335_rapport-information.pdf
4 L’ article 1er du décret n°2007-914 du 15 mai 2007 liste l’ensemble des fichiers de renseignement qui ne font pas l’objet de publication

Veesion et surveillance en supermarchés : vraie illégalité, faux algorithmes ?

Par : martin
18 juillet 2024 à 08:41

Le vendredi 21 juin, le Conseil d’État a rendu une ordonnance de référé passée presque inaperçue concernant Veesion, la start-up française de surveillance algorithmique des « vols » en supermarchés. Bien qu’il s’agisse d’une procédure toujours en cours (l’affaire doit encore être jugée au fond), la justice administrative a conforté ce que nous soulignons depuis 3 ans : l’illégalité du logiciel conçu par la start-up de surveillance.

Autre fait passé inaperçu : la délocalisation à Madagascar d’une partie de travail de Veesion – et la possible remise en cause de l’authenticité de son algorithme.

La surveillance algorithmique, ce n’est pas que pour nos rues, villes, espaces publics. Comme les caméras, ces dispositifs de surveillance s’étendent, se normalisent et s’insinuent petit à petit dans nos quotidiens. Veesion est une start-up française qui vend un logiciel de surveillance algorithmique pour soi-disant détecter les vols en supermarché.

Concrètement, il s’agit d’installer sur les caméras des supermarchés un algorithme repérant des gestes considérés comme suspects pour détecter les « mauvaises intentions de possibles voleurs à l’étalage » (pour reprendre l’expression d’un publi-reportage de la société par le journal d’extrême-droite le JDD).

L’objectif est purement financier : promettre à ses clients (des grandes ou petites surfaces) une réduction de « plus de 60% des pertes liées au vol à l’étalage » et de sauver « 1 à 3% du chiffre d’affaires » qui leur serait subtilisé. Dans sa présentation en 2021 (sur un post Medium aujourd’hui supprimé), le créateur de Veesion allait plus loin : son logiciel devait protéger la grande distribution des troubles sociaux à venir du fait de la détresse sociale (comprendre : protéger les grandes surfaces des populations pauvres poussées au vol par la situation économique).

Le problème est double. Non seulement, Veesion se vante de faire du business sur la détresse sociale mais leur logiciel est également illégal. D’autant qu’il n’est pas certain que cet algorithme existe réellement.

Une start-up multiprimée, subventionnée… et purement illégale

La Quadrature du Net avait tiré la sonnette d’alarme dès le début : en surveillant les gestes de ses clients, la start-up analyse des données comportementales – dites biométriques – particulièrement protégées au niveau du droit français et européen. Un tel traitement est par principe interdit par l’article 9 du RGPD et l’article 6 de la loi Informatique et Libertés, et les exceptions à cette interdiction sont strictes. Or, aucune de ces conditions n’est applicable au dispositif de Veesion, qui bafoue donc cette interdiction.

Nous n’étions pas les seul·es à relever l’illégalité de Veesion : la CNIL l’avait dit (via plusieurs médias – en se fondant sur un motif d’illégalité différent), tout comme le ministère de l’intérieur. Même Veesion le savait. Bref, tout le monde savait que le logiciel développé par Veesion ne respectait pas le droit en vigueur (pour plus de détails, voir notre analyse de 2023)

Veesion n’a pourtant pas semblé être inquiétée le moins du monde. Pire encore, ces dernières années, elle attire des subventions, reçoit des prix, fait de la publicité dans les journaux, récupère des centaines de clients… Sur son site, Veesion parle même de milliers de commerçants. Un des co-fondateurs, Benoît Koenig, passe sur les plateaux de BFM, affirmant la légalité de son dispositif. En mars 2023, la start-up lève plus de 10 millions d’euros. En juin 2024, elle annonce plus de 150 salariés et plus de 8 millions de chiffre d’affaires.

Le capitalisme de surveillance n’a pas peur du droit

Après plusieurs années d’indécence, la récente ordonnance du Conseil d’Etat vient révéler que la CNIL a engagé une procédure contre Veesion en raison de l’illégalité de son logiciel. La CNIL a notamment souhaité en alerter l’ensemble de ses clients en obligeant à afficher dans les magasins concernés une information sur une telle infraction à la loi. Veesion a essayé de faire suspendre en urgence cette procédure et le Conseil d’Etat a rejeté la requête le 21 juin dernier.

Prenons les bonnes nouvelles où elles sont : c’est un petit coup d’arrêt à la vidéosurveillance algorithmique dans les supermarchés. À la veille des Jeux Olympiques, célébrations de la normalisation de l’algorithmisation de la surveillance publique, c’est un point positif à conserver.

Difficile néanmoins d’être entièrement convaincu·es.

Si nous n’avons pas accès à la décision de la CNIL, il est fort problable que celle-ci ait considéré le logiciel de Veesion illégal uniquement parce que les client·es des magasins ne peuvent pas s’opposer au traitement de leur image. Ce motif d’illégalité était déjà rappelé par la CNIL dans sa position de 2022 sur la VSA mais nous parait très limité sur le plan politique. C’est en effet une bien faible victoire qui empêche de remettre en cause le fondement même de l’algorithme et son aspect disproportionné et problématique. Non seulement la décision du Conseil d’État est une décision prise dans une procédure d’urgence (il reste à attendre la décision sur le fond de l’affaire qui arrivera dans plusieurs mois) et, de surcroît, Veesion a annoncé depuis que la CNIL avait pour l’instant suspendu sa décision en attente de nouveaux éléments de la part de l’entreprise.

Cette décision ne mettra de toute façon pas à terre plusieurs années de normalisation de ce logiciel. Personne ne demandera aux fondateurs de Veesion et à leurs associés de rembourser l’argent qu’ils ont touché sur leur business sordide. Personne ne viendra compenser les droits et libertés des personnes qui auront été espionné·es ou identifi·eés par cet algorithme. Alors même que les garde-fous contre la surveillance s’amenuisent petit à petit, les maigres barrières qui nous restent sont allégrement méprisées par ces entreprises de surveillance.

C’est d’ailleurs sans aucun doute une stratégie réfléchie, avec laquelle l’écosystème du business numérique s’accorde bien : normaliser une pratique illégale pour créer et asseoir un marché puis attendre du droit qu’il s’adapte à un état de fait, arguant de la création d’emplois et de l’innovation apportée. Lors de la consultation publique lancée par la CNIL sur le sujet en 2022, Veesion plaidait pour sa cause et expliquait à quel point cela serait un drame économique que de freiner cette technologie, sans jamais questionner ses conséquences sur les libertés.

Veesion semble être aussi passée à autre chose et cherche déjà à s’exporter aux États-Unis où le droit à la vie privée et la protection des données personnelles sont encore moins respectés. Médiatiquement, la décision du Conseil d’État ne semble aussi faire que peu de bruit – alors même que les supermarchés clients de Veesion sont nombreux, comme Carrefour, Leclerc ou BioCoop.

Délocalisation de la surveillance en supermarché à Madagascar

Un autre problème pour Veesion a été soulevé par les recherches effectuées par deux sociologues, Clément Le Ludec et Maxime Cornet, chercheurs à Télécom Paris, spécialistes sur le domaine de l’intelligence artificielle. Dans un article sur France Info passé lui-aussi relativement inaperçu (décidemment), les deux chercheurs sont revenus sur la sous-traitance à des travailleur·euses sous-payé·es dans des pays comme Magadascar par l’écosystème de l’IA. Les chercheurs s’inquiètent en particularité de la précarité de ces « travailleurs en bout de chaîne ».

L’article de France Info va plus loin : des personnes ayant été employées à Madagascar pour une société semblable à celle de Veesion disent avoir pour travail de repérer des vols en supermarchés directement sur le flux de vidéosurveillance des magasins : « Notre objectif c’est de trouver les vols. Ce sont eux qui envoient les vidéos, nous on les traite juste. En direct, en temps réel. Nous on envoie juste l’alerte et eux ils font l’arrestation des suspects ». Même si la société s’en défend, Veesion elle-même ne semble pas chercher à Madagascar des personnes pour améliorer un algorithme existant, mais au contraire pour « signaler des vols (…) dans les magasins le plus rapidement possible » ou pour « avertir le magasin d’un comportement douteux ».

En d’autres termes : il est possible que, pour une partie des clients de Veesion, il n’y ait pas vraiment d’algorithme pour repérer des comportements suspects dans un supermarché… mais seulement un·e travailleur·se précaire à l’autre bout du monde chargé·e de visionner le flux de caméra en direct et de repérer « à la main » ces gestes suspects, en imitant l’algorithme. En somme, la fable du turc mécanique.

Cela rejoint le travail des mêmes chercheurs publié en 2023 concernant une société de surveillance en supermarché non explicitement nommée mais qui ressemble beaucoup à Veesion. Clément Le Ludec et Maxime Cornet révèlent, concernant cette société, que les personnes employées à Madagascar « agissent avant tout comme des agents de sécurité à distance, détectant les vols presque en temps réel ».

À noter que Veesion s’appuie sur une double exploitation. Si une grande partie repose sur des personnes exploitées à Madagascar, les caissières et caissiers deviennent aussi des « travailleurs du clic ». Comme l’avait écrit lundimatin dans son article sur l’entreprise, le gérant du magasin conserve en effet le détail des interactions sur les écrans des employé·es, afin de vérifier leur réactivité aux alertes du logiciel : « Libre à lui alors de sommer ses employés d’être plus attentifs aux alertes de la machine en cas de non-retour de leur part ».

Il y a dans la société Veesion le concentré des dérives des start-ups sur le marché du numérique : banalisation des technologies de surveillance, non-respect affiché du droit, dépendance à de la main d’œuvre exploitée à l’autre bout du monde, et forte approximation autour de l’effectivité de son logiciel. Un tel exemple vient interroger l’effectivité du droit comme encadrement. Ces entreprises ne le respectent pas et récoltent pourtant une importante aide financière et médiatique.

Quand un cadre juridique n’est ni respecté par les entreprises concernées, ni appliqué par l’autorité qui en est responsable (ici, la CNIL agit mollement plusieurs années après la mise en œuvre du logiciel), c’est bien l’interdiction explicite de ces systèmes de surveillance qui doit primer. Alors pour agir et vous informer contre la VSA, rendez vous sur laquadrature.net/vsa ou aidez-nous si vous le pouvez en nous faisant un don.

Première victoire contre l’audiosurveillance algorithmique devant la justice

Par : bastien
17 juillet 2024 à 08:38

Plus de trois ans après notre recours, le tribunal administratif d’Orléans vient de confirmer que l’audiosurveillance algorithmique (ASA) installée par l’actuelle mairie d’Orléans – des micros installés dans l’espace public et couplés à la vidéosurveillance, destinés à repérer des situations dites anormales – est illégale. Ce jugement constitue la première victoire devant les tribunaux en France contre ce type de surveillance sonore et constitue un rappel fort des exigences en matière de droits fondamentaux pour les autres communes qui seraient tentées par de tels dispositifs.

Une claque pour Orléans et Sensivic

La ville d’Orléans et l’entreprise Sensivic se sont vu rappeler la dure réalité : déployer des micros dans l’espace public pour surveiller la population n’est pas légal. Les allégations de Sensivic d’un soi-disant produit « conforme RGPD » et les élucubrations d’Orléans en défense pour faire croire qu’il ne s’agirait que d’un inoffensif « détecteur de vibrations de l’air » n’auront servi à rien.

Dans son jugement, le tribunal administratif est sévère. Il commence par battre en brèche l’argument de la commune qui affirmait qu’il n’y avait pas de traitement de données personnelles, en rappelant que les dispositifs de micros couplés aux caméras de vidéosurveillance « collectent et utilisent ainsi des informations se rapportant à des personnes susceptibles, au moyen des caméras avec lesquelles ils sont couplés, d’être identifiées par l’opérateur ». Il en tire alors naturellement la conclusion que ce dispositif est illégal parce qu’il n’a pas été autorisé par la loi.

Mais le tribunal administratif va plus loin. Alors que l’adjoint à la commune d’Orléans chargé de la sécurité, Florent Montillot, affirmait sans frémir que cette surveillance permettrait de « sauver des vies », la justice remet les pendules à l’heure : « à […] supposer [le dispositif d’audiosurveillance algorithmique] utile pour l’exercice des pouvoirs de police confiés au maire […], il ne peut être regardé comme nécessaire à l’exercice de ces pouvoirs ». Autrement dit : « utilité » ne signifie ni proportionnalité ni légalité en matière de surveillance. Cela va à rebours de tout le discours politique déployé ces dernières années qui consiste à déclarer légitime tout ce qui serait demandé par les policiers dès lors que cela est utile ou plus simple sur le terrain. Cela a été la justification des différentes lois de ces dernières années telle que la loi Sécurité Globale ou la LOPMI.

Un avertissement pour la Technopolice

Ce jugement est un avertissement pour les promoteurs de cette surveillance toujours plus débridée de l’espace public. Si la vidéosurveillance algorithmique (VSA) reste la technologie la plus couramment utilisée – illégalement, sauf malheureusement dans le cadre de la loi JO – l’audiosurveillance algorithmique (ASA) n’est pas en reste pour autant. Avant la surveillance à Orléans par Sensivic, on l’a retrouvée à Saint-Étienne grâce à un dispositif d’ASA développé par Serenicity que la CNIL avait lourdement critiqué et fait mettre à l’arrêt.

Avec ce jugement, le tribunal administratif d’Orléans ne déclare pas seulement l’ASA illégale : il estime également qu’un contrat passé entre une commune et une entreprise pour mettre en place ce type de surveillance peut-être attaqué par une association comme La Quadrature. Cet élément est loin d’être un détail procédural, alors que des communes comme Marseille ont pu par le passé échapper au contrôle de légalité de leur surveillance en jouant sur les règles très contraignantes des contentieux des contrats.

La question du couplage de l’ASA à la vidéosurveillance classique

En septembre 2023, la CNIL, que nous avions saisie en parallèle du TA d’Orléans, considérait que cette ASA était illégale dès lors qu’elle était couplée à la vidéosurveillance en raison de la possibilité de « réidentifier » les personnes. Mais elle ajoutait qu’elle ne trouvait plus rien à redire depuis que le dispositif orléanais était découplé de la vidéosurveillance locale. Une analyse que nous avons contestée devant le TA d’Orléans1Voir nos observations d’octobre 2023 et celles de janvier 2024..

Dans son jugement, le tribunal administratif d’Orléans n’a pas explicitement considéré que l’ASA orléanaise ne serait pas un traitement de données si elle n’était plus couplée à la vidéosurveillance. Puisqu’il était saisi de la légalité de la convention entre Sensivic et Orléans, laquelle prévoyait ce couplage, il s’est borné à dire que le dispositif ASA et vidéosurveillance était illégal.

Dans tous les cas, ce point est annexe : l’audiosurveillance algorithmique exige, par nature, d’être couplée avec une source supplémentaire d’information permettant de traiter l’alerte émise. Que ce soit par un couplage avec la vidéosurveillance ou en indiquant à des agent·es de police ou de sécurité de se rendre à l’endroit où l’événement a été détecté, l’ASA visera toujours à déterminer la raison de l’alerte, donc d’identifier les personnes. Elle est donc par nature illégale.

Laisser-faire de l’État face à une technologie manifestement illégale

Impossible toutefois de passer sous silence la lenteur de l’administration (ici, la CNIL) et de la justice devant les dispositifs de surveillance manifestement illégaux de l’industrie sécuritaire. Alors même qu’un dispositif semblable avait été explicitement et très clairement sanctionné à Saint-Étienne en 2019, Sensivic a pu conclure sans difficulté une convention pour installer ses micros dopés à l’intelligence artificielle. Il aura fallu une double saisine de la part de La Quadrature pour mettre un terme à ce projet.

Un tel dossier prouve que l’industrie sécuritaire n’a que faire du droit et de la protection des libertés, qu’elle est prête à tout pour développer son marché et que l’État et le monde des start-ups s’en accommode bien. Comment Sensivic, avec une technologie aussi manifestement illégale, a-t-elle pu récolter 1,6 millions en 2022, dont une partie du fait de la BPI (Banque Publique d’Investissement) ? L’interdiction explicite de ces technologies de surveillance est la seule voie possible et tenable.

Ce jugement reste une victoire sans équivoque. Il annonce, nous l’espérons, d’autres succès dans notre combat juridique contre la Technopolice, notamment à Marseille où notre contestation de la VSA est toujours en cours de jugement devant la cour administrative d’appel. Alors pour nous aider à continuer la lutte, vous pouvez nous faire un don ou vous mobiliser dans votre ville.

References[+]

Affaires Lafarge – Dessaisir la Sous-direction anti-terroriste

2 juillet 2024 à 19:29

La Quadrature du Net est signataire de cette tribune que nous reproduisons ici.

Le 2 juillet, les 4 personnes mises en examen dans l’affaire dite « Lafarge » sont convoquées devant les juges d’instruction. Un collectif de 180 personnalités, avocats, magistrats, intellectuel·les de renom et activistes, dénoncent le rôle croissant de la Sous-Direction-Anti-Terroriste dans la répression des mouvements sociaux. « Si les gouvernements précédents ont donné toujours plus de latitude aux services anti-terroristes, les prochains ne se gêneront pas pour en profiter pleinement ».

Mais pour qui travaille la SDAT ?

Ce mardi 2 juillet, les 4 personnes mises en examen dans l’affaire dite « Lafarge », accusées d’avoir participé au désarmement de l’usine de Bouc-Bel-Air en décembre 2022, sont convoquées devant les juges d’instruction. Elles devront répondre de faits de dégradation et d’association de malfaiteurs, prétendument aggravés par le caractère de « bande organisée ». Peine encourue : 20 ans de prison. Les victimes de cette affaire – sacs de ciment, armoires électriques et autres véhicules de chantier – n’étant pas douées de parole, le parquet n’a pas osé qualifier ces faits de « terroristes ». Pourtant, c’est la Sous-Direction-Anti-Terroriste (SDAT), en collaboration avec la section de recherche de Marseille, qui est chargée de l’enquête, toujours en cours à ce jour.

C’est encore la SDAT qui a été saisie de l’enquête pour d’autres dégradations : peinture et mousse expansive sur le site Lafarge de Val-de-Reuil en décembre 2023. Parmi les 17 personnes initialement interpellées, 9 devront comparaître au tribunal d’Évreux à l’hiver prochain. À chaque fois, la SDAT a coordonné des opérations d’interpellations spectaculaires où l’on a pu voir des commandos cagoulés et armés défoncer les portes de dizaines de militant·es – quand ce ne sont pas celles de leurs voisins – pour les emmener dans les sous-sols de leurs locaux à Levallois-Perret.

L’enquête sur l’affaire Lafarge a permis et permet sans doute encore de traquer les déplacements, les relations et les conversations de centaines de personnes, et d’éplucher les comptes de nombreuses associations. Particulièrement alarmant, le dossier montre l’usage d’un mystérieux logiciel espion qui, à l’instar de Pegasus, est employé pour aspirer le contenu des téléphones et notamment celui des messageries cryptées, ou encore le fichier des titres d’identité (TES) détourné de manière abusive pour récolter les empreintes digitales (1). Plus largement, cette enquête fait planer la menace d’une perquisition sur la tête de quiconque aurait les mauvais ami·es, se serait rendu sur les lieux d’une manifestation, ou aurait le malheur d’être géolocalisé au mauvais endroit et au mauvais moment, comme de nombreux témoignages l’ont montré.

Pourquoi une telle opération ? La SDAT travaillerait-elle pour une des entreprises les plus toxiques de la planète, actuellement mise en examen par le Parquet National Anti-Terroriste pour complicité de crime contre l’humanité et financement du terrorisme ? La défense de Lafarge par les services français, déjà largement documentée dans le cadre du financement de Daesh, se reconduit-elle en France ?

La SDAT, service de police spécialisé, étroitement lié à la direction du renseignement intérieur, a régulièrement mis ses capacités d’exception au service d’intérêts politiques variés de l’État français. Les arrestations récentes de militants indépendantistes du CCAT en Kanaky par la même SDAT, et leur transfert à 17 000 km de chez eux, montre encore une fois le rôle de la police antiterroriste dans la répression des mouvements sociaux.

Dans l’affaire Lafarge, elle est saisie pour des enquêtes de simples dégradations sans mobile terroriste, quinze ans après la tentative infructueuse de faire tomber le fantasmatique groupe anarcho-autonome de Tarnac et quelques années après l’effarante affaire du 8 décembre qui avait provoqué l’incarcération de plusieurs personnes pendant des mois. De son propre aveu, il lui faut bien trouver des figures de l’ennemi intérieur pour justifier de son budget face à la baisse de la « menace djihadiste » et « chercher de nouveaux débouchés du côté de l’écologie ». Qu’importe si les enquêteurs de la SDAT reconnaissent que ceux qu’ils catégorisent comme appartenant à l’« ultra gauche » ne s’en prennent pas aux personnes mais aux biens.

Brandir la criminalité organisée pour des faits de dégradations a le mérite de créer de toute pièce une nouvelle menace repoussoir : celle de l’écoterroriste. Dans la lecture policière, une manifestation devient un commando, telle personne connue des services de renseignement pour son activité dans les mouvements sociaux devient cadre, ou encore coordinateur, ou logisticienne. On catégorise les membres présumés de cette bande en les faisant appartenir à un cercle dirigeant et stratégique ou à un cercle opérationnel. L’enquête, menée à charge contre les Soulèvements de la Terre a notamment permis, via la traque des supposés « cadres », de justifier une surveillance accrue à la veille de la manifestation de Sainte Soline en mars 2023. On est bien loin des événements de Bouc Bel Air. La SDAT assure bien sûr n’enquêter que sur des « faits », se défendant « d’enquêter sur un mouvement dans le but de le faire tomber » (10). L’affirmation prêterait presque à rire si les conséquences n’étaient pas aussi lourdes. Il suffit de rappeler que les arrestations dans l’affaire Lafarge ont eu lieu la veille de la dissolution des Soulèvements de la terre en Conseil des ministres, empêchant ainsi plusieurs de ses porte-parole de s’exprimer à un moment crucial.

La construction policière révélée par des rapports de synthèse fantasmagoriques est dangereuse parce qu’elle fabrique des figures qui ont pour fonction première d’orienter les décisions des magistrats instructeurs. Elle altère profondément le principe de présomption d’innocence et la garantie des droits pour les personnes poursuivies. Sur le fond, la saisie des services de la SDAT, dont « l’excellence » se mesure à sa capacité à s’exonérer du régime de droit commun de l’enquête(2) et aux moyens démesurés mis à sa disposition, pour des faits qui sont strictement en dehors de sa vocation, relève avant tout de la répression politique. François Molins lui-même, visage de la lutte anti-terroriste et procureur au tribunal de Paris de 2011 à 2018, s’inquiète du détournement par les préfets des dispositifs mis en place pour combattre les menaces d’attentats à des fins de maintien de l’ordre. À la veille des Jeux Olympique de Paris les « MICAS » Mesures Individuelles de Contrôle Administratif et de Sécurité commencent à tomber, elles constituent des équivalents des assignations à résidence en l’absence de l’état d’urgence qui les conditionnent normalement. Relevant de la lutte anti-terroriste, elles constituent une procédure amplement détournée pour priver des libertés de manifester et de se déplacer des militants qui pourraient déranger.

Si les gouvernements précédents ont donné toujours plus de latitude aux services anti-terroristes, les prochains ne se gêneront pas pour en profiter pleinement, tant l’outil à leur disposition est commode pour traquer les opposants et paralyser les mouvements sociaux. Dans cette période agitée où le RN est aux portes du pouvoir, les conséquences politiques de l’augmentation des moyens et du champ d’action de la police antiterroriste sont profondément dangereuses. Elles s’inscrivent dans une période d’extension de la surveillance de masse, d’aggravation des violences policières et de la répression judiciaire des mouvements de contestation. Puisque les intérêts économiques et idéologiques des puissances industrielles qui ravagent le monde convergent fortement avec ceux du RN, ce parti ouvertement climato-sceptique, on peut légitimement se demander : à quoi servira un outil tel que la SDAT s’il tombait aux mains de l’extrême droite ?

Pour toutes ces raisons, nous, participant·es ou soutiens des luttes écologiques, sociales et décoloniales, dénonçons le rôle croissant de la SDAT dans la répression des mouvements sociaux et écologistes. Nous, magistrat·es ou avocat·es, demandons qu’elle soit dessaisie des enquêtes sur des faits qui ne relèvent pas de ses compétences, à commencer par l’affaire Lafarge de Bouc Bel Air.

Notes : 

(1) Le fichier des titres électroniques sécurisés est une base de données gérée par le ministère de l’Intérieur qui rassemble les données personnelles et biométriques des Français pour la gestion des cartes nationales d’identité et des passeports français. 

(2) Hors contexte de terrorisme, les agents de police ont la possibilité d’anonymiser leur signature dans les actes de procédure si et seulement si une autorisation individuelle est délivrée par un magistrat dans une décision motivée. La SDAT ne s’encombre pas de cet encadrement et anonymise systématiquement ses actes.

Retrouvez la liste des signataires.

QSPTAG #311 — 28 juin 2024

Par : robinson
28 juin 2024 à 11:37

Les algorithmes punitifs de France Travail

À France Travail (ex-Pôle Emploi) comme à la CNAF, sous prétexte de « lutter contre la fraude » ou de pouvoir « individualiser » les dossiers, des algorithmes viennent noter, classer, et juger les bénéficiaires. Expérimentés chez France Travail depuis 2013, généralisés depuis 2018, ces algorithmes partent du principe que les allocataires sont malhonnêtes et abusent du système de l’assurance chômage, et leur attribuent un « score de suspicion » (le terme est utilisée par France Travail).

Mais l’agence a aussi imaginé d’utiliser des algorithmes pour remplacer la travail des conseiller·es et proposer des offres d’emplois — après tout, c’est déjà le cas pour Parcoursup et sur les applis de rencontre amoureuse… Loin de l’application d’un droit simple, on entre dans une politique de profilage et de tri des bénéficiaires. Scores « d’employabilité », « traitements des aspects motivationnels », « détection de signaux psychologiques » sont mobilisés pour détecter les « signes de perte de confiance » ou les « risques de dispersion ». Le calvaire social et intime qu’est le chômage devient un objet d’étude statistique affranchi de toute relation humaine, où les vies les plus fragiles sont normées, standardisées, formatées. Le même algorithmique qui diagnostiquera une « Dynamique de recherche faible » conseillera aussi l’employé·e de France Travail sur les actions à demander au bénéficiaire concerné… L’analyse détaillée est disponible sur notre site.

Lire l’article : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique/

Mobilisation contre les partisans de la surveillance totale

Nous le disons depuis des années : les outils numériques de la surveillance, sur Internet et dans les pratiques policières, sont des outils dangereux par essence. Ils ont pourtant toujours été adoptés, légalisés et encouragés par des gouvernements qui se présentaient comme des ennemis des positions « extrêmes » et promettaient la main sur le cœur qu’ils surveillaient les habitant·es du pays pour leur bien.

Aujourd’hui, l’extrême droite est à la veille de prendre le pouvoir. La responsabilité de ses prédécesseurs est énorme : ils offrent à un parti champion du racisme, de l’inégalité entre les personnes, de la violence et de la restriction des droits politiques, une magnifique machinerie de surveillance et de répression. Pour ces raisons, nous appelons chacune et chacun à se mobiliser le 30 juin, le 7 juillet et après, contre celles et ceux qui ont bâti ce système technique totalitaire, et contre celles et ceux qui comptent bien l’utiliser contre la population du pays.

Lire notre prise de position : https://www.laquadrature.net/2024/06/28/legislatives-la-surveillance-sur-un-plateau-brun/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 71% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/
et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/

Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

Divers

Législatives : la surveillance sur un plateau brun

Par : noemie
28 juin 2024 à 06:14

Alors que le choix d’Emmanuel Macron de dissoudre l’Assemblée nationale au lendemain des élections européennes risque de renforcer le poids de l’extrême droite, nous partageons l’inquiétude exprimée par beaucoup face au risque important que ce tremblement de terre politique fait peser sur la démocratie et les libertés. L’idéologie du Rassemblement National, entièrement tournée vers la création de droits différenciés sur des fondements racistes et réactionnaires, ne peut exister sans une structure de pouvoir forte et centralisée. C’est pourquoi nous ne doutons pas qu’un gouvernement d’extrême droite utilisera et renforcera la surveillance de la population pour exercer son pouvoir. Il aura, par exemple, besoin du fichage pour identifier les personnes à qui retirer des droits, de l’écosystème de surveillance pour traquer les personnes qu’il veut expulser, maltraiter ou enfermer ou encore des lois de censure et coercitives pour faire taire les oppositions anti-fascistes.

Il n’a pas fallu attendre le parti lepéniste pour que la surveillance autoritaire s’installe dans notre quotidien. Cette dernière décennie, au nom de « l’efficacité », de la « crise » ou encore de « l’urgence », François Hollande puis Emmanuel Macron ont adopté – avec le soutien de la droite et l’extrême droite – de nombreuses mesures sécuritaires et multiplié les dispositifs de surveillance tout en écartant les garde-fous et contre-pouvoirs. Des gouvernements se disant modérés ont systématiquement justifié la légalisation des technologies de surveillance, au motif qu’elles étaient adoptées dans un cadre démocratique et seraient « correctement » utilisées. Il s’agit évidemment d’un aveuglement dangereux.

Par essence, les outils de surveillance ne sont jamais neutres dès lors qu’ils donnent à un État la capacité de connaître, et donc de contrôler, sa population. Dès leur création, ils portent en eux un objectif de détecter les « signaux faibles » et trouver « l’ennemi intérieur ». Les dérives discriminantes font intégralement partie de la logique de ces technologies mais sont exacerbées lorsque celles-ci sont dans les mains de l’extrême droite. Ainsi, comme nous l’avions expliqué, l’édifice du fichage policier, pensé en France dès la fin du XIXe siècle et construit petit à petit pendant plusieurs décennies, était déjà mûr lorsque le régime de Vichy a été instauré en 1940. La possibilité que ces fichiers servent à identifier et arrêter des personnes était en réalité intrinsèque à ce système et il a simplement suffit au pouvoir pétainiste d’en ajuster les usages.

Les mêmes logiques aveugles se répètent. Les gouvernements successifs ont depuis vingt ans installé et banalisé les outils qui serviront à l’extrême droite pour mettre en oeuvre le monde ségrégué, injuste et autoritaire pour lequel elle milite depuis des années.

Une administration toute puissante

Le premier point de bascule est sans aucun doute l’état d’urgence de 2015. Il a bouleversé le fonctionnement de l’État de droit en modifiant les équilibres historiques des institutions. Le rôle des juges judiciaires, censés être les seuls à pouvoir restreindre les libertés individuelles selon la Constitution, a été réduit au profit du rôle confié à l’administration, au prétexte que celle-ci pourrait agir plus vite. De nombreux abus ont été constatés lors de l’état d’urgence avec l’utilisation de mesures visant massivement des personnes musulmanes ou des activistes écologistes. Ce régime d’exception a été prolongé par la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » (SILT) de 2017, qui l’a fait entrer dans le droit commun. Désormais, le ministre de l’intérieur peut demander des assignations à résidence ou des interdiction de paraître, au nom de la prévention du terrorisme, avec une simple information à un procureur.

Ce renforcement des pouvoirs de l’administration s’est propagé au-delà du cadre anti-terroriste. Petit à petit, depuis 2015, elle a réactivé ou obtenu de nombreux pouvoirs. Il est ainsi devenu de plus en plus fréquent que des préfets interdisent des manifestations ou des interventions au nom de l’ordre public. Depuis 2023, ils ont également la possibilité d’utiliser des drones de surveillance ou, depuis 2021 au nom de la loi Séparatisme, de priver des associations de leurs subventions. Depuis la loi sur les Jeux olympiques et paralympiques de 2023, ils peuvent également expérimenter la vidéosurveillance algorithmique. Pouvons-nous sérieusement imaginer qu’un gouvernement d’extrême droite se privera d’utiliser ces larges pouvoirs ? Assignation à résidence de militant·es de gauche, multiplication des drones au dessus des quartiers populaires ou encore interdiction d’évènements antiracistes, les préfets nommés par le RN auront de nombreux leviers répressifs à leurs disposition.

Le ministre de l’intérieur a, quant à lui, réinvesti la possibilité de dissoudre des associations. Avant même la réforme législative ouvrant une ère de dissolutions massives, le ministre de l’intérieur a commencé par des organisations musulmanes telles que le CCIF, puis il s’est attaqué aux groupes d’extrême gauche comme le Bloc lorrain ou la Défense collective à Rennes. Des dissolutions que Jordan Bardella a promis d’amplifier encore davantage.

Une justice affaiblie

L’augmentation des pouvoirs de l’administration s’est accompagnée d’une remise en cause des principes fondateurs de la justice. Avec la création de l’amende forfaitaire délictuelle, le juge judiciaire a ainsi été mis à l’écart dans un domaine qui lui était initialement réservé. Depuis 2016, le législateur peut prévoir que, pour certaines infractions, les poursuites pénales s’arrêteront automatiquement lorsque la personne poursuivie paye une amende. Autrement dit, la police peut désormais faire pression sur les personnes en leur proposant un choix cornélien : faire valoir leurs droits devant un juge ou s’acquitter de quelques centaines d’euros pour s’arrêter là. Ces dernières années, les délits concernés par l’amende forfaitaire délictuelle ont été considérablement élargis, avec par exemple la consommation de stupéfiants ou, pendant le confinement en 2020, le fait de sortir de chez soi sans attestation.

Mais c’est surtout sur internet que ce contournement du juge a été le plus assumé. Depuis 2014 et une loi portée par Bernard Cazeneuve, la police peut exiger seule que des sites internet retirent des contenus qu’elle estime être à caractère « terroriste ». Alors que nous avons toujours dénoncé les risques de censure politique et d’arbitraire de ce mécanisme confié à l’administration, en l’occurrence l’Office anti-cybercriminalité, nos craintes ont été confirmées à plusieurs reprises. Désormais, les plateformes en ligne et les réseaux sociaux vont jusqu’à collaborer activement avec le gouvernement quand celui-ci leur demande de retirer des contenus. Ainsi, lors des émeutes de l’été 2023, le ministère de l’intérieur a « convoqué » certains réseaux sociaux, et Snapchat a publiquement admis avoir retiré des contenus sur demande du gouvernement et en dehors de toute procédure légale. Pire : lorsque Gabriel Attal a pris la décision illégale de censurer le réseau social Tiktok en Nouvelle Calédonie, au motif que cette plateforme aurait joué un rôle dans les émeutes sur l’île, il a instauré un précédent inédit d’atteinte à la liberté d’expression que nos institutions ont échoué à empêcher. On pressent alors comment une censure des critiques contre l’extrême droite pourrait être facilitée par cet état des choses.

Technopolice partout

En parallèle, les capacités de surveillance de la police ont été énormément renforcées. Le nombre de fichiers (créés par simple décret) a explosé, leur accès s’est élargi et le contrôle des abus est quasi inexistant (la LOPMI de 2022 a même enlevé l’exigence formelle d’habilitation pour les consulter). La prise de signalétique (ADN, empreintes digitales et photo du visage) ainsi que la demande de code de déverrouillage du téléphone sont devenues systématiques pour faire pression sur les personnes gardées à vue, bien que cela soit généralement illégal car décorrélé de toute infraction annexe. Par ailleurs, l’exploitation de ces informations peut désormais être faite dans la rue, via des tablettes mobiles permettant aux gendarmes et policiers d’accentuer le harcèlement des personnes contrôlées.

Les technologies aussi ont évolué : la reconnaissance faciale s’est banalisée et est fréquemment utilisée dans les procédures judiciaires à travers le fichier TAJ, des logiciels d’analyse des métadonnées permettent de créer très facilement des graphes sociaux et de pister les habitudes des personnes, les logiciels espions peuvent désormais être utilisés pour activer à distance la fonction de géolocalisation d’un appareil mobile, et la police dispose de plus en plus d’outils de surveillance en source ouverte (OSINT). Par ailleurs, depuis 2016, cette dernière est autorisée à utiliser des techniques encore plus intrusives comme la sonorisation des lieux, la captation des données informatiques, les IMSI catchers, la captation d’images ou l’infiltration dans les procédures liées à la « criminalité organisée ». Cette catégorie recouvre des infractions très larges, et fut notamment invoquée pour poursuivre des militants écologistes qui ont bloqué une cimenterie Lafarge, ou pour justifier l’arrestation de militants indépendantistes kanaks en juin 2024.

Les services de renseignement ne sont pas en reste depuis la formalisation de leurs pouvoirs de surveillance par la loi Renseignement de 2015. Nous avons ainsi dénoncé le fait que cette loi légalise la possibilité d’utiliser de nombreux moyens de surveillance intrusifs, pour des finalités très larges, et notamment la surveillance des militant·es. Ces possibilités d’abus se sont concrétisées au fur et à mesure des années, au travers par exemple de la surveillance des gilets jaunes, ou de divers cas où des militant·es ont retrouvé du matériel de surveillance les visant (on pourra citer en exemple la caméra cachée devant l’espace autogéré des Tanneries à Dijon, le micro dans une librairie anarchiste à Paris, ou la balise GPS sous la voiture de Julien Le Guet du collectif Bassines Non Merci).

Dans son rapport d’activité pour l’année 2022, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s’est d’ailleurs inquiétée de l’accroissement de la surveillance des militants. Elle a également alerté sur l’insuffisance de ses capacités de contrôle, qui l’empêche de suivre les dernières évolutions technologiques, notamment s’agissant des spywares et autres intrusions informatiques à distance.

Enfin, des précédents dangereux ont été créés avec l’élargissement continu de la justice d’exception applicable en matière de terrorisme, et l’implication grandissante des services antiterroristes dans des affaires politiques. L’affaire dite du « 8 décembre » est un triste exemple : la décision rendue fin décembre 2023 par le tribunal correctionnel de Paris confirme que des militant·es de gauche peuvent être poursuivis et condamné·es pour association de malfaiteurs à caractère terroriste sur la base de suspicions d’intention, sans projet avéré, et que protéger ses communications peut être utilisé comme une preuve de « comportement clandestin » pour justifier la condamnation.

La surveillance et la répression des mouvements militants, écologistes ou anti-autoritaires notamment, n’est plus une crainte, mais une réalité, d’autant qu’elle est accompagnée depuis plusieurs années d’un discours nourri visant à criminaliser toute forme de contestation en dehors du simple cadre électoral (actions syndicales, manifestations de rue, etc.). Elle n’en serait que pire sous une majorité RN.

Des gardes-fous illusoires

On le comprend, les dispositifs de surveillance et de répression sont déjà là et les gardes-fous institutionnels et politiques ne permettent plus de freiner les volontés politiques autoritaires. Nous le constatons avec dépit depuis des années : le droit n’empêche pas l’installation massive de technologies de surveillance sur la population. Le Conseil d’État a validé la légalité de quasiment tous les fichiers de police qui ont ont été contestés devant lui, y compris le fichage politique et religieux du PASP et du GIPASP.

Le Conseil constitutionnel, quant à lui, estime quasi systématiquement que les lois protègent suffisamment les libertés, le plus souvent en reportant le contrôle au cas par cas sur d’autres instances, comme les tribunaux administratifs, incapable de prévenir des abus systémiques dans l’usage de mesures de surveillance. Ce report du contrôle de légalité par le Conseil constitutionnel au juge administratif a également pour conséquence de faire peser la charge de la contestation légale sur la société civile ou les personnes victimes de cette recrudescence de surveillance, qui doivent aller en justice pour demander le respect des libertés. Sans grand succès, il faut bien l’admettre, vu le faible nombre de victoires.

Enfin, sur le plan matériel, les autorités administratives indépendantes comme la CNCTR ou la CNIL ne peuvent raisonnablement pas contrôler chaque action des forces de l’ordre et des services de renseignement. Concernant le cas particulier de la CNIL, on constate également chez elle une absence de courage politique qui explique son inaction, voire une volonté d’aider le gouvernement à légaliser de nouvelles mesures de surveillance comme ce fut le cas des drones ou de la VSA.

Si le constat a de quoi effrayer, il est loin d’être étonnant. Cela fait des années qu’associations, juristes, universitaires, militant·es de terrain alertent sur ce lent dépérissement de l’État de droit. Il suffit désormais au Rassemblement National de marcher dans les pas des gouvernements précédents et de se servir de l’arsenal législatif déjà existant. Son programme est profondément raciste, sexiste et LGBT-phobe et ne cache même plus son ambition de réduire les libertés et les droits individuels. Nous n’osons même pas nous figurer la facilité avec laquelle ce parti aurait à mettre en place ses mesures autoritaires et ses politiques de restriction des droits dès lors qu’il disposera des dispositifs mis en place ces dernières années.

Face à cette menace, nous appelons à la mobilisation pour ne pas voir ces outils de surveillance et de répression tomber dans les mains du Rassemblement National, ni laisser l’occasion aux « extrêmes-centristes » d’Emmanuel Macron de détruire les derniers garde-fous de l’État de droit. Nous appelons à militer et à voter massivement contre la droite et l’extrême droite aux prochaines législatives.

À France Travail, l’essor du contrôle algorithmique

Par : myriam
25 juin 2024 à 11:37

Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.

« Score de suspicion » visant à évaluer l’honnêteté des chômeur·ses, « score d’employabilité » visant à mesurer leur « attractivité », algorithmes de détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les expérimentations de profilage algorithmique des personnes sans emploi.

Après avoir traité de l’utilisation par la CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-Pôle Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de numérisation forcée du service public de l’emploi. Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab.

Au nom de la « rationalisation » de l’action publique et d’une promesse « d’accompagnement personnalisé » et de « relation augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social.

De la CAF à France Travail : vers la multiplication des « scores de suspicion »

C’est, ici encore, au nom de la « lutte contre la fraude » que fut développé le premier algorithme de profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants »1Voir cette note de synthèse revenant sur les premières expérimentation faites par Pôle Emploi., France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à Cap Gemini, une multinationale du CAC402Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring..

La notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’escroquerie » grâce à l’exploitation de « signaux faibles »3L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.. Une fois l’ensemble des personnes sans emploi notées, un système d’« alertes » déclenche ainsi des contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée)4L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document..

Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du RGPD5Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la surveillance numérique à l’œuvre, tout comme les risques de discriminations que ce système comporte6Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page..

Profilage psychologique et gestion de masse

Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme Intelligence Emploi7Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.. Son ambition affichée est de mettre l’intelligence artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son potentiel de recrutement »8Rapport annuel 2018 de Pôle Emploi disponible ici..

Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques »9Voir cette note envoyée par Pôle Emploi à la DINUM.. En son sein, deux cas d’usage retenus sont particulièrement frappants.

Le premier est le développement d’algorithmes visant à « anticiper les éventuels décrochages », prévenir les « risques de rupture »10Voir cette note envoyée par Pôle Emploi à la DINUM. ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité »11Voir ce support de webinaire..

Ces travaux ont trouvé, au moins en partie12En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement., un premier aboutissement dans l’outil du Journal de la Recherche d’Emploi (JRE) actuellement expérimenté dans plusieurs régions de France13Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de redynamisation » ou les « risques de dispersion »14Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici..

Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « diagnostic de situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « conseils personnalisés » générés par un dernier algorithme15Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es..

Contrôle, mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse »16Voir cette interview du directeur actuel de France Travail..

Diagnostic et score d’employabilité

Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité »17Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle18Voir cette note envoyée par Pôle Emploi à la DINUM en 2020. – a été développée en 202119Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021..

L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de tri des chômeur·ses, il vise à organiser la « priorisation des actions d’accompagnement »20Voir cette note envoyée par Pôle Emploi à la DINUM en 2020. en fonction d’un supposé degré d’autonomie de la personne sans emploi.

Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la recherche d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil »21Voir ce document sur l’utilisation de l’IA à Pôle Emploi.. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « métiers en tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

Agenda partagé & agences virtuelles

Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « XP RSA »22Voir ce document de présentation de XP RSA., l’outil numérique déployé dans le cadre de la récente réforme du RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « heures d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le flicage des plus précaires.

Côté IA, France Travail a lancé en 2024 le programme « Data IA »23Voir ce document de présentation du programme Data IA., successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une IA générative visant à numériser l’accompagnement et la recherche d’emploi (« Match FT »)24Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.. France Travail s’intéresse aussi aux « maraudes numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi »25Voir ce tweet. et au développement d’« agences virtuelles »26Voir ce tweet..

Austérité, automatisation et précarisation

La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes27Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal.. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi28Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon..

À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des conditions de travail toujours plus dégradées29Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal..

Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé »30Voir, entre autres, cette vidéo du responsable du programme Data IA. aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’exclusion des plus précaires, voire tend à une généralisation du non-recours aux droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge31Voir le livre L’Etat social à distance de Clara Deville..

En standardisant les processus d’accompagnement, via la quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé32Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD..

En facilitant le contrôle généralisé, elle accentue enfin la stigmatisation des plus précaires et participe activement à leur paupérisation.


Mise à jour du 12 juillet 2024

À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, a souhaité exercer son droit de réponse que nous publions ci-dessous in extenso.

Madame, Monsieur,

Je reviens vers vous suite à mon précédent courrier du 2 juillet.

Bien que le délai de 3 jours prévu à l’article 1.1-III de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique soit aujourd’hui expiré, je constate que le droit de réponse qui vous a été adressé n’a pas été publié. Pour rappel, le non-respect de cette obligation est passible d’une amende de 3 750 €.

Aussi, je réitère par la présente ma demande de publication d’un droit de réponse suite à la parution le 25 juin 2024 de l’article intitulé « A France Travail, l’essor du contrôle algorithmique » (librement accessible à l’adresse : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique/).

Dans cet article, vous évoquez un « service public de l’emploi largement automatisé », ainsi qu’une utilisation des algorithmes qui « contribue à la déshumanisation d’un service essentiel », favorise « la stigmatisation des plus précaires et participe activement à leur paupérisation » et constitue « un pas supplémentaire vers le flicage des plus précaires ». Il s’agirait d’une « extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social », cette « numérisation à marche forcée ser[van]t avant tout à contrôler les personnes sans emploi ». Vous faites également état de « la fermeture des points d’accueil ».

Nous nous inscrivons en faux contre ces propos erronés qui conduisent à jeter un discrédit sur le travail des plus de 55 000 collaborateurs qui accompagnent chaque jour les demandeurs d’emploi et les entreprises et à travestir la réalité concernant l’usage que nous faisons de ces algorithmes.

L’utilisation des algorithmes au sein de France Travail ne vise en aucun cas à remplacer le travail des conseillers. L’intelligence artificielle (IA) vient en complément et ne se substitue jamais à une intervention humaine. Au contraire, nous concevons les algorithmes et l’IA comme des outils d’aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l’accompagnement des demandeurs d’emploi.

Toute utilisation d’algorithmes est en outre encadrée par une charte éthique (https://www.francetravail.org/accueil/communiques/pole-emploi-se-dote-dune-charte-pour-une-utilisation-ethique-de-lintelligence-artificielle.html?type=article) qui décrit nos engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l’opposé de toute « notation de chômeurs » que vous pointez dans votre article. Un comité d’éthique externe composé de personnalités qualifiées garantit le respect de ce cadre. En aucun cas, les algorithmes ne sont utilisés pour « encourager les demandeurs d’emploi à accepter des emplois au rabais ».

Concernant la « mécanisation » ou la « déshumanisation » de l’accompagnement que vous avancez, c’est méconnaitre le travail que réalisent les conseillers quotidiennement dans plus de 900 agences ou par téléphone. Aucun projet de fermeture d’agence n’est d’ailleurs envisagé contrairement à ce que vous dites et France Travail est un des rares services publics à être ouvert tous les jours, sur flux le matin et sur rendez-vous l’après-midi. Plus de 8,8 millions de personnes sont venues dans nos agences l’année dernière. Cet accueil en agence reflète justement notre politique de proximité et d’accompagnement notamment des plus précaires. L’ambition de la loi pour le plein emploi est en outre de renforcer l’accompagnement humain des plus éloignés, en particulier des bénéficiaires du RSA.

Vous parlez enfin de « flicage des plus précaires » à travers l’utilisation d’algorithmes concernant le contrôle de la recherche d’emploi et la lutte contre la fraude. Il convient tout d’abord de souligner que ce sont deux activités distinctes, le contrôle de la recherche d’emploi ne saurait être assimilé à de la lutte contre de la fraude, qui est, par définition, une activité illégale et susceptible de poursuites pénales. Sur ce dernier point, l’utilisation des données dans la lutte contre la fraude vise avant tout à protéger nos usagers. En effet, la majorité des situations recherchées par les équipes de France Travail ne concerne pas des demandeurs d’emploi mais des individus qui détournent les services d’indemnisation du chômage, bien souvent au préjudice de nos usagers : usurpation d’identité des demandeurs d’emploi pour s’approprier leurs droits à l’assurance chômage ou détourner leurs paiements, individus se fabricant un faux passé professionnel ou une fausse résidence en France pour ouvrir des droits indus. Concernant le contrôle de la recherche d’emploi, là encore nous réfutons vivement l’idée selon laquelle nous mènerions une chasse aux plus précaires. Tout demandeur d’emploi inscrit à France Travail bénéficie de droits mais a également des devoirs qui lui sont présentés dès son inscription, dont celui de rechercher activement un emploi. 600 conseillers sont dédiés à ce contrôle et là encore, l’IA est un outil d’aide et en aucun la pierre angulaire des contrôles réalisés par ces conseillers en contact avec les demandeurs d’emploi tout au long de ce processus de contrôle. Là encore votre article méconnaît le travail de nos conseillers et constitue une atteinte à leur engagement et à leur intégrité.

Je vous remercie de publier sans délai ce droit de réponse. A défaut, je me réserve la possibilité de saisir les juridictions à cet effet.

Je vous prie d’agréer, Madame, Monsieur, l’expression de mes sincères salutations.

Thibaut Guilluy

Notre réponse :

À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, nous a initialement écrit pour faire des remarques d’ordre général sur notre article. Puis, dans une nouvelle lettre reçue aujourd’hui, il est subitement passé aux menaces : nous n’aurions, selon lui, pas fait droit à sa prétendue « demande de publication d’un droit de réponse ». Ces menaces sont particulièrement malvenues et, au demeurant, totalement vaines, puisque rien dans son courrier initial n’indiquait qu’il s’agissait d’une demande de droit de réponse…

Le directeur général de France Travail s’en tient à une poignée d’éléments de langage sans jamais répondre sur le fond. Pas un mot sur la multiplication des algorithmes de profilage à des fins de contrôle. Tout au plus y apprend-on que des algorithmes d’IA sont aussi utilisés à des fins de « contrôle de la recherche d’emploi », ce que nous ignorions.

Cette lettre se borne ainsi à un simple exercice, maladroit et malvenu, de communication. Elle s’essaye vainement à réfuter l’expression de « flicage des plus précaires » pour décrire les outils de surveillance des allocataires du RSA. La mise en place d’un agenda partagé pour le contrôle des 15 à 20 heures d’activité de ces dernier·ès serait ainsi – il faut savoir apprécier l’humour – une mesure visant à « renforcer l’accompagnement humain ».

Quant à l’impact de la numérisation sur l’accueil des plus précaires, le directeur général de France Travail nie la réalité, tout comme son homologue de la CNAF, afin de minimiser l’étendue de la surveillance et le projet politique sous-jacent. Qu’a-t-il donc à répondre à la Défenseure des droits qui, en 2022 dans son deuxième rapport sur la dématérialisation des services publics, rappelait la hausse des inégalités et des réclamations en raison de cette dématérialisation « à marche forcée » ?

Enfin, opposer, comme le fait cette lettre, le travail des salarié·es de France Travail et notre action de documentation et d’alerte sur les abus de l’administration est stérile : la déshumanisation et le changement de nature du service public se font non seulement au détriment des personnes au chômage mais également des agent·es de France Travail, comme l’ont dénoncé syndicats et associations au moment de la réforme de l’assurance chômage et la transformation de Pôle Emploi en France Travail33La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages »..

Ce que cette lettre souligne avant tout c’est donc l’absence de recul, de capacité de remise en cause et d’esprit critique du directeur général de France Travail quant à l’extension des logiques de contrôle numérique au sein de son institution. Ou sa pleine adhésion à ce projet.

References[+]

References
1 Voir cette note de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.
2 Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.
3 L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.
4 L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.
5 Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.
6 Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.
7 Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.
8 Rapport annuel 2018 de Pôle Emploi disponible ici.
9, 10 Voir cette note envoyée par Pôle Emploi à la DINUM.
11 Voir ce support de webinaire.
12 En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.
13 Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.
14 Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.
15 Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.
16 Voir cette interview du directeur actuel de France Travail.
17 Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.
18, 20 Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.
19 Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.
21 Voir ce document sur l’utilisation de l’IA à Pôle Emploi.
22 Voir ce document de présentation de XP RSA.
23 Voir ce document de présentation du programme Data IA.
24 Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.
25 Voir ce tweet.
26 Voir ce tweet.
27, 29 Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal.
28 Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.
30 Voir, entre autres, cette vidéo du responsable du programme Data IA.
31 Voir le livre L’Etat social à distance de Clara Deville.
32 Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.
33 La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages ».

QSPTAG #310 — 21 juin 2024

Par : robinson
21 juin 2024 à 10:13

Bloquez la VSA dans votre commune !

Vous connaissez notre campagne contre la vidéosurveillance algorithmique (VSA). Le moment est venu de nous dresser tous et toutes contre ces dispositifs de surveillance totale. Pour l’heure, la VSA est toujours illégale, en dehors du périmètre expérimental tracé par la loi Jeux Olympiques. Mais de nombreuses communes sont déjà équipées, dans une opacité organisée, sans demander l’avis des habitant·es. Et les décrets préfectoraux récupérés par notre outil Attrap’Surveillance montrent chaque jour les abus. Alors, il faut donner de la voix. Il faut se faire entendre. Écrivez à votre maire !

Aux États-Unis, où les pratiques de VSA sont en avance sur les nôtres, de grandes villes ont déjà exprimé leur refus catégorique de les utiliser pour surveiller la population. En France, Montpellier a courageusement franchi le pas en 2022. Aujourd’hui, il est temps d’interpeller le plus grand nombre possible de communes, petites ou grandes, pour faire nombre et faire entendre que nous ne voulons pas laisser ce choix de société, totalitaire et déshumanisant, s’installer partout par inertie. La surveillance n’est pas une fatalité et nous pouvons l’arrêter.

N’hésitez pas : faites entendre votre voix et celle d’un très grand nombre d’habitant·es de ce pays. Nous avons préparé un modèle de lettre à envoyer à votre mairie, que vous pouvez personnaliser comme vous voulez. Vous trouverez aussi des flyers et des affiches très faciles à adapter à votre commune, pour faire passer le message dans les rues et tout autour de vous. Tout est rassemblé sur cette page. Aidez le pays à lutter contre la surveillance et l’enfermement sur lui-même. Nous n’avons aucune raison ni aucune envie de vivre dans une prison à ciel ouvert. La liberté est collective !

Lire l’article  : https://www.laquadrature.net/2024/06/18/faites-interdire-la-videosurveillance-algorithmique-dans-votre-ville/
Trouver les éléments d’action : https://www.laquadrature.net/pasdevsadansmaville/
La page de la campagne contre la VSA : https://www.laquadrature.net/vsa/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 70% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • Vendredi 5 juillet 2024 : Apéro public dans nos locaux, au 115 rue de Ménilmontant à Paris, de 19h à 23h, entrée libre.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

Vidéosurveillance algorithmiquee

Règlement CSAR

Divers

❌
❌