Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

QSPTAG #311 — 28 juin 2024

Les algorithmes punitifs de France Travail

À France Travail (ex-Pôle Emploi) comme à la CNAF, sous prétexte de « lutter contre la fraude » ou de pouvoir « individualiser » les dossiers, des algorithmes viennent noter, classer, et juger les bénéficiaires. Expérimentés chez France Travail depuis 2013, généralisés depuis 2018, ces algorithmes partent du principe que les allocataires sont malhonnêtes et abusent du système de l’assurance chômage, et leur attribuent un « score de suspicion » (le terme est utilisée par France Travail).

Mais l’agence a aussi imaginé d’utiliser des algorithmes pour remplacer la travail des conseiller·es et proposer des offres d’emplois — après tout, c’est déjà le cas pour Parcoursup et sur les applis de rencontre amoureuse… Loin de l’application d’un droit simple, on entre dans une politique de profilage et de tri des bénéficiaires. Scores « d’employabilité », « traitements des aspects motivationnels », « détection de signaux psychologiques » sont mobilisés pour détecter les « signes de perte de confiance » ou les « risques de dispersion ». Le calvaire social et intime qu’est le chômage devient un objet d’étude statistique affranchi de toute relation humaine, où les vies les plus fragiles sont normées, standardisées, formatées. Le même algorithmique qui diagnostiquera une « Dynamique de recherche faible » conseillera aussi l’employé·e de France Travail sur les actions à demander au bénéficiaire concerné… L’analyse détaillée est disponible sur notre site.

Lire l’article : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique/

Mobilisation contre les partisans de la surveillance totale

Nous le disons depuis des années : les outils numériques de la surveillance, sur Internet et dans les pratiques policières, sont des outils dangereux par essence. Ils ont pourtant toujours été adoptés, légalisés et encouragés par des gouvernements qui se présentaient comme des ennemis des positions « extrêmes » et promettaient la main sur le cœur qu’ils surveillaient les habitant·es du pays pour leur bien.

Aujourd’hui, l’extrême droite est à la veille de prendre le pouvoir. La responsabilité de ses prédécesseurs est énorme : ils offrent à un parti champion du racisme, de l’inégalité entre les personnes, de la violence et de la restriction des droits politiques, une magnifique machinerie de surveillance et de répression. Pour ces raisons, nous appelons chacune et chacun à se mobiliser le 30 juin, le 7 juillet et après, contre celles et ceux qui ont bâti ce système technique totalitaire, et contre celles et ceux qui comptent bien l’utiliser contre la population du pays.

Lire notre prise de position : https://www.laquadrature.net/2024/06/28/legislatives-la-surveillance-sur-un-plateau-brun/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 71% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/
et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/

Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

Divers

Législatives : la surveillance sur un plateau brun

Alors que le choix d’Emmanuel Macron de dissoudre l’Assemblée nationale au lendemain des élections européennes risque de renforcer le poids de l’extrême droite, nous partageons l’inquiétude exprimée par beaucoup face au risque important que ce tremblement de terre politique fait peser sur la démocratie et les libertés. L’idéologie du Rassemblement National, entièrement tournée vers la création de droits différenciés sur des fondements racistes et réactionnaires, ne peut exister sans une structure de pouvoir forte et centralisée. C’est pourquoi nous ne doutons pas qu’un gouvernement d’extrême droite utilisera et renforcera la surveillance de la population pour exercer son pouvoir. Il aura, par exemple, besoin du fichage pour identifier les personnes à qui retirer des droits, de l’écosystème de surveillance pour traquer les personnes qu’il veut expulser, maltraiter ou enfermer ou encore des lois de censure et coercitives pour faire taire les oppositions anti-fascistes.

Il n’a pas fallu attendre le parti lepéniste pour que la surveillance autoritaire s’installe dans notre quotidien. Cette dernière décennie, au nom de « l’efficacité », de la « crise » ou encore de « l’urgence », François Hollande puis Emmanuel Macron ont adopté – avec le soutien de la droite et l’extrême droite – de nombreuses mesures sécuritaires et multiplié les dispositifs de surveillance tout en écartant les garde-fous et contre-pouvoirs. Des gouvernements se disant modérés ont systématiquement justifié la légalisation des technologies de surveillance, au motif qu’elles étaient adoptées dans un cadre démocratique et seraient « correctement » utilisées. Il s’agit évidemment d’un aveuglement dangereux.

Par essence, les outils de surveillance ne sont jamais neutres dès lors qu’ils donnent à un État la capacité de connaître, et donc de contrôler, sa population. Dès leur création, ils portent en eux un objectif de détecter les « signaux faibles » et trouver « l’ennemi intérieur ». Les dérives discriminantes font intégralement partie de la logique de ces technologies mais sont exacerbées lorsque celles-ci sont dans les mains de l’extrême droite. Ainsi, comme nous l’avions expliqué, l’édifice du fichage policier, pensé en France dès la fin du XIXe siècle et construit petit à petit pendant plusieurs décennies, était déjà mûr lorsque le régime de Vichy a été instauré en 1940. La possibilité que ces fichiers servent à identifier et arrêter des personnes était en réalité intrinsèque à ce système et il a simplement suffit au pouvoir pétainiste d’en ajuster les usages.

Les mêmes logiques aveugles se répètent. Les gouvernements successifs ont depuis vingt ans installé et banalisé les outils qui serviront à l’extrême droite pour mettre en oeuvre le monde ségrégué, injuste et autoritaire pour lequel elle milite depuis des années.

Une administration toute puissante

Le premier point de bascule est sans aucun doute l’état d’urgence de 2015. Il a bouleversé le fonctionnement de l’État de droit en modifiant les équilibres historiques des institutions. Le rôle des juges judiciaires, censés être les seuls à pouvoir restreindre les libertés individuelles selon la Constitution, a été réduit au profit du rôle confié à l’administration, au prétexte que celle-ci pourrait agir plus vite. De nombreux abus ont été constatés lors de l’état d’urgence avec l’utilisation de mesures visant massivement des personnes musulmanes ou des activistes écologistes. Ce régime d’exception a été prolongé par la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » (SILT) de 2017, qui l’a fait entrer dans le droit commun. Désormais, le ministre de l’intérieur peut demander des assignations à résidence ou des interdiction de paraître, au nom de la prévention du terrorisme, avec une simple information à un procureur.

Ce renforcement des pouvoirs de l’administration s’est propagé au-delà du cadre anti-terroriste. Petit à petit, depuis 2015, elle a réactivé ou obtenu de nombreux pouvoirs. Il est ainsi devenu de plus en plus fréquent que des préfets interdisent des manifestations ou des interventions au nom de l’ordre public. Depuis 2023, ils ont également la possibilité d’utiliser des drones de surveillance ou, depuis 2021 au nom de la loi Séparatisme, de priver des associations de leurs subventions. Depuis la loi sur les Jeux olympiques et paralympiques de 2023, ils peuvent également expérimenter la vidéosurveillance algorithmique. Pouvons-nous sérieusement imaginer qu’un gouvernement d’extrême droite se privera d’utiliser ces larges pouvoirs ? Assignation à résidence de militant·es de gauche, multiplication des drones au dessus des quartiers populaires ou encore interdiction d’évènements antiracistes, les préfets nommés par le RN auront de nombreux leviers répressifs à leurs disposition.

Le ministre de l’intérieur a, quant à lui, réinvesti la possibilité de dissoudre des associations. Avant même la réforme législative ouvrant une ère de dissolutions massives, le ministre de l’intérieur a commencé par des organisations musulmanes telles que le CCIF, puis il s’est attaqué aux groupes d’extrême gauche comme le Bloc lorrain ou la Défense collective à Rennes. Des dissolutions que Jordan Bardella a promis d’amplifier encore davantage.

Une justice affaiblie

L’augmentation des pouvoirs de l’administration s’est accompagnée d’une remise en cause des principes fondateurs de la justice. Avec la création de l’amende forfaitaire délictuelle, le juge judiciaire a ainsi été mis à l’écart dans un domaine qui lui était initialement réservé. Depuis 2016, le législateur peut prévoir que, pour certaines infractions, les poursuites pénales s’arrêteront automatiquement lorsque la personne poursuivie paye une amende. Autrement dit, la police peut désormais faire pression sur les personnes en leur proposant un choix cornélien : faire valoir leurs droits devant un juge ou s’acquitter de quelques centaines d’euros pour s’arrêter là. Ces dernières années, les délits concernés par l’amende forfaitaire délictuelle ont été considérablement élargis, avec par exemple la consommation de stupéfiants ou, pendant le confinement en 2020, le fait de sortir de chez soi sans attestation.

Mais c’est surtout sur internet que ce contournement du juge a été le plus assumé. Depuis 2014 et une loi portée par Bernard Cazeneuve, la police peut exiger seule que des sites internet retirent des contenus qu’elle estime être à caractère « terroriste ». Alors que nous avons toujours dénoncé les risques de censure politique et d’arbitraire de ce mécanisme confié à l’administration, en l’occurrence l’Office anti-cybercriminalité, nos craintes ont été confirmées à plusieurs reprises. Désormais, les plateformes en ligne et les réseaux sociaux vont jusqu’à collaborer activement avec le gouvernement quand celui-ci leur demande de retirer des contenus. Ainsi, lors des émeutes de l’été 2023, le ministère de l’intérieur a « convoqué » certains réseaux sociaux, et Snapchat a publiquement admis avoir retiré des contenus sur demande du gouvernement et en dehors de toute procédure légale. Pire : lorsque Gabriel Attal a pris la décision illégale de censurer le réseau social Tiktok en Nouvelle Calédonie, au motif que cette plateforme aurait joué un rôle dans les émeutes sur l’île, il a instauré un précédent inédit d’atteinte à la liberté d’expression que nos institutions ont échoué à empêcher. On pressent alors comment une censure des critiques contre l’extrême droite pourrait être facilitée par cet état des choses.

Technopolice partout

En parallèle, les capacités de surveillance de la police ont été énormément renforcées. Le nombre de fichiers (créés par simple décret) a explosé, leur accès s’est élargi et le contrôle des abus est quasi inexistant (la LOPMI de 2022 a même enlevé l’exigence formelle d’habilitation pour les consulter). La prise de signalétique (ADN, empreintes digitales et photo du visage) ainsi que la demande de code de déverrouillage du téléphone sont devenues systématiques pour faire pression sur les personnes gardées à vue, bien que cela soit généralement illégal car décorrélé de toute infraction annexe. Par ailleurs, l’exploitation de ces informations peut désormais être faite dans la rue, via des tablettes mobiles permettant aux gendarmes et policiers d’accentuer le harcèlement des personnes contrôlées.

Les technologies aussi ont évolué : la reconnaissance faciale s’est banalisée et est fréquemment utilisée dans les procédures judiciaires à travers le fichier TAJ, des logiciels d’analyse des métadonnées permettent de créer très facilement des graphes sociaux et de pister les habitudes des personnes, les logiciels espions peuvent désormais être utilisés pour activer à distance la fonction de géolocalisation d’un appareil mobile, et la police dispose de plus en plus d’outils de surveillance en source ouverte (OSINT). Par ailleurs, depuis 2016, cette dernière est autorisée à utiliser des techniques encore plus intrusives comme la sonorisation des lieux, la captation des données informatiques, les IMSI catchers, la captation d’images ou l’infiltration dans les procédures liées à la « criminalité organisée ». Cette catégorie recouvre des infractions très larges, et fut notamment invoquée pour poursuivre des militants écologistes qui ont bloqué une cimenterie Lafarge, ou pour justifier l’arrestation de militants indépendantistes kanaks en juin 2024.

Les services de renseignement ne sont pas en reste depuis la formalisation de leurs pouvoirs de surveillance par la loi Renseignement de 2015. Nous avons ainsi dénoncé le fait que cette loi légalise la possibilité d’utiliser de nombreux moyens de surveillance intrusifs, pour des finalités très larges, et notamment la surveillance des militant·es. Ces possibilités d’abus se sont concrétisées au fur et à mesure des années, au travers par exemple de la surveillance des gilets jaunes, ou de divers cas où des militant·es ont retrouvé du matériel de surveillance les visant (on pourra citer en exemple la caméra cachée devant l’espace autogéré des Tanneries à Dijon, le micro dans une librairie anarchiste à Paris, ou la balise GPS sous la voiture de Julien Le Guet du collectif Bassines Non Merci).

Dans son rapport d’activité pour l’année 2022, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s’est d’ailleurs inquiétée de l’accroissement de la surveillance des militants. Elle a également alerté sur l’insuffisance de ses capacités de contrôle, qui l’empêche de suivre les dernières évolutions technologiques, notamment s’agissant des spywares et autres intrusions informatiques à distance.

Enfin, des précédents dangereux ont été créés avec l’élargissement continu de la justice d’exception applicable en matière de terrorisme, et l’implication grandissante des services antiterroristes dans des affaires politiques. L’affaire dite du « 8 décembre » est un triste exemple : la décision rendue fin décembre 2023 par le tribunal correctionnel de Paris confirme que des militant·es de gauche peuvent être poursuivis et condamné·es pour association de malfaiteurs à caractère terroriste sur la base de suspicions d’intention, sans projet avéré, et que protéger ses communications peut être utilisé comme une preuve de « comportement clandestin » pour justifier la condamnation.

La surveillance et la répression des mouvements militants, écologistes ou anti-autoritaires notamment, n’est plus une crainte, mais une réalité, d’autant qu’elle est accompagnée depuis plusieurs années d’un discours nourri visant à criminaliser toute forme de contestation en dehors du simple cadre électoral (actions syndicales, manifestations de rue, etc.). Elle n’en serait que pire sous une majorité RN.

Des gardes-fous illusoires

On le comprend, les dispositifs de surveillance et de répression sont déjà là et les gardes-fous institutionnels et politiques ne permettent plus de freiner les volontés politiques autoritaires. Nous le constatons avec dépit depuis des années : le droit n’empêche pas l’installation massive de technologies de surveillance sur la population. Le Conseil d’État a validé la légalité de quasiment tous les fichiers de police qui ont ont été contestés devant lui, y compris le fichage politique et religieux du PASP et du GIPASP.

Le Conseil constitutionnel, quant à lui, estime quasi systématiquement que les lois protègent suffisamment les libertés, le plus souvent en reportant le contrôle au cas par cas sur d’autres instances, comme les tribunaux administratifs, incapable de prévenir des abus systémiques dans l’usage de mesures de surveillance. Ce report du contrôle de légalité par le Conseil constitutionnel au juge administratif a également pour conséquence de faire peser la charge de la contestation légale sur la société civile ou les personnes victimes de cette recrudescence de surveillance, qui doivent aller en justice pour demander le respect des libertés. Sans grand succès, il faut bien l’admettre, vu le faible nombre de victoires.

Enfin, sur le plan matériel, les autorités administratives indépendantes comme la CNCTR ou la CNIL ne peuvent raisonnablement pas contrôler chaque action des forces de l’ordre et des services de renseignement. Concernant le cas particulier de la CNIL, on constate également chez elle une absence de courage politique qui explique son inaction, voire une volonté d’aider le gouvernement à légaliser de nouvelles mesures de surveillance comme ce fut le cas des drones ou de la VSA.

Si le constat a de quoi effrayer, il est loin d’être étonnant. Cela fait des années qu’associations, juristes, universitaires, militant·es de terrain alertent sur ce lent dépérissement de l’État de droit. Il suffit désormais au Rassemblement National de marcher dans les pas des gouvernements précédents et de se servir de l’arsenal législatif déjà existant. Son programme est profondément raciste, sexiste et LGBT-phobe et ne cache même plus son ambition de réduire les libertés et les droits individuels. Nous n’osons même pas nous figurer la facilité avec laquelle ce parti aurait à mettre en place ses mesures autoritaires et ses politiques de restriction des droits dès lors qu’il disposera des dispositifs mis en place ces dernières années.

Face à cette menace, nous appelons à la mobilisation pour ne pas voir ces outils de surveillance et de répression tomber dans les mains du Rassemblement National, ni laisser l’occasion aux « extrêmes-centristes » d’Emmanuel Macron de détruire les derniers garde-fous de l’État de droit. Nous appelons à militer et à voter massivement contre la droite et l’extrême droite aux prochaines législatives.

À France Travail, l’essor du contrôle algorithmique

« Score de suspicion » visant à évaluer l’honnêteté des chômeur·ses, « score d’employabilité » visant à mesurer leur « attractivité », algorithmes de détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les expérimentations de profilage algorithmique des personnes sans emploi.

Après avoir traité de l’utilisation par la CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-Pôle Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de numérisation forcée du service public de l’emploi. Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab.

Au nom de la « rationalisation » de l’action publique et d’une promesse « d’accompagnement personnalisé » et de « relation augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social.

De la CAF à France Travail : vers la multiplication des « scores de suspicion »

C’est, ici encore, au nom de la « lutte contre la fraude » que fut développé le premier algorithme de profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants »1Voir cette note de synthèse revenant sur les premières expérimentation faites par Pôle Emploi., France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à Cap Gemini, une multinationale du CAC402Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring..

La notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’escroquerie » grâce à l’exploitation de « signaux faibles »3L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.. Une fois l’ensemble des personnes sans emploi notées, un système d’« alertes » déclenche ainsi des contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée)4L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document..

Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du RGPD5Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la surveillance numérique à l’œuvre, tout comme les risques de discriminations que ce système comporte6Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page..

Profilage psychologique et gestion de masse

Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme Intelligence Emploi7Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.. Son ambition affichée est de mettre l’intelligence artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son potentiel de recrutement »8Rapport annuel 2018 de Pôle Emploi disponible ici..

Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques »9Voir cette note envoyée par Pôle Emploi à la DINUM.. En son sein, deux cas d’usage retenus sont particulièrement frappants.

Le premier est le développement d’algorithmes visant à « anticiper les éventuels décrochages », prévenir les « risques de rupture »10Voir cette note envoyée par Pôle Emploi à la DINUM. ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité »11Voir ce support de webinaire..

Ces travaux ont trouvé, au moins en partie12En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement., un premier aboutissement dans l’outil du Journal de la Recherche d’Emploi (JRE) actuellement expérimenté dans plusieurs régions de France13Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de redynamisation » ou les « risques de dispersion »14Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici..

Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « diagnostic de situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « conseils personnalisés » générés par un dernier algorithme15Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es..

Contrôle, mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse »16Voir cette interview du directeur actuel de France Travail..

Diagnostic et score d’employabilité

Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité »17Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle18Voir cette note envoyée par Pôle Emploi à la DINUM en 2020. – a été développée en 202119Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021..

L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de tri des chômeur·ses, il vise à organiser la « priorisation des actions d’accompagnement »20Voir cette note envoyée par Pôle Emploi à la DINUM en 2020. en fonction d’un supposé degré d’autonomie de la personne sans emploi.

Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la recherche d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil »21Voir ce document sur l’utilisation de l’IA à Pôle Emploi.. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « métiers en tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

Agenda partagé & agences virtuelles

Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « XP RSA »22Voir ce document de présentation de XP RSA., l’outil numérique déployé dans le cadre de la récente réforme du RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « heures d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le flicage des plus précaires.

Côté IA, France Travail a lancé en 2024 le programme « Data IA »23Voir ce document de présentation du programme Data IA., successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une IA générative visant à numériser l’accompagnement et la recherche d’emploi (« Match FT »)24Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.. France Travail s’intéresse aussi aux « maraudes numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi »25Voir ce tweet. et au développement d’« agences virtuelles »26Voir ce tweet..

Austérité, automatisation et précarisation

La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes27Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal.. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi28Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon..

À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des conditions de travail toujours plus dégradées29Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal..

Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé »30Voir, entre autres, cette vidéo du responsable du programme Data IA. aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’exclusion des plus précaires, voire tend à une généralisation du non-recours aux droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge31Voir le livre L’Etat social à distance de Clara Deville..

En standardisant les processus d’accompagnement, via la quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé32Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD..

En facilitant le contrôle généralisé, elle accentue enfin la stigmatisation des plus précaires et participe activement à leur paupérisation.

References[+]

References
1 Voir cette note de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.
2 Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.
3 L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.
4 L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.
5 Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.
6 Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.
7 Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.
8 Rapport annuel 2018 de Pôle Emploi disponible ici.
9, 10 Voir cette note envoyée par Pôle Emploi à la DINUM.
11 Voir ce support de webinaire.
12 En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.
13 Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.
14 Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.
15 Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.
16 Voir cette interview du directeur actuel de France Travail.
17 Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.
18, 20 Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.
19 Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.
21 Voir ce document sur l’utilisation de l’IA à Pôle Emploi.
22 Voir ce document de présentation de XP RSA.
23 Voir ce document de présentation du programme Data IA.
24 Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.
25 Voir ce tweet.
26 Voir ce tweet.
27, 29 Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal.
28 Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.
30 Voir, entre autres, cette vidéo du responsable du programme Data IA.
31 Voir le livre L’Etat social à distance de Clara Deville.
32 Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.

QSPTAG #310 — 21 juin 2024

Bloquez la VSA dans votre commune !

Vous connaissez notre campagne contre la vidéosurveillance algorithmique (VSA). Le moment est venu de nous dresser tous et toutes contre ces dispositifs de surveillance totale. Pour l’heure, la VSA est toujours illégale, en dehors du périmètre expérimental tracé par la loi Jeux Olympiques. Mais de nombreuses communes sont déjà équipées, dans une opacité organisée, sans demander l’avis des habitant·es. Et les décrets préfectoraux récupérés par notre outil Attrap’Surveillance montrent chaque jour les abus. Alors, il faut donner de la voix. Il faut se faire entendre. Écrivez à votre maire !

Aux États-Unis, où les pratiques de VSA sont en avance sur les nôtres, de grandes villes ont déjà exprimé leur refus catégorique de les utiliser pour surveiller la population. En France, Montpellier a courageusement franchi le pas en 2022. Aujourd’hui, il est temps d’interpeller le plus grand nombre possible de communes, petites ou grandes, pour faire nombre et faire entendre que nous ne voulons pas laisser ce choix de société, totalitaire et déshumanisant, s’installer partout par inertie. La surveillance n’est pas une fatalité et nous pouvons l’arrêter.

N’hésitez pas : faites entendre votre voix et celle d’un très grand nombre d’habitant·es de ce pays. Nous avons préparé un modèle de lettre à envoyer à votre mairie, que vous pouvez personnaliser comme vous voulez. Vous trouverez aussi des flyers et des affiches très faciles à adapter à votre commune, pour faire passer le message dans les rues et tout autour de vous. Tout est rassemblé sur cette page. Aidez le pays à lutter contre la surveillance et l’enfermement sur lui-même. Nous n’avons aucune raison ni aucune envie de vivre dans une prison à ciel ouvert. La liberté est collective !

Lire l’article  : https://www.laquadrature.net/2024/06/18/faites-interdire-la-videosurveillance-algorithmique-dans-votre-ville/
Trouver les éléments d’action : https://www.laquadrature.net/pasdevsadansmaville/
La page de la campagne contre la VSA : https://www.laquadrature.net/vsa/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 70% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • Vendredi 5 juillet 2024 : Apéro public dans nos locaux, au 115 rue de Ménilmontant à Paris, de 19h à 23h, entrée libre.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

Vidéosurveillance algorithmiquee

Règlement CSAR

Divers

Faites interdire la vidéosurveillance algorithmique dans votre ville !

Alors que les expérimentations de vidéosurveillance algorithmique (VSA) continuent d’être demandées et déployées par les préfectures – pendant le festival de Cannes ou à Roland-Garros par exemple -, nous lançons la deuxième phase de notre campagne de lutte contre l’empire de la surveillance ! Comme nous croyons que la mobilisation au niveau local est le moyen le plus pertinent et le plus puissant pour repousser l’envahissement de la surveillance, nous avons pensé de nouveaux outils pour aider les habitant·es des villes de France à se battre contre la VSA dans leur commune.

Il y a quelques semaines, nous avons annoncé notre plan de bataille visant à dénoncer l’hypocrisie derrière l’expansion de la surveillance algorithmique de l’espace public. En effet, les Jeux Olympiques sont instrumentalisés pour accélérer l’agenda politique des institutions et des instances policières qui souhaitent ajouter aux caméras des logiciels permettant d’analyser nos faits et gestes dans la rue. Les expérimentations « officielles » de cette technologies ont débuté en avril dernier. Elles ont eu lieu à l’occasion d’evenements festifs, que nous recensons sur notre outil collaboratif, le « Carré ». Pour la plupart, il s’agit d’opportunités pratiques pour tester ces technologies décorrélées de risques de sécurité concrets. En témoignent les justifications des autorisations préfectorales, qui prétendent expliquer le choix de surveiller le métro parisien dans le cadre d’un concert par une guerre à l’autre bout du monde ou un attentat ayant eu lieu il y a plusieurs années. Ces motifs sont copiées/collées au gré des arrêtés démontrant l’absence totale d’efforts des préfectures à contextualiser l’utilisation de cette technologie.

De plus, depuis que la « loi sur les Jeux Olympiques et Paralympiques » a créé un premier régime juridique de la VSA dans le droit français, les promoteurs de la surveillance n’hésitent pas à mettre en avant un soit disant « respect du cadre légal ». Il ne faut y voir rien d’autre qu’un écran de fumée puisque de très nombreux projets de surveillance continuent de prospérer en toute illégalité : qu’il s’agisse du programme Prevent PCP mis en œuvre dans des gares par la SNCF, ou des entreprises privées qui continuent de vendre leurs logiciels de VSA à des villes – telles que Thalès à Reims ou Briefcam à Brest -, ces initiatives locales multiples sont tolérées par les pouvoirs publics. Pour approfondir sur la situation actuelle, nous avons rassemblé et synthétisé dans une brochure (disponible ici) les informations nécessaires pour comprendre ce qu’est la VSA, les raisons de son déploiement et le projet politique cohérent qui se dessine derrière ses utilisations pour le moment temporaires. N’hésitez pas à la lire, l’imprimer et la diffuser !

Désormais, avec cette nouvelle phase de notre campagne, nous vous proposons de passer à l’action ! Si l’arrivée de la VSA est poussée par des instances nationales et les industriels de la surveillance, nous pouvons la contrer en nous y opposant de façon délocalisée et démultipliée à travers toute la France. La ville de Montpellier a ainsi adopté en 2022 une résolution interdisant la surveillance biométrique dans les rues, s’inscrivant dans la dynamique lancé par des villes états-uniennes telles que Boston ou Austin qui avaient également avaient refusé de surveiller leurs habitant·es avec des outils d’analyse biométrique.

Nous vous appelons donc à rejoindre cet élan et à porter le combat dans votre ville ! Pour cela, nous avons conçu et mis à disposition plusieurs outils sur cette page. Tout d’abord, vous trouverez une lettre-type à envoyer pour demander à votre maire de s’engager à ne jamais installer de vidéosurveillance algorithmique dans votre ville. Il ne s’agit que d’un modèle, vous pouvez évidemment l’adapter ou faire votre propre courrier.

Si vous tapez le nom de votre commune, vous pourrez télécharger plusieurs éléments de communication déclinés au nom de l’endroit ou vous vivez ! Nous vous proposons aussi bien un flyer à distribuer pour informer et alerter les personnes sur la VSA que des affiches à coller dans les rues pour visibiliser ce combat. Aussi, vous pourrez fabriquer un visuel à partager sur les réseaux sociaux afin de rendre visible la demande d’interdiction de la VSA que vous avez faite à votre maire ! N’hésitez pas à la faire à titre individuel ou avec un collectif de votre ville et à nous tenir au courant. Nous listerons ensuite sur notre site les communes qui auront été contactées dans le cadre de cette mobilisation !

L’objectif est simple : ensemble, nous pouvons démontrer qu’il existe une opposition populaire forte contre la surveillance de nos rues. En multipliant les actions dans les villes de France, nous pourrons battre en brèche le discours sécuritaire dominant qui présente ces technologies d’analyse de nos faits et gestes comme nécessaires et leur installation inéluctable. Au contraire, nous pouvons témoigner ensemble de notre refus collectif d’une surveillance policière constante, et défendre la ville comme espace de création, de liberté et de soin. Rejoignez la mobilisation, demandez l’interdiction de la VSA dans votre ville !

VSA : la surveillance bâtit son empire

Les Jeux Olympiques vont nous laisser la surveillance de masse en héritage. En instrumentalisant cet évènement, le gouvernement a autorisé l’utilisation de la vidéosurveillance algorithmique (VSA) jusqu’en 2025 pour des situations qui dépassent largement le cadre cette compétition sportive. Ces logiciels, qui analysent les images de vidéosurveillance et envoient automatiquement des alertes à la police, sont déployés depuis des années en France en toute illégalité, sans que jamais les responsables n’aient été inquiétés. L’hypocrisie est donc totale. En légalisant quelques usages de VSA, l’État souhaite légitimer un état de fait et amorcer un projet de surveillance bien plus large de l’espace public.

Derrière cette légalisation inédite, qui porte sur un petit nombre de cas d’usage (départs de feux, individus marchant à contre-sens, etc.), ce sont d’autres applications qui pourraient à leur tour être légalisées. De nombreux responsables politiques assument publiquement de vouloir autoriser le suivi et la catégorisation biométriques de la population, y compris à travers la reconnaissance faciale ou encore la reconnaissance des émotions. Les entreprises distribuent déjà ces technologies et les propositions de légalisation sont dans les tuyaux.

C’est donc maintenant qu’il faut se mobiliser, pour résister contre cet empire de la vidéosurveillance algorithmique. Partout en France, refusons le contrôle permanent de nos faits et gestes, organisons-nous dans nos villes pour faire entendre notre voix, perturbons les expérimentations et documentons les projets illégaux qui continuent de prospérer.

Ensemble, luttons pour que l’espace public ne se transforme pas définitivement en lieu de répression policière mais reste un espace de libertés.

S’opposer aux expérimentations

Pendant toute l’année à venir, les festivals, matchs de foots ou autres marchés de Noël seront le terrain de jeu de la vidéosurveillance algorithmique. Sur la base de la loi relative aux Jeux Olympiques du 19 mai 2023, les préfectures pourront ainsi utiliser des algorithmes visant à détecter huit types de situations , dans et aux abords des lieux accueillant du public et des réseaux de transport. Franchir une ligne, marcher à contre-sens ou faire partie d’une « densité trop importante de personnes » pourront conduire à des signalement automatiques à destination de la police, dans les centres où sont visionnés les images de vidéosurveillance. Qu’on ne s’y trompe pas : le danger ne réside pas tant dans ces quelques usages limités que dans l’élargissement programmé des cas d’usage et, à terme, le projet d’une surveillance systématique et généralisée de l’espace public.

Nous vous invitons donc à prendre ces évènements comme autant d’occasions pour se rendre sur place et faire valoir notre opposition à l’accaparement sécuritaire de l’espace public !

Nous avons constitué un « kit de mobilisation » — une brochure, des affiches, des flyers, etc. — pour que chacun·e puisse se renseigner et se mobiliser contre les déploiements « expérimentaux » de VSA. En dehors de nos propositions, bien d’autres formes de contestation sont possibles pour informer la population et dénoncer cette surveillance ! Que ce soit une danse « suspecte » sous l’œil des caméras ou un courrier formel à la CNIL, toutes les manière d’exprimer son opposition seront utiles pour matérialiser notre refus collectif de cette expérimentation hypocrite et du projet politique autoritaire dont elle découle.

S’organiser

Derrière les « expérimentations », de nombreux autres systèmes de VSA sont déployés de façon illégale en France, en toute opacité, sans contrôle ni condamnation politique. C’est pour cette raison que, depuis 2019, l’initiative Technopolice lancée par La Quadrature en lien avec des collectifs locaux cherche à faire la lumière sur ces projets. Il nous faut poursuivre cet effort, en obtenant des informations sur les entreprises qui continuent de vendre leurs logiciels illégaux, et interpeller les collectivités sans scrupules qui les achètent. Là où l’action apparaît la plus pertinente et la plus concrète est à l’échelle des villes et des rues où nous vivons. Des collectifs d’habitantes et d’habitants s’organisent ainsi un peu partout dans le pays pour recenser, documenter et lutter contre ces technologies policières.

Agir

Que ce soit lors d’expérimentations ou pour lutter contre un projet dans sa ville, les modes d’actions à explorer sont multiples. Voici des outils pour agir où que vous soyez et de la manière que vous préférez.

  • Demander l’interdiction de la VSA dans sa ville : c’est l’action facile que nous avons décidé de mettre en avant dans le cadre de cette campagne. Que vous apparteniez à un collectif ou le fassiez de manière individuelle, nous vous expliquons ici comment participer à cette action à l’échelle de votre commune.

  • S’informer et informer sur la VSA : Nous avons rassemblé dans une brochure des éléments pour comprendre ce que recouvre politiquement et techniquement la vidéosurveillance algorithmique. Elle est disponible ici. Ce document est fait pour être diffusé ! Alors lisez-le, imprimez-le, envoyez-le, laissez-le traîner… Bref, partagez-le le plus possible !

  • Demander de l’information à sa commune : Un des principaux moteurs du déploiement des technologies policière réside dans l’opacité complète qui les entoure. Pour battre en brèche les projets de surveillance il faut donc les rendre visibles, en comprendre les contours et révéler leur fonctionnement. Les demandes d’accès aux documents administratifs (dites « demandes CADA ») sont un outil efficace à la portée de toutes et tous pour obtenir des éléments sur les dispositifs de sa ville. Pour réaliser une demande CADA, vous pouvez suivre le guide dédié. Nous vous invitons également à utiliser la plateforme MaDada pour centraliser, suivre et partager les différentes demandes que vous avez réalisées.

  • Enquêter et faire de la veille : De nombreux autres moyens d’enquête existent pour trouver des informations, comme la recherche en source ouverte sur les sites internet des entreprises de surveillance ou des collectivités, qui permet souvent de trouver des descriptions détaillées de technologies ou de cas d’usages déployés dans certaines villes. On peut également se plonger dans la lecture de compte-rendus de conseils municipaux ou assister à des réunions publiques.

  • Repérer les arrêtés préfectoraux : Les « expérimentations » de VSA mises en œuvre dans le cadre de la loi sur les Jeux Olympiques, ainsi que les utilisations de drones policiers, sont autorisées par des décisions préfectorales, souvent adoptées au dernier moment et en toute discrétion. Nous venons de lancer Attrap’Surveillance, un outil libre qui permet de rechercher et de trouver automatiquement ces autorisations dans les « recueils des actes administratifs » des préfectures. De cette manière, il s’agit d’informer la population quant à ces autorisation de surveillance pour permettre à toutes et tous de s’y opposer. Nous avons encore besoin d’aide pour l’améliorer, n’hésitez pas à contribuer au développement de cet outil, à nous suggérer des modifications…

  • Visibiliser la surveillance dans l’espace public : Les caméras, qu’elles soient ou non dotées de logiciels d’analyse algorithmique, sont de plus en plus présentes dans nos villes et villages. Ces dispositifs sont le plus souvent juchés en haut d’un mobilier urbain conçu pour les faire disparaître. En les visibilisant, on matérialise une surveillance que certains voudraient rendre aussi discrète que possible et indolore. Il s’agit ainsi de matérialiser le contrôle de nos déplacements rendu possible par l’objectif de ces caméras. Pour assurer cette visibilité de l’infrastructure de vidéosurveillance, on peut organiser des « balades cartographiques » pour repérer les emplacements et modèles des caméras et les répertorier sur une carte accessible en ligne (voir cette vidéo qui explique comment organiser une cartographie des caméras et renseigner leur emplacement dans Openstreetmap). On peut également interpeller les passant·es en tractant, en accrochant leur regard au travers d’affiches ou des stickers.

  • Interpeller les élu·es : Les projets de surveillance urbaine sont généralement décidés à l’échelle locale. Interpeller son maire est une manière de demander des comptes. Vous pouvez exiger de lui ou d’elle, à l’instar de la ville de Montpellier, d’interdire tout logiciel de vidéosurveillance algorithmique dans sa ville ! Aussi, la loi relative aux Jeux Olympiques prévoit que l’expérimentation soit évaluée selon certains critères, dont la « perception » du public. N’hésitez donc pas à aller à la rencontre de parlementaires de votre circonscription dire tout le mal que vous pensez de ces dispositifs. Ce sont elles et eux qui auront à se prononcer sur la suite du processus de légalisation de la VSA.

  • Organiser des évènements : La sensibilisation des habitantes et habitants passe par des échanges et des rencontres, par des festivals, des expositions ou des projections documentaires autour de la surveillance. Tous les moyens sont bons pour tenir la VSA et son monde en échec !

Des groupes locaux opposés à la Technopolice existent déjà, comme à Saint-Étienne, Paris et sa banlieue, Marseille ou Montpellier. N’hésitez pas à les rejoindre ou à en créer dans votre ville. Pour s’organiser, échanger et faire résonner nos mobilisations, l’initiative Technopolice propose un forum public ainsi qu’une plateforme de documentation en écriture collaborative appelée le « Carré ». Vous pouvez aussi rejoindre le groupe de discussion sur Matrix. De nombreux autres outils similaires visant à appuyer nos combats existent par ailleurs ou sont encore à inventer !

Kit de mobilisation

Nous avons réalisé des affiches et des brochures que vous pouvez réutiliser librement, imprimer, distribuer et afficher partout ! Vous pouvez aussi vous mobiliser avec d’autres groupes Technopolice, voyez la section Agir.

Affiches


Télécharger le PDF avec les affiches !

Brochure


Lire la brochure en ligne

📃 Version pour consultation numérique ( double-pages )

📕 Version pour impression ( page par page )

Version pour impression ( pré-imposée pour brochage )

QSPTAG #309 — 7 juin 2024

Pourquoi le blocage de TikTok est un précédent inquiétant

Lors des événements violents qui ont secoué la Kanaky-Nouvelle-Calédonie au mois de mai, le gouvernement avait décidé de bloquer sur ce territoire l’accès au réseau social TikTok, accusé d’être un moyen d’entretenir la révolte d’une partie de ses habitant·es. Pleinement conscients de la toxicité de ce réseau social comme de nombreux autres, nous avions pourtant attaqué la décision du gouvernement devant le Conseil d’État, en raison de son atteinte exceptionnelle au régime de l’État de droit et de la liberté d’expression, une première dans un pays démocratique de l’Union européenne.

Le Conseil d’État a rejeté notre demande, validant la légalité confuse invoquée par le gouvernement pour justifier son geste, flottant entre « état d’urgence » et « circonstances exceptionnelles », tout autant que la légèreté des preuves qu’il apportait pour appuyer ses affirmations sur le rôle joué par TikTok dans les émeutes. Depuis cette décision, l’état d’urgence a été levé et l’accès au réseau rétabli.

Mais la décision du Conseil d’État, que nous avions sollicité dans la cadre d’un recours en référé-liberté, portait sur l’urgence à maintenir ou à suspendre la décision du gouvernement. C’est ce caractère d’urgence qui a été refusé, mais la décision ne portait pas sur le fond de la légalité ou de l’illégalité de l’action du gouvernement, pourtant condamnée sur le principe par les plus hautes cours européennes (CEDH) ou les instances internationales (Nations Unies). C’est pourquoi nous avons décidé de déposer un nouveau recours devant le Conseil d’État, pour l’obliger à statuer a posteriori sur la légalité de la coupure arbitraire d’une partie d’Internet par un gouvernement. L’enjeu n’a évidemment rien à voir avec TikTok, mais concerne directement le droit des habitant·es de l’Union européenne à ne pas être privé·es à l’avenir de leurs moyens de communication, du jour au lendemain, par un gouvernement livré à ses plus bas instincts répressifs.

Lire l’article : https://www.laquadrature.net/2024/06/05/blocage-de-tiktok-en-nouvelle-caledonie-retour-sur-un-fiasco-democratique/

Analyse du règlement IA

Le règlement européen sur l’Intelligence artificielle (IA Act) a été adopté le 21 mai dernier. Au début des négociations autour de ce texte en 2021, les intentions annoncées pouvaient laisser espérer qu’il encadrerait ou interdirait l’usage des techniques d’IA les plus attentatoires aux droits individuels et collectifs, comme la reconnaissance faciale, ou les algorithmes de contrôle policier, administratif et de « notation sociale ». Mais l’insistance des États membres, la France en tête, a eu raison de ces bonnes intentions.

Cette approche de l’IA comme « marché » et comme moyen de croissance économique réduit délibérément les garde-fous censés encadrer l’usage de l’IA pour la surveillance des populations, en créant de nombreuses exceptions par lesquelles l’industrie et les gouvernements pourront justifier les pires usages policiers. Une analyse détaillée à lire sur notre site.

Lire l’analyse du règlement IA : https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-poursuivre/

Loi contre les ingérences étrangères

Dans le contexte géopolitique que l’on connaît, le gouvernement a décidé de soutenir, par l’intermédiaire du député Sacha Houlié (Renaissance), une proposition de loi pour « Prévenir les ingérences étrangères en France ». Parmi les diverses dispositions envisagées, dont un contrôle serré des financements associatifs venus de l’étranger, il s’agit d’autoriser les services de renseignement à utiliser pour de nouvelles finalités les fameuses « boîtes noires » légalisées en 2015 par la loi Renseignement.

Ces « sondes » surveillent les réseaux de télécommunication (Internet et téléphonie) à la recherche de signaux susceptibles d’attirer l’attention des service de renseignement. Le loi de 2015 imposait quelques limites fragiles à cette surveillance de masse, en le limitant à la lutte antiterroriste, avec des obligations d’évaluation et de contrôle, mais avec une définition trop tolérante de ce qui est considéré comme du terrorisme, pouvant englober l’activisme écologique par exemple. La nouvelle proposition de loi viendrait encore élargir ce cadre, avec des champs mal définis comme « l’indépendance nationale » ou « les intérêts majeurs de la politique étrangère ».

L’Observatoire des Libertés et du Numérique (OLN), un collectif d’association de défense des libertés dont La Quadrature fait partie, a rédigé un communiqué pour dénoncer le risque que cette surveillance accrue fait peser sur nos libertés collectives. Nous signons et publions ce communiqué sur notre site.

Lire le communiqué de l’OLN : https://www.laquadrature.net/2024/05/30/proposition-de-loi-ingerences-etrangeres-une-nouvelle-etape-dans-lescalade-securitaire/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 67% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 13 juin 2024 : Causerie mensuelle Technopolice Marseille. Rendez-vous à 19h au Manifesten, 59 Rue Adolphe Thiers
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

À voir

Blocage de TikTok

Recours

Délai

Décision

Déblocage

Conséquences

Vidéosurveillance algorithmique (VSA)

Loi SREN

Loi sur les ingérences étrangères

Blocage de TikTok en Nouvelle-Calédonie : retour sur un fiasco démocratique

Le 23 mai dernier, le Conseil d’État a rejeté le recours en urgence de La Quadrature du Net contre la mesure de blocage de TikTok en Nouvelle-Calédonie. Pour justifier cette décision inique, le juge des référés a affirmé qu’il n’y aurait pas d’urgence à statuer puisque ce blocage serait, selon les dires du gouvernement, bientôt levé. Il aura fallu attendre plus de 24 heures après la levée de l’état d’urgence pour que le réseau social soit de nouveau accessible. Cet épisode marquera un tournant dans la montée autoritaire en France et dans l’échec de nos institutions à l’empêcher.

Les mensonges du Premier ministre

Lorsque nous déposions notre référé mi-mai, nous n’imaginions pas un tel arbitraire. Le Premier ministre a en effet annoncé le blocage de TikTok le 15 mai dernier en même temps qu’il annonçait l’entrée en vigueur de l’état d’urgence sur le territoire de la Nouvelle-Calédonie. Juristes et journalistes estimaient alors que la décision de blocage ne pouvait avoir été prise qu’en application d’une disposition de la loi sur l’état d’urgence qui prévoit la possibilité pour le ministre de l’intérieur de bloquer « tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ». En réalité, la mesure de blocage était justifiée par un autre fondement juridique. Le gouvernement a sciemment gardé le silence dessus, entretenant confusion et opacité pendant que La Quadrature et d’autres associations déposaient leurs recours.

En parallèle, l’exécutif a rapidement distillé dans la presse, dès le 16 mai, un autre élément de langage : le blocage de TikTok serait justifié par une opération d’ingérence étrangère de la part de l’Azerbaïdjan. En réalité, si l’Azerbaïdjan veut tirer bénéfice depuis plusieurs mois des tensions en Nouvelle-Calédonie, aucune opération de désinformation de sa part n’a été lancée sur TikTok. Et ce sont les services du Premier ministre eux-mêmes qui l’ont dit, par une fiche établie par Viginum, un service relevant du Premier ministre chargé d’étudier les opérations d’ingérence étrangère en ligne.

Sur ces deux points, le Premier ministre s’est retrouvé face à sa malhonnêteté et ses mensonges lorsque ses services ont dû justifier la mesure devant la justice. Dans le mémoire envoyé au Conseil d’État, on a ainsi pu découvrir que le fondement juridique de ce blocage n’était non pas l’état d’urgence, mais la « théorie des circonstances exceptionnelles », qui consiste à admettre dans des cas très exceptionnels des dérogations à certaines règles de droit. Admise par les juges il y a une centaine d’années, cette théorie est d’une certaine manière l’ancêtre de l’état d’urgence, mais jurisprudentiel. La loi de 1955, imaginée dans le contexte colonial de la guerre d’Algérie, a ensuite pris le relai avec un cadre précis. Comme cela a été relevé lors de l’audience, c’est la première fois que ces deux régimes d’exception se retrouvent invoqués en même temps. Derrière cette situation juridique inédite, on sent surtout que le gouvernement ne savait pas sur quel pied danser et avait décidé le blocage du réseau social avant d’avoir déterminé sa justification en droit. La presse l’a d’ailleurs confirmé : fin mai, La Lettre révélait que, en coulisses, le gouvernement avait passé un accord avec TikTok pour que la plateforme ne conteste pas en justice la décision de blocage qu’il n’arrivait pas à justifier légalement.

Cependant, cette théorie des « circonstances exceptionnelles » ne permet pas pour autant de sacrifier la liberté d’expression en ligne sur l’autel d’une sacro-sainte sécurité. Devant le Conseil d’État, le Premier ministre a notamment justifié le blocage de TikTok par de soi-disant contenus violents ou incitant à la violence. Le 20 mai, ses services écrivaient ainsi au Conseil d’État que « l’organisation de ces exactions a été largement facilitée par l’utilisation des réseaux sociaux, et particulièrement, du fait des caractéristiques spécifiques, du réseau social “TikTok” ». Mais lorsque le gouvernement fut sommé par le Conseil d’État d’apporter la preuve de ces contenus prétendument problématiques, il n’a produit que des captures d’écran… de contenus légaux. Les exemples choisis pour illustrer le besoin d’une censure n’étaient en réalité que des vidéos dénonçant les violences policières et l’organisation de milices civiles. En somme, des expressions politiques plus ou moins radicales, critiquant la situation, mais en rien des appels à la violence. Les services du Premier ministre ont admis sans peu de scrupules à l’audience que TikTok a été choisi car « le profil des émeutiers correspondait au profil des utilisateurs », c’est-à-dire les jeunes. Sans détour, le gouvernement assumait ainsi vouloir bâillonner la parole et l’expression de la jeunesse kanake alors même que ce qui était dénoncé dans les vidéos incriminées sur le moment s’est révélé être vrai : la presse a révélé ces derniers jours les cas de violences policières, la complicité de la police avec les milices, ou encore une agression raciste d’un policier kanak.

Enfin, le gouvernement a poursuivi dans la malhonnêteté lorsqu’il a assuré au Conseil d’État, dans un mémoire daté du 22 mai, que la mesure de blocage ne durerait pas. Il s’engageait ainsi à mettre fin au blocage lorsque « l’évolution de la situation sur le territoire de Nouvelle-Calédonie permettrait d’envisager une levée de la mesure », laissant même croire que cela pourrait intervenir « avant la lecture de l’ordonnance » (c’est-à-dire avant même la décision du Conseil d’État). En réalité, il aura fallu attendre plus de 24 heures après la levée de l’état d’urgence en Nouvelle-Calédonie pour que TikTok soit de nouveau accessible.

Le Conseil d’État allié du gouvernement

C’est ce dernier mensonge relatif à la levée de l’état d’urgence qui a semblé aider le Conseil d’État à ne pas sanctionner le gouvernement, donc à ne pas lui ordonner de rétablir l’accès à TikTok. En effet, pour que le juge administratif prenne une décision en référé, il faut, avant même de parler de l’illégalité de la situation, justifier d’une urgence à agir. On pourrait se dire que bloquer une plateforme majeure dans les échanges en ligne, sur l’ensemble du territoire de Nouvelle-Calédonie (270 000 habitant·es), pour une durée indéterminée, est une situation suffisamment urgente. C’est notamment ce qui a été défendu par les avocat·es présent·es à l’audience, rappelant l’aspect entièrement inédit d’un tel blocage en France et même dans l’Union européenne. Le Conseil d’État a d’ailleurs été moins exigeant par le passé : en 2020, quand nous lui demandions d’empêcher les drones de la préfecture de police de Paris de voler, ici aussi par un recours en référé, il constatait qu’il y avait bien une urgence à statuer.

Mais pour TikTok, le juge des référés a préféré jouer à chat perché : dans sa décision, il estime que « les requérants n’apportent aucun élément permettant de caractériser l’urgence à l’intervention du juge des référés », et précise, pour affirmer qu’il n’y a pas d’urgence, que « la décision contestée porte sur le blocage d’un seul réseau social sur le territoire de la Nouvelle-Calédonie, l’ensemble des autres réseaux sociaux et moyens de communication, la presse, les télévisions et radios n’étant en rien affectés ». Très belle preuve de l’incompréhension de ce que représente un réseau social aujourd’hui et de comment l’information circule en ligne. Le Conseil d’État oublie notamment que la Cour européenne des droits de l’Homme (CEDH) estime que bloquer l’ensemble d’une plateforme en ligne équivaut à empêcher un journal de paraître ou à un média audiovisuel de diffuser. Ici, nos institutions donnent l’impression de ne pas tenter de comprendre la réalité d’Internet et minimisent de fait l’atteinte qui découle de ce blocage.

Pour enfoncer le clou sur l’absence d’urgence à statuer, le juge des référés termine en reprenant à son compte la promesse malhonnête du gouvernement : « cette mesure de blocage doit prendre fin dans de très brefs délais, le gouvernement s’étant engagé, dans le dernier état de ses écritures, à lever immédiatement la mesure dès que les troubles l’ayant justifiée cesseront ». Il a donc laissé faire, octroyant au gouvernement un pouvoir discrétionnaire sur la date de rétablissement de la plateforme.

Un constat amère peut donc être fait : en France, comme en Russie ou en Turquie, le gouvernement peut bloquer d’un claquement de doigt un réseau social sans que la justice ne soit capable de l’en empêcher. Alors que le Conseil d’État aurait pu faire passer un message fort et exercer son rôle de contre-pouvoir, il est venu au secours du gouvernement en tolérant une atteinte sans précédent et totalement disproportionnée à la liberté d’expression et d’information.

Ne pas laisser faire

Bien que le blocage de TikTok soit levé, le précédent politique et juridique existe désormais. Nous pensons qu’il faut tout faire pour que celui-ci ne se reproduise pas et reste un cas isolé. Que ce soit par la Cour européenne des droits de l’Homme ou par le Comité des droits de l’Homme des Nations Unies, ce type de censure est unanimement condamné. Nous ne pouvons donc pas laisser le Conseil d’État se satisfaire de ce blocage et devons exiger de lui qu’il rappelle le droit et sanctionne le gouvernement.

C’est pourquoi nous avons donc déposé la semaine dernière un recours en excès de pouvoir contre cette décision. Il s’agit de la voie contentieuse classique, mais plus longue, lorsque l’on veut contester une décision administrative. Un tel recours prendra un à deux ans avant d’être jugé et nous espérons que le Conseil d’État sortira de sa torpeur et confirmera que le blocage était illégal. Car pour bloquer TikTok, le gouvernement ne s’est vu opposer aucun obstacle, aucun garde-fou, et n’a jamais eu à justifier sa mesure. La seule opposition à laquelle il a été confronté a été la saisie de la justice par les associations et la société civile. L’échec qui en a résulté est une preuve supplémentaire de la défaillance de plus en plus flagrante des leviers démocratiques.

Depuis de nombreuses années, nous constatons l’effondrement progressif de l’État de droit en France. Nous constatons que la politique toujours plus autoritaire des gouvernements successifs, et notamment ceux d’Emmanuel Macron, ne se voit opposer aucun obstacle institutionnel majeur. Avec le blocage arbitraire de TikTok, une nouvelle étape a été franchie. Nous ne cachons pas notre inquiétude face à ce constat, mais nous continuerons d’agir. Pensez, si vous le pouvez, à nous aider avec un don.

« Vous êtes filmé·es » : une critique documentaire de la surveillance

Dans la lignée des festivals organisés ces deux dernières années par nos ami·es de Technopolice Marseille, La Quadrature du Net s’associe à Tënk pour proposer une sélection de films documentaires abordant l’enjeu de la surveillance policière. Il s’agit, par le cinéma, de mieux penser les technologies et les rapports de pouvoirs qu’elles produisent, pour mieux les combattre. Voici le texte introduisant cette sélection à retrouver sur Tënk.

Sous couvert d’optimisation et de contrôle, la surveillance prolifère. À l’ère de l’informatique, nos messages privés sont traqués, nos publications constamment analysées, nos corps scrutés par les dispositifs de vidéosurveillance disséminés dans nos rues. Partout dans le monde, des data centers stockent des fichiers nous concernant qui, pris ensemble, disent tout ou presque de nos activités, de nos déplacements, de nos attachements. 

Si la surveillance est partout, si elle sature aussi l’actualité de même que les discours militants ou nos conversations intimes, elle reste largement invisible, souvent mal comprise. De grands schèmes tirés d’exemples historiques ou de science fiction – au hasard, la Stasi ou 1984 d’Orwell –, nous font généralement office de grilles de lecture. Mais on peine à en saisir avec nuance les ressorts et les ramifications, à discerner ses infrastructures, à en comprendre les effets ou les évolutions.

À La Quadrature du Net, nous travaillons depuis des années à la défense des droits humains face à la prolifération de la surveillance numérique. Et d’expérience, nous savons que produire un discours sur cet objet nécessite un effort constant de réflexion et d’élaboration.

C’est ce que nous tâchons de faire dans le cadre du projet Technopolice, en mettant l’accent sur les nouvelles technologies de surveillance policière des espaces publics urbains : vidéosurveillance algorithmique, police prédictive, drones, et bien d’autres encore. Dans ce travail d’enquête militante et d’éducation populaire qui est aussi une tentative de résistance, le cinéma documentaire apparaît comme un outil puissant. C’est pourquoi nous somme ravi·es de pouvoir faire cette escale en partenariat avec Tënk, en proposant cette sélection de films variés et complémentaires.

À travers cette sélection, il s’agit d’abord de tendre un miroir aux surveillants, de lever le voile sur ces acteurs en position de pouvoir qui produisent ou légitiment la surveillance (voir le film médiactiviste Supervision, tourné dans le centre de vidéosurveillance de Marseille ; voir aussi la super-production expérimentale All Light Everywhere, qui fait l’incroyable rencontre d’un représentant commercial d’Axon, leader du marché des bodycams policières ; voire enfin Prédire les crimes). Le documentaire permet aussi de convoquer un passé pas si lointain pour se remettre en mémoire ses méfaits par exemple en rappelant le viol de l’intimité et le contrôle qu’induit le regard policier (comme sous le régime polonais dans les années 1970 dans An Ordinary Country), ou en revenant sur la généalogie carcérale de la vidéosurveillance (Je croyais voir des prisonniers). Par la poésie, il peut enfin souligner, au-delà de l’État et de sa police, la multiplicité des formes de surveillance, la manière dont nous pouvons parfois nous en faire complices, et interroger la frontière entre surveillance et partage, domination et rencontre (L’Îlot).

Le choix des films, fait en collaboration avec le comité de programmation de Tënk, laisse évidemment de côté d’autres excellents titres. Mais l’ensemble donne bien à voir ce contre quoi nous luttons, à savoir ce vieux fantasme policier que décrivait Michel Foucault dans Surveiller et Punir (1975) : une « surveillance permanente, exhaustive, omniprésente, capable de tout rendre visible, mais à la condition de se rendre elle-même invisible », « un regard sans visage qui transforme tout le corps social en un champ de perception ».

À travers la puissance du cinéma, il s’agit aussi de remettre un tant soit peu de symétrie dans le rapport de force. Car si la surveillance peut s’interpréter comme un champ de perception au service du pouvoir, alors notre proposition éditoriale recèle aussi un espoir : l’espoir qu’en faisant collectivement l’expérience de ces films, nous puissions nous constituer ensemble en une sorte de contre-champ, en un faisceau de résistances.

Bon visionnage !

La Quadrature du Net

Proposition de loi « ingérences étrangères », une nouvelle étape dans l’escalade sécuritaire

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 29 mai 2024.

L’Observatoire des Libertés et du Numérique demande aux parlementaires de s’opposer à l’extension des finalités des boîtes noires de renseignement inscrite dans la proposition de loi « ingérences étrangères ».

« L’ingérence étrangère », un énième prétexte à l’extension de la surveillance de masse

La proposition de loi « Prévenir les ingérences étrangères en France» , présentée par le député Sacha Houlié avec le soutien du camp présidentiel, a été adoptée par l’Assemblée Nationale (27 mars) et le Sénat (22 mai) avec le soutien des partis Les Républicains et Rassemblement national – alliés naturels du gouvernement pour les lois sécuritaires, mais ici, avec également le soutien du PS et d’EELV.

L’objectif affiché de cette loi est de limiter les intrusions d’autres Etats via l’espionnage et les manipulations pour contraindre les intérêts géopolitiques de la France. Mais, alors que le gouvernement dispose déjà de nombreux outils pour éviter ces intrusions, ce texte fraîchement adopté ne peut qu’inquiéter. En effet, ces dispositions pourraient avoir pour conséquence de soumettre des associations d’intérêt public œuvrant pour l’intérêt collectif à des obligations de déclaration des subventions de fondations étrangères, renforçant ainsi les possibilités de contrôle gouvernemental.

Par ailleurs, dans une logique constante de solutionnisme technologique, le texte promeut l’extension d’une technique de renseignement dite de l’algorithme de détection ou « boîte noire de renseignement ».

Des gardes fous toujours remis en cause

Cette technique a été instaurée par la loi renseignement de 2015 et nos organisations s’y étaient alors fermement opposées. Elle implique, en effet, la nécessaire surveillance de l’intégralité des éléments techniques de toutes les communications de la population (qui contacte qui ? quand ? comment ? voire pourquoi ?), qu’elles soient téléphoniques ou sur internet, tout cela pour poursuivre l’objectif de détecter automatiquement des profils effectuant un certain nombre d’actions déterminées comme étant « suspectes ». Ces profils seront ensuite ciblés et plus spécifiquement suivis par des agents du renseignement. Cette technique agit donc à la manière d’un énorme « filet de pêche », jeté sur l’ensemble des personnes résidant en France, la largeur de maille étant déterminée par le gouvernement.

En raison de son caractère hautement liberticide, cette mesure avait été limitée à la stricte lutte contre le risque terroriste et instaurée de façon expérimentale pour quelques années avec des obligations d’évaluation. Malgré des résultats qui semblent peu convaincants et des rapports d’évaluation manquants, cette technique a, depuis, été pérennisée et explicitement élargie à l’analyse des adresses web des sites Internet.

Un dévoiement des finalités

L’OLN dénonçait déjà les risques induits par l’utilisation de ce dispositif avec la finalité de « lutte contre le terrorisme », notamment en raison de l’amplitude de ce que peut recouvrir la qualification de terrorisme, notion du reste non définie dans le texte.

L’actualité vient confirmer nos craintes et l’on ne compte plus les usages particulièrement préoccupants de cette notion : désignation « d’écoterroristes » pour des actions sans atteinte aux personnes, multiples poursuites pour « apologie du terrorisme » , pour des demandes de cessez-le-feu et des propos liés à l’autodétermination du peuple palestinien, condamnations pour une préparation de projet terroriste sans qu’un projet n’ait pu être établi par l’accusation.

Cette proposition de loi élargira cette technique de l’algorithme à deux nouvelles finalités de renseignement :

1° L’indépendance nationale, l’intégrité du territoire et la défense nationale ;

2° Les intérêts majeurs de la politique étrangère, l’exécution des engagements européens et internationaux de la France et la prévention de toute forme d’ingérence étrangère ;

Là encore, la définition des finalités est bien trop vague, sujette à de très larges interprétations, pouvant inclure les actions suivantes : militer contre des accords de libre-échange, lutter contre des projets pétroliers, soutien aux migrants, remettre en cause les ventes d’armement ou les interventions militaires de la France…

Un encadrement bien limité

Si un contrôle théorique de ses finalités doit être opéré par la Commission Nationale de Contrôle des Techniques de Renseignement (CNCTR), ses avis peuvent ne pas être suivis.

De même, si la proposition de loi est, là encore, prévue pour une phase « expérimentale » pendant 4 ans et avec des obligations de documentation, peu de doutes sont permis sur ce qu’il adviendra, au vu des précédents sur le sujet.

Un élargissement des « techniques spéciales d’enquête »

Dans le cadre de ce nouveau texte sécuritaire, le Sénat en a aussi profité pour aggraver le barème des peines et créer une nouvelle circonstance aggravante dite « générale » applicable à l’ensemble des infractions [au même titre que l’usage de la cryptologie…] permettant de monter d’un palier la peine de prison encourue (3 à 6, 5 à 7, 7 à 10…) dès que l’infraction est commise « dans le but de servir les intérêts d’une puissance étrangère, d’une entreprise ou d’une organisation étrangère, ou sous contrôle étranger ». Cette aggravation de peine permettra l’utilisation des techniques spéciales d’enquête, soit les intrusions les plus graves dans la vie privée (écoutes téléphoniques, balises GPS, la prise de contrôle d’appareil, hacking informatique…). Là où ces techniques étaient censées n’être utilisées que pour les crimes les plus graves, elles sont, texte après texte, étendues à un nombre toujours plus important d’infractions.

Quelle lutte contre quelles ingérences ?

Le Gouvernement ne ferait-il pas mieux de s’inquiéter de certaines ingérences étrangères bien réelles, telles que la captation des données de santé des Français exploitées par les autorités étasuniennes dans le cadre du Health Data Hub, d’autres captations frauduleuses par les entreprises du numérique américaines ou encore la vente de technologies de pointe par des sociétés étrangères, notamment israéliennes, comme PEGASUS, permettant de surveiller des personnalités politiques françaises au plus haut niveau ?

Des outils terrifiants au service d’un pouvoir qui continue sa fuite en avant autoritaire

Les boîtes noires comme les autres techniques d’intrusion du renseignement offrent des possibilités terrifiantes, qu’elles soient prévues par la loi ou utilisées abusivement. Cette démultiplication des capacités de surveillance participe à l’actuelle dérive autoritaire d’un pouvoir qui se crispe face aux contestations pourtant légitimes de sa politique antisociale et climaticide et devrait toutes et tous nous inquiéter alors que les idées les plus réactionnaires et de contrôle des populations s’intensifient chaque jour un peu plus.

Espérer un retour à la raison

Espérant un retour à la raison et à la primauté des libertés publiques, passant par la fin de la dérive sécuritaire et de son terrible « effet cliquet » nous appelons la Commission mixte paritaire qui aura à se prononcer sur ce texte puis les parlementaires à rejeter l’article 4 (élargissement du barème de peine et techniques spéciales d’enquête) et l’article 3 (élargissement des finalités des boites noires) de cette proposition de loi, et, a minima, à s’en tenir à une restriction d’utilisation de cette technique à des cas beaucoup plus précis et définis (par exemple au risque d’attentat causant des atteintes à la vie et les ingérences étrangères graves telles qu’envisagées aux articles 411-1 à -8 du Code pénal).

Organisations signataires membres de l’OLN : le CECIL, Globenet, Creis-Terminal, la Ligue des droits de l’Homme (LDH), le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).

Le règlement IA adopté, la fuite en avant techno-solutionniste peut se poursuivre

Réunis au sein du Conseil de l’Union européenne, les États-membres ont adopté hier le règlement IA, dédié à la régulation des systèmes d’Intelligence Artificielle. Cette étape marque l’adoption définitive de cet édifice législatif en discussion depuis 2021, et présenté au départ comme un instrument de protection des droits et libertés face au rouleau compresseur de l’IA. À l’arrivée, loin des promesses initiales et des commentaires emphatiques, ce texte est taillé sur mesure pour l’industrie de la tech, les polices européennes et autres grandes bureaucraties désireuses d’automatiser le contrôle social. Largement fondé sur l’auto-régulation, bardé de dérogations, il s’avère totalement incapable de faire obstacle aux dégâts sociaux, politiques et environnementaux liés à la prolifération de l’IA.

L’histoire avait commencé avec de belles promesses. En avril 2021, au moment de présenter sa proposition de règlement relatif à l’Intelligence Artificielle, la Commission européenne nous écrivait pour nous rassurer : elle porterait la « plus grande attention » à la pétition européenne lancée à l’époque contre la reconnaissance faciale. Le texte présenté quelques jours plus tard par la Commission s’accompagnait d’une proposition de moratoire sur certains de ces usages, au milieu d’un ensemble de mesures conçues pour mettre un minimum d’ordre dans un marché de l’IA en plein essor.

Lettre d'avril 2021 transmise par les services de la Commission européenne

Deux ans plus tard, le Parlement européen poussait le texte un cran loin, étendant diverses interdictions relatives aux usages policiers des techniques d’IA, ou contre les systèmes de « scoring » et autres formes de « notation sociale ». Mais après les coups de butoir des gouvernements des États-membres, au premier rang desquels les autorités françaises, rien ou presque des promesses initiales ne subsiste. Reste un « paquet législatif » certes volumineux, voire bavard, mais aussi très flou. Le règlement fait la part belle à l’auto-régulation et s’avérera incapable de protéger l’intérêt général face à la prolifération programmée des systèmes d’IA.

Une loi pour faire proliférer l’IA

Comme nous l’avions craint, plutôt que d’élever les garanties en matière de droits fondamentaux, le règlement IA vise à faire proliférer la production de données et leur collecte au bénéfice de l’industrie. Les textes européens comme le Règlement européen sur la protection des données (RGPD), entrés en vigueur en 2018, se retrouvent en partie affaiblis par ces nouvelles règles spéciales applicables aux systèmes d’IA.

Mais pour les acteurs publics et privés ayant poussé à l’adoption de ce texte, l’enjeu prioritaire n’a jamais été de protéger les droits fondamentaux. Le règlement est fondé sur une approche « par les risques », classant les types de systèmes d’IA ou leurs domaines d’application (police, santé, emploi, etc.) en fonction de quatre catégories de risque (risque faible non ciblé par le règlement ; risque limité pour certains systèmes soumis aux seules mesures de transparence prévues par l’article 50 ; risque élevé soumis aux obligations diverses du règlement ; risque inacceptable pour les quelques pratiques interdites par l’article 5).

À travers cet édifice législatif destiné à réguler un sous-secteur de l’industrie informatique en pleine expansion, et alors que les controverses autour de l’IA se multiplient – qu’il s’agisse de ses effets déshumanisants sur le travail, de son coût environnemental, de son impact sur les droits fondamentaux –, l’objectif est avant tout de poser les conditions d’une plus grande « acceptabilité sociale » de ces technologies pour mieux les imposer.

Dans ce processus, Emmanuel Macron et le gouvernement français auront joué à merveille leur partition. Tout affairé à la promotion de la Startup Nation, obnubilé par la course à l’innovation pour mieux attirer les capitaux étrangers, ne craignant pas les conflits d’intérêt et autres formes de corruption au cours des négociations sur le règlement, l’État français a en effet une responsabilité historique dans ce reniement.

La stratégie française est assumée. Elle se poursuit aujourd’hui à travers le projet de loi « simplification de la vie économique », qui vise notamment à accélérer les procédures de construction de data centers en faisant obstacle aux contestations locales. Microsoft en est l’un des principaux bénéficiaires, puisque le géant de l’informatique vient d’annoncer un investissement de 4 milliards d’euros pour démultiplier ses infrastructures de stockage et de calcul sur le territoire français. Et c’est également Microsoft qui a mis le grappin sur Mistral AI, promu comme champion national de l’IA, en annonçant un accord de partenariat avec la startup française sitôt l’accord politique conclu sur le texte du règlement IA. L’argument de la souveraineté numérique avancé par la France pour abaisser les exigences du règlement IA a donc bon dos, puisqu’en pratique l’État s’accommode très bien du renforcement des positions dominantes des multinationales de la tech.

En vertu du règlement adopté hier, ce sont les entreprises qui conçoivent les systèmes d’IA qui seront les premières compétentes pour de prononcer sur le niveau de risque que présentent leurs produits (article 43). Il leur sera alors loisible de considérer que ces systèmes ne sont pas risqués et donc exempts de toute régulation en vertu du règlement. Autrement, ce sont des organismes privés de certification qui seront amenés à délivrer des attestations de conformité1. De manière générale, les formes de régulation promues par le règlement s’assimilent essentiellement à de l’auto-régulation et au suivi de « bonnes pratiques », le tout sous l’égide d’organismes de standardisation de droit privé (le CEN-CENELEC au niveau européen ou l’AFNOR en France) au sein desquels l’industrie aura toutes latitudes2. Et si un peu de transparence est permise, pas question qu’elle mette pour autant en cause le sacro-saint « secret des affaires », mentionné à de multiples reprise dans le texte. Autant dire que le débat consistant à savoir qui, en France, de la CNIL, de l’Arcep ou de l’Arcom sera chargée de superviser l’application du règlement ne revêt pas d’énorme enjeu. 

Autre signe des considérations dont l’industrie fait l’objet, le chapitre VI contient un grand nombre de dispositifs réglementaires censés « soutenir l’innovation », afin de permettre au secteur privé d’entraîner ses modèles d’IA avec un soutien renforcé des pouvoirs publics.

La Technopolice en roue libre

S’il était clair depuis le début que l’approche par les risques promue par l’Union européenne pour réguler l’IA était conçue pour réguler un marché plutôt que de protéger les droits fondamentaux, au moins pouvait-on espérer que les usages les plus dangereux des systèmes d’IA, à l’image de la reconnaissance faciale, seraient bannis au titre des « risques inacceptables ». C’était en tout cas une demande de dizaines d’ONG et de plus de 250 000 citoyen·nes européen·nes réuni·es dans la coalition Reclaim Your Face et ce que laissait entendre la Commission au départ.

Là encore, la France a œuvré avec d’autres États à tenir en échec toutes prétentions en la matière, laissant les coudées franches aux forces de police et à l’industrie de la surveillance. L’analyse du texte permet de l’illustrer. L’article 5, qui dresse la liste des diverses interdictions ayant subsisté, proscrit bel et bien « l’utilisation de systèmes d’identification biométrique à distance en temps réel ». L’article 5.2 semble ici couvrir de nombreuses applications de vidéosurveillance algorithmique (VSA). Sauf que, d’une part, toute utilisation de tels systèmes échappe à cette formulation dès lors qu’elle est conduite en temps différé. Et que là encore, des exceptions en réduisent drastiquement la portée : le recours à la reconnaissance faciale en temps réel sera en effet possible dès lors qu’il s’agit de retrouver des victimes « d’enlèvement, de la traite ou de l’exploitation sexuelle d’êtres humains, ainsi que la recherche de personnes disparues », s’il s’agit de prévenir « une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques », ou encore pour prévenir « une menace réelle et actuelle ou réelle et prévisible d’attaque terroriste ». Autant de pieds dans la porte qui pourront facilement être étendus à de nouvelles situations à l’avenir.

Qui plus est, en la matière, l’armée et les services de renseignement se voient libérés de toute contrainte. C’est également le cas des équipes de recherches scientifiques pourront « innover » à loisir. L’article 2.3, relatif au champ d’application du règlement, précise en effet que celui-ci, et donc les interdictions qu’il énonce, ne s’applique pas aux systèmes d’IA développés « à des fins de recherche scientifique », ni à ceux utilisés à « des fins militaires, de défense ou de sécurité nationale ». Soit d’autres trous béants dans la raquette.

En pratique, toutes les formes d’IA policières contre lesquelles nous nous battons dans le cadre du projet Technopolice semblent permises par le règlement, de la VSA à la police prédictive. Tout au plus pourront-elles être considérées comme « à haut risque », car relevant de certains domaines d’applications sensibles définis dans l’annexe III3. Elles seront alors soumises à des obligations renforcées de transparence et de standardisation : les responsables de ces systèmes devront ainsi identifier, évaluer et traiter les « risques raisonnablement prévisibles (…) pour la santé, la sécurité ou les droits fondamentaux » (article 9.2), mettre en place des bonnes pratiques en matière de gouvernance des données (article 10), et tenir des registres liés aux activités de leurs systèmes (article 12). Standardisation et auto-régulation, sous l’égide d’agences publiques chargées d’organiser le tout, seront donc de mise.

La transparence des systèmes à haut risque restera extrêmement limitée en matière technopolicière. Car si de tels systèmes doivent normalement être répertoriés dans un registre public, les forces de l’ordre et les services d’immigration ont obtenu une dérogation (articles 49.4 et 71). Ils n’auront pas non plus à publier les études d’impact, ce qui est normalement obligatoire pour les systèmes à haut risque.

Enfin, même lorsqu’ils seront effectivement classés à haut risque, encore faut-il que les systèmes IA n’échappent pas à l’autre dérogation léonine ajoutée au texte. Un « filtre » défini à l’article 6.3 prévoit en effet que les obligations ad hoc ne s’appliquent pas dès lors que les systèmes d’IA considérés sont destinés à « accomplir un tâche procédurale étroite », à « améliorer ou optimiser » le résultat d’une « tâche humaine » déjà accomplie, s’ils ne réalisent qu’une « tâche préparatoire », ou si plus généralement, bien que relevant théoriquement des applications à haut risque définies à l’annexe III, ils « ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques ». Toutes ces notions juridiques paraissent particulièrement larges et laissent la porte ouverte à tous les abus, a fortiori dès lors qu’elles sont laissées à l’appréciation d’acteurs privés.

Quant aux systèmes de police prédictive basés sur le calcul de scores de risque par zones géographiques, dont nous soulignions récemment les dangers en terme de discrimination, il semble qu’ils échappent à la définition très restrictive proposée en la matière dans l’annexe III relative aux systèmes à haut risque, et donc aux obligations prévues pour cette catégorie4.

Algos de contrôle social et greenwashing en embuscade

En matière de « crédit social », également mis en avant comme l’une des proscriptions les plus ambitieuses posées par le texte et qui apparaissait comme une manière de préserver la bonne conscience européenne face à la dystopie numérique « à la chinoise », c’est encore la douche froide. La « notation sociale » – par exemple celle pratiquée par les Caisses d’allocations familiales que nous documentons depuis des mois – reste permise dès lors qu’elle ne relève pas, à l’instar des systèmes expérimentés en Chine, d’un système centralisé captant des données issues de contextes sociaux différents (police, travail, école, etc.) (considérant 31). Les notations sectorielles utilisées par les organismes sociaux pourront donc continuer de plus belle : bien qu’il les classe dans les applications à haut risque, et en dehors de quelques obligations procédurales déjà évoquées, le règlement n’apporte rien pour lutter efficacement contre les algorithmes discriminatoires des administrations sociales en matière de notation et de flicage des bénéficiaires.

Restent des déclarations de principe, dont la nature contradictoire devrait pourtant sauter aux yeux. On pense notamment au vœu pieu que « les systèmes d’IA [soient] développés et utilisés d’une manière durable et respectueuse de l’environnement » (considérant 27). Ou de l’idée décidément tenace qu’une informatisation toujours plus poussée permettra de répondre à l’enjeu du changement climatique (considérant 4), et ce alors que dans le même temps, notamment à travers la loi de simplification déjà citée, on encourage à tout-va la construction de data centers hyper-énergivores et qu’on relance l’extraction minière pour accompagner la « transition numérique ». Rien de bien surprenant cela dit puisque, chez les technocrates et autres apôtres des hautes technologies, l’IA est désormais un élément clé de tout bon discours de greenwashing.

Les seules règles en matière d’impact environnemental posées par le règlement IA consistent en la fourniture, par les concepteurs de système d’IA à haut risque qui cherchent à faire certifier leurs produits, d’informations visant à « améliorer les performances des systèmes d’IA en matière de ressources, telles que la réduction de la consommation d’énergie et d’autres ressources par le système d’IA (…) au cours de son cycle de vie », ou relatives au « développement économe en énergie de modèles d’IA à usage général » (article 40). Dans le même ordre d’idées, dans le cadre de l’annexe XI, les concepteurs d’IA génératives fondées sur de grands modèles de données, à l’image d’OpenAI, devront également fournir des informations sur « la consommation d’énergie connue ou estimée » liée à l’entraînement et à l’utilisation de ces modèles. Le tout étant là aussi chapeauté par les organismes de normalisation, l’exercice ne devrait être qu’une simple formalité aux effets parfaitement cosmétiques.

À l’arrivée, loin de protéger les valeurs de démocratie, d’État de droit et de respect pour l’environnement que l’Union européenne prétend encore incarner comme un phare dans la nuit, le règlement IA reste le produit d’une realpolitik désastreuse. Face à l’étau formé par la Chine et les États-Unis, il doit en effet permettre de relancer l’Europe dans la course aux dernières technologies informatiques, perçues comme de véritables étalons de puissance. Non seulement cette course paraît perdue d’avance mais, ce faisant, l’Union européenne participe à légitimer une fuite en avant techno-solutionniste dangereuse pour les libertés et insoutenable au plan écologique.

La généralisation de l’IA, en tant que paradigme technique et politique, a pour principal effet de démultiplier les dégâts engendrés par la sur-informatisation de nos sociétés. Puisqu’il est désormais clair que ce règlement ne sera d’aucune utilité pour enrayer l’emballement actuel, c’est d’autres moyens de lutte qu’il va nous falloir collectivement envisager.


  1. Veale, Michael, et Frederik Zuiderveen Borgesius. « Demystifying the Draft EU Artificial Intelligence Act — Analysing the Good, the Bad, and the Unclear Elements of the Proposed Approach ». Computer Law Review International 22, n° 4 (1 août 2021), p. 106. https://doi.org/10.9785/cri-2021-220402 ↩
  2. Perarnaud, Clément. « Loi européenne sur l’IA : une réglementation « digne de confiance » ? » La revue européenne des médias et du numérique, mars 2024. https://la-rem.eu/2024/03/loi-europeenne-sur-lia-une-reglementation-digne-de-con%ef%ac%81ance/. ↩
  3. L’annexe III définit comme étant à haut risque les systèmes d’IA liées aux applications suivantes :  surveillance biométrique, gestion d’infrastructures critiques, de l’éducation et de la formation professionnelle, de l’emploi et de la gestion de la main d’œuvre, l’accès aux services publics et prestations sociales, la police prédictive, le contrôle des migrations et l’administration de la justice. ↩
  4. L’annexe III, qui dresse la liste des applications à haut risque, n’évoque à l’article 6.d. que « les systèmes d’IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autorités répressives pour évaluer le risque qu’une personne physique commette une infraction ou récidive, sans se fonder uniquement sur le profilage des personnes physiques visé à l’article 3, paragraphe 4, de la directive (UE) 2016/680, ou pour évaluer les traits de personnalité, les caractéristiques ou les antécédents judiciaires de personnes physiques ou de groupes ». ↩

QSPTAG #308 — 17 mai 2024

Déjà une proposition de loi pour étendre la VSA dans les transports

C’est une logique que nous avions dénoncée comme un risque : la légalisation des « expérimentations » de vidéosurveillance algorithmique (VSA) dans le cadre des JO ouvrait la porte à une banalisation et à une extension de la VSA dans d’autres contextes. Cassandre avait raison, et l’extension de l’usage de la VSA, avant même son « évaluation », connaît déjà une nouvelle avancée.

Le Sénat a voté en février une proposition de loi que l’Assemblée nationale a commencé d’étudier en commission des lois ce mercredi 15 mai. Cette loi « relative au renforcement de la sûreté dans les transports » comporte un article 9 qui autoriserait l’utilisation de logiciels de VSA pour analyser a posteriori les images de vidéosurveillance prises dans les transports publics (SNCF et RATP en tête) dans le cadre d’enquêtes pénales. Les logiciels sont notamment capables d’isoler et de suivre une personne sur une grande quantité d’images et de reconstituer son trajet, sans que les agents aient besoin de visionner des heures d’enregistrements.

La stratégie est à la fois habile et grossière. On voit bien qu’elle avance à petits pas, autorisant un usage après l’autre, pour masquer la progression de la VSA en la disséminant dans une poussière de lois et de cas d’usages qui paraissent à chaque fois restreints. Mais il suffit d’un pas de recul pour voir que les prétentions à la sagesse et à la prudence, colportées par le terme « expérimentation » n’ont pas tenu très longtemps. Nous appelons évidemment les député·es à rejeter cet article qui veut légaliser des pratiques pour l’instant illégales dans la surveillance des transports en commun. Toutes les explications dans notre article.

Lire l’article : https://www.laquadrature.net/2024/05/14/vsa-lassemblee-discute-deja-son-extension-aux-transports/
Notre page de campagne contre la VSA : laquadrature.net/vsa

Recours contre le blocage de TikTok en Nouvelle-Calédonie

Dans un contexte de grande violence et de crise politique majeure en Nouvelle-Calédonie, le gouvernement a décidé de couper d’autorité l’accès à TikTok sur le territoire calédonien. Par-delà les questions de sécurité invoquées, cette censure arbitraire constitue un précédent très inquiétant, et une application directe des intentions de censure exprimées par Emmanuel Macron et le gouvernement lors des révoltes urbaines de l’été 2023. Nous avons déposé un référé-liberté (procédure d’urgence) devant le Conseil d’État pour contester cette mesure de censure. Plus de détails dans notre communiqué de presse.

Lire le communiqué : https://www.laquadrature.net/2024/05/17/la-quadrature-du-net-attaque-en-justice-le-blocage-de-tiktok-en-nouvelle-caledonie/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 65% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 18 mai 2024 : La Quadrature sera au Festival du livre et des cultures libres à l’espace autogéré des Tanneries, à Dijon. Plus d’infos ici.
  • 25 mai 2024 : Journées du logiciel libre à Lyon – Conférence « La vidéosurveillance algorithmique menace nos villes, contre-attaquons ! ». Plus d’infos sur la conférence et plus d’infos sur les JDLL.
  • 25 mai 2024 : La Quadrature participe à une table ronde organisée par le collectif Base Bleue dans le cadre de l’exposition « Les Yeux Olympiques ». Ce sera de 16h à 18h au Doc, 27 rue du Docteur Potain dans le 19e arrondissement de Paris.
  • 1er juin 2024 : Table ronde sur les réseaux sociaux dans l’environnement militant au festival Ma’Track à coté d’Angers. Plus d’informations ici.
  • 5 juin 2024 : Atelier-terrasse d’autodéfense numérique, LQDN convoquée Au Poste par David Dufresne.

La Quadrature dans les médias

Vidéosurveillance algorithmique (VSA)

Blocage de TikTok

Divers

La Quadrature du Net attaque en justice le blocage de TikTok en Nouvelle-Calédonie

Par un référé-liberté déposé ce jour, La Quadrature du Net demande au Conseil d’État la suspension de la décision du Premier ministre Gabriel Attal de bloquer en Nouvelle-Calédonie la plateforme TikTok. Par cette décision de blocage, le gouvernement porte un coup inédit et particulièrement grave à la liberté d’expression en ligne, que ni le contexte local ni la toxicité de la plateforme ne peuvent justifier dans un État de droit.

Les réflexes autoritaires du gouvernement

Alors que la situation en Nouvelle-Calédonie atteint un stade dramatique, après trois ans de crise, et que le dialogue politique semble rompu suite à la décision du gouvernement et du Parlement de modifier les règles d’accession au collège électoral au détriment des indépendantistes kanaks, le gouvernement a décidé de revenir à de vieux réflexes autoritaires et coloniaux. Outre l’envoi de forces armées, il a ainsi choisi de bloquer purement et simplement la plateforme TikTok sur le territoire de Nouvelle-Calédonie. Selon Numerama, le premier ministre justifie cette mesure « en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise », ajoutant que l’application serait « utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers ».

Or, pour mettre en œuvre cette censure, quoi de mieux qu’une des lois d’exception dont le gouvernement systématise l’usage ces dernières années ? En déclarant l’état d’urgence en Nouvelle-Calédonie, le gouvernement s’est autorisé à expérimenter un article de la loi de 1955, ajouté en 2017 : la possibilité de bloquer les plateformes en ligne « provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ».

Personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter. Cette décision de s’en prendre aux moyens de communication lors de moments de contestation violente – une première dans l’Union européenne et qui paraît digne des régimes russe ou turc, régulièrement condamnés par la CEDH pour atteintes à la liberté d’expression1Très logiquement, nous nous appuyons donc dans notre recours sur les précédents jurisprudentiels de la CEDH sanctionnant ces deux pays en raison des atteintes à la liberté d’expression contraires à la Convention européenne des droits de l’homme. – a déjà été éprouvée l’année dernière, après la mort de Nahel Merzouk.

À l’été 2023, Emmanuel Macron avait exprimé son souhait de pouvoir bloquer les réseaux sociaux lors de moments de crise. Le président de la République s’était alors lancé dans une véritable course à l’échalote autoritaire contre les plateformes en ligne, blâmant les jeux vidéos, puis les réseaux sociaux qu’il voulait alors pouvoir bloquer et sur lesquels il voulait accentuer la fin généralisée de l’anonymat en ligne (déjà bien amoché en pratique). À ce moment-là, les plateformes avaient répondu présentes pour censurer les contenus relatifs aux évènements et aux violences dans les banlieues. Nous avions alors dénoncé cette collaboration entre plateformes privées et pouvoirs publics, unis pour brimer la liberté d’expression au nom du « retour de l’ordre » (voir notre analyse). Aujourd’hui le gouvernement persiste et signe dans sa volonté de mettre au pas les moyens de communications, cette fois-ci en choisissant la voie explicitement autoritaire : le blocage total.

La Nouvelle-Calédonie, terrain d’expérimentation

La décision de bloquer TikTok en Nouvelle-Calédonie constitue pour le gouvernement une première mise en pratique du programme macroniste de censure en ligne annoncé l’été dernier. L’occasion paraît idéale pour le pouvoir : d’une part du fait du relatif désintérêt des médias français pour l’archipel (il aura fallu attendre plusieurs jours, et notamment un premier mort parmi les habitant·es, pour que la presse en métropole commence à traiter de l’actualité calédonienne) et d’autre part parce que ce territoire dispose de règles juridiques différentes, notamment vis-à-vis du droit de l’Union européenne. De cette manière, le gouvernement croit pouvoir éteindre la révolte sans répondre aux griefs de manifestants, en refusant d’aborder la question du rôle de la réforme constitutionnelle sur les élections calédoniennes dans le malaise de la population kanak.

L’objectif de cette décision de censure consiste avant tout à étouffer l’expression d’une révolte. Elle constitue aussi un ballon d’essai avant une possible généralisation de ce type de mesure. De ce point de vue, le contexte politique semble favorable. Dans un récent rapport faisant suite aux révoltes urbaines de 2023, la commission des Lois du Sénat ne demandait rien d’autre que ce qui est en train d’être appliqué en Nouvelle-Calédonie : le blocage des réseaux sociaux et des sanctions plus dures contre les personnes les ayant utilisés lors des révoltes d’une partie de la jeunesse des quartiers populaires l’an dernier.

Lutter contre la surenchère autoritaire

Par notre recours en référé déposé ce jour, nous tentons donc de stopper une machine autoritaire lancée à pleine vitesse. Ne nous y trompons pas : il ne s’agit pas de défendre TikTok, une plateforme dont la toxicité avérée commence à être prise en compte par le législateur. Mais les pouvoirs publics restent obnubilés par la nationalité chinoise des détenteurs des capitaux de la plateforme, alors qu’au fond pas grand-chose ne sépare le modèle de TikTok de celui d’Instagram, de Snapchat ou d’autres réseaux dominants. Au-delà de TikTok et de la tutelle exercée par le régime chinois, c’est l’ensemble de l’économie politique liée à ces réseaux sociaux centralisés, fondés sur la collecte et l’exploitation massive des données des utilisateurices, organisés autour d’algorithmes et d’interfaces toxiques, qu’il convient de démanteler. C’est notamment pour promouvoir des alternatives favorables à la liberté d’expression et protectrices des droits que nous appelons à imposer l’interopérabilité des réseaux sociaux.

Par ce recours, il s’agit de dénoncer haut et fort cette mesure autoritaire inédite dans un régime qui se prétend démocratique, mais aussi d’empêcher que ces désirs de contrôle puissent trouver une quelconque légitimité politique ou juridique à l’avenir. Alors que la loi visant à sécuriser et réguler l’espace numérique (SREN) a été votée et promet une large remise en question de l’anonymat en ligne et une plus grande censure administrative, alors que la lutte contre le terrorisme sert plus que jamais de prétexte à étouffer l’expression en ligne et les contestations, il faut continuer à agir.

Dans ce contexte, La Quadrature a d’autant plus besoin de vous. Le recours que nous avons déposé aujourd’hui ne serait pas possible sans votre soutien. Rejoignez-nous dans nos combats, pour ne pas rester silencieux.euses face aux attaques autoritaires du gouvernement. Et si vous le pouvez, faites-nous un don sur https://www.laquadrature.net/donner/

References[+]

References
1 Très logiquement, nous nous appuyons donc dans notre recours sur les précédents jurisprudentiels de la CEDH sanctionnant ces deux pays en raison des atteintes à la liberté d’expression contraires à la Convention européenne des droits de l’homme.

VSA : l’Assemblée discute déjà son extension aux transports

Alors que les expérimentations de vidéosurveillance algorithmique (VSA) prévues par la loi relative aux Jeux Olympiques ont à peine débuté et qu’aucune évaluation n’a encore été réalisée, le gouvernement passe déjà à la vitesse supérieure. Mercredi 15 mai, la commission des lois de l’Assemblée va discuter d’une proposition de loi visant à légaliser une nouvelle forme de VSA, en utilisant cette fois-ci comme excuse la sécurité dans les transports. Derrière ce texte passé presque inaperçu se cache une nouvelle avancée sécuritaire mais surtout un agenda politique assumé : celui de la généralisation sur le long terme des technologies de surveillance algorithmique des espaces publics. Le rapporteur Clément Beaune a refusé de nous auditionner. Pourtant nous aurions eu beaucoup à lui dire sur les dangers de cette technologie et les contradictions du gouvernement qui trahit sans scrupule les promesses formulées il n’y a même pas un an.

Vous vous souvenez de la loi Sécurité globale ? Voici sa petite sœur, la proposition de loi « relative au renforcement de la sûreté dans les transports ». Adoptée en février par le Sénat, ce texte propose les pires projets sécuritaires : captation du son dans les wagons, pérennisation des caméras-piétons pour les agent·es et extension aux chauffeur·euses de bus, autorisation donnée aux régies de transports pour traiter des données sensibles (ce qui permettrait de collecter des données liées à l’origine raciale, les données de santé ou encore les opinions religieuses et politiques) ou encore transmission directe au ministère public des procès-verbaux d’infractions commises dans les transports.

Expérimenter pour banaliser et légitimer

Mais surtout, cette proposition de loi envisage une nouvelle expérimentation de la vidéosurveillance algorithmique jusqu’en 2027. Son article 9 est un quasi copié-collé de l’article 10 de la loi relative aux Jeux olympiques adoptée l’année dernière et qui prévoyait l’utilisation d’algorithmes de reconnaissance de comportements dans un cadre soit-disant « expérimental » pour tout évènement récréatif, sportif et culturel. Alors que les premiers déploiements ont à peine commencé, que des sénateur·rices ont constaté dans un récent rapport que ces dispositifs ne seront pas suffisamment opérationnels pour les JO de Paris et que l’évaluation prévue par la loi n’a pas encore été faite, ce nouveau texte discuté demain propose de rendre légal un autre type de logiciel d’analyse de flux vidéos.

En l’occurrence, il s’agirait d’autoriser des traitements de données ayant pour but d’« extraire et exporter les images » réquisitionnées par la police dans le cadre d’enquêtes pénales. Derrière cette formule floue, nous devinons qu’il s’agit en réalité des algorithmes de VSA dits « a posteriori » dont nous documentons l’usage depuis des années dans le cadre de l’initiative Technopolice.

En effet, s’il est très facile d’effectuer une recherche dans un document texte, la tâche s’avère plus compliquée et chronophage lorsqu’il s’agit d’effectuer une recherche dans un flux vidéo. La VSA « a posteriori » permet d’ automatiser des recherches dans des archives vidéo. Comme nous l’expliquons dans notre brochure détaillée publiée début mai, cela consiste à lancer des requêtes de reconnaissance d’image afin de faire remonter l’ensemble des bandes vidéos correspondant à certains critères thématiques comme détecter l’ensemble des hommes portant un t-shirt jaune et un pantalon noir repérés dans une zone géographique donnée durant les dernières 24h. Concrètement, cela permet de retracer le parcours de quelqu’un dans une ville. La VSA peut également raccourcir le temps de visionnage en condensant des heures ou des jours de vidéos en quelques minutes. Le rôle de la VSA dans cet usage est de sélectionner les passages susceptibles d’intéresser la police et de faire une ellipse sur le reste du temps de vidéo. Cette technologie repose sur l’analyse et le tri des caractéristiques biométriques des personnes, ce qui la rend totalement illégale.

Le plus connu des logiciels permettant de tels usages est celui de Briefcam, une entreprise israélienne rachetée par le groupe japonais Canon. Pas moins de 200 villes françaises seraient dotées de sa technologie de VSA, qui permet aussi de faire de la reconnaissance faciale. Le manuel d’utilisation que nous avons obtenu ainsi que les vidéos promotionnelles1 Voir notamment cette vidéo à partir de 3:12 sont parlantes quant aux capacités de ces algorithmes de tri et de catégorisation des personnes, considérés comme de simples « objets ».

Comme toute technologie de VSA, elle permet à la police d’augmenter son contrôle de l’espace public, réduisant ainsi l’anonymat et les libertés que l’on y exerce. Mais la VSA étend également les logiques policières en les automatisant. Toute décision opérée sur le logiciel ne fait que refléter un choix humain, en l’occurrence celui des policiers, et généralise les habitudes qu’ils ont en matière de surveillance de l’espace public. Qu’il s’agisse des critères physiques choisis pour mettre en œuvre des filtres de tri et de repérage (par exemple, un homme vêtu d’un jogging et d’une casquette), des lieux ciblés par cette analyse (abords d’un lieu militant ou quartier populaire…) ou encore de la fonctionnalité choisie (pour retrouver le parcours de quelqu’un ou pour ne repérer qu’une certaine catégorie de personne), chacune des utilisations de cette VSA renforce des pratiques policières discriminantes et créé un risque supplémentaire de surveillance.

Une hypocrisie de plus : légaliser l’illégal

Bien que ces logiciels soient massivement utilisés par la police dans de nombreuses villes de France, et ce en toute illégalité, la proposition de loi discutée ce mercredi cantonne « l’expérimentation » aux transports pour trois ans. En pratique, seules la RATP ou la SNCF seront donc autorisées par la loi à avoir recours à ces algorithmes, et uniquement pour répondre à des réquisitions d’enregistrements dans le cadre d’enquêtes pénales. Plutôt que de condamner ces utilisations illégales et massives de VSA, le gouvernement a donc choisi de les légitimer au travers d’un texte qui semble en apparence circonscrit et proportionné. Comme pour la loi relative aux Jeux Olympiques, le gouvernement souhaite avancer par « petit pas » pour mettre en œuvre sa stratégie de légalisation, en concentrant l’attention sur un spectre réduit d’usages encadrés par des lois « expérimentales ».

Usages de la VSA

Ces cadres « expérimentaux » permettent de donner l’apparence d’un aspect éphémère et réversible pour construire l’acceptabilité sociale d’une technologie autoritaire. Mais il ne fait que peu de doute que ces dispositifs seront soit pérennisés soit étendus à de nouveaux usages L’arrivée de ce texte, un an à peine après celui de la loi JO, en est le meilleur exemple. Il n’est d’ailleurs pas étonnant que les transports aient été choisis pour mettre en application cette nouvelle accélération. En effet, ceux-ci jouent un rôle moteur dans la promotion de la VSA en France. En 2022, la CNIL avait lancé une consultation publique sur le sujet et les contributions de la RATP et de la SNCF étaient éloquentes quant à leurs intentions de surveillance.

Aussi, comme l’a rappelé Mediapart, la SNCF expérimente régulièrement depuis 2017, de façon totalement illégale, plusieurs logiciels de surveillance dans les gares achetés auprès de plusieurs entreprises. Début mai, nous avons dénoncé à la CNIL un de ces programmes illégaux mis en œuvre par la SNCF, Prevent PCP, qui vise à faire de la filature automatisée de personnes dans les gares, sur la base de leurs attributs physiques et biométriques, sous prétexte de retrouver les personnes qui abandonneraient un bagage en gare. Quant à la RATP, elle a expérimenté la vidéosurveillance algorithmique dans ses rames et sur ses quais avec Evitech et Wintics. Bref, la proposition de loi apparaît taillée sur mesure pour légaliser une partie des dispositifs de VSA d’ores et déjà utilisés illégalement par la SNCF ou la RATP.

Un Parlement instrumentalisé

Qu’il s’agisse de cette proposition de loi sur les transports ou de la loi relative aux Jeux olympiques adoptée en mai 2023, l’intention qui préside à ces textes n’est pas d’engager une discussion sincère sur l’utilité de la VSA, mais d’entériner des états de fait. Le Sénat et l’Assemblée nationale apparaissent alors comme de simples chambre d’enregistrement du gouvernement, qui trahit ses engagements et multiplie les manœuvres rendant impossible un réel débat parlementaire.

En effet, celui-ci n’a pas peur de s’asseoir sur ses promesses faites l’année dernière aux député·es et sénateur·ices. Lors des débats sur la loi sur les Jeux Olympiques, aussi bien le rapporteur Guillaume Vuilletet que Gerald Darmanin assuraient mordicus aux parlementaires inquiets que de nombreuses garanties avaient été prévues, et notamment puisqu’il s’agissait d’une « expérimentation », que seul l’aboutissement d’un processus d’évaluation permettrait d’aller plus loin. Les modalités de cet examen ont été précisées par un décret du 11 octobre 2023 et un comité a été nommé pour rendre un rapport d’ici fin mars 2025. Mais ces gardes-fous, pourtant votés par la représentation nationale il y a un an, sont balayés d’un revers de main aujourd’hui : sans attendre ce rapport, le gouvernement préfère avancer, en assumant avoir menti aux parlementaires.

D’autre part, le processus législatif qui entoure ce texte sur les transports démontre que le gouvernement refuse au Parlement les conditions d’un débat serein et approfondi. Comme son nom l’indique, ce texte est une proposition de loi, c’est à dire une initiative parlementaire et non gouvernementale, déposée en l’occurrence par Philippe Tabarot, un sénateur LR. Celui-ci n’est pas sans lien avec le sujet puisqu’il a été plusieurs années à la tête de la régie des transports PACA puis vice-président de la Commission des transports de Régions de France.

Or, compte tenu du fait qu’il s’agit d’une proposition de loi de l’opposition, ce texte ne pouvait en théorie être transféré à l’Assemblée qu’au travers d’une « niche » du parti LR. C’était sans compter la volonté de l’exécutif de le mettre à l’ordre du jour de son propre chef. En outre, le gouvernement n’a pas hésité à recourir une fois de plus à l’excuse des Jeux olympiques pour déclencher une procédure accélérée pour l’examen du loi, prétextant que ce texte devait entrer en vigueur avant cet évènement en juillet. Mais ce n’est pas tout. Alors que l’année dernière, pour la loi JO, le gouvernement avait au minimum posé les conditions d’un examen parlementaire informé, ici aucune étude d’impact, aucun avis de la CNIL, aucune explication de la technologie couverte par l’article 9 n’a été publiée ou transmise aux parlementaires.

Les député·es vont donc voter un texte sans comprendre les implications techniques et les conséquences en termes de surveillance de cet usage de la VSA, qui sera très probablement minimisée et mal expliquée par le rapporteur Clément Beaune. D’ailleurs, ce dernier ne semble pas disposé à un quelconque débat : lorsque nous lui avons demandé à être auditionné afin d’en savoir plus sur le contenu de ce texte ainsi que pour alerter sur ses dangers, l’administration de l’Assemblée nationale a refusé, prétextant un « calendrier trop chargé ».

Faire passer un texte à toute vitesse, faire primer l’opportunisme politique sur la transparence démocratique et refuser d’écouter une association de défense des droits qui travaille depuis des années sur le sujet, c’est tout le jeu démocratique qui est bafoué. Une fois de plus, il n’y a aucune volonté de la part des pouvoirs publics d’examiner sincèrement l’utilité ou les dangers de la VSA, et encore moins de démanteler l’infrastructure de surveillance illégalement déployée depuis des années. En réalité, les intérêts politiques et sécuritaires priment et les garde-fous démocratiques sont réduits à de purs instruments cosmétiques.

Cette proposition de loi sur les transports constitue une étape de plus dans le déploiement de la surveillance automatisée des rues, au bénéfice de la police et des industriels de la Technopolice. Alors que le gouvernement ne s’embarrasse même plus à permettre les conditions d’un débat parlementaire, mobilisons-nous ! Interpellez votre député·e sur ce texte ou bien créez vous-même la contestation dans votre ville ou votre département. Car à coté de ces débats législatifs, la VSA continue de s’installer de façon illégale à travers le pays, souvent à l’échelon des collectivité locales. Pour dénoncer cette hypocrisie et refuser le projet de société de surveillance de l’espace public, nous avons lancé un kit de mobilisation il y a deux semaines. Vous pouvez y trouver ressources, modes d’action et des affiches pour faire valoir une opposition populaire à la VSA. Rejoignez la campagne sur www.laquadrature.net/vsa, et si vous le pouvez, faites un don sur www.laquadrature.net/donner !

References[+]

References
1 Voir notamment cette vidéo à partir de 3:12

QSPTAG #307 — 3 mai 2024

Lancement de notre campagne contre la VSA

La loi JO de 2023 a légalisé des « expérimentations » de vidéosurveillance algorithmique (VSA) dans un cadre précis : des événements « festifs, sportifs ou culturels », sur une période donnée (jusqu’en mars 2025), et pour surveiller seulement huit critères parmi lesquels les départs de feu, les franchissements de ligne ou les mouvements de foule par exemple. Mais on le sait depuis longtemps grâce à notre campagne Technopolice, la VSA est déjà présente et utilisée dans des dizaines de communes sans aucun cadre légal. La SNCF expérimente par exemple depuis plusieurs mois un dispositif appelé Prevent PCP et qui dépasse largement le cadre délimité par la loi JO.

C’est pourquoi nous lançons cette semaine une grande campagne contre la VSA légale et illégale, en profitant de l’intérêt suscité par les JO, pour dénoncer l’hypocrisie consistant à légaliser petit à petit, et à banaliser par le fait, un système de surveillance qui sert à la fois des intérêts électoraux, industriels et policiers au mépris complet des droits fondamentaux et sans aucun débat démocratique.

Première action de cette campagne : une plainte devant la CNIL contre le dispositif Prevent PCPC de la SNCF. Pour en savoir plus sur la campagne, lisez notre communiqué de lancement ! Et retrouvez sur notre page de campagne les éléments de communication et de sensibilisation que nous avons préparés. Ils seront complétés au fil de la campagne.

Lire le communiqué de lancement de la campagne : https://www.laquadrature.net/2024/05/02/contre-lempire-de-la-videosurveillance-algorithmique-la-quadrature-du-net-contre-attaque/
Le site de campagne : hhttps://www.laquadrature.net/vsa/

Hadopi : la CJUE renonce à protéger l’anonymat en ligne

C’est une affaire qui commence en 2019. Dans le cadre de nos actions contre Hadopi, nous avions soulevé devant le Conseil d’État le problème de l’absence de contrôle préalable à la collecte des adresses IP et de l’identité civile des internautes, et la question de la licéité de cette collecte au regard du droit de l’UE. Après un circuit complet, du Conseil d’État au Conseil constitutionnel et retour, le Conseil d’État avait décidé de transmettre le problème sous forme d’une « question préjudicielle » à la Cour de justice de l’Union européenne (CJUE). Celle-ci a rendu une décision très décevante ce mardi 30 avril. À rebours de sa décision de 2020, la CJUE autorise toujours la collecte massive de l’identité civile des internautes, et admet désormais que l’association de celle-ci avec l’adresse IP et une communication peut se faire pour n’importe quel motif. Elle semble valider de guerre lasse la pratique illicite des États européens depuis des années. Tous les détails de cette décision et de ses conséquences dans notre article de réaction.

Lire notre réaction : https://www.laquadrature.net/2024/04/30/surveillance-et-hadopi-la-justice-europeenne-enterre-un-peu-plus-lanonymat-en-ligne/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment atteint 60% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 3 mai 2024 : Apéro public dans nos locaux, 115 rue de Ménilmontant, 75020 Paris, à partir de 19h. Venez nous rencontrer !
  • 16 mai 2024 : Causerie mensuelle du groupe Technopolice Marseille, à partir de 19h au Manifesten, 59 Rue Adolphe Thiers, Marseille.
  • 18 mai 2024 : La Quadrature sera au Festival du livre et des cultures libres à l’espace autogéré des Tanneries, à Dijon. Plus d’infos ici : https://festivaldulivre.tanneries.org/.
  • 25 mai 2024 : Journées du logiciel libre à Lyon – Conférence « La vidéosurveillance algorithmique menace nos villes, contre-attaquons ! » à 13h. Plus d’infos sur la conférence et plus d’infos sur les JDLL.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

VSA et JO

Hadopi

Divers

Contre l’empire de la vidéosurveillance algorithmique, La Quadrature du Net contre-attaque

L’« expérimentation » de la vidéosurveillance algorithmique (VSA) dans le cadre fixé par la loi « Jeux Olympiques » adoptée l’an dernier n’en est pas une : elle n’est qu’une manœuvre hypocrite destinée à légaliser par petites touches une infrastructure policière déjà massivement déployée en France. Pour contrer cette stratégie, La Quadrature du Net lance aujourd’hui une campagne visant à nourrir l’opposition populaire à la VSA, une technologie basée sur des techniques d’« Intelligence Artificielle » qui s’assimile à un contrôle constant et automatisé des espaces publics, et qui marque un tournant historique dans la surveillance d’État. Une plainte a également été déposée devant la CNIL afin de dénoncer l’hypocrisie des promoteurs de la VSA et pointer l’incurie de l’autorité de protection des données personnelles.

Le prétexte des Jeux Olympiques

Depuis quelques jours, les services de police du pays et les services de sécurité des sociétés de transport ont légalement recours à la VSA1Voir notre article consacré aux premiers arrêtés préfectoraux autorisant le recours à la VSA.. Fin avril, invoquant des afflux importants de personnes liés à des matchs de foot ou des concerts, la préfecture de police de Paris a en effet autorisé la SNCF et la RATP à utiliser les technologies de la startup Wintics pour croiser les flux des centaines de caméras installées dans certaines gares et stations de métro parisiennes2Les catégories d’événements à repérer par les systèmes de VSA reprennent une partie des catégories prévues par la loi de 2023, en l’espèce : franchissement ou présence d’une personne dans une zone interdite ou sensible, densité trop importante de personnes, mouvement de foule, présence d’objets abandonnés.. Ces « expérimentations » vont se poursuivre jusqu’en mars 2025, dans le cadre juridique fixé par la loi relative aux Jeux Olympiques adoptée l’an dernier.

Qu’importe l’efficacité dérisoire de ces systèmes de surveillance automatisée des espaces publics. Pour le ministère de l’intérieur, les industriels et leurs relais politiques, ces expérimentations servent avant tout à détourner l’attention, alors qu’en parallèle, des centaines de systèmes de VSA sont illégalement utilisés depuis des années par l’État, les collectivités locales ou les régies de transport. Il s’agit aussi de faire oublier qu’au croisement d’intérêts économiques, électoralistes et autoritaires, les promoteurs de la Technopolice travaillent depuis des années à l’imposition de la VSA partout sur le territoire.

Le pire est à venir

De fait, les projets de loi visant à pérenniser la VSA en recourant aux applications les plus sensibles – à l’image de la reconnaissance faciale en temps réel dans l’espace public ou de la vidéoverbalisation automatique des petites infractions – sont pour certains déjà dans les cartons.

La proposition de loi Transports est un parfait exemple : l’Assemblée nationale s’apprête à débattre de cette proposition poussée par la droite sénatoriale et visant à légaliser la VSA dans les transports. Le gouvernement soutient l’initiative parlementaire puisqu’il a activé la procédure accélérée sur ce texte, sans même attendre les évaluations imposées par la loi JO3Guillaume Jacquot. « Transports : le Sénat adopte une proposition de loi qui renforce l’arsenal de sécurité, avec le soutien du gouvernement », Public Sénat, 14 février 2024..

Par ailleurs, en juin 2023, soit moins de trois mois après l’adoption de la loi JO, le Sénat reprenait un projet d’expérimentation d’abord mûri par la majorité macroniste en adoptant une proposition de loi prévoyant une expérimentation de trois ans de la reconnaissance faciale couplée à la vidéosurveillance. « Trop tôt », avait en substance répondu le gouvernement, estimant que les conditions politiques n’étaient pas réunies et préférant s’en tenir à une stratégie des petits pas4Simon Barbarit, « Reconnaissance faciale : le Sénat adopte une proposition de loi pour expérimenter cette technologie ». Public Sénat, 12 juin 2023..

Dénoncer l’hypocrisie ambiante

Pour mieux illustrer l’hypocrisie des « expérimentations » liées à la loi JO, La Quadrature du Net vient de déposer une plainte devant la CNIL contre un déploiement de la VSA totalement illégal et resté largement sous les radars : le projet Prevent PCP.

Associant la SNCF et la RATP avec un panel d’entreprises, dont le groupe Atos et ChapsVision (par ailleurs toutes deux prestataires des expérimentations liées à la loi JO), Prevent PCP prend formellement la forme d’un marché public subventionné par l’Union européenne. En pratique, les entreprises voient leurs systèmes de VSA déployés dans des grandes gares à travers l’Europe pour détecter des « bagages abandonnés », via une méthode reposant sur l’identification et le suivi des propriétaires des bagages. En France, ces systèmes de VSA sont ainsi déployés depuis des mois dans la gare du Nord et la gare de Lyon à Paris ou, plus récemment, dans la gare de Marseille-Saint-Charles.

Grâce aux éléments mis au jour par le groupe local Technopolice Marseille, La Quadrature du Net a donc déposé une plainte devant la CNIL contre ce projet, qui n’est qu’un exemple parmi les centaines de déploiements illégaux de la VSA en France. À travers cette démarche, il s’agit de renvoyer l’autorité en charge de la protection des données personnelles au rôle qui devrait être le sien, alors qu’elle laisse proliférer des projets illégaux de VSA tout en accompagnant le processus de légalisation. Cette plainte permet également de souligner l’hypocrisie des protagonistes de Prevent PCP : alors même qu’elles prennent part à l’expérimentation de la VSA prévue par loi JO, la SNCF, la RATP, Atos ou ChapsVision se livrent en parallèle à des déploiements dépourvus de toute base légale.

Nourrir une opposition populaire à la VSA

Aujourd’hui, La Quadrature du Net lance également différents outils destinés à nourrir des mobilisations contre la VSA dans les prochains mois, et résister à sa légalisation programmée. Une brochure détaillée expliquant les dangers de la VSA, ainsi que des affiches destinées à informer la population sont disponibles sur cette page de campagne dédiée, qui sera enrichie dans les semaines et mois à venir5La page de campagne est disponible à l’adresse laquadrature.net/vsa..

Cette campagne contre la VSA s’inscrit dans le cadre de l’initiative Technopolice, lancée en 2019 par La Quadrature pour résister au nouvelles technologies de surveillance policière. Le site Technopolice propose un forum public ainsi qu’une plateforme de documentation participative (appelée le « carré »), libre d’utilisation et destinés à organiser et fédérer des collectifs locaux opposés à ces technologies.

Pour faire la lumière sur les arrêtés préfectoraux qui autorisent localement la VSA dans le cadre de la loi JO, nous avons également lancé un compte Mastodon, Attrap’Surveillance, qui analyse les recueils des actes administratifs des préfectures et diffuse des alertes lorsque des autorisations de surveillance policière sont détectées. C’est ce dispositif qui a permis de repérer mi-avril les premiers arrêtés de VSA. Dans les prochaines semaines, il permettra d’être averti des expérimentations de la VSA autorisées par les préfets afin de les dénoncer.

Par tous les moyens, il nous faut faire valoir notre refus d’un contrôle permanent de nos faits et gestes, dénoncer ces expérimentations, documenter les projets illégaux qui continuent de proliférer, et nous organiser localement pour battre en brèche la Technopolice. Ensemble, luttons pour que l’espace public ne se transforme pas définitivement en lieu de répression policière, pour que nos villes et nos villages soient des espaces de liberté, de créativité et de rencontres !

Pour suivre l’actualité de La Quadrature et suivre cette campagne contre la VSA, vous pouvez vous abonner à notre lettre d’information.

References[+]

References
1 Voir notre article consacré aux premiers arrêtés préfectoraux autorisant le recours à la VSA.
2 Les catégories d’événements à repérer par les systèmes de VSA reprennent une partie des catégories prévues par la loi de 2023, en l’espèce : franchissement ou présence d’une personne dans une zone interdite ou sensible, densité trop importante de personnes, mouvement de foule, présence d’objets abandonnés.
3 Guillaume Jacquot. « Transports : le Sénat adopte une proposition de loi qui renforce l’arsenal de sécurité, avec le soutien du gouvernement », Public Sénat, 14 février 2024.
4 Simon Barbarit, « Reconnaissance faciale : le Sénat adopte une proposition de loi pour expérimenter cette technologie ». Public Sénat, 12 juin 2023.
5 La page de campagne est disponible à l’adresse laquadrature.net/vsa.

Surveillance et Hadopi : la justice européenne enterre un peu plus l’anonymat en ligne

Dans son arrêt du 30 avril 2024, la Cour de justice de l’Union européenne (CJUE) vient de rendre sa décision concernant la légalité du système de surveillance massif de la Hadopi. Cet arrêt est décevant. La CJUE tempère très fortement sa précédente jurisprudence, au-delà du cas de la Hadopi. En considérant désormais que l’accès aux adresses IP n’est pas sensible, elle admet la possibilité de surveiller massivement Internet.

La Cour de justice de l’Union européenne vient d’autoriser l’accès massif et automatisé à l’adresse IP associée à l’identité civile et au contenu d’une communication. Le tout pour des finalités triviales et sans contrôle préalable par un juge ou par une autorité administrative indépendante.

L’arrêt du 30 avril 2024 est un revirement de jurisprudence. La CJUE vient d’autoriser un accès massif aux adresses IP associées à l’identité civile de l’internaute. Les polices de toute l’Europe, après une décennie de combat où les États ont délibérément choisi de ne pas appliquer les nombreuses décisions précédentes de la CJUE, viennent de l’emporter. C’est une prime à l’abus, un signe très fort lancé aux pays autoritaires : la CJUE admet qu’elle finira par changer sa jurisprudence si ses décisions ne sont pas appliquées. C’est un affaiblissement inquiétant de l’autorité de la Cour face à la pression des États membres.

Alors qu’en 2020, la CJUE considérait que la conservation des adresses IP constitue une ingérence grave dans les droits fondamentaux et que ces dernières ne peuvent faire l’objet d’un accès, associé à l’identité civile de l’internaute, seulement dans des cas de criminalité grave ou d’atteinte à la sécurité nationale, tel n’est aujourd’hui plus le cas. La CJUE renverse son raisonnement : elle estime désormais que la conservation des adresses IP n’est, par défaut, plus une atteinte grave aux libertés fondamentales, et que dans certains cas seulement cet accès porte une ingérence grave qu’il faut entourer de garanties.

Concernant notre affaire et le cas précis de la Hadopi en France, la Cour pousse seulement la Hadopi à évoluer. Elle estime que dans certaines situations « atypiques » l’accès à l’adresse IP et l’identité civile associée à une œuvre culturelle peut créer une ingérence grave dans le droit à la vie privée (on peut penser au cas d’une œuvre permettant de tirer des conclusions relatives aux opinions politiques, à l’orientation sexuelle, etc.) ; elle estime aussi que cet accès porte une ingérence grave en cas de « réitération » et exige dès lors que l’accès aux adresses IP ne puisse pas être « entièrement automatisé ». Mais dans tous les autres cas la CJUE dit bien que la Hadopi peut accéder de manière massive et automatisée à l’identité civile des personnes.

Autrement dit, la riposte graduée (du nom de la procédure suivie par Hadopi qui consiste à envoyer plusieurs avertissements dans les premiers temps, avant de saisir la justice si l’internaute ne « sécurise » pas sa connexion) devra changer de forme. Le législateur devra inventer une machine à gaz pour prévoir un pseudo contrôle externe indépendant de l’accès à l’identité civile par la Hadopi. Alors qu’aujourd’hui il n’existe aucune obligation de contrôle externe de la Hadopi, l’autorité devra désormais prévoir un tel contrôle lorsqu’elle souhaite, dans ces cas « atypiques » ou en cas de « réitération » de l’internaute, accéder à l’identité civile. En somme, des agent·es externes à la Hadopi seront chargé·es de cliquer sur un bouton « autoriser », là où aujourd’hui la Hadopi se l’autorise elle-même.

Plus généralement, cet arrêt de la Cour européenne a surtout validé la fin de l’anonymat en ligne. Alors qu’en 2020 elle précisait qu’il existait un droit à l’anonymat en ligne concrétisé par la directive ePrivacy, elle l’abandonne aujourd’hui. Et pour cause : en permettant à la police d’accéder largement à l’identité civile associée à une adresse IP et au contenu d’une communication, elle met de facto fin à l’anonymat en ligne.

Nous nous attendons désormais à ce que le Conseil d’État sauve la Hadopi, malgré cet arrêt. La Quadrature du Net continuera son combat contre la surveillance en ligne, y compris celle de la Hadopi. Pour nous aider, vous pouvez nous faire un don.

QSPTAG #306 — 26 avril 2024

VSA et JO : top départ

Vous le savez, la loi JO votée en 2023 autorise la vidéosurveillance algorithmique (VSA) à titre « d’expérimentation » sur une période assez étendue, jusqu’à 2025. On attendait les arrêtés préfectoraux nécessaires pour les utilisations de la VSA lors des événements publics qui doivent servir de terrain d’essai. Les premiers arrêtés sont arrivés durant ce mois d’avril.

La RATP et la SNCF ont ainsi pu surveiller automatiquement les personnes à l’occasion du match PSG-OL du 21 au 22 avril et lors du concert des Black Eyed Peas le 20 avril, sur des caméras installées à la Gare de Lyon et près du pont du Garigliano, ainsi que l’ensemble des caméras des stations de métro et de RER dans les gares de Nanterre Préfecture et de La Défense Grande Arche.

La Quadrature du Net s’est mobilisée depuis 2019 contre cette technologie et continue sa bataille. Nous vous tiendrons au courant dans les prochaines semaines des actions à venir !

Lire l’article : https://www.laquadrature.net/2024/04/17/experimentation-de-la-vsa-les-premieres-autorisations-sont-tombees/

La loi SREN aggravée en commission paritaire

Nous avions suivi depuis mai 2023 les discussions de la loi pour « Sécuriser et réguler l’espace numérique » (SREN), qui était encore travaillée en mars dernier par la commission mixte paritaire – un groupe de membres de l’Assemblée nationale et du Sénat à parts égales – pour trouver un accord sur un texte commun entre les deux chambres.

La commission a rendu son travail le 16 mars, et le résultat n’est pas bon. Vérification obligatoire de l’âge des internautes sur les plateformes, retrait des contenus signalés par la police sans validation par un juge (censure administrative), « délit d’outrage en ligne » mal défini, filtrage des sites au niveau du navigateur, etc.

La plupart de ces mesures sont nocives parce qu’elles instaurent des exceptions ou des restrictions à la liberté de communication sous des prétextes populaires (protéger les enfants, en particulier), en autorisant des moyens d’action faciles à utiliser ensuite pour d’autres buts, et placés entre les mains de la police ou des caprices des gouvernements.

Certaines mesures entrent même directement en conflit avec le droit de l’Union européenne. Le texte oblige par exemple les plateformes à vérifier l’âge des internautes. Une obligation qui ne peut être imposée qu’au niveau européen. Pour contourner l’obstacle, la dernière version du texte cible seulement les plateformes situées « en France ou hors de l’Union européenne »

Découvrez tous les détails diaboliques du texte en lisant notre article.

Lire l’article : https://www.laquadrature.net/2024/04/09/projet-de-loi-sren-le-parlement-saccorde-pour-mettre-au-pas-internet/

Surveillance des militants

Soupçonnées de s’être introduites dans une cimenterie Lafarge en décembre 2023, dans le cadre d’une action écologiste, dix-sept personnes ont été arrêtées le 8 avril 2024. Dans le cadre d’un rassemblement de soutien organisé à Aix-en-Provence, un membre de La Quadrature a lu un texte pour exprimer l’inquiétude de l’association. Sous prétexte de « lutte contre le terrorisme », on a donné à la police et aux services de renseignement des moyens de surveillance numérique démesurés, très intrusifs, peu ou mal contrôlés, utilisés pour monter des dossiers criminels contre des citoyen·nes exerçant des droits politiques légitimes. De l’aveu même des services, la part des militant·es surveillé·es a doublé dans les cinq dernières années. Un texte à lire en intégralité sur notre site.

Lire l’article : https://www.laquadrature.net/2024/04/08/contre-la-criminalisation-et-la-surveillance-des-militant%c2%b7es-politiques/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 2 mai 2024 : A-t-on besoin de la vidéosurveillance pour être en sécurité dans nos espaces publics ? À l’occasion d’une conférence à l’ENSAD Paris, nous essayerons d’y répondre en questionnant la notion de sécurité, et la place de la vidéosurveillance dans nos espaces publiques. École des Arts Décoratifs (amphithéatre Rodin), 31 rue d’Ulm, Paris 5e arrondissement, de 18h30 à 20h30. Plus d’informations : https://www.ensad.fr/fr/videosurveillance-espace-public.
  • 3 mai 2024 : Apéro public dans nos locaux, 115 rue de Ménilmontant, 75020 Paris, à partir de 19h. Venez nous rencontrer !
  • 18 mai 2024 : Conférence « Surveillance de masse et gestion des données personnelles », de 16h à 17h30, Médiathèque Visages du Monde, 10 place du Nautilus, à Cergy. Détails dans le programme de la médiathèque.
  • 18 mai 2024 : La Quadrature sera au Festival du livre et des cultures libres à l’espace autogéré des Tanneries, à Dijon. Plus d’infos ici : https://festivaldulivre.tanneries.org/.
  • 25 mai 2024 : Journées du logiciel libre à Lyon – Conférence « La vidéosurveillance algorithmique menace nos villes, contre-attaquons ! », à 13h. Plus d’infos sur la conférence ici : https://pretalx.jdll.org/jdll2024/talk/ZNZL3Z/ et plus d’infos sur les JDLL : https://www.jdll.org/.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

VSA et JO

Algos de contrôle social

Loi SREN

Surveillance

Divers

Expérimentation de la VSA : les premières autorisations sont tombées

Les premiers arrêtés préfectoraux autorisant la vidéosurveillance algorithmique (VSA) dans le cadre de la loi JO viennent d’être publiés. La RATP et la SNCF peuvent désormais surveiller automatiquement les personnes à l’occasion du match PSG/OL du 19 au 22 avril et du concert des Black Eyed Peas le 20 avril. La Quadrature du Net s’est mobilisée depuis 2019 contre cette technologie et continue sa bataille. Nous vous tiendrons au courant dans les prochaines semaines des actions à venir.

Déployée en toute illégalité depuis des années et autorisée de façon inédite en Europe avec la loi sur les JOP, la vidéosurveillance algorithmique était dans les starting blocks pour être utilisée pour la première fois par la police. C’est maintenant chose faite.

La préfecture de police de Paris a autorisé ce 17 avril 2024 l’utilisation du logiciel de VSA de la société Wintics par la SNCF et la RATP. La surveillance commencera dès le 19 avril sur 118 caméras de la gare de Lyon et du pont du Garigliano à Paris. Elle concernera également le 20 avril l’ensemble des caméras des stations de métro et de RER des gares de Nanterre Préfecture et de La Défense Grande Arche.

La rumeur d’une autorisation de VSA à l’occasion du match PSG-OL circulait depuis plusieurs semaines puisque la SNCF annonçait depuis quelques temps sur des affiches gare de Lyon avoir obtenu une autorisation de la préfecture de Police. On apprenait sur cette affiche que la SNCF procédait déjà à des « tests » liés à la phase de conception de l’algorithme, où les personnes filmées servent de cobayes pour ajuster les logiciels. Des tests ont aussi été effectués lors de deux concerts de Depeche Mode à Paris. Une autre affiche dans les couloirs du métro parisien indiquait que des expérimentations allaient aussi bientôt être mises en œuvre par la RATP.

Affiche de la SNCF Affiche de la RATP
 

Nous avons développé un outil de recensement des autorisations préfectorales de surveillance, dont l’information fait quasi systématiquement défaut, ce qui empêche les personnes surveillées d’être au courant de ces mesures. Cet outil, dénommé « Attrap’Surveillance » (pour Automate de Traque des Termes de Recherche dans les Arrêtés Préfectoraux), analyse automatiquement les recueils des actes administratifs de chaque préfecture afin d’y repérer les autorisations préfectorales d’utilisation des drones et de VSA. C’est comme cela que nous avons pu apprendre la publication aujourd’hui de la première autorisation formelle d’une utilisation répressive de la VSA à Paris. En publiant aussi tardivement ces arrêtés, le préfet de police tente d’éviter au maximum les recours en justice, qui n’auront probablement pas le temps d’être jugés avant le début de la surveillance algorithmique.

Face à la concrétisation de cette surveillance, aux abus qui se profilent et à la Technopolice qui avance illégalement en parallèle de la loi JO, La Quadrature du Net s’apprête à répliquer. Nous vous tiendrons au courant dans les prochaines semaines des actions à venir.

❌