Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierLa Quadrature du Net

Jeux Olympiques : fichage de masse et discrimination politique

Par : noemie
30 juillet 2024 à 05:56

Les Jeux Olympiques viennent de débuter, la surveillance et la répression y sont reines. En vue de cet évènement, l’État a mis en œuvre tous les pouvoirs sécuritaires accumulés ces dernières années : drones, QR code, périmètres de sécurité, vidéosurveillance algorithmique, assignations à résidence, présence policière intense, hélicoptères… De façon inédite, l’ensemble de ces moyens sont employés en même temps et à une échelle très importante. Au gré de cet emballement répressif, une autre mesure exceptionnelle mérite l’attention : l’utilisation hors norme des fichiers de police pour écarter des emplois liés aux JO les personnes ayant des activités militantes. Une forme de discrimination fondée sur des critères opaques et proprement inacceptable.

Fouiller le passé au nom de la sécurité

En France, l’accumulation d’informations sur la population à travers le fichage est une pratique ancienne et énormément utilisée par la police et le renseignement. Mais depuis une vingtaine d’années le nombre de fichiers a explosé, tout comme le périmètre des informations collectées et des personnes visées. En parallèle, leurs usages ont été largement facilités, avec peu de contrôle, tandis que leur légitimité est de moins en moins contestée dans la sphère politique et médiatique. Rappelons – au cas où cela aurait été oublié – que dans une logique démocratique, l’État n’a pas à connaître ce que fait ou pense sa population et que ce n’est que par exception qu’il peut garder en mémoire certaines informations concernant les faits et gestes d’individus. Cependant, et nous l’observons malheureusement pour toute forme de surveillance, ces principes théoriques sont écartés au nom de la sécurité et de « l’utilité ». Toute information disponible peut dès lors être conservée de façon préventive, peu importe la proportionnalité, la nécessité ou le fait que cela transforme chaque personne exposant des informations personnelles en potentiel suspect. Avec les Jeux Olympiques, nous avons aujourd’hui un exemple d’où cette démesure, couplée à une criminalisation croissante du militantisme, mène.

En 2016, la loi relative à la procédure pénale a créé la notion de « grand évènement ». Définie par l’article L.211-11-1 du code de la sécurité intérieure, elle recouvre des évènements exposés « par leur ampleur ou leurs circonstances particulières, à un risque exceptionnel de menace terroriste». Lorsqu’un rassemblement est désigné comme tel par décret, toute personne y travaillant de près ou loin (technicien·ne, bénévole, soignant·e, agent·e de sécurité…) doit alors faire l’objet d’une enquête administrative. À la suite de cette enquête, le « service national des enquêtes administratives de sécurité » (SNEAS) créé en 2017 délivre un avis désormais contraignant. S’il est défavorable, la personne ne pourra alors pas se rendre et travailler sur l’évènement.

Si des sommets géopolitiques ont été qualifiés de « grand évènement », c’est également le cas pour le Festival de Cannes, la Route du Rhum ou la Fête du citron à Menton. Dès 2021, les Jeux Olympiques 2024 ont ainsi été désignés comme « grand évènement », englobant par là l’ensemble des infrastructures, sites et animations associés aux Jeux. Cela a donc impliqué que des enquêtes soient effectuées sur un nombre immense de personnes, à la fois les équipes et délégations sportives mais également toute personne devant travailler autour de cet évènement. S’agissant des Jeux Olympiques, le 17 juillet dernier, le ministre de l’intérieur annonçait que 870 000 enquêtes avaient été menées conduisant à écarter « 3 922 personnes susceptibles de constituer une menace sur la sécurité de l’événement ». Gérald Darmanin se targuait ainsi que « 131 personnes fichées S » et « 167 personnes fichées à l’ultragauche » s’étaient vu refuser leur accréditation. Mais derrière cet effet d’annonce, il y a une réalité, celle d’une surveillance massive et de choix arbitraires opérés en toute opacité.

Une interconnexion massive de fichiers

Concrètement, les agents du SNEAS interrogent un système dénommé « ACCReD », créé en 2017 et qui interconnecte désormais 14 fichiers. Le système ACCReD a été créé pour faciliter ce que l’on appelle les « enquêtes administratives de sécurité ». Ce type d’enquête est encadré par l’article L.114-1 du code de la sécurité intérieure. Originellement prévu pour le recrutement d’emplois dans les secteurs sensibles, elle est aujourd’hui utilisée pour un spectre bien plus large, dont l’instruction des demandes d’acquisition de la nationalité française et la délivrance des titres de séjour. La CNIL exigeait ainsi en 2019 que soit précisé le périmètre de ces enquêtes, d’autant qu’elles « conditionnent l’adoption de décisions administratives nombreuses, très diverses et ne présentant pas toutes le même degré de sensibilité1Voir la Délibération CNIL n°2019-06, 11 juillet 2019, portant avis sur un projet de décret modifiant le décret n°2017- 1224 du 3 août 2017 portant création d’un traitement automatisé de données à caractère personnel dénommé « Automatisation de la consultation centralisée de renseignements et de données » (ACCReD), accessible ici ».

ACCReD interroge de nombreux fichiers2Voir la liste complète à l’article R.211-32 du code de la sécurité intérieure aux périmètres et objets très différents. Parmi eux on retrouve le fichier de traitement des antécédents judiciaires (TAJ) qui rassemble les informations de toute personne ayant eu affaire à la police, même si celle-ci n’a pas fait l’objet de poursuite ou a été ensuite relaxée. Les personnes interpellées à l’occasion de manifestations ou d’actions politiques sont donc dans le TAJ. Contenant environ 20 millions de fiches, le TAJ est un véritable fourre-tout comprenant de nombreuses données incorrectes. Dans un rapport de 2019, des députés pourtant de droite dénonçaient même le dévoiement de sa finalité première « pour se rapprocher du rôle du casier judiciaire » et que « le fait que le TAJ contienne de nombreuses informations inexactes (erreurs diverses, absence de prise en compte de suites judiciaires favorables par l’effacement des données ou l’ajout d’une mention) [puisse] en effet avoir des conséquences extrêmement lourdes pour les personnes concernées par une enquête administrative. 3Didier Paris, Pierre Morel-À-L’Huissier, Rapport d’information sur les fichiers mis à la disposition des forces de sécurité, 17 octobre 2018, page 58, URL : https://www.assemblee-nationale.fr/dyn/15/rapports/cion_lois/l15b1335_rapport-information.pdf»

Il y a également le fichier des personnes recherchées (FPR) contenant les célèbres fiches S compilées de manière discrétionnaire par la police, le fichier des données relatives aux objets et véhicules volés ou signalés ainsi que le fichier d’information Schengen sur les personnes recherchées dans l’Union européenne. Mais ACCReD interroge aussi d’autres fichiers de renseignement politique comme le PASP et le GIPASP, contestés il y a quelques années en justice pour leur champ extrêmement large : opinions politiques, état de santé, activités sur les réseaux sociaux ou encore convictions religieuses… Ces fichiers ayant malgré tout été validés par le Conseil d’État, la police et la gendarmerie sont donc autorisées à collecter de nombreuses informations sur les personnes « dont l’activité individuelle ou collective indique qu’elles peuvent porter atteinte à la sécurité publique ou à la sûreté de l’État ». Cette définition large et floue permet en pratique de cibler de nombreuses personnes, et notamment des militant·es.

D’autres fichiers de renseignements sont interrogés mais ceux-ci sont classés secret-défense ou font l’objet de décrets non publiés, ce qui signifie qu’il est impossible de savoir précisément ce qu’ils contiennent et qui y a accès4L’ article 1er du décret n°2007-914 du 15 mai 2007 liste l’ensemble des fichiers de renseignement qui ne font pas l’objet de publication. Il en est ainsi du fichier de traitement des signalements pour la prévention de la radicalisation à caractère terroriste (FSPRT), du fichier CRISTINA, (pour « centralisation du renseignement intérieur pour la sécurité du territoire et des intérêts nationaux ») du fichier GESTEREXT (« Gestion du terrorisme et des extrémistes à potentialité violente ») géré par la Direction du renseignement de la Préfecture de Police de Paris (DRPP). Depuis fin 2023, l’extrait B2 du casier judiciaire, deux fichiers d’Interpol ainsi que deux fichiers de renseignement non publiés ont fait leur entrée dans ACCReD, en l’occurrence le fichier SIRCID (système d’information du renseignement de contre-ingérence de la défense) et le fichier TREX de la Direction générale de la sécurité extérieure (DGSE). Pour en savoir plus sur l’ensemble de ces fichiers, vous pouvez trouver des informations dans la brochure « La folle volonté de tout contrôler », qui propose également des modèles de courriers pour demander à accéder à ses données et faire supprimer des fiches.

On le comprend, à travers la consultation de ces fichiers – aussi appelé « criblage » – le SNEAS a accès a une montagne d’informations. Si le nom de la personne apparaît dans un ou plusieurs de ces fichiers, l’agent du service doit, en théorie, évaluer à partir des informations accessibles si son comportement ou ses agissements « sont de nature à porter atteinte à la sécurité des personnes, à la sécurité publique ou à la sûreté de l’État ». Si tel est le cas, il délivre un avis défavorable que l’organisateur de l’évènement est obligé de suivre et doit donc refuser d’employer la personne. Mais en pratique, il n’existe aucune information sur la manière dont cette évaluation est faite ni sur les critères utilisés pour évaluer un tel « risque ». Cette appréciation se fait donc de manière opaque et arbitraire, sur la base d’une définition large et floue, et la motivation du rejet ne sera jamais communiquée.

De plus, la loi précise bien que les enquêtes administratives ne peuvent pas concerner les spectateur·ices des grands évènements. Pourtant, le préfet de police Laurent Nuñez a affirmé lors d’une conférence de presse le 25 avril dernier que la préfecture avait « la possibilité de faire un certain nombre d’enquêtes » sur les spectateur·ices de la cérémonie d’ouverture. Le média AEF indique ainsi que l’entourage de Darmanin a évoqué « un criblage par la Direction du renseignement de la Préfecture de police (DRPP) de toute personne dont on pense sérieusement qu’elle présente un problème ». En effet, puisque les spectateur·ices étaient obligé·es de s’inscrire sur une plateforme, il était possible de récupérer leurs noms et de faire une enquête via des moyens détournés. En l’occurrence, la DRPP est un service de renseignement dit du « second cercle », qui dispose de nombreuses attributions, parmi lesquelles la consultation de fichiers identiques à ceux présents dans dans le système ACCReD. Ainsi, l’article R234-4 du code de la sécurité intérieure lui permet de consulter le fichier TAJ et l’article R236-16 l’autorise à accéder au PASP, c’est à dire les deux fichiers susceptibles de contenir des informations sur les activités politiques. Au nom des Jeux Olympiques, l’État et la préfecture de police contournent la loi et jouent avec le droit pour étendre toujours plus leur contrôle.

Une discrimination politique inédite

Alors que ce « criblage » a concerné des centaines de milliers de personnes, des récits relatifs à des refus d’accréditation ont commencé à émerger ces dernières semaines. Il en ressort que la principale cause potentielle de la mise à l’écart de certaines personnes réside dans leur activité militante, à l’instar de Léon, intermittent du spectacle dont le témoignage a été publié par Mediapart. Nous avons donc lancé un appel à témoignages, et ceux-ci se sont avérés nombreux. En voici quelques-uns (tous les prénoms ont été modifiés).

Jeanne est secouriste bénévole et l’association dont elle fait partie a été sollicitée pour les JO. Jeanne s’est donc proposée pour se mobiliser une semaine. En parallèle, elle milite contre le dérèglement climatique depuis plusieurs années et a notamment participé à différentes actions de désobéissance civile au cours desquelles elle s’est fait arrêter par la police, sans jamais être poursuivie ni condamnée. Début juin, le président de l’antenne locale de son association de secourisme a reçu une lettre de refus de l’organisation des JO. Elle ne pourra pas exercer comme secouriste durant les JO, malgré la demande.

Marc est salarié d’un opérateur de transport et devait travailler pendant les JO pour les dépôts de bus des accrédités et athlètes. Mais Marc fait partie d’Extinction Rebellion. Il a été contrôlé en manifestation et a participé à des actions de désobéissance civile, ce qui l’a mené à être arrêté et gardé à vue deux fois. Il est le seul des 300 personnes de son employeur mobilisées sur ces sites à s’être vu refuser son accréditation.

Simon devait travailler pour l’accueil du public dans un stade où il y a des épreuves des JO. Il avait déjà reçu son emploi du temps lorsqu’il a reçu son refus d’accréditation le 12 juillet dernier. Par le passé, il a été reconnu coupable pour entrave à la circulation dans le cadre du mouvement des Gilets jaunes, mais a été dispensé de peine. Il milite également au sein d’Extinction Rebellion et des Soulèvements de la Terre.

Juliette est une militante qui a subi quelques gardes à vue dans le cadre de manifestations. Poursuivie une fois, elle a été relaxée avec un stage de citoyenneté. Elle devait être bénévole en secourisme, mais n’a jamais reçu son autorisation, quand le reste des membres de son association l’ont eue.

Mathieu travaille depuis plusieurs années pour une chaîne de télévision comme opérateur de prise de vue. Il a milité pendant plus d’une dizaine d’années dans des associations de chômeurs avec lesquelles il a fait des actions d’occupation, ce qui l’a conduit à des interpellations et des gardes à vue il y a plus de 10 ans. Plus récemment, en 2020, il a été envoyé par une chaîne afin de filmer les militant·es d’Alternatiba lors de l’envahissement du tarmac de Roissy. Il a été arrêté avec elles et eux, et malgré sa lettre de mission et l’intervention de l’avocat de la chaîne, il a fait 12 heures de garde à vue. Depuis 2023, il se voit désormais refuser l’entrée des ministères au sein desquels il doit filmer, alors qu’il l’a fait pendant 20 ans. Pour les JO, il reçoit le même traitement de faveur : un avis défavorable du SNEAS qui l’empêche d’accéder au Paris Media Center. Même si son employeur est compréhensif, il est néanmoins beaucoup moins appelé qu’auparavant pour des missions de travail.

Camille devait travailler pendant les Jeux et animer des visites pour les touristes, via un opérateur affilié à Paris 2024. Elle participe à des activités de désobéissance civile depuis une petite année. Son identité a été relevée par les policiers au cours d’une de ces actions. Son nom a aussi été utilisé pour déclarer une manifestation dénonçant les violences sexistes et sexuelles devant une école de commerce, où étaient présents des agents des renseignements territoriaux. Elle a été prévenue la dernière semaine de juin qu’elle ne pourrait pas travailler pendant les JO. Elle n’a jamais obtenu de réponse de la part de l’adresse mail indiquée à laquelle elle a écrit pour contester.

Thomas, professionnel de l’audiovisuel, avait obtenu un contrat pour participer à la réalisation des Jeux afin d’opérer une prestation technique complexe. Début juillet, il est extrêmement surpris quand il reçoit un refus d’accréditation. Il n’a jamais eu aucune interaction avec la police à part pour une altercation en voiture, il y a longtemps. Il évolue dans un cercle amical militant et a participé il y a quelques années à des actions et réunions d’Extinction Rebellion, sans en avoir été organisateur. Il soupçonne donc être dans un fichier de renseignement.

Loris travaille pour l’hôtel de luxe du Collectionneur, dans lequel le comité international olympique réside pour les JO. Loris est délégué Syndical CGT et participe aux négociations annuelles qui ont lieu en ce moment. Mais il ne peut plus se rendre à l’hôtel – et donc négocier – depuis qu’il a reçu un avis négatif du SNEAS. Par le passé, il avait été interpellé et contrôlé par la police dans le cadre de sa participation à la défense de la cause arménienne. La CGT a publié un communiqué dénonçant cette situation inédite.

Théo, intermittent du spectacle, devait effectuer une mission de dix jours en tant que technicien afin d’installer les systèmes de sonorisation de la cérémonie d’ouverture. Il ne fait pas partie d’une association en particulier, mais a participé à un certain nombre de manifestations. Il a été interpellé l’année dernière lors des arrestations massives ayant eu lieu pendant le mouvement contre la réforme des retraites. Il est ressorti sans poursuite, mais il n’a pas pu travailler, faute d’avis favorable. Une situation très proche de celle d’Elie, également technicien son. Pour sa part, il avait fait une garde à vue après une manifestation étudiante le lendemain de l’annonce du recours au 49-3. Elie a aussi pu être arrêté – sans poursuite – au cours de free parties.

Une criminalisation aux conséquences concrètes

Au regard des situations décrites ci-dessus, il semble très probable que le SNEAS ait eu pour consigne d’écarter toute les personnes ayant un lien avec des actions militantes, sans une quelconque forme de nuance. La plupart d’entre elles se sont vu notifier abruptement cette décision, sans aucun moyen de la contester ou de faire un recours. Pour toutes ces personnes – et toutes les autres qui seraient concernées – un tel refus signifie faire une croix sur une mission, sur une activité souhaitée, et pour la majorité sur de l’argent sur lequel elles comptaient pour vivre. C’est aussi devoir se justifier et dévoiler sa vie privée à la structure qui les emploie ou celle où elles exercent, pour expliquer un tel avis défavorable, et risquer d’autres conséquences futures. Enfin, c’est comprendre qu’elles se retrouvent « marquées » comme de potentiel·les délinquant·es ou en tout cas comme une source de risques pour la sécurité.

Surtout, ces témoignages dévoilent non seulement l’ampleur de l’édifice de fichage qui s’est construit petit à petit mais également les potentielles applications concrètes de discrimination à une échelle importante. Couplée aux mécanismes « d’exception » développés en réaction aux attentats des années 2010 – dont les « grands évènements » font partie – cette accumulation d’information sur la population permet de façon bien concrète d’écarter des personnes de la société, en tant qu’« ennemis d’État ».

Au sein de La Quadrature du Net, nous avons connaissance de ces dispositifs, nous en suivons les terribles évolutions et nous en documentons les risques de potentielles utilisations liberticides. Ici c’est une application massive et plus que dangereuse qui s’est concrétisée au prétexte de sécuriser les Jeux Olympiques. Le système tentaculaire du contrôle policier et de la multiplication des fichiers de police montre une nouvelle efficacité : être en capacité – à très grande échelle – d’exclure, isoler, contraindre des individus et de les priver de leurs libertés en dehors de tout cadre judiciaire et par des décisions administratives arbitraires. Cela peut se faire en dehors de toute condamnation passée ou dans une forme de « double peine » possible à vie pour des condamnations pourtant très limitées. Loin de toute mesure supposément « ciblée » – comme le gouvernement aime le laisser entendre – il s’agit bel et bien d’une surveillance massive de la population sur laquelle est opérée un tri arbitraire et politique.

Cette discrimination politique s’accompagne de la répression et de l’invisibilisation de toute forme de critique des Jeux Olympiques. Des personnes ont été assignées à résidence, des manifestations ont été interdites sur le parcours de la flamme, des militant·es ont été arrêté·es notamment pour avoir collé des stickers dans le métro ou ont été considéré·es comme saboteurices pour des bottes de paille, tandis que des journalistes ont été placés en garde à vue pour avoir couvert une visite symbolique des dégâts causés par les Jeux en Seine-Saint-Denis, organisée par Saccage 2024. Cette répression inquiétante s’inscrit dans la continuité des discours et des volontés politiques visant à criminaliser toute forme d’activisme.

En régime représentatif, la critique du pouvoir et de ses institutions par des actions militantes est la condition de tout réel processus démocratique. Pourtant, en France, les formes de contestation – chaque jour plus essentielles au regard des urgences liées au dérèglement climatique et à la résurgence forte des idées racistes – sont de plus en plus réprimées, quels que soient leurs modes d’expression (manifestation, désobéissance civile, blocage, expression sur les réseaux sociaux…). Cette modification rapide et brutale de la manière dont sont perçues et bloquées des actions de contestation, qui étaient depuis toujours tolérées et même écoutées par les pouvoirs publics, renverse l’équilibre voulu en démocratie. Quand tout le monde ou presque peut être considéré comme une menace potentielle, quand on doit questionner ses opinions politiques pour obtenir un emploi, quand il apparaît acceptable que l’État en sache toujours plus sur sa population au nom d’un risque pour la sécurité qui est présenté comme permanent et impérieux, comment se prétendre encore du camp démocratique ?

Malgré une machine répressive lancée à pleine vitesse, malgré l’inquiétude légitime, il est néanmoins toujours plus urgent et crucial de continuer à militer, de continuer à organiser des actions pour se faire entendre. Cela demeure la meilleure méthode pour dénoncer les abus de pouvoirs et les dérives liberticides aujourd’hui amplifiées au nom de « l’esprit olympique ».

References[+]

References
1 Voir la Délibération CNIL n°2019-06, 11 juillet 2019, portant avis sur un projet de décret modifiant le décret n°2017- 1224 du 3 août 2017 portant création d’un traitement automatisé de données à caractère personnel dénommé « Automatisation de la consultation centralisée de renseignements et de données » (ACCReD), accessible ici
2 Voir la liste complète à l’article R.211-32 du code de la sécurité intérieure
3 Didier Paris, Pierre Morel-À-L’Huissier, Rapport d’information sur les fichiers mis à la disposition des forces de sécurité, 17 octobre 2018, page 58, URL : https://www.assemblee-nationale.fr/dyn/15/rapports/cion_lois/l15b1335_rapport-information.pdf
4 L’ article 1er du décret n°2007-914 du 15 mai 2007 liste l’ensemble des fichiers de renseignement qui ne font pas l’objet de publication

Législatives : la surveillance sur un plateau brun

Par : noemie
28 juin 2024 à 06:14

Alors que le choix d’Emmanuel Macron de dissoudre l’Assemblée nationale au lendemain des élections européennes risque de renforcer le poids de l’extrême droite, nous partageons l’inquiétude exprimée par beaucoup face au risque important que ce tremblement de terre politique fait peser sur la démocratie et les libertés. L’idéologie du Rassemblement National, entièrement tournée vers la création de droits différenciés sur des fondements racistes et réactionnaires, ne peut exister sans une structure de pouvoir forte et centralisée. C’est pourquoi nous ne doutons pas qu’un gouvernement d’extrême droite utilisera et renforcera la surveillance de la population pour exercer son pouvoir. Il aura, par exemple, besoin du fichage pour identifier les personnes à qui retirer des droits, de l’écosystème de surveillance pour traquer les personnes qu’il veut expulser, maltraiter ou enfermer ou encore des lois de censure et coercitives pour faire taire les oppositions anti-fascistes.

Il n’a pas fallu attendre le parti lepéniste pour que la surveillance autoritaire s’installe dans notre quotidien. Cette dernière décennie, au nom de « l’efficacité », de la « crise » ou encore de « l’urgence », François Hollande puis Emmanuel Macron ont adopté – avec le soutien de la droite et l’extrême droite – de nombreuses mesures sécuritaires et multiplié les dispositifs de surveillance tout en écartant les garde-fous et contre-pouvoirs. Des gouvernements se disant modérés ont systématiquement justifié la légalisation des technologies de surveillance, au motif qu’elles étaient adoptées dans un cadre démocratique et seraient « correctement » utilisées. Il s’agit évidemment d’un aveuglement dangereux.

Par essence, les outils de surveillance ne sont jamais neutres dès lors qu’ils donnent à un État la capacité de connaître, et donc de contrôler, sa population. Dès leur création, ils portent en eux un objectif de détecter les « signaux faibles » et trouver « l’ennemi intérieur ». Les dérives discriminantes font intégralement partie de la logique de ces technologies mais sont exacerbées lorsque celles-ci sont dans les mains de l’extrême droite. Ainsi, comme nous l’avions expliqué, l’édifice du fichage policier, pensé en France dès la fin du XIXe siècle et construit petit à petit pendant plusieurs décennies, était déjà mûr lorsque le régime de Vichy a été instauré en 1940. La possibilité que ces fichiers servent à identifier et arrêter des personnes était en réalité intrinsèque à ce système et il a simplement suffit au pouvoir pétainiste d’en ajuster les usages.

Les mêmes logiques aveugles se répètent. Les gouvernements successifs ont depuis vingt ans installé et banalisé les outils qui serviront à l’extrême droite pour mettre en oeuvre le monde ségrégué, injuste et autoritaire pour lequel elle milite depuis des années.

Une administration toute puissante

Le premier point de bascule est sans aucun doute l’état d’urgence de 2015. Il a bouleversé le fonctionnement de l’État de droit en modifiant les équilibres historiques des institutions. Le rôle des juges judiciaires, censés être les seuls à pouvoir restreindre les libertés individuelles selon la Constitution, a été réduit au profit du rôle confié à l’administration, au prétexte que celle-ci pourrait agir plus vite. De nombreux abus ont été constatés lors de l’état d’urgence avec l’utilisation de mesures visant massivement des personnes musulmanes ou des activistes écologistes. Ce régime d’exception a été prolongé par la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » (SILT) de 2017, qui l’a fait entrer dans le droit commun. Désormais, le ministre de l’intérieur peut demander des assignations à résidence ou des interdiction de paraître, au nom de la prévention du terrorisme, avec une simple information à un procureur.

Ce renforcement des pouvoirs de l’administration s’est propagé au-delà du cadre anti-terroriste. Petit à petit, depuis 2015, elle a réactivé ou obtenu de nombreux pouvoirs. Il est ainsi devenu de plus en plus fréquent que des préfets interdisent des manifestations ou des interventions au nom de l’ordre public. Depuis 2023, ils ont également la possibilité d’utiliser des drones de surveillance ou, depuis 2021 au nom de la loi Séparatisme, de priver des associations de leurs subventions. Depuis la loi sur les Jeux olympiques et paralympiques de 2023, ils peuvent également expérimenter la vidéosurveillance algorithmique. Pouvons-nous sérieusement imaginer qu’un gouvernement d’extrême droite se privera d’utiliser ces larges pouvoirs ? Assignation à résidence de militant·es de gauche, multiplication des drones au dessus des quartiers populaires ou encore interdiction d’évènements antiracistes, les préfets nommés par le RN auront de nombreux leviers répressifs à leurs disposition.

Le ministre de l’intérieur a, quant à lui, réinvesti la possibilité de dissoudre des associations. Avant même la réforme législative ouvrant une ère de dissolutions massives, le ministre de l’intérieur a commencé par des organisations musulmanes telles que le CCIF, puis il s’est attaqué aux groupes d’extrême gauche comme le Bloc lorrain ou la Défense collective à Rennes. Des dissolutions que Jordan Bardella a promis d’amplifier encore davantage.

Une justice affaiblie

L’augmentation des pouvoirs de l’administration s’est accompagnée d’une remise en cause des principes fondateurs de la justice. Avec la création de l’amende forfaitaire délictuelle, le juge judiciaire a ainsi été mis à l’écart dans un domaine qui lui était initialement réservé. Depuis 2016, le législateur peut prévoir que, pour certaines infractions, les poursuites pénales s’arrêteront automatiquement lorsque la personne poursuivie paye une amende. Autrement dit, la police peut désormais faire pression sur les personnes en leur proposant un choix cornélien : faire valoir leurs droits devant un juge ou s’acquitter de quelques centaines d’euros pour s’arrêter là. Ces dernières années, les délits concernés par l’amende forfaitaire délictuelle ont été considérablement élargis, avec par exemple la consommation de stupéfiants ou, pendant le confinement en 2020, le fait de sortir de chez soi sans attestation.

Mais c’est surtout sur internet que ce contournement du juge a été le plus assumé. Depuis 2014 et une loi portée par Bernard Cazeneuve, la police peut exiger seule que des sites internet retirent des contenus qu’elle estime être à caractère « terroriste ». Alors que nous avons toujours dénoncé les risques de censure politique et d’arbitraire de ce mécanisme confié à l’administration, en l’occurrence l’Office anti-cybercriminalité, nos craintes ont été confirmées à plusieurs reprises. Désormais, les plateformes en ligne et les réseaux sociaux vont jusqu’à collaborer activement avec le gouvernement quand celui-ci leur demande de retirer des contenus. Ainsi, lors des émeutes de l’été 2023, le ministère de l’intérieur a « convoqué » certains réseaux sociaux, et Snapchat a publiquement admis avoir retiré des contenus sur demande du gouvernement et en dehors de toute procédure légale. Pire : lorsque Gabriel Attal a pris la décision illégale de censurer le réseau social Tiktok en Nouvelle Calédonie, au motif que cette plateforme aurait joué un rôle dans les émeutes sur l’île, il a instauré un précédent inédit d’atteinte à la liberté d’expression que nos institutions ont échoué à empêcher. On pressent alors comment une censure des critiques contre l’extrême droite pourrait être facilitée par cet état des choses.

Technopolice partout

En parallèle, les capacités de surveillance de la police ont été énormément renforcées. Le nombre de fichiers (créés par simple décret) a explosé, leur accès s’est élargi et le contrôle des abus est quasi inexistant (la LOPMI de 2022 a même enlevé l’exigence formelle d’habilitation pour les consulter). La prise de signalétique (ADN, empreintes digitales et photo du visage) ainsi que la demande de code de déverrouillage du téléphone sont devenues systématiques pour faire pression sur les personnes gardées à vue, bien que cela soit généralement illégal car décorrélé de toute infraction annexe. Par ailleurs, l’exploitation de ces informations peut désormais être faite dans la rue, via des tablettes mobiles permettant aux gendarmes et policiers d’accentuer le harcèlement des personnes contrôlées.

Les technologies aussi ont évolué : la reconnaissance faciale s’est banalisée et est fréquemment utilisée dans les procédures judiciaires à travers le fichier TAJ, des logiciels d’analyse des métadonnées permettent de créer très facilement des graphes sociaux et de pister les habitudes des personnes, les logiciels espions peuvent désormais être utilisés pour activer à distance la fonction de géolocalisation d’un appareil mobile, et la police dispose de plus en plus d’outils de surveillance en source ouverte (OSINT). Par ailleurs, depuis 2016, cette dernière est autorisée à utiliser des techniques encore plus intrusives comme la sonorisation des lieux, la captation des données informatiques, les IMSI catchers, la captation d’images ou l’infiltration dans les procédures liées à la « criminalité organisée ». Cette catégorie recouvre des infractions très larges, et fut notamment invoquée pour poursuivre des militants écologistes qui ont bloqué une cimenterie Lafarge, ou pour justifier l’arrestation de militants indépendantistes kanaks en juin 2024.

Les services de renseignement ne sont pas en reste depuis la formalisation de leurs pouvoirs de surveillance par la loi Renseignement de 2015. Nous avons ainsi dénoncé le fait que cette loi légalise la possibilité d’utiliser de nombreux moyens de surveillance intrusifs, pour des finalités très larges, et notamment la surveillance des militant·es. Ces possibilités d’abus se sont concrétisées au fur et à mesure des années, au travers par exemple de la surveillance des gilets jaunes, ou de divers cas où des militant·es ont retrouvé du matériel de surveillance les visant (on pourra citer en exemple la caméra cachée devant l’espace autogéré des Tanneries à Dijon, le micro dans une librairie anarchiste à Paris, ou la balise GPS sous la voiture de Julien Le Guet du collectif Bassines Non Merci).

Dans son rapport d’activité pour l’année 2022, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s’est d’ailleurs inquiétée de l’accroissement de la surveillance des militants. Elle a également alerté sur l’insuffisance de ses capacités de contrôle, qui l’empêche de suivre les dernières évolutions technologiques, notamment s’agissant des spywares et autres intrusions informatiques à distance.

Enfin, des précédents dangereux ont été créés avec l’élargissement continu de la justice d’exception applicable en matière de terrorisme, et l’implication grandissante des services antiterroristes dans des affaires politiques. L’affaire dite du « 8 décembre » est un triste exemple : la décision rendue fin décembre 2023 par le tribunal correctionnel de Paris confirme que des militant·es de gauche peuvent être poursuivis et condamné·es pour association de malfaiteurs à caractère terroriste sur la base de suspicions d’intention, sans projet avéré, et que protéger ses communications peut être utilisé comme une preuve de « comportement clandestin » pour justifier la condamnation.

La surveillance et la répression des mouvements militants, écologistes ou anti-autoritaires notamment, n’est plus une crainte, mais une réalité, d’autant qu’elle est accompagnée depuis plusieurs années d’un discours nourri visant à criminaliser toute forme de contestation en dehors du simple cadre électoral (actions syndicales, manifestations de rue, etc.). Elle n’en serait que pire sous une majorité RN.

Des gardes-fous illusoires

On le comprend, les dispositifs de surveillance et de répression sont déjà là et les gardes-fous institutionnels et politiques ne permettent plus de freiner les volontés politiques autoritaires. Nous le constatons avec dépit depuis des années : le droit n’empêche pas l’installation massive de technologies de surveillance sur la population. Le Conseil d’État a validé la légalité de quasiment tous les fichiers de police qui ont ont été contestés devant lui, y compris le fichage politique et religieux du PASP et du GIPASP.

Le Conseil constitutionnel, quant à lui, estime quasi systématiquement que les lois protègent suffisamment les libertés, le plus souvent en reportant le contrôle au cas par cas sur d’autres instances, comme les tribunaux administratifs, incapable de prévenir des abus systémiques dans l’usage de mesures de surveillance. Ce report du contrôle de légalité par le Conseil constitutionnel au juge administratif a également pour conséquence de faire peser la charge de la contestation légale sur la société civile ou les personnes victimes de cette recrudescence de surveillance, qui doivent aller en justice pour demander le respect des libertés. Sans grand succès, il faut bien l’admettre, vu le faible nombre de victoires.

Enfin, sur le plan matériel, les autorités administratives indépendantes comme la CNCTR ou la CNIL ne peuvent raisonnablement pas contrôler chaque action des forces de l’ordre et des services de renseignement. Concernant le cas particulier de la CNIL, on constate également chez elle une absence de courage politique qui explique son inaction, voire une volonté d’aider le gouvernement à légaliser de nouvelles mesures de surveillance comme ce fut le cas des drones ou de la VSA.

Si le constat a de quoi effrayer, il est loin d’être étonnant. Cela fait des années qu’associations, juristes, universitaires, militant·es de terrain alertent sur ce lent dépérissement de l’État de droit. Il suffit désormais au Rassemblement National de marcher dans les pas des gouvernements précédents et de se servir de l’arsenal législatif déjà existant. Son programme est profondément raciste, sexiste et LGBT-phobe et ne cache même plus son ambition de réduire les libertés et les droits individuels. Nous n’osons même pas nous figurer la facilité avec laquelle ce parti aurait à mettre en place ses mesures autoritaires et ses politiques de restriction des droits dès lors qu’il disposera des dispositifs mis en place ces dernières années.

Face à cette menace, nous appelons à la mobilisation pour ne pas voir ces outils de surveillance et de répression tomber dans les mains du Rassemblement National, ni laisser l’occasion aux « extrêmes-centristes » d’Emmanuel Macron de détruire les derniers garde-fous de l’État de droit. Nous appelons à militer et à voter massivement contre la droite et l’extrême droite aux prochaines législatives.

Faites interdire la vidéosurveillance algorithmique dans votre ville !

Par : noemie
18 juin 2024 à 09:09

Alors que les expérimentations de vidéosurveillance algorithmique (VSA) continuent d’être demandées et déployées par les préfectures – pendant le festival de Cannes ou à Roland-Garros par exemple -, nous lançons la deuxième phase de notre campagne de lutte contre l’empire de la surveillance ! Comme nous croyons que la mobilisation au niveau local est le moyen le plus pertinent et le plus puissant pour repousser l’envahissement de la surveillance, nous avons pensé de nouveaux outils pour aider les habitant·es des villes de France à se battre contre la VSA dans leur commune.

Il y a quelques semaines, nous avons annoncé notre plan de bataille visant à dénoncer l’hypocrisie derrière l’expansion de la surveillance algorithmique de l’espace public. En effet, les Jeux Olympiques sont instrumentalisés pour accélérer l’agenda politique des institutions et des instances policières qui souhaitent ajouter aux caméras des logiciels permettant d’analyser nos faits et gestes dans la rue. Les expérimentations « officielles » de cette technologies ont débuté en avril dernier. Elles ont eu lieu à l’occasion d’evenements festifs, que nous recensons sur notre outil collaboratif, le « Carré ». Pour la plupart, il s’agit d’opportunités pratiques pour tester ces technologies décorrélées de risques de sécurité concrets. En témoignent les justifications des autorisations préfectorales, qui prétendent expliquer le choix de surveiller le métro parisien dans le cadre d’un concert par une guerre à l’autre bout du monde ou un attentat ayant eu lieu il y a plusieurs années. Ces motifs sont copiées/collées au gré des arrêtés démontrant l’absence totale d’efforts des préfectures à contextualiser l’utilisation de cette technologie.

De plus, depuis que la « loi sur les Jeux Olympiques et Paralympiques » a créé un premier régime juridique de la VSA dans le droit français, les promoteurs de la surveillance n’hésitent pas à mettre en avant un soit disant « respect du cadre légal ». Il ne faut y voir rien d’autre qu’un écran de fumée puisque de très nombreux projets de surveillance continuent de prospérer en toute illégalité : qu’il s’agisse du programme Prevent PCP mis en œuvre dans des gares par la SNCF, ou des entreprises privées qui continuent de vendre leurs logiciels de VSA à des villes – telles que Thalès à Reims ou Briefcam à Brest -, ces initiatives locales multiples sont tolérées par les pouvoirs publics. Pour approfondir sur la situation actuelle, nous avons rassemblé et synthétisé dans une brochure (disponible ici) les informations nécessaires pour comprendre ce qu’est la VSA, les raisons de son déploiement et le projet politique cohérent qui se dessine derrière ses utilisations pour le moment temporaires. N’hésitez pas à la lire, l’imprimer et la diffuser !

Désormais, avec cette nouvelle phase de notre campagne, nous vous proposons de passer à l’action ! Si l’arrivée de la VSA est poussée par des instances nationales et les industriels de la surveillance, nous pouvons la contrer en nous y opposant de façon délocalisée et démultipliée à travers toute la France. La ville de Montpellier a ainsi adopté en 2022 une résolution interdisant la surveillance biométrique dans les rues, s’inscrivant dans la dynamique lancé par des villes états-uniennes telles que Boston ou Austin qui avaient également avaient refusé de surveiller leurs habitant·es avec des outils d’analyse biométrique.

Nous vous appelons donc à rejoindre cet élan et à porter le combat dans votre ville ! Pour cela, nous avons conçu et mis à disposition plusieurs outils sur cette page. Tout d’abord, vous trouverez une lettre-type à envoyer pour demander à votre maire de s’engager à ne jamais installer de vidéosurveillance algorithmique dans votre ville. Il ne s’agit que d’un modèle, vous pouvez évidemment l’adapter ou faire votre propre courrier.

Si vous tapez le nom de votre commune, vous pourrez télécharger plusieurs éléments de communication déclinés au nom de l’endroit ou vous vivez ! Nous vous proposons aussi bien un flyer à distribuer pour informer et alerter les personnes sur la VSA que des affiches à coller dans les rues pour visibiliser ce combat. Aussi, vous pourrez fabriquer un visuel à partager sur les réseaux sociaux afin de rendre visible la demande d’interdiction de la VSA que vous avez faite à votre maire ! N’hésitez pas à la faire à titre individuel ou avec un collectif de votre ville et à nous tenir au courant. Nous listerons ensuite sur notre site les communes qui auront été contactées dans le cadre de cette mobilisation !

L’objectif est simple : ensemble, nous pouvons démontrer qu’il existe une opposition populaire forte contre la surveillance de nos rues. En multipliant les actions dans les villes de France, nous pourrons battre en brèche le discours sécuritaire dominant qui présente ces technologies d’analyse de nos faits et gestes comme nécessaires et leur installation inéluctable. Au contraire, nous pouvons témoigner ensemble de notre refus collectif d’une surveillance policière constante, et défendre la ville comme espace de création, de liberté et de soin. Rejoignez la mobilisation, demandez l’interdiction de la VSA dans votre ville !

Proposition de loi « ingérences étrangères », une nouvelle étape dans l’escalade sécuritaire

Par : noemie
30 mai 2024 à 10:13

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 29 mai 2024.

L’Observatoire des Libertés et du Numérique demande aux parlementaires de s’opposer à l’extension des finalités des boîtes noires de renseignement inscrite dans la proposition de loi « ingérences étrangères ».

« L’ingérence étrangère », un énième prétexte à l’extension de la surveillance de masse

La proposition de loi « Prévenir les ingérences étrangères en France» , présentée par le député Sacha Houlié avec le soutien du camp présidentiel, a été adoptée par l’Assemblée Nationale (27 mars) et le Sénat (22 mai) avec le soutien des partis Les Républicains et Rassemblement national – alliés naturels du gouvernement pour les lois sécuritaires, mais ici, avec également le soutien du PS et d’EELV.

L’objectif affiché de cette loi est de limiter les intrusions d’autres Etats via l’espionnage et les manipulations pour contraindre les intérêts géopolitiques de la France. Mais, alors que le gouvernement dispose déjà de nombreux outils pour éviter ces intrusions, ce texte fraîchement adopté ne peut qu’inquiéter. En effet, ces dispositions pourraient avoir pour conséquence de soumettre des associations d’intérêt public œuvrant pour l’intérêt collectif à des obligations de déclaration des subventions de fondations étrangères, renforçant ainsi les possibilités de contrôle gouvernemental.

Par ailleurs, dans une logique constante de solutionnisme technologique, le texte promeut l’extension d’une technique de renseignement dite de l’algorithme de détection ou « boîte noire de renseignement ».

Des gardes fous toujours remis en cause

Cette technique a été instaurée par la loi renseignement de 2015 et nos organisations s’y étaient alors fermement opposées. Elle implique, en effet, la nécessaire surveillance de l’intégralité des éléments techniques de toutes les communications de la population (qui contacte qui ? quand ? comment ? voire pourquoi ?), qu’elles soient téléphoniques ou sur internet, tout cela pour poursuivre l’objectif de détecter automatiquement des profils effectuant un certain nombre d’actions déterminées comme étant « suspectes ». Ces profils seront ensuite ciblés et plus spécifiquement suivis par des agents du renseignement. Cette technique agit donc à la manière d’un énorme « filet de pêche », jeté sur l’ensemble des personnes résidant en France, la largeur de maille étant déterminée par le gouvernement.

En raison de son caractère hautement liberticide, cette mesure avait été limitée à la stricte lutte contre le risque terroriste et instaurée de façon expérimentale pour quelques années avec des obligations d’évaluation. Malgré des résultats qui semblent peu convaincants et des rapports d’évaluation manquants, cette technique a, depuis, été pérennisée et explicitement élargie à l’analyse des adresses web des sites Internet.

Un dévoiement des finalités

L’OLN dénonçait déjà les risques induits par l’utilisation de ce dispositif avec la finalité de « lutte contre le terrorisme », notamment en raison de l’amplitude de ce que peut recouvrir la qualification de terrorisme, notion du reste non définie dans le texte.

L’actualité vient confirmer nos craintes et l’on ne compte plus les usages particulièrement préoccupants de cette notion : désignation « d’écoterroristes » pour des actions sans atteinte aux personnes, multiples poursuites pour « apologie du terrorisme » , pour des demandes de cessez-le-feu et des propos liés à l’autodétermination du peuple palestinien, condamnations pour une préparation de projet terroriste sans qu’un projet n’ait pu être établi par l’accusation.

Cette proposition de loi élargira cette technique de l’algorithme à deux nouvelles finalités de renseignement :

1° L’indépendance nationale, l’intégrité du territoire et la défense nationale ;

2° Les intérêts majeurs de la politique étrangère, l’exécution des engagements européens et internationaux de la France et la prévention de toute forme d’ingérence étrangère ;

Là encore, la définition des finalités est bien trop vague, sujette à de très larges interprétations, pouvant inclure les actions suivantes : militer contre des accords de libre-échange, lutter contre des projets pétroliers, soutien aux migrants, remettre en cause les ventes d’armement ou les interventions militaires de la France…

Un encadrement bien limité

Si un contrôle théorique de ses finalités doit être opéré par la Commission Nationale de Contrôle des Techniques de Renseignement (CNCTR), ses avis peuvent ne pas être suivis.

De même, si la proposition de loi est, là encore, prévue pour une phase « expérimentale » pendant 4 ans et avec des obligations de documentation, peu de doutes sont permis sur ce qu’il adviendra, au vu des précédents sur le sujet.

Un élargissement des « techniques spéciales d’enquête »

Dans le cadre de ce nouveau texte sécuritaire, le Sénat en a aussi profité pour aggraver le barème des peines et créer une nouvelle circonstance aggravante dite « générale » applicable à l’ensemble des infractions [au même titre que l’usage de la cryptologie…] permettant de monter d’un palier la peine de prison encourue (3 à 6, 5 à 7, 7 à 10…) dès que l’infraction est commise « dans le but de servir les intérêts d’une puissance étrangère, d’une entreprise ou d’une organisation étrangère, ou sous contrôle étranger ». Cette aggravation de peine permettra l’utilisation des techniques spéciales d’enquête, soit les intrusions les plus graves dans la vie privée (écoutes téléphoniques, balises GPS, la prise de contrôle d’appareil, hacking informatique…). Là où ces techniques étaient censées n’être utilisées que pour les crimes les plus graves, elles sont, texte après texte, étendues à un nombre toujours plus important d’infractions.

Quelle lutte contre quelles ingérences ?

Le Gouvernement ne ferait-il pas mieux de s’inquiéter de certaines ingérences étrangères bien réelles, telles que la captation des données de santé des Français exploitées par les autorités étasuniennes dans le cadre du Health Data Hub, d’autres captations frauduleuses par les entreprises du numérique américaines ou encore la vente de technologies de pointe par des sociétés étrangères, notamment israéliennes, comme PEGASUS, permettant de surveiller des personnalités politiques françaises au plus haut niveau ?

Des outils terrifiants au service d’un pouvoir qui continue sa fuite en avant autoritaire

Les boîtes noires comme les autres techniques d’intrusion du renseignement offrent des possibilités terrifiantes, qu’elles soient prévues par la loi ou utilisées abusivement. Cette démultiplication des capacités de surveillance participe à l’actuelle dérive autoritaire d’un pouvoir qui se crispe face aux contestations pourtant légitimes de sa politique antisociale et climaticide et devrait toutes et tous nous inquiéter alors que les idées les plus réactionnaires et de contrôle des populations s’intensifient chaque jour un peu plus.

Espérer un retour à la raison

Espérant un retour à la raison et à la primauté des libertés publiques, passant par la fin de la dérive sécuritaire et de son terrible « effet cliquet » nous appelons la Commission mixte paritaire qui aura à se prononcer sur ce texte puis les parlementaires à rejeter l’article 4 (élargissement du barème de peine et techniques spéciales d’enquête) et l’article 3 (élargissement des finalités des boites noires) de cette proposition de loi, et, a minima, à s’en tenir à une restriction d’utilisation de cette technique à des cas beaucoup plus précis et définis (par exemple au risque d’attentat causant des atteintes à la vie et les ingérences étrangères graves telles qu’envisagées aux articles 411-1 à -8 du Code pénal).

Organisations signataires membres de l’OLN : le CECIL, Globenet, Creis-Terminal, la Ligue des droits de l’Homme (LDH), le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).

La Quadrature du Net attaque en justice le blocage de TikTok en Nouvelle-Calédonie

Par : noemie
17 mai 2024 à 06:16

Par un référé-liberté déposé ce jour, La Quadrature du Net demande au Conseil d’État la suspension de la décision du Premier ministre Gabriel Attal de bloquer en Nouvelle-Calédonie la plateforme TikTok. Par cette décision de blocage, le gouvernement porte un coup inédit et particulièrement grave à la liberté d’expression en ligne, que ni le contexte local ni la toxicité de la plateforme ne peuvent justifier dans un État de droit.

Les réflexes autoritaires du gouvernement

Alors que la situation en Nouvelle-Calédonie atteint un stade dramatique, après trois ans de crise, et que le dialogue politique semble rompu suite à la décision du gouvernement et du Parlement de modifier les règles d’accession au collège électoral au détriment des indépendantistes kanaks, le gouvernement a décidé de revenir à de vieux réflexes autoritaires et coloniaux. Outre l’envoi de forces armées, il a ainsi choisi de bloquer purement et simplement la plateforme TikTok sur le territoire de Nouvelle-Calédonie. Selon Numerama, le premier ministre justifie cette mesure « en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise », ajoutant que l’application serait « utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers ».

Or, pour mettre en œuvre cette censure, quoi de mieux qu’une des lois d’exception dont le gouvernement systématise l’usage ces dernières années ? En déclarant l’état d’urgence en Nouvelle-Calédonie, le gouvernement s’est autorisé à expérimenter un article de la loi de 1955, ajouté en 2017 : la possibilité de bloquer les plateformes en ligne « provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ».

Personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter. Cette décision de s’en prendre aux moyens de communication lors de moments de contestation violente – une première dans l’Union européenne et qui paraît digne des régimes russe ou turc, régulièrement condamnés par la CEDH pour atteintes à la liberté d’expression1Très logiquement, nous nous appuyons donc dans notre recours sur les précédents jurisprudentiels de la CEDH sanctionnant ces deux pays en raison des atteintes à la liberté d’expression contraires à la Convention européenne des droits de l’homme. – a déjà été éprouvée l’année dernière, après la mort de Nahel Merzouk.

À l’été 2023, Emmanuel Macron avait exprimé son souhait de pouvoir bloquer les réseaux sociaux lors de moments de crise. Le président de la République s’était alors lancé dans une véritable course à l’échalote autoritaire contre les plateformes en ligne, blâmant les jeux vidéos, puis les réseaux sociaux qu’il voulait alors pouvoir bloquer et sur lesquels il voulait accentuer la fin généralisée de l’anonymat en ligne (déjà bien amoché en pratique). À ce moment-là, les plateformes avaient répondu présentes pour censurer les contenus relatifs aux évènements et aux violences dans les banlieues. Nous avions alors dénoncé cette collaboration entre plateformes privées et pouvoirs publics, unis pour brimer la liberté d’expression au nom du « retour de l’ordre » (voir notre analyse). Aujourd’hui le gouvernement persiste et signe dans sa volonté de mettre au pas les moyens de communications, cette fois-ci en choisissant la voie explicitement autoritaire : le blocage total.

La Nouvelle-Calédonie, terrain d’expérimentation

La décision de bloquer TikTok en Nouvelle-Calédonie constitue pour le gouvernement une première mise en pratique du programme macroniste de censure en ligne annoncé l’été dernier. L’occasion paraît idéale pour le pouvoir : d’une part du fait du relatif désintérêt des médias français pour l’archipel (il aura fallu attendre plusieurs jours, et notamment un premier mort parmi les habitant·es, pour que la presse en métropole commence à traiter de l’actualité calédonienne) et d’autre part parce que ce territoire dispose de règles juridiques différentes, notamment vis-à-vis du droit de l’Union européenne. De cette manière, le gouvernement croit pouvoir éteindre la révolte sans répondre aux griefs de manifestants, en refusant d’aborder la question du rôle de la réforme constitutionnelle sur les élections calédoniennes dans le malaise de la population kanak.

L’objectif de cette décision de censure consiste avant tout à étouffer l’expression d’une révolte. Elle constitue aussi un ballon d’essai avant une possible généralisation de ce type de mesure. De ce point de vue, le contexte politique semble favorable. Dans un récent rapport faisant suite aux révoltes urbaines de 2023, la commission des Lois du Sénat ne demandait rien d’autre que ce qui est en train d’être appliqué en Nouvelle-Calédonie : le blocage des réseaux sociaux et des sanctions plus dures contre les personnes les ayant utilisés lors des révoltes d’une partie de la jeunesse des quartiers populaires l’an dernier.

Lutter contre la surenchère autoritaire

Par notre recours en référé déposé ce jour, nous tentons donc de stopper une machine autoritaire lancée à pleine vitesse. Ne nous y trompons pas : il ne s’agit pas de défendre TikTok, une plateforme dont la toxicité avérée commence à être prise en compte par le législateur. Mais les pouvoirs publics restent obnubilés par la nationalité chinoise des détenteurs des capitaux de la plateforme, alors qu’au fond pas grand-chose ne sépare le modèle de TikTok de celui d’Instagram, de Snapchat ou d’autres réseaux dominants. Au-delà de TikTok et de la tutelle exercée par le régime chinois, c’est l’ensemble de l’économie politique liée à ces réseaux sociaux centralisés, fondés sur la collecte et l’exploitation massive des données des utilisateurices, organisés autour d’algorithmes et d’interfaces toxiques, qu’il convient de démanteler. C’est notamment pour promouvoir des alternatives favorables à la liberté d’expression et protectrices des droits que nous appelons à imposer l’interopérabilité des réseaux sociaux.

Par ce recours, il s’agit de dénoncer haut et fort cette mesure autoritaire inédite dans un régime qui se prétend démocratique, mais aussi d’empêcher que ces désirs de contrôle puissent trouver une quelconque légitimité politique ou juridique à l’avenir. Alors que la loi visant à sécuriser et réguler l’espace numérique (SREN) a été votée et promet une large remise en question de l’anonymat en ligne et une plus grande censure administrative, alors que la lutte contre le terrorisme sert plus que jamais de prétexte à étouffer l’expression en ligne et les contestations, il faut continuer à agir.

Dans ce contexte, La Quadrature a d’autant plus besoin de vous. Le recours que nous avons déposé aujourd’hui ne serait pas possible sans votre soutien. Rejoignez-nous dans nos combats, pour ne pas rester silencieux.euses face aux attaques autoritaires du gouvernement. Et si vous le pouvez, faites-nous un don sur https://www.laquadrature.net/donner/

References[+]

References
1 Très logiquement, nous nous appuyons donc dans notre recours sur les précédents jurisprudentiels de la CEDH sanctionnant ces deux pays en raison des atteintes à la liberté d’expression contraires à la Convention européenne des droits de l’homme.

VSA : l’Assemblée discute déjà son extension aux transports

Par : noemie
14 mai 2024 à 07:43

Alors que les expérimentations de vidéosurveillance algorithmique (VSA) prévues par la loi relative aux Jeux Olympiques ont à peine débuté et qu’aucune évaluation n’a encore été réalisée, le gouvernement passe déjà à la vitesse supérieure. Mercredi 15 mai, la commission des lois de l’Assemblée va discuter d’une proposition de loi visant à légaliser une nouvelle forme de VSA, en utilisant cette fois-ci comme excuse la sécurité dans les transports. Derrière ce texte passé presque inaperçu se cache une nouvelle avancée sécuritaire mais surtout un agenda politique assumé : celui de la généralisation sur le long terme des technologies de surveillance algorithmique des espaces publics. Le rapporteur Clément Beaune a refusé de nous auditionner. Pourtant nous aurions eu beaucoup à lui dire sur les dangers de cette technologie et les contradictions du gouvernement qui trahit sans scrupule les promesses formulées il n’y a même pas un an.

Vous vous souvenez de la loi Sécurité globale ? Voici sa petite sœur, la proposition de loi « relative au renforcement de la sûreté dans les transports ». Adoptée en février par le Sénat, ce texte propose les pires projets sécuritaires : captation du son dans les wagons, pérennisation des caméras-piétons pour les agent·es et extension aux chauffeur·euses de bus, autorisation donnée aux régies de transports pour traiter des données sensibles (ce qui permettrait de collecter des données liées à l’origine raciale, les données de santé ou encore les opinions religieuses et politiques) ou encore transmission directe au ministère public des procès-verbaux d’infractions commises dans les transports.

Expérimenter pour banaliser et légitimer

Mais surtout, cette proposition de loi envisage une nouvelle expérimentation de la vidéosurveillance algorithmique jusqu’en 2027. Son article 9 est un quasi copié-collé de l’article 10 de la loi relative aux Jeux olympiques adoptée l’année dernière et qui prévoyait l’utilisation d’algorithmes de reconnaissance de comportements dans un cadre soit-disant « expérimental » pour tout évènement récréatif, sportif et culturel. Alors que les premiers déploiements ont à peine commencé, que des sénateur·rices ont constaté dans un récent rapport que ces dispositifs ne seront pas suffisamment opérationnels pour les JO de Paris et que l’évaluation prévue par la loi n’a pas encore été faite, ce nouveau texte discuté demain propose de rendre légal un autre type de logiciel d’analyse de flux vidéos.

En l’occurrence, il s’agirait d’autoriser des traitements de données ayant pour but d’« extraire et exporter les images » réquisitionnées par la police dans le cadre d’enquêtes pénales. Derrière cette formule floue, nous devinons qu’il s’agit en réalité des algorithmes de VSA dits « a posteriori » dont nous documentons l’usage depuis des années dans le cadre de l’initiative Technopolice.

En effet, s’il est très facile d’effectuer une recherche dans un document texte, la tâche s’avère plus compliquée et chronophage lorsqu’il s’agit d’effectuer une recherche dans un flux vidéo. La VSA « a posteriori » permet d’ automatiser des recherches dans des archives vidéo. Comme nous l’expliquons dans notre brochure détaillée publiée début mai, cela consiste à lancer des requêtes de reconnaissance d’image afin de faire remonter l’ensemble des bandes vidéos correspondant à certains critères thématiques comme détecter l’ensemble des hommes portant un t-shirt jaune et un pantalon noir repérés dans une zone géographique donnée durant les dernières 24h. Concrètement, cela permet de retracer le parcours de quelqu’un dans une ville. La VSA peut également raccourcir le temps de visionnage en condensant des heures ou des jours de vidéos en quelques minutes. Le rôle de la VSA dans cet usage est de sélectionner les passages susceptibles d’intéresser la police et de faire une ellipse sur le reste du temps de vidéo. Cette technologie repose sur l’analyse et le tri des caractéristiques biométriques des personnes, ce qui la rend totalement illégale.

Le plus connu des logiciels permettant de tels usages est celui de Briefcam, une entreprise israélienne rachetée par le groupe japonais Canon. Pas moins de 200 villes françaises seraient dotées de sa technologie de VSA, qui permet aussi de faire de la reconnaissance faciale. Le manuel d’utilisation que nous avons obtenu ainsi que les vidéos promotionnelles1 Voir notamment cette vidéo à partir de 3:12 sont parlantes quant aux capacités de ces algorithmes de tri et de catégorisation des personnes, considérés comme de simples « objets ».

Comme toute technologie de VSA, elle permet à la police d’augmenter son contrôle de l’espace public, réduisant ainsi l’anonymat et les libertés que l’on y exerce. Mais la VSA étend également les logiques policières en les automatisant. Toute décision opérée sur le logiciel ne fait que refléter un choix humain, en l’occurrence celui des policiers, et généralise les habitudes qu’ils ont en matière de surveillance de l’espace public. Qu’il s’agisse des critères physiques choisis pour mettre en œuvre des filtres de tri et de repérage (par exemple, un homme vêtu d’un jogging et d’une casquette), des lieux ciblés par cette analyse (abords d’un lieu militant ou quartier populaire…) ou encore de la fonctionnalité choisie (pour retrouver le parcours de quelqu’un ou pour ne repérer qu’une certaine catégorie de personne), chacune des utilisations de cette VSA renforce des pratiques policières discriminantes et créé un risque supplémentaire de surveillance.

Une hypocrisie de plus : légaliser l’illégal

Bien que ces logiciels soient massivement utilisés par la police dans de nombreuses villes de France, et ce en toute illégalité, la proposition de loi discutée ce mercredi cantonne « l’expérimentation » aux transports pour trois ans. En pratique, seules la RATP ou la SNCF seront donc autorisées par la loi à avoir recours à ces algorithmes, et uniquement pour répondre à des réquisitions d’enregistrements dans le cadre d’enquêtes pénales. Plutôt que de condamner ces utilisations illégales et massives de VSA, le gouvernement a donc choisi de les légitimer au travers d’un texte qui semble en apparence circonscrit et proportionné. Comme pour la loi relative aux Jeux Olympiques, le gouvernement souhaite avancer par « petit pas » pour mettre en œuvre sa stratégie de légalisation, en concentrant l’attention sur un spectre réduit d’usages encadrés par des lois « expérimentales ».

Usages de la VSA

Ces cadres « expérimentaux » permettent de donner l’apparence d’un aspect éphémère et réversible pour construire l’acceptabilité sociale d’une technologie autoritaire. Mais il ne fait que peu de doute que ces dispositifs seront soit pérennisés soit étendus à de nouveaux usages L’arrivée de ce texte, un an à peine après celui de la loi JO, en est le meilleur exemple. Il n’est d’ailleurs pas étonnant que les transports aient été choisis pour mettre en application cette nouvelle accélération. En effet, ceux-ci jouent un rôle moteur dans la promotion de la VSA en France. En 2022, la CNIL avait lancé une consultation publique sur le sujet et les contributions de la RATP et de la SNCF étaient éloquentes quant à leurs intentions de surveillance.

Aussi, comme l’a rappelé Mediapart, la SNCF expérimente régulièrement depuis 2017, de façon totalement illégale, plusieurs logiciels de surveillance dans les gares achetés auprès de plusieurs entreprises. Début mai, nous avons dénoncé à la CNIL un de ces programmes illégaux mis en œuvre par la SNCF, Prevent PCP, qui vise à faire de la filature automatisée de personnes dans les gares, sur la base de leurs attributs physiques et biométriques, sous prétexte de retrouver les personnes qui abandonneraient un bagage en gare. Quant à la RATP, elle a expérimenté la vidéosurveillance algorithmique dans ses rames et sur ses quais avec Evitech et Wintics. Bref, la proposition de loi apparaît taillée sur mesure pour légaliser une partie des dispositifs de VSA d’ores et déjà utilisés illégalement par la SNCF ou la RATP.

Un Parlement instrumentalisé

Qu’il s’agisse de cette proposition de loi sur les transports ou de la loi relative aux Jeux olympiques adoptée en mai 2023, l’intention qui préside à ces textes n’est pas d’engager une discussion sincère sur l’utilité de la VSA, mais d’entériner des états de fait. Le Sénat et l’Assemblée nationale apparaissent alors comme de simples chambre d’enregistrement du gouvernement, qui trahit ses engagements et multiplie les manœuvres rendant impossible un réel débat parlementaire.

En effet, celui-ci n’a pas peur de s’asseoir sur ses promesses faites l’année dernière aux député·es et sénateur·ices. Lors des débats sur la loi sur les Jeux Olympiques, aussi bien le rapporteur Guillaume Vuilletet que Gerald Darmanin assuraient mordicus aux parlementaires inquiets que de nombreuses garanties avaient été prévues, et notamment puisqu’il s’agissait d’une « expérimentation », que seul l’aboutissement d’un processus d’évaluation permettrait d’aller plus loin. Les modalités de cet examen ont été précisées par un décret du 11 octobre 2023 et un comité a été nommé pour rendre un rapport d’ici fin mars 2025. Mais ces gardes-fous, pourtant votés par la représentation nationale il y a un an, sont balayés d’un revers de main aujourd’hui : sans attendre ce rapport, le gouvernement préfère avancer, en assumant avoir menti aux parlementaires.

D’autre part, le processus législatif qui entoure ce texte sur les transports démontre que le gouvernement refuse au Parlement les conditions d’un débat serein et approfondi. Comme son nom l’indique, ce texte est une proposition de loi, c’est à dire une initiative parlementaire et non gouvernementale, déposée en l’occurrence par Philippe Tabarot, un sénateur LR. Celui-ci n’est pas sans lien avec le sujet puisqu’il a été plusieurs années à la tête de la régie des transports PACA puis vice-président de la Commission des transports de Régions de France.

Or, compte tenu du fait qu’il s’agit d’une proposition de loi de l’opposition, ce texte ne pouvait en théorie être transféré à l’Assemblée qu’au travers d’une « niche » du parti LR. C’était sans compter la volonté de l’exécutif de le mettre à l’ordre du jour de son propre chef. En outre, le gouvernement n’a pas hésité à recourir une fois de plus à l’excuse des Jeux olympiques pour déclencher une procédure accélérée pour l’examen du loi, prétextant que ce texte devait entrer en vigueur avant cet évènement en juillet. Mais ce n’est pas tout. Alors que l’année dernière, pour la loi JO, le gouvernement avait au minimum posé les conditions d’un examen parlementaire informé, ici aucune étude d’impact, aucun avis de la CNIL, aucune explication de la technologie couverte par l’article 9 n’a été publiée ou transmise aux parlementaires.

Les député·es vont donc voter un texte sans comprendre les implications techniques et les conséquences en termes de surveillance de cet usage de la VSA, qui sera très probablement minimisée et mal expliquée par le rapporteur Clément Beaune. D’ailleurs, ce dernier ne semble pas disposé à un quelconque débat : lorsque nous lui avons demandé à être auditionné afin d’en savoir plus sur le contenu de ce texte ainsi que pour alerter sur ses dangers, l’administration de l’Assemblée nationale a refusé, prétextant un « calendrier trop chargé ».

Faire passer un texte à toute vitesse, faire primer l’opportunisme politique sur la transparence démocratique et refuser d’écouter une association de défense des droits qui travaille depuis des années sur le sujet, c’est tout le jeu démocratique qui est bafoué. Une fois de plus, il n’y a aucune volonté de la part des pouvoirs publics d’examiner sincèrement l’utilité ou les dangers de la VSA, et encore moins de démanteler l’infrastructure de surveillance illégalement déployée depuis des années. En réalité, les intérêts politiques et sécuritaires priment et les garde-fous démocratiques sont réduits à de purs instruments cosmétiques.

Cette proposition de loi sur les transports constitue une étape de plus dans le déploiement de la surveillance automatisée des rues, au bénéfice de la police et des industriels de la Technopolice. Alors que le gouvernement ne s’embarrasse même plus à permettre les conditions d’un débat parlementaire, mobilisons-nous ! Interpellez votre député·e sur ce texte ou bien créez vous-même la contestation dans votre ville ou votre département. Car à coté de ces débats législatifs, la VSA continue de s’installer de façon illégale à travers le pays, souvent à l’échelon des collectivité locales. Pour dénoncer cette hypocrisie et refuser le projet de société de surveillance de l’espace public, nous avons lancé un kit de mobilisation il y a deux semaines. Vous pouvez y trouver ressources, modes d’action et des affiches pour faire valoir une opposition populaire à la VSA. Rejoignez la campagne sur www.laquadrature.net/vsa, et si vous le pouvez, faites un don sur www.laquadrature.net/donner !

References[+]

References
1 Voir notamment cette vidéo à partir de 3:12

La France crée un fichier des personnes trans

Par : noemie
30 janvier 2024 à 09:10

Révélé et dénoncé par plusieurs associations de défense des droits des personnes transgenres, un récent arrêté ministériel autorise la création d’un fichier de recensement des changements d’état civil. Accessible par la police et présenté comme une simplification administrative, ce texte aboutit en réalité à la constitution d’un fichier plus que douteux, centralisant des données très sensibles, et propice à de nombreuses dérives. Le choix de créer un tel fichier pose d’immenses problèmes aussi bien politiquement que juridiquement.

Brève histoire du RNIPP

Comme beaucoup d’actes réglementaires pris en fin d’année, l’arrêté du 19 décembre 2023 « portant création d’un traitement automatisé de données à caractère personnel dénommé « table de correspondance des noms et prénoms » » aurait pu passer inaperçu. Il est pourtant d’une sensibilité extrême.

Avant d’en détailler le contenu, revenons rapidement sur le contexte et l’origine de ce texte. Celui-ci découle d’un autre acte réglementaire : un décret-cadre de 2019 relatif à l’utilisation du Numéro d’identification au répertoire national des personnes physiques (NIR). Le NIR, c’est ce fameux numéro « de sécurité sociale » attribué à chaque personne à sa naissance sur la base d’éléments d’état civil transmis par les mairies à l’INSEE. Bien que, dans les années 1970, le projet d’utiliser le NIR pour interconnecter des fichiers d’États ait inquiété et conduit à la création de la CNIL, il est aujourd’hui largement utilisé par les administrations fiscales, dans le domaine des prestations sociales, dans l’éducation ou encore la justice, ainsi que pour le recensement. Le NIR peut également être consulté au travers du répertoire national d’identification des personnes physiques (RNIPP).

Si, en théorie, ce numéro devrait être très encadré et contrôlé par la CNIL, son utilisation est aujourd’hui très étendue, comme le démontre ce fameux décret-cadre de 2019 qui recense la longue liste des traitements utilisant le NIR ou permettant la consultation du RNIPP. Régulièrement mis à jour pour ajouter chaque nouveau traitement lié au NIR ou RNIPP, le décret a ainsi été modifié en octobre 2023 pour autoriser une nouvelle possibilité de consultation du RNIPP lié au changement d’état civil. C’est donc cela que vient ensuite préciser l’arrêté de décembre, objet de nos critiques.

Lorsqu’on lit le décret et l’arrêté ensemble, on comprend qu’il accorde aux services de police un accès au RNIPP « pour la consultation des seules informations relatives à l’identité des personnes ayant changé de nom ou de prénom » en application du code civil, à l’exclusion du NIR, et ce « aux fins de transmission ou de mise à disposition de ces informations aux services compétents du ministère de l’intérieur et des établissements qui lui sont rattachés et de mise à jour de cette identité dans les traitements de données à caractère personnel mis en œuvre par eux ». Il s’agirait du premier accès au RNIPP accordé au ministère de l’intérieur.

Un fichier de données sensibles…

Dans ce nouveau fichier, seront ainsi enregistrées pendant six ans les données liées au changement d’état civil ayant lieu après le 19 décembre 2023 : les noms de famille antérieurs et postérieurs au changement de nom, les prénoms antérieurs et postérieurs au changement de prénom, la date et le lieu de naissance, la date du changement de nom ou de prénom, le sexe et le cas échéant, la filiation.

Ces changements ne concernent pas l’utilisation d’un nom d’usage, tel que le nom de la personne avec qui l’on est marié·e, qui est le changement le plus courant. En pratique, de telles modifications d’état civil concerneraient deux principales situations : le changement de prénom lors d’une transition de genre ou le changement de nom et/ou prénom que des personnes décident de « franciser », notamment après une obtention de papiers. Si le fichier apparaît comme un instrument de simplification administrative au premier regard, il constitue également – comme l’ont dénoncé les associations de défense des droits LGBTQI+ – un fichier recensant de fait les personnes trans et une partie des personnes immigrées.

D’un point de vue juridique, notre analyse nous conduit à estimer que ce fichier contient des données dites « sensibles », car elles révéleraient « la prétendue origine raciale ou l’origine ethnique » ainsi que « des données concernant la santé ». La Cour de justice de l’Union européenne a récemment établi1Voir l’arrêt de la CJUE, gr. ch., 1er août 2022, OT c. Vyriausioji tarnybin˙es etikos komisija, aff. C-184/20 que la définition des données sensibles devait être interprétée de façon large et considère que si des données personnelles sont susceptibles de dévoiler, même de manière indirecte, des informations sensibles concernant une personne, elles doivent être considérées comme des données sensibles. Dans cette même décision, la Cour ajoute ainsi que si les données traitées ne sont pas sensibles lorsqu’elles sont prises indépendamment mais que, par recoupement avec d’autres données (fait par le traitement ou par un tiers) elles peuvent malgré tout révéler des informations sensibles sur les personnes concernées, alors elles doivent être considérées comme étant sensibles.

C’est exactement le cas ici : les noms et prénoms ne sont pas des données sensibles, mais si une personne tierce a en parallèle l’information que ceux-ci ont été modifiés, elle peut, par recoupement, en déduire des informations sur la transidentité d’une personne (qui changerait de Julia à Félix) ou son origine (qui passerait de Fayad à Fayard pour reprendre l’exemple donné par l’État). Cette table de correspondance crée donc en réalité un traitement de données sensibles. Or celles-ci sont particulièrement protégées par la loi. L’article 6 de la loi informatique et libertés de 1978 et l’article 9 du RGPD posent une interdiction de principe de traiter ces données et prévoient un nombre limité d’exceptions l’autorisant. Pourtant, dans sa délibération sur le décret, d’ailleurs particulièrement sommaire, la CNIL ne s’est pas penchée sur cette conséquence indirecte mais prévisible de création de données sensibles. Celles-ci seraient donc traitées en dehors des règles de protection des données personnelles.

…à destination de la police

Ensuite, la raison d’être de ce fichier particulièrement sensible interroge. La finalité avancée dans l’arrêté est « la consultation de l’identité des personnes ayant changé de nom ou de prénom en application des articles 60, 61 et 61-3-1 du code civil » et « la mise à jour de cette identité dans les traitements de données à caractère personnel que [le ministre de l’intérieur] ou les établissements publics qui lui sont rattachés mettent en œuvre ». En première lecture, on pourrait imaginer qu’il s’agit de simple facilité de mise à jour administrative. Pourtant, celle-ci diffère des procédures existantes. En effet, aujourd’hui, lorsqu’une personne change de prénom et/ou de nom, la mairie ayant enregistré le changement d’état civil informe l’INSEE qui met à jour le RNIPP et prévient les organismes sociaux et fiscaux (Pôle Emploi, les impôts, la CPAM…). En parallèle, la personne concernée doit faire un certain nombre de procédures de modifications de son coté (carte d’identité, de sécurité sociale, permis de conduire…)2L’Amicale Radicale des Cafés Trans de Strasbourg a publié dans un billet de blog un récapitulatif de l’ensemble des démarches à effectuer pour changer d’état civil en France..

Aucune administration n’a donc, à aucun moment, accès à un fichier recensant les changements d’état civil puisque ces modifications sont faites de façon distribuée, soit à l’initiative de l’INSEE soit à celle de la personne concernée. Pourquoi ne pas en rester là ? La raison tient sans doute au fait qu’en réalité, ce fichier est un des instruments de surveillance de la police. La lecture des nombreux destinataires du traitement est éloquente. Il s’agit des agents habilités de la police nationale et de la gendarmerie nationale, des agents habilités des services centraux du ministère de l’Intérieur et des préfectures et sous-préfectures, des agents effectuant des enquêtes administratives (pour des emplois publics ou demandes de séjour) ou des enquêtes d’autorisation de voyage, ou encore de l’agence nationale des données de voyage, du commandement spécialisé pour la sécurité nucléaire et du conseil national des activités privées de sécurité (sécurité privée qui a de plus en plus de pouvoir depuis la loi Sécurité globale…).

On le comprend alors : cette « table de correspondance » a pour unique but d’être consultée en parallèle d’autres fichiers de police, dont le nombre a explosé depuis 20 ans (il y en aurait aujourd’hui plus d’une centaine3Le dernier décompte a été fait en 2018 dans un rapport parlementaire sur le sujet ) et dont les périmètres ne cessent de s’élargir. Ainsi, par exemple, lorsqu’un agent de police contrôle l’identité d’une personne, il ne consultera plus seulement le fichier de traitement des antécédents judiciaires (ou TAJ), mais également ce fichier des personnes ayant changé de nom : le premier lui permettra alors de connaître les antécédents de la personne, et le second de savoir si elle est trans ou étrangère.

Si les deux situations soulèvent des inquiétudes sérieuses, attardons-nous sur le cas des personnes trans. Elles seront outées de fait auprès de la police qui aurait alors connaissance de leur deadname4Le lexique du site Wiki Trans définit l’outing comme la révélation « qu’une personne est trans (ou LGBTQIA+). L’outing ne doit JAMAIS se faire sans le consentement de la personne concernée. Et cela peut être considéré, dans le code pénal, comme une atteinte à la vie privée ». Le deadname est le « prénom assigné à la naissance » et peut être source de souffrance pour une personne trans.. Or de nombreux témoignages, tels que ceux recensés chaque année par SOS Homophobie dans ses rapports sur les LGBTI-phobies, démontrent qu’il existe une réelle transphobie au sein de la police. Compte tenu de ces discriminations et des violences qui peuvent y êtres associées, fournir de telles informations à la police aura non seulement pour effet de les renforcer mais peut également mettre en danger les personnes trans confrontées à la police. Ces craintes ont été partagées sur les réseaux sociaux et laissent entendre que certain·es pourraient renoncer à entamer de telles démarches de changement d’état civil face à la peur d’être présent·es dans un tel fichier. De façon générale, les personnes trans sont historiquement et statistiquement davantage victimes de violences policières.

Par ailleurs, les informations de cette « table de correspondance » pourront venir nourrir le renseignement administratif, notamment le fichier PASP qui permet de collecter un grand nombre d’informations, aussi bien les opinions politiques que l’activité des réseaux sociaux ou l’état de santé des dizaines de milliers de personne qui y sont fichées. Alors que ces capacités de surveillance prolifèrent, sans aucun réel contrôle de la CNIL (nous avons déposé une plainte collective contre le TAJ il y a plus d’un an, toujours en cours d’instruction par l’autorité à ce jour), l’arrêté de décembre dernier offre à la police toujours plus de possibilités d’en connaître davantage sur la population et de nourrir son appétit de généralisation du fichage.

Un choix dangereux en question

Au-delà de cette motivation politique, qui s’inscrit dans une extension sans limite du fichage depuis deux décennies, il faut également critiquer les implications techniques liées à la création d’un tel fichier. En centralisant des informations, au demeurant très sensibles, l’État crée un double risque. D’une part, que ces informations dès lors trop facilement accessibles soient dévoyées et fassent l’objet de détournement et autres consultations illégales de la part de policiers, comme pour bon nombre de fichiers de police au regard du recensement récemment effectué par Mediapart.

D’autre part, du fait de la centralisation induite par la création d’un fichier, les sources de vulnérabilité et de failles de sécurité sont démultipliées par rapport à un accès décentralisé à ces informations. Avec de nombreux autres acteurs, nous formulions exactement les mêmes critiques en 2016 à l’encontre d’une architecture centralisée de données sensibles au moment de l’extension du fichier TES à l’ensemble des personnes détentrices d’une carte d’identité, cela aboutissant alors à créer un fichier qui centralise les données biométriques de la quasi-totalité de la population française.

En somme, ce décret alimente des fichiers de police déjà disproportionnés, en y ajoutant des données sensibles en dérogation du cadre légal, sans contrôle approprié de la CNIL et touche principalement les personnes trans et étrangères, facilitant par là le travail de surveillance et de répression de ces catégories de personnes déjà stigmatisées par la police.

Cette initiative n’est pas unique à la France et s’inscrit dans un mouvement global inquiétant. En Allemagne, malgré l’objectif progressiste d’une loi de 2023 sur le changement de genre déclaratif, des associations telles que le TGEU ont dénoncé le fait que les modifications d’état civil soient automatiquement transférées aux services de renseignement. Aux États-Unis, différents États ont adopté des lois discriminatoires vis-à-vis des personnes trans, forçant certaines personnes à détransitionner ou bien à quitter leur État pour éviter de perdre leurs droits. Au Texas, le procureur général républicain a essayé d’établir une liste des personnes trans à partir des données relatives aux modifications de sexe dans les permis de conduire au cours des deux dernières années.

En outre, ce décret crée pour la première fois un accès pour le ministère de l’Intérieur au RNIPP, répertoire pourtant réservé aux administrations sociales et fiscales. Or, l’expérience nous montre que toute nouvelle possibilité de surveillance créé un « effet cliquet » qui ne conduit jamais à revenir en arrière mais au contraire à étendre toujours plus les pouvoirs accordés.

Nous nous associons donc aux différentes organisations ayant critiqué la création de ce fichier stigmatisant et qui participe à l’édification d’un État policier ciblant des catégories de populations déjà en proie aux discriminations structurelles. Nous espérons qu’outre ses dangers politiques, son illégalité sera dénoncée et conduira rapidement à son abrogation.

References[+]

References
1 Voir l’arrêt de la CJUE, gr. ch., 1er août 2022, OT c. Vyriausioji tarnybin˙es etikos komisija, aff. C-184/20
2 L’Amicale Radicale des Cafés Trans de Strasbourg a publié dans un billet de blog un récapitulatif de l’ensemble des démarches à effectuer pour changer d’état civil en France.
3 Le dernier décompte a été fait en 2018 dans un rapport parlementaire sur le sujet
4 Le lexique du site Wiki Trans définit l’outing comme la révélation « qu’une personne est trans (ou LGBTQIA+). L’outing ne doit JAMAIS se faire sans le consentement de la personne concernée. Et cela peut être considéré, dans le code pénal, comme une atteinte à la vie privée ». Le deadname est le « prénom assigné à la naissance » et peut être source de souffrance pour une personne trans.

VSA et Jeux Olympiques : Coup d’envoi pour les entreprises de surveillance

Par : noemie
26 janvier 2024 à 07:32

Après des mois d’attente, les entreprises chargées de mettre en place la vidéosurveillance algorithmique dans le cadre de la loi Jeux Olympiques ont été désignées. Sans grande surprise, il s’agit de sociétés s’étant insérées depuis plusieurs années dans le marché de cette technologie ou entretenant de bonnes relations avec l’État. Les « expérimentations » vont donc commencer très prochainement. Nous les attendons au tournant.

Un marché juteux

Rappelez-vous : le 17 mai 2023, le Conseil constitutionnel validait le cadre législatif permettant à la police d’utiliser la vidéosurveillance algorithmique (VSA) en temps réel, après plusieurs mois de bataille législative en plein mouvement des retraites. Depuis, que s’est-il passé ? Un appel d’offres a tout d’abord été publié dès l’été pour lancer la compétition entre les nombreuses entreprises qui ont fleuri ces dernières années dans le secteur. Ce marché public, accompagné de clauses techniques, décrit les exigences auxquelles devront se soumettre les entreprises proposant leurs services et, en premier lieu, les fameuses situations et comportements « suspects » que devront repérer les logiciels afin de déclencher une alerte. En effet, la loi avait été votée à l’aveugle sans qu’ils soient définis, ils ont ensuite été formalisés par un décret du 28 août 2023.

Comme nous le l’expliquons depuis longtemps1Pour une analyse plus approfondie de nos critiques sur la VSA, vous pouvez lire notre rapport de synthèse envoyé aux parlementaires l’année dernière ou regarder cette vidéo de vulgarisation des dangers de la VSA., ces comportements n’ont pour beaucoup rien de suspect mais sont des situations pour le moins banales : détection de personne au sol après une chute (attention à la marche), non-respect du sens de circulation commun par un véhicule ou une personne (attention à son sens de l’orientation), densité « trop importante » de personnes, mouvement de foule (argument répété sans cesse pendant les débats par Darmanin) mais aussi détection d’armes, de franchissement de zone, d’objets abandonnés ou de départs de feu. Le tout pour 8 millions d’euros d’acquisition aux frais du contribuable.

Sans surprise, ces huit cas d’usage pour les algorithmes commandés par l’État dans le cadre de cette expérimentation correspondent à l’état du marché que nous documentons depuis plusieurs années au travers de la campagne Technopolice. Ils correspondent aussi aux cas d’usage en apparence les moins problématiques sur le plan des libertés publiques (l’État se garde bien de vouloir identifier des personnes via la couleur de leurs vêtements ou la reconnaissance faciale, comme la police nationale le fait illégalement depuis des années). Et ils confirment au passage que cette « expérimentation » est surtout un terrain de jeu offert aux entreprises pour leur permettre de développer et tester leurs produits, en tâchant de convaincre leurs clients de leur intérêt.

Car depuis des années, la VSA prospérait à travers le pays en toute illégalité – ce que nous nous efforçons de dénoncer devant les tribunaux. Ces sociétés ont donc œuvré à faire évoluer la loi, par des stratégies de communication et d’influence auprès des institutions. Le déploiement de cette technologie ne répond à aucun besoin réellement documenté pour les JO2Si les Jeux Olympiques constituent sans aucun doute un moment « exceptionnel » au regard du nombre inédit de personnes qui seront au même moment dans la région parisienne, la surveillance n’est pas la réponse à apporter. Nous démontions l’année dernière l’idée selon laquelle les technologies sécuritaires auraient pu modifier le cours du « fiasco » de la finale de la Ligue des champions au Stade de France. Comme nous l’exposons, celle-ci n’était causée par rien d’autre qu’une mauvaise gestion stratégique du maintien de l’ordre. Pour pallier à ces défaillances humaines, auraient été utiles non pas la VSA ou la reconnaissance faciale mais un véritable savoir-faire humain de gestion de la foule, des compétences logistiques, des interlocuteurs parlant plusieurs langues….mais résulte uniquement d’une convergence d’intérêts (économiques pour le secteur, politiques pour les décideurs publics et autoritaires pour la police qui accroît toujours plus son pouvoir de contrôle), le tout enrobé d’un double opportunisme : l’exploitation du discours de promotion de l’innovation et l’instrumentalisation, comme dans bien d’autres pays hôtes avant la France, du caractère exceptionnel des Jeux olympiques pour imposer ces technologies.

Après plusieurs mois de tests et de mises en situation, retardées par le fait qu’une entreprise a contesté en justice les conditions du marché, celui-ci a donc été attribué au début du mois de janvier. Le marché est divisé en quatre lots géographiques. La start-up Wintics installera ses logiciels en Île-de-France quand Videtics se chargera de l’Outre-Mer et d’un ensemble de régions du Sud (Provence Alpes Cote d’Azur, Rhône-Alpes et Corse). Pour les autres régions de France, c’est Chapsvision qui a été désignée. Cette entreprise omniprésente dans les services de l’État et qui se veut le nouveau Palantir français, vient de racheter la start-up de VSA belge ACIC. Enfin, Wintics s’est également vu attribuer la surveillance des transports (comprenant gares et stations). Quant à Orange Business Service – en partenariat avec Ipsotek, filiale d’Atos (nouvellement Eviden), elle est également attributaire au 3e rang du lot des transports, c’est à dire mobilisable en cas de défaillance de Wintics. Du beau monde !

Une évaluation incertaine

Ces entreprises pourront ainsi mettre à disposition leurs algorithmes, bien au-delà des seuls Jeux olympiques puisque cette expérimentation concerne tout « évènement récréatif, sportif et culturel », et ce jusqu’au 31 mars 2025 soit bien après la fin des JO. Elle sera par la suite soumise à une « évaluation » présentée comme particulièrement innovante mais dont les modalités avaient en réalité été envisagées dès 2019 par Cédric O, alors secrétaire d’État au numérique, comme une manière de légitimer la reconnaissance faciale. Ces modalités ont été précisée par un second décret en date du 11 octobre 2023. Ainsi, un « comité d’évaluation » verra prochainement le jour et sera présidé par Christian Vigouroux, haut fonctionnaire passé par la section Intérieur du Conseil d’État. Le comité sera divisé en deux collèges distincts. Le premier réunira les « utilisateurs » de la VSA, c’est à dire la police, la gendarmerie, la SNCF, etc. Le second rassemblera des « personnalités qualifiées » telles que des experts techniques, des spécialistes du droit des données personnelles et des libertés publiques ou encore des parlementaires. Ils devront déterminer et mettre en œuvre un protocole d’évaluation qui ne sera rendu public qu’à la fin de l’expérimentation en mars 2025.

Mais il ne faut pas se leurrer. Au regard de l’agenda politique de ces entreprises et des autorités qui veulent, à long terme, légaliser ces outils et de façon générale toute forme de surveillance biométrique3Plusieurs rapports parlementaires préconisent déjà d’aller plus loin en généralisant le recours à la reconnaissance faciale en temps réel ou la VSA en temps différé, massivement utilisée de façon illégale dans les enquêtes judiciaires. Voir ainsi le rapport de 2022 des sénateurs Marc-Philippe Daubresse (LR), Arnaud de Belenet et Jérôme Durain (PS) sur « la reconnaissance biométrique dans l’espace public » et le rapport de 2023 des députés Philippe Latombe (Modem) et Philippe Gosselin (LR) « sur les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité ». Le gouvernement français s’est également ménagé d’importantes marges de manœuvre pour ce faire à travers son lobbying féroce autour du règlement IA, afin de tenir en échec toute limitation un tant soit peu significative de la surveillance biométrique des espaces publics., cette « expérimentation » pendant les Jeux olympiques doit être vue comme une simple étape vers la légitimation et la pérennisation de ces technologies. En évoquant un dispositif au caractère temporaire et réversible, ce concept d’« expérimentation », permet de rendre une technologie aussi controversée que la VSA plus facilement acceptable pour le public.

Le caractère expérimental permet également de sortir du cadre classique juridique d’examen de proportionnalité. Ainsi l’évaluation ne portera pas sur les critères habituels de nécessité vis à vis d’un objectif d’intérêt public ou de proportionnalité vis à vis des atteintes aux droits. Non, l’évaluation sera plutôt guidée par une approche pragmatique et opérationnelle. On peut imaginer que seront pris en compte le nombre de cas détectés ou le nombre d’interpellations, sans mesurer leur réelle utilité sur la sécurité en tant que politique publique globale, et ce, dans la lignée de la politique du chiffre conduite depuis des années par le Ministère de l’intérieur.

Surtout, on peine à voir comment l’État abandonnerait soudainement une technologie dans laquelle il a tant investi et à laquelle il a déjà cédé énormément de place dans les pratiques policières. Les exemples passés nous montrent que les projets sécuritaires censés être temporaires sont systématiquement prolongés, telles que les boites noires de la loi Renseignement ou les dispositions dérogatoires de l’état d’urgence.

L’issue du comité d’évaluation risque donc d’être surdéterminée par les enjeux politiques et économiques : si l’efficacité policière de ces technologies est jugée satisfaisante, on appellera à les pérenniser ; dans le cas contraire, on évoquera la nécessité de poursuivre les processus de développement afin que ces technologies parviennent à un stade de maturation plus avancé, ce qui justifiera de proroger le cadre expérimental jusqu’à ce que, in fine, elles aient fait leurs preuves et qu’on puisse alors établir un cadre juridique pérenne. À la fin, c’est toujours la police ou les industriels qui gagnent. Or, nous le répétons depuis des années : le choix qui devrait s’imposer à toute société qui se prétend démocratique est celui de l’interdiction pure et simple de ces technologies. Mais il est clair qu’en l’absence de pression citoyenne en ce sens, ni le gouvernement, ni la CNIL, ni la plupart des autres acteurs invités à se prononcer sur les suites à donner à l’expérimentation de la VSA ne voudront envisager de refermer la boîte de Pandore.

Le public au service du privé

Le décret du 11 octobre 2023 prévoit également la création d’un « comité de pilotage » au sein du ministère de l’Intérieur, chargé de la mise en œuvre de cette surveillance « expérimentale ». Celui-ci sera confié à Julie Mercier, cheffe de la direction des entreprises et partenariats de sécurité et des armes (Depsa). Cela est peu surprenant mais révélateur, une fois de plus, des réels intérêts en jeu ici. La Depsa est dotée d’un département « des industries et innovations de sécurité » qui est présenté comme devant assurer « l’interface et le dialogue avec les entreprises productrices de moyens de sécurité » ainsi que participer « à la veille technologique et industrielle » et « au contrôle des investissements étrangers en France et au suivi des entreprises à protéger prioritairement ». Ainsi, sa raison d’être est de stimuler et influencer le marché privé de la sécurité, voire d’aller prodiguer directement des conseils lors de réunions des lobbys de la surveillance. On pourrait être surpris de voir de tels objectifs et pratiques orientées vers le privé dans le fonctionnement d’un ministère régalien. Il s’agit pourtant d’une politique assumée et enclenchée il y a une dizaine d’années, et dont le paroxysme a été à ce jour la loi Sécurité globale consacrant le « continuum de sécurité » entre public et privé.

Lors du salon Mlilipol – grand-messe du marché de la sécurité et de la surveillance – qui s’est tenu en novembre dernier en région parisienne, et où les Jeux olympiques étaient à l’honneur, Julie Mercier expliquait ainsi vouloir « participer à la construction de la base industrielle et technologique de sécurité », car « les entreprises, et pas seulement les grands opérateurs, sont essentielles dans l’expression du besoin et dans la structuration de la filière ». Pour elle, le programme d’expérimentations mis en place en 2022 par le ministère de l’Intérieur dans la perspective des Jeux olympiques a permis d’enclencher une « dynamique vertueuse ». Ce mélange des genres démontre un des objectifs principaux de l’expérimentation : promouvoir le marché privé de la surveillance numérique, en l’associant étroitement aux politiques publiques.

Et maintenant ?

Les expérimentations devraient donc être mises en route dans les prochaines semaines. En théorie, la loi prévoyait une première étape de « conception » des algorithmes, qui nous inquiétait particulièrement. Dans le but de paramétrer les logiciels, elle autorisait de façon inédite le Ministère de l’intérieur à utiliser les images des caméras publiques afin d’améliorer les algorithmes. La CNIL s’est même inquiétée dans sa délibération de l’absence d’information des personnes qui, par leur présence sur une image, nourrirait des logiciels.

Sauf que du fait du retard du processus (l’État voulait initialement débuter les expérimentations lors de la coupe du monde de rugby) couplée à l’impatience des entreprises et de la police et au risque du fiasco si la VSA était en fin de compte remise sur l’étagère, le ministère de l’Intérieur s’est décidé à passer rapidement à la phase de mise en œuvre à travers l’acquisition de solutions toutes prêtes. Cependant, cela ne réduit aucunement les craintes à avoir. Si les logiciels sont censés répondre à un ensemble de critères techniques définis par la loi, l’opacité régnant sur ces technologies et l’absence de mécanisme de transparence empêche de facto de connaître la façon dont ils ont été conçus ou la nature des données utilisées pour l’apprentissage.

Après avoir été auditées et certifiées par une autorité tierce4D’après l’avis d’attribution de l’appel d’offre, il s’agira du Laboratoire National de Métrologie et d’Essais (LNE), inconnu au bataillon., ces solutions seront donc intégrées au plus vite aux infrastructures de vidéosurveillance dans les zones où les préfectures en feront la demande. Chaque autorisation fera l’objet d’un arrêté préfectoral rendu public, ce qui devrait permettre de connaître l’emplacement, la nature et la durée de la surveillance mise en place.

Nous les attendrons au tournant. L’expérimentation de la VSA ne doit pas rester invisible. Au contraire, il nous faudra collectivement documenter et scruter ces arrêtés préfectoraux afin de pouvoir s’opposer sur le terrain et rendre matérielle et concrète cette surveillance de masse que tant veulent minimiser. La voix des habitantes et habitants des villes, des festivalier·es, des spectateur·ices, de l’ensemble des personnes qui seront sous l’œil des caméras, sera cruciale pour rendre visible l’opposition populaire à ces technologies de contrôle. Dans les prochains mois, nous tâcherons de proposer des outils, des méthodes et des idées d’actions pour y parvenir et lutter, avec vous, contre l’expansion de la surveillance de masse dans nos rues et dans nos vies.

References[+]

References
1 Pour une analyse plus approfondie de nos critiques sur la VSA, vous pouvez lire notre rapport de synthèse envoyé aux parlementaires l’année dernière ou regarder cette vidéo de vulgarisation des dangers de la VSA.
2 Si les Jeux Olympiques constituent sans aucun doute un moment « exceptionnel » au regard du nombre inédit de personnes qui seront au même moment dans la région parisienne, la surveillance n’est pas la réponse à apporter. Nous démontions l’année dernière l’idée selon laquelle les technologies sécuritaires auraient pu modifier le cours du « fiasco » de la finale de la Ligue des champions au Stade de France. Comme nous l’exposons, celle-ci n’était causée par rien d’autre qu’une mauvaise gestion stratégique du maintien de l’ordre. Pour pallier à ces défaillances humaines, auraient été utiles non pas la VSA ou la reconnaissance faciale mais un véritable savoir-faire humain de gestion de la foule, des compétences logistiques, des interlocuteurs parlant plusieurs langues….
3 Plusieurs rapports parlementaires préconisent déjà d’aller plus loin en généralisant le recours à la reconnaissance faciale en temps réel ou la VSA en temps différé, massivement utilisée de façon illégale dans les enquêtes judiciaires. Voir ainsi le rapport de 2022 des sénateurs Marc-Philippe Daubresse (LR), Arnaud de Belenet et Jérôme Durain (PS) sur « la reconnaissance biométrique dans l’espace public » et le rapport de 2023 des députés Philippe Latombe (Modem) et Philippe Gosselin (LR) « sur les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité ». Le gouvernement français s’est également ménagé d’importantes marges de manœuvre pour ce faire à travers son lobbying féroce autour du règlement IA, afin de tenir en échec toute limitation un tant soit peu significative de la surveillance biométrique des espaces publics.
4 D’après l’avis d’attribution de l’appel d’offre, il s’agira du Laboratoire National de Métrologie et d’Essais (LNE), inconnu au bataillon.

Outils de chiffrement lors du procès du 8 décembre : du fantasme à la réalité

Par : noemie
14 décembre 2023 à 09:52

Durant quatre semaines, en octobre dernier, se sont tenues au tribunal de Paris les audiences du procès du « 8 décembre ». Dans cette affaire, sept personnes sont poursuivies pour « association de malfaiteurs terroristes ». Toutes contestent les faits reprochés et trois ans d’instruction n’auront pas réussi à faire émerger la moindre preuve de projet terroriste. Parmi les « preuves » avancées par le parquet et les agents de renseignement pour démontrer cette intention « terroriste », on retrouvait des éléments relatifs à l’utilisation d’outils de protection de la vie privée, censés illustrer une certaine clandestinité. Scandalisé·es, nous avions révélé et dénoncé vigoureusement cet amalgame dangereux et malhonnête. Quelle a été la place accordée à ce sujet lors de l’examen de l’affaire par le tribunal correctionnel antiterroriste ? Retour sur les audiences auxquelles nous avons assisté, en amont de l’annonce du délibéré prévue pour le 22 décembre prochain1Pour rattraper l’ensemble du contenu du procès, plusieurs médias ont fait un compte-rendu régulier des audiences, notamment le blog des comités de soutiens, Le Monde, Mediapart, lundimatin, L’Obs ou encore Libération..

Durant le procès, ont été successivement passées en revue les personnalités des prévenu·es, puis l’examen par thème des faits qui leur sont reprochés. Après la question des explosifs, de la détention d’armes, la pratique de l’« airsoft » (qualifiée d’« entraînements paramilitaires » par le parquet), la question du « numérique » a donc été examinée. Ainsi, plusieurs inculpé·es ont été questionné·es sur leur utilisation de logiciels et applications telles que Signal, Tor, Tails ou sur le chiffrement de leurs ordinateurs et disques durs. Cet interrogatoire a suivi la même ligne directrice que celle du dossier d’instruction, que nous avions révélé il y a quelques mois : à la fois une grande confusion quant à la compréhension technique de ces outils et une vision suspicieuse de la réalité de leurs usages. Trois prévenu·es ont ainsi été questionné·es sur ce qui les poussait à utiliser ces logiciels, comme s’il fallait une justification, une explication argumentée, alors qu’il s’agit d’outils sains, légaux et banals.

« Il est possible et non interdit d’avoir ces outils mais on peut se demander pourquoi dissimuler l’information » s’est ainsi interrogée la présidente. La suspicion de clandestinité couplée à une faible connaissance du sujet transparaissaient dans les questions : « Vous expliquez que l’usage de ce “genre de réseaux” [en l’occurrence Signal] était pour préserver votre vie privée, mais avez-vous peur d’être surveillée ? ». Ou encore : « Pourquoi cela vous avait paru important ou une bonne idée de découvrir ce “genre d’environnement” [cette fois-ci il s’agit du système d’exploitation Tails] ? ». Une juge assesseure n’a pas hésité à utiliser le champ lexical des armes quand elle a essayé de comprendre pourquoi un tel « arsenal complet de divers outils » a été utilisé, laissant présumer une « volonté de discrétion » de la part des prévenu·es. De l’autre coté de la barre, les inculpé·es ont répondu d’une façon simple et cohérente qui peut se résumer ainsi : « c’est ma vie privée, c’est mon droit, c’est important, il est banal d’utiliser ces outils, en particulier dans le monde militant dont on sait qu’il est de plus en plus exposé à la surveillance d’État ».

La question du refus de donner ses clés de déchiffrement a elle aussi été abordée. En l’occurrence, plusieurs prévenu·es ont refusé lors de leur arrestation de fournir aux agents de la DGSI chargés de l’enquête les codes de déverrouillage d’ordinateur, de téléphone ou encore de disque dur saisis en perquisition. En France, un tel refus peut constituer une infraction sur la base d’une disposition interprétée largement et très contestée. Face à l’incompréhension des juges — pourquoi s’exposer aussi frontalement à des poursuites pénales ? — les prévenu·es ne leur ont pas fourni les aveux attendus. Au contraire, les personnes interrogées ont amené la discussion plus loin, sur leurs libertés et droits fondamentaux, levant le voile sur la violente réalité des procédures antiterroristes. « Dans un moment de vulnérabilité telle que celui de la garde à vue, après avoir donné mon ADN, je voulais m’attacher à ce qu’il me restait d’intimité, je voulais la conserver » explique Camille, une prévenue présentée comme l’experte numérique par le procureur. Loïc, un autre inculpé renchérit : « Je savais que la DGSI allait réussir à déchiffrer mon matériel informatique et voir que je ne suis pas dangereux, c’était ma manière de montrer mon refus car ma liberté et mon intimité sont plus précieuses ».

Enfin, dans le but d’éclairer les juges sur le fonctionnement des outils mis en cause dans le dossier et la réalité de leurs usages, un membre de La Quadrature du Net, également développeur de l’application Silence, est venu témoigner au procès. Qu’il s’agisse du chiffrement, de Signal, Tor, Tails ou du système d’exploitation /e/OS, son témoignage est revenu sur la banalité des technologies derrière ces applications et leur usage généralisé et nécessaire dans la société numérisée contemporaine, loin des fantasmes de clandestinité de la DGSI et du parquet. Les magistrates ne lui ont pourtant posé que peu de questions. Le parquet, lui, s’est uniquement ému que des éléments du dossier, pourtant non couverts par le secret de l’instruction, aient pu être portés à la connaissance du témoin. Un mauvais numéro de théâtre qui laissait surtout deviner une volonté de le décrédibiliser lui ainsi que le contenu de son témoignage.

De façon générale, la place des pratiques numériques a été faible relativement à l’ampleur et la durée du procès, et bien en deça de celle qui lui était accordée dans le réquisitoire ou l’ordonnance de renvoi du juge d’Instruction. Quelle interprétation tirer à la fois du manque d’intérêt des juges et de la faible quantité de temps consacrée à ce sujet ? Difficile d’avoir des certitudes. On pourrait y voir, d’un coté, une prise de conscience des magistrates et du parquet de l’absurdité qu’il y a à reprocher l’utilisation d’outils légaux et légitimes. Rappelons que plus de 130 universitaires, journalistes, militant·es, acteur·rices du monde associatif et de l’écosystème numérique ont signé une tribune dans le journal Le Monde pour dénoncer cette instrumentalisation et défendre le droit au chiffrement. Mais d’un autre coté, cette désinvolture pourrait être le signe d’un manque de considération pour ces questions, notamment quant à l’importance du droit à la vie privée. Cela ne serait pas étonnant, dans une procédure qui se fonde sur une utilisation intensive de techniques de renseignement et sur une surveillance disproportionnée de sept personnes dont la vie a été broyée par la machine judiciaire.

La lecture du jugement est prévue pour le 22 décembre. Que le tribunal retienne le recours à des technologies protectrices de la vie privée dans la motivation de sa décision ou qu’il laisse cet enjeu de côté, le récit fictif de la police à ce sujet risque d’avoir des conséquences à long terme. Le précédent d’une inculpation anti-terroriste reposant essentiellement sur ce point existe désormais et il est difficile de croire qu’à l’heure où le chiffrement fait l’objet de nombreuses attaques, en France et en Europe, la police ne réutilisera pas cette logique de criminalisation pour justifier une surveillance toujours plus accrue de la population et des groupes militants.

References[+]

References
1 Pour rattraper l’ensemble du contenu du procès, plusieurs médias ont fait un compte-rendu régulier des audiences, notamment le blog des comités de soutiens, Le Monde, Mediapart, lundimatin, L’Obs ou encore Libération.

Censure de la surveillance par mouchard : l’OLN ne crie pas victoire

Par : noemie
23 novembre 2023 à 07:10

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 23 novembre 2023.

Le 16 novembre 2023, le Conseil constitutionnel a rendu sa décision sur la loi de programmation de la justice en censurant une disposition relative à l’activation à distance des objets électroniques. Pour les organisations de l’Observatoire des libertés et du numérique (OLN) qui s’étaient fortement opposées à cette mesure, cette décision est plus que bienvenue. Pour autant, elle ne saurait constituer une victoire criante.

Il faut se souvenir des récentes décisions de ce même Conseil constitutionnel faisant peu cas du respect des libertés : validation de la vidéosurveillance algorithmique dans la loi JOP 2024, légalisation des drones, blanc-seing à l’assouplissement de la procédure pénale dans la LOPMI au nom d’une « efficacité opérationnelle »… Si l’on peut saluer le sursaut de la décision de la semaine dernière, il est difficile d’y déceler une volonté de mettre fin à la fuite en avant sécuritaire, tant cette institution l’a accompagnée ces dernières années. Pour caractériser une atteinte au droit à la vie privée, le Conseil retient qu’il existe un risque pour les tierces personnes étant dans le champ d’une éventuelle captation déclenchée par cette activation à distance du micro ou de la caméra. Si nous saluons l’établissement d’une telle limite, qui pourra servir d’argument pour d’autres types de surveillance, nous regrettons que le Conseil ne prenne jamais en compte le changement de paradigme philosophique et politique qu’implique la possibilité de transformation de tout objet numérique en mouchard de la police.

Cette absence dans le raisonnement s’illustre par la validation pure et simple de l’activation à distance des fonctions de géolocalisation de téléphone et autres objets connectés (voiture, balises airtag, montre etc) qui repose exactement sur le même procédé technique que le dispositif censuré : la compromission d’un périphérique, en y accédant directement ou par l’intermédiaire d’un logiciel espion pour en prendre le contrôle à distance. Or, une telle possibilité soulève de graves problèmes en termes de vie privée, de sécurité et d’intégrité des preuves. On le comprend, le caractère intrusif de cette technique, pourtant au cœur des scandales Pegasus et Predator Files, n’intéresse pas le Conseil.

Pour justifier cette nouvelle forme de surveillance, le gouvernement et ses soutiens ont répété que les services de renseignement seraient déjà autorisés à activer à distance les micros ou caméras de terminaux. Pourtant, la lecture de l’article L. 853-2 du code de la sécurité intérieure montre précisément l’inverse : ne peuvent être mis en œuvre par les services de renseignement que des dispositifs qui permettent d’accéder à des données qui « s’affichent sur un écran », telles qu’une personne les « introduit par saisie de caractère » ou « telles qu’elles sont reçues et émises par des périphériques. » Autrement dit, le droit actuel ne permet aux services de renseignement que d’enregistrer l’activité d’une personne sur un téléphone ou un ordinateur, mais en aucun cas d’activer à son insu une fonctionnalité supplémentaire comme un micro ou une caméra. Cette pratique, pourtant avancée pour justifier le bien-fondé de la mesure, semble donc illégale et doit être sérieusement questionnée.

De façon générale, on assiste à un essor toujours plus important des technologies de surveillance et à une banalisation de leurs usages par les services de police et de renseignement alors que, souvent, elles ne répondent à aucun cadre. Ces pratiques illégales se généralisent aussi bien dans les ministères que sur le terrain, et la licéité de ces outils n’est jamais une préoccupation de ceux qui les utilisent. Qu’il s’agisse de logiciels illégaux de surveillance algorithmique et reconnaissance faciale, de fichage sauvage ou ou encore d’exploitation de téléphone en garde à vue, l’impunité se répand, l’illégalité se banalise. Dans ce contexte et avec ces tendances lourdes, la décision du Conseil constitutionnel est salutaire mais nous apparaît malheureusement trop peu engageante pour y voir un avertissement fort contre la surveillance.

Organisations signataires membres de l’OLN : Globenet, Creis-Terminal, la Ligue des droits de l’Homme (LDH), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).

Vidéosurveillance algorithmique à la police nationale : des faits passibles du droit pénal

Par : noemie
14 novembre 2023 à 13:23

Dans un article publié aujourd’hui, le média d’investigation Disclose révèle que depuis des années, en se sachant dans l’illégalité la plus totale, la police nationale a recouru au logiciel de l’entreprise israélienne Briefcam, qui permet d’automatiser l’analyse des images de vidéosurveillance. Cette solution comporte une option « reconnaissance faciale » qui serait, d’après Disclose, « activement utilisée ».

Cela fait désormais près de cinq ans qu’à travers la campagne Technopolice, La Quadrature du Net, en lien avec des collectifs partout dans le pays, documente l’usage illégal de la vidéosurveillance algorithmique (VSA) par les forces de police municipale. De fortes présomptions existaient quant à son utilisation par la police nationale. Nous l’évoquions d’ailleurs dans notre dossier sur la VSA publié lors de la campagne contre la loi sur les jeux olympiques et paralympiques (voir page 20). La confirmation faite aujourd’hui n’en est pas moins choquante. Non seulement compte tenu de l’échelle du déploiement de cette technologie, avec des licences Briefcam couvrant plusieurs départements. Mais aussi en raison des dissimulations dont ce marché public hautement sensible a fait l’objet de la part de hauts fonctionnaires et de responsables politiques.

Il faut se souvenir de Gérald Darmanin qui, l’an dernier en préparation des débats sur l’article 10 de la loi Jeux Olympiques, reconnaissait qu’il n’existait aucune base légale pour l’utilisation policière de ces technologies d’analyse automatisée. L’intelligence artificielle transforme radicalement l’économie politique de la vidéosurveillance, raison pour laquelle nous refusons la VSA. Même dans le cadre d’enquêtes judiciaires, l’État se devrait au minimum de prévoir une base juridique claire pour l’encadrer.

Tout aussi choquant est le sentiment d’impunité généralisé que révèle cette affaire. Les cadres de la Direction Générale de la Police Nationale, de même que les ministres successifs, ont sciemment organisé le secret par peur de la controverse, se sachant hors du droit.

Rappelons-le : « Le fait de collecter des données à caractère personnel par un moyen frauduleux, déloyal ou illicite est puni de cinq ans d’emprisonnement et de 300 000 euros d’amende. » (cf. art. 226-18 et -19 du code pénal). Par ailleurs, tout·e fonctionnaire est tenu·e de signaler sur le champ une infraction dont il ou elle aurait connaissance au procureur (article 40 du code de procédure pénale). Enfin, Disclose explique que pour financer le renouvellement des licences Briefcam, « la hiérarchie policière a pioché dans le « fonds concours drogue » ». Ce qui pourrait s’apparenter à du détournement de fonds publics.

Ces faits sont extrêmement graves. L’impuissance chronique à laquelle se condamnent les contre-pouvoirs institutionnels, de la CNIL à l’IGPN, est elle aussi symptomatique d’une crise systémique de l’État de droit. L’actualité donne d’ailleurs une nouvelle et triste illustration de cette coupable inaction : la CNIL s’est contentée d’un « rappel à l’ordre » à l’encontre de deux ministères après le détournement de fichiers et l’envoi au printemps dernier de 2 millions de messages de propagande destinés à manipuler l’opinion au sujet de la réforme des retraites.

Affaire du « 8 décembre » : le droit au chiffrement et à la vie privée en procès

Par : noemie
2 octobre 2023 à 09:48

Le 3 octobre prochain s’ouvrira le procès de l’affaire dite du « 8 décembre ». Sept personnes sont accusées d’association de malfaiteurs terroriste. Pour construire le récit du complot terroriste, les services de renseignement de la DGSI chargés de l’enquête judiciaire, le parquet national antiterroriste (PNAT) puis le juge d’instruction instrumentalisent à charge le fait que les inculpé·es utilisaient au quotidien des outils pour protéger leur vie privée et chiffrer leurs communications. Face à cette atteinte inédite, que nous documentions longuement il y a quelques mois, le temps de ce procès va donc être crucial dans la bataille contre les velléités récurrentes de l’État de criminaliser des pratiques numériques banales, sécurisées et saines, pratiques que nous défendons depuis toujours.

« Il reconnaissait devant les enquêteurs utiliser l’application Signal »

Comme le souligne le journal Le Monde qui a consacré un long article au « 8 décembre », cette affaire repose « sur des bases fragiles ». Parmi celles-ci, nous sommes particulièrement inquiets de la place donnée à l’utilisation des outils de chiffrement ou, plus largement, des moyens pour protéger sa vie privée. Un des enjeux de ce procès sera donc de savoir si une telle pratique peut être utilisée à charge par la police et la justice pour étayer la la présomption d’un projet terroriste. Un tel parti pris de la part du juge constituerait un passage de cap extrêmement dangereux, puisque toute forme de confidentialité deviendrait alors suspecte par défaut.

Dans ce dossier, protéger sa vie privée et chiffrer ses communications n’est plus seulement suspect mais devient constitutif d’un « comportement clandestin », un moyen de cacher un projet criminel. À travers différentes notes, la DGSI s’est ainsi affairée à démontrer comment l’utilisation d’outils comme Signal, Tor, Proton, Silence, etc., serait une preuve de la volonté de dissimuler des éléments compromettants. Et en plus de cela, comme nous le dénonçions en juin dernier, la DGSI justifie l’absence de preuves d’un projet terroriste par l’utilisation d’outils de chiffrement : les éléments prouvant une intention terroriste sont nécessairement, selon elle, dans ces fameux messages chiffrés et inaccessibles. Le serpent se mord la queue, ce qui amène les avocats d’un des inculpé·es à dénoncer le fait qu’« ici, l’absence de preuve devient une preuve ».

Plus inquiétant encore, l’enquête de la DGSI est parsemée d’approximations voire d’erreurs techniques, qui seront ensuite reprises par le PNAT puis le juge d’instruction. Ainsi, les enquêteurs confondent Tor et Tails dans certaines pièces du dossier. Le résultat de l’enquête pointe également comme un élément de culpabilité le fait que les inculpé·es chiffrent le contenu de leur téléphone ou de leur ordinateur. Toujours avec beaucoup de confusions techniques, la DGSI reproche ainsi aux personnes en cause d’utiliser LUKS, un outil disponible sous Linux pour chiffrer ses disques, pourtant banal et recommandé pour protéger ses données. Mais, de manière générale, l’ensemble du dossier tend à démontrer que la police et la justice ignorent que le chiffrement par défaut des supports de stockage est mis en place par les principaux développeurs de logiciels. Et ces mêmes autorités oublient que leurs périphériques aussi sont chiffrés (en tout cas nous l’espérons pour elles !).

En somme, il est reproché aux inculpé·es de respecter des règles élémentaires de sécurité informatique. Ce qui est parfois appelé « hygiène numérique »1Voir par exemple le guide de l’ANSSI sur l’hygiène numérique. devient le symbole d’un prétendu comportement clandestin.

Les États relancent leur guerre contre le chiffrement

Il existe depuis toujours une tension politique autour du chiffrement des communications électroniques, et cela est bien logique puisque le chiffrement est politique par nature. Martin Hellmann, un des chercheurs en mathématiques ayant participé à la conception du chiffrement asymétrique dans les années 1970, justifiait à l’époque sa démarche par sa crainte que « l’utilisation croissante des outils de traitement automatisés représente une réelle menace pour l’économie et la vie privée ». Pour lui, les techniques de chiffrement fiables constituaient une manière d’empêcher le développement de la « surveillance d’un État policier s’appuyant sur l’informatisation » 2Voir la citation de Corrigan-Gibbs, « Keeping Secrets », dans la thèse de Félix Tréguer, « Pouvoir et résistance dans l’espace public : une contre-histoire d’Internet (XVe-XXIe siècle) » accessible sur https://shs.hal.science/tel-01631122. Voir aussi le livre Contre-histoire d’Internet : Du XVe siècle à nos jours, édition revue et actualisée, Agone, 2023.. On le comprend, l’émergence de cette technologie n’est pas le résultat de découvertes scientifiques fortuites mais bien le fruit d’un rapport de force naissant. Et cela explique pourquoi les États ont toujours opposé une résistance à son développement et à son utilisation, une volonté de contrôle trahie par un discours transformant leurs créateur·rices et les utilisateur·rices du chiffrement en criminels potentiels.

En effet, dès la publication des travaux d’Hallman et de ses camarades, le gouvernement des États-Unis a fait pression pour que cette technique reste dans le domaine militaire, afin de pouvoir en maîtriser le développement. Ensuite, dans les années 1990, la démocratisation du chiffrement, notamment via le protocole PGP, donne de nouvelles sueurs froides au gouvernement états-unien qui repart à l’attaque. Ce dernier propose alors de mettre en place des « Clipper Chips », c’est-à-dire l’obligation d’installer une puce contenant une « porte dérobée » dans tout système chiffré, permettant un accès aux données pour les autorités judiciaires et administratives.

Commence alors une « crypto-war » qui oppose l’administration Clinton et les nombreux activistes défendant le droit à la cryptographie. Le gouvernement fédéral se défend en expliquant que « si les technologies cryptographiques sont rendues librement accessibles à l’échelle mondiale, elles seraient sans aucun doute largement utilisées par les terroristes, les trafiquants de drogue et autres criminels qui portent préjudice aux Américains sur le territoire national et à l’étranger. » Mais ce discours de criminalisation échoue et le chiffrement est retiré de la liste des « armes et munitions » en 1996, ouvrant la voie à sa libéralisation. En France, bien que poussée par des militant·es, cette libéralisation du chiffrement n’a eu lieu qu’en 1999, faisant de la France un des derniers États à vouloir garder cette technique sous son contrôle.

Les attaques contre le chiffrement ont refait surface dans les années 2010, à un moment où la population a tout à la fois pris conscience des méga-programmes de surveillance étatiques, vécu des épisodes d’attentats donnant lieu à un climat sécuritaire intense, et pu accéder à des messageries chiffrées grand public. Cette conjoncture a ainsi donné de nouvelles occasions aux différents ministres de l’intérieur (Cazeneuve, Castaner puis Darmanin), députés, ou président pour redonner corps à la criminalisation aussi bien des concepteur·rices des outils fondés sur du chiffrement (pensons par exemple à l’affaire de l’iPhone de San Bernardino qui a mis Apple au centre des critiques) que de ses utilisateur·rices.

La crainte d’un précédent irrémédiable

Avec l’affaire du « 8 décembre », nous assistons donc à une matérialisation de ce discours qui tente de faire croire que le chiffrement des communications serait l’apanage des criminels et terroristes. Sauf qu’il ne s’agit plus d’une déclaration politique opportuniste pour étendre des pouvoirs voulus depuis des décennies. Nous parlons cette fois-ci d’une accusation policière et judiciaire aux conséquences concrètes et graves, qui a participé à mettre des personnes en prison. Nos inquiétudes sont grandes face à la possibilité que les juges puissent adhérer à cette narration criminalisant les outils de protection de la vie privée. Cela créerait un précédent aussi bien juridique que politique, en plus d’avoir des conséquences humaines désastreuses pour les principales personnes concernées. La confidentialité, ici numérique mais qui pourrait s’étendre demain à des pratiques physiques, deviendrait alors une présomption de culpabilité. Se protéger, adopter des mesures de sécurité pour soi et les autres serait alors un motif de poursuites.

Isabela Fernandes, la directrice exécutive du Tor Project nous a fait part de son soutien dans cette bataille à venir. Pour elle, « le chiffrement ne doit pas être compris à tort comme un signe d’intention malveillante mais, doit au contraire être vu comme une composante fondamentale du droit à la vie privée et à la sécurité informatique des personnes. Dès lors que de plus en plus d’aspects de nos vies ont lieu en ligne, le chiffrement est garant de la capacité à protéger sa vie privée et ses droits. »

Elle ajoute : « De nombreux outils préservant la vie privée sont utilisés par les membres de la Commission européenne et des organes d’État. Les gouvernements ont la responsabilité d’assurer le droit à la liberté d’expression et à la vie privée pour toutes et tous afin de protéger un fondement des sociétés démocratiques – plutôt que de promouvoir une interprétation biaisée de qui peut bénéficier de ces droits et qui ne le peut pas. »

C’est bien parce que déduire de l’utilisation d’outils pour protéger sa vie privée et chiffrer ses communications un comportement clandestin vient nourrir un dossier pénal très faible que plus de 130 personnes et organisations ont dénoncé cela dans une tribune parue dans Le Monde. À l’heure où l’État étend ses filets de plus en plus loin, autorise la surveillance à distance des objets connectés , y compris ceux des journalistes sous prétexte de sécurité nationale, assimile les revendications écologiques à du terrorisme pour mieux justifier sa débauche de moyens répressifs et intrusifs, perquisitionne les journalistes qui révèlent des crimes de guerre commis avec la complicité de l’État, veut mettre fin à toute idée d’anonymat en ligne ou à tout secret des correspondances, nous assistons actuellement à un emballement autoritaire terriblement inquiétant.

Ce procès est une énième attaque contre les libertés fondamentales, mais surtout un possible aller sans retour dans le rapport que l’État entretient avec le droit à la vie privée. Alors votre mobilisation est importante ! Rendez-vous demain, 3 octobre, à 12h devant le tribunal de Paris (Porte de Clichy) pour un rassemblement en soutien aux inculpé·es. Puis si vous le pouvez, venez assister aux audiences (qui se tiendront les après-midis du 3 au 27 octobre au tribunal de Paris) afin de montrer, tous les jours, solidarité et résistance face à ces attaques.

References[+]

References
1 Voir par exemple le guide de l’ANSSI sur l’hygiène numérique.
2 Voir la citation de Corrigan-Gibbs, « Keeping Secrets », dans la thèse de Félix Tréguer, « Pouvoir et résistance dans l’espace public : une contre-histoire d’Internet (XVe-XXIe siècle) » accessible sur https://shs.hal.science/tel-01631122. Voir aussi le livre Contre-histoire d’Internet : Du XVe siècle à nos jours, édition revue et actualisée, Agone, 2023.

Règlement CSAR : la surveillance de nos communications se joue maintenant à Bruxelles

Par : noemie
18 septembre 2023 à 09:34

Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les abus sexuels sur les enfants, cette proposition vise en réalité à créer un outil inédit de surveillance des communications. Dès le dépôt de ce projet de règlement, partout en Europe, associations et expert·es se sont insurgé·es contre cette initiative car elle reviendrait à mettre fin au chiffrement des communications. Aujourd’hui, bien que les critiques sont aujourd’hui plus nombreuses encore, les discussions avancent rapidement à Bruxelles, laissant présager une adoption très prochaine du texte. Afin de comprendre ses enjeux et aider à renforcer la mobilisation, nous revenons sur le contenu de ce règlement qui pourrait signer la fin de toute confidentialité des échanges en ligne.

La genèse du projet

Le 11 mai 2022, la Commission européenne lâchait une bombe dans le monde du numérique en publiant sa proposition de règlement « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants ». Dénommé « Chat control » ou « CSAR » (pour « Child sexual abuse regulation »), ce texte vise à obliger les fournisseurs de contenus en ligne à détecter des contenus d’abus sexuels de mineurs en analysant les conversations de leurs utilisateur·ices.

Cette initiative s’inspire d’outils mis en œuvre depuis plusieurs années par les grandes entreprises du web. Meta, par exemple, analyse de façon proactive l’ensemble des messages échangés sur Facebook Messenger ainsi que les données non chiffrées de Whatsapp (photos de profil ou groupe, descriptions, …) en vue de détecter des images connues d’exploitation d’enfants. En 2021, Apple annonçait mettre en place un outil d’analyse des données de ses clients hébergées sur iCloud afin de les comparer à une base de données de contenus signalés comme liés à de la pédopornographie, tout comme Microsoft qui a développé l’outil de comparaison PhotoDNA.

Dès 2020, la Commission avait commencé à laisser présager son appétence pour ce type d’outils dans sa « stratégie de lutte contre les abus sexuels commis contre les enfants » qui a débouché en 2021 sur l’adoption d’un règlement sur le sujet. Celui-ci autorisait, de façon temporaire pendant trois ans, les services de communication électronique à faire de l’analyse de contenus en vue de détecter ceux liés à ce type d’abus. Si cette possibilité était facultative et devait reposer sur leurs conditions générales, une telle inscription formelle dans la loi légitimait néanmoins les initiatives et techniques de surveillance des grandes plateformes, renforçant par là même leur pouvoir hégémonique, sans qu’aucune évaluation de la pertinence de ces méthodes ne soit par ailleurs réalisée.

Cette autorisation prend fin en 2024 et c’est pour cette raison que le CSAR a été proposé. Mais contrairement au règlement temporaire qui ne faisait que l’autoriser, ce projet de règlement impose de façon obligatoire la détection de ces contenus pédopornographiques sous certaines conditions, mettant donc fin à toute forme de confidentialité. Depuis le début des discussions il y a un an et demi, le réseau européen EDRi, dont La Quadrature du Net fait partie, a fourni un travail d’analyse considérable sur ce texte, que vous pouvez retrouver dans leur « position paper » ou, de façon plus condensée, dans leur brochure (en anglais). Nous vous résumons ici les principaux enjeux autour de ce règlement.

Le contenu du règlement

Le règlement CSAR vise à s’appliquer à un nombre très important d’acteurs. Entrent ainsi dans le champ d’application tous les « fournisseurs de services de communications interpersonnelles », c’est-à-dire les messageries en ligne telles que Signal, Whatsapp ou Telegram, les fournisseurs de mail, les applications de rencontre mais également les messageries qui ne sont qu’une fonction accessoire à d’autres services, comme dans les jeux par exemple. Rentrent également dans le champ d’application les « fournisseurs de services d’hébergement » tels que NextCloud, iCloud, DropBox ou les hébergeurs associatifs des CHATONS, les boutiques d’applications ainsi que les réseaux sociaux.

Ces fournisseurs seraient contraints à mettre en œuvre une surveillance considérable de leurs utilisateur·ices. D’une part, les articles 3 et 4 prévoient qu’ils obéissent à une obligation d’évaluer et réduire au maximum les risques de partage de contenus pédopornographiques sur les services concernés. Cela impliquerait de fournir, via une étude d’impact, des éléments sur le fonctionnement et l’usage de leur outil afin de théoriquement anticiper les risques pour identifier les mesures d’atténuation correspondantes. Les fournisseurs devraient ainsi être en capacité de donner des informations sur quel type d’utilisateur·rice (personne majeure, mineure..) utilisent leur service et quel type de contenu (vidéo, texte..) y sont échangés. Cette obligation est pourtant incompatible avec un des principes de base de respect de la vie privée sur lesquels repose le fonctionnement de nombreux services : l’absence de collecte de ce type de données personnelles. Ces prestataires seraient alors dans une position intenable car, pour se conformer à cette nouvelle réglementation, ils devront changer de modèle et commencer à recueillir des informations qu’aujourd’hui ils ne possèdent pas. Le règlement CSAR reviendrait pour eux à abandonner leur promesse de confidentialité, garantie notamment par le recours au chiffrement et l’anonymisation de données.

En outre, l’article 6 du CSAR préconise que les fournisseurs aient recours à des solutions de vérification d’âge pour remplir cet objectif de réduction des risques. Or, non seulement aucun outil viable et respectueux de la vie privée n’existe réellement à ce jour mais, surtout, le recours à ce genre de solution pose de sérieux problèmes quant à la protection de l’anonymat en ligne, comme nous le rappelions récemment dans notre analyse de la loi française SREN. Au final, le texte pousse pour privilégier la mise en place de mesures coercitives et remet frontalement en cause le droit à la vie privée.

D’autre part, ces acteurs auront l’obligation de répondre à toute « injonction de détection » émise par un juge ou une autorité administrative. Ainsi, les articles 7 à 11 prévoient que, s’il existe « un risque important que le service soit utilisé à des fins d’abus sexuels sur enfants en ligne », les fournisseurs pourront se voir obligés d’installer au cœur même de leur application ou infrastructure des outils leur permettant de scanner les données qui y transitent, afin d’y détecter de potentiels contenus liés aux abus sexuels d’enfants.

Plus précisément les fournisseurs devront repérer trois types de données :

  • Des contenus « connus » c’est-à-dire des images ou des vidéos déjà répertoriées par les autorités comme liées à de la pédopornographie ou des abus sexuels d’enfants.
  • Des contenus « inconnus » c’est-à-dire des photos ou vidéos susceptibles de constituer de la pédopornographie, mais qui n’auraient pas été identifiées comme telles. Pour trouver ces contenus, les services devront utiliser des outils fondés sur de l’intelligence artificielle qui identifieront des corrélations entre les contenus partagés et des indicateurs prédéfinis (par exemple de la peau nue).
  • Des activités consistant à solliciter des enfants (appelé « pédopiégeage »). Il s’agit de détecter des comportements « types » de personnes qui rentrent en contact avec des enfants, à nouveau à partir de modèles statistiques et probabilistes fondés sur de l’intelligence artificielle.

Concrètement, il s’agira de mettre en œuvre une technique de « client side scanning » (littéralement « analyse côté client »), c’est-à-dire analyser directement sur les appareils des utilisateur·ices les données qui y transitent. Lorsqu’un internaute enverra un message ou postera une publication via un des services concernés par une injonction, ce contenu sera analysé avant envoi. Plus précisément, ce sont des « hash », c’est-à-dire des empreintes numériques liées aux images, qui seront examinées. Ce hash sera alors comparé à une base de données déjà constituée de contenus relatifs à des abus sexuels d’enfants. Si le hash correspond avec une photo de la base, une alerte est déclenchée. Dans le cas contraire, cela signifie que le contenu doit être qualifié d’« inconnu » et un outil d’analyse supplémentaire vérifiera alors s’il existe des corrélations ou similitudes avec des contenus d’abus sexuels pour déclencher une alerte le cas échéant.

Le cheval de Troie de la Commission : vers la fin du chiffrement

En affichant l’objectif de protéger les enfants, l’Union européenne tente en réalité d’introduire une capacité de contrôle gigantesque de l’ensemble des vies numériques, concrétisant le rêve de surveillance de tout gouvernement. Ce texte a fait l’objet de tant de réactions qu’EDRi se demande si le CSAR ne serait pas la loi européenne la plus critiquée de tous les temps. Les critiques contre ce texte viennent des institutions européennes elles-mêmes, mais aussi d’organisations de défense des enfants en passant par les acteurs de la tech, ainsi que de scientifiques et chercheur·es où 465 d’entre eux ont signé une lettre contre cette proposition. Et à raison.

Sur le plan technique, il faut comprendre que les injonctions de détections obligent les fournisseurs à analyser toutes les communications de l’ensemble des utilisateur·ices des services concernés. Et puisque les messages sont alors analysés avant d’être envoyés à leurs destinataires, cela supprime non seulement toute confidentialité mais cela rendra également inutile toute technique de chiffrement appliquée ultérieurement, c’est-à-dire une fois que le message à quitté l’appareil de l’utilisateur·ice. L’objectif premier du chiffrement est d’empêcher un tiers de lire le message. Le CSAR vise pourtant précisément à permettre une telle lecture tierce. De même, la recherche de photo ou vidéo « inconnue » est totalement inacceptable. En pratique, le risque de « faux positifs » est énorme et cela signifie que pourraient faire l’objet d’une alerte des contenus tout à fait légitimes tels le corps d’adulte d’apparence trop juvénile, une photo d’enfant envoyée dans un cadre familial ou encore des ados échangeant de façon consentante.

Enfin, appliqué au cas particulier de la détection de contenus pédopornographiques, envisager la constitution et l’utilisation d’une telle base de données ne prend pas en compte la réalité des humains devant la manipuler, l’alimenter, et qui seront confrontés à des contenus difficiles quotidiennement. Sans parler du fait que les images des enfants victimes seront conservées pour « améliorer » l’efficacité de ces outils.

Non seulement le CSAR crée des obligations disproportionnées et implique des techniques extrêmement intrusives, mais surtout ces mesures sont loin d’être pertinentes pour atteindre l’objectif crucial de protection des enfants et de lutte contre les abus sexuels. En effet, aucune étude sérieuse n’a été fournie sur l’adéquation, la fiabilité ou la pertinence de telles mesures extrêmement intrusives. Au contraire, il a été révélé par l’association allemande Gesellschaft für Freiheitsrechte que la Commission fondait sa proposition sur les seules allégations de l’industrie, particulièrement la fondation Thorn et Meta, pour justifier ce projet de règlement. Des institutions policières et judiciaires, comme en Allemagne par exemple, ont elles aussi exprimé leurs réserves sur l’utilité de ces dispositifs pour leurs enquêtes dès lors que cela ne répond pas aux problématiques qu’ils rencontrent au quotidien.

Par ailleurs, depuis le début de la campagne contre ce texte, beaucoup de ressources ont été produites pour démontrer que la protection des enfants contre les abus passait principalement par des politiques de prévention ou d’éducation et que toute éventuelle réponse pénale devait être encadrée par des mesures ciblées et fondées sur des preuves tangibles. Comment a-t-on pu alors en arriver là ?

La tentation autoritaire des États

Cette proposition législative est une solution largement conçue par l’industrie, et ensuite généralisée par les élites politiques qui illustrent ainsi une nouvelle fois leur absurde propension au « solutionnisme technologique » et au renforcement de la surveillance numérique. Pour rendre acceptable ces mesures de surveillance, elles affichent un objectif qui fait l’unanimité. Mais tout le monde sait que la stratégie consiste avant tout à affaiblir le niveau de sécurité et de confidentialité des communications numériques. Depuis les crypto-wars des années 1990, un certain nombre d’États affirment que les technologies protégeant la vie privée, et principalement le chiffrement des communications, sont un obstacle aux enquêtes policières. De fait, ces technologies sont conçues pour cela, puisque c’est à cette condition qu’elle garantissent à toutes et tous la possibilité de contrôler nos modes d’expression et de communication. L’une des plus importantes conséquences des révélations du lanceur d’alerte de la NSA Edward Snowden, il y a dix ans, fut justement une démocratisation de la pratique du chiffrement et, à l’époque, l’établissement d’un relatif consensus en faveur du droit au chiffrement au plan institutionnel. Mais police et gouvernements sont gênés, et l’on assiste depuis plusieurs années au retour de positionnements autoritaires de dirigeants prenant tour à tour l’excuse du terrorisme, de la criminalité organisée et de la pédopornographie pour obtenir sa remise en cause.

En France, aussi bien Bernard Cazeneuve qu’Emmanuel Macron ont déjà affirmé leur volonté de contrôler les messageries chiffrées, rêvant ainsi de percer l’intimité des millions de personnes qui les utilisent. Au cours d’une audition devant le Sénat le 5 avril dernier, Gérald Darmanin a expressément demandé pouvoir casser le chiffrement des militant·es écologistes et de « l’ultragauche », qui auraient une « culture du clandestin ». Aussi avons-nous récemment exposé comment, dans l’affaire dite du « 8 décembre », les services de renseignement et de police ont construit une narration similaire autour de l’utilisation d’outils respectueux de la vie privée par les personnes inculpées (Signal, Tor, Tails…), afin de dessiner le portrait de personnes criminelles ayant des choses à cacher ou la volonté de fuir la police. Au niveau européen, des fuites ont révélé l’intention de plusieurs États de réduire le niveau de sécurité du chiffrement de bout-en-bout, tels que l’Espagne qui veut tout simplement y mettre fin.

Le règlement CSAR s’inscrit dans cette continuité et constitue une opportunité parfaite pour les États membres pour enfin concevoir et généraliser un outil de surveillance des échanges de la population et ainsi mettre fin aux obstacles posés par les services trop protecteurs de la vie privée. Mais passer ce cap, c’est supprimer toute confidentialité des communications qui passeraient par des infrastructures numériques. L’intégrité et la sécurité de ces dernières ne pourraient alors plus jamais être garanties dès lors que cette « porte dérobée » existe. C’est créer des occasions, aussi bien pour les États que les acteurs malveillants, de détourner et d’abuser de cette capacité d’entrer dans les téléphones et ordinateurs de la population. Enfin, c’est ouvrir une brèche, un espace à surveiller qui n’existait pas auparavant, et qui sera nécessairement étendu dans le futur par de nouvelles législations pour repérer d’autres types de contenus.

Ce risque est dénoncé par des services tels que Signal, Proton ou Matrix, qui proposent des communications chiffrées de bout-en-bout et sécurisées — et promettent donc une confidentialité presque intégrale. Cette proposition viendrait casser leur promesse en les obligeant à analyser les contenus et à créer une vulnérabilité dans leurs technologies. Ce risque a également été récemment dénoncé par Apple : pour justifier la fin de l’analyse des contenus hébergés sur iCloud, l’entreprise expliquait que la technologie utilisée est trop dangereuse en termes de sécurité et de respect de la vie privée1Néanmoins, il faut relativiser cette prise de position dès lors que la firme continue d’expérimenter une technologie similaire dans une fonction facultative dénommée « Communication Safety » qui recherche de la nudité directement sur les terminaux..

En Grande-Bretagne, où est actuellement discuté un projet de loi similaire, le Online Safety Bill, Signal et Whatsapp ont menacé de supprimer leur service du pays si ce texte venait à passer. Face à cette fronde, les Britanniques ont très récemment annoncé suspendre la mise en œuvre de cette mesure au regard de l’infaisabilité à ce stade de protéger le chiffrement de bout-en-bout. Cependant, la mesure est toujours dans la loi et pourrait donc être applicable un jour. À Londres comme à Bruxelles, la bataille est loin d’être finie.

Refuser et agir

Il est donc urgent d’agir pour arrêter cette nouvelle initiative qui créerait un grave précédent et donnerait aux États une légitimité pour pousser toujours plus loin l’intrusion dans les communications. Mais les discussions avancent vite à Bruxelles. D’un coté, le Conseil, organe regroupant les gouvernements des États membres, doit publier sa position sur ce texte d’ici fin septembre. Celle-ci s’annonce très mauvaise, poussée par plusieurs États – France en tête. Certains États comme l’Allemagne ou l’Autriche auraient néanmoins exprimé des réserves quand à l’incompatibilité de cette dernière version par rapport à leur propre position officielle. Une lettre ouverte a été signée le 13 septembre par plus de 80 organisations, dont La Quadrature, pour que les États membres n’adoptent pas le CSAR dans sa version actuelle.

De l’autre coté, le Parlement européen devra également adopter sa version du texte, d’abord en commission en octobre puis en novembre en séance plénière. Si beaucoup d’eurodéputé·es s’opposent au texte, cela ne suffira sans doute pas à bloquer son adoption. Pour agir, nous vous invitons à rejoindre la campagne « Stop Scanning me » menée par une coalition d’organisations et à partager le plus possible les informations sur la mobilisation en cours2Aussi, vous pouvez regarder cette conférence faite au dernier Chaos Communication Camp sur le combat contre Chat control (en anglais).. Vous pouvez également appeler des parlementaires européens pour les inviter à rejeter ce texte.

Et si vous le pouvez n’hésitez pas à faire un don à La Quadrature ou à EDRi qui agit à Bruxelles. Merci !

References[+]

References
1 Néanmoins, il faut relativiser cette prise de position dès lors que la firme continue d’expérimenter une technologie similaire dans une fonction facultative dénommée « Communication Safety » qui recherche de la nudité directement sur les terminaux.
2 Aussi, vous pouvez regarder cette conférence faite au dernier Chaos Communication Camp sur le combat contre Chat control (en anglais).

Révoltes et réseaux sociaux : le retour du coupable idéal

Par : noemie
28 juillet 2023 à 05:53

Les révoltes qu’ont connues de nombreuses villes de France en réaction à la mort de Nahel ont entraîné une réponse sécuritaire et autoritaire de l’État. Ces évènements ont également réactivé une vieille antienne : tout cela serait dû au numérique et aux réseaux sociaux. On aimerait railler cette rhétorique ridicule si seulement elle n’avait pas pour origine une manœuvre politique de diversion et pour conséquence l’extension toujours plus dangereuse de la censure et du contrôle de l’information.

« C’est la faute aux réseaux sociaux »

Aux premiers jours des révoltes, Emmanuel Macron a donné le ton en annonçant, à la sortie d’une réunion de crise, que « les plateformes et les réseaux sociaux jouent un rôle considérable dans les mouvements des derniers jours ». Aucune mention des maux sociaux et structurels dans les quartiers populaires depuis plusieurs décennies, rien sur l’écœurement d’une population vis-à-vis des violences policières. Non, pour le président, c’est Snapchat, TikTok et les autres réseaux sociaux qui participeraient à « l’organisation de rassemblements violents » et à une « forme de mimétisme de la violence » qui conduirait alors à « une forme de sortie du réel ». Selon lui, certains jeunes « vivent dans la rue les jeux vidéo qui les ont intoxiqués ». Il est vrai que nous n’avions pas vu venir cette sortie d’un autre temps sur les jeux vidéos, tant elle a déjà largement été analysée et démentie par de nombreuses études.

Mais si le jeu vidéo a vite été laissé de côté, les critiques ont toutefois continué de se cristalliser autour des réseaux sociaux, à droite comme à gauche. Benoît Payan, maire de Marseille, a ainsi expliqué que les réseaux sociaux « sont hors contrôle et ils permettent à des bandes organisées qui font n’importe quoi d’être extrêmement mobiles, de se donner des rendez-vous ». Éric Dupond-Moretti, ministre de la Justice, s’est quant à lui taillé un rôle paternaliste et moralisateur, dépolitisant les évènements et essentialisant une jeunesse qui aurait l’outrecuidance d’utiliser des moyens de communication. Selon lui, « les jeunes » utilisent les réseaux sociaux et se « réfugient derrière leurs téléphone portable », se pensant « comme ça en toute liberté dans la possibilité d’écrire ce qu’ils veulent ». Car pour Dupond-Moretti, le jeune doit « rester chez lui » et les parents doivent « tenir leurs gosses ». Et si le jeune veut quand même « balancer des trucs sur Snapchat », alors attention, « on va péter les comptes ».

En substance, il menace d’identifier les personnes qui auraient publié des vidéos de violences pour les retrouver, quand bien même ces contenus seraient totalement licites. À l’image d’un surveillant courant avec un bâton après des enfants, dépassé par la situation, le ministre de la Justice se raccroche à la seule branche qui lui est accessible pour affirmer son autorité. Les récits de comparution immédiate ont d’ailleurs démontré par la suite la violence de la réponse judiciaire, volontairement ferme et expéditive, confirmant la détermination à prouver son ascendant sur la situation.

Le clou du spectacle a été prononcé par Emmanuel Macron lui-même le 4 juillet, devant plus de 200 maires, lorsqu’il a évoqué l’idée de « réguler ou couper » les réseaux sociaux puisque « quand ça devient un instrument de rassemblement ou pour essayer de tuer, c’est un vrai sujet ». Même avis chez Fabien Roussel « quand c’est chaud dans le pays », car celui-ci préfère « l’état d’urgence sur les réseaux sociaux que sur les populations ». Pour rappel, couper Internet à sa population est plutôt apprécié par les régimes autoritaires. En 2023, l’ONG Access Now a recensé que ce type de mesure avait été utilisé en Inde, Birmanie, Iran, Pakistan, Éthiopie, Russie, Jordanie, Brésil, Chine, Cuba, Irak, Guinée et Mauritanie.

Quelques semaines plus tard, le président annonçait le projet : restaurer un « ordre public numérique », ranimant la vieille idée sarkoziste qu’Internet serait une « zone de non-droit ».

La censure au service de l’ordre

L’ensemble de ces réactions révèle plusieurs des objectifs du gouvernement. D’abord, il attaque les moyens de communication, c’est-à-dire les vecteurs, les diffuseurs, les tremplins d’une expression populaire. Ce réflexe autoritaire est fondé sur une erreur d’appréciation majeure de la situation. Comme avec Internet à sa création, l’État semble agacé que des moyens techniques en perpétuelle évolution et lui échappant permettent aux citoyens de s’exprimer et s’organiser.

Depuis sa création, La Quadrature l’observe et le documente : le réflexe du blocage, de la censure, de la surveillance traduit en creux une incapacité à comprendre les mécanismes technologiques de communication mais surtout révèle la volonté de limiter la liberté d’expression. En démocratie, seul un juge a l’autorité et la légitimité pour décider si un propos ou une image enfreint la loi. Seule l’autorité judiciaire peut décider de retirer un discours de la sphère publique par la censure.

Or, sur Internet, cette censure est déléguée à des entités privées dans un cadre extra-judiciaire, à rebours de cette protection historique. L’expression et l’information des utilisateur·rices se heurtent depuis des années aux choix de plateformes privées auto-désignées comme entités régulatrices du discours public. Ce mécanisme de contrôle des moyens d’expression tend en effet à faire disparaître les contenus militants, radicaux ou alternatifs et à invisibiliser l’expression de communautés minoritaires. Alors que ce modèle pose de sérieuses questions quant à la liberté d’expression dans l’espace démocratique, c’est pourtant bien sur celui-ci que le gouvernement compte pour faire tomber les vidéos de violences et de révoltes.

Ensuite, cette séquence démontre l’absence de volonté ou l’incompétence de l’État à se confronter aux problématiques complexes et anciennes des quartiers populaires et à apporter une réponse politique et sociale à un problème qui est uniquement… politique et social. L’analyse des évènements dans les banlieues est complexe, difficile et mérite qu’on se penche sur de multiples facteurs tels que le précédent de 2005, l’histoire coloniale française, le rapport des habitant·es avec la police ou encore le racisme et les enjeux de politique de la ville. Mais ici, le gouvernement convoque les réseaux sociaux pour contourner la situation. Comme à chaque crise, la technologie devient alors le usual suspect préféré des dirigeants : elle est facile à blâmer mais aussi à maîtriser. Elle apparaît ainsi comme une solution magique à tout type de problème.

Rappelons-nous par exemple de l’application TousAntiCovid, promue comme l’incarnation du progrès ultime et salvateur face à la crise sanitaire alors qu’il s’agissait uniquement d’un outil de surveillance inefficace. La suite a montré que seules des mesures sanitaires étaient de toute évidence à même de résorber une épidémie. Plus récemment, cette manœuvre a été utilisée pour les Jeux Olympiques, moment exceptionnel par ses aspects logistiques, économiques et sociaux mais où la réponse politique apportée a été de légaliser un degré supplémentaire de surveillance grâce à la technologie, la vidéosurveillance algorithmique.

Ici, le gouvernement se sert de ces deux phénomènes pour arriver à ses fins. Désigner les réseaux sociaux comme le coupable idéal lui permet non seulement de détourner l’opinion publique des problématiques de racisme, de pauvreté ou de politique des quartiers mais également de profiter de cette séquence « d’exception » pour asseoir sa volonté de contrôle d’Internet et des réseaux sociaux. Ainsi, les ministres de l’Intérieur et du Numérique ont convoqué le 30 juin les représentants de TikTok, Snapchat, Twitter et Meta pour leur mettre une « pression maximale », selon les mots du ministre du Numérique Jean-Noël Barrot, et renforcer ainsi la main mise et l’influence politique sur ces infrastructures de communication.

Une collaboration État-plateformes à son paroxysme

Comment le gouvernement peut-il alors faire pour réellement mettre les réseaux sociaux, des entreprises privées puissantes, sous sa coupe ? Juridiquement, il dispose de leviers pour demander lui-même le retrait de contenus aux plateformes. Certes cette censure administrative est en théorie aujourd’hui réservée à la pédopornographie et à l’apologie du terrorisme, mais cette dernière, notion vague et indéfinie juridiquement, a notamment permis d’exiger le blocage du site collaboratif et militant Indymedia ou de faire retirer une caricature de Macron grimé en Pinochet. Ces pouvoirs ont d’ailleurs été récemment augmentés par l’entrée en vigueur du règlement « TERREG », qui permet à la police d’exiger le retrait en une heure d’un contenu qualifié par elle de « terroriste ». Cependant, il ne semble pas que le gouvernement ait utilisé ces dispositions pour exiger le retrait des vidéos de révoltes. D’ailleurs, et peut-être plus grave, il n’en a probablement pas eu besoin.

Conscient des limites juridiques de son pouvoir, l’État peut en effet miser sur la coopération des plateformes. Comme nous l’avons évoqué, celles-ci ont le contrôle sur l’expression de leurs utilisateur·ices et sont en mesure de retirer des vidéos de révoltes et d’émeutes quand bien même ces dernières n’auraient absolument rien d’illégal, simplement en invoquant leurs larges pouvoirs issus des conditions générales d’utilisation.

D’un côté, les autorités peuvent compter sur le zèle de ces réseaux sociaux qui, après avoir longtemps été accusés de mauvais élèves et promoteurs de la haine en ligne, sont enclins à se racheter une image et apparaître comme de bons soldats républicains, n’hésitant pas à en faire plus que ce que demande la loi. Twitter par exemple, qui a pendant longtemps résisté et ignoré les demandes des autorités, a drastiquement changé sa discipline depuis l’arrivée d’Elon Musk. Selon le media Rest of World qui a analysé les données du réseau, Twitter ne refuse quasiment plus aucune injonction de blocage ou réquisition de données d’identification provenant des différents États dans le monde.

Concernant les récents évènements en France, le ministre Barrot a ainsi confirmé que les « demandes » du gouvernement avaient été « entendues ». Le Commandement de la Gendarmerie dans le cyberespace exposait fièrement que 512 demandes de retrait avaient été adressées aux modérateurs de réseaux sociaux, quand Olivier Veran annonçait quant à lui que « ce sont plusieurs milliers de contenus illicites qui ont été retirés, plusieurs centaines de comptes qui ont été supprimés, plusieurs dizaines de réquisitions auxquelles les plateformes ont répondu ».

Et en effet, Snapchat ne se cachait pas d’avoir fait plus que le nécessaire. Un porte-parole affirmait à l’AFP faire de la « détection proactive » notamment sur la carte interactive qui permet de retrouver des contenus en fonction des lieux et « et plus particulièrement le contenu lié aux émeutes » qui serait supprimé s’il « enfreint [leurs] directives ». La responsable des affaires publiques de l’entreprise assumait quant à elle devant l’Assemblée nationale avoir travaillé avec le ministère de l’Intérieur pour filtrer les contenus et ne laisser en ligne que ceux mettant en scène des personnes se plaignant des violences. Les représentants de Tiktok ont pour leur part annoncé : « Nous menons une modération automatique des contenus illicites, renforcée par des modérateurs humains. En raison de la nécessité urgente en France, nous avons renforcé nos efforts de modération ».

De l’autre côté, si les réseaux sociaux refusent de se plier à ce jeu diplomatique, alors le gouvernement peut menacer de durcir leurs obligations légales. Aujourd’hui, les réseaux sociaux et hébergeurs bénéficient d’un principe européen d’irresponsabilité, créé dans les années 2000 et reposant en France sur l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN). Ils ne sont responsables de contenus que s’ils ont connaissance de leur caractère illicite et ne les ont pas retiré « promptement ». Mais alors que les soirées d’émeutes étaient toujours en cours dans les villes de France, le sénateur Patrick Chaize profitait de l’examen du projet de loi Espace Numérique pour proposer un amendement qui voulait modifier ce régime général et imposer aux plateformes le retrait en deux heures des contenus « incitant manifestement à la violence ».

Si cet amendement a finalement été retiré, ce n’était pas en raison de désaccords de fond. En effet, Jean-Noël Barrot a, dans la foulé de ce retrait, annoncé le lancement d’un « groupe de travail » interparlementaire pour réfléchir à une « évolution législative » de l’encadrement des réseaux sociaux. Sont envisagées pour l’instant des restrictions temporaires de fonctionnalités telles que la géolocalisation, des mesures de modération renforcées ou encore la levée de l’anonymat, éternelle marotte des parlementaires. Demande constante de la droite française depuis de nombreuses années, cette volonté de lier identité virtuelle et identité civile est cette fois-ci défendue par le député Renaissance Paul Midy. De quoi agiter le chiffon rouge de futures sanctions auprès de plateformes qui rechigneraient à en faire suffisamment.

L’impasse de la censure

Déjà voté au Sénat, le projet de loi « Espace Numérique » devrait être discuté à la rentrée à l’Assemblée. Outre plusieurs dispositions problématiques sur lesquelles nous reviendrons très prochainement, ce texte a comme objet initial de faire entrer dans le droit français le Digital Services Act (ou DSA). Ce règlement européen adopté en 2022 est censé renouveler le cadre juridique des acteurs de l’expression en ligne.

Contrairement à ce qu’affirmait avec aplomb Thierry Breton, commissaire européen en charge notamment du numérique, ce texte ne permettra en aucun cas d’« effacer dans l’instant » les vidéos de révoltes ni d’interdire d’exploitation les plateformes qui n’exécuteraient pas ces injonctions. Non, ce texte donne principalement des obligations ex ante aux très grosses plateformes, c’est-à-dire leur imposent des efforts sur leur fonctionnement général (transparence des algorithmes, coopération dans la modération avec des tiers certifiés, audits…) pour prévenir les risques systémiques liés à leur taille et leur influence sur la démocratie. M. Breton est ainsi prêt à tout pour faire le SAV du règlement qu’il a fait adopter l’année dernière, quitte à dire des choses fausses, faisant ainsi réagir plus de soixante associations sur ces propos, puis à rétropédaler en catastrophe en voyant le tollé que cette sortie a déclenché.

Cependant, si ce texte ne permet pas la censure immédiate rêvée par le commissaire européen français, il poursuit bien la dynamique existante de confier les clés de la liberté d’expression aux plateformes privées, quitte à les encadrer mollement. Le DSA légitime les logiques de censure extra-judiciaire, renforçant ainsi l’hégémonie des grandes plateformes qui ont développé des outils de reconnaissance et de censure automatisés de contenus.

Des contenus terroristes aux vidéos protégées par le droit d’auteur en passant par les opinions radicales, c’est tout un arsenal juridique européen qui existe aujourd’hui pour fonder la censure sur internet. En pratique, elle permet surtout de donner aux États qui façonnent ces législations des outils de contrôle de l’expression en ligne. On le voit en ce moment avec les vidéos d’émeutes, ces règles sont mobilisées pour contenir et maîtriser les contestations politiques ou problématiques. Le contrôle des moyens d’expression finit toujours aux mains de projets sécuritaires et anti-démocratiques. Face à ce triste constat, de la même manière que l’on se protège en manifestation ou dans nos échanges militants, il est nécessaire de repenser les pratiques numériques, afin de se protéger soi-même et les autres face au risque de détournement de nos publications à des fins répressives (suppression d’images, de vidéos ou de messages, flouter les visages…).

Enfin, cette obsession de la censure empêche surtout de se confronter aux véritables enjeux de liberté d’expression, qui se logent dans les modèles économiques et techniques de ces plateformes. À travers leurs algorithmes pensés pour des logiques financières, ces mécanismes favorisent la diffusion de publications violentes, discriminatoires ou complotistes, créant un tremplin rêvé pour l’extrême droite. Avec la régulation des plateformes à l’européenne qui ne passe pas par le questionnement de leur place prépondérante, celles-ci voient leur rôle et leur influence renforcé·es dans la société. Le modèle économique des réseaux sociaux commerciaux, qui repose sur la violation de la vie privée et la monétisation de contenus problématiques, n’est en effet jamais empêché, tout juste encadré.

Nous espérons que les débats autour du projet de loi Espace Numérique seront enfin l’occasion de discuter de modèles alternatifs et de penser la décentralisation comme véritable solution de la régulation de l’expression en ligne. Cet idéal n’est pas utopique mais existe bel et bien et grandit de jour en jour dans un écosystème fondé sur l’interopérabilité d’acteurs décentralisés, refusant les logiques de concentration des pouvoirs de censure et souhaitant remettre les utilisateurs au cœur des moyens de communications qu’ils utilisent.

L’Assemblée adopte l’activation à distance des appareils électroniques

Par : noemie
25 juillet 2023 à 10:00

La semaine dernière, l’Assemblée nationale a adopté le projet de loi d’orientation et de programmation du ministère de la justice pour les années 2023-2027. Parmi de multiples dispositions, ce texte prévoit l’introduction dans le droit français la possibilité pour la police d’activer des appareils et objets électroniques à distance, que ce soit les fonctionnalités de géolocalisation, des micros ou des caméras.

Nous vous en parlions il y a quelques semaines, après avoir fait un tour au Sénat, le voila désormais voté par l’Assemblée. Ce projet de surveillance, défendu par le gouvernement comme une simple « évolution technologique » des mesures d’enquête, modifie en réalité profondément la nature même d’objets du quotidien pour accéder à l’intimité des personnes. Il transforme des appareils supposées passifs et contrôlés par leurs propriétaires en des auxiliaires de justice pour s’immiscer dans tous les recoins de nos espaces privés. Alors que la police était jusqu’à présent tenue d’une démarche active et matériellement contraignante pour surveiller quelqu’un, ces dispositions du projet de loi sur la justice permettront de transformer un objet tel qu’un smartphone en dispositif de surveillance, en le compromettant.

Sans trop de surprise, les discussions à l’Assemblée n’ont apporté que peu de changement. Pour l’activation à distance des appareils électroniques à des fins de géolocalisation, permettant d’obtenir l’emplacement de leurs propriétaires, les députés de la majorité – réunis avec la droite et l’extrême droite – ont ramené le texte à sa version initiale. Ainsi, cette mesure pourra être mise en œuvre sur des personnes poursuivies pour des délits et crimes punis de 5 ans d’emprisonnement seulement, alors que les sénateurs avaient rehaussé ce seuil à 10 ans. Pour l’activation du micro et de la caméra des objets connectés permettant de filmer ou d’écouter tout ce qui se passe à leurs alentours, aucune modification substantielle n’est à noter. Prévue pour la criminalité et la délinquance organisées, l’application future de cette technique extrêmement intrusive nous fait craindre le pire. Actuellement déjà, un grand nombre d’actions peuvent tomber dans le champ de la délinquance et la « criminalité organisée », comme par exemple la « dégradation en bande organisée » pour laquelle sont poursuivies les militant·es écologistes arrêtées pour avoir participé à l’action contre l’usine Lafarge.

Mais surtout, il est très probable que cette technique de compromission des appareils s’étende ou se banalise d’ici à quelques années. La dernière décennie, qui a bouleversé en profondeur la réglementation pénale et antiterroriste, démontre par l’exemple quel pourrait être le chemin d’une telle généralisation. En effet, les techniques spéciales d’enquête, particulièrement intrusives, étaient historiquement réservées aux enquêtes et affaires les plus graves, données au seul juge d’instruction. Ce n’est que depuis la réforme pénale de 2016 que ces possibilités ont été élargies aux officiers de police judiciaire et aux procureurs dans le cadre d’enquête de flagrance et préliminaire. Avec cette loi, le procureur pouvait alors ordonner des écoutes téléphoniques, des sonorisations de lieux, des poses de balise GPS, de la vidéosurveillance, des captations de données informatiques ou des perquisitions de nuit.

Cette extension était fortement critiquée au regard des pouvoirs inédits donnés au parquet, hiérarchiquement dépendant de l’exécutif. Le journal « Le Monde » parlait à l’époque de « la loi antiterroriste la plus sévère d’Europe » et s’inquiétait, comme nous aujourd’hui, du « glissement régulier des méthodes du renseignement vers l’antiterrorisme, celles de l’antiterrorisme vers le crime organisé, celles du crime organisé vers la délinquance ordinaire » et de conclure « les procédures d’exception finissent par dissoudre le principe même d’un droit commun ».

Ces prédictions se sont révélées exactes puisque dès 2018, le gouvernement a voulu élargir ces possibilités fraîchement données au procureur à l’ensemble des crimes dans le cadre d’une enquête en flagrance ou d’une enquête préliminaire, et non plus à la seule délinquance et à la criminalité en bande organisée. On ne pourrait donner meilleur exemple de fuite en avant sécuritaire, révélant la volonté de s’arroger toujours plus de pouvoirs dont on pouvait pourtant se passer auparavant. Néanmoins, les gardes fous institutionnels ont plutôt fonctionné à ce moment là : le Conseil constitutionnel a censuré cet appétit grandissant de prérogatives de surveillance. Celui-ci a ainsi estimé que la mesure était excessive et que le juge des libertés et de la détention (JLD), désigné pour autoriser et contrôler ces techniques, ne constituait pas une garantie suffisante. Pour le Conseil, puisque le JLD n’a pas accès à l’ensemble des procès-verbaux de l’enquête ni au déroulé des investigations, cela l’empêche d’assurer un contrôle satisfaisant de la nécessité et la proportionnalité des mesures de surveillance. Pourtant, alors que ces limites sont connues, c’est ce même JLD qui a été choisi dans le PJL Justice 2023-2027 pour contrôler les nouvelles techniques d’activation à distance des objets connectés (hors information judiciaire).

Toutefois, rien ne permet de croire à un coup d’arrêt similaire contre ces nouvelles mesures. À l’heure où l’antiterrorisme est mobilisé pour réprimer des militant·es politiques, ce renforcement des pouvoirs policiers ne fait que souligner les dérives autoritaires du gouvernement. Cette volonté de faire tomber les barrières qui empêchent l’État d’accéder à l’intimité des citoyens rejoint aussi l’offensive actuelle contre le chiffrement des conversations, que nous avons documentée à travers l’instruction de l’affaire dite du « 8 décembre ».

Le projet de loi sera prochainement transmis à une commission mixte paritaire qui tranchera les derniers arbitrages. Les équilibres politiques actuels font qu’il n’y a quasiment aucune chance que les parlementaires reculent et fassent retirer ces mesures de surveillance. Pourtant, si ces dernières sont votées, elles offriront une possibilité de contrôle de masse à faible coût et feront basculer le rapport que peuvent avoir les citoyens à la technologie en transformant radicalement la nature des objets qui nous entourent.

En visite aux « nuits de l’AN2V », le lobby de la vidéosurveillance

Par : noemie
11 juillet 2023 à 09:51

Tribune de Félix Tréguer, membre de La Quadrature du Net, initialement publiée sur le site lundimatin.

Il a fallu débourser 180€ et s’arracher à la torpeur de ce début d’été pour gagner le droit de s’attabler incognito au beau milieu du « milieu » français de la vidéosurveillance policière. L’AN2V, ou association nationale de la vidéoprotection, tenait l’une de ses « nuits de l’AN2V » à Paris le 27 juin dernier. Événement biennal, les « nuits » sont le moment le plus people de cette association de fabricants, de distributeurs, d’intégrateurs, bref de marchands des milliers de caméras de surveillance installées à grands frais dans nos villes et villages.

Ambiance

J’arrive vers 19 heures au musée des arts forains à Paris, à quelques centaines de mètres du ministère de l’Économie. Près de trois cent participants s’amoncellent dans la grande salle à l’entrée. L’ambiance est feutrée, les décors chatoyants et dorés. De vieux jeux de foire sont disposés aux quatre coins de la pièce, avec des animateurs et animatrices censées amuser la galerie. C’est l’heure de l’apéro et le champagne est servi sur des nappes blanches. Neuf individus sur dix sont des hommes, blancs eux-aussi. La quasi-totalité des quelques personnes non-blanches présentes ce soir sont des hôtes et des hôtesses, au vestiaire ou au service. Malheureusement rien de très étonnant dans ce lieu d’entre-soi élitaire.

Intérieur du musée des arts forains rempli de personnes principalement masculines et en costume

Tandis que je m’exfiltre à l’extérieur pour respirer un peu, trois hommes s’assoient non loin de moi. Deux représentants de la société Videtics vendent leur soupe à un homme plus âgé qui semble être un donneur d’ordre : analyse de densité de foule, analyse de trafic et de trajectoire des individus dans l’espace urbain, ils vantent les mérites de leur solution et de l’expérimentation prochaine à Marseille du suivi de foules dans le cadre du consortium Serenity soutenu par BPIfrance. De là, en moins d’un quart d’heure, je vois passer Guillaume Cazenave, PDG de la start-up Two-I, spécialisée dans l’Intelligence Artificielle (IA) appliquée à la vidéosurveillance, mais aussi Élisabeth Sellos-Cartel, chargée de la vidéosurveillance au ministère de l’Intérieur. Quelques jours plus tôt, elle animait une réunion de l’AN2V pour éclairer ses membres quant au travail ministériel sur les futurs décrets d’application de l’article 7 de la loi« Jeux Olympiques » (JO) 2024, qui légalise à titre expérimental l’usage de la vidéosurveillance algorithmique – c’est le gros sujet du moment. De retour à l’intérieur, je vois passer les badges de représentants d’entreprises chinoises comme Hikvision et Dahua, lesquelles se partageraient plus de la moitié du parc français de vidéosurveillance. Des acteurs centraux et pourtant sur la défensive, on le verra. Puis à quelques mètres de là, je vois passer la personnalité politique clé pour l’ensemble du secteur de la vidéosurveillance : Philippe Latombe, ancien cadre au Crédit agricole et depuis 2017 député Modem de Vendée.

Philippe Latombe, député guest-star

Quoique que largement inconnu du grand public, le député Latombe est ce soir la guest-star. Aujourd’hui dans la majorité macroniste, membre de la commission des Lois à l’Assemblée nationale, il s’était présenté aux élections régionales de 2015 sur la liste d’extrême-droite de Debout la France, le parti de Nicolas Dupont-Aignan. Et en tant qu’élu de la majorité en 2021, il n’a pas hésité à propager une fake news sur des supposées « prières de rue musulmanes » à Challans. Pour le reste, il semble s’être employé à bâtir l’image d’un centriste raisonnable et d’ardent défenseur de la vie privée. Il a ainsi voté contre le passe sanitaire en 2020 et cosigné une tribune appelant à un moratoire sur la reconnaissance faciale. Cela a probablement aidé à ce que la présidente de l’Assemblée, Yaël Braun-Privet, le nomme au collège de la CNIL en août 2022.

Son jeu trouble avec l’industrie de la surveillance révèle pourtant son insatiable fascination pour la Technopolice, et le place dans une effarante position de conflit d’intérêt. Il y a quelques mois déjà, lors du salon professionnel ExpoProtection, le lobbyiste Sébastien Garnault, initiateur de la plateforme d’influence CyberTaskForce, le présentait en introduction d’un débat sur la vidéosurveillance comme « un interlocuteur de choix (…), un ardent défenseur de l’excellence française, donc clairement un coéquipier ». Cet hiver, Latombe a joué un rôle clé dans les débats sur l’article 7 de la loi JO 2024. Et il est entre autres choses co-auteur d’un rapport d’information sur « les images de sécurité » publié en avril dernier. Tout en jurant qu’« aucun compromis ne doit être fait concernant la protection des libertés fondamentales », ce rapport appelait à étendre très largement le recours à la vidéosurveillance et à la reconnaissance faciale. C’est de ce document dont l’AN2V a décidé qu’il serait beaucoup question ce soir.

20 heures sonnent. Quelqu’un prend le micro pour demander à ces « messieurs » de passer à table, oubliant les quelques femmes présentes ce soir – la non-mixité masculine est ainsi assumée. Le maître de cérémonie, Dominique Legrand, président de l’AN2V, lobbyiste en chef de la vidéosurveillance à la gouaille insatiable, fait son entrée en scène. À l’aise dans son rôle de MC, il convoque Philippe Latombe sur l’estrade et l’avertit d’emblée : « Ce soir, j’ai envie de vous challenger ». Latombe est prêt, chaud-bouillant même, d’autant plus que, en tant que héraut politique du secteur, il se sait au-dessus de tout reproche. Le petit jeu de questions/réponses qui s’amorce est parti pour durer près de trois longs quarts d’heure. Il va consister pour le lobbyiste à reprendre les recommandations les plus cruciales du rapport parlementaire dont Latombe est co-auteur pour demander à ce dernier de noter, sur une échelle de 0 à 20, la probabilité qu’elles soient bientôt inscrites dans les politiques publiques. Exemple : Va-t-on assister à une refonte totale des « dispositifs de captation d’images dans l’espace public » pour « rationaliser » le cadre juridique fixé par le code de la sécurité intérieure ? 10 sur 20 répond Latombe : « Cela finira par arriver mais il faudra sans doute des années au ministère de l’Intérieur pour conduire ce gros travail légistique ».

Viennent ensuite les recommandations n° 3, 4 et 5 du rapport, puis les n° 8, 9, 11, 14, 15 et 16. Durant l’échange, Dominique Legrand doit s’interrompre une dizaine de fois pour demander le silence : « le bruit de fond est trop important, vous n’écoutez pas ! » C’est que, dans l’auditoire, on sirote le kir le ventre vide et les discussions s’animent. On préfère apparemment laisser Legrand faire son numéro en papotant entre pairs dans une atmosphère détendue, dont il faut bien avouer qu’elle fait un peu mauvais genre. Latombe, beau joueur, ne voudrait surtout pas déranger. Il lâche un « c’est pas grave » et invite à poursuivre.

Recommandation 20 sur l’interopérabilité des systèmes de vidéoprotection et d’IA mis en œuvre dans le cadre de l’expérimentation ouverte par la loi JO. Legrand surjoue la satisfaction : « ça, ça nous convient parfaitement ». Recommandation n° 22 sur des marchés publics réservés aux acteurs français et européens au nom de la souveraineté numérique. Latombe s’enthousiasme : « C’est un sujet qui est en train de prendre partout au sein de l’hémicycle, de la France insoumise au Rassemblement national ». Quant au fait d’avoir co-signé, de façon inédite pour la majorité, un amendement sur ce sujet avec l’extrême droite dans le cadre de la loi JO : « Je l’assume c’est pas un souci ». Chassez le naturel extrême-droitier et il revient au galop. Il faut dire qu’outre le fait que le Rassemblement national aide à faire passer près de la moitié des textes de la majorité macroniste, le souverainisme économique est de bon ton dans un climat de rivalités géopolitiques croissantes. Quoiqu’ils aient eu gain de cause avec l’échec de cet amendement, les représentants des entreprises chinoises présents ce soir doivent trouver ces appels au souverainisme peu ragoutants. Et en même temps, l’incurable dépendance des Français aux technologies de l’Empire du milieu leur paraît sans doute un peu pathétique.

Fabrique de l’acceptabilité sociale de la surveillance

On arrive aux recommandations n° 29, 30 et 31 qui portent sur la reconnaissance faciale et biométrique dans l’espace public, un sujet qui fait l’objet d’une récente proposition de loi de la droite et du centre adoptée au Sénat. Reprochant à ses collègues sénateurs de vouloir aller trop vite en besogne, Latombe détaille la philosophie qui guide son approche, à ses yeux la plus capable de porter ses fruits : la stratégie des petits pas, aussi connue sous le nom de « fable de la grenouille » :

« Avec la reconnaissance faciale, on touche à un tabou absolu, on touche au truc qui fait que ça fait hurler tout le monde. Ce que nous avons proposé dans le rapport, et je pense que c’est la vraie bonne façon de faire les choses : si on y va d’un coup d’un seul, un peu comme les sénateurs veulent le faire, ça va tellement crisper que ça passera pas. Il faut y aller en touchant les choses du bout du doigt et en y allant dans des cas très particuliers et très bien protégés, très bien balisés. C’est pour ça qu’on a proposé avec Philippe Gosselin d’utiliser la reconnaissance faciale en direct, avec le flux live, pour trois cas très particuliers : crise terroriste (il faut retrouver les terroristes, il faut pas qu’on se pose de question pour l’utiliser) ; la finalité « bande organisée » (le braquage de fourgon ou d’une bijouterie avec des gens qui sortent de la bijouterie et sont prêts à tirer sur n’importe qui, il faut savoir où ils sont pour intervenir le plus rapidement possible […]) ; et sur l’alerte-enlèvement ([…] pour récupérer l’enfant le plus vite possible […]). Il s’agit de cas emblématiques pour lesquels nos concitoyens savent bien qu’il y a un risque et qu’il faut mettre en place tous les moyens pour contrer ce risque. Ça serait une faute [de ne pas utiliser la reconnaissance faciale]. Si on a des outils pour le faire, utilisons-les, et après on verra bien si ça marche pas. On verra. »

Legrand fait le mec prudent : « Très bien, ça tombe sous le sens, on comprend bien qu’il faut cadrer tout ça, ça peut pas tourner H24 sur l’ensemble du territoire ». Les businessmen de la vidéosurveillance sont des gens raisonnables, c’est l’un des leitmotivs de la soirée.

On poursuit avec une série de recommandations (n° 32, 33 et 35) portant sur les commissions départementales de vidéoprotection et les comités d’éthique, alibis commodes pour faire croire à l’existence de garde-fous mais tombés en déshérence ces dernières années du fait de leur manque de pouvoir et de leur inutilité. Là encore, le député insiste – et l’AN2V approuve : il faut les relancer, il en va de « l’acceptabilité sociale » de la vidéosurveillance.

Photo de la diapositive de présentation du rapport parlementaire de Philippe Latombe décrivant les recommandations n°32, 34 et 35

« La première idée, explique Latombe, c’est de se dire que pour que ce soit accepté par la population, il faut mettre un certain nombre de garde-fous. C’est la CNIL, c’est des choses comme ça, ou le recours au droit que les personnes peuvent avoir pour accéder à leur images […]. Ça permet de mettre du contrôle citoyen sur les choses sans nuire à l’efficacité. Avec les caméras augmentées, où il y a des biais, le regard citoyen [symbolisé par les comités] permet d’apaiser les craintes, d’être sûr qu’il y a un contrôle citoyen qui permet aux habitants de se tranquilliser […]. C’est pas forcément quelque chose qui coûte très cher, c’est quelque chose qui s’organise et qui doit se réunir au moins une fois par trimestre, de faire un rapport et de challenger les effectifs communal (sic). »

Le patron de l’AN2V écoute avec le regard satisfait du maître à qui l’élève récite une leçon parfaitement apprise. Vient enfin la recommandation 36, qui propose de consacrer la CNIL en tant que « chef de file » de la régulation des systèmes d’IA. C’est alors que le député confirme ce que l’on constate depuis des années : plutôt que le gendarme des données personnelles, la CNIL est désormais une agence dédiée à l’accompagnement de l’innovation.

« Beaucoup de monde voit la CNIL comme un empêcheur de tourner en rond. Pour le voir un peu de l’intérieur depuis l’été dernier, il y a quand même une volonté d’ouverture de la CNIL sur ces sujets. Et d’ailleurs, quand on regarde les différents décrets, et même le texte JO [sur la VSA] et même sur le texte « douanes » sur les LAPI [lecture automatique de plaques d’immatriculation], la CNIL a vraiment ouvert ses chakras, en se disant qu’elle ne pouvait plus être ce gendarme strict et qu’il fallait qu’elle intègre les réalités sociales et technologiques et économiques. Il n’en reste pas moins que dans la loi JO, il a fallu rassurer les citoyens sur le fait que les algorithmes sont expertisés avant d’être déployés. Il y a eu un grand débat au sein du gouvernement sur ce sujet, il a été arbitré par le ministère de l’Intérieur face à Bercy qui voulait absolument que ce soit l’Arcep, réputée plus proche des milieux économiques. Il n’empêche que la CNIL est aujourd’hui en grande mutation sur le sujet [de l’IA…]. Mais on ne peut pas confier ces sujets-là à la CNIL sans lui ouvrir complètement ses chakras, et la meilleure façon d’ouvrir ses chakras, c’est d’abord de renforcer son collège en y mettant peut être un peu moins de juristes issus du Conseil d’État, qui sont majoritaires, en y mettant des personnes qualifiées issues du monde technologique, universitaire, et qui ont un capacité à comprendre ce que sont les technos […] ».

Les membres actuels du collège de la CNIL, qui d’ailleurs incluent déjà des universitaires et spécialistes de l’informatique, apprécieront. Quant au fait que la CNIL soit un « gendarme strict », il s’agit d’une grosse exagération compte tenu du laisser-faire de l’autorité dans de très nombreux dossiers. Mais reconnaissons à Latombe une chose : c’est encore pire depuis quelques mois.

« Comment on fait la bascule »

Quoi qu’enorgueilli de son bilan en tant que relais politique du lobby de la vidéosurveillance, il y a un point sur lequel Philippe Latombe tient à faire son mea culpa : le retard pris dans le calendrier réglementaire dans le déploiement de la vidéosurveillance algorithmique (apparemment, 6 mois de retard sur le calendrier prévu). Les décrets d’application de la loi JO ne sont certes toujours pas parus, mais il en aurait vu passer certains à la CNIL et il assure que tout sera prêt pour septembre. Enfin, conformément au souhait exprimé dans son rapport, une proposition de loi devrait être déposée d’ici la fin d’année avec son collègue Philippe Gosselin (LR) pour donner corps à leurs recommandations. Bref, le député a toutes les raisons d’inviter l’industrie de la surveillance à l’optimisme :

« Sur tous ces sujets, je pense qu’il faut que vous soyez rassurés. L’ensemble des sujets commence à infuser partout. Et pas que simplement dans la sphère politique avec le Sénat et l’Assemblée. Je sens que les élus sur l’ensemble du territoire sont conscients des évolutions technologiques et qu’ils ne peuvent pas rester à l’écart. La vraie question ensuite est de [savoir] comment on fait la bascule. Je pense que la bascule elle se fera pas d’un coup d’un seul parce que si on l’impose par la loi d’un coup d’un seul, on aura des blocages et ça marchera pas. Il faut qu’on arrive à adapter les choses pour que nos concitoyens se rendent compte que ça les aide au quotidien. Et si on y arrive, et si les maires peuvent être là pour aider à pousser ce sujet-là, à ce moment on pourra faire avancer les choses. Mais on voit que c’est un sujet qui porte, on voit que c’est un sujet qui avance partout. Y’en a qui sont plus en avance que d’autres – par exemple les douanes sur les LAPI. Il faudra qu’on revoit la manière dont on peut élargir l’utilisation des drones malgré la réserve du Conseil constitutionnel [qui interdit leur usage par les polices municipales]. Il faut avancer petit bout par petit bout, ça se fera pas en un claquement de doigt, mais on va y arriver. Quant à l’Intelligence Artificielle, c’est une vraie révolution, et il faut que vous l’intégriez sur tous les domaines qui pourront être utilisés ».

Message reçu dans l’assistance. Le patron de l’AN2V est d’accord. Fier même : tout ce petit cirque a montré à ses ouailles qu’il faisait bien son boulot : « il faut apprécier chaque marche engagée, on voit beaucoup de choses avancer », insiste-t-il.

Au confessionnal de l’AN2V

Il est bientôt 21 heures. C’est le moment que l’AN2V a choisi pour nous surprendre. Après avoir remercié Latombe et l’avoir invité à s’asseoir à sa table, Dominique Legrand invite sur scène Alain Chouraqui, directeur de recherche émérite au CNRS et auteur du Vertige identitaire, un ouvrage paru en 2022 et sous-titré : « Tirer les leçons de l’expérience collective  : comment peut basculer une démocratie ? ». Là encore, il sera donc question de bascule.

Intérieur du musée des arts forains rempli de personnes debout

Proche de la LICRA, Alain Chouraqui est aussi président de la Fondation du camp des Milles, la structure qui gère le mémorial de ce camp d’internement situé près de Aix en Provence créé en 1939 pour y détenir des étrangers et des résistants anti-fascistes et qui, a l’été 1942, a servi de camp de déportation des juifs présents en zone non-occupée. On s’interroge : que peut-il bien faire ici ? Dominique Legrand tente de résumer la démarche : « À l’AN2V, on est pas là pour vendre que des caméras comme le disent très souvent ceux qui ne nous aiment pas, on est là pour réfléchir et de temps en temps lever le nez du guidon ». C’est en tout cas l’image qu’il veut donner à travers les nuits de l’AN2V.

Chouraqui commence donc son exposé, parle du travail de mémoire auquel il participe. Le ton de l’orateur est solennel, l’écoute de l’auditoire plus respectueuse. Chouraqui explique notamment que, dans le cadre d’un projet de recherche comparatif, lui et ses collègues politistes et historiens ont proposé un modèle en trois étapes des dérives autoritaires, génocidaires et fascistes. La France en serait aujourd’hui à la deuxième étape. L’espace d’un instant, il a réussi à casser la bonne ambiance. Dans un sac en papier disposé sur chacune des tables, on trouve son livre. Je l’ouvre au hasard et tombe sur la page 71. J’y lis le paragraphe suivant :

« Les ‘‘progrès techniques’’ offrent aux passions humaines une puissance telle qu’il peut en perdre la maîtrise en des ‘‘embardées monstrueuses’’ dont la Shoah est le paradigme puisqu’elle doit son ‘‘efficacité’’ extrême aux outils techniques et bureaucratiques les plus modernes mis au service du pire. Il suffit de se demander ce que les nazis auraient pu faire avec des outils informatiques et des manipulations génétiques. »

Couverture du livre d’Alain Chouraqui

Par politesse, Chouraqui ne livrera ce soir aucune analyse quant au core business des membres de l’AN2V, à savoir la vente d’engins de surveillance qui participent à armer le génocide culturel des Ouïghours en Chine, la colonisation de la Palestine, et tant d’autres atteintes aux droits humains à travers le monde. Mais ce silence un peu hypocrite n’efface pas tout à fait l’incongruité de sa présence à cette soirée. Après son discours, le dîner peut enfin commencer. J’embraye la discussion avec mon voisin de table, dont le métier est, sans surprise, de vendre des caméras de surveillance et les technologies connexes. Il a trouvé l’intervention « passionnante » :

« C’est bien qu’ils l’aient invité, m’explique-t-il. On est des acteurs dans le business et c’est bien de se poser la question de l’impact des techniques qu’on met en place. Est-ce qu’on participe au Big Brother, au Big Data ? Dans un contexte de crise climatique et des migrations qu’il provoque, est-ce que nos instruments ne vont pas participer à faire du tri, à faire des choix dans les individus ? »

Il le dit à sa manière, vaguement inspirée par ce qu’il a retenu du choc des civilisations. Mais on sent que ces questionnements sont sincères. Tout vendeur de vidéosurveillance, pour peu qu’il n’assume pas pleinement ses penchants autoritaires et soit prêt à s’interroger – ce qui n’est certainement pas le cas de chaque personne dans l’assistance ce soir –, doit bien avoir occasionnellement ce genre de cas de conscience. Il sait qu’il flirte non seulement avec l’illégal, mais aussi avec l’amoral, ayant plus ou moins conscience qu’il contribue chaque jour à construire le monde pété que devront habiter ses enfants.

Je reste perplexe face à cet apparent paradoxe : invoquant la caution morale d’un personnage comme Chouraqui, l’AN2V sensibilise ses membres à la dérive autoritaire du pays, ce alors qu’elle est régulièrement pointée du doigt pour sa promotion de la surveillance numérique de l’espace public urbain. Comment l’expliquer ? Outre l’évident capital symbolique engrangé par l’association via la présence de l’intellectuel (« on réfléchit, on lève le nez du guidon »), le spectacle auquel j’ai assisté ce soir invite à faire l’hypothèse suivante : cette séquence sur l’autoritarisme produit la même chose chez les acteurs de la vidéosurveillance (à commencer par Legrand lui-même) que ce que la stratégie des petits pas et des garde-fous inefficaces produit sur la population : une forme de désinhibition vis-à-vis du potentiel totalitaire de cette technologie. Car la leçon d’histoire offerte par Chouraqui aura probablement permis à tout ce petit monde de se rassurer en se disant qu’il reste dans le camp du « Bien », celui de la démocratie, et ainsi de se dissocier de l’image funeste que leur renvoient leurs adversaires « droits-de-l’hommistes » (« ceux qui ne nous aiment pas », comme le résume Legrand de manière presque touchante). Ils peuvent d’autant mieux le faire que ce soir, ni Chouraqui, ni moi, ni personne d’autre n’aura pris la peine d’expliciter le lien entre technologies de surveillance et pratiques autoritaires. Ce lien est dans toutes les têtes et pourtant, il reste à l’état de non-dit.

Au fond, les nuits de l’AN2V sont un peu comme un confessionnal où les acteurs de la Technopolice sont venus ressasser leurs péchés pour mieux laver leur mauvaise conscience, un moment étrange où l’aveu implicite permet d’entretenir le déni. Faute secrètement avouée, à moitié pardonnée. Après ce bref moment de catharsis et de contrition silencieuse, chacun pourra s’en retourner à sa routine consistant à maximiser les profits liés à l’expansion des marchés de la surveillance. Plutôt qu’un paradoxe, et n’en déplaise à Charouqui, le gargarisme de démocratie auquel j’ai assisté ce soir révélerait donc l’un des mécanismes par lesquels les régimes libéraux contemporains « basculent », à savoir la déculpabilisation des élites et la production d’une irresponsabilité collective par la mise en scène des valeurs démocratiques. Des représentants commerciaux aux donneurs d’ordre administratifs en passant par les parlementaires, les hauts-fonctionnaires ou les ministres, nombreux sont ceux qui, en participant à ces événements rituels, se font croire qu’ils croient encore en la démocratie. Peut-être même se convainquent-ils ainsi qu’ils peuvent faire ce qu’ils font, c’est-à-dire déployer des technologies toujours plus sophistiquées de contrôle social, tout en agissant en son nom. Tandis que l’extrême droite s’affirme de manière toujours plus décomplexée, ces processus grâce auxquels les élites libérales gèrent la dissonance cognitive induite par leur complicité objective avec la spirale autoritaire en cours forment l’un des rouages les plus efficaces du fascisme qui vient.

Transformer les objets connectés en mouchards : la surenchère sécuritaire du gouvernement

Par : noemie
31 mai 2023 à 09:38

Communiqué de l’Observatoire des Libertés et du Numérique, 31 mai 2023


Le projet de loi « Orientation et programmation du ministère de la Justice 2023-2027 » a commencé à être discuté au Sénat, et son article 3 fait déjà polémique. À raison.

Au milieu de dispositions qui visent à entériner pêle-mêle les interventions à distance des médecins en cas de prolongation de la garde à vue et des interprètes dès le début de la garde à vue, ou l’extension des possibilités des perquisitions de nuit à des crimes de droit commun, est créé un nouvel outil d’enquête permettant d’activer, à distance, les appareils électroniques d’une personne à son insu pour obtenir sa géolocalisation en temps réel ou capter des images et des sons. Art. 3 points 12° et 13° et 17° à 19°.

En clair, il s’agira par exemple pour les enquêteurs judiciaires de géolocaliser une voiture en temps réel à partir de son système informatique, d’écouter et enregistrer tout ce qui se dit autour du micro d’un téléphone même sans appel en cours, ou encore d’activer la caméra d’un ordinateur pour filmer ce qui est dans le champ de l’objectif, même si elle n’est pas allumée par son propriétaire. Techniquement, les policiers exploiteront les failles de sécurité de ces appareils (notamment, s’ils ne sont pas mis à jour en y accédant, ou à distance) pour installer un logiciel qui permet d’en prendre le contrôle et transformer vos outils, ceux de vos proches ou de différents lieux en mouchards.

Pour justifier ces atteintes graves à l’intimité, le Ministère de la Justice invoque la « crainte d’attirer l’attention des délinquants faisant l’objet d’enquête pour des faits de criminalité organisée, de révéler la stratégie établie ou tout simplement parce qu’elle exposerait la vie des agents chargés de cette mission » en installant les outils d’enquête. En somme, il serait trop risqué ou compliqué pour les agents d’installer des micros et des balises « physiques » donc autant se servir de tous les objets connectés puisqu’ils existent. Pourtant, ce prétendu risque n’est appuyé par aucune information sérieuse ou exemple précis. Surtout, il faut avoir en tête que le piratage d’appareils continuera de passer beaucoup par un accès physique à ceux-ci (plus simple techniquement) et donc les agents encourront toujours ce prétendu risque lié au terrain. De plus, les limites matérielles contingentes à l’installation d’un dispositif constituent un garde-fou nécessaire contre des dérives d’atteintes massives à la vie privée.

La mesure prévue par l’article 3 est particulièrement problématique pour les téléphones portables et les ordinateurs tant leur place dans nos vies est conséquente. Mais le danger ne s’arrête pas là puisque son périmètre concerne en réalité tous les « appareils électroniques », c’est-à-dire tous les objets numériques disposant d’un micro, d’une caméra ou de capteurs de localisations. Cette mesure d’enquête pourrait ainsi permettre de :

  • « sonoriser » donc écouter des espaces à partir d’une télévision connectée, d’un babyphone, d’un assistant vocal (type Google Home), ou d’un micro intégré à une voiture ;
  • de retransmettre des images et des vidéos à partir de la caméra d’un ordinateur portable, d’un smartphone ou d’une caméra de sécurité à détection de mouvement ;
  • de récupérer la localisation d’une personne grâce au positionnement GPS d’une voiture, d’une trottinette connectée ou d’une montre connectée. De nombreux autres périphériques disposant de ces capteurs pourraient aussi être piratés.

Si ce texte était définitivement adopté, cela démultiplierait dangereusement les possibilités d’intrusion policière, en transformant tous nos outils informatiques en potentiels espions.

Il est, à cet égard, particulièrement inquiétant de voir consacrer le droit pour l’Etat d’utiliser les failles de sécurité des logiciels ou matériels utilisés plutôt que de s’attacher à les protéger en informant de l’existence de ces failles pour y apporter des remèdes.

Les services de police et de renseignement disposent pourtant déjà d’outils extrêmement intrusifs : installation de mouchards dans les domiciles ou les voitures (balise GPS, caméras de vidéosurveillance, micro de sonorisation), extraction des informations d’un ordinateur ou d’un téléphone par exemple et mise en oeuvre d’enregistreurs d’écran ou de frappes de clavier (keylogger). Ces possibilités très larges, particulièrement attentatoires à la vie privée, sont déjà détournées et utilisées pour surveiller des militant·es comme (dans la lutte du Carnet, dans l’opposition aux mégabassines, dans les lieux militants de Dijon, ou dans les photocopieuses de lieu anarchistes, etc.)

Alors que les révélations sur l’espionnage des téléphones par Pegasus continuent de faire scandale et que les possibilités des logiciels espions ont été condamnées par le Haut-Commissariat des Nations Unies aux droits de l’homme, le ministère de la Justice y voit a contrario un exemple à suivre. Il tente de légitimer ces dispositifs en assurant que seuls le crime organisé et le terrorisme seront visés via ces « techniques spéciales d’enquête ».

Si le projet de loi renvoie effectivement à des infractions considérées comme graves, cela n’est pas de nature à apaiser les inquiétudes légitimes. En effet, ces mêmes infractions graves ont déjà été utilisées pour poursuivre des actions militantes, que ce soit à l’encontre de personnes solidaires avec les migrants accusées d’aide à l’entrée de personnes en bande organisée, de militants écologistes, encore qualifiés récemment d’ « écoterroristes » ou encore de militants contre l’enfouissement de déchets nucléaires à Bure. Plus généralement, le spectre des infractions visées peut aussi dépasser l’imaginaire de la « grande criminalité », y sont inclus notamment : la production et la vente de stupéfiant quelque soit l’échelle, le proxénétisme dont la définition très large peut inclure la seule aide à une personne travailleuse du sexe, les vols en bande organisée…

Concernant la technique de géolocalisation des objets connectés, le spectre est encore plus large puisque l’activation à distance pourra concerner toutes les personnes suspectées d’avoir commis un délit puni de cinq années de prison, ce qui – en raison de l’inflation pénale des lois successives – peut aller par exemple du simple recel, à la transmission d’un faux document à une administration publique, ou le téléchargement sans droit de documents d’un système informatique.

Surtout, l’histoire nous a démontré qu’il existait en la matière un « effet cliquet » : une fois qu’un texte ou une expérimentation sécuritaire est adopté, il n’y a jamais de retour en arrière. À l’inverse, la création d’une mesure intrusive sert généralement de base aux extensions sécuritaires futures, en les légitimant par sa seule existence. Un exemple fréquent est d’étendre progressivement des dispositions initialement votées pour la répression d’un crime choquant à d’autres délits. Le fichage génétique (FNAEG) a ainsi été adopté à l’encontre des seuls auteurs d’infractions sexuelles, pour s’étendre à quasiment l’ensemble des délits : aujourd’hui, 10% de la population française de plus de 20 ans est directement fichée et plus d’un tiers indirectement.

Permettre de prendre le contrôle de tous les outils numériques à des fins d’espionnage policier ouvre la voie à des risques d’abus ou d’usages massifs extrêmement graves.

Au regard de la place croissante des outils numériques dans nos vies, accepter le principe même qu’ils soient transformés en auxiliaires de police sans que l’on ne soit au courant pose un problème grave dans nos sociétés. Il s’agit d’un pas de plus vers une dérive totalitaire qui s’accompagne au demeurant d’un risque élevé d’autocensure pour toutes les personnes qui auront – de plus en plus légitimement – peur d’être enregistrées par un assistant vocal, que leurs trajets soient pistés, et même que la police puisse accéder aux enregistrements de leurs vies – par exemple si elles ont le malheur de passer nues devant la caméra de leur téléphone ou de leur ordinateur.

Pour toutes ces raisons, l’article 3 de la LOPJ suscite de graves inquiétudes quant à l’atteinte aux droits et libertés fondamentales (droit à la sûreté, droit à la vie privée, au secret des correspondances, droit d’aller et venir librement). C’est pourquoi nous appelons l’ensemble des parlementaires à oeuvrer pour la suppression de ces dispositions de ce projet de loi et à faire rempart contre cette dérive sécuritaire.

Organisations membres de l’OLN signataires : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme, La Quadrature du Net, Le Syndicat des Avocats de France, Le Syndicat de la Magistrature.


Tout le monde déteste les drones

Par : noemie
10 mai 2023 à 08:37

Un an après la légalisation des drones par la loi de « sécurité Intérieure », le gouvernement a publié le 19 avril dernier le décret tant attendu par la police pour faire décoller ses appareils. Aux côtés d’autres associations, nous attaquons ce texte devant le Conseil d’État afin de dénoncer les atteintes aux libertés que portent en eux les drones et continuer de marteler le refus de ces dispositifs qui nourrissent un projet de surveillance de masse toujours plus décomplexé.

Une longue bataille

Rappelez vous, c’était pendant le confinement, en 2020. Les polices de France déployaient alors dans le ciel des drones pour contrôler les rues et ordonner aux personnes de rentrer chez elles. Avec la Ligue des droits de l’Homme, nous nous lancions dans un recours devant le Conseil d’État, qui a abouti à leur interdiction à Paris. Si cet épisode a marqué le début de la visibilité des drones aux yeux de tous·tes, ces engins de surveillance étaient en réalité loin d’être nouveaux. On en observait dès 2007 pour surveiller les banlieues, aux frontières mais aussi dès 2016 en manifestation, notamment dans la contestation contre la loi Travail. Provenant de l’industrie militaire en recherche de débouchés pour rentabiliser ses recherches 1Voir Cities under siege -The new military urbanism, Stephen Graham, accessible ici, les drones se sont petit à petit installés dans les pratiques policières, à coup d’appels d’offres astronomiques et de batailles juridiques.

En effet, les velléités répétées et affichées des autorités pour utiliser ces drones ont été entravées par un certain nombre d’embûches. Malgré la décision du Conseil d’État, la préfecture de police de Paris a continué ostensiblement à les déployer en manifestation au cours de l’année 2020. Pourtant, il n’existait aucun cadre juridique à ce moment-là, ce qui signifiait que toute captation d’images par ces drones était illégale. Nous sommes alors retourné contester leur légalité et avons obtenu une nouvelle victoire, suivie d’une sanction de la CNIL auprès du ministère de l’Intérieur.

Dans une impasse, le gouvernement a choisi la sortie facile : faire adopter une loi qui donnerait un cadre légal aux drones. En toute logique, il a choisi pour cela la loi Sécurité globale, proposition de loi issue de la majorité LaREM à l’objectif assumé de généralisation de la surveillance de l’espace public. Mais au moment où le gouvernement allait arriver à ses fins, le Conseil constitutionnel a mis un nouvel obstacle sur sa route en censurant l’article sur les drones, estimant le cadre trop large et les garanties trop minces. Ce n’est donc qu’après avoir revu sa copie que le gouvernement a finalement réussi à obtenir leur autorisation au travers de la loi « responsabilité pénale et sécurité intérieure », adoptée fin 2021 et dont nous parlions ici. Le nouveau chapitre qu’il crée dans le code de la sécurité intérieure autorise la police à recourir aux drones pour un éventail très large de situations : manifestations et rassemblements jugés comme « susceptibles d’entraîner des troubles graves à l’ordre public », aux abords de lieux ou bâtiments « particulièrement exposés à des risques de commission de certaines infractions » ou encore dans les transports ou aux frontières.

Un déploiement qui ne s’est pas fait attendre

Le décret d’application récemment publié était donc attendu depuis l’année dernière, en ce qu’il précise les conditions d’utilisation et lance ainsi formellement le top départ de la surveillance volante (ou « aéroportée » comme on dit dans le jargon militaro-policier). Dans le cadre d’une procédure de référé (c’est-à-dire une procédure d’urgence), l’Association de Défense des Libertés Constitutionnelles (ADELICO) a attaqué ce texte pour dénoncer la violation des droits qu’entraîne cette surveillance. Nous nous sommes joint·es à cette affaire en déposant vendredi dernier un mémoire en intervention, afin de compléter les arguments de l’ADELICO en soulevant également la violation du droit de l’Union européenne qu’entraîne l’utilisation disproportionnée de ces dispositifs (vous pouvez le lire ici).

Car ce décret ne fait qu’aggraver le cadre général extrêmement permissif des drones. En effet, la loi laisse les mains libres à la police pour décider elle-même quels évènements doivent être surveillés, avec en première ligne les manifestations. Ainsi, il revient au préfet de justifier seul de la nécessité de l’utilisation des drones et, dans le cadre de rassemblements, de démontrer notamment qu’il est « susceptible d’entraîner des troubles graves à l’ordre public » pour avoir recours à cette surveillance. Or, nous l’avons observé de près ces dernières semaines, l’inventivité des préfets est sans borne dès qu’il s’agit de construire des récits et de présupposer des risques à la sécurité afin d’interdire des manifestations ou des casseroles. Néanmoins, un premier recours victorieux a réussi à les clouer au sol à Rouen le 5 mai, le tribunal administratif jugeant leur emploi non nécessaire.La perspective de devoir systématiquement, à chaque fois qu’on voudra manifester, déposer un recours contre les arrêtés préfectoraux d’interdiction, a quelque chose d’épuisant et de décourageant par avance qui avantage évidemment la position du pouvoir et de l’ordre policier.

Empêcher la banalisation

L’arrivée des drones dans l’arsenal policier a de quoi inquiéter : ce dispositif de surveillance ultime, qui se déplace, suit et traque, arrive dans un contexte de très importante répression des mouvements sociaux. Les premières utilisations qui ont suivi la publication du décret démontrent la volonté des préfets de les utiliser à tout va et de les installer dans l’imaginaire collectif. Que ce soit à Mayotte, aux rassemblements des Soulèvements de la Terre dans le Tarn ou à Rouen, lors des manifestations du 1er mai ou pour la finale de la Coupe de France, dès que la foule se rassemble, les drones devraient être là pour surveiller. De façon attendue, ces drones seront également utilisés en priorité dans les quartiers populaires, comme à Nice où la préfecture a annoncé y avoir recours pour « lutter contre le trafic de drogues » avant que l’on apprenne dans dans l’arrêté concerné que cela serait pour une durée de trois mois ! Cette même préfecture des Alpes-Maritimes s’est également empressé de les faire autoriser pour surveiller la frontière franco-italienne. Comme pour les caméras et leurs algorithmes, le but est d’alimenter la croyance que la sécurité passera par la surveillance, sans chercher une quelconque solution alternative qui ne serait pas répressive.

De plus, le décret prévoit que les images captées par drone pourront être conservées sept jours notamment pour être utilisées lors d’enquêtes judiciaires. Nous craignons qu’à partir de ce moment-là les interdictions de recoupements avec des fichiers, prévues uniquement pour la police administrative, ne s’appliquent plus. Ces flux vidéo pourraient alors être utilisés pour faire de l’identification de personnes, notamment à travers le fichier TAJ qui permet aujourd’hui aux policiers d’avoir recours massivement à la reconnaissance faciale, en moyenne, 1600 fois par jours.

L’arrivée des drones s’inscrit dans une logique délibérée de banalisation toujours plus importante de la surveillance de l’espace public, un mois après l’adoption de la loi JO. Si l’opposition contre ces dispositifs est heureusement bien présente, ce nouveau texte affaiblit considérablement le niveau de protection des libertés. Leur défense est ainsi laissée aux associations et militant·es qui devront, pour chaque autorisation préfectorale, contester en urgence leur caractère abusif et infondé devant un juge.

L’audience de cette affaire aura lieu le 16 mai et nous espérons que le Conseil d’État prendra au sérieux les arguments avancés par les associations, à l’heure où la France a troqué sa place de pays défenseur des droits humains pour celle de leader européen de la surveillance.

Nous vous tiendrons au courant de la décision et de la suite combat contre les drones. Et si vous voulez nous aider dans cette lutte, n’hésitez pas à faire un don si vous le pouvez !

Mise à jour du 12 mai 2023 : en réponse à la défense du ministre de l’intérieur, nous venons d’envoyer un mémoire en réplique que vous trouverez ici.

References[+]

References
1 Voir Cities under siege -The new military urbanism, Stephen Graham, accessible ici

Loi JO 2024 : Passage de flambeau au Conseil constitutionnel

Par : noemie
24 avril 2023 à 08:03

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 24 avril 2023.

La loi sur les Jeux olympiques a été définitivement adoptée le 12 avril. Dans la foulée, des député·es de l’opposition ont saisi le Conseil constitutionnel. L’Observatoire des Libertés et du Numérique (OLN) a adressé ses observations dans un mémoire (accessible ici), invitant le Conseil constitutionnel à censurer les articles portant sur la vidéosurveillance algorithmique (article 7), les scanners corporels (article 11) et l’infraction d’intrusion dans les stades (article 12).

Après avoir mené le combat contre la vidéosurveillance algorithmique (VSA) au Parlement, l’OLN a réitéré ses critiques auprès du Conseil constitutionnel contre cette technologie de surveillance de masse, introduites pour la première fois en Europe à travers cette loi. Les dangers que la VSA fait peser sur les libertés découlent directement de la conception et du fonctionnement des logiciels de détection des comportements.

Le mémoire débute par un exposé technique, qui se veut didactique, sur l’élaboration de systèmes algorithmiques. El est ensuite démontré que le recours à la VSA ne répond ni à la condition de nécessité ni à l’exigence de proportionnalité.

D’une part, le gouvernement n’est pas parvenu à prouver de façon concrète et tangible une quelconque utilité ou efficacité de la VSA pour prévenir la délinquance, la criminalité ou les situations supposément risquées. D’autre part, les atteintes aux droits sont trop importantes par rapport à l’objectif poursuivi, les prétendues garanties prévues étant illusoires : celles-ci dépendent toutes du bon vouloir de l’État tandis que l’opacité de la fabrication des algorithmes par le secteur privé n’est jamais remise en question.

Le flou des « évènements » censés être détectés par les algorithmes, qui ne sont jamais définis précisément dans la loi ni au cours des débats parlementaires, a été dénoncé. Ils ne seront précisés qu’ultérieurement par décret. La CNIL sera certes consultée mais son avis n’est pas contraignant. Surtout, il est difficile de compter sur cette institution tant elle s’est révélée défaillante sur le sujet notamment depuis qu’elle a perdu son rôle de contre-pouvoir.

Une décision récente de la Cour constitutionnelle allemande a jugé inconstitutionnels des logiciels de police prédictive. Elle a considéré un traitement algorithmique problématique en ce qu’il crée et révèle de nouvelles informations plus intrusives sur les personnes. Le Conseil Constitutionnel a été invité à s’en inspirer.

L’OLN a également soutenu l’inconstitutionnalité de l’article 11, qui met en place des scanners corporels attentatoires au droit à la vie privée, et de l’article 12, qui créé de nouvelles sanctions disproportionnées en cas d’intrusion dans des stades, et dont il est à craindre qu’elles visent principalement les actions militantes dans le prolongement d’autres dispositions législatives répressives.

Le Conseil constitutionnel a maintenant un mois pour se prononcer. Sa jurisprudence passée, validant les dernières lois sécuritaires (loi sécurité intérieure, loi transposant le règlement de censure terroriste, LOPMI) ne laisse rien augurer de bon. Quoi qu’il en soit, les associations et organisations parties prenantes de l’OLN continueront d’agir contre chacune des expérimentations de la VSA et de dénoncer cette escalade vers un État de surveillance de plus en plus généralisé.

Organisations signataires membres de l’OLN : Le CECIL, Creis-Terminal, la Ligue des droits de l’Homme (LDH), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).

La France, premier pays d’Europe à légaliser la surveillance biométrique

Par : noemie
23 mars 2023 à 08:12

L’article 7 de la loi sur les Jeux olympiques a été adopté ce midi par l’Assemblée, actant l’entrée formelle de la vidéosurveillance algorithmique (VSA) dans le droit français, jusqu’en décembre 2024. À l’ombre du tumulte de la réforme des retraites, et grâce à une procédure comme d’habitude extrêmement rapide, le gouvernement a réussi à faire accepter une des technologies les plus dangereuses jamais déployées. Pour cela, il a usé de stratégies, de mensonges et de récits fictifs, pour que jamais ne soient sérieusement et concrètement discutés le fonctionnement technique de ces outils et leurs conséquences politiques et juridiques en termes de surveillance de masse. Grâce à une majorité totalement désinvestie et au soutien total de l’extrême droite, la VSA a donc pu être légalisée sur la base de mensonges sapant toujours un peu plus le jeu démocratique.

  • Le mensonge de la biométrie : le gouvernement a répété et inscrit dans la loi que la VSA ne relevait pas de la surveillance biométrique. C’est totalement faux. Cette technologie identifie, analyse, classe en permanence les corps, les attributs physiques, les gestes, les silhouettes, les démarches, qui sont incontestablement des données biométriques. Nous n’avons cessé de l’expliquer (voir notre note et notre video), de le rabâcher aux rapporteurs du Sénat et de l’Assemblée ainsi qu’aux députés, comme l’ont également fait 38 organisations internationales et une quarantaine d’eurodéputés qui ont récemment interpellé le gouvernement. Mais celui-ci a continué de s’enfoncer dans ce mensonge à la fois technique et juridique. Ainsi la France viole à nouveau le droit de l’Union européenne et consacre sa place de championne européenne de la surveillance.
  • Le mensonge de l’utilité : le gouvernement a utilisé les Jeux olympiques comme prétexte pour atteindre plus vite l’objectif, fixé depuis des années, de légaliser ces technologies, s’inscrivant par là dans la « tradition », observée partout ailleurs et consistant à instrumentaliser de façon très opportuniste les méga-évènements internationaux. Le gouvernement a réussi à faire croire à une nécessité, fabriquée de toute pièce, pour « repérer les colis suspects » ou « prévenir les mouvements de foule ». Ces évènements sont soudainement devenus la nouvelle priorité du ministère de l’Intérieur et des députés zélés, qui n’ont cessé de résumer la sécurité des JO à ces situations, rarement identifiées comme prioritaires en temps normal, et dont nous démontrions ici que la résolution dépend davantage de maîtrise humaine que de technologie. Ainsi, la VSA a été acceptée sur le seul fondement d’un mythe bien ancré selon lequel la technologie permettrait d’assurer magiquement la sécurité, sans qu’aucune évaluation ni démonstration de l’utilité ou de la proportionnalité de ces technologies très opaques n’ait jamais été honnêtement réalisée.
  • Le mensonge technique : l’application principale de la VSA consiste à identifier des comportements que la police aura préalablement définis comme « suspects ». Arbitraire et dangereux par essence, le fonctionnement de ces algorithmes n’a jamais été expliqué par le gouvernement : et pour cause, il n’est sans doute pas compris par la majorité des décideurs… Incompétence inexcusable ou volonté assumée de noyer le poisson, dans tous les cas, cela a ramené les débats parlementaires à un niveau extrêmement bas, qui n’est pas à la hauteur des enjeux gravissimes soulevés par ces technologies biométriques. Grâce à l’aide des rapporteurs Renaissance Guillaume Vuilletet et Sacha Houlié (le remplaçant) et de quelques députés, ce sont les rhétoriques de minimisation tirées des arguments de vente des entreprises de la VSA, les mensonges et les inepties techniques qui ont prédominé. Ce qui en ressort, c’est l’incapacité patente du Parlement à discuter de questions techniques, mais surtout la crainte légitime que la société doit avoir pour le futur, au vu de l’incompétence des représentants à appréhender les contours et les dangers des prochaines technologies qui émergeront.

À l’heure où les images de violences policières inondent les écrans, où la police, armée de matraques, assure le service après-vente de mesures impopulaires au possible, l’accentuation de la surveillance policière participe d’une stratégie politique visant à étouffer toute contestation.

Il faut dénoncer ces manœuvres permettant à l’État de détourner la réalité des prérogatives de surveillance qu’il s’arroge. Particulièrement dans un contexte où les mots sont sciemment déviés de leur sens, où l’on tente de nous convaincre que « la surveillance c’est la protection », que « la sécurité c’est la liberté », et que « la démocratie c’est le passage en force ». Il est nécessaire de visibiliser, de contrer ce faux jeu démocratique, et de remettre en cause sans relâche les pouvoirs exorbitants attribués à l’appareil policier français. Il n’est pas nécessaire d’évoquer une dystopie « à la chinoise » pour prendre la mesure des dangers. Mieux vaut regarder l’histoire française et le climat politique actuel, pour mesurer et comprendre la fuite en avant sécuritaire visible depuis vingt ans : toujours plus de caméras, de surveillance et de fichiers, dans une dépolitisation croissante des enjeux sociaux, et une perte de repères des décideurs politiques. Ainsi, les débats sur la loi JO ont principalement brillé par la perte de boussole politique des dirigeants qui semblent hermétiques à tout questionnement sur ces sujets.

Cette première légalisation de la vidéosurveillance automatisée est une victoire d’étape pour les industries sécuritaires françaises. Elles qui demandaient depuis des années à pouvoir tester leurs algorithmes sur les populations, pour les perfectionner et les vendre à l’international, les voilà servies. Bientôt Thales, XXII, Two-I et Neuroo pourront vendre leurs logiciels biométriques à d’autres États, tout comme Idemia a vendu sa technologie de reconnaissance faciale à la Chine. La startup XXII n’a même pas attendu le vote de la loi pour annoncer en fanfare qu’elle avait levé 22 millions d’euros pour devenir, selon ses mots « le leader européen » de la VSA.

Du côté des institutions censées préserver les libertés, comme la CNIL, on note une démission totale. Institution dotée de véritables capacités de contre-pouvoir pour mesurer les velléités étatiques de surveillance à sa création en 1978, la CNIL est devenue un service après-vente des mesures gouvernementales et s’applique méticuleusement à accompagner les entreprises à exercer une « bonne » surveillance afin de préserver les intérêts économiques de l’industrie en dépit de toute considération pour les droits et libertés collectives.

Cette première légalisation de la vidéosurveillance automatisée va nécessairement ouvrir la voie à toutes les autres technologies de surveillance biométrique : audiosurveillance algorithmique, reconnaissance faciale, suivi biométrique des personnes a posteriori…

Nous n’allons pas lâcher le combat, nous continuerons de dénoncer les mensonges du gouvernement, nous serons présents dès que la première expérimentation sera mise en œuvre pour documenter les abus inévitables auxquels conduisent ces technologies. Nous chercherons des moyens de les contester devant les tribunaux, et nous nous battrons pour que cette expérimentation ne conduise pas, comme c’est hélas probable, à leur pérennisation.
Et nous continuerons de refuser ces technologies et la Technopolice qu’elles incarnent, notamment en nous battant au niveau européen pour obtenir leur interdiction.

Alors si vous voulez nous aider dans cette lutte, gardez un œil sur ce qu’on pourra lancer dans les mois à venir, et si vous le pouvez n’hésitez pas à faire un don !

❌
❌