❌

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraĂźchir la page.
À partir d’avant-hierFlux principal

Blocage de Tiktok en Nouvelle-CalĂ©donie : le Conseil d’État se dĂ©robe en faveur de l’arbitraire

Par : bastien
2 avril 2025 Ă  10:53

On aurait prĂ©fĂ©rĂ© que ce soit un poisson d’avril : dans une dĂ©cision rendue ce 1er avril 2025, le Conseil d’État a validĂ© le principe de la censure arbitraire et opaque d’un rĂ©seau social. DerriĂšre l’apparente annulation de la dĂ©cision du Premier ministre de l’époque, Gabriel Attal, de bloquer Tiktok, la plus haute juridiction française offre en rĂ©alitĂ© le mode d’emploi de la « bonne censure Â». Cette dĂ©cision est inquiĂ©tante, tant cette affaire aura montrĂ© l’inefficacitĂ© du Conseil d’État Ă  ĂȘtre un rempart efficace contre le fascisme montant.

Le 15 mai 2024, alors que la Nouvelle-CalĂ©donie Ă©tait le thĂ©Ăątre d’une trĂšs forte contestation sociale dans un contexte de passage en force d’une rĂ©forme du collĂšge Ă©lectoral calĂ©donien, le Premier ministre Gabriel Attal annonçait, en mĂȘme temps que l’activation de l’état d’urgence, la censure de Tiktok sur tout le territoire de Nouvelle-CalĂ©donie.

Comme La Ligue des droits de l’homme, ainsi que des habitant·es calĂ©donien·nes, La Quadrature du Net avait attaquĂ© en rĂ©fĂ©rĂ© cette dĂ©cision. Ce premier recours avait Ă©tĂ© rejetĂ© dans les jours qui suivirent pour dĂ©faut d’urgence, mais nous n’avions pas voulu lĂącher l’affaire et avions continuĂ© notre combat contre cette mesure de blocage en l’attaquant Ă  nouveau, cette fois par la procĂ©dure classique -dite « au fond Â»- qui a conduit Ă  la dĂ©cision d’hier.

Formellement, le Conseil d’État a annulĂ© le blocage de Tiktok. Mais derriĂšre cette apparente victoire se cache une dĂ©cision qui ouvre la voie Ă  de futures censures de plateformes en ligne en dehors de tout contrĂŽle dĂ©mocratique.

La validation d’un arbitraire d’État

Cette affaire aura Ă©tĂ© l’occasion de tous les arbitraires. Pour justifier factuellement son blocage, le gouvernement a toujours louvoyĂ© (voir notre rĂ©capitulatif de l’affaire), laissant croire que ce serait d’abord pour lutter contre le terrorisme, puis contre des ingĂ©rences Ă©trangĂšres, pour enfin expliquer que de simples contenus violents l’autorisaient Ă  procĂ©der Ă  un tel blocage (nous revenons sur ce point plus bas). Par la suite, il justifiait lĂ©galement ce blocage en sortant de son chapeau la « thĂ©orie des circonstances exceptionnelles Â». Cette thĂ©orie est une invention du juge administratif datant de plus d’un siĂšcle. Elle a Ă©tĂ© Ă©laborĂ©e Ă  l’occasion d’une guerre – c’est-Ă -dire dans un contexte de suspension du pouvoir civil – et n’avait jamais Ă©tĂ© utilisĂ©e jusqu’à prĂ©sent pour justifier de porter atteinte Ă  la libertĂ© d’expression.

Dans sa dĂ©cision, le Conseil d’État admet que cette « thĂ©orie des circonstances exceptionnelles Â» puisse ĂȘtre invoquĂ©e, pour justifier lĂ©galement le blocage d’une plateforme en ligne dans le cas d’une « pĂ©riode de troubles Ă  l’ordre public d’une gravitĂ© exceptionnelle Â». ArrĂȘtons-nous dĂ©jĂ  sur cette premiĂšre brĂšche Ă  l’État de droit : cela signifie que lorsque cette condition de « trouble Â» est remplie, un gouvernement peut donc porter des atteintes Ă  la libertĂ© d’expression, alors qu’aucune loi existante ne l’y autorise et donc qu’aucune condition prĂ©vue par le lĂ©gislateur n’est Ă  respecter. Cette « thĂ©orie des circonstances exceptionnelles Â» n’a jamais Ă©tĂ© reprise par le lĂ©gislateur : elle ne comporte aucune limite prĂ©cise et n’est prĂ©sente nulle part ailleurs que dans les quelques dĂ©cisions du Conseil d’État. Ce dernier autorise donc un empiĂ©tement pur et simple du pouvoir exĂ©cutif sur le pouvoir lĂ©gislatif.

Et quels sont ces « troubles Ă  l’ordre public d’une gravitĂ© exceptionnelle Â» qui permettent de nier le principe de sĂ©paration des pouvoirs ? On peut lĂ©gitimement se demander si les manifestations des gilets jaunes en 2018 et 2019, Ă©maillĂ©es de violences souvent entretenues par une politique de maintien de l’ordre dĂ©sastreuse, auraient pu ĂȘtre qualifiĂ©es de suffisamment graves. De mĂȘme, les rĂ©voltes suite Ă  la mort de Nahel Merzouk auraient-elles pu justifier le blocage des rĂ©seaux sociaux alors que la droite rĂ©actionnaire française voyait dans ces derniers le coupable idĂ©al et que Emmanuel Macron s’était, Ă  cette occasion, prononcĂ© en faveur de leur censure ?

Ne soyons pas naĂŻf·ves : tout est « exceptionnellement grave Â» pour l’exĂ©cutif et la police. GrĂące Ă  cette notion floue, la voie Ă  tous les abus est ouverte. N’importe quoi servira de prĂ©texte, demain, pour continuer dans la direction de la censure, de la rĂ©ponse rĂ©pressive facile au lieu d’une remise en cause profonde du systĂšme qui a conduit aux violences.

Et l’arbitraire d’État ne s’arrĂȘte pas lĂ  : le Conseil d’État a, d’une certaine maniĂšre, autorisĂ© le gouvernement Ă  ne pas respecter la loi lorsque celle-ci ne lui convient pas. En effet, au moment de la censure, la loi sur l’état d’urgence avait Ă©tĂ© dĂ©clenchĂ©e. Celle-ci autorisait bel et bien le blocage d’une plateforme, mais uniquement dans le cadre de la lutte contre le terrorisme. Or, dans le cas du blocage de Tiktok, il ne s’agissait justement pas de lutte contre le terrorisme. Alors qu’une telle possibilitĂ© de censure visant une plateforme en ligne, prĂ©vue par la loi sur l’état d’urgence, est dĂ©jĂ  trĂšs contestable en soi1Nous avions initialement demandĂ© Ă  ce qu’une question prioritaire de constitutionnalitĂ© (QPC) soit transmise au Conseil constitutionnel. Celle-ci a Ă©tĂ© rejetĂ©e par le Conseil d’État parce qu’il estimait que la loi sur l’état d’urgence n’était pas applicable au litige puisqu’il ne s’agissait pas de lutte contre le terrorisme., le Conseil d’État neutralise encore plus le lĂ©gislateur en permettant d’avoir recours Ă  une thĂ©orie jurisprudentielle qui permet de contourner ces limites.

Un contrĂŽle juridictionnel de pacotille

L’auditoire optimiste pourrait se dire que le juge administratif resterait prĂ©sent pour empĂȘcher les abus de ce recours Ă  la censure en cas de « troubles Ă  l’ordre public d’une gravitĂ© exceptionnelle . Et aprĂšs tout, en ce qui concerne Tiktok, on pourrait ĂȘtre tentĂ© de se rassurer par le fait que la dĂ©cision de censurer le rĂ©seau social a finalement Ă©tĂ© annulĂ©e par le Conseil d’État. Pourtant, dans cette affaire, aprĂšs avoir refusĂ© d’agir au moment oĂč sa dĂ©cision aurait Ă©tĂ© utile, c’est-Ă -dire lorsqu’il Ă©tait saisi en rĂ©fĂ©rĂ© l’annĂ©e derniĂšre, le Conseil d’État a repris Ă  son compte toutes les affirmations grossiĂšres du gouvernement pour justifier le besoin de bloquer la plateforme.

La question de l’existence de certains contenus qui seraient illĂ©gaux au point de couper tout le rĂ©seau social a Ă©tĂ© longuement dĂ©battue en mai 2024 Ă  l’occasion de notre rĂ©fĂ©rĂ©. AprĂšs avoir Ă©tĂ© mis en difficultĂ© lors de l’audience de rĂ©fĂ©rĂ©, le gouvernement s’était enfin dĂ©cidĂ© Ă  produire des exemples de contenus prĂ©tendument illicites
 qui Ă©taient en fait totalement lĂ©gaux. Nous publions ces contenus2Politico avait dĂ©jĂ  publiĂ© certains de ces contenus l’annĂ©e derniĂšre. pour que chacun·e puisse constater que leur illĂ©galitĂ© ne saute pas aux yeux : dĂ©noncer des violences policiĂšres, la constitution de milices privĂ©es avec le soutien des forces de l’ordre, les agressions racistes sur des policiers kanaks, ou encore prendre des photos ou vidĂ©os de lieux en flamme comme l’a fait la presse locale est donc, pour le gouvernement, susceptible de justifier une restriction Ă  la libertĂ© d’expression


Depuis ces quelques exemples produits l’annĂ©e derniĂšre, le gouvernement n’a pas complĂ©tĂ© ses dires. On devine un certain embarras Ă  travers ce silence sur ces fameux contenus censĂ©s ĂȘtre « violents Â» : cette dĂ©cision de bloquer Tiktok ne semble en rĂ©alitĂ© pas avoir Ă©tĂ© prise en raison d’un besoin impĂ©ratif pour restaurer l’ordre sur l’archipel, mais pour couvrir une dĂ©cision politique du Haut-Commissaire (l’équivalent du prĂ©fet en Nouvelle-CalĂ©donie). Fin mai 2024, La Lettre Ă©crivait ainsi que « TrĂšs vite, cependant, le premier ministre a Ă©tĂ© averti de la fragilitĂ© juridique de cette dĂ©cision, prise par le haut-commissaire Louis Le Franc, Ă  la demande du Gouvernement de la Nouvelle-CalĂ©donie, l’organe exĂ©cutif de la collectivitĂ© prĂ©sidĂ© par Louis Mapou. Â» Le mĂ©dia spĂ©cialisĂ© prĂ©cisait Ă©galement que « l’exĂ©cutif a Ă©cartĂ© l’hypothĂšse de dĂ©savouer publiquement le haut-commissaire et les Ă©lus locaux Â» et que le gouvernement n’avait « aucun grief contre TikTok Â». Ce qu’a admis en creux le reprĂ©sentant de Tiktok quelques jours aprĂšs devant le SĂ©nat : il a indiquĂ©, sous serment, que la plateforme n’a non seulement pas reçu de demande de retrait de contenus de la part de l’exĂ©cutif, mais n’a Ă©galement pas dĂ©tectĂ© lui-mĂȘme de contenus illicites une fois le blocage dĂ©cidĂ© par le gouvernement.

Tout cela n’a pourtant pas empĂȘchĂ© le Conseil d’État de valider l’obsession gouvernementale. Pour les juges, il s’agit bien de « contenus incitant au recours Ă  la violence Â»3Les juristes remarqueront probablement que le Conseil d’État ne parle plus de contenus « manifestement illicites Â», mais adopte une formulation beaucoup plus englobante.. Pour appuyer l’illĂ©galitĂ© des contenus diffusĂ©s Ă  l’époque sur Tiktok, le Conseil d’État explique que les « algorithmes Â» de ce rĂ©seau social favoriseraient leur diffusion trĂšs rapide. Il est vrai que des Ă©tudes, notamment d’Amnesty International, ont montrĂ© la grande toxicitĂ© des choix algorithmiques de Tiktok. Et nous ne nous cachons pas sur le fait que nous combattons en gĂ©nĂ©ral ce modĂšle Ă©conomique et technique de rĂ©seau social. Mais, pour ce qui est de la Nouvelle-CalĂ©donie, le gouvernement s’est contentĂ© d’affirmations non-sourcĂ©es, sans rien dĂ©montrer. Dans son mĂ©moire, le Premier ministre affirmait ainsi simplement que le choix de bloquer Tiktok Ă©tait justifiĂ© par « les caractĂ©ristiques des algorithmes utilisĂ©s par “Tiktok”, qui amplifient l’effet de valorisation mimĂ©tique Â» sans fournir d’étude ni mĂȘme de constatations par ses services. Autrement dit, le Conseil d’État se contente d’affirmations du gouvernement pour en faire une gĂ©nĂ©ralitĂ©, crĂ©ant ainsi une forme de prĂ©somption de nĂ©cessitĂ© de bloquer Tiktok. Et, Ă  supposer mĂȘme qu’il y ait eu quelques contenus manifestement illicites sur Tiktok, cela ne devrait pourtant pas permettre de prendre une mesure aussi grave que limiter ou bloquer toute un rĂ©seau social. Ce qu’autorise pourtant le Conseil d’État.

En fin de compte, dans cette affaire, le seul point qui a permis au Conseil d’État d’affirmer que le blocage Ă©tait illĂ©gal rĂ©side dans le fait que le gouvernement n’a pas cherchĂ© Ă  d’abord limiter certaines fonctionnalitĂ©s de la plateforme avant d’en ordonner le blocage complet. En d’autres mots, la dĂ©cision de bloquer est jugĂ©e disproportionnĂ©e uniquement sur le fait que le gouvernement aurait d’abord dĂ» prĂ©venir Tiktok et lui demander de limiter les contenus, avant de pouvoir ordonner le blocage du rĂ©seau social. Le principe mĂȘme de bloquer n’est pas remis en question.

Cet argument s’inscrit dans la continuitĂ© d’une idĂ©e exprimĂ©e par Emmanuel Macron, aprĂšs les rĂ©voltes faisant suite Ă  la mort de Nahel Merzouk, de limiter certaines fonctionnalitĂ©s des rĂ©seaux sociaux, voire les bloquer lors de prochaines Ă©meutes. Le Conseil d’État lĂ©gitime le chantage auquel s’était dĂ©jĂ  adonnĂ© le gouvernement en 2023 : fin juin 2023, les reprĂ©sentants de TikTok, Snapchat, Twitter et Meta Ă©taient convoquĂ©s par le ministre de l’intĂ©rieur, dans le but de mettre une « pression maximale Â» sur les plateformes pour qu’elles coopĂšrent et qui a conduit Ă  des demandes de retraits de contenus hors de tout cadre lĂ©gal (voir notre analyse de l’époque). DĂ©sormais, le gouvernement a une nouvelle arme, la menace de censure, fraĂźchement inventĂ©e par le Conseil d’État, pour forcer les plateformes Ă  collaborer, quitte Ă  retirer des contenus lĂ©gaux.

Mode d’emploi pour le fascisme montant

Il ne s’agit donc absolument pas d’une victoire. Le Conseil d’État valide quasiment toute la dĂ©marche du Premier ministre. DĂ©sormais, mĂȘme pour sauver la face d’un prĂ©fet qui prĂ©fĂšre censurer avant de rĂ©flĂ©chir, un gouvernement peut bloquer une plateforme en ligne, Ă  la condition de trouver sur cette plateforme quelques contenus vaguement violents et de justifier de « troubles Ă  l’ordre public d’une gravitĂ© exceptionnelle Â».

Pas besoin de justifier d’une habilitation par le lĂ©gislateur. Pas besoin de justifier de maniĂšre rigoureuse des contenus incriminĂ©s. Pas besoin de faire la moindre publicitĂ© autour de cette dĂ©cision. Les associations se dĂ©brouilleront pour comprendre l’ampleur et les raisons du blocage, et le gouvernement pourra mĂȘme changer de version si les premiĂšres justifications qu’il aura trouvĂ©es s’avĂšrent bancales.

Lors de l’audience publique, l’avocat de la Ligue des droits de l’Homme, elle aussi requĂ©rante dans cette affaire, avait prĂ©venu que les futurs rĂ©gimes illibĂ©raux s’empareront du mode d’emploi ainsi apportĂ© par le Conseil d’État. De notre cĂŽtĂ©, nous avions rappelĂ© que les rĂ©gimes qui se sont jusqu’alors aventurĂ©s dans la voie de la censure arbitraire d’Internet et qui se sont fait condamner par la Cour europĂ©enne des droits de l’Homme sont tous des rĂ©gimes autoritaires, Russie et Turquie en tĂȘte. Et peut-ĂȘtre, demain, la France.

Car cette dĂ©cision doit ĂȘtre replacĂ©e dans son contexte : celui d’un autoritarisme qui fait la courte-Ă©chelle depuis des annĂ©es Ă  un fascisme dĂ©sormais aux portes du pouvoirs ; celui de garde-fous qui s’avĂšrent inefficaces lorsque l’accompagnement de l’État dans ses dĂ©lires sĂ©curitaires prend la place de la protection des droits ; celui de proximitĂ©s entre dĂ©cideurs publics et lobbys sĂ©curitaires qui interrogent ; celui d’un pouvoir politique qui prĂ©fĂšre la rĂ©ponse facile ou la dĂ©sinformation plutĂŽt que de revoir de fond en comble le systĂšme de violence qu’il renforce ; celui de la remise en question quotidienne d’un du principe fondateur de nos dĂ©mocraties modernes qu’est l’État de droit, par un ministre de l’intĂ©rieur rĂ©cidiviste, ou par une alliance inquiĂ©tante entre une extrĂȘme droite prise la main dans le pot de confiture, un Premier ministre qui sait qu’il sera peut-ĂȘtre le prochain, et une gauche qui a manquĂ© une occasion de se taire.

Quand on voit avec quelle rapiditĂ© l’État de droit est en train de s’écrouler aux États-Unis, on ne peut que s’inquiĂ©ter. Car mĂȘme si Tiktok est une plateforme intrinsĂšquement problĂ©matique, utilisĂ©e comme caisse de rĂ©sonance pour la dĂ©sinformation et autres contenus extrĂȘmement toxiques, la fin ne peut pas tout justifier. L’État de droit se dĂ©compose et le fascisme est aux portes du pouvoir. Il est urgent de porter une voix hautement critique sur ces institutions incapables de protĂ©ger la dĂ©mocratie alors qu’elles devraient ĂȘtre Ă  l’avant-garde de la lutte contre l’extrĂȘme droite et l’autoritarisme. Alors si vous le pouvez, vous pouvez nous aider en nous faisant un don.

References[+]

References
↑1 Nous avions initialement demandĂ© Ă  ce qu’une question prioritaire de constitutionnalitĂ© (QPC) soit transmise au Conseil constitutionnel. Celle-ci a Ă©tĂ© rejetĂ©e par le Conseil d’État parce qu’il estimait que la loi sur l’état d’urgence n’était pas applicable au litige puisqu’il ne s’agissait pas de lutte contre le terrorisme.
↑2 Politico avait dĂ©jĂ  publiĂ© certains de ces contenus l’annĂ©e derniĂšre.
↑3 Les juristes remarqueront probablement que le Conseil d’État ne parle plus de contenus « manifestement illicites Â», mais adopte une formulation beaucoup plus englobante.

Contre l’opacitĂ© de la surveillance locale : Attrap tes arrĂȘtĂ©s prĂ©fectoraux !

Par : bastien
19 décembre 2024 à 08:12

Un des obstacles les plus importants dans la lutte contre la Technopolice est l’opacitĂ© persistante de l’utilisation des technologies de surveillance. Pour contrer cette difficultĂ©, La Quadrature du Net lance aujourd’hui Attrap (pour « Automate de Traque de Termes et de Recherche dans les ArrĂȘtĂ©s PrĂ©fectoraux Â»), un moteur de recherche d’arrĂȘtĂ©s prĂ©fectoraux qui contribue ainsi Ă  une plus grande transparence de l’action de l’administration. Cet outil est destinĂ© aux journalistes, militant·es, avocat·es, habitant·es qui souhaitent faire des recherches facilement et rapidement dans la masse d’arrĂȘtĂ©s prĂ©fectoraux, et ainsi pouvoir connaĂźtre quels sont les outils de surveillance et de contrĂŽle utilisĂ©s par l’État sur elles et eux.

Ces derniĂšres annĂ©es, la multiplication des outils de surveillance Ă  disposition des autoritĂ©s publiques s’est accompagnĂ©e d’une augmentation du pouvoir des prĂ©fets, Ă©manations locales de l’État. Par exemple, depuis 1995, il revient aux prĂ©fets de dĂ©partement d’autoriser les communes ou commerces Ă  mettre en place de la vidĂ©osurveillance. On retrouve ce mĂȘme mĂ©canisme d’autorisation prĂ©fectorale pour les drones depuis 2023 ou, depuis la loi sur les Jeux Olympiques, pour la vidĂ©osurveillance algorithmique dont la premiĂšre autorisation a Ă©tĂ© dĂ©livrĂ©e en avril 2024.

Les prĂ©fets sont Ă©galement dotĂ©s de pouvoirs d’interdictions ou de restrictions. Ils peuvent ainsi interdire des manifestations, crĂ©er des locaux de rĂ©tention administrative (Ă©quivalent temporaire des centres de rĂ©tention administratifs, CRA, qui servent Ă  enfermer les personnes Ă©trangĂšres avant de les expulser) ou, depuis la loi SILT (qui introduisait en 2017 dans le droit commun les mesures de l’état d’urgence), mettre en place des « pĂ©rimĂštres de sĂ©curitĂ© Â».

En thĂ©orie, toutes ces dĂ©cisions des prĂ©fets doivent ĂȘtre publiĂ©es. Mais en pratique, il est trĂšs difficile d’accĂ©der Ă  cette information. Parfois, les prĂ©fectures communiquent sur les rĂ©seaux sociaux. Mais cela reste exceptionnel et cantonnĂ© Ă  quelques grands Ă©vĂ©nements. La plupart du temps, toutes ces dĂ©cisions sont enterrĂ©es au fond des recueils des actes administratifs des prĂ©fectures.

Les recueils des actes administratifs, triste exemple d’inaccessibilitĂ©

Les recueils des actes administratifs (RAA) sont les journaux officiels des prĂ©fectures : dans un objectif trĂšs thĂ©orique de transparence, beaucoup de dĂ©cisions prises par les prĂ©fectures doivent ĂȘtre publiĂ©e dans ces RAA. Cette publicitĂ© est cependant limitĂ©e en pratique : les RAA sont dĂ©libĂ©rĂ©ment organisĂ©s de maniĂšre Ă  ĂȘtre les moins accessibles possibles.

Prenons un cas pratique pour illustrer cette inaccessibilitĂ©. De passage Ă  Antibes le week-end du 25-26 aoĂ»t 2024, vous avez constatĂ© qu’un drone survolait le centre-ville. Vous souhaitez alors connaĂźtre la dĂ©cision (en l’occurrence ici, un arrĂȘtĂ©) qui a autorisĂ© cette surveillance et voir les justifications avancĂ©es par les pouvoirs publics pour son dĂ©ploiement, la durĂ©e d’autorisation ou encore les personnes responsables.

Une recherche sur le site de la prĂ©fecture des Alpes-Maritimes ne retourne aucun rĂ©sultat. Vous devez alors rechercher par vous-mĂȘme dans les RAA. Mais ceux de la prĂ©fecture des Alpes-Maritimes sont dispersĂ©s dans une multitude de fichiers PDF, eux-mĂȘme Ă©parpillĂ©s dans de nombreuses pages et sous-pages du site de l’administration. Vous devez donc scruter l’ensemble des recueils mensuels, spĂ©ciaux et spĂ©cifiques. Mais gare Ă  vous si vous ouvrez trop rapidement plusieurs fichiers PDF : vous vous retrouverez bloqué·e par la plateforme et devrez attendre plusieurs dizaines de minutes avant de pouvoir continuer ! De plus, en utilisant la fonction Recherche de votre navigateur dans les fichiers PDF des RAA publiĂ©s autour de la date recherchĂ©e, vous ne trouvez nulle part le terme « aĂ©ronef Â» (expression lĂ©galement consacrĂ©e pour dĂ©signer les drones).

Finalement, en recherchant « drone Â», vous trouvez une petite ligne dans le sommaire du RAA spĂ©cial du 14 aoĂ»t. En vous rendant Ă  la page indiquĂ©e dans le sommaire, vous constaterez qu’il s’agit bien de l’arrĂȘtĂ© prĂ©fectoral que vous cherchez. Mais il n’est pas possible de sĂ©lectionner le texte (donc de faire une recherche dans le corps des arrĂȘtĂ©s du RAA) parce que les services de la prĂ©fecture ont publiĂ©e sa version scannĂ©e


Il ne s’agit pas du pire exemple, mĂȘme si certaines prĂ©fectures rendent leurs recueils d’actes administratifs un peu plus accessibles que celle des Alpes-Maritimes. Et, dans notre cas pratique, il s’agissait de retrouver un arrĂȘtĂ© prĂ©cis. Autant dire qu’il n’est pas possible de faire une veille efficace, et donc d’exercer un contrĂŽle sur les actes pris par les prĂ©fectures, notamment en termes de surveillance de la population.

Une interface unique pour rendre accessible les recueil des actes administratifs

Pour contourner ces obstacles pratiques, nous avons crĂ©Ă© Attrap. Il s’agit d’un moteur de recherche qui analyse automatiquement les sites des prĂ©fectures, tĂ©lĂ©charge les diffĂ©rents fichiers PDF des RAA, reconnaĂźt les caractĂšres, extrait le texte et rend tout cela disponible dans une interface web unique. À partir de cette derniĂšre, vous pouvez alors rechercher des mots-clĂ©s dans les RAA de toutes les prĂ©fectures ou certaines seulement, trier les rĂ©sultats par pertinence ou chronologiquement, ou encore faire des recherches avancĂ©es avec les mots « AND Â» ou « OR Â». Ainsi, l’arrĂȘtĂ© d’autorisation de drones de notre exemple peut se trouver en quelques instants.

Mieux ! Si vous savez coder et voulez dĂ©velopper des fonctionnalitĂ©s que n’offre pas Attrap (par exemple un systĂšme de statistiques, de veille, ou d’analyse plus poussĂ©e des arrĂȘtĂ©s prĂ©fectoraux), vous pouvez utiliser librement l’API du service. C’est grĂące Ă  celle-ci que nous avons crĂ©Ă© les robots de veille Mastodon Attrap’Surveillance (qui dĂ©tecte la vidĂ©osurveillance, la VSA et les drones), Attrap’Silt (qui dĂ©tecte les pĂ©rimĂštres de sĂ©curitĂ© de la loi Silt) et Attrap’LRA (qui dĂ©tecte les crĂ©ations de locaux de rĂ©tention administrative). Et le code source de notre robot est lui aussi libre.

Redonner du pouvoir aux individus

Attrap est un nouvel outil pour, par exemple, les groupes locaux Technopolice qui documentent et veillent sur le dĂ©veloppement des technologies de surveillance, dans nos quartiers, villes et villages. Cet outil permet ainsi de rendre visible, en alertant les habitant·es, de ce que la police voudrait invisible : la surveillance de nos rues et donc de nos vies. Il permettra Ă©galement de documenter qui seront les futurs cobayes de la vidĂ©o surveillance algorithmique (VSA) dans le cadre de la loi JO qui se poursuit jusqu’en mars 2025.

Ainsi, c’est grĂące Ă  Attrap que nous avons pu par exemple visibiliser les usages de VSA cette annĂ©e, y compris saisir la CNIL d’une plainte lorsque la prĂ©fecture de police de Paris a utilisĂ© cette technologie illĂ©galement. C’est Ă©galement grĂące Ă  cet outil que le groupe Technopolice Marseille a pu documenter les usages massifs de drones dans la citĂ© phocĂ©enne, notamment lors des « opĂ©rations place nette Â», vaste sĂ©quence mĂ©diatique de GĂ©rald Darmanin au bilan trĂšs critiquĂ©, ou pour surveiller le centre de rĂ©tention administrative du Canet (arrĂȘtĂ© qui vient d’ĂȘtre suspendu par la justice suite Ă  un recours de l’Ordre des avocats au barreau de Marseille et de La Cimade, soutenus par le Syndicat des Avocats de France, le Syndicat de la magistrature et le Gisti).

Attrap comporte encore quelques limites. Pour l’instant, seule une trentaine de prĂ©fectures de dĂ©partement et deux prĂ©fectures de rĂ©gion sont supportĂ©es. L’ajout d’une nouvelle administration nĂ©cessite du temps puisqu’il faut s’adapter Ă  la maniĂšre qu’a chaque prĂ©fecture de rĂ©pertorier en ligne ses RAA. Également, pour la plupart des prĂ©fectures, seuls les RAA de l’annĂ©e 2024 sont indexĂ©s. Mais la couverture d’Attrap s’amĂ©liorera dans les prochains mois.

Pour amĂ©liorer Attrap, nous organisons un hackathon lors du 38Ăšme Chaos Communication Congress (38C3) Ă  Hambourg en Allemagne. Si vous aimez le Python, n’hĂ©sitez pas Ă  venir ! Mais si vous n’ĂȘtes pas au 38C3, vous pouvez Ă©galement vous rendre sur notre canal Matrix dĂ©diĂ© pour commencer Ă  contribuer ! đŸ€“

À l’avenir, d’autres fonctionnalitĂ©s seront Ă©galement ajoutĂ©es. Nous prĂ©voyons notamment d’ajouter un systĂšme de veille, qui vous permettra d’ĂȘtre notifié·e par email des derniers rĂ©sultats sans avoir Ă  crĂ©er vous-mĂȘme votre propre robot de veille.

Par cet outil, nous souhaitons donner plus de pouvoirs aux personnes concernĂ©es par les dĂ©cisions prĂ©fectorales. Vous pouvez dĂšs aujourd’hui avoir un aperçu des mesures les moins acceptables que les prĂ©fectures ont tendance Ă  enterrer au fond de leurs RAA : interdictions de manifestations, vidĂ©osurveillance, drones, vidĂ©osurveillance algorithmique, interdictions de festivals de musique clandestins, mesures de police justifiĂ©es par des appels au « zbeul Â» sur les rĂ©seaux sociaux, etc.

Nous espĂ©rons qu’Attrap permettra de mieux visibiliser l’action locale (et les abus) de l’État. L’opacitĂ© entretenue par les prĂ©fectures vient de perdre un peu de terrain. Pour nous aider Ă  continuer nos actions, vous pouvez nous faire un don. Et si vous voulez contribuer Ă  Attrap, rendez-vous sur le canal Matrix dĂ©diĂ©.

Notation algorithmique: l’Assurance Maladie surveille les plus pauvres et harcĂšle les mĂšres prĂ©caires

Par : bastien
5 décembre 2024 à 07:21

Depuis 2021, nous documentons via notre campagne France ContrĂŽle les algorithmes de contrĂŽle social utilisĂ©s au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysĂ© le recours aux algorithmes de notation. AprĂšs avoir rĂ©vĂ©lĂ© que l’algorithme utilisĂ© par la CAF visait tout particuliĂšrement les plus prĂ©caires, nous dĂ©montrons, via la publication de son code1Plus prĂ©cisĂ©ment, nous avons eu accĂšs Ă  l’ensemble des odds ratio associĂ©s aux variables, ce qui nous a permis de rĂ©tro-ingĂ©niĂ©rer le code de l’algorithme., que l’Assurance Maladie utilise un algorithme similaire ciblant directement les femmes en situation de prĂ©caritĂ©.

Depuis 2018, un algorithme dĂ©veloppĂ© par l’Assurance Maladie (CNAM) attribue une note, ou score de suspicion, Ă  chaque foyer bĂ©nĂ©ficiant de la ComplĂ©mentaire SantĂ© Solidaire gratuite (C2SG), soit 6 millions de personnes parmi les plus pauvres de France2La C2S gratuite (C2SG) est une complĂ©mentaire santĂ© gratuite accordĂ©e sous conditions de revenus et de composition familiale. RĂ©servĂ©e aux foyers les plus prĂ©caires, elle bĂ©nĂ©ficiait, en 2023, Ă  5,9 millions de personnes (voir ici). Le plafond annuel de ressources de la C2SG a Ă©tĂ© fixĂ© Ă  9 719 € pour une personne seule, en mĂ©tropole, au 1er avril 2023, modulable en fonction de la composition du foyer du demandeur (voir ici). AttribuĂ©e au niveau du foyer et non au niveau individuel, elle sert Ă  couvrir tout ou partie des frais restant Ă  la charge de l’assuré·e. La C2S peut aussi ĂȘtre soumise Ă  participation financiĂšre en cas de revenus lĂ©gĂšrement supĂ©rieurs (1,5 million de personnes).. Cette note sert Ă  sĂ©lectionner les foyers devant faire l’objet d’un contrĂŽle. Plus elle est Ă©levĂ©e, plus la probabilitĂ© qu’un foyer soit contrĂŽlĂ© est grande. Suite Ă  une erreur de la CNAM, nous avons pu avoir accĂšs au code source de cet algorithme que nous rendons public avec cet article. Le constat est accablant.

L’algorithme cible dĂ©libĂ©rĂ©ment les mĂšres prĂ©caires. Ces derniĂšres, ouvertement prĂ©sentĂ©es dans des documents officiels par les responsables de la CNAM comme Ă©tant « les plus Ă  risques d’anomalies et de fraude Â»3Voir ce document de prĂ©sentation du modĂšle de datamining en « ComitĂ© de Direction Fraude Â» le 11 janvier 2020. C’est ce document qui a Ă©tĂ© mal occultĂ© par les Ă©quipes de la CNAM., reçoivent un score de suspicion plus Ă©levĂ© que le reste des assuré·es. En retour, elles subissent un plus grand nombre de contrĂŽles. Notons que les – trop rares – tĂ©moignages dont nous disposons montrent que ces contrĂŽles peuvent notamment aboutir Ă  des suspensions abusives de couverture santĂ© entraĂźnant des ruptures d’accĂšs aux soins aux consĂ©quences particuliĂšrement graves, et ce, pour l’ensemble des ayants droit du foyer dont les enfants4Si la violence des contrĂŽles organisĂ©s par la CAF sont particuliĂšrement bien documentĂ©s – voir notamment les travaux des collectifs Changer de Cap et Stop ContrĂŽles –, il n’existe pas, Ă  notre connaissance, de travail Ă©quivalent sur les contrĂŽles CNAM. Nous avons cependant pu Ă©changer avec des associations de dĂ©fense des droits des assuré·es qui ont confirmĂ© l’existence de suspensions abusives de couverture santĂ©..

Stigmatiser les femmes précaires

« PremiĂšre demande dont le demandeur est une femme de plus de 25 ans avec plus d’un majeur et au moins un mineur dans le foyer Â»5Voir ce document de prĂ©sentation du modĂšle de datamining en « ComitĂ© de Direction Fraude Â» le 11 janvier 2020. C’est ce document qui a Ă©tĂ© mal occultĂ© par les Ă©quipes de la CNAM.. Voici, mot pour mot, comment est dĂ©crit, au dĂ©tour d’une slide PowerPoint, ce que les responsables de la CNAM appellent le « profil-type du fraudeur Â»6L’expression « profil-type du fraudeur Â» est tirĂ©e du rapport 2020 de lutte contre la fraude de l’Assurance Maladie disponible ici.. C’est ce « profil-type Â» que l’algorithme est chargĂ© d’aller dĂ©tecter parmi les assuré·es. Plus une personne se rapproche de ce profil, plus son score de suspicion est Ă©levĂ© et sa probabilitĂ© d’ĂȘtre contrĂŽlĂ©e est grande.

L’analyse du code de l’algorithme vient confirmer cette description. Parmi les variables utilisĂ©es par l’algorithme et augmentant le score de suspicion, on trouve notamment le fait d’ĂȘtre une femme, d’avoir des enfants mineurs ou d’ĂȘtre Ăągé·e de plus de 25 ans7Un premier modĂšle a Ă©tĂ© utilisĂ© par l’Assurance Maladie entre 2018 et 2021. Visant Ă  prĂ©dire le risque d’indus, il est basĂ© sur une rĂ©gression logistique simple comprenant 5 variables en entrĂ©e, dont le sexe, l’ñge ou la composition du foyer. En 2021, ce modĂšle a Ă©tĂ© modifiĂ© Ă  la marge. L’entraĂźnement semble ĂȘtre rĂ©alisĂ© dans les « rĂšgles de l’art Â», Ă  partir de la sĂ©lection alĂ©atoire de plusieurs milliers de dossiers, envoyĂ©s aux Ă©quipes de contrĂŽle puis utilisĂ©s comme base d’apprentissage. Pour plus de dĂ©tails, voir l’analyse sur notre Gitlab..

Si cet algorithme ne fait pas directement apparaĂźtre de critĂšres liĂ©s Ă  la prĂ©caritĂ© Ă©conomique, c’est tout simplement que ce critĂšre est dĂ©jĂ  prĂ©sent de base dans la dĂ©finition de la population analysĂ©e. BĂ©nĂ©ficiaire de la C2SG, cette « femme de plus de 25 ans Â» fait partie des 6 millions de personnes les plus pauvres de France, dont la majoritĂ© est allocataire du RSA et/ou privĂ©e d’emploi8Pour une prĂ©sentation du public concernĂ© par la C2SG, voir notamment le rapport annuel 2023 portant sur la ComplĂ©mentaire SantĂ© Solidaire de la Direction de la SĂ©curitĂ© Sociale disponible ici..

Vers un ciblage des personnes malades ou en situation de handicap ?

En complĂ©ment du code de l’algorithme utilisĂ© depuis 2018, nous avons obtenu celui d’un modĂšle expĂ©rimental dĂ©veloppĂ© en vue d’évolutions futures. En plus de cibler les mĂšres prĂ©caires, ce modĂšle ajoute aux critĂšres venant augmenter le score de suspicion d’un·e assuré·e le fait d’ĂȘtre en situation de handicap (« bĂ©nĂ©ficier d’une pension d’invaliditĂ© Â»), d’ĂȘtre malade (ĂȘtre « consommateur de soin Â» ou avoir « perçu des indemnitĂ©s journaliĂšres Â», c’est-Ă -dire avoir Ă©tĂ© en arrĂȘt maladie) ou encore
 d’ĂȘtre « en contact avec l’Assurance Maladie Â»9Voir ce document de prĂ©sentation du modĂšle de datamining en « ComitĂ© de Direction Fraude Â» le 11 janvier 2020. C’est ce document qui a Ă©tĂ© mal occultĂ© par les Ă©quipes de la CNAM. Ajoutons qu’il est possible que les Ă©quipes de la CNAM aient rĂ©alisĂ© des traitements illĂ©gaux pour arriver Ă  ces tristes conclusions. Si le modĂšle alternatif nĂ©cessite des croisements de donnĂ©es illĂ©gaux – rappelons par ailleurs qu’il est question de donnĂ©es de santĂ© – il est lĂ©gitime de s’interroger sur la base lĂ©gale Ă  partir de laquelle son « efficience Â» a pu ĂȘtre testĂ©e..

Une prĂ©cision s’impose. Le fait que ce modĂšle expĂ©rimental n’ait pas Ă©tĂ© gĂ©nĂ©ralisĂ© n’est en rien liĂ© Ă  un sursaut de dĂ©cence de la part de la CNAM. Son « efficience Â» fut au contraire vantĂ©e dans des documents distribuĂ©s lors de sa prĂ©sentation en « ComitĂ© de direction Fraude Â» dĂ©but 202010Voir ce document de prĂ©sentation du modĂšle de datamining en « ComitĂ© de Direction Fraude Â» le 11 janvier 2020. C’est ce document qui a Ă©tĂ© mal occultĂ© par les Ă©quipes de la CNAM.. Le seul problĂšme, y expliquent les Ă©quipes de statisticien·nes de la CNAM, est que son utilisation n’est pas lĂ©gale car ce nouveau modĂšle nĂ©cessiterait un « croisement de donnĂ©es non autorisĂ© Â». Pour pouvoir le mettre en place, les Ă©quipes cherchent Ă  appĂąter les dirigeantâž±es de la CNAM afin de gagner leur appui pour obtenir le changement rĂ©glementaire nĂ©cessaire Ă  la mise en place de ce croisement de donnĂ©es11Le croisement demandĂ© semble concerner notamment la base SIAM Erasme, soit une base de donnĂ©es nominatives particuliĂšrement intrusives puisque portant sur les dĂ©penses de santĂ©. Voir ce rapport de la Cour des Comptes. L’accĂšs aux donnĂ©es des comptes bancaires semble aussi ĂȘtre au centre des « limitations rĂ©glementaires Â» empĂȘchant la CNAM de gĂ©nĂ©raliser les modĂšles expĂ©rimentaux..

Opacité et indécence

S’il est une chose cruciale que montrent les documents que nous rendons publics, c’est que les dirigeantâž±es de la CNAM sont parfaitement au courant de la violence des outils qu’ils et elles ont validĂ©. Nul besoin d’ĂȘtre expert·e en statistique pour comprendre les descriptions retranscrites ci-dessus relatives du « profil-type du fraudeur Â»12L’expression « profil-type du fraudeur Â» est tirĂ©e du rapport 2020 de lutte contre la fraude de l’Assurance Maladie disponible ici. que l’algorithme est chargĂ© de cibler.

Mais plutĂŽt que de s’y opposer, les responsables de la CNAM ont prĂ©fĂ©rĂ© utiliser l’opacitĂ© entourant son fonctionnement pour en tirer profit. Technique « Ă  la pointe de la technologie Â», « intelligence artificielle Â» permettant une « dĂ©tection proactive Â» de la fraude, outil prĂ©dictif « Ă  la Minority Report Â» : voici comment, au grĂ© de rapports officiels ou d’interventions publiques, ce type d’outil est vantĂ©13Ces citations se rĂ©fĂšrent globalement Ă  l’ensemble des algorithmes de notation utilisĂ© par la CNAM Ă  des fins de contrĂŽle, ce qui inclut tant l’algorithme de notation des bĂ©nĂ©ficiaires de la C2SG que les algorithmes utilisĂ© pour le profilage et le contrĂŽle des professionnels de santĂ©. Voir le site de l’assurance maladie, le rapport annuel 2021 de lutte contre la fraude Ă  l’assurance maladie disponible ici et l’article publiĂ© en 2022 sur Challenges, « Pour dĂ©busquer les fraudeurs, la SĂ©cu met le paquet sur l’IA et les cyber-enquĂȘteurs Â» et le 30 septembre 2022 disponible ici.. L’absence de transparence vis Ă  vis du grand public quant aux critĂšres de ciblage de l’algorithme permet de masquer la rĂ©alitĂ© des politiques de contrĂŽles. Cette situation permet alors aux dirigeant.es de l’Assurance Maladie de faire briller leurs compĂ©tences gestionnaires et leur capacitĂ© d’innovation sur le dos des plus prĂ©caires.

Au caractĂšre indĂ©cent d’une telle prĂ©sentation, ajoutons ici qu’elle est en plus mensongĂšre. Car, contrairement Ă  la maniĂšre dont il est prĂ©sentĂ©, l’algorithme n’est pas construit pour dĂ©tecter les seules situations de fraudes. La documentation technique montre qu’il est entraĂźnĂ© pour prĂ©dire le fait qu’un dossier prĂ©sente ce que l’Assurance Maladie appelle une « anomalie Â», c’est Ă  dire le fait que les revenus d’un·e assuré·e dĂ©passe le plafond de revenus de la C2S14Pour qu’une anomalie soit dĂ©clarĂ©e comme fraude, il faut que le niveau de revenu constatĂ© aprĂšs contrĂŽle soit supĂ©rieur Ă  3 fois le plafond de la C2S. Voir notamment le rapport annuel 2021 de lutte contre la fraude disponible ici.. Or seule une partie de ces « anomalies Â» – lorsque l’écart entre les revenus et le plafond dĂ©passe un certain montant – est classifiĂ©e comme fraude par l’Assurance-Maladie. Tout laisse Ă  penser que la majoritĂ© des « anomalies Â» dĂ©tectĂ©es par l’algorithme rĂ©sulte avant tout d’erreurs involontaires, liĂ©es Ă  la complexitĂ© des critĂšres d’attribution de la C2SG qui inclut notamment l’ensemble des revenus dont le foyer dispose, et ce, jusqu’aux cadeaux et dons familiaux15Si nous n’avons pu trouver de chiffres prĂ©cis quant Ă  la proportion d’« anomalies Â» liĂ©es Ă  des erreurs involontaires dans le cas de la C2SG, nous nous basons sur les Ă©tudes existantes portant sur l’origine des trop-perçus liĂ©s au Revenu de SolidaritĂ© Active (RSA) dont les conditions d’attribution – nonobstant la frĂ©quence trimestrielle ou annuelle des dĂ©clarations – sont similaires Ă  celle de la C2SG. Or, les Ă©tudes portant sur les RSA dĂ©montrent sans exception que la trĂšs grande majoritĂ© des trop-perçus sont liĂ©s Ă  des erreurs dĂ©claratives liĂ©s Ă  la complexitĂ© dĂ©clarative de cette prestation. Plusieurs de ces Ă©tudes sont citĂ©es dans cet article..

Cette communication est finalement Ă  mettre en perspective face aux enjeux financiers. En 2022, le directeur de l’Assurance Maladie annonçait que la fraude Ă  l’ensemble de la C2S Ă©tait estimĂ©e Ă  1% de son coĂ»t, soit 25 millions sur plus de 2,5 milliards d’euros16En 2022, le directeur de l’Assurance Maladie a prĂ©sentĂ© les premiĂšres estimations devant le SĂ©nat. Son audition est disponible ici. Voir aussi le rapport annuel de lutte contre la fraude de l’Assurance Maladie 2021 disponible ici. Les chiffres des montants de la C2S (gratuite et avec participation financiĂšre) gĂ©rĂ©s par la CNAM sont disponibles dans le rapport annuel 2023 de la direction de la sĂ©curitĂ© sociale.. En revanche, le taux de non-recours Ă  cette prestation sociale Ă©tait lui estimĂ© Ă  plus de 30%, soit un « gain Â» d’environ
 un milliard d’euros pour la CNAM17Voir Mathilde Caro, Morgane Carpezat, LoĂŻcka Forzy, « Le recours et le non-recours Ă  la complĂ©mentaire santĂ© solidaire. Les dossiers de la Drees 2023 Â», disponible ici.. Ces chiffres soulignent l’hypocrisie politique de l’importance de lutter contre la fraude Ă  la C2SG – et la nĂ©cessitĂ© des outils dopĂ©s Ă  l’intelligence artificielle – tout en dĂ©montrant que le recours Ă  de tels outils est avant tout une question d’image et de communication au service des dirigeant·es de l’institution.

Technique et déshumanisation

Il est une derniĂšre chose que mettent en lumiĂšre les documents que nous rendons public. RĂ©digĂ©s par les Ă©quipes de statisticien·nes de la CNAM, ils offrent un Ă©clairage particuliĂšrement cru sur l’absence flagrante de considĂ©ration Ă©thique par les Ă©quipes techniques qui dĂ©veloppent les outils numĂ©riques de contrĂŽle social. Dans ces documents, nulle part n’apparaĂźt la moindre remarque quant aux consĂ©quences humaines de leurs algorithmes. Leur construction est abordĂ©e selon des seules considĂ©rations techniques et les modĂšles uniquement comparĂ©s Ă  l’aune du sacro-saint critĂšre d’efficience.

On perçoit alors le risque que pose la numĂ©risation des politiques de contrĂŽle dans le poids qu’elle donne Ă  des Ă©quipes de data-scientists coupĂ©es des rĂ©alitĂ©s de terrain – ils et elles ne seront jamais confrontĂ©es Ă  la rĂ©alitĂ© d’un contrĂŽle et Ă  leurs consĂ©quences en termes d’accĂšs aux soins – et nourries d’une vision purement mathĂ©matique du monde.

On apprĂ©hende aussi l’intĂ©rĂȘt d’une telle approche pour les responsables des administrations sociales. Ils et elles n’ont plus Ă  faire face aux Ă©ventuelles rĂ©ticences des Ă©quipes de contrĂŽleur·ses lors de la dĂ©finition des politiques de contrĂŽle18Sur la contestation lors de l’élaboration de politiques de contrĂŽle par les Ă©quipes internes Ă  la CNAF, voir le livre ContrĂŽler les assistĂ©s. GenĂšses et usage d’un mot d’ordre, de Vincent Dubois, page 250.. Ils et elles n’ont d’ailleurs mĂȘme plus Ă  expliquer la façon dont ces politiques ont Ă©tĂ© construites aux Ă©quipes de contrĂŽleur·ses, Ă  qui il est simplement demandĂ© de contrĂŽler les dossiers les moins bien notĂ©s par un algorithme-boĂźte-noire.

Le problùme n’est pas technique mais politique

Depuis maintenant deux ans, nous documentons la gĂ©nĂ©ralisation des algorithmes de notation Ă  des fins de contrĂŽle au sein de notre systĂšme social. À l’instar de la CNAM, nous avons montrĂ© qu’ils Ă©taient aujourd’hui utilisĂ©s Ă  la Caisse Nationale des Allocations Familiales (CNAF), l’Assurance-Vieillesse ou encore la MutualitĂ© Sociale Agricole et ont Ă©tĂ© expĂ©rimentĂ©s Ă  France Travail.

Depuis deux ans, nous alertons sur les risques associĂ©s Ă  l’essor de ces techniques, tant en termes de surveillance numĂ©rique que de discriminations et de violence institutionnelle. Surtout, nous n’avons eu de cesse de rĂ©pĂ©ter que, quelques soient les institutions sociales, ces algorithmes ne servent qu’un seul objectif : faciliter l’organisation de politiques de harcĂšlement et de rĂ©pression des plus prĂ©caires, et ce grĂące Ă  l’opacitĂ© et au vernis scientifique qu’ils offrent aux responsables des administrations sociales.

C’est dĂ©sormais chose prouvĂ©e pour deux administrations. Pour la CNAM avec cet article. Mais aussi pour la CNAF, dont nous avons publiĂ© il y a tout juste un an le code de l’algorithme de notation alimentĂ© par les donnĂ©es personnelles de plus de 30 millions de personnes, et que nous avons attaquĂ© devant le Conseil d’État en octobre dernier avec 14 autres organisations en raison du ciblage des personnes en situation de prĂ©caritĂ©, de handicap ou encore les mĂšres isolĂ©es.

Nous espĂ©rons que cet article, associĂ© Ă  ceux publiĂ©s sur la CNAF, finira de dĂ©montrer qu’il n’est pas nĂ©cessaire d’accĂ©der au code de l’ensemble de ces algorithmes pour connaĂźtre leurs consĂ©quences sociales. Car le problĂšme n’est pas technique mais politique.

Vendus au nom de la soi-disant « lutte contre la fraude sociale Â», ces algorithmes sont en rĂ©alitĂ© conçus pour dĂ©tecter des trop-perçus, ou indus, dont toutes les Ă©tudes montrent qu’ils se concentrent sur les personnes prĂ©caires en trĂšs grande difficultĂ©. En effet, ces indus sont largement le fait d’erreurs dĂ©claratives involontaires consĂ©cutives Ă  deux principaux facteurs: la complexitĂ© des rĂšgles d’attribution des minima sociaux (RSA, AAH, C2SG
) et des situations personnelles de grande instabilitĂ© (personnelle, professionnelle ou administrative). Un ancien responsable de la CNAF expliquait ainsi que « Les indus s’expliquent [
] par la complexitĂ© des prestations, le grand nombre d’informations mobilisĂ©es pour dĂ©terminer les droits et l’instabilitĂ© accrue de la situation professionnelle des allocataires Â», ce qui est avant tout le cas pour les « prestations liĂ©es Ă  la prĂ©caritĂ© [
] trĂšs tributaires de la situation familiale, financiĂšre et professionnelle des bĂ©nĂ©ficiaires Â»19Voir les articles d’un directeur du service « contrĂŽle et lutte contre la fraude Â». Le premier « Du contrĂŽle des pauvres Ă  la maĂźtrise des risques Â» a Ă©tĂ© publiĂ© en 2006 et est disponible ici. Le second est intitulĂ© « Le paiement Ă  bon droit des prestations sociales des CAF Â» publiĂ© en 2013 et disponible ici..

Autrement dit, ces algorithmes ne peuvent pas ĂȘtre amĂ©liorĂ©s car ils ne sont que la traduction technique d’une politique visant Ă  harceler et rĂ©primer les plus prĂ©caires d’entre nous.

Lutter

L’hypocrisie et la violence de ces pratiques et des politiques qui les sous-tendent doivent ĂȘtre dĂ©noncĂ©es et ces algorithmes abandonnĂ©s. Quant aux responsables qui les appellent de leurs vƓux, les valident et les promeuvent, ils et elles doivent rĂ©pondre de leur responsabilitĂ©.

Pour nous aider à continuer à documenter ces abus, vous pouvez nous faire un don. Nous appelons également celles et ceux qui, bénéficiaires de la C2SG ou non, souhaitent agir contre cet algorithme et plus largement les politiques de contrÎles de la CNAM. Assuré·es, collectifs, syndicats, employé·es de la CNAM, vous pouvez nous contacter sur algos@laquadrature.net pour réfléchir collectivement aux suites à donner à cette publication.

References[+]

References
↑1 Plus prĂ©cisĂ©ment, nous avons eu accĂšs Ă  l’ensemble des odds ratio associĂ©s aux variables, ce qui nous a permis de rĂ©tro-ingĂ©niĂ©rer le code de l’algorithme.
↑2 La C2S gratuite (C2SG) est une complĂ©mentaire santĂ© gratuite accordĂ©e sous conditions de revenus et de composition familiale. RĂ©servĂ©e aux foyers les plus prĂ©caires, elle bĂ©nĂ©ficiait, en 2023, Ă  5,9 millions de personnes (voir ici). Le plafond annuel de ressources de la C2SG a Ă©tĂ© fixĂ© Ă  9 719 € pour une personne seule, en mĂ©tropole, au 1er avril 2023, modulable en fonction de la composition du foyer du demandeur (voir ici). AttribuĂ©e au niveau du foyer et non au niveau individuel, elle sert Ă  couvrir tout ou partie des frais restant Ă  la charge de l’assuré·e. La C2S peut aussi ĂȘtre soumise Ă  participation financiĂšre en cas de revenus lĂ©gĂšrement supĂ©rieurs (1,5 million de personnes).
↑3, ↑5, ↑10 Voir ce document de prĂ©sentation du modĂšle de datamining en « ComitĂ© de Direction Fraude Â» le 11 janvier 2020. C’est ce document qui a Ă©tĂ© mal occultĂ© par les Ă©quipes de la CNAM.
↑4 Si la violence des contrĂŽles organisĂ©s par la CAF sont particuliĂšrement bien documentĂ©s – voir notamment les travaux des collectifs Changer de Cap et Stop ContrĂŽles –, il n’existe pas, Ă  notre connaissance, de travail Ă©quivalent sur les contrĂŽles CNAM. Nous avons cependant pu Ă©changer avec des associations de dĂ©fense des droits des assuré·es qui ont confirmĂ© l’existence de suspensions abusives de couverture santĂ©.
↑6, ↑12 L’expression « profil-type du fraudeur Â» est tirĂ©e du rapport 2020 de lutte contre la fraude de l’Assurance Maladie disponible ici.
↑7 Un premier modĂšle a Ă©tĂ© utilisĂ© par l’Assurance Maladie entre 2018 et 2021. Visant Ă  prĂ©dire le risque d’indus, il est basĂ© sur une rĂ©gression logistique simple comprenant 5 variables en entrĂ©e, dont le sexe, l’ñge ou la composition du foyer. En 2021, ce modĂšle a Ă©tĂ© modifiĂ© Ă  la marge. L’entraĂźnement semble ĂȘtre rĂ©alisĂ© dans les « rĂšgles de l’art Â», Ă  partir de la sĂ©lection alĂ©atoire de plusieurs milliers de dossiers, envoyĂ©s aux Ă©quipes de contrĂŽle puis utilisĂ©s comme base d’apprentissage. Pour plus de dĂ©tails, voir l’analyse sur notre Gitlab.
↑8 Pour une prĂ©sentation du public concernĂ© par la C2SG, voir notamment le rapport annuel 2023 portant sur la ComplĂ©mentaire SantĂ© Solidaire de la Direction de la SĂ©curitĂ© Sociale disponible ici.
↑9 Voir ce document de prĂ©sentation du modĂšle de datamining en « ComitĂ© de Direction Fraude Â» le 11 janvier 2020. C’est ce document qui a Ă©tĂ© mal occultĂ© par les Ă©quipes de la CNAM. Ajoutons qu’il est possible que les Ă©quipes de la CNAM aient rĂ©alisĂ© des traitements illĂ©gaux pour arriver Ă  ces tristes conclusions. Si le modĂšle alternatif nĂ©cessite des croisements de donnĂ©es illĂ©gaux – rappelons par ailleurs qu’il est question de donnĂ©es de santĂ© – il est lĂ©gitime de s’interroger sur la base lĂ©gale Ă  partir de laquelle son « efficience Â» a pu ĂȘtre testĂ©e.
↑11 Le croisement demandĂ© semble concerner notamment la base SIAM Erasme, soit une base de donnĂ©es nominatives particuliĂšrement intrusives puisque portant sur les dĂ©penses de santĂ©. Voir ce rapport de la Cour des Comptes. L’accĂšs aux donnĂ©es des comptes bancaires semble aussi ĂȘtre au centre des « limitations rĂ©glementaires Â» empĂȘchant la CNAM de gĂ©nĂ©raliser les modĂšles expĂ©rimentaux.
↑13 Ces citations se rĂ©fĂšrent globalement Ă  l’ensemble des algorithmes de notation utilisĂ© par la CNAM Ă  des fins de contrĂŽle, ce qui inclut tant l’algorithme de notation des bĂ©nĂ©ficiaires de la C2SG que les algorithmes utilisĂ© pour le profilage et le contrĂŽle des professionnels de santĂ©. Voir le site de l’assurance maladie, le rapport annuel 2021 de lutte contre la fraude Ă  l’assurance maladie disponible ici et l’article publiĂ© en 2022 sur Challenges, « Pour dĂ©busquer les fraudeurs, la SĂ©cu met le paquet sur l’IA et les cyber-enquĂȘteurs Â» et le 30 septembre 2022 disponible ici.
↑14 Pour qu’une anomalie soit dĂ©clarĂ©e comme fraude, il faut que le niveau de revenu constatĂ© aprĂšs contrĂŽle soit supĂ©rieur Ă  3 fois le plafond de la C2S. Voir notamment le rapport annuel 2021 de lutte contre la fraude disponible ici.
↑15 Si nous n’avons pu trouver de chiffres prĂ©cis quant Ă  la proportion d’« anomalies Â» liĂ©es Ă  des erreurs involontaires dans le cas de la C2SG, nous nous basons sur les Ă©tudes existantes portant sur l’origine des trop-perçus liĂ©s au Revenu de SolidaritĂ© Active (RSA) dont les conditions d’attribution – nonobstant la frĂ©quence trimestrielle ou annuelle des dĂ©clarations – sont similaires Ă  celle de la C2SG. Or, les Ă©tudes portant sur les RSA dĂ©montrent sans exception que la trĂšs grande majoritĂ© des trop-perçus sont liĂ©s Ă  des erreurs dĂ©claratives liĂ©s Ă  la complexitĂ© dĂ©clarative de cette prestation. Plusieurs de ces Ă©tudes sont citĂ©es dans cet article.
↑16 En 2022, le directeur de l’Assurance Maladie a prĂ©sentĂ© les premiĂšres estimations devant le SĂ©nat. Son audition est disponible ici. Voir aussi le rapport annuel de lutte contre la fraude de l’Assurance Maladie 2021 disponible ici. Les chiffres des montants de la C2S (gratuite et avec participation financiĂšre) gĂ©rĂ©s par la CNAM sont disponibles dans le rapport annuel 2023 de la direction de la sĂ©curitĂ© sociale.
↑17 Voir Mathilde Caro, Morgane Carpezat, LoĂŻcka Forzy, « Le recours et le non-recours Ă  la complĂ©mentaire santĂ© solidaire. Les dossiers de la Drees 2023 Â», disponible ici.
↑18 Sur la contestation lors de l’élaboration de politiques de contrĂŽle par les Ă©quipes internes Ă  la CNAF, voir le livre ContrĂŽler les assistĂ©s. GenĂšses et usage d’un mot d’ordre, de Vincent Dubois, page 250.
↑19 Voir les articles d’un directeur du service « contrĂŽle et lutte contre la fraude Â». Le premier « Du contrĂŽle des pauvres Ă  la maĂźtrise des risques Â» a Ă©tĂ© publiĂ© en 2006 et est disponible ici. Le second est intitulĂ© « Le paiement Ă  bon droit des prestations sociales des CAF Â» publiĂ© en 2013 et disponible ici.

L’algorithme de notation de la CNAF attaquĂ© devant le Conseil d’État par 15 organisations

Par : bastien
16 octobre 2024 Ă  06:13

En cette veille de journĂ©e mondiale du refus de la misĂšre, 15 organisations de la sociĂ©tĂ© civile attaquent l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF) en justice, devant le Conseil d’État, au nom du droit de la protection des donnĂ©es personnelles et du principe de non-discrimination. Ce recours en justice contre un algorithme de ciblage d’un organisme ayant mission de service public est une premiĂšre.

Cet algorithme attribue Ă  chaque allocataire un score de suspicion dont la valeur est utilisĂ©e pour sĂ©lectionner celles et ceux faisant l’objet d’un contrĂŽle. Plus il est Ă©levĂ©, plus la probabilitĂ© d’ĂȘtre contrĂŽlé·e est grande. Chaque mois, l’algorithme analyse les donnĂ©es personnelles des plus de 32 millions de personnes vivant dans un foyer recevant une prestation CAF et calcule plus de 13 millions de scores. Parmi les facteurs venant augmenter un score de suspicion on trouve notamment le fait d’avoir de faibles revenus, d’ĂȘtre au chĂŽmage, de bĂ©nĂ©ficier du revenu de solidaritĂ© active (RSA) ou de l’allocation adulte handicapĂ© (AAH). En retour, les personnes en difficultĂ© se retrouvent sur-contrĂŽlĂ©es par rapport au reste de la population.

Notre recours devant le Conseil d’État porte tant sur l’étendue de la surveillance Ă  l’Ɠuvre que sur la discrimination opĂ©rĂ©e par cet algorithme envers des allocataires dĂ©jĂ  fragilisé·es dans leurs parcours de vie. En assimilant prĂ©caritĂ© et soupçon de fraude, cet algorithme participe d’une politique de stigmatisation et de maltraitance institutionnelle des plus dĂ©favorisé·es. Les contrĂŽles sont des moments particuliĂšrement difficiles Ă  vivre, gĂ©nĂ©rateurs d’une forte charge administrative et d’une grande anxiĂ©tĂ©. Ils s’accompagnent rĂ©guliĂšrement de suspensions du versement des prestations, prĂ©cĂ©dant des demandes de remboursements d’indus non-motivĂ©s. Dans les situations les plus graves, des allocataires se retrouvent totalement privé·es de ressources, et ce en toute illĂ©galitĂ©. Quant aux voies de recours, elles ne sont pas toujours comprĂ©hensibles ni accessibles.

Alors que l’utilisation de tels algorithmes de notation se gĂ©nĂ©ralise au sein des organismes sociaux, notre coalition, regroupant des organisations aux horizons divers, vise Ă  construire un front collectif afin de faire interdire ce type de pratiques et d’alerter sur la violence dont sont porteuses les politiques dites de « lutte contre la fraude sociale Â».

« Cet algorithme est la traduction d’une politique d’acharnement contre les plus pauvres. Parce que vous ĂȘtes prĂ©caire, vous serez suspect·e aux yeux de l’algorithme, et donc contrĂŽlé·e. C’est une double peine. Â» dĂ©clare Bastien Le Querrec, juriste Ă  La Quadrature du Net.

Associations requérantes:


Retrouvez l’ensemble de nos travaux sur la numĂ©risation des administrations sociales et la gestion algorithmique des populations sur notre page de campagne France contrĂŽle.

AprĂšs les Jeux de Paris, la bataille de la VSA est loin d’ĂȘtre finie

Par : bastien
9 octobre 2024 Ă  08:06

Les Jeux Olympiques et Paralympiques se sont achevĂ©s il y a un mois. Alors que les rues de Marseille ou de Paris et sa banlieue sont encore parsemĂ©es de dĂ©corations olympiennes dĂ©sormais dĂ©suĂštes, les promoteurs de la surveillance s’empressent d’utiliser cet Ă©vĂ©nement pour pousser leurs intĂ©rĂȘts et lĂ©gitimer la gĂ©nĂ©ralisation des dispositifs de vidĂ©osurveillance algorithmique (VSA). Si nous ne sommes pas surpris, cette opĂ©ration de communication forcĂ©e rĂ©vĂšle une fois de plus la stratĂ©gie des apĂŽtres de la Technopolice : rendre Ă  tout prix acceptable une technologie dont le fonctionnement reste totalement opaque et dont les dangers sont complĂštement mis sous silence. Les prochains mois seront cruciaux pour peser dans le dĂ©bat public et rendre audible et visible le refus populaire de ce projet techno-sĂ©curitaire.

Des algos dans le métro

Comme prĂ©vu, la vidĂ©osurveillance algorithmique a Ă©tĂ© largement dĂ©ployĂ©e pendant les Jeux Olympiques. Il le fallait bien, puisque c’est au nom de ce mĂ©ga Ă©vĂ©nement sportif qu’a Ă©tĂ© justifiĂ©e l’« expĂ©rimentation Â» de cette technologie d’analyse et de dĂ©tection des comportements des personnes dans l’espace public. Pour rappel, la loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024 a permis aux prĂ©fectures d’autoriser un certain nombres d’acteurs Ă  dĂ©ployer des logiciels dopĂ©s Ă  l’« intelligence artificielle Â» sur les images des camĂ©ras publiques afin de repĂ©rer un certain nombre de comportements soi-disant « suspects Â» et dĂ©clencher des alertes auprĂšs des agents de sĂ©curitĂ© ou des forces de l’ordre.

Contrairement Ă  ce que le nom de la loi indique, cette capacitĂ© de mettre en place une surveillance algorithmique dĂ©passe largement le moment des seuls Jeux Olympiques. Les policiers peuvent ainsi rĂ©quisitionner la VSA pour des « manifestations sportives, rĂ©crĂ©atives ou culturelles qui, par l’ampleur de leur frĂ©quentation ou par leurs circonstances, sont particuliĂšrement exposĂ©es Ă  des risques d’actes de terrorisme ou d’atteintes graves Ă  la sĂ©curitĂ© des personnes Â». Or, ce critĂšre de « risque Â» a rapidement Ă©tĂ© apprĂ©ciĂ© de façon trĂšs large. La VSA a Ă©tĂ© dĂ©ployĂ©e Ă  l’occasion de concerts, de matchs de foot, de festivals ou encore lors du dĂ©filĂ© du 14 juillet. Également, la durĂ©e de l’expĂ©rimentation dĂ©passe largement celle des seuls Jeux et s’étend jusqu’en mars 2025. La ville de Cannes a ainsi annoncĂ© qu’elle dĂ©ploiera la VSA Ă  l’occasion de cinq Ă©vĂ©nements Ă  venir : les NRJ Music Awards, le Marathon des Alpes-Maritimes, le marchĂ© de NoĂ«l, le feu d’artifice du Nouvel An et
 le MarchĂ© international des professionnels de l’immobilier 2025. On le comprend, il ne s’agit pas tant de prouver un lien avec un risque particulier pour la sĂ©curitĂ© que de trouver un prĂ©texte pour tester ces technologies.

Mais revenons aux Jeux et Ă  ce moment de « vraie vie Â» selon les termes employĂ©s par Emmanuel Macron. Que s’y est-il passĂ© ? D’abord, les algorithmes de dĂ©tection de l’entreprise Wintics ont Ă©tĂ© dĂ©ployĂ©s dans 46 stations de mĂ©tros et 11 gares SNCF ou RER. Comme cela avait dĂ©jĂ  pu ĂȘtre le cas pour d’autres expĂ©rimentations, les stations concernĂ©es n’avaient parfois aucun rapport avec les lieux oĂč se dĂ©roulaient les Ă©preuves des Jeux. De nouveau, les acteurs de la surveillance tordent le cadre juridique pour le plier Ă  leurs volontĂ©s. Aussi, alors que les pouvoirs publics sont tenus d’informer les personnes filmĂ©es qu’elles sont transformĂ©es en cobayes, ceux-ci se sont contentĂ©s du service minimum. Des petites affichettes ont Ă©tĂ© placardĂ©es dans le mĂ©tro, peu visibles pour les passant⋅es dont le regard Ă©tait davantage incitĂ© Ă  lire une propagande sĂ©curitaire « lĂ©gĂšrement Â» plus grande.

Deux affiches de vidĂ©osurveillance dans une station de mĂ©tro : en trĂšs grand Ă  droite, l'affiche de vidĂ©osurveillance classique, en tout petit Ă  gauche, l'affichette VSA.
En trĂšs grand Ă  droite, l’affiche de vidĂ©osurveillance classique, en tout petit Ă  gauche, l’affichette VSA.

Ensuite, la VSA s’est Ă©tendue aux images de l’espace public aux alentours de 11 sites des Jeux Olympiques (comme le Stade de France ou la Place de la Concorde). Pour cette surveillance des rues, la prĂ©fecture de police n’a publiĂ© que le 30 juillet au soir l’autorisation prĂ©fectorale nĂ©cessaire Ă  cette expĂ©rimentation, qui avait pourtant dĂ©buté  le 26 juillet. Comme on suivait cela de prĂšs, nous avons dĂ©posĂ© une plainte auprĂšs la CNIL, et ce afin de la pousser Ă  faire son travail en sanctionnant l’État pour ces quatre jours de surveillance illĂ©gale. Les mĂȘmes dispositifs de VSA ont ensuite Ă©tĂ© renouvelĂ©s lors des Jeux Paralympiques pour prendre fin le 9 septembre dernier. Depuis cette date, la course Ă  la promotion de ces outils a repris de plus belle au sein des acteurs du systĂšme de surveillance qui n’hĂ©sitent pas Ă  jouer des coudes pour imposer leur agenda.

Opération mal masquée

ThĂ©oriquement, la loi sur les JO prĂ©voit que cette « expĂ©rimentation Â» de VSA soit soumise Ă  une Ă©valuation par un comitĂ© crĂ©Ă© pour l’occasion, regroupant expert·es de la sociĂ©tĂ© civile, parlementaires et policiers. Ce comitĂ© est chargĂ© d’analyser l’efficacitĂ© et l’impact de cette technologie selon des critĂšres prĂ©vus par dĂ©cret. Un rapport doit ensuite ĂȘtre remis au Parlement, le 31 dĂ©cembre 2024 au plus tard. Si nous n’avions dĂ©jĂ  que peu d’espoir quant Ă  la capacitĂ© pour le comitĂ© de travailler de maniĂšre indĂ©pendante et d’ĂȘtre entendu dans ses conclusions, il n’empĂȘche que celui-ci existe. Le Parlement a en effet choisi de conditionner une Ă©ventuelle pĂ©rennisation du cadre expĂ©rimental de la loi JO Ă  son Ă©valuation. Un garde-fou minimal dont le Conseil constitutionnel a soulignĂ© l’importance pour assurer toute Ă©ventuelle pĂ©rennisation du dispositif, qui serait alors Ă  nouveau soumise Ă  un examen de constitutionnalitĂ©.

Cela n’empĂȘche pourtant pas les promoteurs de la VSA de placer leurs pions en communiquant de maniĂšre opportuniste afin de faire pression sur le comitĂ© d’évaluation et l’ensemble des parlementaires. Ainsi, le 25 septembre dernier, le prĂ©fet de police et ancien ministre Laurent Nuñez a ouvert le bal lors d’une audition par les dĂ©putĂ©â‹…es de la commission des lois. Sans apporter aucun Ă©lĂ©ment factuel Ă©tayant ses dires, sans mĂȘme faire part des trĂšs probables bugs techniques qui ont certainement Ă©maillĂ© le dĂ©ploiement d’algorithmes de VSA qui pour certains Ă©taient testĂ©s pour la premiĂšre fois Ă  grande Ă©chelle, il affirme alors que la VSA aurait d’ores et dĂ©jĂ  « dĂ©montrĂ© son utilitĂ© Â», et appelle Ă  sa prorogation. Et il s’emploie Ă  minimiser les atteintes pour les libertĂ©s publiques : le prĂ©fet de police assure ainsi qu’il ne s’agirait en aucun cas de surveillance gĂ©nĂ©ralisĂ©e mais d’une simple aide technique pour trouver des flux anormaux de personnes. Comme si la lĂ©galisation des cas d’usage les plus problĂ©matiques de la VSA, dont la reconnaissance faciale, n’étaient pas l’un des objectifs des promoteurs de la Technopolice. MĂȘme le journal Le Monde s’est inquiĂ©tĂ© de cette dĂ©claration de Nuñez dans un Ă©ditorial dĂ©nonçant la technique du « pied dans la porte Â» utilisĂ©e par le prĂ©fet.

Ensuite est venu le tour du gouvernement. Dans sa dĂ©claration de politique gĂ©nĂ©rale, Michel Barnier a prononcĂ© la phrase suivante, floue au possible : « Le troisiĂšme chantier est celui de la sĂ©curitĂ© au quotidien : les Français nous demandent d’assurer la sĂ©curitĂ© dans chaque territoire. Nous gĂ©nĂ©raliserons la mĂ©thode expĂ©rimentĂ©e pendant les Jeux olympiques et paralympiques. Â». À aucun moment le Premier ministre ne prĂ©cise s’il a en tĂȘte la VSA ou la concentration ahurissante de « bleus Â» dans les rues, ou d’autres aspects du dispositif policier massif dĂ©ployĂ© cet Ă©tĂ©. Cela n’a pas empĂȘchĂ© France Info de publier un article largement repris dans les mĂ©dias annonçant, sur la base de cette dĂ©claration, que le gouvernement envisageait de prolonger l’expĂ©rimentation de la vidĂ©osurveillance algorithmique. En rĂ©alitĂ©, il s’agissait d’une « interprĂ©tation Â» venant du ministĂšre de l’IntĂ©rieur, pressĂ© d’imposer l’idĂ©e d’une pĂ©rennisation, quitte Ă  faire fi du cadre lĂ©gal de l’évaluation (le nouveau ministre Bruno Retailleau ayant bien fait comprendre que le respect du droit n’était pas sa tasse de thĂ©). RĂ©sultat de cette opĂ©ration d’intox de Beauvau : Matignon, soucieux de ne pas froisser le comitĂ©, « rectifie Â» auprĂšs de France Info et affirme que le gouvernement attendra bien le rapport du comitĂ©. Bref, des petites phrases et des rĂ©tropĂ©dalages qui permettent au final au gouvernement de miser sur les deux tableaux : d’un cĂŽtĂ©, il tente de prĂ©empter le dĂ©bat en imposant d’emblĂ©e la perspective d’une pĂ©rennisation et, de l’autre, il s’efforce de sauver les apparences, en laissant entendre qu’il suivra scrupuleusement le processus dĂ©fini dans la loi. Reste qu’à Beauvau et trĂšs certainement aussi Ă  Matignon, la pĂ©rennisation de la VSA est un objectif partagĂ©. Le dĂ©saccord, si dĂ©saccord il y a, semblerait plutĂŽt porter sur le tempo des annonces.

Tout ceci nous rappelle une chose : la bataille qui se joue maintenant est celle de l’acceptabilitĂ© de la VSA. Il s’agit pour les pouvoirs publics de fabriquer le consentement de la population Ă  une technologie prĂ©sentĂ©e comme Ă©vidente et nĂ©cessaire, alors qu’elle porte en elle un projet d’accaparement sĂ©curitaire de l’espace public, de discrimination et de contrĂŽle social, portĂ©s Ă  la fois par une industrie de la surveillance en croissance et un rĂ©gime de moins en moins dĂ©mocratique.

Pour vous informer sur la VSA et vous y opposer, retrouvez notre brochure sur le sujet et d’autres ressources sur notre page de campagne. Et pour soutenir notre travail, n’hĂ©sitez pas Ă  faire un don.

Affaire Telegram : des inquiĂ©tudes dans un contexte de guerre contre les messageries, les rĂ©seaux sociaux et le chiffrement

Par : bastien
3 septembre 2024 Ă  07:15

Le dirigeant de la plateforme Telegram, Pavel Durov, a Ă©tĂ© placĂ© en garde Ă  vue il y a une dizaine de jours puis mis en examen mercredi dernier. Le parquet de Paris, qui communique opportunĂ©ment sur l’affaire depuis le dĂ©but, met en avant l’absence de modĂ©ration sur la plateforme pour justifier les poursuites. Au-delĂ  de cette question de modĂ©ration et sans tomber dans la dĂ©fense d’un service en ligne peu recommandable, les quelques Ă©lĂ©ments qu’a bien voulu rendre public le parquet et sa maniĂšre de prĂ©senter l’affaire interrogent fortement, dans un contexte de mise sous pression de la France et de l’Union europĂ©enne des messageries interpersonnelles et des rĂ©seaux sociaux.

Une confusion entre messagerie et réseau social entretenue par le parquet

Telegram est Ă  la fois une messagerie personnelle et un rĂ©seau social. C’est une messagerie personnelle puisque ses utilisateur·rices peuvent avoir des conversations privĂ©es, via des discussions individuelles ou des groupes fermĂ©s. En cela, Telegram est similaire, sur le principe, Ă  des SMS ou des messages sur Signal ou Whatsapp. Mais c’est Ă©galement un rĂ©seau social dans la mesure oĂč Telegram offre une fonctionnalitĂ© de canaux publics, dans lesquels il est possible de diffuser massivement un contenu, Ă  un nombre trĂšs large de personnes qui peuvent s’abonner au canal.

Dans son dernier communiquĂ© de presse sur l’affaire Telegram, le parquet de Paris se borne pourtant Ă  prĂ©senter Telegram comme « une application de messagerie instantanĂ©e Â», ce qui laisse penser que la justice ne s’intĂ©resserait qu’aux messages privĂ©s. Pourtant, les faits reprochĂ©s Ă  la plateforme dĂ©montrent que c’est bien l’aspect « rĂ©seau social Â» qui est en cause. Cette confusion est Ă©tonnante puisqu’on ne pourra pas reprocher la mĂȘme chose si les messages sont publics ou s’ils sont privĂ©s.

L’absence de modĂ©ration des contenus publics signalĂ©s Ă  Telegram est un problĂšme. Comme le rappelait Access Now en dĂ©but de semaine derniĂšre, cette critique est faite Ă  Telegram depuis plusieurs annĂ©es. Mais l’absence de modĂ©ration reprochĂ©e Ă  la plateforme ne peut que concerner des contenus publiquement accessibles, c’est-Ă -dire ceux publiĂ©s sur des canaux publics de Telegram ou des conversations de groupe largement ouvertes. En effet, les intermĂ©diaires techniques comme Telegram bĂ©nĂ©ficient d’un principe d’irresponsabilitĂ© du fait des usages faits par les utilisateur·rices de leur service, irresponsabilitĂ© qui ne peut ĂȘtre levĂ©e que lorsque la plateforme a Ă©tĂ© notifiĂ©e du caractĂšre illicite d’un contenu qu’elle hĂ©berge et qui, malgrĂ© cette notification, a dĂ©cidĂ© de maintenir en ligne ce contenu. Pour que Telegram puisse avoir connaissance que certains messages sont illicites, il faut donc que ces derniers soient publics1Pour faciliter la comprĂ©hension du propos, on Ă©cartera volontairement le cas trĂšs particulier d’un message privĂ© non-sollicitĂ© et illicite qui serait notifiĂ© par le destinataire : dans ce cas trĂšs prĂ©cis, Telegram devrait Ă©galement retirer de sa plateforme le contenu. afin de pouvoir ĂȘtre notifiĂ©s par des tiers.

Or, la communication du parquet est floue puisqu’elle entretient une confusion entre des messages privĂ©s et des messages publics. En lisant ses Ă©lĂ©ments de langage, on a le sentiment que le parquet reprocherait Ă  Telegram de ne pas modĂ©rer les conversations privĂ©es. Une telle « modĂ©ration Â» de contenus privĂ©s ne serait pourtant possible qu’en forçant la plateforme Ă  surveiller de maniĂšre gĂ©nĂ©ralisĂ©e l’ensemble des contenus Ă©changĂ©s sur son service, au mĂ©pris des principes Ă©thiques et politiques les plus fondamentaux de secret des correspondances et de droit Ă  la vie privĂ©e, et qui est explicitement interdit par le droit aujourd’hui.

Une affaire Ă  remettre dans un contexte plus large

Notre crainte d’un parquet qui tenterait de forcer une interprĂ©tation du droit allant dans le sens d’une obligation de surveillance des conversations privĂ©es est notamment fondĂ©e par un contexte français de mise sous pression des messageries et des moyens de communication en gĂ©nĂ©ral. Dans son dernier communiquĂ©, le parquet reprend le mĂȘme rĂ©cit que dans les affaires Encrochat ou SkyECC : des tĂ©lĂ©phones avec Telegram sont apparus dans des dossiers criminels, ce qui justifierait l’enquĂȘte actuelle qui, aujourd’hui, conduit Ă  poursuivre le dirigeant de la plateforme. Or, dans ces affaires Encrochat et SkyECC, la police française n’a pas hĂ©sitĂ© Ă  compromettre l’intĂ©gralitĂ© de ces plateformes au motif, dĂ©cidĂ© au doigt mouillĂ©, qu’elles seraient massivement utilisĂ©es par la grande criminalitĂ©. Le tri entre ce qui intĂ©resse l’enquĂȘte pĂ©nale et le reste est fait aprĂšs avoir dĂ©cidĂ© de la surveillance de toutes les communications Ă©changĂ©es sur ces plateformes. Une telle logique est dangereuse : estimer qu’un service de messagerie pourrait ĂȘtre compromis dans son ensemble parce que la police estime que ses utilisateur·rices sont massivement des criminels est la porte ouverte aux pires abus : une surveillance de masse, dĂ©cidĂ©e sur la base des seules analyses de la police (les affaires Encrochat et SkyECC ont montrĂ© que la prĂ©sence d’un juge d’instruction n’est pas de nature Ă  empĂȘcher ces dĂ©rives) alors que n’importe quel service en ligne sera nĂ©cessairement utilisĂ© un jour ou l’autre pour des activitĂ©s illicites. Voici un scoop pour le parquet de Paris : Signal, Whatsapp ou Olvid sont aussi utilisĂ©es par des criminels.

La France n’est pas la seule Ă  s’attaquer aux messageries. Depuis 2 ans et demi, la Commission europĂ©enne tente de forcer les messageries privĂ©es Ă  surveiller automatiquement les conversations de leurs utilisateur·rices, avec son projet de rĂšglement dit « CSAR Â», Ă©galement appelĂ© « Chat Control Â». MalgrĂ© les multiples scandales autour de ce texte, la commissaire europĂ©enne Ylva Johansson continue son passage en force alors qu’elle est accusĂ©e de faire la promotion de l’industrie de la surveillance et de manipuler l’opinion en faisant de la communication en faveur du CSAR sur les rĂ©seaux sociaux grĂące au ciblage de certaines personnes en fonction de leurs opinions politiques. Et dans cette bataille, la Commission europĂ©enne a rĂ©ussi Ă  rallier la France Ă  sa position. La lĂ©gitimitĂ© du CSAR est d’autant plus questionnable qu’il existe plĂ©tore d’autres moyens pour lutter contre les abus sur enfant que la surveillance des communications : Ă©ducation, prĂ©vention, rĂ©forme des institutions pour accompagner les victimes, 


À cĂŽtĂ© de cette mise sous pression des messageries, on assiste Ă©galement en France Ă  une attaque sans prĂ©cĂ©dent contre les rĂ©seaux sociaux. Il y a Ă  peine un an, alors que des violences urbaines Ă©clataient suite au meurtre par un policier d’un adolescent en banlieue parisienne, le gouvernement accusait les rĂ©seaux sociaux de tous les maux. Emmanuel Macron annonçait qu’il voulait plus de pouvoir entre les mains de la police pour que celle-ci soit autorisĂ©e Ă  bloquer l’accĂšs Ă  l’intĂ©gralitĂ© d’un rĂ©seau social en temps de crise, ou a minima pouvoir dĂ©sactiver certaines fonctionnalitĂ©s. En plein dĂ©bat sur la loi SREN, et alors que le rapporteur du texte au SĂ©nat Ă©tait prĂȘt Ă  offrir ce nouveau pouvoir Ă  la police, le gouvernement s’adonnait alors Ă  un chantage inĂ©dit envers les plateformes consistant Ă  brandir la menace d’une plus grande rĂ©gulation des rĂ©seaux sociaux (avec plus de pouvoirs de censure policiĂšre) si ces derniers ne collaborent pas volontairement avec le gouvernement pour retirer des contenus. C’est dans ce contexte que Snapchat a admis devant l’AssemblĂ©e nationale avoir, suite Ă  une convocation du ministĂšre de l’intĂ©rieur, collaborĂ© activement avec la police pour retirer des contenus dont l’illĂ©galitĂ© n’était pas flagrante.

Pire encore, au moment des rĂ©voltes en Nouvelle-CalĂ©donie en mai dernier, c’est le blocage de tout Tiktok qui a Ă©tĂ© exigĂ© par le gouvernement Ă  l’opĂ©rateur public calĂ©donien qui fournit Internet sur l’archipel. Par une dĂ©cision non-Ă©crite, dont la justification fluctuait en fonction des commentaires dans la presse, le gouvernement a fini par trouver comme excuse Ă  cette censure le fait que des contenus violents (mais probablement pas illĂ©gaux !) Ă©taient diffusĂ©s sur Tiktok.

Avec cette affaire Telegram, nous espĂ©rons donc que le parquet n’est pas en train de passer Ă  l’étape suivante, Ă  savoir reprocher une complicitĂ© de Telegram du fait que des messages privĂ©s illicites, dont la plateforme ne pouvait avoir connaissance sans violer le secret des correspondances, auraient Ă©tĂ© Ă©changĂ©s. À dĂ©faut d’avoir plus d’informations sur l’affaire, en particulier tant que nous n’en saurons pas plus sur la nature des messages ou des publications qui sont ciblĂ©es par le parquet, nous ne pouvons, au regard du contexte dans lequel s’inscrit cette affaire, exclure cette grave hypothĂšse.

L’affaire Telegram est aussi une attaque contre le chiffrement

L’affaire Telegram ne se rĂ©sume pas Ă  ces problĂšmes de modĂ©ration : le parquet de Paris a prĂ©cisĂ© que l’affaire concerne Ă©galement le « refus de communiquer, sur demande des autoritĂ©s habilitĂ©es, les informations ou documents nĂ©cessaires pour la rĂ©alisation et l’exploitation des interceptions autorisĂ©es par la loi Â». Il fait ici rĂ©fĂ©rence Ă  l’article L. 871-2 du code de la sĂ©curitĂ© intĂ©rieure, qui exige des opĂ©rateurs et des plateformes qu’elles collaborent avec l’autoritĂ© judiciaire en lui transmettant les « informations ou documents qui [lui] sont nĂ©cessaires pour la rĂ©alisation et l’exploitation des interceptions autorisĂ©es par la loi Â». Autrement dit, opĂ©rateurs et plateformes doivent divulguer toute information qui permettrait une interception des communications dans le cadre d’une procĂ©dure judiciaire. C’est cet article qui, par exemple, oblige un opĂ©rateur tĂ©lĂ©phonique Ă  donner Ă  la police les Ă©lĂ©ments nĂ©cessaires pour mettre sur Ă©coute un de ses clients. Mais la formulation de cette obligation est extrĂȘmement floue, ouvrant la voie Ă  des interprĂ©tations trĂšs larges2Cette disposition a d’ailleurs servi Ă  couvrir l’accĂšs illĂ©gal Ă  des centaines de milliers de donnĂ©es de connexion par les services de renseignement intĂ©rieur avant leur lĂ©galisation en 2013 (Jean-Jacques Urvoas et Patrice VerchĂšre, Rapport en conclusion des travaux d’une mission d’information sur l’évaluation du cadre juridique applicable aux services de renseignement, Commission des Lois de l’AssemblĂ©e nationale, 14 mai 2013, https://www.assemblee-nationale.fr/14/controle/lois/renseignement.asp). : au-delĂ  du cas d’écoutes tĂ©lĂ©phoniques, elle s’applique Ă©galement Ă  d’autres formes de communications, et notamment au cas d’écoutes de l’ensemble du trafic Internet d’un internaute.

Pour comprendre quels documents Telegram pourrait divulguer pour qu’une interception judiciaire soit mise en place, il faut comprendre son fonctionnement technique. Lorsqu’un message est transmis via Telegram, les donnĂ©es sont envoyĂ©es depuis le tĂ©lĂ©phone ou l’ordinateur (c’est le « client Â») jusqu’aux serveurs de Telegram. Ces messages du client aux serveurs sont chiffrĂ©s Ă  l’aide de deux couches. La premiĂšre couche de chiffrement utilisĂ©e est le fait que la connexion entre le client et les serveurs de Telegram est chiffrĂ©e par la technologie HTTPS. Puis, les messages entre le client et le serveur sont chiffrĂ©s par une deuxiĂšme couche de chiffrement, Ă  l’aide d’un protocole maison appelĂ©e MTProto3Pour en savoir plus sur le chiffrement de Telegram, voir la synthĂšse de Matthew Green sur son blog et la prĂ©sentation technique faite par Telegram. et qui fonctionne de maniĂšre assez similaire Ă  HTTPS. Enfin, dans un cas trĂšs marginal activable sur demande explicite de l’internaute via la fonction de « message secret Â» (disponible uniquement pour les discussions individuelles), une fonctionnalitĂ© optionnelle de chiffrement de bout-en-bout est utilisĂ©e comme troisiĂšme couche de chiffrement entre deux clients.

Quels documents ou informations Telegram pourrait-il alors divulguer pour permettre Ă  la justice de procĂ©der Ă  des interceptions ? Rien d’autre que les clĂ©s de chiffrement entre ses serveurs et chaque utilisateur·rice utilisĂ©es pour les deux premiĂšres couches de chiffrement : la clĂ© privĂ©e du certificat HTTPS utilisĂ© pour la premiĂšre couche de chiffrement, et la clĂ© privĂ©e du serveur utilisĂ©e par la deuxiĂšme couche de chiffrement. Lorsque la troisiĂšme couche de chiffrement n’est pas utilisĂ©e, une compromission des deux premiĂšres permet d’accĂ©der aux conversations. Autrement dit, la seule maniĂšre pour l’autoritĂ© judiciaire de faire des interceptions de communications serait d’obtenir ces clĂ©s qui servent Ă  chiffrer toutes les communications vers les serveurs de Telegram, donc d’obtenir de quoi violer le secret de toute correspondance sur Telegram qui ne serait pas Ă©galement chiffrĂ©e par la fonctionnalitĂ© optionnelle de « message secret Â».

Alors que le refus de communiquer ces informations est lourdement puni de deux ans d’emprisonnement et de 150 000 € d’amende, il semble qu’aucune condamnation n’ait jamais Ă©tĂ© prononcĂ©e (nous n’avons en tout cas trouvĂ© aucune dĂ©cision par un tribunal), probablement parce que forcer les plateformes Ă  une telle compromission pose de sĂ©rieuses questions de conformitĂ© Ă  la Constitution, notamment au regard du droit Ă  la vie privĂ©e et du droit Ă  la libertĂ© d’expression.

Ici encore, en absence de plus de dĂ©tails sur l’affaire, nous ne pouvons qu’émettre des hypothĂšses. Mais notre crainte est fondĂ©e sur un contexte d’attaques incessantes contre le chiffrement. Il faut ici rappeler l’affaire du 8-DĂ©cembre, dans laquelle La Quadrature s’est largement mobilisĂ©e aux cĂŽtĂ©s de plus de 130 personnes et organisations : le jugement de premiĂšre instance a retenu, pour caractĂ©riser un soi-disant comportement clandestin justifiant une condamnation, le fait que les personnes mises en cause utilisaient des messageries chiffrĂ©es. Signalons Ă©galement les attaques du gouvernement contre la confidentialitĂ© des communications : aprĂšs l’attentat d’Aras, GĂ©rald Darmanin surfait sur ce drame pour exiger l’ajout de portes dĂ©robĂ©es dans les messageries, ciblant explicitement « Signal, Whatsapp, Telegram Â», tout en reconnaissant que le droit ne l’autorisait actuellement pas. Le parquet serait-il en train de forcer une autre interprĂ©tation du droit ? Nous le craignons.

De maniĂšre toute aussi choquante, le parquet invoque Ă©galement une vieille obligation de dĂ©clarer « la fourniture ou l’importation d’un moyen de cryptologie n’assurant pas exclusivement des fonctions d’authentification ou de contrĂŽle d’intĂ©gritĂ© Â», qui exige notamment de mettre Ă  disposition le code source dudit outil Ă  l’ANSSI. Le fait de ne pas procĂ©der Ă  cette dĂ©claration est punie d’un an d’emprisonnement et d’une amende de 15 000 euros. Il s’agit d’un dĂ©lit archaĂŻque en 2024, qui n’a d’ailleurs jamais Ă©tĂ© sanctionnĂ© Ă  notre connaissance. Et pour cause : rĂ©guler ainsi les outils de chiffrement est anachronique, alors que le chiffrement est omniprĂ©sent au quotidien. Nouveau scoop pour le parquet : chaque responsable d’un site web sĂ©curisant en HTTPS la connexion des internautes Ă  son service fournit ou importe un « moyen de cryptologie Â».

Des questions en suspens et un parquet à la manƓuvre communicationnelle

Dans cette affaire, on observe Ă©galement une communication millimĂ©trĂ©e de la part du parquet. Ainsi, dĂšs le lendemain de la garde Ă  vue du dirigeant de Telegram, le parquet faisant fuiter par l’AFP le fait qu’était reprochĂ© Ă  Telegram une absence de modĂ©ration. Alors que, on l’a dit plus haut, l’absence de modĂ©ration sur les canaux publics de Telegram est effectivement un problĂšme, les « sources proches du dossier Â» (comprendre : le parquet) passaient sous silence les charges relatives Ă  la fourniture ou l’importation d’un « moyen de cryptologie Â» sans dĂ©claration et le dĂ©lit de ne pas divulguer les documents permettant la mise en place d’interceptions judiciaires.

Autre coup de communication Ă©trange du parquet : il semble avoir fait fuiter via Politico des extraits de documents judiciaires qui indiqueraient que « la messagerie a laissĂ© “sans rĂ©ponse” une demande d’identification d’un de ses utilisateurs dans une enquĂȘte de la police française sur des faits de pĂ©dopornographie Â»4Par souci de rigueur, on rappellera que cette fuite pourrait aussi provenir de la dĂ©fense de Pavel Durov. Mais cela est peu probable compte tenu de la description nĂ©gative de Telegram faite par cette fuite.. Cette information est, depuis, reprise un peu partout dans la presse. Il est vrai qu’une plateforme comme Telegram est tenue de communiquer, sur demande de la justice, les informations qu’elle dĂ©tient sur un de ses utilisateur·rices (souvent il s’agit de l’adresse IP associĂ©e Ă  un compte). Mais ne pas rĂ©pondre Ă  une telle rĂ©quisition judiciaire n’est sanctionnĂ© au maximum que d’une amende de 3750€. Il ne s’agit donc pas de faits qui justifient une garde Ă  vue de 96 heures (ce qui n’est possible que pour des faits de criminalitĂ© grave).

On peut supposer qu’il est vrai que Telegram n’a pas rĂ©pondu Ă  une rĂ©quisition judiciaire demandant d’identifier un·e de ses utilisateur·rices ; ce serait cohĂ©rent avec la politique d’absence de retrait de contenu de la plateforme. Mais il ne s’agit ici que d’un Ă©lĂ©ment de contexte, et non une incrimination : le communiquĂ© de presse du parquet, qui liste les faits reprochĂ©s au dirigeant de Telegram ne fait d’ailleurs pas rĂ©fĂ©rence Ă  l’absence de rĂ©ponse aux rĂ©quisitions judiciaires.

Beaucoup de questions restent donc encore sans rĂ©ponse. En l’absence d’élĂ©ments prĂ©cis sur l’affaire, on ne peut Ă  ce stade faire que des hypothĂšses. Mais les quelques Ă©lĂ©ments distillĂ©s par le parquet, qui n’est pas neutre dans cette affaire puisqu’il conduit l’enquĂȘte, sont prĂ©occupants. Telegram n’est pas une plateforme recommandable : non-sĂ©curisĂ©e, centralisĂ©e, aux mains d’une entreprise opaque, elle est aux antipodes des valeurs que dĂ©fend La Quadrature. Mais comme lorsque le rĂ©seau social toxique Tiktok a Ă©tĂ© bloquĂ© en Nouvelle-CalĂ©donie, il s’agit ici de s’opposer Ă  un dĂ©voiement des rĂšgles du droit pĂ©nal dont les prochaines victimes seront les personnes que nous dĂ©fendons : les internautes soucieux·ses de protĂ©ger leur vie privĂ©e, les messageries rĂ©ellement chiffrĂ©es, les rĂ©seaux sociaux dĂ©centralisĂ©s. Alors pour nous permettre de continuer de jouer notre rĂŽle de vigie, vous pouvez nous faire un don.

References[+]

References
↑1 Pour faciliter la comprĂ©hension du propos, on Ă©cartera volontairement le cas trĂšs particulier d’un message privĂ© non-sollicitĂ© et illicite qui serait notifiĂ© par le destinataire : dans ce cas trĂšs prĂ©cis, Telegram devrait Ă©galement retirer de sa plateforme le contenu.
↑2 Cette disposition a d’ailleurs servi Ă  couvrir l’accĂšs illĂ©gal Ă  des centaines de milliers de donnĂ©es de connexion par les services de renseignement intĂ©rieur avant leur lĂ©galisation en 2013 (Jean-Jacques Urvoas et Patrice VerchĂšre, Rapport en conclusion des travaux d’une mission d’information sur l’évaluation du cadre juridique applicable aux services de renseignement, Commission des Lois de l’AssemblĂ©e nationale, 14 mai 2013, https://www.assemblee-nationale.fr/14/controle/lois/renseignement.asp).
↑3 Pour en savoir plus sur le chiffrement de Telegram, voir la synthĂšse de Matthew Green sur son blog et la prĂ©sentation technique faite par Telegram.
↑4 Par souci de rigueur, on rappellera que cette fuite pourrait aussi provenir de la dĂ©fense de Pavel Durov. Mais cela est peu probable compte tenu de la description nĂ©gative de Telegram faite par cette fuite.

Premiùre victoire contre l’audiosurveillance algorithmique devant la justice

Par : bastien
17 juillet 2024 Ă  08:38

Plus de trois ans aprĂšs notre recours, le tribunal administratif d’OrlĂ©ans vient de confirmer que l’audiosurveillance algorithmique (ASA) installĂ©e par l’actuelle mairie d’OrlĂ©ans – des micros installĂ©s dans l’espace public et couplĂ©s Ă  la vidĂ©osurveillance, destinĂ©s Ă  repĂ©rer des situations dites anormales – est illĂ©gale. Ce jugement constitue la premiĂšre victoire devant les tribunaux en France contre ce type de surveillance sonore et constitue un rappel fort des exigences en matiĂšre de droits fondamentaux pour les autres communes qui seraient tentĂ©es par de tels dispositifs.

Une claque pour Orléans et Sensivic

La ville d’OrlĂ©ans et l’entreprise Sensivic se sont vu rappeler la dure rĂ©alitĂ© : dĂ©ployer des micros dans l’espace public pour surveiller la population n’est pas lĂ©gal. Les allĂ©gations de Sensivic d’un soi-disant produit « conforme RGPD Â» et les Ă©lucubrations d’OrlĂ©ans en dĂ©fense pour faire croire qu’il ne s’agirait que d’un inoffensif « dĂ©tecteur de vibrations de l’air Â» n’auront servi Ă  rien.

Dans son jugement, le tribunal administratif est sĂ©vĂšre. Il commence par battre en brĂšche l’argument de la commune qui affirmait qu’il n’y avait pas de traitement de donnĂ©es personnelles, en rappelant que les dispositifs de micros couplĂ©s aux camĂ©ras de vidĂ©osurveillance « collectent et utilisent ainsi des informations se rapportant Ă  des personnes susceptibles, au moyen des camĂ©ras avec lesquelles ils sont couplĂ©s, d’ĂȘtre identifiĂ©es par l’opĂ©rateur Â». Il en tire alors naturellement la conclusion que ce dispositif est illĂ©gal parce qu’il n’a pas Ă©tĂ© autorisĂ© par la loi.

Mais le tribunal administratif va plus loin. Alors que l’adjoint Ă  la commune d’OrlĂ©ans chargĂ© de la sĂ©curitĂ©, Florent Montillot, affirmait sans frĂ©mir que cette surveillance permettrait de « sauver des vies Â», la justice remet les pendules Ă  l’heure : « Ă  [
] supposer [le dispositif d’audiosurveillance algorithmique] utile pour l’exercice des pouvoirs de police confiĂ©s au maire [
], il ne peut ĂȘtre regardĂ© comme nĂ©cessaire Ă  l’exercice de ces pouvoirs Â». Autrement dit : « utilitĂ© Â» ne signifie ni proportionnalitĂ© ni lĂ©galitĂ© en matiĂšre de surveillance. Cela va Ă  rebours de tout le discours politique dĂ©ployĂ© ces derniĂšres annĂ©es qui consiste Ă  dĂ©clarer lĂ©gitime tout ce qui serait demandĂ© par les policiers dĂšs lors que cela est utile ou plus simple sur le terrain. Cela a Ă©tĂ© la justification des diffĂ©rentes lois de ces derniĂšres annĂ©es telle que la loi SĂ©curitĂ© Globale ou la LOPMI.

Un avertissement pour la Technopolice

Ce jugement est un avertissement pour les promoteurs de cette surveillance toujours plus dĂ©bridĂ©e de l’espace public. Si la vidĂ©osurveillance algorithmique (VSA) reste la technologie la plus couramment utilisĂ©e – illĂ©galement, sauf malheureusement dans le cadre de la loi JO – l’audiosurveillance algorithmique (ASA) n’est pas en reste pour autant. Avant la surveillance Ă  OrlĂ©ans par Sensivic, on l’a retrouvĂ©e Ă  Saint-Étienne grĂące Ă  un dispositif d’ASA dĂ©veloppĂ© par Serenicity que la CNIL avait lourdement critiquĂ© et fait mettre Ă  l’arrĂȘt.

Avec ce jugement, le tribunal administratif d’OrlĂ©ans ne dĂ©clare pas seulement l’ASA illĂ©gale : il estime Ă©galement qu’un contrat passĂ© entre une commune et une entreprise pour mettre en place ce type de surveillance peut-ĂȘtre attaquĂ© par une association comme La Quadrature. Cet Ă©lĂ©ment est loin d’ĂȘtre un dĂ©tail procĂ©dural, alors que des communes comme Marseille ont pu par le passĂ© Ă©chapper au contrĂŽle de lĂ©galitĂ© de leur surveillance en jouant sur les rĂšgles trĂšs contraignantes des contentieux des contrats.

La question du couplage de l’ASA Ă  la vidĂ©osurveillance classique

En septembre 2023, la CNIL, que nous avions saisie en parallĂšle du TA d’OrlĂ©ans, considĂ©rait que cette ASA Ă©tait illĂ©gale dĂšs lors qu’elle Ă©tait couplĂ©e Ă  la vidĂ©osurveillance en raison de la possibilitĂ© de « rĂ©identifier Â» les personnes. Mais elle ajoutait qu’elle ne trouvait plus rien Ă  redire depuis que le dispositif orlĂ©anais Ă©tait dĂ©couplĂ© de la vidĂ©osurveillance locale. Une analyse que nous avons contestĂ©e devant le TA d’OrlĂ©ans1Voir nos observations d’octobre 2023 et celles de janvier 2024..

Dans son jugement, le tribunal administratif d’OrlĂ©ans n’a pas explicitement considĂ©rĂ© que l’ASA orlĂ©anaise ne serait pas un traitement de donnĂ©es si elle n’était plus couplĂ©e Ă  la vidĂ©osurveillance. Puisqu’il Ă©tait saisi de la lĂ©galitĂ© de la convention entre Sensivic et OrlĂ©ans, laquelle prĂ©voyait ce couplage, il s’est bornĂ© Ă  dire que le dispositif ASA et vidĂ©osurveillance Ă©tait illĂ©gal.

Dans tous les cas, ce point est annexe : l’audiosurveillance algorithmique exige, par nature, d’ĂȘtre couplĂ©e avec une source supplĂ©mentaire d’information permettant de traiter l’alerte Ă©mise. Que ce soit par un couplage avec la vidĂ©osurveillance ou en indiquant Ă  des agent·es de police ou de sĂ©curitĂ© de se rendre Ă  l’endroit oĂč l’évĂ©nement a Ă©tĂ© dĂ©tectĂ©, l’ASA visera toujours Ă  dĂ©terminer la raison de l’alerte, donc d’identifier les personnes. Elle est donc par nature illĂ©gale.

Laisser-faire de l’État face Ă  une technologie manifestement illĂ©gale

Impossible toutefois de passer sous silence la lenteur de l’administration (ici, la CNIL) et de la justice devant les dispositifs de surveillance manifestement illĂ©gaux de l’industrie sĂ©curitaire. Alors mĂȘme qu’un dispositif semblable avait Ă©tĂ© explicitement et trĂšs clairement sanctionnĂ© Ă  Saint-Étienne en 2019, Sensivic a pu conclure sans difficultĂ© une convention pour installer ses micros dopĂ©s Ă  l’intelligence artificielle. Il aura fallu une double saisine de la part de La Quadrature pour mettre un terme Ă  ce projet.

Un tel dossier prouve que l’industrie sĂ©curitaire n’a que faire du droit et de la protection des libertĂ©s, qu’elle est prĂȘte Ă  tout pour dĂ©velopper son marchĂ© et que l’État et le monde des start-ups s’en accommode bien. Comment Sensivic, avec une technologie aussi manifestement illĂ©gale, a-t-elle pu rĂ©colter 1,6 millions en 2022, dont une partie du fait de la BPI (Banque Publique d’Investissement) ? L’interdiction explicite de ces technologies de surveillance est la seule voie possible et tenable.

Ce jugement reste une victoire sans Ă©quivoque. Il annonce, nous l’espĂ©rons, d’autres succĂšs dans notre combat juridique contre la Technopolice, notamment Ă  Marseille oĂč notre contestation de la VSA est toujours en cours de jugement devant la cour administrative d’appel. Alors pour nous aider Ă  continuer la lutte, vous pouvez nous faire un don ou vous mobiliser dans votre ville.

Blocage de TikTok en Nouvelle-CalĂ©donie : retour sur un fiasco dĂ©mocratique

Par : bastien
5 juin 2024 Ă  08:51

Le 23 mai dernier, le Conseil d’État a rejetĂ© le recours en urgence de La Quadrature du Net contre la mesure de blocage de TikTok en Nouvelle-CalĂ©donie. Pour justifier cette dĂ©cision inique, le juge des rĂ©fĂ©rĂ©s a affirmĂ© qu’il n’y aurait pas d’urgence Ă  statuer puisque ce blocage serait, selon les dires du gouvernement, bientĂŽt levĂ©. Il aura fallu attendre plus de 24 heures aprĂšs la levĂ©e de l’état d’urgence pour que le rĂ©seau social soit de nouveau accessible. Cet Ă©pisode marquera un tournant dans la montĂ©e autoritaire en France et dans l’échec de nos institutions Ă  l’empĂȘcher.

Les mensonges du Premier ministre

Lorsque nous dĂ©posions notre rĂ©fĂ©rĂ© mi-mai, nous n’imaginions pas un tel arbitraire. Le Premier ministre a en effet annoncĂ© le blocage de TikTok le 15 mai dernier en mĂȘme temps qu’il annonçait l’entrĂ©e en vigueur de l’état d’urgence sur le territoire de la Nouvelle-CalĂ©donie. Juristes et journalistes estimaient alors que la dĂ©cision de blocage ne pouvait avoir Ă©tĂ© prise qu’en application d’une disposition de la loi sur l’état d’urgence qui prĂ©voit la possibilitĂ© pour le ministre de l’intĂ©rieur de bloquer « tout service de communication au public en ligne provoquant Ă  la commission d’actes de terrorisme ou en faisant l’apologie Â». En rĂ©alitĂ©, la mesure de blocage Ă©tait justifiĂ©e par un autre fondement juridique. Le gouvernement a sciemment gardĂ© le silence dessus, entretenant confusion et opacitĂ© pendant que La Quadrature et d’autres associations dĂ©posaient leurs recours.

En parallĂšle, l’exĂ©cutif a rapidement distillĂ© dans la presse, dĂšs le 16 mai, un autre Ă©lĂ©ment de langage : le blocage de TikTok serait justifiĂ© par une opĂ©ration d’ingĂ©rence Ă©trangĂšre de la part de l’AzerbaĂŻdjan. En rĂ©alitĂ©, si l’AzerbaĂŻdjan veut tirer bĂ©nĂ©fice depuis plusieurs mois des tensions en Nouvelle-CalĂ©donie, aucune opĂ©ration de dĂ©sinformation de sa part n’a Ă©tĂ© lancĂ©e sur TikTok. Et ce sont les services du Premier ministre eux-mĂȘmes qui l’ont dit, par une fiche Ă©tablie par Viginum, un service relevant du Premier ministre chargĂ© d’étudier les opĂ©rations d’ingĂ©rence Ă©trangĂšre en ligne.

Sur ces deux points, le Premier ministre s’est retrouvĂ© face Ă  sa malhonnĂȘtetĂ© et ses mensonges lorsque ses services ont dĂ» justifier la mesure devant la justice. Dans le mĂ©moire envoyĂ© au Conseil d’État, on a ainsi pu dĂ©couvrir que le fondement juridique de ce blocage n’était non pas l’état d’urgence, mais la « thĂ©orie des circonstances exceptionnelles Â», qui consiste Ă  admettre dans des cas trĂšs exceptionnels des dĂ©rogations Ă  certaines rĂšgles de droit. Admise par les juges il y a une centaine d’annĂ©es, cette thĂ©orie est d’une certaine maniĂšre l’ancĂȘtre de l’état d’urgence, mais jurisprudentiel. La loi de 1955, imaginĂ©e dans le contexte colonial de la guerre d’AlgĂ©rie, a ensuite pris le relai avec un cadre prĂ©cis. Comme cela a Ă©tĂ© relevĂ© lors de l’audience, c’est la premiĂšre fois que ces deux rĂ©gimes d’exception se retrouvent invoquĂ©s en mĂȘme temps. DerriĂšre cette situation juridique inĂ©dite, on sent surtout que le gouvernement ne savait pas sur quel pied danser et avait dĂ©cidĂ© le blocage du rĂ©seau social avant d’avoir dĂ©terminĂ© sa justification en droit. La presse l’a d’ailleurs confirmĂ© : fin mai, La Lettre rĂ©vĂ©lait que, en coulisses, le gouvernement avait passĂ© un accord avec TikTok pour que la plateforme ne conteste pas en justice la dĂ©cision de blocage qu’il n’arrivait pas Ă  justifier lĂ©galement.

Cependant, cette thĂ©orie des « circonstances exceptionnelles Â» ne permet pas pour autant de sacrifier la libertĂ© d’expression en ligne sur l’autel d’une sacro-sainte sĂ©curitĂ©. Devant le Conseil d’État, le Premier ministre a notamment justifiĂ© le blocage de TikTok par de soi-disant contenus violents ou incitant Ă  la violence. Le 20 mai, ses services Ă©crivaient ainsi au Conseil d’État que « l’organisation de ces exactions a Ă©tĂ© largement facilitĂ©e par l’utilisation des rĂ©seaux sociaux, et particuliĂšrement, du fait des caractĂ©ristiques spĂ©cifiques, du rĂ©seau social “TikTok” Â». Mais lorsque le gouvernement fut sommĂ© par le Conseil d’État d’apporter la preuve de ces contenus prĂ©tendument problĂ©matiques, il n’a produit que des captures d’écran
 de contenus lĂ©gaux. Les exemples choisis pour illustrer le besoin d’une censure n’étaient en rĂ©alitĂ© que des vidĂ©os dĂ©nonçant les violences policiĂšres et l’organisation de milices civiles. En somme, des expressions politiques plus ou moins radicales, critiquant la situation, mais en rien des appels Ă  la violence. Les services du Premier ministre ont admis sans peu de scrupules Ă  l’audience que TikTok a Ă©tĂ© choisi car « le profil des Ă©meutiers correspondait au profil des utilisateurs Â», c’est-Ă -dire les jeunes. Sans dĂ©tour, le gouvernement assumait ainsi vouloir bĂąillonner la parole et l’expression de la jeunesse kanake alors mĂȘme que ce qui Ă©tait dĂ©noncĂ© dans les vidĂ©os incriminĂ©es sur le moment s’est rĂ©vĂ©lĂ© ĂȘtre vrai : la presse a rĂ©vĂ©lĂ© ces derniers jours les cas de violences policiĂšres, la complicitĂ© de la police avec les milices, ou encore une agression raciste d’un policier kanak.

Enfin, le gouvernement a poursuivi dans la malhonnĂȘtetĂ© lorsqu’il a assurĂ© au Conseil d’État, dans un mĂ©moire datĂ© du 22 mai, que la mesure de blocage ne durerait pas. Il s’engageait ainsi Ă  mettre fin au blocage lorsque « l’évolution de la situation sur le territoire de Nouvelle-CalĂ©donie permettrait d’envisager une levĂ©e de la mesure Â», laissant mĂȘme croire que cela pourrait intervenir « avant la lecture de l’ordonnance Â» (c’est-Ă -dire avant mĂȘme la dĂ©cision du Conseil d’État). En rĂ©alitĂ©, il aura fallu attendre plus de 24 heures aprĂšs la levĂ©e de l’état d’urgence en Nouvelle-CalĂ©donie pour que TikTok soit de nouveau accessible.

Le Conseil d’État alliĂ© du gouvernement

C’est ce dernier mensonge relatif Ă  la levĂ©e de l’état d’urgence qui a semblĂ© aider le Conseil d’État Ă  ne pas sanctionner le gouvernement, donc Ă  ne pas lui ordonner de rĂ©tablir l’accĂšs Ă  TikTok. En effet, pour que le juge administratif prenne une dĂ©cision en rĂ©fĂ©rĂ©, il faut, avant mĂȘme de parler de l’illĂ©galitĂ© de la situation, justifier d’une urgence Ă  agir. On pourrait se dire que bloquer une plateforme majeure dans les Ă©changes en ligne, sur l’ensemble du territoire de Nouvelle-CalĂ©donie (270 000 habitant·es), pour une durĂ©e indĂ©terminĂ©e, est une situation suffisamment urgente. C’est notamment ce qui a Ă©tĂ© dĂ©fendu par les avocat·es prĂ©sent·es Ă  l’audience, rappelant l’aspect entiĂšrement inĂ©dit d’un tel blocage en France et mĂȘme dans l’Union europĂ©enne. Le Conseil d’État a d’ailleurs Ă©tĂ© moins exigeant par le passĂ© : en 2020, quand nous lui demandions d’empĂȘcher les drones de la prĂ©fecture de police de Paris de voler, ici aussi par un recours en rĂ©fĂ©rĂ©, il constatait qu’il y avait bien une urgence Ă  statuer.

Mais pour TikTok, le juge des rĂ©fĂ©rĂ©s a prĂ©fĂ©rĂ© jouer Ă  chat perchĂ© : dans sa dĂ©cision, il estime que « les requĂ©rants n’apportent aucun Ă©lĂ©ment permettant de caractĂ©riser l’urgence Ă  l’intervention du juge des rĂ©fĂ©rĂ©s Â», et prĂ©cise, pour affirmer qu’il n’y a pas d’urgence, que « la dĂ©cision contestĂ©e porte sur le blocage d’un seul rĂ©seau social sur le territoire de la Nouvelle-CalĂ©donie, l’ensemble des autres rĂ©seaux sociaux et moyens de communication, la presse, les tĂ©lĂ©visions et radios n’étant en rien affectĂ©s Â». TrĂšs belle preuve de l’incomprĂ©hension de ce que reprĂ©sente un rĂ©seau social aujourd’hui et de comment l’information circule en ligne. Le Conseil d’État oublie notamment que la Cour europĂ©enne des droits de l’Homme (CEDH) estime que bloquer l’ensemble d’une plateforme en ligne Ă©quivaut Ă  empĂȘcher un journal de paraĂźtre ou Ă  un mĂ©dia audiovisuel de diffuser. Ici, nos institutions donnent l’impression de ne pas tenter de comprendre la rĂ©alitĂ© d’Internet et minimisent de fait l’atteinte qui dĂ©coule de ce blocage.

Pour enfoncer le clou sur l’absence d’urgence Ă  statuer, le juge des rĂ©fĂ©rĂ©s termine en reprenant Ă  son compte la promesse malhonnĂȘte du gouvernement : « cette mesure de blocage doit prendre fin dans de trĂšs brefs dĂ©lais, le gouvernement s’étant engagĂ©, dans le dernier Ă©tat de ses Ă©critures, Ă  lever immĂ©diatement la mesure dĂšs que les troubles l’ayant justifiĂ©e cesseront Â». Il a donc laissĂ© faire, octroyant au gouvernement un pouvoir discrĂ©tionnaire sur la date de rĂ©tablissement de la plateforme.

Un constat amĂšre peut donc ĂȘtre fait : en France, comme en Russie ou en Turquie, le gouvernement peut bloquer d’un claquement de doigt un rĂ©seau social sans que la justice ne soit capable de l’en empĂȘcher. Alors que le Conseil d’État aurait pu faire passer un message fort et exercer son rĂŽle de contre-pouvoir, il est venu au secours du gouvernement en tolĂ©rant une atteinte sans prĂ©cĂ©dent et totalement disproportionnĂ©e Ă  la libertĂ© d’expression et d’information.

Ne pas laisser faire

Bien que le blocage de TikTok soit levĂ©, le prĂ©cĂ©dent politique et juridique existe dĂ©sormais. Nous pensons qu’il faut tout faire pour que celui-ci ne se reproduise pas et reste un cas isolĂ©. Que ce soit par la Cour europĂ©enne des droits de l’Homme ou par le ComitĂ© des droits de l’Homme des Nations Unies, ce type de censure est unanimement condamnĂ©. Nous ne pouvons donc pas laisser le Conseil d’État se satisfaire de ce blocage et devons exiger de lui qu’il rappelle le droit et sanctionne le gouvernement.

C’est pourquoi nous avons donc dĂ©posĂ© la semaine derniĂšre un recours en excĂšs de pouvoir contre cette dĂ©cision. Il s’agit de la voie contentieuse classique, mais plus longue, lorsque l’on veut contester une dĂ©cision administrative. Un tel recours prendra un Ă  deux ans avant d’ĂȘtre jugĂ© et nous espĂ©rons que le Conseil d’État sortira de sa torpeur et confirmera que le blocage Ă©tait illĂ©gal. Car pour bloquer TikTok, le gouvernement ne s’est vu opposer aucun obstacle, aucun garde-fou, et n’a jamais eu Ă  justifier sa mesure. La seule opposition Ă  laquelle il a Ă©tĂ© confrontĂ© a Ă©tĂ© la saisie de la justice par les associations et la sociĂ©tĂ© civile. L’échec qui en a rĂ©sultĂ© est une preuve supplĂ©mentaire de la dĂ©faillance de plus en plus flagrante des leviers dĂ©mocratiques.

Depuis de nombreuses annĂ©es, nous constatons l’effondrement progressif de l’État de droit en France. Nous constatons que la politique toujours plus autoritaire des gouvernements successifs, et notamment ceux d’Emmanuel Macron, ne se voit opposer aucun obstacle institutionnel majeur. Avec le blocage arbitraire de TikTok, une nouvelle Ă©tape a Ă©tĂ© franchie. Nous ne cachons pas notre inquiĂ©tude face Ă  ce constat, mais nous continuerons d’agir. Pensez, si vous le pouvez, Ă  nous aider avec un don.

Surveillance et Hadopi : la justice europĂ©enne enterre un peu plus l’anonymat en ligne

Par : bastien
30 avril 2024 Ă  05:42

Dans son arrĂȘt du 30 avril 2024, la Cour de justice de l’Union europĂ©enne (CJUE) vient de rendre sa dĂ©cision concernant la lĂ©galitĂ© du systĂšme de surveillance massif de la Hadopi. Cet arrĂȘt est dĂ©cevant. La CJUE tempĂšre trĂšs fortement sa prĂ©cĂ©dente jurisprudence, au-delĂ  du cas de la Hadopi. En considĂ©rant dĂ©sormais que l’accĂšs aux adresses IP n’est pas sensible, elle admet la possibilitĂ© de surveiller massivement Internet.

La Cour de justice de l’Union europĂ©enne vient d’autoriser l’accĂšs massif et automatisĂ© Ă  l’adresse IP associĂ©e Ă  l’identitĂ© civile et au contenu d’une communication. Le tout pour des finalitĂ©s triviales et sans contrĂŽle prĂ©alable par un juge ou par une autoritĂ© administrative indĂ©pendante.

L’arrĂȘt du 30 avril 2024 est un revirement de jurisprudence. La CJUE vient d’autoriser un accĂšs massif aux adresses IP associĂ©es Ă  l’identitĂ© civile de l’internaute. Les polices de toute l’Europe, aprĂšs une dĂ©cennie de combat oĂč les États ont dĂ©libĂ©rĂ©ment choisi de ne pas appliquer les nombreuses dĂ©cisions prĂ©cĂ©dentes de la CJUE, viennent de l’emporter. C’est une prime Ă  l’abus, un signe trĂšs fort lancĂ© aux pays autoritaires : la CJUE admet qu’elle finira par changer sa jurisprudence si ses dĂ©cisions ne sont pas appliquĂ©es. C’est un affaiblissement inquiĂ©tant de l’autoritĂ© de la Cour face Ă  la pression des États membres.

Alors qu’en 2020, la CJUE considĂ©rait que la conservation des adresses IP constitue une ingĂ©rence grave dans les droits fondamentaux et que ces derniĂšres ne peuvent faire l’objet d’un accĂšs, associĂ© Ă  l’identitĂ© civile de l’internaute, seulement dans des cas de criminalitĂ© grave ou d’atteinte Ă  la sĂ©curitĂ© nationale, tel n’est aujourd’hui plus le cas. La CJUE renverse son raisonnement : elle estime dĂ©sormais que la conservation des adresses IP n’est, par dĂ©faut, plus une atteinte grave aux libertĂ©s fondamentales, et que dans certains cas seulement cet accĂšs porte une ingĂ©rence grave qu’il faut entourer de garanties.

Concernant notre affaire et le cas prĂ©cis de la Hadopi en France, la Cour pousse seulement la Hadopi Ă  Ă©voluer. Elle estime que dans certaines situations « atypiques Â» l’accĂšs Ă  l’adresse IP et l’identitĂ© civile associĂ©e Ă  une Ɠuvre culturelle peut crĂ©er une ingĂ©rence grave dans le droit Ă  la vie privĂ©e (on peut penser au cas d’une Ɠuvre permettant de tirer des conclusions relatives aux opinions politiques, Ă  l’orientation sexuelle, etc.) ; elle estime aussi que cet accĂšs porte une ingĂ©rence grave en cas de « rĂ©itĂ©ration Â» et exige dĂšs lors que l’accĂšs aux adresses IP ne puisse pas ĂȘtre « entiĂšrement automatisĂ© Â». Mais dans tous les autres cas la CJUE dit bien que la Hadopi peut accĂ©der de maniĂšre massive et automatisĂ©e Ă  l’identitĂ© civile des personnes.

Autrement dit, la riposte graduĂ©e (du nom de la procĂ©dure suivie par Hadopi qui consiste Ă  envoyer plusieurs avertissements dans les premiers temps, avant de saisir la justice si l’internaute ne « sĂ©curise Â» pas sa connexion) devra changer de forme. Le lĂ©gislateur devra inventer une machine Ă  gaz pour prĂ©voir un pseudo contrĂŽle externe indĂ©pendant de l’accĂšs Ă  l’identitĂ© civile par la Hadopi. Alors qu’aujourd’hui il n’existe aucune obligation de contrĂŽle externe de la Hadopi, l’autoritĂ© devra dĂ©sormais prĂ©voir un tel contrĂŽle lorsqu’elle souhaite, dans ces cas « atypiques Â» ou en cas de « rĂ©itĂ©ration Â» de l’internaute, accĂ©der Ă  l’identitĂ© civile. En somme, des agent·es externes Ă  la Hadopi seront chargé·es de cliquer sur un bouton « autoriser Â», lĂ  oĂč aujourd’hui la Hadopi se l’autorise elle-mĂȘme.

Plus gĂ©nĂ©ralement, cet arrĂȘt de la Cour europĂ©enne a surtout validĂ© la fin de l’anonymat en ligne. Alors qu’en 2020 elle prĂ©cisait qu’il existait un droit Ă  l’anonymat en ligne concrĂ©tisĂ© par la directive ePrivacy, elle l’abandonne aujourd’hui. Et pour cause : en permettant Ă  la police d’accĂ©der largement Ă  l’identitĂ© civile associĂ©e Ă  une adresse IP et au contenu d’une communication, elle met de facto fin Ă  l’anonymat en ligne.

Nous nous attendons dĂ©sormais Ă  ce que le Conseil d’État sauve la Hadopi, malgrĂ© cet arrĂȘt. La Quadrature du Net continuera son combat contre la surveillance en ligne, y compris celle de la Hadopi. Pour nous aider, vous pouvez nous faire un don.

ExpĂ©rimentation de la VSA : les premiĂšres autorisations sont tombĂ©es

Par : bastien
17 avril 2024 Ă  08:25

Les premiers arrĂȘtĂ©s prĂ©fectoraux autorisant la vidĂ©osurveillance algorithmique (VSA) dans le cadre de la loi JO viennent d’ĂȘtre publiĂ©s. La RATP et la SNCF peuvent dĂ©sormais surveiller automatiquement les personnes Ă  l’occasion du match PSG/OL du 19 au 22 avril et du concert des Black Eyed Peas le 20 avril. La Quadrature du Net s’est mobilisĂ©e depuis 2019 contre cette technologie et continue sa bataille. Nous vous tiendrons au courant dans les prochaines semaines des actions Ă  venir.

DĂ©ployĂ©e en toute illĂ©galitĂ© depuis des annĂ©es et autorisĂ©e de façon inĂ©dite en Europe avec la loi sur les JOP, la vidĂ©osurveillance algorithmique Ă©tait dans les starting blocks pour ĂȘtre utilisĂ©e pour la premiĂšre fois par la police. C’est maintenant chose faite.

La prĂ©fecture de police de Paris a autorisĂ© ce 17 avril 2024 l’utilisation du logiciel de VSA de la sociĂ©tĂ© Wintics par la SNCF et la RATP. La surveillance commencera dĂšs le 19 avril sur 118 camĂ©ras de la gare de Lyon et du pont du Garigliano Ă  Paris. Elle concernera Ă©galement le 20 avril l’ensemble des camĂ©ras des stations de mĂ©tro et de RER des gares de Nanterre PrĂ©fecture et de La DĂ©fense Grande Arche.

La rumeur d’une autorisation de VSA Ă  l’occasion du match PSG-OL circulait depuis plusieurs semaines puisque la SNCF annonçait depuis quelques temps sur des affiches gare de Lyon avoir obtenu une autorisation de la prĂ©fecture de Police. On apprenait sur cette affiche que la SNCF procĂ©dait dĂ©jĂ  Ă  des « tests Â» liĂ©s Ă  la phase de conception de l’algorithme, oĂč les personnes filmĂ©es servent de cobayes pour ajuster les logiciels. Des tests ont aussi Ă©tĂ© effectuĂ©s lors de deux concerts de Depeche Mode Ă  Paris. Une autre affiche dans les couloirs du mĂ©tro parisien indiquait que des expĂ©rimentations allaient aussi bientĂŽt ĂȘtre mises en Ɠuvre par la RATP.

Affiche de la SNCF Affiche de la RATP
 

Nous avons dĂ©veloppĂ© un outil de recensement des autorisations prĂ©fectorales de surveillance, dont l’information fait quasi systĂ©matiquement dĂ©faut, ce qui empĂȘche les personnes surveillĂ©es d’ĂȘtre au courant de ces mesures. Cet outil, dĂ©nommĂ© « Attrap’Surveillance Â» (pour Automate de Traque des Termes de Recherche dans les ArrĂȘtĂ©s PrĂ©fectoraux), analyse automatiquement les recueils des actes administratifs de chaque prĂ©fecture afin d’y repĂ©rer les autorisations prĂ©fectorales d’utilisation des drones et de VSA. C’est comme cela que nous avons pu apprendre la publication aujourd’hui de la premiĂšre autorisation formelle d’une utilisation rĂ©pressive de la VSA Ă  Paris. En publiant aussi tardivement ces arrĂȘtĂ©s, le prĂ©fet de police tente d’éviter au maximum les recours en justice, qui n’auront probablement pas le temps d’ĂȘtre jugĂ©s avant le dĂ©but de la surveillance algorithmique.

Face Ă  la concrĂ©tisation de cette surveillance, aux abus qui se profilent et Ă  la Technopolice qui avance illĂ©galement en parallĂšle de la loi JO, La Quadrature du Net s’apprĂȘte Ă  rĂ©pliquer. Nous vous tiendrons au courant dans les prochaines semaines des actions Ă  venir.

Projet de loi SREN : le Parlement s’accorde pour mettre au pas Internet

Par : bastien
9 avril 2024 Ă  09:10

Nous vous parlions l’annĂ©e derniĂšre du projet de loi SREN (pour « SĂ©curiser et rĂ©guler l’espace numĂ©rique Â»). Il s’agit d’un texte censĂ© rĂ©guler les plateformes en ligne, dont nombre de ses mesures ont rĂ©vĂ©lĂ© une vision archaĂŻque d’Internet1Voir notre analyse gĂ©nĂ©rale du texte, celle spĂ©cifique du filtre anti-arnaque, et celle sur la vĂ©rification de l’ñge en ligne co-Ă©crite avec Act Up-Paris.. Le 26 mars dernier, dĂ©puté·es et sĂ©nateur·rices de la commission mixte paritaire (CMP) se sont accordé·es sur une version commune du texte. Les modifications apportĂ©es ne sont pourtant que cosmĂ©tiques. AprĂšs son vote la semaine derniĂšre par le SĂ©nat, cette version commune doit encore ĂȘtre votĂ©e par l’AssemblĂ©e nationale demain. Nous appelons cette derniĂšre Ă  le rejeter.

VĂ©rification de l’ñge : s’isoler plutĂŽt que de se conformer au droit europĂ©en

Si le projet de loi SREN met autant de temps Ă  ĂȘtre votĂ©, c’est que la France mĂšne depuis plusieurs mois un bras de fer avec la Commission europĂ©enne. Normalement, la rĂ©gulation des plateformes en ligne se dĂ©cide au niveau de l’ensemble de l’Union europĂ©enne. Pourtant, avec ce texte, le gouvernement français a dĂ©cidĂ© de n’en faire qu’à sa tĂȘte. En voulant forcer les plateformes hĂ©bergeant du contenu pornographique Ă  vĂ©rifier l’ñge des internautes, mesure inutile qui n’empĂȘchera pas les mineur·es d’accĂ©der Ă  ces contenus, la France souhaite ainsi s’affranchir des rĂšgles europĂ©ennes qui s’imposent normalement Ă  elle.

La Commission europĂ©enne n’a Ă©videmment pas vu cela d’un bon Ɠil. Elle a donc actionnĂ© les pouvoirs qui lui sont octroyĂ©s dans ce genre de situations, et a bloquĂ© le texte Ă  deux reprises, arguant que le projet de loi SREN empiĂ©tait sur le droit de l’Union.

La parade trouvĂ©e par la CMP consiste Ă  restreindre l’obligation de vĂ©rification de l’ñge des internautes aux seules plateformes Ă©tablies « en France ou hors de l’Union europĂ©enne Â». Autrement dit, puisque les plateformes europĂ©ennes ne sont plus concernĂ©es par cette vĂ©rification d’ñge, cette mesure ne rentre plus dans le champ du droit europĂ©en, et la Commission europĂ©enne n’a plus rien Ă  dire ! Stupide, mais habile formalisme.

La France dĂ©cide ainsi de s’isoler du reste de l’Union : les plateformes françaises ou non-europĂ©ennes devront faire cette vĂ©rification d’ñge, alors que les plateformes europĂ©ennes en seront Ă©pargnĂ©es. On fĂ©licitera l’audace de la parade : alors qu’habituellement, pour refuser les rĂ©gulations sur les sujets numĂ©riques, le gouvernement français est le premier Ă  brandir la concurrence des États sur Internet et le risque que les acteurs français s’enfuient Ă  l’étranger en cas de « sur-rĂ©gulation Â» (argument brandi par exemple pour dĂ©tricoter le rĂšglement IA ou supprimer l’interopĂ©rabilitĂ© des rĂ©seaux sociaux), il semble ici s’accommoder prĂ©cisĂ©ment de ce qu’il dĂ©nonce, puisque les plateformes françaises seront pĂ©nalisĂ©es par rapport Ă  celles situĂ©es dans le reste de l’UE. Tout ça pour garder la face.

Ce tour de passe-passe politique ne doit nĂ©anmoins pas masquer la rĂ©alitĂ© de cette vĂ©rification d’ñge. Au-delĂ  d’une question d’articulation avec le droit de l’Union europĂ©enne, cette mesure, comme nous le dĂ©nonçons depuis le dĂ©but, mettra fin Ă  toute possibilitĂ© d’anonymat en ligne, notamment sur les rĂ©seaux sociaux (voir notre analyse et celle d’Act Up-Paris sur la question de la vĂ©rification de l’ñge).

Vous reprendrez bien un peu de censure automatisĂ©e ?

Le texte final de ce projet de loi prĂ©voit d’étendre la censure automatisĂ©e. Ses articles 3 et 3 bis A prĂ©voient une obligation de censure en 24 heures des contenus, respectivement d’abus sexuels sur enfants et de reprĂ©sentation d’actes de torture et de barbarie. Le mĂ©canisme est un calque de la censure automatisĂ©e des contenus Ă  caractĂšre terroriste : une notification de la police, une obligation de censure en 24h sous peine de fortes amendes et de plusieurs annĂ©es de prison, un contrĂŽle par la justice qui n’est pas obligatoire puisque le juge doit ĂȘtre saisi une fois la censure effective par l’hĂ©bergeur des contenus et non par la police.

La Quadrature du Net, tout comme de nombreuses autres organisations, dĂ©noncent depuis des annĂ©es le fait que ce systĂšme de censure administrative en trĂšs peu de temps aura comme consĂ©quence une automatisation de la censure : face aux sanctions monstrueuses en cas de non-retrait, et alors que les hĂ©bergeurs n’ont que trĂšs peu de temps pour agir, ils seront nĂ©cessairement poussĂ©s Ă  ne pas contester la police et Ă  censurer les contenus qu’on leur demande de retirer. C’est d’ailleurs exactement ce mĂ©canisme qu’avait censurĂ© le Conseil constitutionnel en 2020 avec la loi Avia, et qu’avec cinq autres associations nous dĂ©nonçons devant la justice Ă  propos du rĂšglement europĂ©en de censure terroriste.

Et le prĂ©texte de la lutte contre les abus sexuels sur mineur·es ou la lutte contre les actes de torture ou de barbarie ne peut justifier ces censures. Tout comme le projet de rĂšglement europĂ©en CSAR (pour « Child sexual abuse regulation Â», aussi appelĂ© « Chat Control Â»), le projet de loi SREN ne rĂ©soudra pas le problĂšme des abus sexuels sur mineur·es ni des actes de torture en censurant ces contenus. Une autre politique, ambitieuse, pour lutter contre les rĂ©seaux et trafiquants, est pour cela nĂ©cessaire.

Prendre les gens pour des schtroumpfs

Les dĂ©bats sur ce projet de loi auront, une fois de plus, dĂ©montrĂ© la piĂštre qualitĂ© des dĂ©bats parlementaires lorsqu’il s’agit de numĂ©rique2Ce qui n’est pas inĂ©dit, voir par exemple ce qui s’est passĂ© pendant les dĂ©bats sur la loi JO qui a lĂ©galisĂ© une partie de la vidĂ©osurveillance algorithmique.. Les dĂ©bats autour du filtre « anti-arnaque Â» ou de la peine de bannissement ont Ă©tĂ© particuliĂšrement rĂ©vĂ©lateurs de la maniĂšre dont le gouvernement voit les internautes : comme des incapables Ă  qui il faudrait montrer la voie, quitte Ă  mentir.

Le filtre anti-arnaque n’a pas Ă©tĂ© substantiellement modifiĂ© en CMP et la vision paternaliste que nous dĂ©noncions (voir notre analyse) est toujours prĂ©sente en l’état actuel du texte. Ce filtre fait le constat de l’inefficacitĂ© des listes anti-hameçonnages qu’utilisent les principaux navigateurs mais, au lieu de fournir une liste anti-hameçonnage complĂ©mentaire, de qualitĂ© et transparente, le gouvernement prĂ©fĂšre forcer la main des navigateurs en leur imposant de censurer les contenus et de devenir des auxiliaires de police.

Main sur le cƓur, le gouvernement nous promet toutefois que seuls les contenus d’hameçonnage seront concernĂ©s par ce nouveau dispositif de censure que devront implĂ©menter les navigateurs. N’ayons aucune crainte, cette nouvelle maniĂšre de censurer ne sera jamais Ă©tendue Ă  tout le reste ! Difficile, en rĂ©alitĂ©, de croire un gouvernement d’Emmanuel Macron alors que ce dernier a clairement adoptĂ© depuis son arrivĂ©e Ă  l’ÉlysĂ©e une politique de remise en cause drastique des libertĂ©s fondamentales (voir notre rĂ©capitulatif en 2022 pour son premier mandat).

Et difficile de croire un gouvernement dont le ministre Jean-NoĂ«l Barrot, lorsqu’il Ă©tait chargĂ© de dĂ©fendre ce texte avant d’ĂȘtre dĂ©barquĂ© des affaires numĂ©riques, n’hĂ©sitait pas Ă  raconter n’importe quoi pour mieux faire passer la pilule. Car la peine de bannissement de rĂ©seaux sociaux, prĂ©vue Ă  l’article 5 du projet de loi, nĂ©cessite que les plateformes connaissent l’identitĂ© des personnes ouvrant un compte (et ce afin d’empĂȘcher que les personnes bannies ne reviennent sur la plateforme). Or, questionnĂ© sur France Culture Ă  propos des atteintes Ă  l’anonymat en ligne qu’implique cette mesure, le ministre Barrot a prĂ©fĂ©rĂ© mentir plutĂŽt que d’admettre le problĂšme. Il a affirmĂ© que le projet de loi ne prĂ©voyait qu’« une obligation de moyens [d’empĂȘcher un·e internaute banni·e de se refaire un compte] mais qui n’est pas sanctionnĂ©e par une amende Â». Sauf que c’est totalement faux : un rĂ©seau social qui n’aurait pas empĂȘchĂ© un·e internaute banni·e de se refaire un compte risquera jusqu’à 75 000 € d’amende par compte recrĂ©Ă©. Et ce point n’a pas Ă©voluĂ© lors des dĂ©bats parlementaires.

DĂ©tricoter la loi de 1881 sur la libertĂ© d’expression

Le texte final comporte une grande nouveautĂ© : le dĂ©lit d’outrage en ligne a Ă©tĂ© rĂ©introduit par la CMP. Cette disposition, initialement introduite par le SĂ©nat puis supprimĂ©e par l’AssemblĂ©e nationale car jugĂ©e trop dangereuse, consiste Ă  faire des abus d’expression en ligne une circonstance aggravante par rapport aux cas oĂč ils seraient commis hors ligne. ConcrĂštement, le projet de loi SREN sanctionne de 3 750 euros d’amende et d’un an d’emprisonnement le fait de « diffuser en ligne tout contenu qui soit porte atteinte Ă  la dignitĂ© d’une personne ou prĂ©sente Ă  son Ă©gard un caractĂšre injurieux, dĂ©gradant ou humiliant, soit crĂ©e Ă  son encontre une situation intimidante, hostile ou offensante Â».

Il s’agit donc d’un dĂ©lit extrĂȘmement large puisque la notion de « situation intimidante, hostile ou offensante Â» n’est nullement dĂ©finie lĂ©galement et sera la porte ouverte aux interprĂ©tations larges. De plus, la possibilitĂ© de sanctionner ce dĂ©lit par une amende forfaitaire rajoute des possibilitĂ©s d’abus, ce que dĂ©noncent dĂ©jĂ  des avocat·es et la DĂ©fenseure des droits. Mais ce dĂ©lit peut Ă©galement ĂȘtre sanctionnĂ© par une peine de bannissement.

Surtout, ce dĂ©lit d’outrage en ligne dĂ©roge Ă  la loi de 1881. Cette loi est le socle qui rĂ©git aujourd’hui les abus d’expression, y compris en ligne : elle prĂ©voit des mĂ©canismes qui Ă©vitent les abus (dĂ©lais de prescription courts, procĂ©dures particuliĂšres, etc.). Exit ces garde-fous : en introduisant ce dĂ©lit d’outrage en ligne dans le code pĂ©nal et non dans la loi de 1881, le lĂ©gislateur concrĂ©tise une longue envie de la droite autoritaire de dĂ©tricoter cette loi. Pourquoi, pourtant, faudrait-il abandonner les protections de la loi de 1881 pour le simple fait que ce serait en ligne, alors que la presse papier ou la tĂ©lĂ©vision sont souvent des dĂ©versoirs de haine ?

Le projet de loi SREN n’a donc pas fondamentalement Ă©voluĂ©. Il s’agit toujours d’un texte fondĂ© sur un mode de rĂ©gulation d’Internet Ă  la fois vertical et brutal, qui ne peut mener qu’à une impasse et une restriction des libertĂ©s. Comme si l’État ne savait pas rĂ©guler un mĂ©dia autrement sur ce modĂšle autoritaire. Les autres modĂšles de rĂ©gulation, notamment l’obligation d’interopĂ©rabilitĂ© des rĂ©seaux sociaux, ont Ă©tĂ© sĂšchement rejetĂ©s par le pouvoir. Le rĂ©sultat de ce refus de voir ce qu’est Internet est un texte inadaptĂ©, dangereux pour les droits fondamentaux et l’expression libre en ligne, et qui ne rĂ©soudra aucunement les problĂšmes auxquels il prĂ©tend s’attaquer. L’AssemblĂ©e nationale doit donc rejeter ce projet de loi. Et pour nous aider Ă  continuer la lutte, vous pouvez nous faire un don.

References[+]

References
↑1 Voir notre analyse gĂ©nĂ©rale du texte, celle spĂ©cifique du filtre anti-arnaque, et celle sur la vĂ©rification de l’ñge en ligne co-Ă©crite avec Act Up-Paris.
↑2 Ce qui n’est pas inĂ©dit, voir par exemple ce qui s’est passĂ© pendant les dĂ©bats sur la loi JO qui a lĂ©galisĂ© une partie de la vidĂ©osurveillance algorithmique.

Assemblée générale annuelle 2021

Par : gbastien
12 mai 2021 Ă  21:58

FACiL, pour l'appropriation collective de l'informatique libre

AVIS DE CONVOCATION
Assemblée générale annuelle des membres de FACiL
Samedi 29 mai 2021 Ă  10h

Vous ĂȘtes convoquĂ©(e)s Ă  l'assemblĂ©e gĂ©nĂ©rale annuelle des membres de FACiL qui aura lieu :

Droit de vote

  • Afin de pouvoir voter lors de cette assemblĂ©e, vous devez ĂȘtre membre en rĂšgle de FACiL

  • Les nouvelles adhĂ©sions et le paiement des cotisations des membres peuvent se faire en ligne avant ou pendant l'AGA. Il n'y aura bien sĂ»r pas de sur place pour cette annĂ©e.

Candidatures et ordre du jour

Les candidatures pour les sept postes à combler au conseil d'administration seront reçues par courriel à ca@facil.qc.ca jusqu'au vendredi 28 mai 2021, 23 h 59 (heure de l'Est). Les candidat(e)s sont invité(e)s à se présenter dans le Wiki de FACiL.

Il est Ă©galement possible de suggĂ©rer un ajout Ă  l'ordre du jour en Ă©crivant Ă  cette mĂȘme adresse.

Documents pour vous préparer à l'assemblée

  1. Projet d'ordre du jour

  2. ProcÚs-verbal de l'assemblée générale annuelle du 30 mai 2020

  3. Rapport annuel 2020-2021 de FACiL

 

>> Signaler votre intention de participer Ă  l'AGA

 

Fichier attachéTaille
PDF icon PV_AGA2020.pdf41.32 Ko
PDF icon ODJ_AGA_Facil_2021.pdf27.46 Ko
❌
❌