Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Opposez-vous à Chat Control !

Par : Framatophe
25 octobre 2023 à 12:04

Sur ce blog, nous transposons régulièrement différents points de vue concernant les luttes pour les libertés numériques. Dans ce domaine, on constate souvent que les mouvements sociaux (solidariste, durabilistes, préfiguratifs, etc.) ne prennent que trop rarement en compte les implications directes sur leurs propres luttes que peuvent avoir les outils de surveillance des États et des entreprises monopolistes. Cela rend toujours plus nécessaire une éducation populaire d’auto-défense numérique… Du côté des mouvements autonomes et anti-autoritaires, on ressent peu ou prou les mêmes choses. Dans les groupes européens, le sujet du capitalisme de surveillance est trop peu pris en compte. C’est du moins l’avis du groupe allemand Autonomie und Solidarität qui, à l’occasion du travail en cours au Parlement Européen sur l’effrayant et imminent projet Chat Control (voir ici ou ), propose un appel général à la résistance. L’heure est grave face à un tel projet autoritaire (totalitaire !) de surveillance de masse.

Cet appel a été publié originellement en allemand sur Kontrapolis et en anglais sur Indymedia. (Trad. Fr. par Framatophe).

Opposez-vous à Chat Control !

Une minute s’il vous plaît ! Chat Control ? C’est quoi ? Et pourquoi cela devrait-il nous intéresser en tant qu’autonomes et anti-autoritaires ?

Chat Control est le projet de règlement de l’Union Européenne portant sur la prévention et la protection des enfants contre les abus sexuels. Il a été reporté pour le moment, mais il risque d’être adopté prochainement1.

Ce projet de loi est une affaire assez grave pour plusieurs raisons2.

Avec Chat Control, les autorités publiques seront autorisées à scanner, analyser et lire automatiquement les contenus des communications privées en ligne de tous les utilisateur·ices. Cela se fera via une contrainte sur les fournisseurs de chat tels que Signal, Threema, Telegram, Skype, etc.3, soit par ce qu’on appelle une analyse côté client (Client Side Scanning). Les messages et les images seraient alors lus directement sur les terminaux ou les dispositifs de stockage des utilisateur·ices. Et cela avant même qu’ils soient envoyés sous format chiffré ou après leur réception, une fois déchiffrés.

C’est précisément ce que l’UE souhaite atteindre, entre autres, avec Chat Control : rendre les communications chiffrées inutiles. Les services de renseignement, les ministères de l’Intérieur, les autorités policières, les groupes d’intérêts privés et autres profiteurs du capitalisme de surveillance, ont en effet depuis longtemps du mal à accepter que les gens puissent communiquer de manière chiffrée, anonyme et sans être lus par des tiers indésirables.

Pourtant, la communication chiffrée est très importante. Face aux répressions de l’État, elle peut protéger les millitants, les opposant·es et les minorités. Elle sert aussi à protéger les sources et les lanceur·euses d’alerte, et rendre également plus difficile la collecte de données par les entreprises.

Comme si l’intention d’interdire ou de fragiliser le chiffrement n’était pas déjà assez grave, il y a encore pas mal d’autres choses qui nous inquiètent sérieusement avec Chat Control. Ainsi, l’introduction de systèmes de blocage réseau4 est également en discussion. Plus grave encore, l’obligation de vérifier l’âge et donc de s’identifier en ligne. Cela aussi fait explicitement partie du projet. Il s’agira de faire en sorte que l’accès à certains sites web, l’accès aux contenus limités selon l’âge, l’utilisation et le téléchargement de certaines applications comme Messenger, ne soient possibles qu’avec une identification, par exemple avec une carte d’identité électronique ou une identité numérique.

Voici l’accomplissement du vieux rêve de tou·tes les Ministres de l’Intérieur et autres autoritaires du même acabit. L’obligation d’utiliser des vrais noms sur Internet et la « neutralisation » des VPN5, TOR et autres services favorisant l’anonymat figurent depuis longtemps sur leurs listes de vœux. Et ne négligeons pas non plus la joie des grands groupes de pouvoir à l’avenir identifier clairement les utilisateur·ices. L’UE se met volontiers à leur service6. Tout comme le gouvernement allemand, Nancy Faser en tête, qui se distingue par ailleurs avec une politique populiste et autoritaire de droite.

Le « tchat controle » n’est pas la première tentative mais une nouvelle, beaucoup plus vaste, d’imposer la surveillance de masse et la désanonymisation totale d’Internet. Et elle a malheureusement de grandes chances de réussir car la Commission Européenne et la majorité du Parlement, ainsi que le Conseil, les gouvernements et les ministères de l’Intérieur de tous les États membres y travaillent. Et ils voudraient même des mesures encore plus dures comme étendre ce projet au scan de nos messages audios au lieu de scanner « seulement » nos communications textuelles7.

Dans le discours manipulateur, il existe déjà des « propositions de compromis » avec lesquelles les États autoritaires souhaitent faire changer d’avis les critiques. Il s’agirait dans un premier temps, de limiter le type de contenus que les fournisseurs devront chercher, jusqu’à ce que les possibilités techniques évoluent. La surveillance du chiffrement devrait tout de même avoir lieu. Il est évident que ce n’est qu’une tentative pour maquiller les problèmes8.

Comme toujours, la justification est particulièrement fallacieuse ! On connaît la chanson : la « lutte contre le terrorisme », les « copies pirates », les drogues, les armes etc. sont des constructions argumentaires par les politiques pour faire accepter des projets autoritaires et pour en discréditer toute résistance dans l’opinion publique. Il n’en va pas autrement pour Chat Control. Cette fois-ci, l’UE a même opté pour un classique : la prétendue « protection des enfants et des adolescents » et la lutte contre l’exposition des mineurs aux contenus pornographiques. Qui voudrait s’y opposer ?

Stop Chat Control. Image librement inspirée de International-protest (Wikimedia)

Pourtant, même des experts, provenant notamment d’associations de protection de l’enfance, affirment que Chat Control ne protégera pas les enfants et les adolescents9. En effet, il permettra également de surveiller leurs communications confidentielles. Le projet peut même conduire tout droit à ce que des agents des autorités aient accès aux photos de nus et aux données confidentielles que des mineurs s’envoient entre eux… Et ils pourront ensuite faire n’importe quoi avec. Le risque de faux positifs à cause de l’emploi de l’IA est également très important. Les gens pourraient avoir de gros problèmes à cause d’une erreur technique. Mais l’UE ne s’en soucie pas car la protection des mineurs n’est pas le sujet ici.

Les domaines d’application ont déjà été élargis entre-temps… Drogues, migration, etc. Tout doit être étroitement surveillé. Quelle sera la prochaine étape ? Une application contre les extrémistes politiques identifiés comme tels ?

Et puis, il y a aussi la très probable question de « l’extension des objectifs ». Nous connaissons déjà suffisamment d’autres lois et mesures étatiques. Elles sont souvent introduites pour des raisons d’urgence. Ensuite, elles sont constamment étendues, différées, puis soudain elles sont utilisées à des fins totalement différentes par les flics et les services de renseignement, selon leur humeur. L’extension de Chat Control se prête bien à ce jeu. Les premières demandes ont déjà été formulées10.

Dans une Europe où : il y a des interdictions de manifester11 et des détentions préventives, des perquisitions pour des commentaires sur les « quéquettes »12, des liens vers Linksunten/Indymedia13 ou des graffitis14, où des enquêtes par les services de renseignement pour adbusting dans l’armée allemande, ou bien des avis de recherche pour « séjour illégal » sont monnaie courante, dans une Europe où les ultraconservateurs occupent des postes de pouvoir, appellent à l’interdiction de l’avortement et à la lutte contre les personnes queer et réfugiées15, où des structures d’extrême-droite existent dans les administrations et la police16, dans cette Europe, une infrastructure de surveillance comme Chat Control, avec interdiction du chiffrement et permis de lecture de l’État sur tous les appareils, a de graves conséquences pour la liberté de tous les êtres humains17.

Des lois et des avancées similaires, la surveillance biométrique de masse18, l’utilisation d’IA à cet égard comme à Hambourg19, les identités numériques20, le scoring21, la police prédictive22, et ainsi de suite sont en cours de développement ou sont déjà devenus des réalités… tout cela crée une infrastructure totale, centralisée et panoptique qui permet d’exercer un énorme pouvoir et une répression contre nous tous.

En tant qu’antiautoritaires, nous devrions nous défendre, attirer l’attention et faire connaître ce sujet en dehors de l’activisme numérique germanophone ! Nous appelons donc à protester et à résister contre Chat Control. Les alliances existantes comme Stop Chat Control23 pourraient être complétées par une critique autonome24. D’autres actions de protestation peuvent être imaginées, il n’y a pas de limites à la créativité. Les objectifs de telles actions de protestation pourraient éventuellement découler de la thématique…

Les anti-autoritaires résistent à Chat Control !

Nous apprécions les suggestions, les questions, les critiques et, dans le pire des cas, les louanges, et surtout la résistance !



  1. “Zeitplan für Chatkontrolle ist vorerst geplatzt”, Netzpolitik.org, 20/09/2023. (NdT –) Il s’agit du règlement CSAR, également appelé Chat Control. La Quadrature du Net en a fait une présentation.↩︎
  2. “EU-Gesetzgebung einfach erklärt” Netzpolitik.org, 28/06/2023, “Das EU-Überwachungsmonster kommt wirklich, wenn wir nichts dagegen tun”, Netzpolitik.org, 11/05/2022 ;ChatKontrolle Stoppen ; “Kennen wir ansonsten nur aus autoritären Staaten”, Süddeutsche Zeitung, 10/08/2022.↩︎
  3. “NetzDG-Bußgeld : Justizminister Buschmann will Telegram mit Trick beikommen”, Heise Online, 28/01/2022.↩︎
  4. “Die Rückkehr der Netzsperren”, Netzpolitik.org, 11/03/2021.↩︎
  5. “Online-Ausweis und VPN-Verbot : Streit über Anonymität im Netz kocht wieder hoch”, Heise Online, 08/10/2023.↩︎
  6. “EU-Ausschuss will Chatkontrolle kräftig stutzen”, Netzpolitik.org, 15/02/2023.↩︎
  7. “Live-Überwachung : Mehrheit der EU-Staaten drängt auf Audio-Chatkontrolle”, Heise Online, 17/05/2023.↩︎
  8. “Ratspräsidentschaft hält an Chatkontrolle fest”, Netzpolitik.org, 12/10/2023.↩︎
  9. “Immer wieder Vorratsdatenspeicherung”, Netzpolitik.org, 23/06/23.↩︎
  10. “https://netzpolitik.org/2023/ueberwachung-politiker-fordern-ausweitung-der-chatkontrolle-auf-andere-inhalte/”, Netzpolitik.org, 06/10/2023.↩︎
  11. “Noch mehr Macht für Beamte ist brandgefährlich”, nd Jounralismus von Links, 13/09/2021 ; “Amnesty sieht Versammlungsfreiheit in Deutschland erstmals eingeschränkt – auch in NRW”, Westdeutscher Rundfunk, 20/09/2023.↩︎
  12. “Unterhalb der Schwelle”, TAZ, 08/08/2022.↩︎
  13. “Die Suche nach einer verbotenen Vereinigung”, Netzpolitik.org, 03/08/2023.↩︎
  14. “Linksextreme Gruppen in Nürnberg : Polizei durchsucht mehrere Wohnungen”, Nordbayern, 11/10/2023.↩︎
  15. “Sehnsucht nach dem Regenbogen-Monster”, TAZ, 28/07/2023.↩︎
  16. “Das Ende eines Whistleblowers”, TAZ, 01/10/2019.↩︎
  17. “Chatkontrolle : Mit Grundrechten unvereinbar”, Gesellschaft für Freiheitsrechte ; “Sie betrifft die Rechte aller Internetnutzer”, Junge Welt, 15/09/2023.↩︎
  18. “Polizei verdoppelt Zahl identifizierter Personen jährlich”, Netzpolitik.org, 03/06/2021 ; “Mehr Kameras an Bahnhöfen”, DeutschlandFunk, 22/12/2014 ; “Polizei bildet Hunderte Drohnenpiloten aus”, nd Jounralismus von Links, 04/01/2023.↩︎
  19. “Polizei Hamburg will ab Juli Verhalten automatisch scannen”, Netzpolitik.org, 19/06/2023.↩︎
  20. “Digitale Identität aller Menschen – Fortschritt oder globale Überwachung ?”, SWR, 28/08/2022.↩︎
  21. “Punkte für das Karmakonto”, Jungle.World, 25/05/2022.↩︎
  22. “Überwachung : Interpol baut Big-Data-System Insight für”vorhersagende Analysen”, Heise Online, 24/09/2023.↩︎
  23. “Chatkontrolle-Bündnis fordert Bundesregierung zum Nein auf”, Netzpolitik.org, 18/09/2023 ; “Unser Bündnis gegen die Chatkontrolle”, Digital Courage, 12/10/2022 ; Chatkontrolle Stoppen, Digital Gesellschaft ; “Aufruf Chatkontrolle stoppen”, Digital Courage, 10/10/2022.↩︎
  24. “Statement zum EU-Verschlüsselungsverbot / Chatdurchleuchtungspflicht”, Enough 14, 15/05/2022.↩︎

Zoom et les politiques de confidentialité

Par : Framalang
17 août 2023 à 01:42

Cet article a été publié à l’origine par THE MARKUP, il est traduit et republié avec l’accord de l’auteur selon les termes de la licence CC BY-NC-ND 4.0

 

Publication originale sur le site themarkup.org

 

Traduction Framalang : goofy, MO, Henri-Paul, Wisi_eu

 

Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité

Une récente polémique sur la capacité de Zoom à entraîner des intelligences artificielles avec les conversations des utilisateurs montre l’importance de lire les petits caractères

par Aaron Sankin

 

Photo de l'extérieur du siège de Zoom le 07 février 2023 à San José, Californie. Les côtés droit et gauche de la photo sont masqués par deux zones sombres qui ne sont pas mises au point.

Justin Sullivan/Getty Images

 

photo de l'auteurBonjour, je m’appelle Aaron Sankin, je suis journaliste d’investigation à The Markup. J’écris ici pour vous expliquer que si vous faites quelque chose de très pénible (lire les documents dans lesquels les entreprises expliquent ce qu’elles peuvent faire avec vos données), vous pourrez ensuite faire quelque chose d’un peu drôle (piquer votre crise en ligne).

Au cours du dernier quart de siècle, les politiques de protection de la vie privée – ce langage juridique long et dense que l’on parcourt rapidement avant de cliquer sans réfléchir sur « J’accepte » – sont devenues à la fois plus longues et plus touffues. Une étude publiée l’année dernière a montré que non seulement la longueur moyenne des politiques de confidentialité a quadruplé entre 1996 et 2021, mais qu’elles sont également devenues beaucoup plus difficiles à comprendre.

Voici ce qu’a écrit Isabel Wagner, professeur associé à l’université De Montfort, qui a utilisé l’apprentissage automatique afin d’analyser environ 50 000 politiques de confidentialité de sites web pour mener son étude :

« En analysant le contenu des politiques de confidentialité, nous identifions plusieurs tendances préoccupantes, notamment l’utilisation croissante de données de localisation, l’exploitation croissante de données collectées implicitement, l’absence de choix véritablement éclairé, l’absence de notification efficace des modifications de la politique de confidentialité, l’augmentation du partage des données avec des parties tierces opaques et le manque d’informations spécifiques sur les mesures de sécurité et de confidentialité »

Si l’apprentissage automatique peut être un outil efficace pour comprendre l’univers des politiques de confidentialité, sa présence à l’intérieur d’une politique de confidentialité peut déclencher un ouragan. Un cas concret : Zoom.

En début de semaine dernière, Zoom, le service populaire de visioconférence devenu omniprésent lorsque les confinements ont transformé de nombreuses réunions en présentiel en réunions dans de mini-fenêtres sur des mini-écrans d’ordinateurs portables, a récemment fait l’objet de vives critiques de la part des utilisateurs et des défenseurs de la vie privée, lorsqu’un article du site d’actualités technologiques Stack Diary a mis en évidence une section des conditions de service de l’entreprise indiquant qu’elle pouvait utiliser les données collectées auprès de ses utilisateurs pour entraîner l’intelligence artificielle.

version anglaise début août, capturée par la Wayback Machine d’Internet Archive

le texte précise bien l'usage consenti par l'utilisateur de ses données pour l'apprentissage automatique et l'intelligence artificielle

version française fin juillet, capturée par la Wayback Machine d’Internet Archive

 

Le contrat d’utilisation stipulait que les utilisateurs de Zoom donnaient à l’entreprise « une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence et transférable » pour utiliser le « Contenu client » à des fins diverses, notamment « de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, etc. ». Cette section ne précisait pas que les utilisateurs devaient d’abord donner leur consentement explicite pour que l’entreprise puisse le faire.

Une entreprise qui utilise secrètement les données d’une personne pour entraîner un modèle d’intelligence artificielle est particulièrement controversée par les temps qui courent. L’utilisation de l’IA pour remplacer les acteurs et les scénaristes en chair et en os est l’un des principaux points d’achoppement des grèves en cours qui ont paralysé Hollywood. OpenAI, la société à l’origine de ChatGPT, a fait l’objet d’une vague de poursuites judiciaires l’accusant d’avoir entraîné ses systèmes sur le travail d’écrivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom qu’Elon Musk a décidé de donner à Twitter) ont également pris des mesures énergiques pour empêcher les entreprises d’IA d’utiliser leurs contenus pour entraîner des modèles sans obtenir elles-mêmes une part de l’activité.

La réaction en ligne contre Zoom a été féroce et immédiate, certaines organisations, comme le média Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidéoconférences. Meredith Whittaker, présidente de l’application de messagerie Signal spécialisée dans la protection de la vie privée, a profité de l’occasion pour faire de la publicité :

« HUM : Les appels vidéo de @signalapp fonctionnent très bien, même avec une faible bande passante, et ne collectent AUCUNE DONNÉE SUR VOUS NI SUR LA PERSONNE À QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de s’engager réellement en faveur de la vie privée est d’interrompre le pipeline vorace de surveillance des IA. »

Zoom, sans surprise, a éprouvé le besoin de réagir.

Dans les heures qui ont suivi la diffusion de l’histoire, le lundi même, Smita Hashim, responsable des produits chez Zoom, a publié un billet de blog visant à apaiser des personnes qui craignent de voir  leurs propos et comportements être intégrés dans des modèles d’entraînement d’IA, alors qu’elles souhaitent virtuellement un joyeux anniversaire à leur grand-mère, à des milliers de kilomètres de distance.

« Dans le cadre de notre engagement en faveur de la transparence et du contrôle par l’utilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions d’intelligence artificielle de Zoom et le partage de contenu avec les clients à des fins d’amélioration du produit », a écrit Mme Hashim. « Notre objectif est de permettre aux propriétaires de comptes Zoom et aux administrateurs de contrôler ces fonctions et leurs décisions, et nous sommes là pour faire la lumière sur la façon dont nous le faisons et comment cela affecte certains groupes de clients ».

Mme Hashim écrit que Zoom a mis à jour ses conditions d’utilisation pour donner plus de contexte sur les politiques d’utilisation des données par l’entreprise. Alors que le paragraphe sur Zoom ayant « une licence perpétuelle, non exclusive, libre de redevances, pouvant faire l’objet d’une sous-licence et transférable » pour utiliser les données des clients pour « l’apprentissage automatique, l’intelligence artificielle, la formation, les tests » est resté intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 août 2023], une nouvelle phrase a été ajoutée juste en dessous :

« Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers. »

Comment utilisons-nous vos données à caractère personnel ?Les employés de Zoom n’accèdent pas au Contenu client des réunions, des webinaires, des messageries ou des e-mails (en particulier, l’audio, la vidéo, les fichiers, les tableaux blancs en réunion et les contenus des messageries ou des e-mails), ni au contenu généré ou partagé dans le cadre d’autres fonctions de collaboration (comme les tableaux blancs hors réunion), et ne les utilisent pas, à moins que le titulaire du compte hébergeant le produit ou Service Zoom où le Contenu client a été généré ne le demande ou que cela ne soit nécessaire pour des raisons juridiques, de sûreté ou de sécurité. Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers.

copie d’écran du 16/08/2023, page https://explore.zoom.us/fr/privacy/

 

Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom n’utilise le contenu des utilisateurs que pour former l’IA à des produits spécifiques, comme un outil qui génère automatiquement des résumés de réunions, et seulement après que les utilisateurs auront explicitement choisi d’utiliser ces produits. « Un exemple de service d’apprentissage automatique pour lequel nous avons besoin d’une licence et de droits d’utilisation est notre analyse automatisée des invitations et des rappels de webinaires pour s’assurer que nous ne sommes pas utilisés involontairement pour spammer ou frauder les participants », écrit-elle. « Le client est propriétaire de l’invitation au webinaire et nous sommes autorisés à fournir le service à partir de ce contenu. En ce qui concerne l’IA, nous n’utilisons pas de contenus audios, de vidéos ou de chats pour entraîner nos modèles sans le consentement du client. »

La politique de confidentialité de Zoom – document distinct de ses conditions de service – ne mentionne l’intelligence artificielle ou l’apprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou d’autres outils pour recommander le chat, le courrier électronique ou d’autres contenus ».

Pour avoir une idée de ce que tout cela signifie, j’ai échangé avec Jesse Woo, un ingénieur spécialisé en données de The Markup qui, en tant qu’avocat spécialisé dans la protection de la vie privée, a participé à la rédaction de politiques institutionnelles d’utilisation des données.

M. Woo explique que, bien qu’il comprenne pourquoi la formulation des conditions d’utilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent l’entreprise à copier et à utiliser leur contenu est en fait assez standard dans ce type d’accord d’utilisation. Le problème est que la politique de Zoom a été rédigée de manière à ce que chacun des droits cédés à l’entreprise soit spécifiquement énuméré, ce qui peut sembler beaucoup. Mais c’est aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, désolé, bienvenue dans le futur !

Pour illustrer la différence, M. Woo prend l’exemple de la politique de confidentialité du service de vidéoconférence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nécessaire pour fournir, soutenir ou améliorer la fourniture des services, (ii) pour enquêter sur des fraudes potentielles ou présumées, (iii) si vous nous l’avez demandé ou autorisé, ou (iv) si la loi l’exige ou pour exercer ou protéger nos droits légaux ».

Cette formulation semble beaucoup moins effrayante, même si, comme l’a noté M. Woo, l’entraînement de modèles d’IA pourrait probablement être mentionné par une entreprise sous couvert de mesures pour « soutenir ou améliorer la fourniture de services ».

L’idée que les gens puissent paniquer si les données qu’ils fournissent à une entreprise dans un but évident et simple (comme opérer un appel de vidéoconférence) sont ensuite utilisées à d’autres fins (comme entraîner un algorithme) n’est pas nouvelle. Un rapport publié par le Forum sur le futur de la vie privée (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantités de données pendant le développement en tant que « données d’entraînement » crée des problèmes de consentement pour les personnes qui pourraient avoir accepté de fournir des données personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou s’attendre à ce qu’elles soient ensuite utilisées pour la conception et le développement de nouveaux algorithmes. »

Pour Woo, l’essentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les données des utilisateurs qu’elle souhaitait pour entraîner l’IA sans demander leur consentement et sans courir de risque juridique dans ce processus.

Ils sont actuellement liés par les restrictions qu’ils viennent d’inclure dans leurs conditions d’utilisation, mais rien ne les empêche de les modifier ultérieurement.
Jesse Woo, ingénieur en données chez The Markup

« Tout le risque qu’ils ont pris dans ce fiasco est en termes de réputation, et le seul recours des utilisateurs est de choisir un autre service de vidéoconférence », explique M. Woo. « S’ils avaient été intelligents, ils auraient utilisé un langage plus circonspect, mais toujours précis, tout en proposant l’option du refus, ce qui est une sorte d’illusion de choix pour la plupart des gens qui n’exercent pas leur droit de refus. »

Changements futurs mis à part, il y a quelque chose de remarquable dans le fait qu’un tollé public réussisse à obtenir d’une entreprise qu’elle déclare officiellement qu’elle ne fera pas quelque chose d’effrayant. L’ensemble de ces informations sert d’avertissement à d’autres sur le fait que l’entraînement de systèmes d’IA sur des données clients sans leur consentement pourrait susciter la colère de bon nombre de ces clients.

Les conditions d’utilisation de Zoom mentionnent la politique de l’entreprise en matière d’intelligence artificielle depuis le mois de mars, mais cette politique n’a attiré l’attention du grand public que la semaine dernière. Ce décalage suggère que les gens ne lisent peut-être pas les données juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en détail ce qu’elles font avec vos données.

Heureusement, Woo et Jon Keegan, journalistes d’investigation sur les données pour The Markup, ont récemment publié un guide pratique (en anglais) indiquant comment lire une politique de confidentialité et en  identifier rapidement les parties importantes, effrayantes ou révoltantes.

Bonne lecture !


Sur le même thème, on peut s’intéresser à :

 

Un kit pédagogique proposé par Exodus Privacy

Par : Framasoft
8 juin 2023 à 01:42

À l’heure où dans une dérive policière inquiétante on criminalise les personnes qui veulent protéger leur vie privée, il est plus que jamais important que soient diffusées à une large échelle les connaissances et les pratiques qui permettent de prendre conscience des enjeux et de préserver la confidentialité. Dans cette démarche, l’association Exodus Privacy joue un rôle important en rendant accessible l’analyse des trop nombreux pisteurs qui parasitent nos ordiphones. Cette même association propose aujourd’hui un nouvel outil ou plutôt une boîte à outils tout aussi intéressante…

Bonjour, Exodus Privacy. Chez Framasoft, on vous connaît bien et on vous soutient mais pouvez-vous rappeler à nos lecteurs et lectrices en quoi consiste l’activité de votre association ?

Oui, avec plaisir ! L’association Exodus Privacy a pour but de permettre au plus grand nombre de personnes de mieux protéger sa vie privée sur son smartphone. Pour cela, on propose des outils d’analyse des applications issues du Google Play store ou de F-droid qui permettent de savoir notamment si des pisteurs s’y cachent. On propose donc une application qui permet d’analyser les différentes applications présentes sur son smartphone et une plateforme d’analyse en ligne.

Logo d'exodus privacy, c'est un E

Logo d’Exodus Privacy

Alors ça ne suffisait pas de fournir des outils pour ausculter les applications et d’y détecter les petits et gros espions ? Vous proposez maintenant un outil pédagogique ? Expliquez-nous ça…
Depuis le début de l’association, on anime des ateliers et des conférences et on est régulièrement sollicité·es pour intervenir. Comme on est une petite association de bénévoles, on ne peut être présent·es partout et on s’est dit qu’on allait proposer un kit pour permettre aux personnes intéressées d’animer un atelier « smartphones et vie privée » sans avoir besoin de nous !

Selon vous, dans quels contextes le kit peut-il être utilisé ? Vous vous adressez plutôt aux formatrices ou médiateurs de profession, aux bénévoles d’une asso qui veulent proposer un atelier ou bien directement aux membres de la famille Dupuis-Morizeau ?
Clairement, on s’adresse à deux types de publics : les médiateur·ices numériques professionnel·les qui proposent des ateliers pour leurs publics, qu’ils et elles soient en bibliothèque, en centre social ou en maison de quartier, mais aussi les bénévoles d’associations qui proposent des actions autour de la protection de l’intimité numérique.

Bon en fait qu’est-ce qu’il y a dans ce kit, et comment on peut s’en servir ?
Dans ce kit, il y a tout pour animer un atelier d’1h30 destiné à un public débutant ou peu à l’aise avec le smartphone : un déroulé détaillé pour la personne qui anime, un diaporama, une vidéo pédagogique pour expliquer les pisteurs et une fiche qui permet aux participant·es de repartir avec un récapitulatif de ce qui a été abordé pendant l’atelier.

Par exemple, on propose, à partir d’un faux téléphone, dont on ne connaît que les logos des applications, de deviner des éléments sur la vie de la personne qui possède ce téléphone. On a imaginé des méthodes d’animation ludiques et participatives, mais chacun·e peut adapter en fonction de ses envies et de son aisance !

un faux téléphone pour acquérir de vraies compétences en matière de vie privée

un faux téléphone pour acquérir de vraies compétences en matière de vie privée

Comment l’avez-vous conçu ? Travail d’une grosse équipe ou d’un petit noyau d’acharnés ?
Nous avons été au total 2-3 bénévoles dans l’association à créer les contenus, dont MeTaL_PoU qui a suivi/piloté le projet, Héloïse de NetFreaks qui s’est occupée du motion-design de la vidéo et _Lila* de la création graphique et de la mise en page. Tout s’est fait à distance ! À chaque réunion mensuelle de l’association, on faisait un point sur l’avancée du projet, qui a mis plus longtemps que prévu à se terminer, sûrement parce qu’on n’avait pas totalement bien évalué le temps nécessaire et qu’une partie du projet reposait sur du bénévolat. Mais on est fier·es de le publier maintenant !

Vous l’avez déjà bêta-testé ? Premières réactions après tests ?
On a fait tester un premier prototype à des médiateur·ices numériques. Les retours ont confirmé que l’atelier fonctionne bien, mais qu’il y avait quelques détails à modifier, notamment des éléments qui manquaient de clarté. C’est l’intérêt des regards extérieurs : au sein d’Exodus Privacy, des choses peuvent nous paraître évidentes alors qu’elles ne le sont pas du tout !

aspi espion qui aspire les données avec l'œil de la surveillance

Aspi espion qui aspire vos données privées en vous surveillant du coin de l’œil

 

Votre kit est disponible pour tout le monde ? Sous quelle licence ? C’est du libre ?
Il est disponible en CC-BY-SA, et c’est du libre, comme tout ce qu’on fait ! Il n’existe pour le moment qu’en français, mais rien n’empêche de contribuer pour l’améliorer !

Tout ça représente un coût, ça justifie un appel aux dons ?
Nous avons eu de la chance : ce projet a été financé en intégralité par la Fondation AFNIC pour un numérique inclusif et on les remercie grandement pour ça ! Le coût de ce kit est quasi-exclusivement lié à la rémunération des professionnel·les ayant travaillé sur le motion design, la mise en page et la création graphique.

Est-ce que vous pensez faire un peu de communication à destination des publics visés, par exemple les médiateur-ices numériques de l’Éducation Nationale, des structures d’éducation populaire comme le CEMEA  etc. ?

Mais oui, c’est prévu : on est déjà en contact avec le CEMEA et l’April notamment. Il y a également une communication prévue au sein des ProfDoc. et ce sera diffusé au sein des réseaux de MedNum.

Le travail d’Exodus Privacy va au delà de ce kit et il est important de le soutenir ! Pour découvrir les actions de cette formidable association et y contribuer, c’est sur leur site web : https://exodus-privacy.eu.org/fr/page/contribute On souhaite un franc succès et une large diffusion à ce nouvel outil. Merci pour ça et pour toutes leurs initiatives !

un personnage vêtu de gris assis sur un banc est presque entièrement abrité derrière un parapluie gris. le banc est sur l'herbe, au bord d'un trottoir pavé

« Privacy » par doegox, licence CC BY-SA 2.0.

❌
❌