Zoom et les politiques de confidentialité
Cet article a Ă©tĂ© publiĂ© Ă lâorigine par THE MARKUP, il est traduit et republiĂ© avec lâaccord de lâauteur selon les termes de la licence CC BY-NC-ND 4.0
Traduction Framalang : goofy, MO, Henri-Paul, Wisi_eu
Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité
Une rĂ©cente polĂ©mique sur la capacitĂ© de Zoom Ă entraĂźner des intelligences artificielles avec les conversations des utilisateurs montre lâimportance de lire les petits caractĂšres
par Aaron Sankin
Bonjour, je mâappelle Aaron Sankin, je suis journaliste dâinvestigation Ă The Markup. JâĂ©cris ici pour vous expliquer que si vous faites quelque chose de trĂšs pĂ©nible (lire les documents dans lesquels les entreprises expliquent ce quâelles peuvent faire avec vos donnĂ©es), vous pourrez ensuite faire quelque chose dâun peu drĂŽle (piquer votre crise en ligne).
Au cours du dernier quart de siĂšcle, les politiques de protection de la vie privĂ©e â ce langage juridique long et dense que lâon parcourt rapidement avant de cliquer sans rĂ©flĂ©chir sur « Jâaccepte » â sont devenues Ă la fois plus longues et plus touffues. Une Ă©tude publiĂ©e lâannĂ©e derniĂšre a montrĂ© que non seulement la longueur moyenne des politiques de confidentialitĂ© a quadruplĂ© entre 1996 et 2021, mais quâelles sont Ă©galement devenues beaucoup plus difficiles Ă comprendre.
Voici ce quâa Ă©crit Isabel Wagner, professeur associĂ© Ă lâuniversitĂ© De Montfort, qui a utilisĂ© lâapprentissage automatique afin dâanalyser environ 50 000 politiques de confidentialitĂ© de sites web pour mener son Ă©tude :
« En analysant le contenu des politiques de confidentialitĂ©, nous identifions plusieurs tendances prĂ©occupantes, notamment lâutilisation croissante de donnĂ©es de localisation, lâexploitation croissante de donnĂ©es collectĂ©es implicitement, lâabsence de choix vĂ©ritablement Ă©clairĂ©, lâabsence de notification efficace des modifications de la politique de confidentialitĂ©, lâaugmentation du partage des donnĂ©es avec des parties tierces opaques et le manque dâinformations spĂ©cifiques sur les mesures de sĂ©curitĂ© et de confidentialitĂ© »
Si lâapprentissage automatique peut ĂȘtre un outil efficace pour comprendre lâunivers des politiques de confidentialitĂ©, sa prĂ©sence Ă lâintĂ©rieur dâune politique de confidentialitĂ© peut dĂ©clencher un ouragan. Un cas concret : Zoom.
En dĂ©but de semaine derniĂšre, Zoom, le service populaire de visioconfĂ©rence devenu omniprĂ©sent lorsque les confinements ont transformĂ© de nombreuses rĂ©unions en prĂ©sentiel en rĂ©unions dans de mini-fenĂȘtres sur des mini-Ă©crans dâordinateurs portables, a rĂ©cemment fait lâobjet de vives critiques de la part des utilisateurs et des dĂ©fenseurs de la vie privĂ©e, lorsquâun article du site dâactualitĂ©s technologiques Stack Diary a mis en Ă©vidence une section des conditions de service de lâentreprise indiquant quâelle pouvait utiliser les donnĂ©es collectĂ©es auprĂšs de ses utilisateurs pour entraĂźner lâintelligence artificielle.
Le contrat dâutilisation stipulait que les utilisateurs de Zoom donnaient Ă lâentreprise « une licence perpĂ©tuelle, non exclusive, libre de redevances, susceptible dâĂȘtre cĂ©dĂ©e en sous-licence et transfĂ©rable » pour utiliser le « Contenu client » Ă des fins diverses, notamment « de marketing, dâanalyse des donnĂ©es, dâassurance qualitĂ©, dâapprentissage automatique, dâintelligence artificielle, etc. ». Cette section ne prĂ©cisait pas que les utilisateurs devaient dâabord donner leur consentement explicite pour que lâentreprise puisse le faire.
Une entreprise qui utilise secrĂštement les donnĂ©es dâune personne pour entraĂźner un modĂšle dâintelligence artificielle est particuliĂšrement controversĂ©e par les temps qui courent. Lâutilisation de lâIA pour remplacer les acteurs et les scĂ©naristes en chair et en os est lâun des principaux points dâachoppement des grĂšves en cours qui ont paralysĂ© Hollywood. OpenAI, la sociĂ©tĂ© Ă lâorigine de ChatGPT, a fait lâobjet dâune vague de poursuites judiciaires lâaccusant dâavoir entraĂźnĂ© ses systĂšmes sur le travail dâĂ©crivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom quâElon Musk a dĂ©cidĂ© de donner Ă Twitter) ont Ă©galement pris des mesures Ă©nergiques pour empĂȘcher les entreprises dâIA dâutiliser leurs contenus pour entraĂźner des modĂšles sans obtenir elles-mĂȘmes une part de lâactivitĂ©.
La rĂ©action en ligne contre Zoom a Ă©tĂ© fĂ©roce et immĂ©diate, certaines organisations, comme le mĂ©dia Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidĂ©oconfĂ©rences. Meredith Whittaker, prĂ©sidente de lâapplication de messagerie Signal spĂ©cialisĂ©e dans la protection de la vie privĂ©e, a profitĂ© de lâoccasion pour faire de la publicitĂ© :
« HUM : Les appels vidĂ©o de @signalapp fonctionnent trĂšs bien, mĂȘme avec une faible bande passante, et ne collectent AUCUNE DONNĂE SUR VOUS NI SUR LA PERSONNE Ă QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de sâengager rĂ©ellement en faveur de la vie privĂ©e est dâinterrompre le pipeline vorace de surveillance des IA. »
Zoom, sans surprise, a éprouvé le besoin de réagir.
Dans les heures qui ont suivi la diffusion de lâhistoire, le lundi mĂȘme, Smita Hashim, responsable des produits chez Zoom, a publiĂ© un billet de blog visant Ă apaiser des personnes qui craignent de voir leurs propos et comportements ĂȘtre intĂ©grĂ©s dans des modĂšles dâentraĂźnement dâIA, alors quâelles souhaitent virtuellement un joyeux anniversaire Ă leur grand-mĂšre, Ă des milliers de kilomĂštres de distance.
« Dans le cadre de notre engagement en faveur de la transparence et du contrĂŽle par lâutilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions dâintelligence artificielle de Zoom et le partage de contenu avec les clients Ă des fins dâamĂ©lioration du produit », a Ă©crit Mme Hashim. « Notre objectif est de permettre aux propriĂ©taires de comptes Zoom et aux administrateurs de contrĂŽler ces fonctions et leurs dĂ©cisions, et nous sommes lĂ pour faire la lumiĂšre sur la façon dont nous le faisons et comment cela affecte certains groupes de clients ».
Mme Hashim Ă©crit que Zoom a mis Ă jour ses conditions dâutilisation pour donner plus de contexte sur les politiques dâutilisation des donnĂ©es par lâentreprise. Alors que le paragraphe sur Zoom ayant « une licence perpĂ©tuelle, non exclusive, libre de redevances, pouvant faire lâobjet dâune sous-licence et transfĂ©rable » pour utiliser les donnĂ©es des clients pour « lâapprentissage automatique, lâintelligence artificielle, la formation, les tests » est restĂ© intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 aoĂ»t 2023], une nouvelle phrase a Ă©tĂ© ajoutĂ©e juste en dessous :
« Zoom nâutilise aucun Contenu client audio, vidĂ©o, chat, partage dâĂ©cran, piĂšces jointes ou autres communications comme le Contenu client (tels que les rĂ©sultats des sondages, les tableaux blancs et les rĂ©actions) pour entraĂźner les modĂšles dâintelligence artificielle de Zoom ou de tiers. »
![]() copie dâĂ©cran du 16/08/2023, page https://explore.zoom.us/fr/privacy/ |
Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom nâutilise le contenu des utilisateurs que pour former lâIA Ă des produits spĂ©cifiques, comme un outil qui gĂ©nĂšre automatiquement des rĂ©sumĂ©s de rĂ©unions, et seulement aprĂšs que les utilisateurs auront explicitement choisi dâutiliser ces produits. « Un exemple de service dâapprentissage automatique pour lequel nous avons besoin dâune licence et de droits dâutilisation est notre analyse automatisĂ©e des invitations et des rappels de webinaires pour sâassurer que nous ne sommes pas utilisĂ©s involontairement pour spammer ou frauder les participants », Ă©crit-elle. « Le client est propriĂ©taire de lâinvitation au webinaire et nous sommes autorisĂ©s Ă fournir le service Ă partir de ce contenu. En ce qui concerne lâIA, nous nâutilisons pas de contenus audios, de vidĂ©os ou de chats pour entraĂźner nos modĂšles sans le consentement du client. »
La politique de confidentialitĂ© de Zoom â document distinct de ses conditions de service â ne mentionne lâintelligence artificielle ou lâapprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou dâautres outils pour recommander le chat, le courrier Ă©lectronique ou dâautres contenus ».
Pour avoir une idĂ©e de ce que tout cela signifie, jâai Ă©changĂ© avec Jesse Woo, un ingĂ©nieur spĂ©cialisĂ© en donnĂ©es de The Markup qui, en tant quâavocat spĂ©cialisĂ© dans la protection de la vie privĂ©e, a participĂ© Ă la rĂ©daction de politiques institutionnelles dâutilisation des donnĂ©es.
M. Woo explique que, bien quâil comprenne pourquoi la formulation des conditions dâutilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent lâentreprise Ă copier et Ă utiliser leur contenu est en fait assez standard dans ce type dâaccord dâutilisation. Le problĂšme est que la politique de Zoom a Ă©tĂ© rĂ©digĂ©e de maniĂšre Ă ce que chacun des droits cĂ©dĂ©s Ă lâentreprise soit spĂ©cifiquement Ă©numĂ©rĂ©, ce qui peut sembler beaucoup. Mais câest aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, dĂ©solĂ©, bienvenue dans le futur !
Pour illustrer la diffĂ©rence, M. Woo prend lâexemple de la politique de confidentialitĂ© du service de vidĂ©oconfĂ©rence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nĂ©cessaire pour fournir, soutenir ou amĂ©liorer la fourniture des services, (ii) pour enquĂȘter sur des fraudes potentielles ou prĂ©sumĂ©es, (iii) si vous nous lâavez demandĂ© ou autorisĂ©, ou (iv) si la loi lâexige ou pour exercer ou protĂ©ger nos droits lĂ©gaux ».
Cette formulation semble beaucoup moins effrayante, mĂȘme si, comme lâa notĂ© M. Woo, lâentraĂźnement de modĂšles dâIA pourrait probablement ĂȘtre mentionnĂ© par une entreprise sous couvert de mesures pour « soutenir ou amĂ©liorer la fourniture de services ».
LâidĂ©e que les gens puissent paniquer si les donnĂ©es quâils fournissent Ă une entreprise dans un but Ă©vident et simple (comme opĂ©rer un appel de vidĂ©oconfĂ©rence) sont ensuite utilisĂ©es Ă dâautres fins (comme entraĂźner un algorithme) nâest pas nouvelle. Un rapport publiĂ© par le Forum sur le futur de la vie privĂ©e (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantitĂ©s de donnĂ©es pendant le dĂ©veloppement en tant que « donnĂ©es dâentraĂźnement » crĂ©e des problĂšmes de consentement pour les personnes qui pourraient avoir acceptĂ© de fournir des donnĂ©es personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou sâattendre Ă ce quâelles soient ensuite utilisĂ©es pour la conception et le dĂ©veloppement de nouveaux algorithmes. »
Pour Woo, lâessentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les donnĂ©es des utilisateurs quâelle souhaitait pour entraĂźner lâIA sans demander leur consentement et sans courir de risque juridique dans ce processus.
Ils sont actuellement liĂ©s par les restrictions quâils viennent dâinclure dans leurs conditions dâutilisation, mais rien ne les empĂȘche de les modifier ultĂ©rieurement.
Jesse Woo, ingénieur en données chez The Markup
« Tout le risque quâils ont pris dans ce fiasco est en termes de rĂ©putation, et le seul recours des utilisateurs est de choisir un autre service de vidĂ©oconfĂ©rence », explique M. Woo. « Sâils avaient Ă©tĂ© intelligents, ils auraient utilisĂ© un langage plus circonspect, mais toujours prĂ©cis, tout en proposant lâoption du refus, ce qui est une sorte dâillusion de choix pour la plupart des gens qui nâexercent pas leur droit de refus. »
Changements futurs mis Ă part, il y a quelque chose de remarquable dans le fait quâun tollĂ© public rĂ©ussisse Ă obtenir dâune entreprise quâelle dĂ©clare officiellement quâelle ne fera pas quelque chose dâeffrayant. Lâensemble de ces informations sert dâavertissement Ă dâautres sur le fait que lâentraĂźnement de systĂšmes dâIA sur des donnĂ©es clients sans leur consentement pourrait susciter la colĂšre de bon nombre de ces clients.
Les conditions dâutilisation de Zoom mentionnent la politique de lâentreprise en matiĂšre dâintelligence artificielle depuis le mois de mars, mais cette politique nâa attirĂ© lâattention du grand public que la semaine derniĂšre. Ce dĂ©calage suggĂšre que les gens ne lisent peut-ĂȘtre pas les donnĂ©es juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en dĂ©tail ce quâelles font avec vos donnĂ©es.
Heureusement, Woo et Jon Keegan, journalistes dâinvestigation sur les donnĂ©es pour The Markup, ont rĂ©cemment publiĂ© un guide pratique (en anglais) indiquant comment lire une politique de confidentialitĂ© et en identifier rapidement les parties importantes, effrayantes ou rĂ©voltantes.
Bonne lecture !
Sur le mĂȘme thĂšme, on peut sâintĂ©resser Ă :
- tosdr.org : un projet communautaire qui vise Ă analyser et Ă Ă©valuer les conditions dâutilisation (ToS en anglais) et les politiques de confidentialitĂ© des principaux sites et services Internet.
- lâinstallation « I Agree » de lâartiste Dima Yarovinsky qui en 2018 a imprimĂ© les conditions dâutilisation de WhatsApp, Google, Tinder, Twitter, Facebook, Snapchat et Instagram et les a ensuite accrochĂ©es dans une galerie en prĂ©cisant le nombre de mots de chaque document et son temps de lecture.