❌

Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraĂźchir la page.

Zoom et les politiques de confidentialité

Cet article a Ă©tĂ© publiĂ© Ă  l’origine par THE MARKUP, il est traduit et republiĂ© avec l’accord de l’auteur selon les termes de la licence CC BY-NC-ND 4.0

 

Publication originale sur le site themarkup.org

 

Traduction Framalang : goofy, MO, Henri-Paul, Wisi_eu

 

Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité

Une rĂ©cente polĂ©mique sur la capacitĂ© de Zoom Ă  entraĂźner des intelligences artificielles avec les conversations des utilisateurs montre l’importance de lire les petits caractĂšres

par Aaron Sankin

 

Photo de l'extérieur du siÚge de Zoom le 07 février 2023 à San José, Californie. Les cÎtés droit et gauche de la photo sont masqués par deux zones sombres qui ne sont pas mises au point.

Justin Sullivan/Getty Images

 

photo de l'auteurBonjour, je m’appelle Aaron Sankin, je suis journaliste d’investigation Ă  The Markup. J’écris ici pour vous expliquer que si vous faites quelque chose de trĂšs pĂ©nible (lire les documents dans lesquels les entreprises expliquent ce qu’elles peuvent faire avec vos donnĂ©es), vous pourrez ensuite faire quelque chose d’un peu drĂŽle (piquer votre crise en ligne).

Au cours du dernier quart de siĂšcle, les politiques de protection de la vie privĂ©e – ce langage juridique long et dense que l’on parcourt rapidement avant de cliquer sans rĂ©flĂ©chir sur « J’accepte Â» – sont devenues Ă  la fois plus longues et plus touffues. Une Ă©tude publiĂ©e l’annĂ©e derniĂšre a montrĂ© que non seulement la longueur moyenne des politiques de confidentialitĂ© a quadruplĂ© entre 1996 et 2021, mais qu’elles sont Ă©galement devenues beaucoup plus difficiles Ă  comprendre.

Voici ce qu’a Ă©crit Isabel Wagner, professeur associĂ© Ă  l’universitĂ© De Montfort, qui a utilisĂ© l’apprentissage automatique afin d’analyser environ 50 000 politiques de confidentialitĂ© de sites web pour mener son Ă©tude :

« En analysant le contenu des politiques de confidentialitĂ©, nous identifions plusieurs tendances prĂ©occupantes, notamment l’utilisation croissante de donnĂ©es de localisation, l’exploitation croissante de donnĂ©es collectĂ©es implicitement, l’absence de choix vĂ©ritablement Ă©clairĂ©, l’absence de notification efficace des modifications de la politique de confidentialitĂ©, l’augmentation du partage des donnĂ©es avec des parties tierces opaques et le manque d’informations spĂ©cifiques sur les mesures de sĂ©curitĂ© et de confidentialitĂ© Â»

Si l’apprentissage automatique peut ĂȘtre un outil efficace pour comprendre l’univers des politiques de confidentialitĂ©, sa prĂ©sence Ă  l’intĂ©rieur d’une politique de confidentialitĂ© peut dĂ©clencher un ouragan. Un cas concret : Zoom.

En dĂ©but de semaine derniĂšre, Zoom, le service populaire de visioconfĂ©rence devenu omniprĂ©sent lorsque les confinements ont transformĂ© de nombreuses rĂ©unions en prĂ©sentiel en rĂ©unions dans de mini-fenĂȘtres sur des mini-Ă©crans d’ordinateurs portables, a rĂ©cemment fait l’objet de vives critiques de la part des utilisateurs et des dĂ©fenseurs de la vie privĂ©e, lorsqu’un article du site d’actualitĂ©s technologiques Stack Diary a mis en Ă©vidence une section des conditions de service de l’entreprise indiquant qu’elle pouvait utiliser les donnĂ©es collectĂ©es auprĂšs de ses utilisateurs pour entraĂźner l’intelligence artificielle.

version anglaise dĂ©but aoĂ»t, capturĂ©e par la Wayback Machine d’Internet Archive

le texte précise bien l'usage consenti par l'utilisateur de ses données pour l'apprentissage automatique et l'intelligence artificielle

version française fin juillet, capturĂ©e par la Wayback Machine d’Internet Archive

 

Le contrat d’utilisation stipulait que les utilisateurs de Zoom donnaient Ă  l’entreprise « une licence perpĂ©tuelle, non exclusive, libre de redevances, susceptible d’ĂȘtre cĂ©dĂ©e en sous-licence et transfĂ©rable Â» pour utiliser le « Contenu client Â» Ă  des fins diverses, notamment « de marketing, d’analyse des donnĂ©es, d’assurance qualitĂ©, d’apprentissage automatique, d’intelligence artificielle, etc. Â». Cette section ne prĂ©cisait pas que les utilisateurs devaient d’abord donner leur consentement explicite pour que l’entreprise puisse le faire.

Une entreprise qui utilise secrĂštement les donnĂ©es d’une personne pour entraĂźner un modĂšle d’intelligence artificielle est particuliĂšrement controversĂ©e par les temps qui courent. L’utilisation de l’IA pour remplacer les acteurs et les scĂ©naristes en chair et en os est l’un des principaux points d’achoppement des grĂšves en cours qui ont paralysĂ© Hollywood. OpenAI, la sociĂ©tĂ© Ă  l’origine de ChatGPT, a fait l’objet d’une vague de poursuites judiciaires l’accusant d’avoir entraĂźnĂ© ses systĂšmes sur le travail d’écrivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom qu’Elon Musk a dĂ©cidĂ© de donner Ă  Twitter) ont Ă©galement pris des mesures Ă©nergiques pour empĂȘcher les entreprises d’IA d’utiliser leurs contenus pour entraĂźner des modĂšles sans obtenir elles-mĂȘmes une part de l’activitĂ©.

La rĂ©action en ligne contre Zoom a Ă©tĂ© fĂ©roce et immĂ©diate, certaines organisations, comme le mĂ©dia Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidĂ©oconfĂ©rences. Meredith Whittaker, prĂ©sidente de l’application de messagerie Signal spĂ©cialisĂ©e dans la protection de la vie privĂ©e, a profitĂ© de l’occasion pour faire de la publicitĂ© :

« HUM : Les appels vidĂ©o de @signalapp fonctionnent trĂšs bien, mĂȘme avec une faible bande passante, et ne collectent AUCUNE DONNÉE SUR VOUS NI SUR LA PERSONNE À QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de s’engager rĂ©ellement en faveur de la vie privĂ©e est d’interrompre le pipeline vorace de surveillance des IA. Â»

Zoom, sans surprise, a éprouvé le besoin de réagir.

Dans les heures qui ont suivi la diffusion de l’histoire, le lundi mĂȘme, Smita Hashim, responsable des produits chez Zoom, a publiĂ© un billet de blog visant Ă  apaiser des personnes qui craignent de voir  leurs propos et comportements ĂȘtre intĂ©grĂ©s dans des modĂšles d’entraĂźnement d’IA, alors qu’elles souhaitent virtuellement un joyeux anniversaire Ă  leur grand-mĂšre, Ă  des milliers de kilomĂštres de distance.

« Dans le cadre de notre engagement en faveur de la transparence et du contrĂŽle par l’utilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions d’intelligence artificielle de Zoom et le partage de contenu avec les clients Ă  des fins d’amĂ©lioration du produit Â», a Ă©crit Mme Hashim. « Notre objectif est de permettre aux propriĂ©taires de comptes Zoom et aux administrateurs de contrĂŽler ces fonctions et leurs dĂ©cisions, et nous sommes lĂ  pour faire la lumiĂšre sur la façon dont nous le faisons et comment cela affecte certains groupes de clients Â».

Mme Hashim Ă©crit que Zoom a mis Ă  jour ses conditions d’utilisation pour donner plus de contexte sur les politiques d’utilisation des donnĂ©es par l’entreprise. Alors que le paragraphe sur Zoom ayant « une licence perpĂ©tuelle, non exclusive, libre de redevances, pouvant faire l’objet d’une sous-licence et transfĂ©rable Â» pour utiliser les donnĂ©es des clients pour « l’apprentissage automatique, l’intelligence artificielle, la formation, les tests Â» est restĂ© intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 aoĂ»t 2023], une nouvelle phrase a Ă©tĂ© ajoutĂ©e juste en dessous :

« Zoom n’utilise aucun Contenu client audio, vidĂ©o, chat, partage d’écran, piĂšces jointes ou autres communications comme le Contenu client (tels que les rĂ©sultats des sondages, les tableaux blancs et les rĂ©actions) pour entraĂźner les modĂšles d’intelligence artificielle de Zoom ou de tiers. Â»

Comment utilisons-nous vos donnĂ©es Ă  caractĂšre personnel ?Les employĂ©s de Zoom n’accĂšdent pas au Contenu client des rĂ©unions, des webinaires, des messageries ou des e-mails (en particulier, l’audio, la vidĂ©o, les fichiers, les tableaux blancs en rĂ©union et les contenus des messageries ou des e-mails), ni au contenu gĂ©nĂ©rĂ© ou partagĂ© dans le cadre d’autres fonctions de collaboration (comme les tableaux blancs hors rĂ©union), et ne les utilisent pas, Ă  moins que le titulaire du compte hĂ©bergeant le produit ou Service Zoom oĂč le Contenu client a Ă©tĂ© gĂ©nĂ©rĂ© ne le demande ou que cela ne soit nĂ©cessaire pour des raisons juridiques, de sĂ»retĂ© ou de sĂ©curitĂ©. Zoom n’utilise aucun Contenu client audio, vidĂ©o, chat, partage d’écran, piĂšces jointes ou autres communications comme le Contenu client (tels que les rĂ©sultats des sondages, les tableaux blancs et les rĂ©actions) pour entraĂźner les modĂšles d’intelligence artificielle de Zoom ou de tiers.

copie d’écran du 16/08/2023, page https://explore.zoom.us/fr/privacy/

 

Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom n’utilise le contenu des utilisateurs que pour former l’IA Ă  des produits spĂ©cifiques, comme un outil qui gĂ©nĂšre automatiquement des rĂ©sumĂ©s de rĂ©unions, et seulement aprĂšs que les utilisateurs auront explicitement choisi d’utiliser ces produits. « Un exemple de service d’apprentissage automatique pour lequel nous avons besoin d’une licence et de droits d’utilisation est notre analyse automatisĂ©e des invitations et des rappels de webinaires pour s’assurer que nous ne sommes pas utilisĂ©s involontairement pour spammer ou frauder les participants Â», Ă©crit-elle. « Le client est propriĂ©taire de l’invitation au webinaire et nous sommes autorisĂ©s Ă  fournir le service Ă  partir de ce contenu. En ce qui concerne l’IA, nous n’utilisons pas de contenus audios, de vidĂ©os ou de chats pour entraĂźner nos modĂšles sans le consentement du client. Â»

La politique de confidentialitĂ© de Zoom – document distinct de ses conditions de service – ne mentionne l’intelligence artificielle ou l’apprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou d’autres outils pour recommander le chat, le courrier Ă©lectronique ou d’autres contenus Â».

Pour avoir une idĂ©e de ce que tout cela signifie, j’ai Ă©changĂ© avec Jesse Woo, un ingĂ©nieur spĂ©cialisĂ© en donnĂ©es de The Markup qui, en tant qu’avocat spĂ©cialisĂ© dans la protection de la vie privĂ©e, a participĂ© Ă  la rĂ©daction de politiques institutionnelles d’utilisation des donnĂ©es.

M. Woo explique que, bien qu’il comprenne pourquoi la formulation des conditions d’utilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent l’entreprise Ă  copier et Ă  utiliser leur contenu est en fait assez standard dans ce type d’accord d’utilisation. Le problĂšme est que la politique de Zoom a Ă©tĂ© rĂ©digĂ©e de maniĂšre Ă  ce que chacun des droits cĂ©dĂ©s Ă  l’entreprise soit spĂ©cifiquement Ă©numĂ©rĂ©, ce qui peut sembler beaucoup. Mais c’est aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, dĂ©solĂ©, bienvenue dans le futur !

Pour illustrer la diffĂ©rence, M. Woo prend l’exemple de la politique de confidentialitĂ© du service de vidĂ©oconfĂ©rence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nĂ©cessaire pour fournir, soutenir ou amĂ©liorer la fourniture des services, (ii) pour enquĂȘter sur des fraudes potentielles ou prĂ©sumĂ©es, (iii) si vous nous l’avez demandĂ© ou autorisĂ©, ou (iv) si la loi l’exige ou pour exercer ou protĂ©ger nos droits lĂ©gaux Â».

Cette formulation semble beaucoup moins effrayante, mĂȘme si, comme l’a notĂ© M. Woo, l’entraĂźnement de modĂšles d’IA pourrait probablement ĂȘtre mentionnĂ© par une entreprise sous couvert de mesures pour « soutenir ou amĂ©liorer la fourniture de services Â».

L’idĂ©e que les gens puissent paniquer si les donnĂ©es qu’ils fournissent Ă  une entreprise dans un but Ă©vident et simple (comme opĂ©rer un appel de vidĂ©oconfĂ©rence) sont ensuite utilisĂ©es Ă  d’autres fins (comme entraĂźner un algorithme) n’est pas nouvelle. Un rapport publiĂ© par le Forum sur le futur de la vie privĂ©e (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantitĂ©s de donnĂ©es pendant le dĂ©veloppement en tant que « donnĂ©es d’entraĂźnement Â» crĂ©e des problĂšmes de consentement pour les personnes qui pourraient avoir acceptĂ© de fournir des donnĂ©es personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou s’attendre Ă  ce qu’elles soient ensuite utilisĂ©es pour la conception et le dĂ©veloppement de nouveaux algorithmes. Â»

Pour Woo, l’essentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les donnĂ©es des utilisateurs qu’elle souhaitait pour entraĂźner l’IA sans demander leur consentement et sans courir de risque juridique dans ce processus.

Ils sont actuellement liĂ©s par les restrictions qu’ils viennent d’inclure dans leurs conditions d’utilisation, mais rien ne les empĂȘche de les modifier ultĂ©rieurement.
Jesse Woo, ingénieur en données chez The Markup

« Tout le risque qu’ils ont pris dans ce fiasco est en termes de rĂ©putation, et le seul recours des utilisateurs est de choisir un autre service de vidĂ©oconfĂ©rence Â», explique M. Woo. « S’ils avaient Ă©tĂ© intelligents, ils auraient utilisĂ© un langage plus circonspect, mais toujours prĂ©cis, tout en proposant l’option du refus, ce qui est une sorte d’illusion de choix pour la plupart des gens qui n’exercent pas leur droit de refus. Â»

Changements futurs mis Ă  part, il y a quelque chose de remarquable dans le fait qu’un tollĂ© public rĂ©ussisse Ă  obtenir d’une entreprise qu’elle dĂ©clare officiellement qu’elle ne fera pas quelque chose d’effrayant. L’ensemble de ces informations sert d’avertissement Ă  d’autres sur le fait que l’entraĂźnement de systĂšmes d’IA sur des donnĂ©es clients sans leur consentement pourrait susciter la colĂšre de bon nombre de ces clients.

Les conditions d’utilisation de Zoom mentionnent la politique de l’entreprise en matiĂšre d’intelligence artificielle depuis le mois de mars, mais cette politique n’a attirĂ© l’attention du grand public que la semaine derniĂšre. Ce dĂ©calage suggĂšre que les gens ne lisent peut-ĂȘtre pas les donnĂ©es juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en dĂ©tail ce qu’elles font avec vos donnĂ©es.

Heureusement, Woo et Jon Keegan, journalistes d’investigation sur les donnĂ©es pour The Markup, ont rĂ©cemment publiĂ© un guide pratique (en anglais) indiquant comment lire une politique de confidentialitĂ© et en  identifier rapidement les parties importantes, effrayantes ou rĂ©voltantes.

Bonne lecture !


Sur le mĂȘme thĂšme, on peut s’intĂ©resser Ă  :

 

DĂ©mystifier les conneries sur l’IA – Une interview

Cet article a Ă©tĂ© publiĂ© Ă  l’origine par THE MARKUP, il a Ă©tĂ© traduit et republiĂ© selon les termes de la licence Creative Commons Attribution-NonCommercial-NoDerivatives
Publication originale sur le site themarkup.org

DĂ©mystifier le buzz autour de l’IA

Un entretien avec Arvind Narayanan

par JULIA ANGWIN
Si vous avez parcouru tout le battage mĂ©diatique sur ChatGPT le dernier robot conversationnel qui repose sur l’intelligence artificielle, vous pouvez avoir quelque raison de croire que la fin du monde est proche.

Le chat « intelligent Â» de l’IA a enflammĂ© l’imagination du public pour sa capacitĂ© Ă  gĂ©nĂ©rer instantanĂ©ment des poĂšmes, des essais, sa capacitĂ© Ă  imiter divers styles d’écrits, et Ă  rĂ©ussir Ă  des examens d’écoles de droit et de commerce.

Les enseignants s’inquiĂštent de la tricherie possible de leurs Ă©tudiants (des Ă©coles publiques de New York City l’ont dĂ©jĂ  interdit). Les rĂ©dacteurs se demandent si cela ne va pas faire disparaĂźtre leur travail (BuzzFeed et CNET ont dĂ©jĂ  utilisĂ© l’IA pour crĂ©er des contenus). Le journal The Atlantic a dĂ©clarĂ© que cela pourrait « dĂ©stabiliser les professions de cadres supĂ©rieurs Â». L’investisseur en capital-risque Paul Kedrosky l’a qualifiĂ© de « bombe nuclĂ©aire de poche Â» et blĂąmĂ© ses concepteurs pour l’avoir lancĂ© dans une sociĂ©tĂ© qui n’y est pas prĂȘte.

MĂȘme le PDG de l’entreprise qui a lancĂ© ChatGPT, Sam Altman, a dĂ©clarĂ© aux mĂ©dias que le pire scĂ©nario pour l’IA pourrait signifier « notre extinction finale Â».

Cependant pour d’autres ce buzz est dĂ©mesurĂ©. Le principal scientifique chargĂ© de l’IA chez Meta’s AI, Yann LeCun, a dĂ©clarĂ© Ă  des journalistes que ChatGPT n’a « rien de rĂ©volutionnaire Â». Le professeur de langage informatique de l’universitĂ© de Washington Emily Bender prĂ©cise que « la croyance en un programme informatique omniscient vient de la science-fiction et devrait y rester Â».

Alors, jusqu’à quel point devrions-nous nous inquiĂ©ter ? Pour recueillir un avis autorisĂ©, je me suis adressĂ©e au professeur d’informatique de Princeton Arvind Narayanan, qui est en train de co-rĂ©diger un livre sur « Le charlatanisme de l’IA Â». En 2019, Narayanan a fait une confĂ©rence au MIT intitulĂ©e « Comment identifier le charlatanisme del’IA Â» qui exposait une classification des IA en fonction de leur validitĂ© ou non. À sa grande surprise, son obscure confĂ©rence universitaire est devenue virale, et ses diapos ont Ă©tĂ© tĂ©lĂ©chargĂ©es plusieurs dizaines de milliers de fois ; ses messages sur twitter qui ont suivi ont reçu plus de deux millions de vues.

Narayanan s’est alors associĂ© Ă  l’un de ses Ă©tudiants, Sayash Kapoor, pour dĂ©velopper dans un livre la classification des IA. L’annĂ©e derniĂšre, leur duo a publiĂ© une liste de 18 piĂšges courants dans lesquels tombent rĂ©guliĂšrement les journalistes qui couvrent le sujet des IA. Presque en haut de la liste : « illustrer des articles sur l’IA avec de chouettes images de robots Â». La raison : donner une image anthropomorphique des IA implique de façon fallacieuse qu’elles ont le potentiel d’agir dans le monde rĂ©el.

Narayanan est Ă©galement le co-auteur d’un manuel sur l’équitĂ© et l’apprentissage machine et dirige le projet Web Transparency and Accountability de l’universitĂ© de Princeton pour contrĂŽler comment les entreprises collectent et utilisent les informations personnelles. Il a reçu de la Maison-Blanche le Presidential Early Career Award for Scientists and Engineers [N. de T. : une distinction honorifique pour les scientifiques et ingĂ©nieurs qui entament brillamment leur carriĂšre].

Voici notre échange, édité par souci de clarté et briÚveté.

Angwin : vous avez qualifiĂ© ChatGPT de « gĂ©nĂ©rateur de conneries Â». Pouvez-vous expliquer ce que vous voulez dire ?

Narayanan : Sayash Kapoor et moi-mĂȘme l’appelons gĂ©nĂ©rateur de conneries et nous ne sommes pas les seuls Ă  le qualifier ainsi. Pas au sens strict mais dans un sens prĂ©cis. Ce que nous voulons dire, c’est qu’il est entraĂźnĂ© pour produire du texte vraisemblable. Il est trĂšs bon pour ĂȘtre persuasif, mais n’est pas entraĂźnĂ© pour produire des Ă©noncĂ©s vrais ; s’il gĂ©nĂšre souvent des Ă©noncĂ©s vrais, c’est un effet collatĂ©ral du fait qu’il doit ĂȘtre plausible et persuasif, mais ce n’est pas son but.

Cela rejoint vraiment ce que le philosophe Harry Frankfurt a appelĂ© du bullshit, c’est-Ă -dire du langage qui a pour objet de persuader sans Ă©gards pour le critĂšre de vĂ©ritĂ©. Ceux qui dĂ©bitent du bullshit se moquent de savoir si ce qu’ils disent est vrai ; ils ont en tĂȘte certains objectifs. Tant qu’ils persuadent, ces objectifs sont atteints. Et en effet, c’est ce que fait ChatGPT. Il tente de persuader, et n’a aucun moyen de savoir Ă  coup sĂ»r si ses Ă©noncĂ©s sont vrais ou non.

Angwin : Qu’est-ce qui vous inquiĂšte le plus avec ChatGPT ?

Narayanan : il existe des cas trĂšs clairs et dangereux de mĂ©sinformation dont nous devons nous inquiĂ©ter. Par exemple si des personnes l’utilisent comme outil d’apprentissage et accidentellement apprennent des informations erronĂ©es, ou si des Ă©tudiants rĂ©digent des essais en utilisant ChatGPT quand ils ont un devoir maison Ă  faire. J’ai appris rĂ©cemment que le CNET a depuis plusieurs mois maintenant utilisĂ© des outils d’IA gĂ©nĂ©rative pour Ă©crire des articles. MĂȘme s’ils prĂ©tendent que des Ă©diteurs humains ont vĂ©rifiĂ© rigoureusement les affirmations de ces textes, il est apparu que ce n’était pas le cas. Le CNET a publiĂ© des articles Ă©crits par une IA sans en informer correctement, c’est le cas pour 75 articles, et plusieurs d’entre eux se sont avĂ©rĂ©s contenir des erreurs qu’un rĂ©dacteur humain n’aurait trĂšs probablement jamais commises. Ce n’était pas dans une mauvaise intention, mais c’est le genre de danger dont nous devons nous prĂ©occuper davantage quand des personnes se tournent vers l’IA en raison des contraintes pratiques qu’elles affrontent. Ajoutez Ă  cela le fait que l’outil ne dispose pas d’une notion claire de la vĂ©ritĂ©, et vous avez la recette du dĂ©sastre.

Angwin : Vous avez dĂ©veloppĂ© une classification des l’IA dans laquelle vous dĂ©crivez diffĂ©rents types de technologies qui rĂ©pondent au terme gĂ©nĂ©rique de « IA Â». Pouvez-vous nous dire oĂč se situe ChatGPT dans cette taxonomie ?

Narayanan : ChatGPT appartient Ă  la catĂ©gorie des IA gĂ©nĂ©ratives. Au plan technologique, elle est assez comparable aux modĂšles de conversion de texte en image, comme DALL-E [qui crĂ©e des images en fonction des instructions textuelles d’un utilisateur]. Ils sont liĂ©s aux IA utilisĂ©es pour les tĂąches de perception. Ce type d’IA utilise ce que l’on appelle des modĂšles d’apprentissage profond. Il y a environ dix ans, les technologies d’identification par ordinateur ont commencĂ© Ă  devenir performantes pour distinguer un chat d’un chien, ce que les humains peuvent faire trĂšs facilement.

Ce qui a changĂ© au cours des cinq derniĂšres annĂ©es, c’est que, grĂące Ă  une nouvelle technologie qu’on appelle des transformateurs et Ă  d’autres technologies associĂ©es, les ordinateurs sont devenus capables d’inverser la tĂąche de perception qui consiste Ă  distinguer un chat ou un chien. Cela signifie qu’à partir d’un texte, ils peuvent gĂ©nĂ©rer une image crĂ©dible d’un chat ou d’un chien, ou mĂȘme des choses fantaisistes comme un astronaute Ă  cheval. La mĂȘme chose se produit avec le texte : non seulement ces modĂšles prennent un fragment de texte et le classent, mais, en fonction d’une demande, ces modĂšles peuvent essentiellement effectuer une classification Ă  l’envers et produire le texte plausible qui pourrait correspondre Ă  la catĂ©gorie donnĂ©e.

Angwin : une autre catĂ©gorie d’IA dont vous parlez est celle qui prĂ©tend Ă©tablir des jugements automatiques. Pouvez-vous nous dire ce que ça implique ?

Narayanan : je pense que le meilleur exemple d’automatisation du jugement est celui de la modĂ©ration des contenus sur les mĂ©dias sociaux. Elle est nettement imparfaite ; il y a eu Ă©normĂ©ment d’échecs notables de la modĂ©ration des contenus, dont beaucoup ont eu des consĂ©quences mortelles. Les mĂ©dias sociaux ont Ă©tĂ© utilisĂ©s pour inciter Ă  la violence, voire Ă  la violence gĂ©nocidaire dans de nombreuses rĂ©gions du monde, notamment au Myanmar, au Sri Lanka et en Éthiopie. Il s’agissait dans tous les cas d’échecs de la modĂ©ration des contenus, y compris de la modĂ©ration du contenu par l’IA.

Toutefois les choses s’amĂ©liorent. Il est possible, du moins jusqu’à un certain point, de s’emparer du travail des modĂ©rateurs de contenus humains et d’entraĂźner des modĂšles Ă  repĂ©rer dans une image de la nuditĂ© ou du discours de haine. Il existera toujours des limitations intrinsĂšques, mais la modĂ©ration de contenu est un boulot horrible. C’est un travail traumatisant oĂč l’on doit regarder en continu des images atroces, de dĂ©capitations ou autres horreurs. Si l’IA peut rĂ©duire la part du travail humain, c’est une bonne chose.

Je pense que certains aspects du processus de modĂ©ration des contenus ne devraient pas ĂȘtre automatisĂ©s. DĂ©finir oĂč passe la frontiĂšre entre ce qui est acceptable et ce qui est inacceptable est chronophage. C’est trĂšs compliquĂ©. Ça demande d’impliquer la sociĂ©tĂ© civile. C’est constamment mouvant et propre Ă  chaque culture. Et il faut le faire pour tous les types possibles de discours. C’est Ă  cause de tout cela que l’IA n’a pas de rĂŽle Ă  y jouer.

Angwin : vous dĂ©crivez une autre catĂ©gorie d’IA qui vise Ă  prĂ©dire les Ă©vĂ©nements sociaux. Vous ĂȘtes sceptique sur les capacitĂ©s de ce genre d’IA. Pourquoi ?

Narayanan : c’est le genre d’IA avec laquelle les dĂ©cisionnaires prĂ©disent ce que pourraient faire certaines personnes Ă  l’avenir, et qu’ils utilisent pour prendre des dĂ©cisions les concernant, le plus souvent pour exclure certaines possibilitĂ©s. On l’utilise pour la sĂ©lection Ă  l’embauche, c’est aussi cĂ©lĂšbre pour le pronostic de risque de dĂ©linquance. C’est aussi utilisĂ© dans des contextes oĂč l’intention est d’aider des personnes. Par exemple, quelqu’un risque de dĂ©crocher de ses Ă©tudes ; intervenons pour suggĂ©rer un changement de filiĂšre.

Ce que toutes ces pratiques ont en commun, ce sont des prĂ©dictions statistiques basĂ©es sur des schĂ©mas et des corrĂ©lations grossiĂšres entre les donnĂ©es concernant ce que des personnes pourraient faire. Ces prĂ©dictions sont ensuite utilisĂ©es dans une certaine mesure pour prendre des dĂ©cisions Ă  leur sujet et, dans de nombreux cas, leur interdire certaines possibilitĂ©s, limiter leur autonomie et leur ĂŽter la possibilitĂ© de faire leurs preuves et de montrer qu’elles ne sont pas dĂ©finies par des modĂšles statistiques. Il existe de nombreuses raisons fondamentales pour lesquelles nous pourrions considĂ©rer la plupart de ces applications de l’IA comme illĂ©gitimes et moralement inadmissibles.

Lorsqu’on intervient sur la base d’une prĂ©diction, on doit se demander : « Est-ce la meilleure dĂ©cision que nous puissions prendre ? Ou bien la meilleure dĂ©cision ne serait-elle pas celle qui ne correspond pas du tout Ă  une prĂ©diction ? Â» Par exemple, dans le scĂ©nario de prĂ©diction du risque de dĂ©linquance, la dĂ©cision que nous prenons sur la base des prĂ©dictions est de refuser la mise en libertĂ© sous caution ou la libĂ©ration conditionnelle, mais si nous sortons du cadre prĂ©dictif, nous pourrions nous demander : « Quelle est la meilleure façon de rĂ©habiliter cette personne au sein de la sociĂ©tĂ© et de diminuer les risques qu’elle ne commette un autre dĂ©lit ? Â» Ce qui ouvre la possibilitĂ© d’un ensemble beaucoup plus large d’interventions.

Angwin : certains s’alarment en prĂ©tendant que ChatGPT conduit Ă  “l’apocalypse,” pourrait supprimer des emplois et entraĂźner une dĂ©valorisation des connaissances. Qu’en pensez-vous ?

Narayanan : Admettons que certaines des prĂ©dictions les plus folles concernant ChatGPT se rĂ©alisent et qu’il permette d’automatiser des secteurs entiers de l’emploi. Par analogie, pensez aux dĂ©veloppements informatiques les plus importants de ces derniĂšres dĂ©cennies, comme l’internet et les smartphones. Ils ont remodelĂ© des industries entiĂšres, mais nous avons appris Ă  vivre avec. Certains emplois sont devenus plus efficaces. Certains emplois ont Ă©tĂ© automatisĂ©s, ce qui a permis aux gens de se recycler ou de changer de carriĂšre. Il y a des effets douloureux de ces technologies, mais nous apprenons Ă  les rĂ©guler.

MĂȘme pour quelque chose d’aussi impactant que l’internet, les moteurs de recherche ou les smartphones, on a pu trouver une adaptation, en maximisant les bĂ©nĂ©fices et minimisant les risques, plutĂŽt qu’une rĂ©volution. Je ne pense pas que les grands modĂšles de langage soient mĂȘme Ă  la hauteur. Il peut y avoir de soudains changements massifs, des avantages et des risques dans de nombreux secteurs industriels, mais je ne vois pas de scĂ©nario catastrophe dans lequel le ciel nous tomberait sur la tĂȘte.

Comme toujours, merci de votre attention.

À bientît,
Julia Angwin
The Markup

On peut s’abonner ici Ă  la lettre hebdomadaire (en anglais) du magazine The Markup, envoyĂ©e le samedi.

❌