Voici le deuxiĂšme volet (si vous avez ratĂ© le premier) de lâenquĂȘte approfondie dâHubert Guillaud sur lâexploration des algorithmes, et de son analyse des enjeux qui en dĂ©coulent.
Dans le code source de lâamplification algorithmique : que voulons-nous vraiment savoir ?
par Hubert GUILLAUD
Que voulons-nous vraiment savoir en enquĂȘtant sur lâamplification algorithmique ? Câest justement lâenjeu du projet de recherche quâArvind Narayan mĂšne au Knight Institute de lâuniversitĂ© Columbia oĂč il a ouvert un blog dĂ©diĂ© et qui vient dâaccueillir une grande confĂ©rence sur le sujet. Parler dâamplification permet de sâintĂ©resser Ă toute la gamme des rĂ©ponses quâapportent les plateformes, allant de lâamĂ©lioration de la portĂ©e des discours Ă leur suppression, tout en se dĂ©fiant dâune rĂ©duction binaire Ă la seule modĂ©ration automatisĂ©e, entre ce qui doit ĂȘtre supprimĂ© et ce qui ne doit pas lâĂȘtre. Or, les phĂ©nomĂšnes dâamplification ne sont pas sans effets de bord, qui vont bien au-delĂ de la seule dĂ©sinformation, Ă lâimage des effets trĂšs concrets quâont les influenceurs sur le commerce ou le tourisme. Le gros problĂšme, pourtant, reste de pouvoir les Ă©tudier sans toujours y avoir accĂšs.
Outre des analyses sur TikTok et les IA gĂ©nĂ©ratives, le blog recĂšle quelques trĂ©sors, notamment une monumentale synthĂšse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (lâarticle est Ă©galement trĂšs riche en liens et rĂ©fĂ©rences, la synthĂšse que jâen propose y recourra assez peu).
Narayan rappelle que les plateformes disposent de trĂšs nombreux algorithmes entremĂȘlĂ©s, mais ceux qui lâintĂ©ressent particuliĂšrement sont les algorithmes de recommandation, ceux qui gĂ©nĂšrent les flux, les contenus qui nous sont mis Ă disposition. Alors que les algorithmes de recherche sont limitĂ©s par le terme recherchĂ©, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrĂŽle bien plus grand sur ce quâelles recommandent Ă un utilisateur.
La souscription, le rĂ©seau et lâalgorithme
Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le rĂ©seau et lâalgorithme. Dans le modĂšle par abonnement, le message atteint les personnes qui se sont abonnĂ©es Ă lâauteur du message. Dans le modĂšle de rĂ©seau, il se propage en cascade Ă travers le rĂ©seau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modĂšle algorithmique, les utilisateurs ayant des intĂ©rĂȘts similaires (tels que dĂ©finis par lâalgorithme sur la base de leurs engagements passĂ©s) sont reprĂ©sentĂ©s plus prĂšs les uns des autres. Plus les intĂ©rĂȘts dâun utilisateur sont similaires Ă ceux dĂ©finis, plus il est probable que le contenu lui sera recommandĂ©.
Ă lâorigine, les rĂ©seaux sociaux comme Facebook ou Twitter ne fonctionnaient quâĂ lâabonnement : vous ne voyiez que les contenus des personnes auxquelles vous Ă©tiez abonnĂ©s et vous ne pouviez pas republier les messages des autres ! Dans le modĂšle de rĂ©seau, un utilisateur voit non seulement les messages crĂ©Ă©s par les personnes auxquelles il sâest abonnĂ©, mais aussi les messages que ces utilisateurs choisissent dâamplifier, ce qui crĂ©e la possibilitĂ© de cascades dâinformations et de contenus âvirauxâ, comme câĂ©tait le cas de Twitter jusquâen 2016, moment oĂč le rĂ©seau introduisit le classement algorithmique. Dans le modĂšle algorithmique, la souscription est bien souvent minorĂ©e, le rĂ©seau amplifiĂ© mais surtout, le flux dĂ©pend principalement de ce que lâalgorithme estime ĂȘtre le plus susceptible dâintĂ©resser lâutilisateur. Câest ce que Cory Doctorow dĂ©signe comme « lâemmerdification » de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnĂ©s comme des suggestions et non comme des commandes.
Le passage aux recommandations algorithmiques a toujours gĂ©nĂ©rĂ© des contestations, notamment parce que, si dans les modĂšles dâabonnement et de rĂ©seau, les crĂ©ateurs peuvent se concentrer sur la construction de leur rĂ©seau, dans le « modĂšle algorithmique, cela ne sert Ă rien, car le nombre dâabonnĂ©s nâa rien Ă voir avec la performance des messages » (mais comme nous sommes dans des mĂ©langes entre les trois modĂšles, le nombre dâabonnĂ©s a encore un peu voire beaucoup dâinfluence dans lâamplification). Dans le modĂšle algorithmique, lâaudience de chaque message est optimisĂ©e de maniĂšre indĂ©pendante en fonction du sujet, de la « qualitĂ© » du message et dâun certain nombre de paramĂštres pris en compte par le modĂšle.
Amplification et viralité
La question de lâamplification interroge la question de la viralitĂ©, câest-Ă -dire le fait quâun contenu soit amplifiĂ© par une cascade de reprises, et non pas seulement diffusĂ© dâun Ă©metteur Ă son public. Le problĂšme de la viralitĂ© est que sa portĂ©e reste imprĂ©visible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des crĂ©ateurs, la majoritĂ© de lâengagement provient dâune petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidĂ©os les plus vues dâun compte obtiennent plus de 70 % des vues. Plus le rĂŽle de lâalgorithme dans la propagation du contenu est important, par opposition aux abonnements ou au rĂ©seau, plus cette inĂ©galitĂ© semble importante.
Parce quâil est particuliĂšrement repĂ©rable dans la masse des contenus, le contenu viral se prĂȘte assez bien Ă la rĂ©tropropagation, câest-Ă -dire Ă son dĂ©classement ou Ă sa suppression. Le problĂšme justement, câest quâil y a plein de maniĂšres de restreindre le contenu. Facebook classe les posts rĂ©trogradĂ©s plus bas dans le fil dâactualitĂ© quâils ne le seraient sâils ne lâavaient pas Ă©tĂ©, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. Ă son tour, lâeffet de la rĂ©trogradation sur la portĂ©e peut ĂȘtre imprĂ©visible, non linĂ©aire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rĂ©trogradation est parfaitement opaque, notamment parce quâune faible portĂ©e nâest pas automatiquement suspecte, Ă©tant donnĂ© quâil existe une grande variation dans la portĂ©e naturelle du contenu.
Amplification et prĂ©diction de lâengagement
Les plateformes ont plusieurs objectifs de haut niveau : amĂ©liorer leurs revenus publicitaires bien sĂ»r et satisfaire suffisamment les utilisateurs pour quâils reviennent⊠Mais ces objectifs nâaident pas vraiment Ă dĂ©cider ce quâil faut donner Ă un utilisateur spĂ©cifique Ă un moment prĂ©cis ni Ă mesurer comment ces dĂ©cisions impactent Ă long terme la plateforme. DâoĂč le fait que les plateformes observent lâengagement, câest-Ă -dire les actions instantanĂ©es des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilitĂ© que lâutilisateur sây intĂ©resse. « Dâune certaine maniĂšre, lâengagement est une approximation des objectifs de haut niveau. Un utilisateur qui sâengage est plus susceptible de revenir et de gĂ©nĂ©rer des revenus publicitaires pour la plateforme. »
Si lâengagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intĂšgrent bien dâautres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives », câest-Ă -dire une moyenne pondĂ©rĂ©e des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durĂ©e de visionnage que lâalgorithme prĂ©dit. TikTok utilise les interactions sociales et valorise les vidĂ©os qui ont Ă©tĂ© regardĂ©es jusquâau bout, comme un signal fort et qui explique certainement le caractĂšre addictif de lâapplication et le fait que les vidĂ©os courtes (qui ont donc tendance Ă obtenir un score Ă©levĂ©) continuent de dominer la plateforme.
En plus de ces logiques de base, il existe bien dâautres logiques secondaires, comme par exemple, pour que lâexpĂ©rience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitĂ©es, sĂ©lectionnĂ©es plus que classĂ©es, selon divers critĂšres plus que selon des critĂšres uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires Ă ceux quâon a apprĂ©ciĂ©, TikTok se distingue Ă nouveau par lâimportance quâil accorde Ă lâexploration de nouveaux contenus⊠câest dâailleurs la tactique suivie dĂ©sormais par Instagram de Meta via les Reels, boostĂ©s sur le modĂšle de TikTok, qui ont le mĂȘme effet que sur TikTok, Ă savoir une augmentation du temps passĂ© sur lâapplication)âŠ
« Bien quâil existe de nombreuses diffĂ©rences dans les dĂ©tails, les similitudes entre les algorithmes de recommandation des diffĂ©rentes plateformes lâemportent sur leurs diffĂ©rences », estime Narayan. Les diffĂ©rences sont surtout spĂ©cifiques, comme Youtube qui optimise selon la durĂ©e de visionnage, ou Spotify qui sâappuie davantage sur lâanalyse de contenu que sur le comportement. Pour Narayan, ces diffĂ©rences montrent quâil nây a pas de risque concurrentiel Ă lâouverture des algorithmes des plateformes, car leurs adaptations sont toujours trĂšs spĂ©cifiques. Ce qui varie, câest la façon dont les plateformes ajustent lâengagement.
Comment apprécier la similarité ?
Mais la grande question Ă laquelle tous tentent de rĂ©pondre est la mĂȘme : « Comment les utilisateurs similaires Ă cet utilisateur ont-ils rĂ©agi aux messages similaires Ă ce message ?⯠»
Si cette approche est populaire dans les traitements, câest parce quâelle sâest avĂ©rĂ©e efficace dans la pratique. Elle repose sur un double calcul de similaritĂ©. Dâabord, celle entre utilisateurs. La similaritĂ© entre utilisateurs dĂ©pend du rĂ©seau (les gens que lâon suit ou ceux quâon commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires sâils se sont engagĂ©s dans un ensemble de messages similaires⯠») et les donnĂ©es dĂ©mographiques (du type Ăąge, sexe, langue, gĂ©ographie⊠qui sont en grande partie dĂ©duits des comportements).
Ensuite, il y a un calcul sur la similaritĂ© des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes dâextraction des caractĂ©ristiques (comme la langue) intĂ©grant des Ă©valuations normatives, comme la caractĂ©risation de discours haineux. Lâautre signal de similaritĂ© des messages tient, lĂ encore, au comportement : « deux messages sont similaires si un ensemble similaire dâutilisateurs sâest engagĂ© avec eux ». Le plus important Ă retenir, insiste Narayan, câest que « lâenregistrement comportemental est le carburant du moteur de recommandation ». La grande difficultĂ©, dans ces apprĂ©ciations algorithmiques, consiste Ă faire que le calcul reste traitable, face Ă des volumes dâenregistrements dâinformations colossaux.
Une histoire des Ă©volutions des algorithmes de recommandation
« La premiĂšre gĂ©nĂ©ration dâalgorithmes de recommandation Ă grande Ă©chelle, comme ceux dâAmazon et de Netflix au dĂ©but des annĂ©es 2000, utilisait une technique simple appelĂ©e filtrage collaboratif : les clients qui ont achetĂ© ceci ont Ă©galement achetĂ© cela ». Le principe Ă©tait de recommander des articles consultĂ©s ou achetĂ©s dâune maniĂšre rudimentaire, mais qui sâest rĂ©vĂ©lĂ© puissant dans le domaine du commerce Ă©lectronique. En 2006, Netflix a organisĂ© un concours en partageant les Ă©valuations quâil disposait sur les films pour amĂ©liorer son systĂšme de recommandation. Ce concours a donnĂ© naissance Ă la « factorisation matricielle », une forme de deuxiĂšme gĂ©nĂ©ration dâalgorithmes de recommandation, câest-Ă -dire capables dâidentifier des combinaisons dâattributs et de prĂ©fĂ©rences croisĂ©es. Le systĂšme nâĂ©tiquette pas les films avec des termes interprĂ©tables facilement (comme âdrĂŽleâ ou âthrillerâ ou âinformatifââŠ), mais avec un vaste ensemble dâĂ©tiquettes (de micro-genres obscurs comme « documentaires Ă©mouvants qui combattent le systĂšme ») quâil associe aux prĂ©fĂ©rences des utilisateurs. Le problĂšme, câest que cette factorisation matricielle nâest pas trĂšs lisible pour lâutilisateur et se voir dire quâon va aimer tel film sans savoir pourquoi nâest pas trĂšs satisfaisant. Enfin, ce qui marche pour un catalogue de film limitĂ© nâest pas adaptĂ© aux mĂ©dias sociaux oĂč les messages sont infinis. La prĂ©dominance de la factorisation matricielle explique pourquoi les rĂ©seaux sociaux ont tardĂ© Ă se lancer dans la recommandation, qui est longtemps restĂ©e inadaptĂ©e Ă leurs besoins.
Pourtant, les rĂ©seaux sociaux se sont tous convertis Ă lâoptimisation basĂ©e sur lâapprentissage automatique. En 2010, Facebook utilisait un algorithme appelĂ© EdgeRank pour construire le fil dâactualitĂ© des utilisateurs qui consistait Ă afficher les Ă©lĂ©ments par ordre de prioritĂ© dĂ©croissant selon un score dâaffinitĂ© qui reprĂ©sente la prĂ©diction de Facebook quant au degrĂ© dâintĂ©rĂȘt de lâutilisateur pour les contenus affichĂ©s, valorisant les photos plus que le texte par exemple. Ă lâĂ©poque, ces pondĂ©rations Ă©taient dĂ©finies manuellement plutĂŽt quâapprises. En 2018, Facebook est passĂ© Ă lâapprentissage automatique. La firme a introduit une mĂ©trique appelĂ©e « interactions sociales significatives » (MSI pour meaningful social interactions) dans le systĂšme dâapprentissage automatique. Lâobjectif affichĂ© Ă©tait de diminuer la prĂ©sence des mĂ©dias et des contenus de marque au profit des contenus dâamis et de famille. « La formule calcule un score dâinteraction sociale pour chaque Ă©lĂ©ment susceptible dâĂȘtre montrĂ© Ă un utilisateur donné⯠». Le flux est gĂ©nĂ©rĂ© en classant les messages disponibles selon leur score MSI dĂ©croissant, avec quelques ajustements, comme dâintroduire de la diversitĂ© (avec peu dâindications sur la façon dont est calculĂ©e et ajoutĂ©e cette diversitĂ©). Le score MSI prĂ©dit la probabilitĂ© que lâutilisateur ait un type dâinteraction spĂ©cifique (comme liker ou commenter) avec le contenu et affine le rĂ©sultat en fonction de lâaffinitĂ© de lâutilisateur avec ce qui lui est proposĂ©. Il nây a plus de pondĂ©ration dĂ©diĂ©e pour certains types de contenus, comme les photos ou les vidĂ©os. Si elles subsistent, câest uniquement parce que le systĂšme lâaura appris Ă partir des donnĂ©es de chaque utilisateur, et continuera Ă vous proposer des photos si vous les apprĂ©ciez.
« Si lâon pousse cette logique jusquâĂ sa conclusion naturelle, il ne devrait pas ĂȘtre nĂ©cessaire dâajuster manuellement la formule en fonction des affinitĂ©s. Si les utilisateurs prĂ©fĂšrent voir le contenu de leurs amis plutĂŽt que celui des marques, lâalgorithme devrait ĂȘtre en mesure de lâapprendre ». Ce nâest pourtant pas ce quâil se passe. Certainement pour lutter contre la logique de lâoptimisation de lâengagement, estime Narayan, dans le but dâaugmenter la satisfaction Ă long terme, que lâalgorithme ne peut pas mesurer, mais lĂ encore sans que les modalitĂ©s de ces ajustements ne soient clairement documentĂ©s.
Est-ce que tout cela est efficace ?
Reste Ă savoir si ces algorithmes sont efficaces ! « Il peut sembler Ă©vident quâils doivent bien fonctionner, Ă©tant donnĂ© quâils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux dâengagement est une façon de quantifier le problĂšme : il sâagit de la probabilitĂ© quâun utilisateur sâintĂ©resse Ă un message qui lui a Ă©tĂ© recommandĂ©. Sur la plupart des plateformes, ce taux est infĂ©rieur Ă 1 %. TikTok est une exception, mais mĂȘme lĂ , ce taux dĂ©passe Ă peine les 5 %. »
Le problĂšme nâest pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prĂ©visibles. Et quâau final, les utilisateurs ne se soucient pas tant du manque de prĂ©cision de la recommandation. « MĂȘme sâils sont imprĂ©cis au niveau individuel, ils sont prĂ©cis dans lâensemble. Par rapport aux plateformes basĂ©es sur les rĂ©seaux, les plateformes algorithmiques semblent ĂȘtre plus efficaces pour identifier les contenus viraux (qui trouveront un Ă©cho auprĂšs dâun grand nombre de personnes). Elles sont Ă©galement capables dâidentifier des contenus de niche et de les faire correspondre au sous-ensemble dâutilisateurs susceptibles dây ĂȘtre rĂ©ceptifs. » Si les algorithmes sont largement limitĂ©s Ă la recherche de modĂšles dans les donnĂ©es comportementales, ils nâont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitĂ©simal â mĂȘme sâil est toujours considĂ©rĂ© comme un succĂšs !
Les ingénieurs contrÎlent-ils encore les algorithmes ?
Les ingĂ©nieurs ont trĂšs peu dâespace pour contrĂŽler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook sâest rendu compte que les publications virales Ă©taient beaucoup plus susceptibles de contenir des informations erronĂ©es ou dâautres types de contenus prĂ©judiciables. En dâautres termes, ils se sont rendu compte que le passage Ă des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient lâindignation et alimentaient les divisions gagnaient en portĂ©e, comme lâa expliquĂ© lâingĂ©nieure et lanceuse dâalerte Frances Haugen Ă lâorigine des Facebook Files, dans ses tĂ©moignages. Câest ce que synthĂ©tise le tableau de pondĂ©ration de la formule MSI publiĂ© par le Wall Street Journal, qui montrent que certains Ă©lĂ©ments ont des poids plus forts que dâautres : un commentaire vaut 15 fois plus quâun like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondĂ©ration aussi Ă©levĂ©e permet dâidentifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramenĂ© la pondĂ©ration des partages Ă 1,5, mais la pondĂ©ration des commentaires est restĂ©e trĂšs Ă©levĂ©e (15 Ă 20 fois plus quâun like). Alors que les partages et les commentaires Ă©taient regroupĂ©s dans une seule catĂ©gorie de pondĂ©ration en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polĂ©miques. Reste, on le comprend, que le jeu qui reste aux ingĂ©nieurs de Facebook consiste Ă ajuster le poids des paramĂštres. Pour Narayan : piloter un systĂšme dâune telle complexitĂ© en utilisant si peu de boutons ne peut quâĂȘtre difficile.
Le chercheur rappelle que le systĂšme est censĂ© ĂȘtre neutre Ă lâĂ©gard de tous les contenus, Ă lâexception de certains qui enfreignent les rĂšgles de la plateforme. Utilisateurs et messages sont alors rĂ©trogradĂ©s de maniĂšre algorithmique suite Ă signalement automatique ou non. Mais cette neutralitĂ© est en fait trĂšs difficile Ă atteindre. Les rĂ©seaux sociaux favorisent ceux qui ont dĂ©jĂ une grande portĂ©e, quâelle soit mĂ©ritĂ©e ou non, et sont rĂ©compensĂ©s par une plus grande portĂ©e encore. Par exemple, les 1 % dâauteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralitĂ© finit par rĂ©compenser ceux qui sont capables de pirater lâengagement ou de tirer profit des biais sociaux.
Outre cette neutralitĂ©, un deuxiĂšme grand principe directeur est que « lâalgorithme sait mieux que quiconque ». « Ce principe et celui de la neutralitĂ© se renforcent mutuellement. Le fait de confier la politique (concernant le contenu Ă amplifier) aux donnĂ©es signifie que les ingĂ©nieurs nâont pas besoin dâavoir un point de vue Ă ce sujet. Et cette neutralitĂ© fournit Ă lâalgorithme des donnĂ©es plus propres Ă partir desquelles il peut apprendre. »
Le principe de lâalgorithme qui sait le mieux signifie que la mĂȘme optimisation est appliquĂ©e Ă tous les types de discours : divertissement, informations Ă©ducatives, informations sur la santĂ©, actualitĂ©s, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rĂ©trograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources dâinformation de haute qualitĂ© que de faible qualitĂ©, augmentant la dĂ©sinformation. Cette neutralitĂ© affichĂ©e permet Ă©galement une forme de dĂ©sengagement des ingĂ©nieurs.
En 2021, encore, FB a entraĂźnĂ© des modĂšles dâapprentissage automatique pour classer les messages en deux catĂ©gories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour quâils apprĂ©cient des contenus qui leurs Ă©taient proposĂ©s pour former les donnĂ©es. FB a constatĂ© que les messages ayant une plus grande portĂ©e Ă©taient considĂ©rĂ©s comme Ă©tant mauvais pour le monde. FB a donc rĂ©trogradĂ© ces contenus⊠mais en trouvant moins de contenus polĂ©mique, cette modification a entraĂźnĂ© une diminution de lâouverture de lâapplication par les utilisateurs. Lâentreprise a donc redĂ©ployĂ© ce modĂšle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modĂšle dâaffaires.
Pourquoi lâoptimisation de lâengagement nous nuit-elle ?
« Un grand nombre des pathologies familiĂšres des mĂ©dias sociaux sont, Ă mon avis, des consĂ©quences relativement directes de lâoptimisation de lâengagement », suggĂšre encore le chercheur. Cela explique pourquoi les rĂ©formes sont difficiles et pourquoi lâamĂ©lioration de la transparence des algorithmes, de la modĂ©ration, voire un meilleur contrĂŽle par lâutilisateur de ce quâil voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (mĂȘme si elles sont nĂ©cessaires).
Les donnĂ©es comportementales, celles relatives Ă lâengagement passĂ©, sont la matiĂšre premiĂšre essentielle des moteurs de recommandations. Les systĂšmes privilĂ©gient la rĂ©troaction implicite sur lâexplicite, Ă la maniĂšre de YouTube qui a privilĂ©giĂ© le temps passĂ© sur les rĂ©troactions explicites (les likes). Sur TikTok, il nây a mĂȘme plus de sĂ©lection, il suffit de swipper.
Le problĂšme du feedback implicite est quâil repose sur nos rĂ©actions inconscientes, automatiques et Ă©motionnelles, sur nos pulsions, qui vont avoir tendance Ă privilĂ©gier une vidĂ©o dĂ©bile sur un contenu expert.
Pour les crĂ©ateurs de contenu, cette optimisation par lâengagement favorise la variance et lâimprĂ©visibilitĂ©, ce qui a pour consĂ©quence dâalimenter une surproduction pour compenser cette variabilitĂ©. La production dâun grand volume de contenu, mĂȘme sâil est de moindre qualitĂ©, peut augmenter les chances quâau moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de rĂ©compenser les contenus viraux se fait au dĂ©triment de tous les autres types de contenus (dâoĂč certainement le regain dâattraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).
Au niveau de la sociĂ©tĂ©, toutes les institutions sont impactĂ©es par les plateformes algorithmiques, du tourisme Ă la science, du journalisme Ă la santĂ© publique. Or, chaque institution Ă des valeurs, comme lâĂ©quitĂ© dans le journalisme, la prĂ©cision en science, la qualitĂ© dans nombre de domaines. Les algorithmes des mĂ©dias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualitĂ©. « Ils rĂ©compensent des facteurs sans rapport, sur la base dâune logique qui a du sens pour le divertissement, mais pas pour dâautres domaines ». Pour Narayan, les plateformes de mĂ©dias sociaux « affaiblissent les institutions en sapant leurs normes de qualitĂ© et en les rendant moins dignes de confiance ». Câest particuliĂšrement actif dans le domaine de lâinformation, mais cela va bien au-delĂ , mĂȘme si ce nâest pas au mĂȘme degrĂ©. TikTok peut sembler ne pas reprĂ©senter une menace pour la science, mais nous savons que les plateformes commencent par ĂȘtre un divertissement avant de sâĂ©tendre Ă dâautres sphĂšres du discours, Ă lâimage dâInstagram devenant un outil de communication politique ou de Twitter, oĂč un tiers des tweets sont politiques.
La science des données en ses limites
Les plateformes sont bien conscientes de leurs limites, pourtant, elles nâont pas fait beaucoup dâefforts pour rĂ©soudre les problĂšmes. Ces efforts restent occasionnels et rudimentaires, Ă lâimage de la tentative de Facebook de comprendre la valeur des messages diffusĂ©s. La raison est bien sĂ»r que ces amĂ©nagements nuisent aux rĂ©sultats financiers de lâentreprise. « Le recours Ă la prise de dĂ©cision subconsciente et automatique est tout Ă fait intentionnelle ; câest ce quâon appelle la « conception sans friction ». Le fait que les utilisateurs puissent parfois faire preuve de discernement et rĂ©sister Ă leurs impulsions est vu comme un problĂšme Ă rĂ©soudre. »
Pourtant, ces derniĂšres annĂ©es, la rĂ©putation des plateformes nâest plus au beau fixe. Narayan estime quâil y a une autre limite. « La plupart des inconvĂ©nients de lâoptimisation de lâengagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considĂ©rable Ă la recherche dâune relation quantitative et causale entre les changements apportĂ©s Ă lâalgorithme et leurs effets. »
Si on observe les raisons qui poussent lâutilisateur Ă quitter une plateforme, la principale est quâil ne parvient pas Ă obtenir des recommandations suffisamment intĂ©ressantes. Or, câest exactement ce que lâoptimisation par lâengagement est censĂ©e Ă©viter. Les entreprises parviennent trĂšs bien Ă optimiser des recommandations qui plaisent Ă lâutilisateur sur lâinstant, mais pas celles qui lui font dire, une fois quâil a fermĂ© lâapplication, que ce quâil y a trouvĂ© lâa enrichi. Elles nâarrivent pas Ă calculer et Ă intĂ©grer le bĂ©nĂ©fice Ă long terme, mĂȘme si elles restent trĂšs attentives aux taux de rĂ©tention ou aux taux de dĂ©sabonnement. Pour y parvenir, il faudrait faire de lâA/B testing au long cours. Les plateformes savent le faire. Facebook a constatĂ© que le fait dâafficher plus de notifications augmentait lâengagement Ă court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets Ă longs termes ne semble pas ĂȘtre une prioritĂ© par rapport Ă leurs effets de plus courts termes.
Une autre limite repose sur lâindividualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes nâintĂ©riorisent leurs prĂ©judices collectifs. Ces systĂšmes reposent sur lâhypothĂšse que le comportement de chaque utilisateur est indĂ©pendant et que lâeffet sur la sociĂ©tĂ© (lâatteinte Ă la dĂ©mocratie par exempleâŠ) est trĂšs difficile Ă Ă©valuer. Narayan le rĂ©sume dans un tableau parlant, oĂč la valeur sur la sociĂ©tĂ© nâa pas de mĂ©trique associĂ©e.
Tableau montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la mĂ©trique dâengagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.
Les algorithmes ne sont pas lâennemi (enfin si, quand mĂȘme un peu)
Pour rĂ©pondre Ă ces problĂšmes, beaucoup suggĂšrent de revenir Ă des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnĂ©s. Pas sĂ»r que cela soit une solution trĂšs efficace pour gĂ©rer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont Ă©tĂ© la rĂ©ponse Ă la surcharge dâinformation, rappelle-t-il : « Il y a beaucoup plus dâinformations en ligne en rapport avec les intĂ©rĂȘts dâune personne quâelle nâen a de temps disponible. » Les algorithmes de classement sont devenus une nĂ©cessitĂ© pratique. MĂȘme dans le cas dâun rĂ©seau longtemps basĂ© sur lâabonnement, comme Instagram : en 2016, la sociĂ©tĂ© indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils Ă©taient abonnĂ©s. Aujourdâhui, Instagram compte 5 fois plus dâutilisateurs. En fait, les plateformes subissent dâĂ©normes pressions pour que les algorithmes soient encore plus au cĆur de leur fonctionnement que le contraire. Et les systĂšmes de recommandation font leur entrĂ©e dans dâautres domaines, comme lâĂ©ducation (avec Coursera) ou la finance (avec Robinhood).
Pour Narayan, lâenjeu reste de mieux comprendre ce quâils font. Pour cela, nous devons continuer dâexiger dâeux bien plus de transparence quâils nâen livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts Ă faire pour contrecarrer activement les modĂšles les plus nuisibles des recommandations. Lâenjeu, conclut-il, est peut-ĂȘtre dâesquisser plus dâalternatives que nous nâen disposons, comme par exemple, dâimaginer des algorithmes de recommandations qui nâoptimisent pas lâengagement, ou pas seulement. Cela nĂ©cessite certainement aussi dâimaginer des rĂ©seaux sociaux avec des modĂšles Ă©conomiques diffĂ©rents. Un autre internet. Les algorithmes ne sont peut-ĂȘtre pas lâennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considĂ©ration, ne sont pas nos amis non plus !