❌

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraĂźchir la page.
À partir d’avant-hierFlux principal

Ouvrir le code des algorithmes ? — oui, mais
 (2/2)

22 mai 2023 Ă  05:42

Voici le deuxiĂšme volet (si vous avez ratĂ© le premier) de l’enquĂȘte approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse  des enjeux qui en dĂ©coulent.


Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ?

par Hubert GUILLAUD

Que voulons-nous vraiment savoir en enquĂȘtant sur l’amplification algorithmique ? C’est justement l’enjeu du projet de recherche qu’Arvind Narayan mĂšne au Knight Institute de l’universitĂ© Columbia oĂč il a ouvert un blog dĂ©diĂ© et qui vient d’accueillir une grande confĂ©rence sur le sujet. Parler d’amplification permet de s’intĂ©resser Ă  toute la gamme des rĂ©ponses qu’apportent les plateformes, allant de l’amĂ©lioration de la portĂ©e des discours Ă  leur suppression, tout en se dĂ©fiant d’une rĂ©duction binaire Ă  la seule modĂ©ration automatisĂ©e, entre ce qui doit ĂȘtre supprimĂ© et ce qui ne doit pas l’ĂȘtre. Or, les phĂ©nomĂšnes d’amplification ne sont pas sans effets de bord, qui vont bien au-delĂ  de la seule dĂ©sinformation, Ă  l’image des effets trĂšs concrets qu’ont les influenceurs sur le commerce ou le tourisme. Le gros problĂšme, pourtant, reste de pouvoir les Ă©tudier sans toujours y avoir accĂšs.

Outre des analyses sur TikTok et les IA gĂ©nĂ©ratives, le blog recĂšle quelques trĂ©sors, notamment une monumentale synthĂšse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (l’article est Ă©galement trĂšs riche en liens et rĂ©fĂ©rences, la synthĂšse que j’en propose y recourra assez peu).

Narayan rappelle que les plateformes disposent de trĂšs nombreux algorithmes entremĂȘlĂ©s, mais ceux qui l’intĂ©ressent particuliĂšrement sont les algorithmes de recommandation, ceux qui gĂ©nĂšrent les flux, les contenus qui nous sont mis Ă  disposition. Alors que les algorithmes de recherche sont limitĂ©s par le terme recherchĂ©, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrĂŽle bien plus grand sur ce qu’elles recommandent Ă  un utilisateur.

La souscription, le rĂ©seau et l’algorithme

Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le rĂ©seau et l’algorithme. Dans le modĂšle par abonnement, le message atteint les personnes qui se sont abonnĂ©es Ă  l’auteur du message. Dans le modĂšle de rĂ©seau, il se propage en cascade Ă  travers le rĂ©seau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modĂšle algorithmique, les utilisateurs ayant des intĂ©rĂȘts similaires (tels que dĂ©finis par l’algorithme sur la base de leurs engagements passĂ©s) sont reprĂ©sentĂ©s plus prĂšs les uns des autres. Plus les intĂ©rĂȘts d’un utilisateur sont similaires Ă  ceux dĂ©finis, plus il est probable que le contenu lui sera recommandĂ©.

À l’origine, les rĂ©seaux sociaux comme Facebook ou Twitter ne fonctionnaient qu’à l’abonnement : vous ne voyiez que les contenus des personnes auxquelles vous Ă©tiez abonnĂ©s et vous ne pouviez pas republier les messages des autres ! Dans le modĂšle de rĂ©seau, un utilisateur voit non seulement les messages crĂ©Ă©s par les personnes auxquelles il s’est abonnĂ©, mais aussi les messages que ces utilisateurs choisissent d’amplifier, ce qui crĂ©e la possibilitĂ© de cascades d’informations et de contenus “viraux”, comme c’était le cas de Twitter jusqu’en 2016, moment oĂč le rĂ©seau introduisit le classement algorithmique. Dans le modĂšle algorithmique, la souscription est bien souvent minorĂ©e, le rĂ©seau amplifiĂ© mais surtout, le flux dĂ©pend principalement de ce que l’algorithme estime ĂȘtre le plus susceptible d’intĂ©resser l’utilisateur. C’est ce que Cory Doctorow dĂ©signe comme « l’emmerdification  Â» de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnĂ©s comme des suggestions et non comme des commandes.

Le passage aux recommandations algorithmiques a toujours gĂ©nĂ©rĂ© des contestations, notamment parce que, si dans les modĂšles d’abonnement et de rĂ©seau, les crĂ©ateurs peuvent se concentrer sur la construction de leur rĂ©seau, dans le « modĂšle algorithmique, cela ne sert Ă  rien, car le nombre d’abonnĂ©s n’a rien Ă  voir avec la performance des messages  Â» (mais comme nous sommes dans des mĂ©langes entre les trois modĂšles, le nombre d’abonnĂ©s a encore un peu voire beaucoup d’influence dans l’amplification). Dans le modĂšle algorithmique, l’audience de chaque message est optimisĂ©e de maniĂšre indĂ©pendante en fonction du sujet, de la « qualitĂ© Â» du message et d’un certain nombre de paramĂštres pris en compte par le modĂšle.

Amplification et viralité

La question de l’amplification interroge la question de la viralitĂ©, c’est-Ă -dire le fait qu’un contenu soit amplifiĂ© par une cascade de reprises, et non pas seulement diffusĂ© d’un Ă©metteur Ă  son public. Le problĂšme de la viralitĂ© est que sa portĂ©e reste imprĂ©visible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des crĂ©ateurs, la majoritĂ© de l’engagement provient d’une petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidĂ©os les plus vues d’un compte obtiennent plus de 70 % des vues. Plus le rĂŽle de l’algorithme dans la propagation du contenu est important, par opposition aux abonnements ou au rĂ©seau, plus cette inĂ©galitĂ© semble importante.

Parce qu’il est particuliĂšrement repĂ©rable dans la masse des contenus, le contenu viral se prĂȘte assez bien Ă  la rĂ©tropropagation, c’est-Ă -dire Ă  son dĂ©classement ou Ă  sa suppression. Le problĂšme justement, c’est qu’il y a plein de maniĂšres de restreindre le contenu. Facebook classe les posts rĂ©trogradĂ©s plus bas dans le fil d’actualitĂ© qu’ils ne le seraient s’ils ne l’avaient pas Ă©tĂ©, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. À son tour, l’effet de la rĂ©trogradation sur la portĂ©e peut ĂȘtre imprĂ©visible, non linĂ©aire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rĂ©trogradation est parfaitement opaque, notamment parce qu’une faible portĂ©e n’est pas automatiquement suspecte, Ă©tant donnĂ© qu’il existe une grande variation dans la portĂ©e naturelle du contenu.

Amplification et prĂ©diction de l’engagement

Les plateformes ont plusieurs objectifs de haut niveau : amĂ©liorer leurs revenus publicitaires bien sĂ»r et satisfaire suffisamment les utilisateurs pour qu’ils reviennent
 Mais ces objectifs n’aident pas vraiment Ă  dĂ©cider ce qu’il faut donner Ă  un utilisateur spĂ©cifique Ă  un moment prĂ©cis ni Ă  mesurer comment ces dĂ©cisions impactent Ă  long terme la plateforme. D’oĂč le fait que les plateformes observent l’engagement, c’est-Ă -dire les actions instantanĂ©es des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilitĂ© que l’utilisateur s’y intĂ©resse. « D’une certaine maniĂšre, l’engagement est une approximation des objectifs de haut niveau. Un utilisateur qui s’engage est plus susceptible de revenir et de gĂ©nĂ©rer des revenus publicitaires pour la plateforme.  Â»
Si l’engagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intĂšgrent bien d’autres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives Â», c’est-Ă -dire une moyenne pondĂ©rĂ©e des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durĂ©e de visionnage que l’algorithme prĂ©dit. TikTok utilise les interactions sociales et valorise les vidĂ©os qui ont Ă©tĂ© regardĂ©es jusqu’au bout, comme un signal fort et qui explique certainement le caractĂšre addictif de l’application et le fait que les vidĂ©os courtes (qui ont donc tendance Ă  obtenir un score Ă©levĂ©) continuent de dominer la plateforme.

En plus de ces logiques de base, il existe bien d’autres logiques secondaires, comme par exemple, pour que l’expĂ©rience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitĂ©es, sĂ©lectionnĂ©es plus que classĂ©es, selon divers critĂšres plus que selon des critĂšres uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires Ă  ceux qu’on a apprĂ©ciĂ©, TikTok se distingue Ă  nouveau par l’importance qu’il accorde Ă  l’exploration de nouveaux contenus
 c’est d’ailleurs la tactique suivie dĂ©sormais par Instagram de Meta via les Reels, boostĂ©s sur le modĂšle de TikTok, qui ont le mĂȘme effet que sur TikTok, Ă  savoir une augmentation du temps passĂ© sur l’application)
 

« Bien qu’il existe de nombreuses diffĂ©rences dans les dĂ©tails, les similitudes entre les algorithmes de recommandation des diffĂ©rentes plateformes l’emportent sur leurs diffĂ©rences Â», estime Narayan. Les diffĂ©rences sont surtout spĂ©cifiques, comme Youtube qui optimise selon la durĂ©e de visionnage, ou Spotify qui s’appuie davantage sur l’analyse de contenu que sur le comportement. Pour Narayan, ces diffĂ©rences montrent qu’il n’y a pas de risque concurrentiel Ă  l’ouverture des algorithmes des plateformes, car leurs adaptations sont toujours trĂšs spĂ©cifiques. Ce qui varie, c’est la façon dont les plateformes ajustent l’engagement.

Comment apprĂ©cier la similaritĂ© ?

Mais la grande question Ă  laquelle tous tentent de rĂ©pondre est la mĂȘme : « Comment les utilisateurs similaires Ă  cet utilisateur ont-ils rĂ©agi aux messages similaires Ă  ce message ?  Â»

Si cette approche est populaire dans les traitements, c’est parce qu’elle s’est avĂ©rĂ©e efficace dans la pratique. Elle repose sur un double calcul de similaritĂ©. D’abord, celle entre utilisateurs. La similaritĂ© entre utilisateurs dĂ©pend du rĂ©seau (les gens que l’on suit ou ceux qu’on commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires s’ils se sont engagĂ©s dans un ensemble de messages similaires  Â») et les donnĂ©es dĂ©mographiques (du type Ăąge, sexe, langue, gĂ©ographie
 qui sont en grande partie dĂ©duits des comportements).

Ensuite, il y a un calcul sur la similaritĂ© des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes d’extraction des caractĂ©ristiques (comme la langue) intĂ©grant des Ă©valuations normatives, comme la caractĂ©risation de discours haineux. L’autre signal de similaritĂ© des messages tient, lĂ  encore, au comportement : « deux messages sont similaires si un ensemble similaire d’utilisateurs s’est engagĂ© avec eux Â». Le plus important Ă  retenir, insiste Narayan, c’est que « l’enregistrement comportemental est le carburant du moteur de recommandation  Â». La grande difficultĂ©, dans ces apprĂ©ciations algorithmiques, consiste Ă  faire que le calcul reste traitable, face Ă  des volumes d’enregistrements d’informations colossaux.

Une histoire des Ă©volutions des algorithmes de recommandation

« La premiĂšre gĂ©nĂ©ration d’algorithmes de recommandation Ă  grande Ă©chelle, comme ceux d’Amazon et de Netflix au dĂ©but des annĂ©es 2000, utilisait une technique simple appelĂ©e filtrage collaboratif : les clients qui ont achetĂ© ceci ont Ă©galement achetĂ© cela Â». Le principe Ă©tait de recommander des articles consultĂ©s ou achetĂ©s d’une maniĂšre rudimentaire, mais qui s’est rĂ©vĂ©lĂ© puissant dans le domaine du commerce Ă©lectronique. En 2006, Netflix a organisĂ© un concours en partageant les Ă©valuations qu’il disposait sur les films pour amĂ©liorer son systĂšme de recommandation. Ce concours a donnĂ© naissance Ă  la « factorisation matricielle Â», une forme de deuxiĂšme gĂ©nĂ©ration d’algorithmes de recommandation, c’est-Ă -dire capables d’identifier des combinaisons d’attributs et de prĂ©fĂ©rences croisĂ©es. Le systĂšme n’étiquette pas les films avec des termes interprĂ©tables facilement (comme “drĂŽle” ou “thriller” ou “informatif”
), mais avec un vaste ensemble d’étiquettes (de micro-genres obscurs comme « documentaires Ă©mouvants qui combattent le systĂšme Â») qu’il associe aux prĂ©fĂ©rences des utilisateurs. Le problĂšme, c’est que cette factorisation matricielle n’est pas trĂšs lisible pour l’utilisateur et se voir dire qu’on va aimer tel film sans savoir pourquoi n’est pas trĂšs satisfaisant. Enfin, ce qui marche pour un catalogue de film limitĂ© n’est pas adaptĂ© aux mĂ©dias sociaux oĂč les messages sont infinis. La prĂ©dominance de la factorisation matricielle explique pourquoi les rĂ©seaux sociaux ont tardĂ© Ă  se lancer dans la recommandation, qui est longtemps restĂ©e inadaptĂ©e Ă  leurs besoins.

Pourtant, les rĂ©seaux sociaux se sont tous convertis Ă  l’optimisation basĂ©e sur l’apprentissage automatique. En 2010, Facebook utilisait un algorithme appelĂ© EdgeRank pour construire le fil d’actualitĂ© des utilisateurs qui consistait Ă  afficher les Ă©lĂ©ments par ordre de prioritĂ© dĂ©croissant selon un score d’affinitĂ© qui reprĂ©sente la prĂ©diction de Facebook quant au degrĂ© d’intĂ©rĂȘt de l’utilisateur pour les contenus affichĂ©s, valorisant les photos plus que le texte par exemple. À l’époque, ces pondĂ©rations Ă©taient dĂ©finies manuellement plutĂŽt qu’apprises. En 2018, Facebook est passĂ© Ă  l’apprentissage automatique. La firme a introduit une mĂ©trique appelĂ©e « interactions sociales significatives  Â» (MSI pour meaningful social interactions) dans le systĂšme d’apprentissage automatique. L’objectif affichĂ© Ă©tait de diminuer la prĂ©sence des mĂ©dias et des contenus de marque au profit des contenus d’amis et de famille. « La formule calcule un score d’interaction sociale pour chaque Ă©lĂ©ment susceptible d’ĂȘtre montrĂ© Ă  un utilisateur donné  Â». Le flux est gĂ©nĂ©rĂ© en classant les messages disponibles selon leur score MSI dĂ©croissant, avec quelques ajustements, comme d’introduire de la diversitĂ© (avec peu d’indications sur la façon dont est calculĂ©e et ajoutĂ©e cette diversitĂ©). Le score MSI prĂ©dit la probabilitĂ© que l’utilisateur ait un type d’interaction spĂ©cifique (comme liker ou commenter) avec le contenu et affine le rĂ©sultat en fonction de l’affinitĂ© de l’utilisateur avec ce qui lui est proposĂ©. Il n’y a plus de pondĂ©ration dĂ©diĂ©e pour certains types de contenus, comme les photos ou les vidĂ©os. Si elles subsistent, c’est uniquement parce que le systĂšme l’aura appris Ă  partir des donnĂ©es de chaque utilisateur, et continuera Ă  vous proposer des photos si vous les apprĂ©ciez.

« Si l’on pousse cette logique jusqu’à sa conclusion naturelle, il ne devrait pas ĂȘtre nĂ©cessaire d’ajuster manuellement la formule en fonction des affinitĂ©s. Si les utilisateurs prĂ©fĂšrent voir le contenu de leurs amis plutĂŽt que celui des marques, l’algorithme devrait ĂȘtre en mesure de l’apprendre Â». Ce n’est pourtant pas ce qu’il se passe. Certainement pour lutter contre la logique de l’optimisation de l’engagement, estime Narayan, dans le but d’augmenter la satisfaction Ă  long terme, que l’algorithme ne peut pas mesurer, mais lĂ  encore sans que les modalitĂ©s de ces ajustements ne soient clairement documentĂ©s.

Est-ce que tout cela est efficace ?

Reste Ă  savoir si ces algorithmes sont efficaces ! « Il peut sembler Ă©vident qu’ils doivent bien fonctionner, Ă©tant donnĂ© qu’ils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux d’engagement est une façon de quantifier le problĂšme : il s’agit de la probabilitĂ© qu’un utilisateur s’intĂ©resse Ă  un message qui lui a Ă©tĂ© recommandĂ©. Sur la plupart des plateformes, ce taux est infĂ©rieur Ă  1 %. TikTok est une exception, mais mĂȘme lĂ , ce taux dĂ©passe Ă  peine les 5 %. Â»

Le problĂšme n’est pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prĂ©visibles. Et qu’au final, les utilisateurs ne se soucient pas tant du manque de prĂ©cision de la recommandation. « MĂȘme s’ils sont imprĂ©cis au niveau individuel, ils sont prĂ©cis dans l’ensemble. Par rapport aux plateformes basĂ©es sur les rĂ©seaux, les plateformes algorithmiques semblent ĂȘtre plus efficaces pour identifier les contenus viraux (qui trouveront un Ă©cho auprĂšs d’un grand nombre de personnes). Elles sont Ă©galement capables d’identifier des contenus de niche et de les faire correspondre au sous-ensemble d’utilisateurs susceptibles d’y ĂȘtre rĂ©ceptifs. Â» Si les algorithmes sont largement limitĂ©s Ă  la recherche de modĂšles dans les donnĂ©es comportementales, ils n’ont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitĂ©simal – mĂȘme s’il est toujours considĂ©rĂ© comme un succĂšs !

Les ingĂ©nieurs contrĂŽlent-ils encore les algorithmes ?

Les ingĂ©nieurs ont trĂšs peu d’espace pour contrĂŽler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook s’est rendu compte que les publications virales Ă©taient beaucoup plus susceptibles de contenir des informations erronĂ©es ou d’autres types de contenus prĂ©judiciables. En d’autres termes, ils se sont rendu compte que le passage Ă  des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient l’indignation et alimentaient les divisions gagnaient en portĂ©e, comme l’a expliquĂ© l’ingĂ©nieure et lanceuse d’alerte Frances Haugen Ă  l’origine des Facebook Files, dans ses tĂ©moignages. C’est ce que synthĂ©tise le tableau de pondĂ©ration de la formule MSI publiĂ© par le Wall Street Journal, qui montrent que certains Ă©lĂ©ments ont des poids plus forts que d’autres : un commentaire vaut 15 fois plus qu’un like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondĂ©ration aussi Ă©levĂ©e permet d’identifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramenĂ© la pondĂ©ration des partages Ă  1,5, mais la pondĂ©ration des commentaires est restĂ©e trĂšs Ă©levĂ©e (15 Ă  20 fois plus qu’un like). Alors que les partages et les commentaires Ă©taient regroupĂ©s dans une seule catĂ©gorie de pondĂ©ration en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polĂ©miques. Reste, on le comprend, que le jeu qui reste aux ingĂ©nieurs de Facebook consiste Ă  ajuster le poids des paramĂštres. Pour Narayan : piloter un systĂšme d’une telle complexitĂ© en utilisant si peu de boutons ne peut qu’ĂȘtre difficile.

Le chercheur rappelle que le systĂšme est censĂ© ĂȘtre neutre Ă  l’égard de tous les contenus, Ă  l’exception de certains qui enfreignent les rĂšgles de la plateforme. Utilisateurs et messages sont alors rĂ©trogradĂ©s de maniĂšre algorithmique suite Ă  signalement automatique ou non. Mais cette neutralitĂ© est en fait trĂšs difficile Ă  atteindre. Les rĂ©seaux sociaux favorisent ceux qui ont dĂ©jĂ  une grande portĂ©e, qu’elle soit mĂ©ritĂ©e ou non, et sont rĂ©compensĂ©s par une plus grande portĂ©e encore. Par exemple, les 1 % d’auteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralitĂ© finit par rĂ©compenser ceux qui sont capables de pirater l’engagement ou de tirer profit des biais sociaux.

Outre cette neutralitĂ©, un deuxiĂšme grand principe directeur est que « l’algorithme sait mieux que quiconque Â». « Ce principe et celui de la neutralitĂ© se renforcent mutuellement. Le fait de confier la politique (concernant le contenu Ă  amplifier) aux donnĂ©es signifie que les ingĂ©nieurs n’ont pas besoin d’avoir un point de vue Ă  ce sujet. Et cette neutralitĂ© fournit Ă  l’algorithme des donnĂ©es plus propres Ă  partir desquelles il peut apprendre. Â»
Le principe de l’algorithme qui sait le mieux signifie que la mĂȘme optimisation est appliquĂ©e Ă  tous les types de discours : divertissement, informations Ă©ducatives, informations sur la santĂ©, actualitĂ©s, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rĂ©trograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources d’information de haute qualitĂ© que de faible qualitĂ©, augmentant la dĂ©sinformation. Cette neutralitĂ© affichĂ©e permet Ă©galement une forme de dĂ©sengagement des ingĂ©nieurs.

En 2021, encore, FB a entraĂźnĂ© des modĂšles d’apprentissage automatique pour classer les messages en deux catĂ©gories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour qu’ils apprĂ©cient des contenus qui leurs Ă©taient proposĂ©s pour former les donnĂ©es. FB a constatĂ© que les messages ayant une plus grande portĂ©e Ă©taient considĂ©rĂ©s comme Ă©tant mauvais pour le monde. FB a donc rĂ©trogradĂ© ces contenus
 mais en trouvant moins de contenus polĂ©mique, cette modification a entraĂźnĂ© une diminution de l’ouverture de l’application par les utilisateurs. L’entreprise a donc redĂ©ployĂ© ce modĂšle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modĂšle d’affaires.

Illustration par Jason Alderman « Those Algorithms That Govern Our Lives – Kevin Slavin« . (CC BY 2.0)

Pourquoi l’optimisation de l’engagement nous nuit-elle ?

« Un grand nombre des pathologies familiĂšres des mĂ©dias sociaux sont, Ă  mon avis, des consĂ©quences relativement directes de l’optimisation de l’engagement Â», suggĂšre encore le chercheur. Cela explique pourquoi les rĂ©formes sont difficiles et pourquoi l’amĂ©lioration de la transparence des algorithmes, de la modĂ©ration, voire un meilleur contrĂŽle par l’utilisateur de ce qu’il voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (mĂȘme si elles sont nĂ©cessaires).

Les donnĂ©es comportementales, celles relatives Ă  l’engagement passĂ©, sont la matiĂšre premiĂšre essentielle des moteurs de recommandations. Les systĂšmes privilĂ©gient la rĂ©troaction implicite sur l’explicite, Ă  la maniĂšre de YouTube qui a privilĂ©giĂ© le temps passĂ© sur les rĂ©troactions explicites (les likes). Sur TikTok, il n’y a mĂȘme plus de sĂ©lection, il suffit de swipper.

Le problĂšme du feedback implicite est qu’il repose sur nos rĂ©actions inconscientes, automatiques et Ă©motionnelles, sur nos pulsions, qui vont avoir tendance Ă  privilĂ©gier une vidĂ©o dĂ©bile sur un contenu expert.

Pour les crĂ©ateurs de contenu, cette optimisation par l’engagement favorise la variance et l’imprĂ©visibilitĂ©, ce qui a pour consĂ©quence d’alimenter une surproduction pour compenser cette variabilitĂ©. La production d’un grand volume de contenu, mĂȘme s’il est de moindre qualitĂ©, peut augmenter les chances qu’au moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de rĂ©compenser les contenus viraux se fait au dĂ©triment de tous les autres types de contenus (d’oĂč certainement le regain d’attraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).

Au niveau de la sociĂ©tĂ©, toutes les institutions sont impactĂ©es par les plateformes algorithmiques, du tourisme Ă  la science, du journalisme Ă  la santĂ© publique. Or, chaque institution Ă  des valeurs, comme l’équitĂ© dans le journalisme, la prĂ©cision en science, la qualitĂ© dans nombre de domaines. Les algorithmes des mĂ©dias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualitĂ©. « Ils rĂ©compensent des facteurs sans rapport, sur la base d’une logique qui a du sens pour le divertissement, mais pas pour d’autres domaines Â». Pour Narayan, les plateformes de mĂ©dias sociaux « affaiblissent les institutions en sapant leurs normes de qualitĂ© et en les rendant moins dignes de confiance Â». C’est particuliĂšrement actif dans le domaine de l’information, mais cela va bien au-delĂ , mĂȘme si ce n’est pas au mĂȘme degrĂ©. TikTok peut sembler ne pas reprĂ©senter une menace pour la science, mais nous savons que les plateformes commencent par ĂȘtre un divertissement avant de s’étendre Ă  d’autres sphĂšres du discours, Ă  l’image d’Instagram devenant un outil de communication politique ou de Twitter, oĂč un tiers des tweets sont politiques.

La science des données en ses limites

Les plateformes sont bien conscientes de leurs limites, pourtant, elles n’ont pas fait beaucoup d’efforts pour rĂ©soudre les problĂšmes. Ces efforts restent occasionnels et rudimentaires, Ă  l’image de la tentative de Facebook de comprendre la valeur des messages diffusĂ©s. La raison est bien sĂ»r que ces amĂ©nagements nuisent aux rĂ©sultats financiers de l’entreprise. « Le recours Ă  la prise de dĂ©cision subconsciente et automatique est tout Ă  fait intentionnelle ; c’est ce qu’on appelle la « conception sans friction Â». Le fait que les utilisateurs puissent parfois faire preuve de discernement et rĂ©sister Ă  leurs impulsions est vu comme un problĂšme Ă  rĂ©soudre. Â»

Pourtant, ces derniĂšres annĂ©es, la rĂ©putation des plateformes n’est plus au beau fixe. Narayan estime qu’il y a une autre limite. « La plupart des inconvĂ©nients de l’optimisation de l’engagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considĂ©rable Ă  la recherche d’une relation quantitative et causale entre les changements apportĂ©s Ă  l’algorithme et leurs effets. Â»
Si on observe les raisons qui poussent l’utilisateur Ă  quitter une plateforme, la principale est qu’il ne parvient pas Ă  obtenir des recommandations suffisamment intĂ©ressantes. Or, c’est exactement ce que l’optimisation par l’engagement est censĂ©e Ă©viter. Les entreprises parviennent trĂšs bien Ă  optimiser des recommandations qui plaisent Ă  l’utilisateur sur l’instant, mais pas celles qui lui font dire, une fois qu’il a fermĂ© l’application, que ce qu’il y a trouvĂ© l’a enrichi. Elles n’arrivent pas Ă  calculer et Ă  intĂ©grer le bĂ©nĂ©fice Ă  long terme, mĂȘme si elles restent trĂšs attentives aux taux de rĂ©tention ou aux taux de dĂ©sabonnement. Pour y parvenir, il faudrait faire de l’A/B testing au long cours. Les plateformes savent le faire. Facebook a constatĂ© que le fait d’afficher plus de notifications augmentait l’engagement Ă  court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets Ă  longs termes ne semble pas ĂȘtre une prioritĂ© par rapport Ă  leurs effets de plus courts termes.

Une autre limite repose sur l’individualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes n’intĂ©riorisent leurs prĂ©judices collectifs. Ces systĂšmes reposent sur l’hypothĂšse que le comportement de chaque utilisateur est indĂ©pendant et que l’effet sur la sociĂ©tĂ© (l’atteinte Ă  la dĂ©mocratie par exemple
) est trĂšs difficile Ă  Ă©valuer. Narayan le rĂ©sume dans un tableau parlant, oĂč la valeur sur la sociĂ©tĂ© n’a pas de mĂ©trique associĂ©e.

Graphique montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d'engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Tableau montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la mĂ©trique d’engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Les algorithmes ne sont pas l’ennemi (enfin si, quand mĂȘme un peu)

Pour rĂ©pondre Ă  ces problĂšmes, beaucoup suggĂšrent de revenir Ă  des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnĂ©s. Pas sĂ»r que cela soit une solution trĂšs efficace pour gĂ©rer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont Ă©tĂ© la rĂ©ponse Ă  la surcharge d’information, rappelle-t-il : « Il y a beaucoup plus d’informations en ligne en rapport avec les intĂ©rĂȘts d’une personne qu’elle n’en a de temps disponible. Â» Les algorithmes de classement sont devenus une nĂ©cessitĂ© pratique. MĂȘme dans le cas d’un rĂ©seau longtemps basĂ© sur l’abonnement, comme Instagram : en 2016, la sociĂ©tĂ© indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils Ă©taient abonnĂ©s. Aujourd’hui, Instagram compte 5 fois plus d’utilisateurs. En fait, les plateformes subissent d’énormes pressions pour que les algorithmes soient encore plus au cƓur de leur fonctionnement que le contraire. Et les systĂšmes de recommandation font leur entrĂ©e dans d’autres domaines, comme l’éducation (avec Coursera) ou la finance (avec Robinhood).

Pour Narayan, l’enjeu reste de mieux comprendre ce qu’ils font. Pour cela, nous devons continuer d’exiger d’eux bien plus de transparence qu’ils n’en livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts Ă  faire pour contrecarrer activement les modĂšles les plus nuisibles des recommandations. L’enjeu, conclut-il, est peut-ĂȘtre d’esquisser plus d’alternatives que nous n’en disposons, comme par exemple, d’imaginer des algorithmes de recommandations qui n’optimisent pas l’engagement, ou pas seulement. Cela nĂ©cessite certainement aussi d’imaginer des rĂ©seaux sociaux avec des modĂšles Ă©conomiques diffĂ©rents. Un autre internet. Les algorithmes ne sont peut-ĂȘtre pas l’ennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considĂ©ration, ne sont pas nos amis non plus !

❌
❌