Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Khrys’presso du lundi 19 mai 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

RIP

Le rapport de la semaine

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

La reconnaissance faciale, l’enjeu du siècle

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 10 février 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


« Le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne plutôt très bien ».

 

 

 

 

 

 

 

 

Avec cet article, nous nous lançons dans un dossier que nous allons consacrer à la reconnaissance faciale et au continuum sécuritaire. Première partie.

Your face belongs to us (Random House, 2023), le livre que la journaliste du New York Times, Kashmir Hill, a consacré à Clearview, l’entreprise leader de la reconnaissance faciale, est une plongée glaçante dans la dystopie qui vient.

Jusqu’à présent, j’avais tendance à penser que la reconnaissance faciale était problématique d’abord et avant tout parce qu’elle était défaillante. Elle est « une technologie qui souvent ne marche pas », expliquaient Mark Andrejevic et Neil Selwyn (Facial Recognition, Wiley, 2022), montrant que c’est souvent dans son implémentation qu’elle défaille. La juriste, Clare Garvie, faisait le même constat. Si l’authentification (le fait de vérifier qu’une personne est la même que sur une photo) fonctionne mieux que l’identification (le fait de retrouver une personne dans une banque d’image), les deux usages n’ont cessé ces dernières années de montrer leurs limites.

Mais les choses évoluent vite.

La couverture du livre de Kashmir Hill.Le titre est « Your face belongs to us ». Son sous-titre : « A secretive startup's quest to end privacy as we know it ». Le fond de la couverture est une photo d'une partie des visages de deux personnes, floutées.

L’une des couvertures du livre de Kashmir Hill.

« Le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne plutôt très bien »

Dans leur livre, AI Snake Oil, les spécialistes de l’intelligence artificielle, Arvind Narayanan et Sayash Kapoor, soulignent pourtant que le taux d’erreur de la reconnaissance faciale est devenu négligeable (0,08 % selon le NIST, l’Institut national des normes et de la technologie américain). « Quand elle est utilisée correctement, la reconnaissance faciale tend à être exacte, parce qu’il y a peu d’incertitude ou d’ambiguïté dans la tâche que les machines doivent accomplir ». Contrairement aux autres formes d’identification (identifier le genre ou reconnaître une émotion, qui sont bien plus sujettes aux erreurs), la différence cruciale c’est que l’information requise pour identifier des visages, pour les distinguer les uns des autres, est présente dans les images elles-mêmes. « Le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne plutôt très bien » et c’est en cela qu’elle peut produire énormément de dommages.

Le risque que porte la reconnaissance faciale repose tout entier dans la façon dont elle va être utilisée. Et de ce côté-là, les dérives potentielles sont innombrables et inquiétantes. Gouvernements comme entreprises peuvent l’utiliser pour identifier des opposants, des personnes suspectes mais convaincues d’aucuns délits. Certes, elle a été utilisée pour résoudre des affaires criminelles non résolues avec succès. Certes, elle est commode quand elle permet de trier ou d’organiser ses photos… Mais si la reconnaissance faciale peut-être hautement précise quand elle est utilisée correctement, elle peut très facilement être mise en défaut dans la pratique. D’abord par ses implémentations qui peuvent conduire à y avoir recours d’une manière inappropriée et disproportionnée. Ensuite quand les images ne sont pas d’assez bonnes qualités, au risque d’entraîner tout le secteur de la sécurité dans une course sans limites à toujours plus de qualité, nécessitant des financements disproportionnés et faisant peser un risque totalitaire sur les libertés publiques. Pour Narayanan et Kapoor, nous devons avoir un débat vigoureux et précis pour distinguer les bons usages des usages inappropriés de la reconnaissance faciale, et pour développer des gardes-fous pour prévenir les abus et les usages inappropriés tant des acteurs publics que privés.

Certes. Mais cette discussion plusieurs fois posée n’a pas lieu. En 2020, quand la journaliste du New York Times a commencé ses révélations sur Clearview, « l’entreprise qui pourrait mettre fin à la vie privée », le spécialiste de la sécurité, Bruce Schneier avait publié une stimulante tribune pour nous inviter à réglementer la ré-identification biométrique. Pour lui, nous devrions en tant que société, définir des règles pour déterminer « quand une surveillance à notre insu et sans notre consentement est permise, et quand elle ne l’est pas », quand nos données peuvent être combinées avec d’autres et quand elles ne peuvent pas l’être et enfin savoir quand et comment il est permis de faire de la discrimination biométrique et notamment de savoir si nous devons renforcer les mesures de luttes contre les discriminations qui vont se démultiplier avec cette technologie et comment. En France, à la même époque, le sociologue Laurent Mucchielli qui avait fait paraître son enquête sur la vidéosurveillance (Vous êtes filmés, Dunod, 2018 – voir notre compte-rendu de l’époque, désabusé), posait également sur son blog des questions très concrètes sur la reconnaissance faciale : « Quelle partie de la population serait fichée ? Et qui y aurait accès ? Voilà les deux problèmes. » Enfin, les deux professeurs de droit, Barry Friedman (auteur de Unwarranted : policing without permission, 2017) et Andrew Guthrie Ferguson, (auteur de The Rise of Big Data policing, 2017) condamnaient à leur tour, dans une tribune pour le New York Times, « la surveillance des visages » (c’est-à-dire, l’utilisation de la reconnaissance faciale en temps réel pour trouver où se trouve quelqu’un) mais reconnaissaient que l’identification faciale (c’est-à-dire la réidentification d’un criminel, uniquement pour les crimes les plus graves), elle, pourrait être autorisée. Ils y mettaient néanmoins une condition : la réidentification des visages ne devrait pas être autorisée sans décision de justice et sans sanction en cas d’utilisation abusive. Mais, à nouveau, ce n’est pas ce qui s’est passé. La reconnaissance faciale s’est déployée sans contraintes et sans limites.

Les dénonciations comme les interdictions de la reconnaissance faciale sont restées éparses. Les associations de défense des libertés publiques ont appelé à des moratoires et mené des campagnes pour l’interdiction de la reconnaissance faciale, comme Ban Facial Recognition aux Etats-Unis ou Reclaim your face en Europe. Souvent, ces interdictions restent circonscrites à certains types d’usages, notamment les usages de police et de surveillance d’État, oubliant les risques que font courir les outils de surveillance privée.

Reste que le débat public sur son implémentation et ses modalités est inexistant. Au lieu de débats de sociétés, nous avons des « expérimentations » qui dérogent au droit, des déploiements épars et opaques (plus de 200 autorités publiques par le monde sont clientes de Clearview qui n’est qu’un outil parmi une multitude de dispositifs plus ou moins efficaces, allant de la reconnaissance faciale, à la vidéosurveillance algorithmique), et surtout, un immense déni sur les enjeux de ces technologies. Au final, nous ne construisons aucune règle morale sur son utilité ou son utilisation. Nous faisons collectivement l’autruche et son utilisation se déploie sans cadres légaux clairs dans un continuum de technologies sécuritaires et problématiques, allant des drones aux technologies de contrôle de l’immigration.

Une histoire de la reconnaissance faciale : entre amélioration par à-coups et paniques morales à chaque amélioration

Dans son livre, Your face belongs to us, Kashmir Hill alterne à la fois une histoire de l’évolution de la technologie et une enquête sur le développement de Clearview.

Sur cette histoire, Hill fait un travail qui met en exergue des moments forts. Elle rappelle d’abord que le terme de vie privée, définit à l’origine comme le droit d’être laissé tranquille par les juristes américains Samuel Warren et Louis Brandeis, était inspiré par la création de la pellicule photographique par Kodak, qui promettait de pouvoir sortir l’appareil photo des studios où il était jusqu’alors confiné par son temps de pause très long. Dans cette longue histoire de la reconnaissance faciale, Hill raconte notamment l’incroyable histoire du contrôle des tickets de trains américains dans les années 1880, où les contrôleurs poinçonnaient les tickets selon un codage réduit (de 7 caractéristiques physiques dont le genre, l’âge, la corpulence…) permettant aux contrôleurs de savoir si le billet contrôlé correspondait bien à la personne qui l’avait déjà présenté. Bien évidemment, cette reconnaissance humaine et basique causa d’innombrables contestations, tant ces appréciations d’un agent à un autre pouvaient varier. Mais la méthode aurait inspiré Herman Hollerith, qui va avoir l’idée de cartes avec des perforations standardisées et va adapter la machine pour le recensement américain, donnant naissance à l’entreprise qui deviendra IBM.

Hill surfe sur l’histoire de l’IA, des Perceptrons de Marvin Minsky, à Panoramic, l’entreprise lancée dans les années 60 par Woody Bledsoe, qui va être la première, à la demande de la CIA, à tenter de créer un outil de reconnaissance des visages simplifié, en créant une empreinte de visages comme autant de points saillants. Elle raconte que les améliorations dans le domaine vont se faire avec l’amélioration de la qualité et de la disponibilité des images et de la puissance des ordinateurs, à l’image des travaux de Takeo Kanade (dans les années 70, pour l’entreprise japonaise NEC), puis de Matthew Turk qui va bénéficier de l’amélioration de la compression des images. Accusé d’être à la tête d’un programme Orwellien, Turk s’en défendra pourtant en soulignant qu’enregistrer les informations sur les gens qui passent devant une caméra est surtout bénin. À croire que notre déni sur les conséquences de cette technologie remonte à loin.

En 2001, lors du Super Bowl, plusieurs entreprises, dont Viisage Technology et Raytheon, communiquent sur le fait qu’elles ont sécurisé l’accès au stade grâce à la reconnaissance faciale, identifiant 19 spectateurs avec un passé criminel. Viisage a récupéré la technologie de Turk et l’a commercialisé pour des badges d’identification pour entreprises. Ces déploiements technologiques, financés par les agences fédérales, commencent à inquiéter, notamment quand on apprend que des entreprises y ont recours, comme les casinos. Reste que la technologie est encore largement défaillante et peine bien souvent à identifier quiconque.

Mais le 11 septembre a changé la donne. Le Patriot Act permet aux agences du gouvernement d’élargir leurs accès aux données. Joseph Atick, cofondateur de Visionics, une autre entreprise du secteur, propose sa technologie aux aéroports pour rassurer les voyageurs. Il sait que celle-ci n’est pas au point pour identifier les terroristes, mais il a besoin des données pour améliorer son logiciel. Bruce Schneider aura beau dénoncer le « théâtre de la sécurité » , l’engrenage sécuritaire est lancé… Face à ses déploiements, les acteurs publics ont besoin d’évaluer ce qu’ils achètent. Jonathon Philips du National Institute of Standards and Technology (Nist) créée une base de données de visages de très bonne qualité sous différents angles, « Feret », pour tester les outils que vendent les entreprises. Il inaugure un concours où les vendeurs de solutions sont invités à montrer qui parvient à faire le mieux matcher les visages aux photos. En 2001, le premier rapport du Nist montre surtout qu’aucune entreprise n’y parvient très bien. Aucune entreprise n’est capable de déployer un système efficace, mais cela ne va pas les empêcher de le faire. Les meilleures entreprises, comme celle d’Atick, parviennent à faire matcher les photos à 90 %, pour autant qu’elles soient prises dans des conditions idéales. Ce qui tient surtout de l’authentification faciale fonctionne également mieux sur les hommes que sur les femmes, les personnes de couleurs ou les jeunes. En 2014, le FBI lance à son tour un concours pour rendre sa base d’images de criminels cherchable, mais là encore, les résultats sont décevants. La technologie échoue dès qu’elle n’est pas utilisée dans des conditions idéales.

En 2006, le juriste de l’ACLU James Ferg-Cadima découvre dans une grande surface la possibilité de payer depuis son empreinte digitale. Face à de tels dispositifs, s’inquiète-t-il, les consommateurs n’ont aucun moyen de protéger leurs empreintes biométriques. Quand son mot de passe est exposé, on peut en obtenir un nouveau, mais nul ne peut changer son visage ou ses empreintes. Le service « Pay by Touch », lancé en 2002 fait faillite en 2007, avec le risque que sa base d’empreintes soit vendue au plus offrant ! Avec l’ACLU, Ferg-Cadima œuvre alors à déployer une loi qui oblige à recevoir une permission pour collecter, utiliser ou vendre des informations biométriques : le Biometric Information Privacy Act (Bipa) que plusieurs Etats vont adopter.

En 2009, Google imagine des lunettes qui permettent de lancer une recherche en prenant une photo, mais s’inquiète des réactions, d’autant que le lancement de Street View en Europe a déjà terni son image de défenseur de la vie privée. La fonctionnalité de reconnaissance faciale existe déjà dans Picasa, le service de stockage d’images de Google, qui propose d’identifier les gens sur les photos et que les gens peuvent labelliser du nom de leurs amis pour aider le logiciel à progresser. En 2011, la fonctionnalité fait polémique. Google l’enterre.

À la fin des années 90, l’ingénieur Henry Schneiderman accède à Feret, mais trouve que la base de données est trop parfaite pour améliorer la reconnaissance faciale. Il pense qu’il faut que les ordinateurs soient d’abord capables de trouver un visage dans les images avant qu’ils puissent les reconnaître. En 2000, il propose d’utiliser une nouvelle technique pour cela qui deviendra en 2004, PittPatt, un outil pour distinguer les visages dans les images. En 2010, le chercheur Alessandro Acquisti, fasciné par le paradoxe de la vie privée, lance une expérience en utilisant PittPatt et Facebook et montre que ce croisement permet de ré-identifier tous les étudiants qui se prêtent à son expérience, même ceux qui n’ont pas de compte Facebook, mais qui ont été néanmoins taggés par leurs amis dans une image. Acquisti prédit alors la « démocratisation de la surveillance » et estime que tout le monde sera demain capable d’identifier n’importe qui. Pour Acquisti, il sera bientôt possible de trouver le nom d’un étranger et d’y associer alors toutes les données disponibles, des sites web qu’il a visité à ses achats en passant par ses opinions politiques… et s’inquiète du fait que les gens ne pourront pas y faire grand-chose. Pour le professeur, d’ici 2021 il sera possible de réidentifer quelqu’un depuis son visage, prédit-il. Acquisti s’est trompé : la fonctionnalité a été disponible bien plus tôt !

En 2011, PittPatt est acquise par Google qui va s’en servir pour créer un système pour débloquer son téléphone. En décembre 2011, à Washington se tient la conférence Face Facts, sponsorisée par la FTC qui depuis 2006 s’est doté d’une petite division chargée de la vie privée et de la protection de l’identité, quant, à travers le monde, nombre d’Etats ont créé des autorités de la protection des données. Si, suite à quelques longues enquêtes, la FTC a attaqué Facebook, Google ou Twitter sur leurs outils de réglages de la vie privée défaillants, ces poursuites n’ont produit que des arrangements amiables. À la conférence, Julie Brill, fait la démonstration d’un produit de détection des visages que les publicitaires peuvent incorporer aux panneaux publicitaires numériques urbains, capable de détecter l’âge où le genre. Daniel Solove fait une présentation où il pointe que les Etats-Unis offrent peu de protections légales face au possible déploiement de la reconnaissance faciale. Pour lui, la loi n’est pas prête pour affronter le bouleversement que la reconnaissance faciale va introduire dans la société. Les entreprises se défendent en soulignant qu’elles ne souhaitent pas introduire de systèmes pour dé-anonymiser le monde, mais uniquement s’en servir de manière inoffensive. Cette promesse ne va pas durer longtemps…

En 2012, Facebook achète la startup israélienne Face.com et Zuckerberg demande aux ingénieurs d’utiliser Facebook pour « changer l’échelle » de la reconnaissance faciale. Le système de suggestions d’étiquetage de noms sur les photos que les utilisateurs chargent sur Facebook est réglé pour n’identifier que les amis, et pas ceux avec qui les utilisateurs ne sont pas en relation. Facebook assure que son outil ne sera jamais ouvert à la police et que le réseau social est protégé du scraping. On sait depuis que rien n’a été moins vrai. Après 5 ans de travaux, en 2017, un ingénieur de Facebook provenant de Microsoft propose un nouvel outil à un petit groupe d’employés de Facebook. Il pointe la caméra de son téléphone en direction d’un employé et le téléphone déclame son nom après l’avoir reconnu.

À Stanford, des ingénieurs ont mis au point un algorithme appelé Supervision qui utilise la technologie des réseaux neuronaux et qui vient de remporter un concours de vision par ordinateur en identifiant des objets sur des images à des niveaux de précision jamais atteints. Yaniv Taigman va l’utiliser et l’améliorer pour créer DeepFace. En 2014, DeepFace est capable de faire matcher deux photos d’une même personne avec seulement 3 % d’erreurs, même si la personne est loin dans l’image et même si les images sont anciennes. En 2015, DeepFace est déployé pour améliorer l’outil d’étiquetage des images de Facebook.

En 2013, les révélations d’Edward Snowden changent à nouveau la donne. D’un coup, les gens sont devenus plus sensibles aux incursions des autorités à l’encontre de la vie privée. Pourtant, malgré les efforts de militants, le Congrès n’arrive à passer aucune loi à l’encontre de la reconnaissance faciale ou de la protection de la vie privée. Seules quelques villes et États ont musclé leur législation. C’est le cas de l’Illinois où des avocats vont utiliser le Bipa pour attaquer Facebook accusé d’avoir créé une empreinte des visages des 1,6 millions d’habitants de l’Etat.

Cette rapide histoire, trop lacunaire parfois, semble s’arrêter là pour Hill, qui oriente la suite de son livre sur le seul Clearview. Elle s’arrête effectivement avec le déploiement de l’intelligence artificielle et des réseaux de neurones qui vont permettre à la reconnaissance faciale de parvenir à l’efficacité qu’elle espérait.

Reste que cette rapide histoire, brossée à grands traits, souligne néanmoins plusieurs points dans l’évolution de la reconnaissance faciale. D’abord que la reconnaissance faciale progresse par vague technologique, nécessitant l’accès à de nouvelles puissances de calcul pour progresser et surtout l’accès à des images en quantité et en qualité.

Ensuite, que les polémiques et paniques nourrissent les projets et les relancent plutôt que de les éteindre. Ceux qui les développent jouent souvent un jeu ambivalent, minimisant et dissimulant les capacités des programmes qu’ils déploient.

Enfin, que les polémiques ne permettent pas de faire naître des législations protectrices, comme si la législation était toujours en attente que la technologie advienne. Comme si finalement, il y avait toujours un enjeu à ce que la législation soit en retard, pour permettre à la technologie d’advenir.

(à suivre)

FramIActu n°4 — La revue mensuelle sur l’actualité de l’IA

Bienvenue à toutes et tous pour ce quatrième numéro de la FramIActu !

Semaine après semaine, l’actualité autour de l’Intelligence Artificielle défile, et si pour autant nous ne voyons pas plus clairement le cap que nous devons suivre, nous percevons de mieux en mieux les remous qui nous entourent.

Préparez votre boisson préférée et installez-vous confortablement : c’est l’heure de la FramIActu !

 

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Une dépendance trop forte aux modélisations par IA est mauvaise pour la science

Dans un article paru le 07 avril 2025 dans Nature (accès payant, malheureusement), des chercheureuses démontrent que la dépendance excessive aux modélisations par IA nuit à la recherche scientifique.
Dans cette étude, nous apprenons que de nombreux champs de recherche (au moins une trentaine sont concernés, allant de la psychiatrie à la biologie moléculaire) sont affectés par des études basées sur des modélisations faites par IA dont les résultats sont erronés.

À titre d’exemple, les chercheureuses indiquent que durant la pandémie du COVID-19, 415 études ont avancé qu’une radiographie de la poitrine ou une tomodensitométrie pourraient diagnostiquer la maladie. Or, seulement 62 de ces études respectaient un standard de qualité suffisant et même parmi celles-ci, des défauts étaient très répandus, incluant des méthodes d’évaluation bancales, des données dupliquées et un manque de clarté concernant les cas « positifs », certaines études ne précisant pas si ces cas provenaient bien de personnes ayant un diagnostic médical confirmé.

Les auteurices de l’étude se plaignent aussi de la difficulté à reproduire les résultats des études (la reproductibilité étant une condition essentielle à la méthode scientifique) utilisant des IA basées sur de grands modèles de langage. Ces modèles sont très sensibles aux entrées : de tous petits changements de formulations lors de la requête peut générer une réponse très différente.
De plus, les modèles appartenant le plus souvent à des compagnies privées, il est très difficile de pouvoir y accéder rendant des études basées sur ceux-ci difficiles à reproduire.
D’autant plus que des mises à jour des modèles surviennent régulièrement, sans que les chercheureuses n’aient été notifié·es.

Mème. À gauche, une carte Uno avec marqué « Fais des études reproductibles ou pioche 25 cartes ». À droite, un personnage tagué « Le monde de la recherche » a pioché 25 cartes.

Le monde de recherche et l’IA. Mème généré via Framamèmes. Licence : CC0

Les chercheureuses appuient donc sur la nécessité d’être vigilant·es concernant l’augmentation de recherches scientifiques liées au boom de l’IA. Même si celles-ci étaient sans erreur, elles ne sont pas forcément synonymes de réelles avancées scientifiques.
Bien que certaines modélisations trouvées par des recherches basées sur de l’IA peuvent être utiles, en tirer une conclusion scientifique permettant de mieux comprendre le réel est bien plus difficile et les chercheureuses invitent leurs collègues à ne pas se tromper.
Les boites à outils composées d’IA basées sur de l’apprentissage machine permettent de construire plus facilement des modélisations mais ne rendent pas nécessairement plus faciles l’extraction des savoirs sur le monde et peuvent même rendre celle-ci plus difficile.
Le risque est donc de produire plus mais de comprendre moins.

Les auteurices invitent en conclusion à séparer la production de résultats individuels du progrès scientifique. Pour cela, celleux-ci indiquent qu’il est nécessaire de rédiger des synthèses avec un discours moins systématique et plus critique qui questionne les méthodes acceptées, adopte différentes formes de preuves, se confronte à des affirmations supposément incompatibles et théorise les découvertes existantes.
Aussi, une prudence bien plus forte doit être apportée aux recherches basées sur des modèles d’IA, jusqu’à ce que les résultats de celles-ci puissent être rigoureusement reproduits.
Enfin, les chercheureuses encouragent les financeurs à financer des recherches de qualité plutôt que de se focaliser sur la quantité.

L’IA rate les diagnostics médicaux de femmes et personnes noires.

Dans une étude parue dans Science Advances, un groupe de chercheureuses dévoile (sans grande surprise, avouons-le) qu’un des modèles d’IA les plus utilisés pour faire de la radiologie des poitrines à la recherche de maladies ne détecte pas correctement certain·es maladies potentiellement mortelles pour les groupes marginalisés (dont les femmes et les personnes noires).

Judy Gichoya, une informaticienne et radiologiste qui n’est pas impliquée dans l’étude, appuie sur la difficulté de réduire ces biais. Elle propose de s’appuyer sur des jeux de données plus petits mais plus diversifiés et de résoudre leurs défauts petit à petit.

L’étude s’inscrit dans un contexte où l’utilisation dans des contextes médicaux s’accélère et appuie ainsi sur la nécessité de toujours garder un regard humain sur les diagnostics et de ne jamais faire aveuglément confiance en les résultats fournis par une IA.

L'IA qui rend son diagnostique.Généré avec Framamemes. CC-0

L’IA rend son diagnostic.
Généré avec Framamemes. Licence : CC-0

De notre point de vue, la grande difficulté de la résolution des biais dans l’IA est liée à une volonté politique et financière : si ce genre de méthode se généralise, il faudrait très certainement investir massivement dans la numérisation des réalités des minorités et faire un immense travail de fond pour en éliminer le maximum de biais.
Cela semble malheureusement aller à contre-courant de la tendance actuelle.

 

Des expert·es en sécurité informatique dévoilent comment l’IA « malveillante » impacte le domaine

Lors de la conférence RSA, dédiée à la sécurité informatique, des expert·es du domaine ont dévoilé la puissance d’outils comme WormGPT pour découvrir des failles de sécurité et concevoir des attaques les exploitant.

WormGPT est un agent conversationnel ressemblant à ChatGPT mais n’ayant pas de modération. Celui-ci est aussi taillé pour la cybersécurité. On peut donc lui demander de fournir des réponses à tout, même à des choses illégales et/ou dangereuses.

Dans leur présentation, les informaticien·nes décrivent l’outil et ses capacités.
Celui-ci leur a permis de trouver rapidement des failles de sécurité dans un logiciel open source connu, mais aussi d’en générer des instructions claires permettant d’exploiter ces failles.

Les expert·es ont aussi cherché à faire générer directement le code par l’IA mais celui-ci n’était pas fonctionnel.
Ce dernier point sera très certainement amélioré au fil des prochains mois.

L’automatisation de l’analyse de failles informatiques a ainsi fait un bond conséquent en avant tout comme les capacités à les exploiter. Si des groupes de pirates se mettent à automatiser le processus, l’ensemble des systèmes informatiques risquent fort d’en pâtir.

D’un autre côté, si nous pouvons découvrir automatiquement des failles de sécurité dans nos logiciels, nous pouvons aussi chercher à les corriger avant qu’un·e attaquant·e ne les exploite.
L’utilisation de l’IA dans l’infrastructure entourant un logiciel semble donc presque inévitable de ce point de vue.

Enfin, nous pourrons aussi questionner ce que cela implique pour les développeur·euses modestes, notamment celleux partageant le code source de leur logiciel. Est-ce que la situation va ajouter encore plus de poids sur leurs épaules, leur demandant d’alourdir leur charge de travail (souvent bénévole) en mettant en place une infrastructure analysant les failles de sécurité et leur demandant de les résoudre au plus vite pour protéger leurs utilisateurices ?

L'image montre des briques reposant les unes sur les autres. L'ensemble de ces briques est taguée "All modern digital infrastructure". Une brique, sur laquelle repose tout l'équilibre de l'ensemble, est taguée "A project some random person in Nebraska has been Thanklessly maintaining since 2005".

Dependency – xkcd.
Licence : CC-BY-NC 2.5
Le célèbre xkcd représentant l’infrastructure du numérique moderne reposant entièrement sur une seule personne.

ChatGPT induit des psychoses à certain·es utilisateurices via ses réponses.

Dans un article de Rolling Stone, nous apprenons que des utilisateurices du média social Reddit décrivent comment l’IA a poussé leurs proches à adopter des délires, souvent basés sur des folies spirituelles ou des fantasmes surnaturels.

ChatGPT semble renforcer des psychoses chez certaines personnes, le plus souvent celles ayant déjà des tendances.
Interviewée par Rolling Stone, Erin Westgate, chercheuse en cognition, indique que certaines personnes utilisent ChatGPT comme « thérapie miroir ». Sauf que ChatGPT n’a pas pour préoccupation les intérêts de ces personnes.
Elle indique que des personnes utilisent ChatGPT pour trouver un sens à leur vie et ChatGPT leur recrache n’importe quelle explication trouvée un peu partout sur internet.

 

« Les explications sont puissantes, même si elles sont fausses » – Erin Westgate

Rappelons donc encore une fois que toute Intelligence Artificielle n’a aucune compréhension du réel et est surtout un système probabiliste. Une IA ne donnera jamais une réponse qu’elle considère être « vraie », c’est une notion inconnue pour elle. Elle donnera toujours une réponse qu’elle considère être « la plus probable » au regard de la manière dont elle a été entraînée et de l’historique de ses interactions avec l’utilisateur·ice.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour ce mois-ci !

 

Cependant, si vous avez trouvé cette FramIActu trop courte et que vous êtes resté·e sur votre faim, vous pouvez vous mettre d’autres actualités sous la dent en consultant notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir et si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu ! 👋

Khrys’presso du lundi 12 mai 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial nouveau pape

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

  • Operator, I need an exit. (transworldexpress.org)

    This is an information resource mainly written for trans US citizens considering emigrating to another country, although we hope it is useful beyond that.

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Vivre dans l’utopie algorithmique

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 février 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


L’utopie algorithmique des puissants est la dystopie algorithmique des démunis.

 

 

 

 

 

 

 

Dans un article de recherche de 2021, intitulé « Vivre dans leur utopie : pourquoi les systèmes algorithmiques créent des résultats absurdes », l’anthropologue et data scientist américain, Ali Alkhatib pointait le décalage existant entre la promesse technicienne et sa réalité, qui est que ces systèmes déploient bien plus de mauvaises décisions que de bonnes. La grande difficulté des populations  à s’opposer à des modèles informatiques défectueux condamne même les systèmes bien intentionnés, car les modèles défaillants sèment le doute partout autour d’eux. Pour lui, les systèmes algorithmiques tiennent d’une bureaucratisation pour elle-même et promeuvent un Etat administratif automatisé, autorisé à menacer et accabler ses populations pour assurer sa propre optimisation.

La raison de ces constructions algorithmiques pour trier et gérer les populations s’expliquent par le fait que la modernité produit des versions abrégées du monde qui ne sont pas conformes à sa diversité, à l’image des ingénieurs du XVIIIᵉ siècle, raconté par l’anthropologue James C. Scott dans L’Oeil de l’Etat, qui, en voulant optimiser la forêt pour son exploitation, l’ont rendue malade. Nos modèles sont du même ordre, ils produisent des versions du monde qui n’y sont pas conformes et qui peuvent être extrêmement nuisibles. « Les cartes abrégées conceptuelles que les forestiers ont créées et utilisées sont des artefacts qui résument le monde, mais elles transforment également le monde ». Nous sommes cernés par la croyance que la science et la technologie vont nous permettre de gérer et transformer la société pour la perfectionner. Ce qui, comme le dit Scott, a plusieurs conséquences : d’abord, cela produit une réorganisation administrative transformationnelle. Ensuite, cette réorganisation a tendance à s’imposer d’une manière autoritaire, sans égards pour la vie – les gens qui n’entrent pas dans les systèmes ne sont pas considérés. Et, pour imposer son réductionnisme, cette réorganisation nécessite d’affaiblir la société civile et la contestation.

La réorganisation administrative et informatique de nos vies et les dommages que ces réorganisations causent sont déjà visibles. L’organisation algorithmique du monde déclasse déjà ceux qui sont dans les marges du modèle, loin de la moyenne et d’autant plus éloignés que les données ne les ont jamais représentés correctement. C’est ce que l’on constate avec les discriminations que les systèmes renforcent. « Le système impose son modèle au monde, jugeant et punissant les personnes qui ne correspondent pas au modèle que l’algorithme a produit dans l’intérêt d’un objectif apparemment objectif que les concepteurs insistent pour dire qu’il est meilleur que les décisions que les humains prennent de certaines ou de plusieurs manières ; c’est la deuxième qualité. Leur mépris pour la dignité et la vie des gens – ou plutôt, leur incapacité à conceptualiser ces idées en premier lieu – les rend finalement aussi disposés que n’importe quel système à subjuguer et à nuire aux gens ; c’est la troisième qualité. Enfin, nos pratiques dans la façon dont les éthiciens et autres universitaires parlent de l’éthique et de l’IA, sapant et contrôlant le discours jusqu’à ce que le public accepte un engagement rigoureux avec « l’algorithme » qui serait quelque chose que seuls les philosophes et les informaticiens peuvent faire, agit comme une dépossession du public ; c’est la quatrième et dernière qualité. »

Comme les forestiers du XVIIIᵉ, les informaticiens imposent leur utopie algorithmique sur le monde, sans voir qu’elle est d’abord un réductionnisme. Le monde réduit à des données, par nature partiales, renforce sa puissance au détriment des personnes les plus à la marge de ces données et calculs. Les modélisations finissent par se détacher de plus en plus de la réalité et sont de plus en plus nuisibles aux personnes exclues. Ali Alkhatib évoque par exemple un système d’admission automatisé mis en place à l’université d’Austin entre 2013 et 2018, « Grade », abandonné car, comme tant d’autres, il avait désavantagé les femmes et les personnes de couleur. Ce système, conçu pour diminuer le travail des commissions d’admission ne tenait aucun compte de l’origine ou du genre des candidats, mais en faisant cela, valorisait de fait les candidats blancs et masculins. Enfin, le système n’offrait ni voie de recours ni même moyens pour que les candidats aient leur mot à dire sur la façon dont le système les évaluait.

L’IA construit des modèles du monde qui nous contraignent à nous y adapter, explique Ali Alkhatib. Mais surtout, elle réduit le pouvoir de certains et d’abord de ceux qu’elle calcule le plus mal. En cherchant à créer un « monde plus rationnel », les algorithmes d’apprentissage automatique créent les « façons d’organiser la stupidité » que dénonçait David Graeber dans Bureaucratie (voir notre lecture) et ces modèles sont ensuite projetés sur nos expériences réelles, niant celles qui ne s’inscrivent pas dans cette réduction. Si les IA causent du tort, c’est parce que les concepteurs de ces systèmes leur permettent de créer leurs propres mondes pour mieux transformer le réel. « Les IA causent du tort, parce qu’elles nous exhortent à vivre dans leur utopie ». Lorsque les concepteurs de systèmes entraînent leurs modèles informatiques en ignorant l’identité transgenre par exemple, ils exigent que ces personnes se débarrassent de leur identité, ce qu’elles ne peuvent pas faire, comme le montrait Sasha Constanza-Chock dans son livre, Design Justice, en évoquant les blocages qu’elle rencontrait dans les aéroports. Même chose quand les systèmes de reconnaissance faciales ont plus de mal avec certaines couleurs de peau qui conduisent à renforcer les difficultés que rencontrent déjà ces populations. Pour Ali Alkhatib, l’homogénéisation que produit la monoculture de l’IA en contraignant, en effaçant et en opprimant ceux qui ne correspondent pas déjà au modèle existant, se renforce partout où l’IA exerce un pouvoir autoritaire, et ces préjudices s’abattent systématiquement et inévitablement sur les groupes qui ont très peu de pouvoir pour résister, corriger ou s’échapper des calculs. D’autant qu’en imposant leur réduction, ces systèmes ont tous tendance à limiter les contestations possibles.

En refermant les possibilités de contestation de ceux qui n’entrent pas dans les cases du calcul, l’utopie algorithmique des puissants devient la dystopie algorithmique des démunis.

Khrys’presso du lundi 5 mai 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

  • Women’s safety and empowerment is an empty rhetoric in India. (reporters-collective.in)

    While brutal crimes spark public outrage and political blame games, the daily violence faced by women goes unnoticed. The safety mechanisms and government schemes meant to protect them are equally overlooked.

  • In Sri Lanka, ‘the Ocean Is For Everyone’ (reasonstobecheerful.world)

    For years, fear and social norms kept many women in one of Asia’s top surfing destinations away from the water. Then they started riding the waves.

  • Women Plumbers in Jordan Are Breaking Taboos (reasonstobecheerful.world)

    For hundreds of women, this unconventional career in a male-dominated field has provided life-changing confidence and independence.

  • En RDC, le viol comme arme de guerre (revueladeferlante.fr)

    Les crimes sexuels, des entraves à l’avortement, des exactions contre des fémi­nistes : trois acti­vistes congo­laises analysent les violences de genre à l’œuvre dans le conflit en République démo­cra­tique du Congo.

  • Au Maghreb la révolte des mots (revueladeferlante.fr)

    Arabe classique, arabe populaire, berbère, français, anglais irriguent les parlers au Maroc, en Algérie et en Tunisie. Le langage est au cœur des réflexions d’une nouvelle géné­ra­tion de fémi­nistes et de queers qui veulent réha­bi­li­ter les variantes popu­laires pour libérer la parole.

  • En Pologne, Mathilde Panot et Manon Aubry ont remis des pilules abortives à une association pro-IVG (huffingtonpost.fr)

    En Pologne, la loi n’interdit pas aux femmes de pratiquer leur propre avortement avec des pilules commandées en ligne. Une brèche utilisée par LFI lors d’un voyage sur place.

  • “We’re Going to Do Whatever It Takes to Keep Her Safe” (motherjones.com)

    How families are fighting to survive Trump’s war on transgender kids.

  • Robert De Niro soutient sa fille Airyn après son coming out trans (huffingtonpost.fr)

    Très virulent contre Donald Trump et sa politique anti-inclusion, l’acteur américain de 81 ans n’a pas hésité à s’exprimer publiquement sur sa vie privée.[…]« J’ai aimé et soutenu Aaron comme mon fils, et maintenant j’aime et soutiens Airyn comme ma fille », avant d’affirmer « aimer tous ses enfants », au nombre de sept.« Je ne vois pas où est le problème », a-t-il ajouté

RIP

Spécial France

Spécial femmes en France

  • Adélaïde Hautval : bientôt une nouvelle femme au Panthéon ? (lesnouvellesnews.fr)

    Adélaïde Hautval sera-t-elle la prochaine femme à faire son entrée au Panthéon ? Cette psychiatre fut déportée pour avoir protégé des Juifs pendant la Deuxième Guerre mondiale. Elle serait la septième femme à être panthéonisée.

  • “C’est du vandalisme à portée politique” : portraits de femmes piétinés, symboles phalliques tagués, l’artiste affligée par la destruction de son exposition (france3-regions.francetvinfo.fr)

    Samedi 26 avril, une exposition féministe baptisée “Benzine Cyprine” a été vandalisée dans une galerie d’art à Nîmes. L’artiste toulousaine Kamille Lévêque Jégo qui a vu ses œuvres détruites se dit écœurée par de tels actes.

  • Écriture inclusive, “wokisme”… L’école Kourtrajmé dans le viseur de la région (lesinrocks.com)

    L’école de cinéma Kourtrajmé, située à Marseille, a appris ce jeudi 24 avril qu’elle ne percevrait la subvention bisannuelle de la région Provence-Alpes-Côte d’Azur (PACA) – présidée par Renaud Muselier (Renaissance) – qu’à la condition de renoncer à l’usage de l’écriture inclusive dans ses communications.

  • Gérard Depardieu, en tournage pour un film de Fanny Ardant, va faire son retour au cinéma (huffingtonpost.fr)
  • « Dans la Drôme, la santé des femmes sacrifiée » (revueladeferlante.fr)

    Le dépar­te­ment de la Drôme a voté le 14 avril 2025 la fermeture de sept centres de santé sexuelle ainsi qu’une baisse de 20 % des sub­ven­tions versées au Planning familial. De quoi creuser encore les inéga­li­tés d’accès aux soins de proximité dans ce dépar­te­ment rural du sud de la France.

  • MeToo de la marine : les violences sexistes en mer enfin jugées au pénal (basta.media)

    Trois anciens salariés d’une compagnie maritime du Finistère comparaissaient du 22 au 24 avril pour des faits de harcèlement sexuel, agressions sexuelles, et harcèlement moral à bord de navires. Le premier MeToo de la marine.

  • Méfiez-vous (aussi) des hommes parfaits : réflexion sur les stratégies des agresseurs (theconversation.com)

    Si Dominique Pelicot préparait les repas et les apportait au lit à son épouse, ce n’était nullement par souci d’équité domestique ni par sollicitude, mais uniquement parce que cela lui permettait de la sédater à son insu […] De même, l’accompagner systématiquement chez le médecin n’était pas une marque d’attention, mais visait à empêcher le corps médical de poser les questions qui auraient pu mener Gisèle Pelicot à s’interroger sur ce qu’elle ingérait – stratégie qui s’est avérée payante. Il l’accompagnait jusque dans le cabinet du gynécologue […] Pas plus qu’ils ne sont paradoxaux, ces procédés ne sont hors norme. Nombre de ses co-accusés ont également été dépeints comme des conjoints et pères « normaux » ou « idéaux ». […] Faire perdre toute agentivité à la conjointe est une stratégie classique du compagnon violent. La faire passer pour folle, ou sénile, en est une autre. Si elle s’était souvenu de quoi que ce soit, qui aurait cru une femme qui perd la tête ? […] Lors de la vague féministe Ni Una Menos (« Pas une de moins ») en Amérique latine, un homme avait fait le buzz en défilant torse nu lors d’une manifestation à Santiago, au Chili, avec une pancarte « Je suis à moitié nu entouré du sexe opposé… Je me sens protégé, pas intimidé. Je veux la même chose pour elles ». Les posts de son ex-compagne le dénonçant pour violences conjugales et paternelles avaient fait nettement moins de bruit.

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial soutenir

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Vers un internet plein de vide ?

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 janvier 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Des contenus générés par IA qui ânonnent des textes qui ne veulent rien dire. Des images stylisées qui nous déconnectent de la réalité. L’internet zombie colonise l’internet, par un remplissage par le vide qui n’a pas d’autre enjeu que de nous désorienter.

 

 

 

 

 

 

Sur la plupart des réseaux sociaux vous avez déjà dû tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus. A l’image des contenus philosophiques générés par l’IA que décortique en vidéo Monsieur Phi.

IA slop : de la publicité générative à l’internet zombie

Pour l’instant, ces contenus semblent anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Pour l’analyste Ben Thompson, l’IA générative est un parfait moteur pour produire de la publicité – et ces slops sont-ils autre chose que des contenus à la recherche de revenus ? Comme le dit le philosophe Rob Horning : « le rêve de longue date d’une quantité infinie de publicités inondant le monde n’a jamais semblé aussi proche ». Pour Jason Koebler de 404 Mediaqui a enquêté toute l’année sur l’origine de ce spam IA, celui-ci est profondément relié au modèle économique des réseaux sociaux qui rémunèrent selon l’audience que les créateurs réalisent, ce qui motive d’innombrables utilisateurs à chercher à en tirer profit. Koebler parle d’ailleurs d’internet zombie pour qualifier autant cette génération de contenu automatisée que les engagements tout aussi automatisés qu’elle génère. Désormais, ce ne sont d’ailleurs plus les contenus qui sont colonisés par ce spam, que les influenceurs eux-mêmes, notamment par le biais de mannequins en maillots de bains générés par l’IA. À terme, s’inquiète Koebler, les médias sociaux pourraient ne plus rien avoir de sociaux et devenir des espaces « où le contenu généré par l’IA éclipse celui des humains », d’autant que la visibilité de ces comptes se fait au détriment de ceux pilotés par des humains. Des sortes de régies publicitaires sous stéroïdes. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ».

Ces contenus qui sont en train de coloniser les réseaux sociaux n’ont pas l’air d’inquiéter les barons de la tech, pointait très récemment Koebler en rapportant les propose de Mark Zuckerberg. D’autant que ces contenus génératifs semblent produire ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques. Le slop a également envahi la plateforme de blogs Medium, explique Wired, mais ces contenus pour l’instant demeurent assez invisibles, notamment parce que la plateforme parvient à limiter leur portée. Un endiguement qui pourrait ne pas résister au temps. À terme, les contenus produits par les humains pourraient devenir de plus en plus difficiles à trouver sur des plateformes submergées par l’IA.

On voudrait croire que les réseaux sociaux puissent finir par s’effondrer du désintérêt que ces contenus démultiplient. Il semble que ce soit l’inverse, l’internet zombie est en plein boom. Tant et si bien qu’on peut se demander, un an après le constat de l’effondrement de l’information, si nous ne sommes pas en train de voir apparaître l’effondrement de tout le reste ?

Les enjeux du remplissage par le vide

Dans sa newsletter personnelle, le chercheur et artiste Eryk Salvaggio revient à son tour sur le remplissage par l’IA, dans trois longs billets en tout point passionnants. Il souligne d’abord que ce remplissage sait parfaitement s’adapter aux algorithmes des médias sociaux. Sur Linked-in, les contenus rédigés par des LLM seraient déjà majoritaires. Même le moteur de recherche de Google valorise déjà les images et les textes générés par IA. Pour Salvaggio, avec l’IA générative toute information devient du bruit. Mais surtout, en se jouant parfaitement des filtres algorithmiques, celle-ci se révèle parfaitement efficace pour nous submerger.

Une image générée par IA.Elle représente Jésus, blanc, semblable à une statue, sous l'eau. Il est entouré de dizaines de crevettes.

Jesus Schrimp, image symbolique des eaux troubles de l’IA produisant son propre vide.

 

Salvaggio propose d’abandonner l’idée de définir l’IA comme une technologie. Elle est devenue un projet idéologique, c’est-à-dire que « c’est une façon d’imaginer le monde qui devient un raccourci pour expliquer le monde ». Et elle est d’autant plus idéologique selon les endroits où elle se déploie, notamment quand c’est pour gérer des questions sociales ou culturelles. « L’optimisation de la capacité d’un système à affirmer son autorité est une promesse utopique brillante des technologies d’automatisation ». « L’un des aspects de l’IA en tant qu’idéologie est donc la stérilisation scientifique de la variété et de l’imprévisibilité au nom de comportements fiables et prévisibles. L’IA, pour cette raison, offre peu et nuit beaucoup au dynamisme des systèmes socioculturels ». Les gens participent à l’idéologie de l’IA en évangélisant ses produits, en diffusant ses résultats et en soutenant ses avancées pour s’identifier au groupe dominant qui l’a produit.

La production par l’IA de contenus de remplissage nécessite de se demander à qui profite ce remplissage abscons ? Pour Salvaggio, le remplissage est un symptôme qui émerge de l’infrastructure même de l’IA qui est elle-même le résultat de l’idéologie de l’IA. Pourquoi les médias algorithmiques récompensent-ils la circulation de ces contenus ? Des productions sensibles, virales, qui jouent de l’émotion sans égard pour la vérité. Les productions de remplissage permettent de produire un monde tel qu’il est imaginé. Elles permettent de contourner tout désir de comprendre le monde, car elle nous offre la satisfaction immédiate d’avoir un « sentiment sur le monde ». « L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. »

Notre désorientation par le vide

Eryk Salvaggio se demande même si le but de l’IA n’est pas justement de produire ce remplissage. Un remplissage « équipé », « armé », qui permet d’essaimer quelque chose qui le dépasse, comme quand l’IA est utilisée pour inonder les réseaux de contenus sexuels pour mieux essaimer le regard masculin. Les productions de l’IA permettent de produire une perspective, un « regard en essaim » qui permet de manipuler les symboles, de les détourner« Les images générées par l’IA offrent le pouvoir de façonner le sens dans un monde où les gens craignent l’impuissance et l’absence de sens en les invitant à rendre les autres aussi impuissants et dénués de sens qu’eux ». Ces images « diminuent la valeur de la réalité », suggère brillamment Salvaggio. Elles créent « une esthétisation », c’est-à-dire rend la représentation conforme à un idéal. La fonction politique de ce remplissage va bien au-delà des seules représentations et des symboles, suggère-t-il encore. L’IA appliquée aux services gouvernementaux, comme les services sociaux, les transforme à leur tour « en exercice esthétique ». Notre éligibilité à une assurance maladie ou à une couverture sociale n’est pas différente de l’IA Slop. C’est cette même infrastructure vide de sens qui est pointée du doigt par ceux qui s’opposent à l’algorithmisation de l’Etat que ceux qui fuient les boucles de rétroactions délétères des médias sociaux.

Le projet DOGE d’Elon Musk, ce département de l’efficacité gouvernementale qui devrait proposer un tableau de bord permettant aux internautes de voter pour éliminer les dépenses publiques les plus inutiles, semble lui-même une forme de fusion de médias sociaux, d’idéologie de l’IA et de pouvoir pour exploiter le regard en essaim de la population et le diriger pour harceler les fonctionnaires, réduire l’État providence autour d’une acception de l’efficacité ultra-réductrice. Au final, cela produit une forme de politique qui traite le gouvernement comme une interface de médias sociaux, conçue pour amplifier l’indignation, intimider ceux qui ne sont pas d’accord et rendre tout dialogue constructif impossible. Bienvenue à la « momusocratie » , le gouvernement des trolls, de la raillerie, explique Salvaggio, cette Tyrannie des bouffons chère à l’essayiste Christian Salmon.

Mais encore, défend Salvaggio, le déversement de contenus produit par l’IA générative promet un épuisement du public par une pollution informationnelle sans précédent, permettant de perturber les canaux d’organisation, de réflexion et de connexion. « Contrôlez le filtre permet de l’orienter dans le sens que vous voulez ». Mais plus que lui donner un sens, la pollution de l’information permet de la saturer pour mieux désorienter tout le monde. Cette saturation est un excellent moyen de garantir « qu’aucun consensus, aucun compromis, ou simplement aucune compréhension mutuelle ne se produise ». Cette saturation ne vise rien d’autre que de promouvoir « la division par l’épuisement ». « Le remplissage est un pouvoir ».

« L’idéologie de l’IA fonctionne comme une croyance apolitique trompeuse selon laquelle les algorithmes sont une solution à la politique » qui suppose que les calculs peuvent prendre les décisions au profit de tous alors que leurs décisions ne sont qu’au profit de certains, en filtrant les données, les idées, les gens qui contredisent les résultats attendus. Alors que l’élection de Trump éloigne les enjeux de transparence et de régulation, l’IA va surtout permettre de renforcer l’opacité qui lui assure sa domination.

Vers un monde sans intérêt en boucle sur lui-même

Dans la dernière partie de sa réflexion, Salvaggio estime que le remplissage est un symptôme, mais qui va produire des effets très concrets, des « expériences désintéressées », c’est-à-dire des « expériences sans intérêt et incapables de s’intéresser à quoi que ce soit ». C’est le rêve de machines rationnelles et impartiales, omniscientes, désintéressées et qui justement ne sont capables de s’intéresser à rien. Un monde où l’on confie les enfants à des tuteurs virtuels par souci d’efficacité, sans être capable de comprendre tout ce que cette absence d’humanité charrie de délétère.

L’IA s’est construite sur l’excès d’information… dans le but d’en produire encore davantage. Les médias sociaux ayant été une grande source de données pour l’IA, on comprend que les contenus de remplissage de l’IA soient optimisés pour ceux-ci. « Entraînée sur du contenu viral, l’IA produit du contenu qui coche toutes les cases pour l’amplification. Le slop de l’IA est donc le reflet de ce que voient nos filtres de médias sociaux. Et lorsque les algorithmes des médias sociaux en reçoivent les résultats, il les reconnaît comme plus susceptibles de stimuler l’engagement et les renforce vers les flux (générant plus d’engagement encore). »  Dans le tonneau des Danaïdes de l’amplification, l’IA slop est le fluidifiant ultime, le contenu absurde qui fait tourner la machine sans fin.

Combattre ce remplissage par l’IA n’est une priorité ni pour les entreprises d’IA qui y trouvent des débouchés, ni pour les entreprises de médias sociaux, puisqu’il ne leur porte aucun préjudice. « Les contenus de remplissage de l’IA sont en fait la manifestation esthétique de la culture à médiation algorithmique »  : « ils sont stylisés à travers plus d’une décennie d’algorithmes d’optimisation qui apprennent ce qui pousse les gens à s’engager ».

Face à ces contenus « optimisés pour performer », les artistes comme les individus qui ont tenté de partager leur travail sur les plateformes sociales ces dernières années ne peuvent pas entrer en concurrence. Ceux qui ont essayé s’y sont vite épuisés, puisqu’il faut tenir d’abord le rythme de publication infernal et infatigable que ces systèmes sont capables de produire.

Dépouiller les symboles de leur relation à la réalité

« Les images générées par l’IA peuvent être interprétées comme de l’art populaire pour servir le populisme de l’IA »Elles visent à « dépouiller les symboles de leur relation à la réalité » pour les réorganiser librement. Les gens ne connaissent pas les films mais ont vu les mèmes. Le résultat de ces images est souvent critiqué comme étant sans âme. Et en effet, le texte et les images générés par l’IA souffrent de l’absence du poids du réel, dû à l’absence de logique qui préside à leur production.

« L’ère de l’information est arrivée à son terme, et avec elle vient la fin de toute définition « objective » et « neutre » possible de la « vérité ». » L’esthétique du remplissage par l’IA n’est pas aléatoire, mais stochastique, c’est-à-dire qu’elle repose sur une variété infinie limitée par un ensemble de règles étroites et cohérentes. Cela limite notre capacité à découvrir ou à inventer de nouvelles formes de culture, puisque celle-ci est d’abord invitée à se reproduire sans cesse, à se moyenniser, à s’imiter elle-même. Les images comme les textes de l’IA reflètent le pouvoir de systèmes que nous avons encore du mal à percevoir. Ils produisent des formes de vérités universalisées, moyennisées qui nous y enferment. Comme dans une forme d’exploitation sans fin de nos représentations, alors qu’on voudrait pouvoir en sortir, comme l’expliquait dans une note pour la fondation Jean Jaurès, Melkom Boghossian, en cherchant à comprendre en quoi les algorithmes accentuent les clivages de genre. Comme s’il devenait impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent. Cet internet de contenus absurde n’est pas vide, il est plein de sens qui nous échappent et nous y engluent. Il est plein d’un monde saturé de lui-même.

A mesure que l’IA étend son emprise sur la toile, on se demande s’il restera encore des endroits où nous en serons préservés, où nous pourrons être mis en relation avec d’autres humains, sans que tout ce qui encode les systèmes ne nous déforment.

Du remplissage à la fin de la connaissance

Dans une tribune pour PubliBooks, la sociologue Janet Vertesi estime que les recherches en ligne sont devenues tellement chaotiques et irrationnelles, qu’elle a désormais recours aux dictionnaires et encyclopédies papier. « Google qui a fait fortune en nous aidant à nous frayer un chemin sur Internet se noie désormais dans ses propres absurdités générées par elle-même ». Nous voici confrontés à un problème d’épistémologie, c’est-à-dire de connaissance, pour savoir ce qui est réel et ce qui ne l’est pas. Au XXᵉ siècle, les philosophes ont défini la connaissance comme une croyance vraie justifiée. La méthode scientifique était le moyen pour distinguer la bonne science de la mauvaise, la vérité du mensonge. Mais cette approche suppose souvent qu’il n’y aurait qu’une seule bonne réponse que nous pourrions connaître si nous adoptons les bonnes méthodes et les bons outils. C’est oublier pourtant que la connaissance ne sont pas toujours indépendantes de l’expérience. Ludwig Wittgenstein a utilisé la figure du canard-lapin pour montrer comment des personnes rationnelles pouvaient en venir à avoir des points de vue irréconciliablement différents sur une même réalité. Les épistémologues se sont appuyés sur cette idée pour montrer que les personnes, selon leurs positions sociales, ont des expériences différentes de la réalité et que la connaissance objective ne pouvait naître que de la cartographie de ces multiples positions. Les sociologues de la connaissance, eux, examinent comment différents groupes sociaux en viennent à légitimer différentes manières de comprendre, souvent à l’exclusion des autres. Cela permet de comprendre comment différents faits sociaux circulent, s’affrontent ou se font concurrence, et pourquoi, dans les luttes pour la vérité, ceux qui détiennent le pouvoir l’emportent si souvent… Imposant leurs vérités sur les autres.

Mais ces questions ne faisaient pas partie des préoccupations de ceux qui ont construit internet, ni des systèmes d’IA générative qui s’en nourrissent. Depuis l’origine, internet traite toutes les informations de manière égale. Le réseau ne consiste qu’à acheminer des paquets d’informations parfaitement égaux entre eux, rappelle la sociologue. À cette neutralité de l’information s’est ajoutée une autre métaphore : celle du marché des idées, où chaque idée se dispute à égalité notre attention. Comme dans le mythe du libre marché, on a pu penser naïvement que les meilleures idées l’emporteraient. Mais ce régime épistémique a surtout été le reflet des croyances de l’Amérique contemporaine : un système de connaissance gouverné par une main invisible du marché et entretenue par des conservateurs pour leur permettre de générer une marge bénéficiaire.

« Pourtant, la connaissance n’est pas une marchandise. La « croyance vraie justifiée » ne résulte pas non plus d’une fonction d’optimisation. La connaissance peut être affinée par le questionnement ou la falsification, mais elle ne s’améliore pas en entrant en compétition avec la non-connaissance intentionnelle. Au contraire, face à la non-connaissance, la connaissance perd. »  L’interrogation du monde par des mécanismes organisés, méthodiques et significatifs – comme la méthode scientifique – peut également tomber dans le piège des modes de connaissance fantômes et des impostures méthodologiques. « Lorsque toute information est plate – technologiquement et épistémologiquement – il n’y a aucun moyen d’interroger sa profondeur, ses contours ou leur absence ». En fait, « au lieu d’être organisé autour de l’information, l’Internet contemporain est organisé autour du contenu : des paquets échangeables, non pondérés par la véracité de leur substance. Contrairement à la connaissance, tout contenu est plat. Aucun n’est plus ou moins justifié pour déterminer la vraie croyance. Rien de tout cela, au fond, n’est de l’information. »

« En conséquence, nos vies sont consumées par la consommation de contenu, mais nous ne reconnaissons plus la vérité lorsque nous la voyons. Et lorsque nous ne savons pas comment peser différentes vérités, ou coordonner différentes expériences du monde réel pour regarder derrière le voile, il y a soit une cacophonie, soit un seul vainqueur : la voix la plus forte qui l’emporte. »

Contrairement à Wikipédia, encore relativement organisé, le reste du Web est devenu la proie de l’optimisation des moteurs de recherche, des technologies de classement et de l’amplification algorithmique, qui n’ont fait que promouvoir le plus promouvable, le plus rentable, le plus scandaleux. « Mais aucun de ces superlatifs n’est synonyme de connaissance ». Les systèmes qui nous fournissent nos informations ne peuvent ni mesurer ni optimiser ce qui est vrai. Ils ne s’intéressent qu’à ce sur quoi nous cliquons. Et le clou dans le cercueil est enfoncé par l’intelligence artificielle qui « inonde Internet de contenu automatisé plus rapidement que l’on ne peut licencier une rédaction ». Dans ce paysage sous stéroïdes, aucun système n’est capable de distinguer la désinformation de l’information. Les deux sont réduits à des paquets de même poids cherchant leur optimisation sur le marché libre des idées. Et les deux sont ingérés par une grande machinerie statistique qui ne pèse que notre incapacité à les distinguer.

Aucun système fondé sur ces hypothèses ne peut espérer distinguer la « désinformation » de « l’information » : les deux sont réduites à des paquets de contenu de même valeur, cherchant simplement une fonction d’optimisation dans un marché libre des idées. Et les deux sont également ingérées dans une grande machinerie statistique, qui ne pèse que notre incapacité à les discerner. Le résultat ne promet rien d’autre qu’un torrent indistinct et sans fin, « où la connaissance n’a jamais été un facteur et d’où la connaissance ne peut donc jamais émerger légitimement »« Sans topologie de l’information, nous sommes à la dérive dans le contenu, essayant en vain de naviguer dans une cascade d’absurdités sans boussole ».

« Il est grand temps de revenir à ces méthodes et à ces questions, aux milliers d’années de gestion de l’information et d’échange de connaissances qui ont transmis non seulement des faits ou du contenu, mais aussi une appréciation de ce qu’il faut pour faire émerger des vérités », plaide Vertesi. « Il n’est pas nécessaire que ce soit un projet colonial ou réductionniste. Les connaissances d’aujourd’hui sont plurielles, distribuées, issues de nombreux lieux et peuples, chacun avec des méthodes et des forces d’ancrage uniques. Cela ne signifie pas non plus que tout est permis. Le défi consiste à s’écouter les uns les autres et à intégrer des perspectives conflictuelles avec grâce et attention, et non à crier plus fort que les autres ».

« Alors que nos vies sont de plus en plus infectées par des systèmes d’IA maladroits et pilleurs et leurs flux hallucinatoires, nous devons apprendre à évaluer plutôt qu’à accepter, à synthétiser plutôt qu’à résumer, à apprécier plutôt qu’à accepter, à considérer plutôt qu’à consommer ».

« Notre paysage technologique contemporain exige de toute urgence que nous revenions à une autre des plus anciennes questions de toutes : « Qu’est-ce qui est vraiment réel ? » »

Docilités numériques

L’illusion du progrès numérique masque une réalité brutale : celle d’un monde où chaque geste alimente des systèmes de contrôle, de surveillance et d’exploitation. Ce n’est pas seulement l’intelligence artificielle, mais tout un modèle technologique, celui des plateformes, de la capture de l’attention, de l’extractivisme numérique, qu’il faut interroger. Ce texte n’invite ni à fuir ni à consentir : il appelle à politiser nos usages et à réarmer nos pratiques.


Rhétorique du renoncement

Vers la vingt-deuxième minute de cet entretien matinal sur France Inter, le 09 avril 2025, la journaliste Léa Salamé faisait dire à F. Ruffin qu’il n’y a pas d’alternatives aux GAFAM. « Vous utilisez Google Docs, vous ? ». Tout le monde utilise les outils des GAFAM, on ne peut pas faire autrement…

En écoutant ces quelques secondes, et en repassant mentalement les quelques vingt dernières années passées à militer pour le logiciel libre avec les collègues de Framasoft, je me disais que décidément, le refrain sans cesse ânonné du there is no alternative concernant les outils numériques, n’est pas un argument défaitiste, ce n’est pas non plus un constat et encore moins une lamentation, c’est un sophisme. « Vu que tout le monde les utilise, on ne peut pas faire autrement que d’utiliser soi-même les logiciels des GAFAM » est une phrase qui a une valeur contraignante : elle situe celui ou celle qui la prononce en figure de sachant et exclut la possibilité du contre-argument du logiciel libre et des formats ouverts. Elle positionne l’interlocuteur en situation de renoncement car mentionner les logiciels libres et les formats ouverts suppose un argumentaire pseudo-technique dont le coût cognitif de l’explication l’emporte sur les bénéfices potentiels de l’argument. Face aux sophismes, on est souvent démuni. Ici, il s’agit de l’argumentum ad populum : tout le monde accepte l’affirmation parce qu’un nombre suffisamment important de la population est censé la considérer comme vraie. Et il est clair que dans le bus ou entre le café et la tartine du petit déjeuner, à l’heure de l’interview dont nous parlons ici, beaucoup de personnes ont dû se sentir légitimées et ont abordé leur journée comme ces pauvres prisonniers au fond de la caverne, dans un état de cécité intellectuelle heureuse (mais quand même un peu coupable).

20 ans (et même un peu plus) ! 20 ans que Framasoft démontre, littéralement par A+B que non seulement les alternatives aux outils des GAFAM existent, mais en plus sont utilisables, fiables, souvent conviviales. Depuis que nous avons annoncé que nous n’irions plus prendre le thé à l’Éducation Nationale, nous avons vu passer des pseudo politiques publiques qui tendent vers un semblant de lueur d’espoir : de la confiance dans l’économie numérique, des directives pour les formats ouverts, des débats parlementaires où pointe parfois la question du logiciel libre dans une vague conception de la souveraineté… auxquelles répondent, tout aussi inlassablement des contrats open bar Microsoft dans les fonctions publiques (1, 2, 3), quand il ne s’agit pas carrément du pantouflage de nos ex-élus politiques chez les GAFAM. Comme on dit de l’autre côté du Rhin : Einen Esel, der keinen Durst hat, kann man nicht zum Trinken bringen, que l’Alsacien par chez moi raccourcit ainsi : « on ne donne pas à boire à un âne qui n’a pas soif », autre version de l’historique « laisse béton ». Le salut ne viendra pas des élus. Il ne viendra pas de l’économie libérale, celle-là même qui veut nous faire croire que l’échec tient surtout de nos motivations personnelles, d’un manque de performance, d’un manque de proposition.

Violence capitaliste

Si le logiciel libre n’était pas performant, il ne serait pas présent absolument partout. Il suffit d’ouvrir de temps en temps le capot. Mais comme je l’ai écrit l’année dernière, c’est une situation tout aussi confortable que délétère que de pouvoir compter sur les communs sans y contribuer, ou au contraire d’y contribuer activement comme le font les multinationales pour s’octroyer des bénéfices privés sur le dos des communs. En quelques années, les transformations du monde numérique n’ont pas permis au grand public de s’approprier les outils numériques que de nouvelles frontières, floutées, sont apparues. L’une des raisons principales de l’adoption des logiciels libres dans le domaine de la bureautique personnelle consistait à tenter de s’émanciper de la logique hégémonique des grandes entreprises mondialisées qui imposent leurs pratiques au détriment des besoins réels pour se gaver des données personnelles. Or, l’intégration des services numériques et la puissance de calcul mobilisée, aux dépends de l’environnement naturel comme de nos libertés, ont crée une attraction telle que la question stratégique des pratiques personnelles est passée au second plan. Ce qui importe maintenant, ce n’est plus seulement de savoir ce que deviennent nos données personnelles ou si les logiciels nous émancipent, mais de savoir comment s’extraire du cauchemar de la production frénétique de contenus assistée par IA. Nous perdons pied.

Ein Hitlergruß ist ein Hitlergruß ist ein Hitlergruß. Die Zeit Online

Die Zeit Online. 21/01/2025. Capture d’écran. Source.

Cette logique productiviste numérique est au sommet de la logique formelle du capital. Elle a une histoire dont la prise de conscience collective date des années 1980, contemporaine de celle du logiciel libre. C’est Detlef Hartmann (il y a bien d’autres auteurs) qui nous en livre l’une des formulations que je trouve assez simple à comprendre. Dans Die Alternative : Leben als Sabotage (1981), D. Hartmann procède à une critique de l’idéologie capitaliste en montrant comment celle-ci tend à subsumer l’ensemble des rapports sociaux sous une logique instrumentale, formelle, qui nie les subjectivités concrètes. C’est un processus d’aliénation généralisée : ce que le capitalisme fait au travailleur dans l’atelier taylorisé, il le reproduit à l’échelle de toute la société à travers l’expansion de technologies façonnées par les intérêts du capital. La taylorisation, qu’on peut résumer en une intensification de la séparation entre conception et exécution, devient paradigmatique d’un mode de domination : elle dépouille les individus de leur autonomie, les rendant étrangers à leur propre activité. À partir des années 1970-1980, cette logique d’aliénation se déplace du seul domaine de la production industrielle vers celui de la production symbolique et intellectuelle, via l’informatisation des tâches, toujours au service du contrôle et de la rationalisation capitalistes. Dans cette perspective, ce que Hartmann appelle la « violence technologique » s’inscrit dans le prolongement de la violence structurelle du capital : elle consiste à tenter de formater les dimensions qualitatives de l’existence humaine (l’intuition, l’émotion, l’imaginaire) selon les exigences d’un ordre rationnel formel, celui du capital abstrait. Cette normalisation est une violence parce que, au profit d’une logique d’accumulation et de contrôle, elle nie la richesse des facultés humaines, elle réduit les besoins humains à des catégories qui ne représentent pas l’ensemble des possibilités humaines1. Ce faisant, elle entrave les pratiques d’émancipation, c’est-à-dire la capacité collective à transformer consciemment le monde.

Contrôle et productivisme

La violence technologique capitaliste s’incarne à la perfection dans la broligarchie qui a contaminé notre monde numérique. Ce monde que, par excès d’universalisme autant que de positivisme, nous pensions qu’il allait réussir à connecter les peuples. Cette broligarchie joue désormais le jeu de la domination anti-démocratique. Elle foule même au pied la démocratie libérale dont pourtant nous avions compris les limites tant en termes d’inégalités que d’assujettissement des gouvernements aux intérêts économiques de quelques uns. Pour ces techbros, le combat est le même que le gouvernement chinois ou russe : le contrôle et les systèmes de contrôle ne sont pas des sujets démocratiques, il n’y a pas plus de contrat social et les choix politiques se réduisent à des choix techniques. Et il n’y a aucune raison que nous soyons exemptés dans notre start-up nation française.

Quelles sont les manifestations concrètes de ce productivisme dans nos vies ? il y a d’abord les algorithmes de contrôle qui relèvent du vieux rêve de l’automatisation généralisée dont je parlais déjà dans mon livre. Comme le montre H. Guillaud, ces systèmes décisionnels automatisés influencent les services publics, tout comme les banques ou les assurances avec une efficacité si mauvaise, entraînant des injustices, que l’erreur loin d’être corrigée devient partie intégrante du système. Le droit au recours, la nécessité démocratique du contrôle de ces systèmes, tout cela est nié parce que ces systèmes automatisés sont considérés comme des solutions, et non des problèmes. L’IA arrive alors comme le Graal tant attendu, surfant sur le boom du développement des IA génératives, les projets d’emmerdification maximale des services publics deviennent des projets d’avenir : si les caisses sont vides pour entretenir des services publics performants, utilisez l’IA pour les rendre plus productifs ! Comme l’écrit H. Guillaud :

Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.

Outre la question antédiluvienne du contrôle, cela fait bien longtemps que nous avons intériorisé l’idée que nous ne sommes pas seulement des usagers, mais surtout des produits. Ce constat ne relève plus de la révélation. Comme le montre David Lyon, c’est un choix culturel, une absorption sociale. En acceptant sans sourciller l’économie des plateformes, nous avons scellé un pacte implicite avec le capitalisme de surveillance, troquant nos données personnelles contre des services dont la pertinence est souvent discutable, dans des contrats où la vie privée se monnaie à vil prix. Ce choix, pour beaucoup, s’est imposé comme une fatalité, tant l’alternative semble absente ou inaccessible : renoncer à ces services reviendrait à se marginaliser et se priver de certains bienfaits structurels.

Pire : nous avons également intégré, souvent sans résistance, le modèle économique des plateformes parasites dont la logique repose sur l’intermédiation. Ces plateformes ne produisent rien : elles captent, organisent, et exploitent la relation entre des prestataires précaires et des clients captifs. Elles génèrent du profit non pas en créant de la valeur, mais en prélevant leur dîme sur chaque interaction. Et pourtant nous continuons à alimenter ces circuits toxiques : d’un côté, une généralisation du travail sous contrainte algorithmique, mal payé, pressurisé, et de l’autre, un mode de consommation séduisant qui reconduit en fait une exploitation des travailleurs qu’on croyait enterrée avec le siècle d’Émile Zola.

The Atlantic. Couverture Nov. 1967.

The Atlantic. Couverture Nov. 1967.

De l’émancipation

Dans sa conception classique, le logiciel libre se proposait d’effacer autant que faire se peut la distinction entre producteur et consommateur. Programmer n’est pas seulement une réponse à une demande industrielle, mais un moyen puissant d’expression personnelle et de possibilités créatives. Utiliser des programmes libres est tout autant créatif car cela renforce l’idée que l’utilisateur ne partage pas seulement un programme mais des savoirs, des rapports complexes avec les machines, au sein d’une communauté d’utilisateurs, dont font aussi partie les programmeurs.

L’efficacité et la durabilité de cette approche obéissent à une logique de « pratique réflexive ». La qualité d’un logiciel libre émerge d’une forme de « dogfooding », c’est-à-dire de la consommation directe du produit par son propre producteur, un processus d’amélioration continue. Cette pratique assure une dynamique auto-correctrice. Au sein de la communauté, la qualité du logiciel est d’autant plus renforcée par un feedback interne, où l’utilisateur se transforme en agent critique, capable d’identifier et de rectifier les dysfonctionnements de manière autonome. Il en résulte une production plus cohérente, car motivée par des intérêts personnels et collectifs qui orientent la création. Le code n’est pas seulement un produit technique, mais aussi un produit socialement inscrit dans une logique de désirs et de partage.

Code is law

Lawrence Lessig

Privacy is power

Carole Cadwalladr

Épuisement

C’est beau, non ? Dans ces principes, oui. Mais les barrières sont de plus en plus efficaces, soit pour élever le ticket d’entrée dans les communautés d’utilisateur-ices de logiciels libres, soit pour conserver la dynamique libriste au sein même de la production de logiciels « communautaires ».

Pour le ticket d’entrée, il suffit de se mettre à la place des utilisateurs. Là où il était encore assez facile, il y a une dizaine d’années, de promouvoir l’utilisation de logiciels libres dans la bureautique personnelle, le cadre a radicalement changé : l’essentiel de nos communications et de nos productions numériques passe aujourd’hui par des services en ligne. Cela pose la question du maintien des infrastructures techniques qui sous-tendent ces services. Il y a dix ans, Nadia Eghbal constatait que, au fil du temps, le secteur de l’open source a une tendance à l’épuisement par une attitude productiviste :

Cette dernière génération de développeurs novices emprunte du code libre pour écrire ce dont elle a besoin, mais elle est rarement capable, en retour, d’apporter des contributions substantielles aux projets. Beaucoup sont également habitués à se considérer comme des « utilisateurs » de projets open source, davantage que comme les membres d’une communauté.

Aujourd’hui, cette attitude s’est radicalisée avec les outils à base d’IA générative qui se sont largement gavés de code open source. Mais en plus de cela, cela a conduit les utilisateurs à s’éloigner de plus en plus des pratiques réflexives que je mentionnais plus haut, car il est devenu aujourd’hui quasi impossible de partager des connaissances tant l’usage des services s’est personnalisé : les services d’hébergement de cloud computing, l’intégration toujours plus forte des services à base d’IA dans les smartphones, l’appel toujours plus contraignant à produire et utiliser des contenus sur des plateformes, tout cela fait que les logiciels qu’on installe habituellement sur une machine deviennent superflus. Ils existent toujours mais sont rendus invisibles sur ces plateformes. Ces dernières vivent de ces communs numériques. Elles y contribuent juste ce qu’il faut, créent au besoin des fondations ou les subventionnent fortement, mais de communautés il n’y a plus, ou alors à la marge : celleux qui installent encore des distributions GNU/Linux sur des ordinateurs personnels, celleux qui veulent encore maîtriser l’envoi et la réception de leurs courriels… Dans les usages personnels (hors cadre professionnel), tout est fait pour que l’ordinateur personnel devienne superflu. Trop subversif, sans doute. Et ainsi s’envolent les rêves d’émancipation numérique.

Même les logiciels dont on pouvait penser qu’il participaient activement à une certaine convivialité d’Internet commencent à emmerdifier les utilisateurs. Par exemple : qui a convaincu la fondation Mozilla que ce dont avaient besoin des utilisateurs de Firefox c’est d’un outil de prévisualisation des liens dont le contenu est résumé par IA ? Que ce soit utile, efficace ou pas, n’est pas vraiment la question. La question est de savoir si les surcoûts énergétiques, environnementaux et cognitifs en valent la peine. Et la réponse est non. Dans un tel cas de figure, où est la communauté d’utilisateurs ? où sont les principes libristes ?

Vers une communauté critique

Il faut re-former des communautés d’utilisateurs, en particulier pour des services en ligne, mais pas uniquement. Avec son projet Frama.space, basé sur Nextcloud, Framasoft a annoncé haut et fort vouloir œuvrer pour « renforcer le pouvoir d’agir des associations ». L’idée mentionnée dans le billet qui était alors consacré portait essentiellement sur la capacité des associations et autres collectifs à faire face aux attaques contre les libertés associatives, la mise en concurrence des associations, les logiques de dépolitisation et de ringardisation. Avoir un espace de cloud partagé pour ne pas dépendre des plateformes n’est pas seulement une méthode pour échapper à l’hégémonie de quelques multinationales, c’est une méthode qui permet d’échapper justement aux logiques formelles qui nous obligent à la productivité, nous contraignent aux systèmes de contrôle, et nous empêchent d’utiliser des outils communs. Nextcloud n’est pas qu’un logiciel libre dont nous pourrions nous contenter d’encourager l’installation. C’est un logiciel dont le mode de partage que nous avons adopté, en mettant à disposition des serveurs payés par des donateurs, consiste justement à outiller une communauté d’utilisateurs. Et nous pouvons le faire dans une logique libriste et émancipatrice. Les communs qui peuvent s’y greffer sont par exemple des logiciels tels l’outil de supervision Argos Panoptès ou Intros, une application spécialement dédié à la prise en main de Frama.space. Ce que Framasoft encourage, ce n’est pas seulement des outils : cela reviendrait à verser dans une forme de solutionnisme infructueux. C’est l’« encapacitation » des utilisateurs.

Mais j’ai aussi écrit plus haut qu’il ne s’agissait pas seulement de services en ligne. Pourquoi avons-nous avancé quelques pions en produisant un logiciel qui utilise de l’IA comme Lokas ? Ce logiciel n’a rien de révolutionnaire. Il tourne avec une IA spécialisée, déjà entraînée, et il existe d’autres logiciels qui font la même chose. Qu’espérons-nous ? Constituer une communauté critique et autonome autour de la question de l’IA. Lokas n’est qu’un exemple : que souhaitons-nous en faire ? Si des modèles d’IA existent, quel avenir voulons nous avec eux ou à côté d’eux ? L’enjeu consiste à construire les conditions d’émancipation numérique face à l’envahissement des pratiques qui nous contraignent à produire des contenus sans en maîtriser la cognition.

J’ai affirmé ci-dessus la raison pour laquelle nous sommes embarqués de force dans un monde où les IA génératives connaissent un tel succès, quasiment sans aucune perspective critique : elles sont considérées comme les outils ultimes de la mise en production des subjectivités, leur dés-autonomisation. Les possibilités sont tellement alléchantes dans une perspective capitaliste que tout argument limitatif comme les questions énergétiques, climatiques, sociales, politiques, éthiques sont sacrifiées d’emblée sur l’autel de la rentabilité start-upeuse au profit de l’impérialisme fascisant des techbros les plus en vue. Ce que nous souhaitons opposer à cela, tout comme Framasoft avait opposé des outils alternatifs pour « dégoogliser Internet », c’est de voir si une alternative à l’« IA über alles » est possible. La question n’est pas de savoir si nous apporterons une réponse à la pertinence de chaque outil basé sur de l’IA générative ou spécialisée. La question que nous soulevons est de savoir quelles sont nos capacités critiques et notre degré d’autonomie stratégique et collective face à des groupes d’intérêts qui nous imposent leurs propres outils de contrôle, en particulier avec des IA.

Capital (poing dans une flaque rouge). Affiche Mai 1968

Capital (poing dans une flaque rouge), Fac. des Sciences. BNF. Collection [Mai 1968]. Affiche. Source.

Une émancipation numérique collective

Il y a vingt ans déjà, nous avions compris que culpabiliser les utilisateurs de Windows constituait non seulement une stratégie inefficace, mais surtout contre-productive, dans la mesure où elle nuisait directement à la promotion et à la légitimation des logiciels libres. Cette attitude moralisatrice présupposait une liberté de choix que la réalité technologique, sociale et économique ne garantit pas à tous. L’environnement numérique est souvent imposé par défaut, par des logiques industrielles, éducatives ou institutionnelles. La posture libriste ne peut être qu’une posture située, consciente des rapports de force et des contraintes concrètes qui pèsent sur les individus.

À l’heure de l’IA générative omniprésente, le rapport de force s’est accentué et l’enfermement technologique est aggravé. Les systèmes d’exploitation en deviennent eux-mêmes les vecteurs, comme le montre la prochaine version de Windows, où la mise à jour n’est plus un choix mais une obligation, dissimulant des logiques de captation des usages et des données.

Dans ce contexte, proposer des alternatives « sans » IA devient de plus en plus difficile – et pourrait s’avérer, à terme, irréaliste. Dans la mesure où l’environnement numérique est colonisé par les intérêts d’acteurs surpuissants, il ne s’agit plus de rejeter globalement l’IA, mais de re-politiser son usage : distinguer entre les instruments de domination et les instruments d’émancipation.

Il serait malhonnête de nier en bloc toute forme d’utilité aux systèmes d’IA. Automatiser certaines tâches, c’est un vieux rêve de l’informatique, bien antérieur à l’essor actuel de l’IA générative. Il arrive que des IA fassent ce qu’on attend d’elles, surtout dans des environnements et des rôles restreints. Lorsqu’on regarde l’histoire des techniques numériques dans l’entreprise dans la seconde moitié du XXe siècle, on constate autant de victoires que de défaites, sociales ou économiques. Mais les usages supposément vertueux sont devenus l’argument marketing préféré des entreprises de l’IA d’aujourd’hui : une vitrine bien propre, bien lisse, pour faire oublier les ravages sociaux, environnementaux et politiques que ces technologies engendrent ailleurs. Comme si quelques cas d’usage médical, par exemple en médecine personnalisée, pouvaient suffire à justifier l’opacité des systèmes, la dépendance aux infrastructures privées, la capture des données sensibles et l’accroissement des inégalités. Ce n’est pas parce qu’une technologie peut parfois servir qu’elle sert le bien commun2.

De même que la promotion des logiciels libres n’avait pas vocation à se cristalliser dans un antagonisme stérile entre Windows (ou Mac) et GNU Linux, la question d’une informatique émancipatrice ne peut aujourd’hui se réduire à un débat binaire « pour ou contre l’IA ». Il faut reconnaître la diversité des IA – génératives, prescriptives, symboliques, décisionnelles, etc. – et la pluralité de leurs usages. L’enjeu est de comprendre leur place dans les systèmes techniques, reflets des rapports socio-économiques, et des visions du monde. Les IA nouvelles, notamment génératives, connaîtront un cycle d’adoption : après l’euphorie initiale et les sur-promesses, viendra probablement une phase de décantation, une redescente vers un usage plus mesuré, plus intégré, moins spectaculaire. Selon moi, cette marche forcée prendra fin. Mais ce qui restera – les infrastructures, les dépendances, les cultures d’usage – dépendra largement de ce que nous aurons su construire en parallèle : des communautés numériques solidaires, résilientes, capables de reprendre la main sur leurs outils et de refuser les logiques de dépossession. Quelle résilience pouvons-nous opposer à la violence technologique que nous subissons ? Il ne s’agit pas d’imaginer un monde d’après, neutre ou apaisé, mais de préparer les conditions de notre autonomie dans un monde où la violence technologique est déjà notre quotidien.

— Christophe Masutti


Notes

  1. J’emprunte cette formulation à Agnès Heller, La théorie des besoins chez Marx, Paris, Les Éditions sociales, 2024, p.51.↩︎

  2. Pour continuer avec l’exemple de la médecine, souvent employé par les thuriféraires de l’IA-partout, on voit poindre régulièrement les mêmes problèmes que soulève depuis longtemps la surveillance algorithmique. Ainsi ce récent article dans Science relate de graves biais relatifs aux groupes sociaux (femmes et personnes noires, essentiellement) dans la recherche diagnostique lorsqu’on utilise une aide à l’analyse d’imagerie assistée par IA. ↩︎

Khrys’presso du lundi 28 avril 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Le facepalm de la semaine

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

  • Le système Bolloré (multinationales.org)

    Dans un rapport publié en partenariat avec Attac, l’Observatoire des multinationales propose une radiographie sans concession du groupe Bolloré et alerte sur les risques démocratiques à continuer à le considérer comme un groupe « comme les autres ».

  • 5,3 milliards d’euros : l’inquiétant pactole de Vincent Bolloré (politis.fr)

    Dans un rapport, Attac et l’Observatoire des multinationales décortiquent le « système Bolloré », expliquant comment le milliardaire, dans l’indifférence, voire avec le soutien des pouvoirs publics, a acquis son empire médiatique. Et s’inquiètent d’une trésorerie largement positive qui laisse craindre le pire.

  • Le groupe Lagardère, propriété de Vincent Bolloré, visé par un redressement fiscal de 200 millions d’euros (humanite.fr)

    Les filiales Lagardère Media et Hachette Livre sont visées par un redressement fiscal de près de 200 millions d’euros […] Bercy leur a respectivement adressé 189,9 millions et 6,5 millions d’euros de rectification pour l’année 2024. Une annonce à rebours de la communication du groupe, qui a loué une année record.

  • Le média identitaire Frontières, ses obsessions, ses alliés et ses dons défiscalisés (basta.media)

    Dans la galaxie des médias d’extrême droite, Frontières occupe une place centrale. Le jeune média identitaire peut compter sur le soutien de l’écosystème pour diffuser ses idées réactionnaires, parfois aux frais du contribuable.

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

  • Pierre Nicodème sur la complicité du ministère de l’Enseignement supérieur avec l’université Reichman : « dégoût et colère » (aurdip.org)

    Pierre Nicodème, mathématicien-informaticien retraité au CNRS, rend la médaille d’honneur du CNRS, qu’il avait reçue en 2013, en réponse aux pressions du ministère de l’Enseignement supérieur sur l’IEP de Strasbourg pour maintenir le partenariat avec l’Université Reichman de Herzliya en Israël.

  • À Paris, les militant·es pro-palestinien·nes accusent l’assureur AXA de complicité dans le génocide à Gaza (humanite.fr)

    Des militant·es de la campagne BDS (Boycott, Désinvestissement, Sanctions) et de la CGT se sont mobilisé·es jeudi 24 avril devant la Salle Pleyel à Paris, en marge de l’assemblée générale du groupe AXA. Iels accusent l’assureur d’investir dans des entreprises d’armements liées au génocide perpétré par Israël à Gaza.

  • Journée internationale de la visibilité lesbienne : la rue contre les idées d’extrême droite (humanite.fr)

    Ce 26 avril, des centaines de personnes se sont donné rendez-vous place de la Nation à Paris pour célébrer la journée de visibilité lesbienne. Une manifestation sous le prisme de la lutte contre l’extrême droite.

  • Il a construit une cellule de prison dans un camion : on vous présente la grotte mobile d’Adama Camara (streetpress.com)
  • Ces habitant·es créent leurs institutions pour combler l’absence de l’État (reporterre.net)

    « Nous, on n’est pas anti-État. C’est plutôt l’État qui est anti-nous »

  • Un silence inquiétant du gouvernement sur la pauvreté (ldh-france.org)

    Les président·es d’associations de solidarité du collectif Alerte ont adressé le 18 mars au Premier ministre un recours gracieux pour lui rappeler ses obligations légales en matière de réduction de la pauvreté. En ce sens, il lui a été demandé de définir un objectif quantifié de la pauvreté pour les 5 ans à venir et de reprendre la remise au Parlement d’un rapport annuel sur le sujet. Il s’agit en effet d’une obligation prévue dans la loi du 1er décembre 2008 généralisant le revenu de solidarité active (RSA). […] Le silence du gouvernement est considéré comme un refus au bout de deux mois selon la loi. Aujourd’hui, à un peu plus d’un mois de l’échéance, une vingtaine de parlementaires déposent une question écrite au gouvernement lui demandant de respecter cette obligation légale.

  • La France développe son élevage de singes de laboratoire (reporterre.net)

    Pour développer un élevage capable de fournir en singes les laboratoires français, le CNRS veut tripler la capacité d’accueil de la station de primatologie de Rousset, dans les Bouches-du-Rhône. Selon ce projet, elle deviendrait d’ici à 2030 le centre national de primatologie et fournirait une part bien plus important qu’aujourd’hui des primates non-humains dont dit avoir besoin la recherche biomédicale. […] Opposée à l’expérimentation animale en général et à celle sur les primates en particulier, l’association One Voice […] dénonce un projet « qui transforme un lieu principalement dédié à l’observation de colonies de babouins en un élevage pour de l’expérimentation animale invasive » […] Aujourd’hui, la station de Rousset accueille en majorité des babouins à des fins de recherche en éthologie, l’étude du comportement animal.

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

  • En Polynésie, « la grandeur de la France, je la porte avec ma leucémie » (terrestres.org)

    Lorsque la France annonce la reprise des essais nucléaires en Polynésie en 1995, Tahiti s’enflamme et le monde se mobilise. Quelques mois plus tard, c’est la fin… sauf pour les victimes des retombées atomiques des 193 bombes explosées dans l’archipel. Hinamoeura Morgant-Cross est l’une d’elles.

  • “À la Réunion, notre “retard”, c’était notre avance” – Entretien avec Gaëlle Fredouille (frustrationmagazine.fr)
  • « Il y a un retour en force du masculinisme, on est retournés 30 ans en arrière » (blogs.mediapart.fr)
  • Séamas O’Reilly : Trans people have spent a decade being attacked in a moral panic (irishexaminer.com)

    I speak of the near-constant refrain that devious men will enter these spaces and pretend to be trans women, in order to spy on, or assault, their occupants. It obviously appals me that our trans friends are constantly cited as monsters, ubiquitously mentioned in the same breath as cisgendered male predators. […] Perhaps my conception of feminism has been mis-calibrated all this time, and true freedom for women is mandating that they carry their birth certificates around with them all day, so they can be checked by citizen genital inspectors, male and female, encouraged to presume you’re a predator first, and work backwards from there. […] The only way any of the absurdities of this ruling make sense, is if its aims are exactly what they appear to be : A punitive attack on the rights and dignity of trans people divorced from any real-world concern about safety or women’s rights, designed to demoralise and punish them simply for the crime of existing.

  • Recréer un second « Gilded Age » (Âge doré) : les illusions de Trump (theconversation.com)
  • Puissance et déclin – La fragile synthèse trumpienne (lundi.am)
  • Understanding “longtermism” : Why this suddenly influential philosophy is so toxic (salon.com)
  • Monstertutional Conarchy (illwill.com)

    One way or another, we are inside a process of fundamentally changing the world. If we don’t want their plan to be the only one on offer, we have to similarly give ourselves the right to dream big, to act boldly, and make clear that it’s our vision against theirs.

    Une traduction de ce texte est proposée ici : Monstruosité constitutionnelle et escroquerie monarchiste (lundi.am)

    La théorie du complot qui permet de comprendre le second mandat Trump

  • Hitler’s Terrible Tariffs (theatlantic.com)

    By seeking to “liberate” Germans from a globalized world order, the Nazi government sent the national economy careening backwards.

  • How Much Injustice Will Americans Take ? (americaamerica.news)

    last night the story broke of three children ages 2, 4 and 7—all U.S. citizens—being taken out of the country without due process […] the “rapid early-morning deportation” involved two mothers (one who is pregnant) and their children, including a two-year-old who suffers from a rare form of metastatic cancer and was removed without needed medication.

  • The courage to be decent (radleybalko.substack.com)

    The Trump administration wants to make us too afraid to look out for one another. Don’t let them.One of the more pernicious effects of authoritarianism is to make the everyday participation in civic life we take for granted feel subversive. The goal isn’t to police all behavior at all times. It’s to make us fearful to the point that we police our own behavior. […] There was no video. “That’s when I learned why my VPN had gone down. It wasn’t the VPN. Someone had shut off my Wifi.” About 15 minutes after the interaction at his front door, Jackson’s Wifi was up and running again.“So there was about a 30-minute period where my Wifi was down, and it happened to be the period where these officers came to my door, which prevented my Ring camera from recording them […] I guess it could be a coincidence. But that’s a big coincidence” […] [Intimidating lawyers has become a key component of the Trump administration’s overall strategy, and this is especially true with respect to mass deportations. Immigrants detained for lacking documentation are more than 10 times more likely to get a favorable outcome if they have an attorney than if they don’t.

  • Alice Kaplan, historienne et écrivaine : « On est dans une ambiance proche de 1984 » (humanite.fr)

    De passage en France pour effectuer des recherches sur son prochain livre, l’historienne, écrivaine et professeure à Yale Alice Kaplan s’inquiète des attaques menées par Donald Trump contre les universités américaines et le langage. Elle revient sur son parcours et ses travaux sur la période de l’Occupation en France et sur l’Algérie.

  • « Nous revendiquons une égalité pleine et entière pour les femmes » (contretemps.eu)

    Claudia Jones (1915-1964) fut une grande militante du Parti Communiste états-unien et une féministe, qui a très tôt théorisé la triple oppression des femmes (de race, de classe et de genre). Après une présentation de son parcours par Carole Boyce Davies, nous publions un de ses textes les plus célèbres, rédigé en 1949.

  • “Je pensais que c’étaient les restes d’une construction” : patrimoine insolite et méconnu, à quoi servent les cheminées géodésiques ? (france3-regions.francetvinfo.fr)
  • Combien de pénis sur la tapisserie de Bayeux ? (huffingtonpost.fr)

    Cette question insolite oppose deux historiens britanniques. Christopher Monk dit avoir repéré un « pénis manqué » sur la broderie médiévale, ce que conteste George Garnett qui avait réalisé un premier comptage il y a six ans.

  • Des canards augmentent la taille de leur pénis s’ils ont des rivaux (sciencesetavenir.fr – article de 2017)

    Les canards font partie des 3 % d’oiseaux seulement dotés de pénis externes (les autres, comme les coqs ont des cloaques ), organes qu’ils ne développent qu’au printemps, avant que celui-ci ne dégénère totalement, puis repousse à la saison des amours suivante. […] En 2011, Patricia Brennan avait déjà montré que les canards se livraient une véritable guerre des sexes dans une course évolutive effrayante : l’anatomie interne des femelles évolue en effet pour empêcher l’accès aux indésirables qui forcent la copulation et leurs cloaques forment même des culs-de-sacs où vont se perdre leurs spermatozoïdes. De leur côté, les mâles développent des sexes de plus en plus longs en forme de tire-bouchon hérissés de crochets de kératine pour augmenter leur chances […] Les accouplements se font dans la majorité des cas par la coercition. Et ils ne durent que quelques secondes

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

L’État artificiel : la vie civique automatisée

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 19 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Sommes-nous en passe d’entrer dans un État artificiel, c’est-à-dire un moment où la vie civique n’est plus produite que par le calcul au risque de nous dessaisir de toute action collective ?

 

 

 

 

 

 

Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.

Vers des machines pour délibérer à notre place

Dans leur expérimentation, les chercheurs rapportent que les participants ont préféré les déclarations générées par les IA à celle des humains. Pour Horning, cela signifie peut-être que les gens « sont plus susceptibles d’être d’accord avec une position lorsqu’il semble que personne ne la défende vraiment qu’avec une position articulée par une autre personne ». Effectivement, peut-être que le fait qu’elles soient artificielles et désincarnées peut aider, mais peut-être parce que formulées par la puissance des LLM, ces propositions peuvent sembler plus claires et neutres, comme le sont souvent les productions de l’IA générative, donc plus compréhensibles et séduisantes. Les chercheurs mettent en avant l’efficacité et la rapidité de leur solution, par rapport aux délibérations humaines, lentes et inefficaces – mais reconnaissent que les propositions et les synthèses faites par les outils nécessiteraient d’être vérifiées. 404 media rapportait il y a peu le développement d’une IA pour manipuler les réseaux sociaux permettant de cibler les messages selon les discours politiques des publics. Pas sûr effectivement qu’il y ait beaucoup de différence entre les machines d’Habermas de Google et ces outils de manipulation de l’opinion.

Ces efforts à automatiser la sphère publique rappellent à Horning le livre de Hiroki Azuma, General Will 2.0 (2011) qui défendait justement l’utilisation de la surveillance à grande échelle pour calculer mathématiquement la volonté générale de la population et se passer de délibération. « Nous vivons à une époque où tout le monde est constamment dérangé par des « autres » avec lesquels il est impossible de trouver un compromis », expliquait Azuma, en boomer avant l’heure. Il suffit donc d’abandonner la présomption d’Habermas et d’Arendt selon laquelle la politique nécessite la construction d’un consensus par le biais de discussions… pour évacuer à la fois le compromis et les autres. D’où l’idée d’automatiser la politique en agrégeant les données, les comportements et en les transformant directement en décisions politiques.

Rob Horning voit dans cette expérimentation un moyen de limiter la conflictualité et de lisser les opinions divergentes. Comme on le constate déjà avec les réseaux sociaux, l’idée est de remplacer une sphère publique par une architecture logicielle, et la communication interpersonnelle par un traitement de l’information déguisé en langage naturel, explique-t-il avec acuité. « Libérer l’homme de l’ordre des hommes (la communication) afin de lui permettre de vivre sur la base de l’ordre des choses (la volonté générale) seule », comme le prophétise Azuma, correspond parfaitement à l’idéologie ultra rationaliste de nombre de projets d’IA qui voient la communication comme un inconvénient et les rencontres interpersonnelles comme autant de désagréments à éviter. « Le fantasme est d’éliminer l’ordre des humains et de le remplacer par un ordre des choses » permettant de produire la gouvernance directement depuis les données. Les intentions doivent être extraites et les LLM – qui n’auraient aucune intentionnalité (ce qui n’est pas si sûr) – serviraient de format ou de langage permettant d’éviter l’intersubjectivité, de transformer et consolider les volontés, plus que de recueillir la volonté de chacun. Pour Horning, le risque est grand de ne considérer la conscience de chacun que comme un épiphénomène au profit de celle de la machine qui à terme pourrait seule produire la conscience de tous. Dans cette vision du monde, les données ne visent qu’à produire le contrôle social, qu’à produire une illusion d’action collective pour des personnes de plus en plus isolées les unes des autres, dépossédées de la conflictualité et de l’action collective.

Mais les données ne parlent pas pour elles-mêmes, nous disait déjà Danah Boyd, qui dénonçait déjà le risque de leur politisation. La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. Seule la rétroaction attentionnelle vient forger les communautés politiques, consistant à soumettre ceux qui sont en désaccord aux opinions validées par les autres. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active. Pour les ingénieurs de Google, la délibération politique pourrait devenir une question où chacun prêche ses opinions dans une application et attend qu’un calculateur d’opinion décide de l’état de la sphère publique. Et le téléphone, à son tour, pourrait bombarder les utilisateurs de déclarations optimisées pour modérer et normaliser leurs opinions afin de lisser les dissensions à grande échelle. Bref, une sorte de délibération démocratique sous tutelle algorithmique. Un peu comme si notre avenir politique consistait à produire un Twitter sous LLM qui vous exposerait à ce que vous devez penser, sans même s’interroger sur toutes les défaillances et manipulations des amplifications qui y auraient cours. Une vision de la politique parfaitement glaçante et qui minimise toutes les manipulations possibles, comme nous ne cessons de les minimiser sur la façon dont les réseaux sociaux organisent le débat public.

Dans le New Yorker, l’historienne Jill Lepore dresse un constat similaire sur la manière dont nos communications sont déjà façonnées par des procédures qui nous échappent. Depuis les années 60, la confiance dans les autorités n’a cessé de s’effondrer, explique-t-elle en se demandant en quoi cette chute de la confiance a été accélérée par les recommandations automatisées qui ont produit à la fois un électorat aliéné, polarisé et méfiant et des élus paralysés. Les campagnes politiques sont désormais entièrement produites depuis des éléments de marketing politique numérique.

À gauche, une illustration du drapeau étasunien sur fond bleu. C'est une vision d'artiste, avec les traits du drapeau sous forme de fins traits blancs reliant des points, comme pour illustrer les données ses liens.À droite, le texte : « A Critic at Large The Artificial State As American civic life has become increasingly shaped by algorithms, trust in government has plummeted. Is there any turning back? By Jill Lepore November 4, 2024 »

Capture d’écran de la page d’illustration de l’article de Jill Lepore dans The New Yorker.

 

En septembre, le Stanford Digital Economy Lab a publié les Digitalist papers, une collection d’essais d’universitaires et surtout de dirigeants de la Tech qui avancent que l’IA pourrait sauver la démocratie américaine, rien de moins ! Heureusement, d’autres auteurs soutiennent l’exact inverse. Dans son livre Algorithms and the End of Politics (Bristol University Press, 2021), l’économiste Scott Timcke explique que la datafication favorise le néolibéralisme et renforce les inégalités. Dans Théorie politique de l’ère numérique (Cambridge University Press, 2023), le philosophe Mathias Risse explique que la démocratie nécessitera de faire des choix difficiles en matière de technologie. Or, pour l’instant, ces choix sont uniquement ceux d’entreprises. Pour Lepore, nous vivons désormais dans un « État artificiel », c’est-à-dire « une infrastructure de communication numérique utilisée par les stratèges politiques et les entreprises privées pour organiser et automatiser le discours politique ».

Une société vulnérable à la subversion

La politique se réduit à la manipulation numérique d’algorithmes d’exploration de l’attention, la confiance dans le gouvernement à une architecture numérique appartenant aux entreprises et la citoyenneté à des engagements en ligne soigneusement testés et ciblés. « Au sein de l’État artificiel, presque tous les éléments de la vie démocratique américaine – la société civile, le gouvernement représentatif, la presse libre, la liberté d’expression et la foi dans les élections – sont vulnérables à la subversion », prévient Lepore. Au lieu de prendre des décisions par délibération démocratique, l’État artificiel propose des prédictions par le calcul, la capture de la sphère publique par le commerce basé sur les données et le remplacement des décisions des humains par celles des machines. Le problème, c’est qu’alors que les États démocratiques créent des citoyens, l’État artificiel crée des trolls, formule, cinglante, l’historienne en décrivant la lente montée des techniques de marketing numérique dans la politique comme dans le journalisme.

À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils n’est démocratique. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède. Dans l’État artificiel, l’essentiel des discours politiques sont le fait de bots. Et X semble notamment en avoir plus que jamais, malgré la promesse de Musk d’en débarrasser la plateforme. « L’État artificiel est l’élevage industriel de la vie publique, le tri et la segmentation, l’isolement et l’aliénation, la destruction de la communauté humaine. » Dans sa Théorie politique de l’ère numérique, Risse décrit et dénonce une démocratie qui fonctionnerait à l’échelle de la machine : les juges seraient remplacés par des algorithmes sophistiqués, les législateurs par des « systèmes de choix collectifs pilotés par l’IA ». Autant de perspectives qui répandent une forme de grande utopie démocratique de l’IA portée par des technoprophètes, complètement déconnectée des réalités démocratiques. Les Digitalist Papers reproduisent la même utopie, en prônant une démocratie des machines plutôt que le financement de l’éducation publique ou des instances de représentations. Dans les Digitalists Papers, seul le juriste Lawrence Lessig semble émettre une mise en garde, en annonçant que l’IA risque surtout d’aggraver un système politique déjà défaillant.
La grande difficulté devant nous va consister à démanteler ces croyances conclut Lepore. D’autant que, comme le montre plusieurs années de problèmes politiques liés au numérique, le risque n’est pas que nous soyons submergés par le faux et la désinformation, mais que nous soyons rendus toujours plus impuissants. « L’objectif principal de la désinformation n’est pas de nous persuader que des choses fausses sont vraies. Elle vise à nous faire nous sentir impuissants », disait déjà Ethan Zuckerman. Dans une vie civique artificielle, la politique devient la seule affaire de ceux qui produisent l’artifice.

Khrys’presso du lundi 21 avril 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

RIP

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

  • Kanaky-Nouvelle-Calédonie : expédié·es à l’autre bout du monde du jour au lendemain (blogs.mediapart.fr)

    Depuis l’insurrection qui a embrasé la Nouvelle-Calédonie en mai 2024, des dizaines de détenus à la prison de Nouméa ont été transférées vers des prisons de l’Hexagone. Qualifiés de « déportations » par plusieurs associations, qui y voient l’expression d’une justice post-coloniale, ces transferts ont eu lieu dans la plus grande opacité, sans que les personnes concernées aient été prévenues.

  • Manifestations interdites : l’État a-t-il fait preuve d’un “deux poids, deux mesures” ? (la1ere.francetvinfo.fr)

    Depuis les émeutes survenues en Nouvelle-Calédonie, plus aucun rassemblement n’est autorisé dans Nouméa et son agglomération. Pourtant, au premier jour de la visite de Manuel Valls, des partisans de la France ont pu librement chahuter le ministre des Outre-mer et l’accueillir avec des pancartes outrageantes, au motif qu’il s’agissait de cérémonies patriotiques.

  • Acteur « caucasien », cassoulet : les exigences du ministère de l’Agriculture pour sa pub (reporterre.net)

    les coulisses d’une campagne publicitaire de l’Agence bio. Mis en images par l’entreprise de communication The Good Company, le spot télévisé — prévu pour être diffusé à partir du 22 mai — devait vanter une France diverse et métissée, rassemblée autour de produits gourmands et sans pesticides de synthèse.[…] Le 7 avril, veille du tournage, le cabinet de la ministre a exigé des modifications déroutantes via des courriels consultés par Libération. Parmi elles, figurait la demande de « choisir un casting caucasien » en remplacement de l’acteur métis initialement sélectionné. Quant à la séquence principale du repas de famille, le personnel d’Annie Genevard désirait « remplacer » le « couscous » par du « cassoulet avec canard »

  • Un agriculteur de la Coordination rurale accusé de trafic d’êtres humains (streetpress.com)

    Dans le Lot-et-Garonne (47), deux travailleurs marocains auraient porté plainte pour traite d’êtres humains chez un producteur de pommes, élu du syndicat agricole proche de l’extrême droite.

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

IA, réducteur culturel : vers un monde de similitudes

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 décembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?

 

 

 

 

 

 

 

Dans sa newsletter, Programmable Mutter, le politiste Henry Farrell – qui a publié l’année dernière avec Abraham Newman, Underground Empire (qui vient d’être traduit chez Odile Jacob sous le titre L’Empire souterrain) un livre sur le rôle géopolitique de l’infrastructure techno-économique mise en place par les Etats-Unis – estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen.

Comme le disait la professeure de psychologie, Alison Gopnick, dans une tribune pour le Wall Street Journal, les LLM sont assez bons pour reproduire la culture, mais pas pour introduire des variations culturelles. Ces modèles sont « centripètes plutôt que centrifuges », explique Farrell : « ils créent des représentations qui tirent vers les masses denses du centre de la culture plutôt que vers la frange clairsemée de bizarreries et de surprises dispersées à la périphérie ».

Farrell se livre alors à une expérience en générant un podcast en utilisant NotebookLM de Google. Mais le bavardage généré n’arrive pas à saisir les arguments à discuter. Au final, le système génère des conversations creuses, en utilisant des arguments surprenants pour les tirer vers la banalité. Pour Farrell, cela montre que ces systèmes savent bien plus être efficaces pour évoquer ce qui est courant que ce qui est rare.

« Cela a des implications importantes, si l’on associe cela à la thèse de Gopnik selon laquelle les grands modèles de langues sont des moteurs de plus en plus importants de la reproduction culturelle. De tels modèles ne soumettront probablement pas la culture humaine à la « malédiction de la récursivité », dans laquelle le bruit se nourrit du bruit. Au contraire, ils analyseront la culture humaine avec une perte qui la biaise, de sorte que les aspects centraux de cette culture seront accentués et que les aspects plus épars disparaîtront lors de la traduction ». Une forme de moyennisation problématique, une stéréotypisation dont nous aurons du mal à nous extraire. « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ».

C’est déjà l’idée qu’il défendait avec la sociologue Marion Fourcadedans une tribune pour The Economist. Les deux chercheurs y expliquaient que l’IA générative est une machine pour « accomplir nos rituels sociaux à notre place ». Ce qui n’est pas sans conséquence sur la sincérité que nous accordons à nos actions et sur les connaissances que ces rituels sociaux permettent de construire. A l’heure où l’IA rédige nos CV, nos devoirs et nos rapports à notre place, nous n’apprendrons plus à les accomplir. Mais cela va avoir bien d’autres impacts, explique encore Farrell, par exemple sur l’évaluation de la recherche. Des tests ont montré que l’évaluation par l’IA ne ferait pas pire que celle par les humains… Mais si l’IA peut aussi bien que les humains introduire des remarques génériques, est-elle capable d’identifier et d’évaluer ce qui est original ou nouveau ? Certainement bien moins que les humains. Pour Farrell, il y a là une caractéristique problématique de l’IA : « plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent, comme si nous devenions tous un John Malkovitch parmi des John Malkovitch, comme dans le film Dans la peau de John Malkovitch de Spike Jonze. Les LLM encouragent la conformité. Plus nous allons nous reposer sur l’IA, plus la culture humaine et scientifique sera aplanie, moyennisée, centralisée.

Khrys’presso du lundi 14 avril 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial France

Spécial femmes en France

  • Harcèlement sexuel à la SNCF : « ils voulaient étouffer l’affaire » (rapportsdeforce.fr) – voir aussi Des intérimaires harcelées sexuellement à la SNCF, la direction laisse faire (basta.media)

    Deux femmes intérimaires à la SNCF témoignent du harcèlement sexuel subi de la part d’un même agent. Malgré un signalement, ce dernier n’a pas été sanctionné. Le délégué syndical qui a relayé l‘alerte risque en revanche une mesure disciplinaire.

  • Judith Godrèche sur la commission d’enquête #MeToo : “Il y a l’angoisse que ce rapport ne débouche sur rien” (telerama.fr)

    Au terme de cinq mois de travail, la commission d’enquête parlementaire sur les violences commises dans la culture présidée par Sandrine Rousseau présente son rapport ce mercredi au Palais-Bourbon.

  • Gironde : viols aggravés dans le milieu libertin bordelais, quatre hommes écroués (liberation.fr)

    Le parquet de Bordeaux a confirmé vendredi 11 avril que quatre hommes avaient été mis en examen et écroués dans une enquête pour viols avec actes de torture et de barbarie sur cinq victimes. Les faits se sont déroulés entre 2011 et 2024, notamment dans les clubs libertins de la métropole bordelaise.

  • Violences dans le porno : où en sont les poursuites judiciaires dans les affaires French Bukkake et Jacquie et Michel ? (liberation.fr)

    Alors que des femmes victimes de violences de l’industrie pornographique témoignent dans un livre qui paraît vendredi 11 avril, 19 hommes ont été mis en examen dans les deux dossiers au parcours judiciaire à l’avancement contrasté. […] Pour la première circonstance aggravante, la cour d’appel de Paris a estimé que les victimes avaient « accompli une démarche initiale volontaire pour participer à des tournages », que les actes sexuels pouvaient être « douloureux », mais que « les souffrances ne pouvaient être considérées comme exceptionnellement aiguës et prolongées ». Certains « tournages » pouvaient durer 24h […] Malgré les pleurs, les suppliques, les saignements visibles sur les vidéos, la chambre de l’instruction a estimé qu’il n’y avait pas de « blessure distincte délibérément infligée ». Quant aux insultes racistes et sexistes – « vide-couilles », « massacrez-la, la beurette » – elles n’ont pas été retenues au motif que les actes commis sur ces femmes participent « de la réalisation d’œuvres de l’esprit »

  • Violences sexuelles dans le porno : « On n’est pas des actrices, on est des proies » (liberation.fr)

    Quinze femmes témoignent dans un livre qui paraît vendredi des viols subis lors de tournages de films pornographiques extrêmes. Parmi elles, « Emilie », l’une des 42 plaignantes de l’affaire French Bukkake, décrit des méthodes de « cartel » et raconte sa difficile reconstruction.

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

IA aux impôts : vers un « service public artificiel » ?

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.

 

 

 

 

Les publications syndicales sur l’IA sont nombreuses. Souvent, elles sont assez généralistes… et peu spécifiques. C’est-à-dire qu’elles interrogent la place des technologies dans les transformations à venir, font des recommandations pour améliorer les modalités de gouvernance, mais ne regardent pas toujours ses déploiements concrets, préférant poser un cadre général pour en comprendre les effets, comme le montrait, parmi les plus récents, le Plaidoyer pour un dialogue social technologique de FO, les réflexions de la CGT sur le sujet ou celles de la CFE-CGC (voir également le manifeste commun de plusieurs organisations syndicales qui défend un dialogue social technologique ainsi que le tout récent site dédié DIAL-IA).

C’est un peu l’inverse que propose Solidaires Finances Publiques dans le court livre que le syndicat publie aux éditions Syllepse, L’IA aux impôts. Les syndicalistes y évoquent d’abord ce que le déploiement de l’intelligence artificielle change pour les agents et les usagers à la Direction générale des finances publiques (DGFIP), l’une des administrations françaises pionnières dans le développement des outils numériques et de l’IA. 

L’opacité comme principe, la désorganisation comme résultat

L’IA y est déployée depuis 2014 notamment pour évaluer les risques et les schémas de fraude en modélisant les fraudes passées. Solidaires rappelle d’ailleurs les limites de ces schémas, qui peinent à détecter les fraudes atypiques et ses nouvelles modalités. Mais l’IA à la DGFIP, c’est d’abord de très nombreux projets que le syndicat lui-même ne parvient pas à recenser.

Ce sont d’abord des outils pour détecter la fraude des entreprises et des particuliers,  notamment en repérant des anomalies ou des incohérences déclaratives depuis les déclarations de revenus, les comptes bancaires, les données patrimoniales et les informations provenant d’autres administrations, via le projet CFVR (« Ciblage de la fraude et valorisation des requêtes »). C’est également le projet Signaux faibles, pour détecter et identifier les entreprises en difficulté qui produit un score de risque depuis des données financières économiques et sociales des entreprises provenant de plusieurs services publics, afin d’évaluer leur rentabilité, leur endettement, leur niveau d’emploi, leurs difficultés à régler leurs cotisations sociales. C’est aussi un projet pour prédire les difficultés financières des collectivités locales à partir d’indicateurs comme l’endettement des communes. Un autre projet encore vise à estimer la valeur vénale et locative des biens immobiliers exploitant les données de transaction immobilières pour produire de meilleures estimations. Le projet Foncier innovant, lui, vise à détecter depuis des images aériennes, les piscines et bâtiments non déclarés par les contribuables (voir la très bonne synthèse sur ce programme réalisé par le projet Shaping AI). Le projet TAAP (« Traitement d’analyse auto prédictive ») vise à contrôler les dépenses à risques que l’Etat doit payer à ses fournisseurs afin d’accélérer ses règlements. Enfin, on trouve là aussi un voire des projets de chatbot pour répondre aux demandes simples des usagers sur impots.gouv.fr… (l’administration fiscale reçoit chaque année 12 millions de demandes par mail des contribuables, cependant une première expérimentation de réponses automatisées sur les biens immobiliers a produit 70 % de réponses erronées ou fausses).

La liste n’est pourtant pas exhaustive. De nombreux autres projets sont en phase d’expérimentations, même si leur documentation fait bien souvent défaut, à l’image de l’utilisation des réseaux sociaux pour lutter contre la fraude (que beaucoup affublent du doux nom de Big Brother Bercy), dont le bilan est très limité, mais qui a pourtant été accéléré, comme l’évoquait Le Monde. Lors d’une récente cartographie des systèmes d’intelligence artificielle en cours de déploiement au ministère des finances, les premiers échanges auraient révélé que l’administration avait du mal à recenser tous les projets.

Même sur les principaux projets qu’on vient d’énumérer, l’information disponible est très lacunaire, non seulement au grand public mais également aux agents eux-mêmes. L’IA publique se déploie d’abord et avant tout dans la plus grande opacité.

Pour Solidaires, cette opacité est entretenue. L’omerta a une composante politique, nous expliquent les représentants du personnel. Elle permet de désorganiser les luttes des personnels. Les nouveaux agents, qu’ils soient contractuels ou statutaires, sont privés de la connaissance de leurs missions, ils ont moins de compréhension de la chaîne de travail, ils ne savent pas pourquoi ils font ce qu’on leur dit de faire. « Le travail automatique empêche la conscientisation du service public, comme du travail. Il place les agents dans une routine qui les noie sous des canaux informatiques de dossier à traiter », nous expliquent-ils. L’IA permet de faire le job, sans avoir de connaissance métier. Il suffit de traiter les listes d’erreurs, de valider des informations. « Le risque, c’est de ne plus avoir d’agents qualifiés, mais interchangeables, d’un service l’autre ». Mis en difficultés par les objectifs de productivité, par des formations très courtes quand elles ne sont pas inexistantes, ils ne peuvent comprendre ni résister au travail prescrit.

L’IA : des projets venus d’en haut 

Le développement de l’IA à la DGFIP « part rarement d’un besoin « terrain » », constatent les syndicalistes, c’est-à-dire que les agents sont rarement associés à l’expression des besoins comme à la réalisation des projets. Ceux-ci sont surtout portés par une commande politique et reposent quasi systématiquement sur des prestataires externes. Pour lancer ces projets, la DGFIP mobilise le Fonds pour la transformation de l’action publique (FTAP), lancé en 2017, qui est le catalyseur du financement des projets d’IA dans l’administration. Pour y prétendre, les projets doivent toujours justifier d’économies prévisionnelles, c’est-à-dire prédire les suppressions de postes que la numérisation doit produire. Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.

Intensification et déqualification

Pour Solidaires, ces transformations modifient les missions des personnels, transforment l’organisation comme les conditions de travail des personnels, changent « la façon de servir le public ». Le déploiement de l’IA dans le secteur public n’est pas capacitante. « L’introduction de l’IA émane de choix centralisés » de la seule direction, sans aucune concertation avec les personnels ou ses représentants. Les personnels (comme les publics d’ailleurs) ne reçoivent pas d’information en amont. La formation est rare. Et la transformation des métiers que produit l’intégration numérique consiste surtout en une intensification et une déqualification, en adéquation avec ce que répètent les sociologues du numérique. Ainsi par exemple, les agents du contrôle des dépenses de l’État sont désormais assignés à leurs écrans qui leur assènent les cadences. Les nouvelles dépenses à contrôler passent au rouge si elles ne sont pas vérifiées dans les 5 jours ! Les agents procèdent de moins en moins à leurs propres enquêtes, mais doivent valider les instructions des machines. Ainsi, les agents valident les dépenses, sans plus contrôler les « conditions de passation de marché public ». Même constat au contrôle fiscal, rapportent les représentants du personnel : les agents doivent accomplir les procédures répétitives et peu intéressantes que leur soumettent les machines. Les personnels sont dessaisis de la connaissance du tissu fiscal local. Ils ne peuvent même plus repérer de nouveaux types de fraudes. « On détecte en masse des fraudes simples, mais on délaisse les investigations sur la fraude complexe ». Les erreurs demandent des vérifications chronophages, puisque nul ne sait plus où elles ont lieu. Le risque, prévient Solidaires, c’est de construire un « service public artificiel », ou la modernisation conduit à la perte de compétences et à la dégradation du service. Où l’administration est réduite à une machine statistique. Le risque, comme s’en prévenait le Conseil d’Etat, c’est que la capacité à détecter les erreurs soit anesthésiée.

Cette déqualification ne touche pas que les agents, elle touche aussi les administrations dans leur capacité même à mener les projets. Les investissements sont transférés au privé, à l’image du Foncier innovant, confié à Capgemini et Google. Les projets d’IA sont largement externalisés et les administrations perdent leurs capacités de maîtrise, comme le notaient très bien les journalistes Matthieu Aron et Caroline Michel-Aguirre dans leur livre, Les infiltrés. Certains projets informatiques ont un taux d’externalisation supérieur à 80 % explique Solidaires – quand la Dinum estime qu’un taux supérieur à 70 % constitue déjà un risque de défaillance majeur.

Enfin, la numérisation éloigne les administrés de l’administration, comme le pointait la sociologue Clara Deville. Les agents estiment que les risques d’inexactitudes augmentent avec le remplissage automatique des déclarations de revenus. Avant, quand les agents recevaient les déclarations remplies par les usagers, ils pouvaient parfois détecter des erreurs manifestes, par exemple le fait de mettre des enfants mineurs en occupant de propriétés générant une taxe d’habitation à leur destination. Désormais, les données ne sont plus vérifiées. Les contribuables ne sont plus en obligation de reremplir leur déclaration s’il n’y a pas eu de changement de revenus ou de situation. Si le contribuable ne renvoie rien, on reprend les éléments fournis automatiquement. Le risque c’est de ne plus voir les défaillances de déclaration ou les difficultés que peuvent avoir certains publics, sans revenir vers eux. L’automatisation peut devenir un piège pour certains usagers.

Ce que produit l’automatisation des contrôles

Mais surtout, répètent les militants de Solidaires, les personnels sont confrontés à une opacité totale des projets. L’absence d’information sur les projets est d’abord le signe d’un dialogue social inexistant, particulièrement problématique. Mais l’opacité à d’autres conséquences, notamment une déqualification des agents. Les dépenses à contrôler sont désormais sélectionnées par la machine, mais les agents ignorent sur quels critères. « Pourquoi certaines dépenses insignifiantes qui n’étaient jamais contrôlées auparavant, le sont à présent, alors que d’autres sont validées en masse quand elles étaient scrupuleusement regardées avant l’IA. » 

« Le TAAP a pour but d’améliorer les délais de paiement de l’Etat, un objectif louable. Il vise à alléger la sélection des dépenses à contrôler », nous expliquent en entretien les responsables de Solidaires Finances Publiques. Le problème, c’est que le critère n’est plus l’importance, mais le risque. Alors que les agents avaient toute latitude pour contrôler les dépenses qu’ils jugeaient problématiques ou prioritaires, le système leur impose désormais de regarder certaines dépenses plutôt que d’autres. C’est ainsi que des agents se sont vus par exemple devoir contrôler les dépenses d’essence des ambassades qui étaient jusqu’à présent des dépenses à faibles enjeux. La détermination des contrôles par les algorithmes est désormais organisée par en haut. Les data scientists en centrale fournissent aux agents des « listes Data Mining », c’est-à-dire des fichiers avec des listes d’entreprises ou des contribuables à contrôler et vérifier selon des axes de recherche, par exemple des listes d’entreprises soupçonnées de minorer leur TVA ou des listes de particuliers soupçonnés de faire une déclaration de valeur immobilière qui n’est pas au niveau du marché… Le risque, c’est qu’on pourrait dévoyer ces listes pour contrôler certaines catégories de populations ou d’entreprises, préviennent les syndicalistes, qui mettent en garde contre l’absence de garde-fous que produit cette centralisation du contrôle, qui pourrait demain devenir plus politique qu’elle n’est. 

Les listes Data Mining sont générées par les data scientist du service central depuis des croisements de données. Ce sont des listes d’entreprises ou de particuliers à regarder. Ces listes doivent d’abord être apurées par les agents… Quand ils reçoivent des listes d’entreprises qui feraient trop de provisions par exemple (ce qui pourrait être un moyen de faire baisser leurs bénéfices), ils doivent les trier, par exemple sortir les compagnies d’assurances, qui, par nature, sont des entreprises qui font plus de provisions que d’autres. Dans ces listes, les anomalies détectées ne sont pas toutes compréhensibles aux agents chargés du contrôle et parfois le critère de recherche détecté par l’IA ne donne rien. Mais si l’agent trouve un autre axe de recherche de fraude, le dossier est statistiquement compté comme relevant d’une réussite du data mining. Ce qui a pour but d’augmenter les résultats que produit la recherche de fraude automatisée, alors qu’elle demeure bien souvent le résultat d’un travail spécifique des agents plutôt que le produit d’une liste fournie par les machines.

Le contrôle fiscal automatisé représente aujourd’hui 50 % du contrôle, mais les résultats notifiés (et non pas recouvrés) eux n’ont pas beaucoup progressé depuis l’expansion de l’automatisation. Ils stagnent à 13-14 %, c’est-à-dire environ 2 milliards d’euros, quand le contrôle fiscal atteint environ 13 milliards. Réaliser 50 % de contrôle automatisé est devenu un objectif, nous expliquent les syndicalistes. Si un service n’arrive pas à l’atteindre, les agents doivent prioriser le traitement des listes Data mining plutôt que de réaliser des contrôles d’initiatives. La vérification de ces listes produit surtout un travail fastidieux et chronophage, que les agents jugent souvent bien peu intéressant et qui ne produit pas beaucoup de résultats.  

Le grand problème, estime encore Solidaires, c’est que le contrôle automatisé n’est pas très efficace sur la fraude complexe. A la direction de l’international qui s’occupe des fraudes les plus difficiles, il y a très peu d’utilisation de l’IA par exemple. Pour parvenir à mieux détecter les fraudes les plus évoluées, il faudrait que les agents de terrain qui en sont souvent les meilleurs observateurs, soient mieux associés aux orientations du contrôle centralisé des data-scientists. Ce n’est pas le cas. Alors que les outils pourraient venir aider les agents à faire leur travail, trop souvent, ils proposent surtout de le faire à leur place.

La DGFIP soutient qu’elle n’aurait pas mis en place de score de risque sur le contrôle fiscal… mais « certains agents rapportent que le traitement de listes Data mining fait ressortir régulièrement certains types de contribuables ». On peut malgré tout douter de cette absence de scoring, puisque le fait de lister des contribuables ou des entreprises selon des critères consiste bien à produire des listes classées selon un score.

Les personnels de la DGFIP sont inquiets, rapporte Solidaires. Pour eux, les outils d’IA ne sont pas aussi fiables qu’annoncés. Les contrôles engagés suite à des problèmes détectés « automatiquement » ne sont pas si automatiques : il faut des humains pour les vérifier et les traiter. Bien souvent, c’est l’enrichissement de ces dossiers par les services qui va permettre de donner lieu à une notification ou à un recouvrement. Enfin, le taux de recouvrement lié à l’automatisation est bien faible. L’IA peut s’avérer probante pour des fraudes ou des erreurs assez simples, mais ne sait pas retracer les fraudes élaborées.

Dans la surveillance des finances communales, les indicateurs remplacent les relations avec les personnels de mairie. Solidaires dénonce une industrialisation des procédés et une centralisation massive des procédures. L’IA change la nature du travail et génère des tâches plus répétitives. La DGFiP a perdu plus de 30 000 emplois depuis sa création, dénonce le syndicat. L’IA amplifie les dysfonctionnements à l’œuvre et prolonge la dégradation des conditions de travail. Quant au rapport coût/bénéfice des innovations à base d’IA, le syndicat pose la question d’une innovation pour elle-même. Dans le cadre du projet Foncier Innovant, la mise en oeuvre à coûté 33 millions. La maintenance s’élève à quelques 2 millions par an… Alors que le projet aurait rapporté 40 millions de recettes fiscales. Le rapport coût bénéfice est bien souvent insuffisamment documenté. 

Couverture du livre, l’IA aux impôts, par Solidaires Finances Publiques. Le sous-titre du livre est « Réflexions et actions syndicales ».

Couverture du livre, l’IA aux impôts, par Solidaires Finances Publiques.

Face à l’IA, réinventer les luttes

Pour Solidaires, ces constats invitent à réinventer le syndicalisme. Le syndicat estime qu’il est difficile de discuter des techniques mobilisées, des choix opérés. Solidaires constate que l’administration « s’exonère » de la communication minimale qu’elle devrait avoir sur les projets qu’elle déploie : coûts, bilans des expérimentations, communication sur les marchés publics passés, points d’étapes, documentation, rapports d’impacts… Pour Solidaires, l’omerta a bien une composante politique. Faire valoir le dialogue social technologique est une lutte constante, rapporte Solidaires. Trouver de l’information sur les projets en cours nécessite de mobiliser bien des méthodes, comme de surveiller le FTAP, les profils Linkedin des responsables des administrations, leurs interventions… mais également à mobiliser la CADA (commission d’accès aux documents administratifs) pour obtenir des informations que les représentants des personnels ne parviennent pas à obtenir autrement.

Ce patient travail de documentation passe aussi par le travail avec d’autres organisations syndicales et militantes, pour comprendre à quoi elles sont confrontées. Pour Solidaires, l’omerta volontaire de l’administration sur ses projets organise « l’obsolescence programmée du dialogue social » qui semble avoir pour but d’exclure les organisations syndicales du débat pour mieux externaliser et dégrader les services publics.

Pourtant, les personnels de terrains sont les mieux à même de juger de l’efficacité des dispositifs algorithmiques, insiste Solidaires. La difficulté à nouveau consiste à obtenir l’information et à mobiliser les personnels. Et Solidaires de s’inquiéter par exemple de l’expérimentation Sicardi, un outil RH qui vise à proposer une liste de candidats pour des postes à pourvoir, automatiquement, au risque de rendre fonctionnel des critères discriminatoires. Solidaires observe comme nombres d’autres organisations les dysfonctionnements à l’œuvre dans l’administration publique et au-delà. « Aujourd’hui, Solidaires Finances Publiques n’a aucun moyen pour confirmer ou infirmer que les algorithmes auto-apprenants utilisés dans le contrôle fiscal sont vierges de tout biais. À notre connaissance, aucun mécanisme n’a été institué en amont ou en aval pour vérifier que les listes de data mining ne comportaient aucun biais ». 

Avec le déploiement de l’IA, on introduit un principe de rentabilité du contrôle fiscal, estiment les représentants du personnel. Ce souci de rentabilité du contrôle est dangereux, car il remet en cause l’égalité de tous devant l’impôt, qui est le principal gage de son acceptation.

Solidaires conclut en rappelant que le syndicat n’est pas contre le progrès. Nul ne souhaite revenir au papier carbone. Reste que la modernisation est toujours problématique car elle vient toujours avec des objectifs de réduction massive des moyens humains. Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé.

« L’apparente complexité de ces outils ne saurait les faire échapper au débat démocratique ». En tout cas, ce petit livre montre, à l’image du travail réalisé par Changer de Cap auprès des usagers de la CAF, plus que jamais, l’importance de faire remonter les difficultés que les personnes rencontrent avec ces systèmes.

Bien souvent, quand on mobilise la transformation numérique, celle-ci ne se contente pas d’être une transformation technique, elle est aussi organisationnelle, managériale. A lire le petit livre de Solidaires Finances Publiques, on a l’impression de voir se déployer une innovation à l’ancienne, top down, peu impliquante, qui ne mobilise pas les savoir-faire internes, mais au contraire, les dévitalise. Les syndicalistes aussi ne comprennent pas pourquoi le terrain n’est pas mieux mobilisé pour concevoir ces outils. Certes, la fonction publique est structurée par des hiérarchies fortes. Reste que les transformations en cours ne considèrent pas l’expertise et les connaissances des agents. Les décideurs publics semblent répondre à des commandes politiques, sans toujours connaître les administrations qu’ils pilotent. Dans le discours officiel, ils disent qu’il faut associer les personnels, les former. Dans un sondage réalisé auprès des personnels, le syndicat a constaté que 85 % des agents qui utilisent l’IA au quotidien n’ont pas reçu de formation.

Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.

2025 PeerTube Roadmap !

We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, design (hi La Coopérative des Internets), or user feedback from hundreds of people ! Thanks to all of you !

Already done at the beginning of the year

Before we list future improvements to PeerTube, we can already tell you what we’ve done at the beginning of the year.

Broadly speaking (since you can get the detailed version of what’s new in version 7.1 here), you’ll find the redesign of the « About » page, your PeerTube content as podcasts and improved playback comfort thanks to the update of the p2p-media-loader, the library that allows PeerTube to use P2P in the video player !

As for the released late 2024 app (available on F-Droid, the Play Store and the App Store), it allows you to watch videos (pretty handy for a video-viewing app, isn’t it ?), have a local account so you can add videos to a « to watch later » list, explore platforms, channels and so on, all while avoiding the dark patterns of applications developed by the GAFAMs (like doom scrolling, ubiquitous notifications, etc.).

Version 0.6.0 (released end of January) now allows you to see comments under videos !

Illustration - Dans la mer Sepia, læ poulpe mascotte de PeerTube, dessine un grand chiffre sept avec son encre.

Illustration : David Revoy – Licence : CC-By 4.0

What’s coming this year

Channel transfer

This year will see the arrival of a much requested feature : the ability to transfer ownership of a channel to another account ! Currently, a channel is linked to the PeerTube account that created it. It will soon be possible for the account associated with the channel (or the admin of the instance) to transfer the ownership of this channel and propagate this change throughout the federation (as is already the case when changing the ownership of a video).

This feature goes hand in hand with the development of another much-requested feature : shared administration of a channel (see… below 👀).

Instance customisation

For many instance administrators, it is important to be able to customise their platform as they see fit (in their own image, in the image of the institution they represent, etc.). That’s why we’re working on making it easier to make changes such as the general colours of the interface, the ability to add a logo, customise the video player, allow or disallow the integration of videos according to an allowlist/blocklist, and much more… This extensive customisation of the interface will be accessible to admins directly from the PeerTube web interface.

Set-up wizard

PeerTube is designed for a wide range of audiences : institutions, non-profits, media, companies, etc. In order to simplify the configuration of a platform, we are going to develop a graphical configuration wizard that will allow, after the installation of PeerTube, to apply and display several recommended configuration rules according to the desired profile of the platform (with the installation of plugins depending on the use case : adding chat if lives are authorised, LDAP/OpenID, etc.).

Illustration : David Revoy (CC-By)

Multi-user channel management

Once the work on transferring channel ownership is complete, we’ll finally be able to offer the multi-user channel management ! To the public, the channel will belong to a main account, but can be managed by several other users in the same instance. These co-manager accounts will have the same rights (upload videos, create and manage playlists, customise the channel, etc.) but will not be able to :

  • delete the channel ;
  • transfer it ;
  • manage the list of co-managers

These changes will be accompanied by a number of design and database changes, which is a lot of work !

But also…

This year will also see an improved warning system for sensitive content and « quality of life » features for the management and moderation of instances, allowing institutions, associations, media, administrations, etc. to use PeerTube more serenely. This will be done via shared lists of instances or accounts to be banned and also via auto-tags preventing video publication that contain specific keywords. We’re also planning to add batch action capabilities on videos, so you can update the licence of multiple videos in a single action, for example.

What the year holds for the mobile application

The mobile application is an excellent way to facilitate the adoption of PeerTube by a wide audience. We now want to expand the audience to also include tablet and TV users.

We’ll also allow you to connect to your PeerTube account, giving you access to all your subscriptions, likes, comments, history, notifications, settings and playlists.

By the end of the year, you’ll be able to play your videos in the background, stream them from your phone to your « smart » TV (initially Android ; Apple TVs will take a bit more work) and receive notifications. The video player will also be improved.

For content creators, it will be possible to upload and manage your videos, start a live broadcast and manage your channels directly from the application !

PeerTube moves forward thanks to you !

It’s thanks to the trust you’ve placed in us over the years, your financial (and/or moral) support, the help of la Coopérative des Internets and the funding of the NLnet Foundation that we can offer you this roadmap.

We hope you like it enough to continue to help us !

Feuille de route PeerTube 2025 !

Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions externes, que ce soit au niveau du code, du design (coucou La Coopérative des Internets) ou des retours utilisateurices de centaines de personnes ! Merci à vous !

Déjà fait en ce début d’année

Avant de lister les futures améliorations de PeerTube, nous pouvons déjà vous parler de ce que nous avons réalisé en ce début d’année.

Dans les grandes lignes (puisque vous pouvez avoir la version détaillée des nouveautés de la version 7.1 ici), vous trouverez le redesign de la page « A propos », vos contenus PeerTube en podcasts ou encore un confort de lecture amélioré grâce à la mise à jour de p2p-media-loader, la bibliothèque qui permet à PeerTube de faire du P2P dans le lecteur vidéo !

L’application quant à elle, sortie fin 2024 (disponible sur F-Droid, le Play Store et l’App Store) vous permet de regarder des vidéos (plutôt pratique pour une application de visionnage de vidéos, vous en conviendrez), d’avoir un compte local vous permettant d’ajouter des vidéos à une liste « à voir plus tard », d’explorer les plateformes, les chaînes, etc., tout en sortant des dark patterns des applications développées par les GAFAM (comme le doom scrolling, les notifications omniprésentes, etc.).

La version 0.6.0 (sortie fin janvier) vous permet maintenant de consulter les commentaires sous les vidéos !

 

Illustration - Dans la mer Sepia, læ poulpe mascotte de PeerTube, dessine un grand chiffre sept avec son encre.

Illustration : David Revoy – Licence : CC-By 4.0

Ce que l’année nous réserve

Transfert de chaîne

Cette année arrivera une fonctionnalité très demandée : la possibilité de transférer la propriété une chaîne à un autre compte ! Pour le moment, une chaîne est liée au compte PeerTube qui l’a créée. Il sera bientôt possible pour le compte associé à la chaîne (ou à l’admin de l’instance) de transférer la propriété de cette chaîne et de propager ce changement dans la fédération (comme c’est déjà le cas avec le changement de propriétaire d’une vidéo).

Cette fonctionnalité va de pair avec le développement d’une autre fonctionnalité très demandée : l’administration partagée d’une chaîne (voir… plus bas 👀).

Personnalisation d’instance

Pour beaucoup d’admin d’instances il est important de pouvoir personnaliser sa plateforme comme bon leur semble (à son image, à celle de l’institution qu’iel représente, etc.). C’est pourquoi nous travaillerons à faciliter les changements tels que les couleurs générales de l’interface, la possibilité de mettre un logo, de personnaliser le lecteur vidéo, de permettre ou non l’intégration de vidéos en fonction d’une liste d’autorisation ou de blocage et plus encore… Cette personnalisation poussée de l’interface sera accessible aux admin directement depuis l’interface web de PeerTube.

Assistant de configuration

PeerTube peut s’adresser à différents types de public : institutions, familles, associations, médias, entreprises… Afin de simplifier la configuration d’une plateforme, nous allons développer un assistant de configuration graphique qui permettra, après l’installation de PeerTube, d’appliquer et d’afficher plusieurs règles de configuration recommandées selon le profil voulu de la plateforme (avec l’installation d’extensions selon le cas d’utilisation : ajout du tchat si les lives sont autorisés, LDAP/OpenID, etc.).

 

Illustration : David Revoy (CC-By)

Gestion de chaîne… à plusieurs

Une fois le travail réalisé sur le transfert de propriété de chaîne terminé, nous pourrons enfin vous proposer la gestion de chaîne(s) à plusieurs ! 🎉

Publiquement, la chaîne appartiendra toujours à un compte principal mais pourra être gérée par plusieurs autres utilisateurs de la même instance. Ces comptes co-gérants auront les mêmes droits (téléverser des vidéos, créer et gérer des playlists, personnaliser la chaîne, etc.) mais ne pourront pas :

  • supprimer la chaîne ;
  • la transférer ;
  • gérer la liste des co-gérant⋅es

Ces changements iront de pair avec de nombreux changements au niveau du design et de la base de données, ce qui représente un sacré travail !

Mais aussi…

Cette année apportera aussi une amélioration du système d’avertissement pour les contenus sensibles et des fonctionnalités de « qualité de vie » pour l’administration et la modération des instances, permettant aux institutions, associations, médias, administrations, etc., de s’emparer de PeerTube plus sereinement. Cela pourra se faire via des listes partagées d’instances ou comptes à bloquer, ou via des auto-tags empêchant des publications ou lives utilisant tel ou tel mot clé ! Nous prévoyons aussi d’ajouter des possibilités d’actions en lot, pour par exemple, mettre à jour la licence de plusieurs vidéos en une seule action.

Ce que l’année réserve pour l’application mobile

L’application mobile est un excellent moyen de faciliter l’adoption de PeerTube auprès d’un large public. Nous souhaitons élargir l’audience aux utilisateurs et utilisatrices de tablettes et de télévisions.

Nous allons également permettre la connexion à votre compte PeerTube, vous donnant accès à tous vos abonnements, likes, commentaires, historique, notifications, paramètres et listes de lecture.

En fin d’année, vous aurez la possibilité de lire vos vidéos en arrière-plan, de les diffuser depuis votre téléphone vers votre télévision connectée (Android, dans un premier temps ; les télévisions Apple demandant un peu plus de travail), et de recevoir des notifications. Une amélioration du lecteur vidéo sera aussi effectuée.

Pour les créateurs et créatrices de contenu, il sera possible de téléverser, gérer vos vidéos, démarrer une diffusion en direct et gérer vos chaînes directement depuis l’application.

PeerTube avance grâce à vous !

C’est à la fois grâce à la confiance que vous nous accordez depuis des années, votre soutien financier (et/ou moral), l’aide de la Coopérative des Internets, et le financement de la fondation NLnet que nous pouvons vous proposer cette feuille de route.

Nous espérons donc qu’elle vous plaira suffisamment pour continuer à nous aider !

FramIActu n°3 — La revue mensuelle sur l’actualité de l’IA !

Bienvenue dans ce troisième numéro de FramIActu, la revue mensuelle sur l’actualité de l’IA !

 

Ce mois-ci, encore, nous avons plein de choses à dire au sujet de l’IA et ses impacts sur nos sociétés.
Pour rappel, nous mettons en avant notre veille sur le sujet sur notre site de curation dédié ainsi que sur Mastodon et Bluesky (sur le compte dédié FramamIA) !

 

Vous avez préparé votre boisson chaude (ou froide, c’est le printemps après tout !) préférée ? Alors c’est parti pour la FramIActu !

 

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Tout ce que vous dites à votre Echo est envoyé à Amazon

Dans cet article de Les Numériques, nous apprenons que fin mars, Amazon a retiré le support du traitement local des voix sur les assistants connectés Amazon Echo.

Cela signifie que toutes les enceintes connectées d’Amazon enverront les enregistrements audio sur leurs serveurs pour être traités afin d’améliorer la qualité de leurs services IA.

Amazon promet de ne pas conserver les enregistrements après traitement si l’utilisateurice a modifié ses préférences dans ce sens. Cependant, et comme le rappelle l’article, Amazon a déjà menti concernant cette promesse et l’entreprise a déjà été condamnée pour avoir conservé illégalement des enregistrements vocaux d’enfants.

Outre la question du respect de l’intimité numérique — et donc du RGPD — (mais bon, venant d’Amazon il n’y a aucune surprise sur ce sujet), c’est bien le message envoyé par les géants de la Tech que nous pouvons souligner : l’IA est leur excuse magique pour justifier toute action, même celles supposées illégales. Les géants capitalistes s’embêtent de moins en moins à respecter la loi et cherchent même à la tordre, comme en témoigne cet article de Next.

Mème : deux boutons rouges, un dit « Envoyer toutes mes données à Amazon », l'autre « Envoyer toutes mes données à Amazon ». Un homme tagué « Utilisateur·ice d'Amazon Echo » transpire en ne sachant sur quel bouton appuyer.

L’absence de choix, via Framamèmes. Licence CC-0

C’est assez exceptionnel, mais voici un article, datant de l’année dernière, que nous déterrons ! (En même temps, la FramIActu n’existait pas l’année dernière…)

Nous estimons qu’il est important d’en parler car nous entendons désormais très souvent des témoignages concernant la dégradation des résultats de Google.

Cet article (en anglais), publié par Mashable, traite d’une étude réalisée par des chercheureuses allemand·es décrivant la dégradation de la qualité des résultats de Google.

En effet, en raison du phénomène d’IA Slop, c’est-à-dire l’apparition massive de sites générés par IA et proposant un contenu de faible qualité, une bonne partie des résultats de recherche de Google n’orientent plus vers du contenu pertinent.

Parmi les raisons décrites, les chercheureuses expliquent que les sites générés par IA exploitent parfaitement les algorithmes de Google afin d’être mieux référencés que des contenus rédigés manuellement.

Cependant, on pourrait aussi expliquer la dégradation de la pertinence des résultats de Google, spécifiquement, en se référant à un autre article (en anglais, toujours) d’Edward Zitron, faisant une chronologie complète de comment Google a décidé de réduire volontairement la qualité de ses résultats afin de forcer les utilisateurices à faire plus de recherches sur le moteur de recherche. Cela dans le but d’afficher plus de publicités et donc générer plus de revenus pour l’entreprise.

Une illustration de « l’emmerdification » de Google, comme le souligne Cory Doctorow dans une de ses conférences dont nous avons récemment publié une traduction sur le Framablog.

Une démonstration vulgaire de pouvoir

Dans une note de blog, Jürgen Geuter (connu sous le pseudonyme tante), présente un point de vue intéressant sur l’ajout récent, par OpenAI, de la possibilité de générer des images dans le style du studio d’animation Ghibli.

Dans son analyse, le théoricien souligne l’idée que le choix du style du studio Ghibli n’est pas anodin. Ce choix est une « démonstration vulgaire de pouvoir ».

En effet, le studio, à travers ses œuvres, prône une vision humaniste et littéralement anti-fasciste de la société.
Plus, Hayao Miyazaki, co-fondateur du studio, avait déjà exprimé, en 2016, son effroi vis-à-vis de l’Intelligence Artificielle.
Pour tante, l’utilisation du style emblématique du studio Ghibli, par OpenAI, est la preuve que l’entreprise étasunienne n’a que faire de cette vision et des valeurs du studio, ni même du droit d’auteur ou de tout ce qui n’irait pas dans le sens de ce vampire capitaliste.

Ce comportement fait écho (sans mauvais jeu de mot) avec l’actualité concernant les enceintes connectées d’Amazon.

Comme si les entreprises de l’IA n’avaient pas besoin de respecter la loi, et pouvaient se permettre des pratiques toujours plus agressives, particulièrement depuis l’élection de Donald Trump aux États-Unis.

Mème : sur l'autoroute, un panneau indique « Respecter Les lois, les autres, le vivant » tout droit et « S'en foutre » sur la sortie à droite. Une voiture taguée « Les entreprises de l'IA » fait un dérapage pour prendre la sortie.

Les entreprises de l’IA et le respect. Mème généré avec Framamèmes. Licence CC-0

Aussi, tante appuie l’idée qu’OpenAI doit sortir de nouvelles fonctionnalités et paraître « cool » afin d’attirer les investisseurs. L’ajout du style du studio Ghibli comme « fonctionnalité » de ChatGPT en serait une illustration.

Cette réflexion semble faire sens, surtout lorsqu’on observe une autre actualité décrivant la volonté d’OpenAI de faire une nouvelle levée de fonds à hauteur de 40 milliards de dollars.

L’infrastructure du libre est attaquée par les entreprises d’IA

À travers un article s’appuyant sur les témoignages de différentes acteurices du Libre, nous découvrons la difficulté qu’ont de nombreuses structures à faire face à l’accaparement des ressources du Web par les robots d’indexation de l’IA.

Ces robots, en charge de récupérer le contenu de l’ensemble du Web afin de nourrir les réponses des Intelligences Artificielles génératives, composent parfois presque l’intégralité du trafic affectant un site Web.

Ce trafic représente un véritable problème car il représente une surcharge significative (de manière semblable à une attaque par déni de service) des infrastructures, forçant différents projets à adopter des techniques expérimentales pour se protéger et éviter de tomber en panne.

Par exemple, le projet GNOME a déployé le logiciel Anubis sur sa forge logicielle (où sont déposés les codes sources de l’ensemble des projets de l’organisation).

Anubis permet de détecter si une ressource est accédée par un·e humain·e ou un robot d’IA et permet, dans ce deuxième cas, de bloquer l’accès à la ressource.

Deux heures et demie après avoir installé Anubis, le projet GNOME indiquait que 97 % du trafic avait été bloqué par Anubis, car provenant d’IA.

Malheureusement, des outils comme Anubis nuisent à l’expérience globale du Web et sont peut-être des solutions seulement temporaires jusqu’à ce que les robots d’indexation des IA réussissent à contourner le logiciel et piller les ressources malgré tout.

Alors que l’infrastructure du Libre repose avant tout sur des efforts bénévoles et est déjà largement en tension financière, les géants de l’IA refusent de « respecter » ce fragile écosystème en ignorant ses faiblesses tout en se nourrissant de ses forces (son savoir et tous les communs mis à disposition de toustes).

Là encore, l’exemple le plus flagrant est que les robots d’indexation de l’IA ignorent les directives des sites Web lorsque ces derniers précisent, à l’aide d’un protocole, ne pas souhaiter être indexés par un robot.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour ce mois-ci mais si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !

Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !

Faire sa veille informationnelle à l’ère de l’IA générative

Il y a quelques mois, Hubert Guillaud publiait, dans le média Dans Les Algorithmes, un article sur l’abondance de contenus générés par IA sur le Web (le fameux IA Slop).

Quelques semaines plus tard, le média Next publiait une enquête sur les médias diffusant en partie ou exclusivement des articles générés par IA.

Récemment encore, la Chine mettait en place une mesure imposant d’étiqueter les contenus générés par IA, prétextant un besoin de lutter contre la désinformation.

Les techniques d’Intelligence Artificielle générative sont aujourd’hui massivement utilisées pour publier du contenu sur la toile et il devient difficile de déterminer si une information est réelle ou non.

C’est pourquoi nous vous proposons un article permettant d’explorer quelques pistes pour faciliter l’exercice de l’esprit critique !

Bonne lecture !

En quoi la généralisation de l’IA générative nuit à la qualité des informations ?

IA Générative et réalité

L’IA générative (parfois abrégée GenAI) est une technique d’intelligence artificielle ayant pour objectif de produire du contenu qui semble naturel.

Ce qui marque quand on expérimente avec une IA générative, c’est la vraisemblance des réponses : celles-ci nous semblent plausibles.

Pourtant, une IA générative n’a aucune compréhension du réel, de ce qui existe ou non, de ce qui est donc vrai, ou non. Quand on lui demande « Qui est Framasoft ? », celle-ci va faire des calculs complexes et énergivores pour tenter de deviner quel est le résultat le plus probable attendu, en se basant sur toutes les données à partir desquelles elle a été « entraînée ».

Le logiciel nous fournira ainsi une réponse, parfois juste, parfois à côté de la plaque, parce que son algorithme aura estimé que c’est le résultat le plus probable attendu.

Mème : un homme tagué « l'ia » regarde d'un œil intéressé une femme taguée « Réponse probable », pendant que sa compagne taguée « La réalité » lui lance un regard noir.

L’IA est la réalité.

Parmi les gros problèmes de l’IA générative se situe l’incapacité à pouvoir décrire le cheminement de l’algorithme pour générer une réponse. Aucune IA générative ne peut, à ce jour, décrire ses sources ni indiquer pourquoi elle a préféré donner telle réponse plutôt qu’une autre. Nous nous retrouvons, au mieux, avec une chaîne de pensée et un score de probabilité et au pire, avec seulement le contenu de la réponse. À nous alors de faire preuve d’esprit critique pour déterminer si l’IA générative a donné une réponse probable et juste ou probable mais fausse. À nous aussi, comme le décrit Hubert Guillaud dans son article, de douter de la machine pour ne pas nous laisser induire en erreur.

Nous n’en sommes pas habitué·es, pourtant.

En effet, nous avons plutôt tendance à croire aveuglément les machines, persuadé·es que nous en maîtrisons de bout en bout tous les processus. Or, l’IA générative, malgré son ton toujours sûr, sa verve parfois moralisatrice et son incapacité à dire « Je ne sais pas », n’est pas une technique dont nous maîtrisons tous les processus (de la construction à la réponse). Il y a des zones d’ombre, des zones incomprises (du fait de l’essence même de cette technique) qui nous empêchent de pouvoir faire confiance en ses affirmations.

Enfin, l’IA générative inverse notre rapport à la production (d’écrits, notamment). Si autrefois, il était plus long de produire un contenu textuel que de le lire, c’est aujourd’hui l’inverse et ce fait, qui peut sembler anodin de prime abord, transfigure pourtant une bonne partie de notre société, notamment numérique.

IA Slop

Depuis quelques temps, le terme de « Slop » ou d’ « IA Slop » devient de plus en plus populaire pour décrire les contenus de mauvaise qualité réalisés via IA générative et qui pullulent désormais sur le Web.

Le Web, avec l’IA générative, se remplit peu à peu de contenus vides de sens, entièrement pensés pour créer de l’engagement ou plaire aux algorithmes de SEO (Search Engine Optimisation, les techniques mises en place pour être mieux référencé·e sur Google).
L’objectif final étant d’engranger facilement des revenus, via les mécanismes de réseaux sociaux ou la publicité.

La surabondance de ces contenus a plusieurs effets :

    • La raréfaction de contenus « originaux » (créés par un·e humain·e).

    • Une tendance à la réduction de la qualité des résultats de l’IA générative. Les données générées par IA générative écrasant sous leur masse celles créées par des humain·es, ces dernières deviennent donc plus difficiles à retrouver en bout de chaîne.

    • La mise en place d’un environnement « douteux ». Il devient difficile, aujourd’hui, de faire confiance en la qualité réelle d’un contenu a priori.

C’est en réaction à cette vague d’IA Slop et après la lecture de cette excellente enquête de Next sur la présence de plus de 3000 médias français générés par IA que nous avons décidé d’écrire cet article, dont le but est d’aider à mettre en lumière la problématique, mais aussi de présenter des pistes de solution.

Nous y reviendrons plus bas !

Comment reconnaître un texte produit par une IA Générative ?

Dans son enquête sur les sites de médias dont les contenus sont des plagiats générés par des IA génératives, Next a élaboré une méthode pour pouvoir reconnaître ceux-ci et nous la partage dans un article dont nous reprenons ici quelques points (mais nous vous recommandons chaudement de lire l’article de Next pour en découvrir l’intégralité des éléments) !

    • ChatGPT a des « tics de langage » et utilise, abusivement, certains termes tels que « crucial », « fondamental », « captivant », « troublant », « fascinant », « besoin urgent », « il est essentiel », etc ;

    • Les contenus produits par l’IA générative sont très scolaires alors que les journalistes tendent à adopter un « angle », c’est-à-dire un choix particulier dans la manière de traiter le sujet, aidant à se démarquer de ce qui est déjà écrit ;

    • Les fins d’articles générés par ChatGPT résument souvent l’article et/ou abordent des conclusions moralisantes ;

    • Les images d’illustration sont le plus souvent des copiés-collés des articles plagiés, parfois modifiés avec une rotation à 180° pour éviter d’être détectées par des moteurs de recherche d’images inversés. Sinon, elles sont générées par des IA génératives et sont particulièrement grossières et caricaturales, ou n’ont rien à voir avec le sujet ;

    • …

La méthodologie de Next permet de nous outiller pour exercer notre esprit critique dans notre navigation quotidienne.

Cependant, cela peut rapidement être fastidieux, notamment avec l’immense quantité d’articles générés par IA générative auxquels nous sommes confronté·es au quotidien. Dans son enquête, Next souligne d’ailleurs que des milliers d’articles mis en avant par Google Actualités sont en fait le fruit d’IA génératives.

Afin de faciliter la reconnaissance des sites proposant des articles générés par IA, Next a développé une extension de navigateur permettant d’afficher un message d’information lorsque nous accédons à un site GenAI. L’extension est actuellement capable de reconnaître plus de 3000 sites ( !) et sa base de données continue de grossir.

Gardons cependant à l’esprit que si cette extension nous pré-mâche énormément le travail, elle ne suffit cependant pas pour nous permettre de lever notre vigilance. De nouveaux sites émergent chaque jour et l’extension ne peut tous les recenser.

Notons qu’il existe des outils pour détecter si un texte a été écrit par un humain, comme le détecteur de QuillBot ou GPTZero. Cependant, nous ne recommandons pas leur usage (ou du moins pas sans un regard très critique).
Premièrement, ces outils ne sont pas libres, il convient donc de ne pas y envoyer de textes privés ou sensibles. Mais surtout, ces détecteurs sont réputés pour leur manque de fiabilité.
Par exemple, OpenAI proposait un détecteur de textes générés par ChatGPT
jusqu’en 2023, mais a décidé de l’arrêter, car il produisait trop d’erreurs.
Beaucoup de textes écrits par des humain·es peuvent être marqués par erreur comme générés par une IA. Ces détecteurs ont tendance à
défavoriser les locuteurs et locutrices non-natives : les textes en anglais écrits par des personnes dont l’anglais n’est pas la langue maternelle seront plus souvent marqués à tort comme étant écrits par une IA. Et inversement, il existe de nombreuses techniques pour contourner ces détecteurs.
Par exemple, des chercheur·euses ont montré qu’il est possible de paraphraser un texte généré par une IA afin que le texte soit marqué comme écrit par un·e humain·e.

Si nous décidons quand même d’utiliser ces outils, ne nous fions pas à leur décision ou à la probabilité affichée. Remettons-les en perspective avec d’autres éléments, dont ceux mentionnés précédemment.
Sinon nous risquons
d’accepter un texte écrit par une IA.
À l’inverse nous risquerions de jeter le discrédit sur un texte écrit par un·e humain·e, ce qui peut être emb
êtant, en particulier dans le cas des enseignant·es corrigeant des copies d’élèves.

De l’importance de la confiance

Il n’y a pas de méthode stricte et infaillible pour déterminer si un média est de source fiable ou non.
Au final, nous nous basons avant tout sur la confiance qu‘il nous inspire.
Et justement, il n’est pas toujours aisé de déterminer si nous souhaitons faire confiance ou non en un média.

Quelques questions peuvent néanmoins nous aider à affiner notre perception.

Quel est l’objectif du média ?

Se questionner sur l’objectif du média que l’on consulte peut grandement aider à y voir plus clair.

Pourquoi est-ce que celui-ci a été créé ?
Est-ce pour le « bien commun », un intérêt financier ou encore de pouvoir ?
Aucun média n’est totalement objectif, ce qui est normal, mais quel est le positionnement politique du média ?
Cherche-t-il à convaincre plutôt qu’informer ?

Quels sont les engagements du média pour parvenir à l’objectif évoqué ?

Parfois, certains objectifs peuvent n’être que des vœux pieux.
Regarder concrètement quels sont les actes et les engagements mis en place du média pour faire advenir ces objectifs peut nous aiguiller à jauger le degré de confiance que nous donnerons à celui-ci.

Qui possède le média ?

Et donc, quels sont les intérêts des personnes qui possèdent le média ?
Et quel
s pouvoirs exercent ces personnes sur lui ?

La cartographie mise à jour chaque année par Le Monde Diplomatique et ACRIMED est édifiante sur le fait que la majorité des médias « mainstream » sont — au moins en partie — possédés par des milliardaires ou des groupes de milliardaires.

Ces derniers semblent pouvoir orienter les journaux dans certaines directions, comme encore récemment avec Jeff Bezos (patron de, entre autres, Amazon, Twitch ou le Washington Post, quotidien emblématique étasunien), qui a souhaité ne pas faire publier la traditionnelle recommendation de vote du journal à l’approche de l’élection présidentielle étasunienne (alors que cette recommandation allait dans le sens de Harris, l’opposante de Trump).

Cependant, s’il est possible que les médias possédés par les milliardaires soient, en partie, influencés par leurs dirigeant·es, ce n’est pas forcément systématiquement le cas.

Le Monde Diplomatique, par exemple, est possédé à 51 % par le groupe Le Monde, mais à 49 % par l’association de lecteurs et lectrices du journal et l’association composée de toute l’équipe de rédaction. Ce sont ces 49 % qui choisissent le ou la rédacteurice en chef et iels possèdent un droit de veto pour les décisions prises.

Nous y retrouvons là un exemple de contre-pouvoir.

Comment est financé le média ?

Dans une société capitaliste, l’argent est au cœur de bien des choses et nous pensons essentiel de nous questionner sur la manière dont un média est financé.

Est-ce via la publicité ?
Sont-ce les liens d’affiliation (permettant de récolter des sous en fonction du nombre de visites/d’achats sur le lien) ? Les abonnements ? Les aides de l’État ? Les dons ?

Et si c’est un peu de tout ça, dans quelles proportions ?

Il y a bien des manières de financer un média, et toutes ne sont pas forcément viables dans le long terme ou ne correspondent à notre propre idée de la déontologie.

Le média cite-t-il ses sources ?

C’est une des premières choses que nous cherchons en général à consulter : d’où vient l’information mise en avant dans l’article.

Est-ce que c’est une revue scientifique ? Une dépêche AFP ? Un autre journal ? Un vieux Skyblog fait par Camille Dupuis-Morizeau ?

Si — comme trop souvent à notre goût 😬 — les sources ne sont pas citées, il est difficile de prouver la véracité de l’information et il nous faudra chercher celles-ci nous-même.

L’article est-il relu par les pair·es ?

C’est un processus obligatoire dans beaucoup de médias, chaque article est supposé être relu par au moins une autre personne que l’auteur·ice.

Cela permet d’avoir un regard frais sur le sujet, sur la qualité de l’article, etc.
Cependant et évidemment, la relecture n’empêche pas toujours certaines erreurs ou une ligne éditoriale idéologique.

Parfois, nous sommes convaincu·es que l’angle adopté par un article est le bon alors que d’autres estimeront que non.
D’autres fois, nous aurons tout simplement fait une erreur : choisi une source peu fiable, mal interprété une situation, etc.


Les erreurs arrivent et c’est pourquoi le processus de relecture et validation par d’autres existe !

Il y a-t-il une mise en avant des corrections apportées à l’article ?

Comme les erreurs arrivent, il est courant d’apporter des corrections aux articles publiés.

Est-ce que le média met en avant (en haut de son article, voire même en fin) ces corrections ?

Une mise à jour de l’article suite à l’apparition d’un événement nouveau mais crucial à la compréhension du sujet, par exemple ?

Toutes ces questions ne constituent pas une liste exhaustive, bien sûr, mais celles-ci peuvent déjà grandement nous aider à nous positionner vis-à-vis d’un média.

En nous prêtant à l’exercice, nous nous rendrons compte qu’il est parfois difficile de savoir clairement si un média est de confiance et nous devrons donc faire preuve de vigilance à son égard.

Enfin, aujourd’hui, avec la quantité faramineuse de sites générés par IA, nous ressentons facilement un sentiment de submersion et l’énergie nécessaire pour pouvoir exercer notre esprit critique sur tous ces sites dépasse l’entendement.

Faire sa veille, à l’heure de l’IA générative, est un vrai défi !

Mème. À gauche, une carte Uno avec marqué « Crois le premier site venu ou pioche 25 cartes ». À droite, un personnage tagué « Nous » a pioché 25 cartes.

L’exercice de l’esprit critique à l’heure de l’IA, une entreprise difficile.

C’est pourquoi dans la dernière partie de cet article, nous vous proposons de découvrir un outil pouvant aider à faciliter la veille informationnelle !

Vigilance cependant, si cet outil technique peut aider à assumer notre veille, il nous demande tout de même de rester attentifs et attentives, notamment avec la fonctionnalité de veille partagées !

Découvrons cet outil ensemble !

Flus, outil de veille simple

Flus est un outil de veille conçu par Marien, membre de Framasoft.

Ce n’est pas le premier coup d’essai de Marien dans la conception d’un tel outil, il a en effet, en 2012, initié un autre projet de veille : FreshRSS.

C’est grâce à l’enseignement des expériences apprises en concevant FreshRSS qu’il a pu concevoir une expérience aussi fluide dans Flus.

 

Un schéma montrant des sites agrégés vers Flus, d’où ressortent différents services.

Liste des services proposés par Flus.

 

Au cœur de FreshRSS et Flus se situe une technique majeure du Web : les flux RSS.

C’est quoi un flux RSS ?

Les flux RSS existent depuis 1999 et permettent à des applications tierces de savoir, presque en temps réel, si un nouvel article a été publié sur notre site.

Logo des flux RSS

Le gros avantage est de pouvoir centraliser dans un unique logiciel tous les flux auxquels nous souhaitons nous « abonner » et donc prendre connaissance des mises à jour de dizaines (voire centaines ou milliers, c’est à nous de choisir) de sites sans avoir à les ouvrir individuellement !

Le flux RSS est une technique légère, simple, mais terriblement efficace, simplifiant énormément le processus de veille.

C’est grâce aux flux RSS que de nombreux outils de veille fonctionnent… dont Flus !

Flus : un outil pensé pour éviter d’être submergé·es d’informations

Une des problématiques auxquelles nous pouvons être confronté·es en regroupant des centaines de flux RSS dans un logiciel permettant de les lire (ces logiciels sont appelés des agrégateurs) est que nous pouvons nous sentir submergé·es d’informations.

Si nous nous abonnons à des sites qui publient beaucoup d’actualités ou si nous avons beaucoup d’abonnements, il est fréquent de ressentir une forme « d’info-pollution ».

C’est pourquoi Flus a été pensé avec deux fonctionnalités nous permettant de contrôler le flot d’informations auquel nous sommes confronté·es.

Premièrement, l’espace de lecture des flux est conçu pour ne pas laisser s’accumuler les contenus, évitant ainsi une surcharge d’informations. Cet espace est limité volontairement à 50 contenus qui doivent être traités (ex. marqué comme lu, rangé, ou retiré) avant de pouvoir passer à la suite. 

Capture d'écran du journal de Flus.

Capture d’écran du journal de Flus.

Deuxièmement, chaque flux dispose d’un indicateur de fréquence de publication, indiquant le nombre de liens postés chaque jour.

Si ce rythme est trop élevé, il est possible de configurer le filtre définissant sur quelle période Flus va récupérer les publications pour l’abonnement.

Ce dernier point est très utile et est configuré par défaut pour ne récupérer que les publications de la dernière semaine. Cependant, si nous souhaitons tout recevoir d’un flux RSS, il est possible de configurer celui-ci pour tout nous afficher, sans limite temporelle.

Un outil de veille collaborative

Autre aspect intéressant de Flus : la possibilité de partager sa veille avec d’autres ou de construire des veilles collaboratives.

Le site propose d’ailleurs, dans son interface, de découvrir la veille d’autres personnes, triées par catégories.

Cette fonctionnalité est bien chouette lorsque l’on cherche à sortir un peu de ce que l’on connaît et chercher à découvrir d’autres sites ou sujets.

Attention encore ! Ce n’est pas parce que quelqu’un publie sa veille sur Flus que les informations partagées sont forcément fiables.

Là aussi, nous devons trouver où placer notre confiance !

Un modèle de financement basé sur la solidarité

Flus utilise un modèle de financement basé sur le prix libre.

Le principe est simple : vous pouvez profiter de Flus au prix qui vous convient, y compris gratuitement. Cela permet à ses utilisateurs et utilisatrices de participer au fonctionnement de la plateforme à hauteur de leurs moyens.

Afin d’avoir une idée de ce que peut être une contribution financière juste, Marien affiche trois tarifs références : un tarif solidaire pour celles et ceux qui ne peuvent offrir plus, un tarif équilibre qui correspond au juste prix et un tarif soutien qui correspond à l’objectif financier de l’auteur.

 

Alors que l’IA générative transforme agressivement le Web en un immense catalogue de contenus approximatifs, conçus par des IAs pour plaire à des algorithmes (principalement ceux du moteur de recherche de Google), la société capitaliste nous demande toujours plus d’efforts pour réussir à exercer notre esprit critique.

Pourtant il existe encore des espaces de respiration, où nous pouvons relâcher (un peu) notre attention, et des outils nous permettant d’y accéder plus facilement.

Le flux RSS est un outil émancipateur d’une rare simplicité qui, grâce à des plateformes comme Flus ou des outils comme FreshRSS, nous permet de décider de la manière avec laquelle nous nous confrontons aux informations de ce monde.

Alors profitons de ces joyaux techniques pour partager nos veilles, créer des veilles collectives, exercer ensemble notre esprit critique et lutter, solidairement et joyeusement, contre la désinformation en ligne !

Bullshit sur Graf’hit

Depuis 2023 et la mise à disposition du grand public des IAG, l’exercice rédactionnel à l’université dysfonctionne. Stéphane Crozat en retranscrit un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés).

« En effet, il y a un vrai risque de dénaturer le rôle principal de l’école : aider les élèves à développer leur esprit critique et leur autonomie. Imaginez un monde où les machines réalisent nos tâches à notre place. Selon une étude de John Doe en 2022, s’appuyer trop souvent sur des outils comme l’IA pourrait rendre les élèves moins capables de structurer leurs idées ou de résoudre des problèmes par eux-mêmes. »
(Alice, Bob, Claude & Daniel, 2024)

Lire et écrire sur le Web (introduction)

Je suis enseignant-chercheur à l’Université de Technologie de Compiègne (UTC) et cet article fait suite à deux publications précédentes liées au déploiement de l’IA générative (IAG) dans le contexte de l’enseignement supérieur :

À l’automne 2024 j’ai animé le cours WE01 à l’UTC avec deux collègues Quentin Duchemin et Stéphane Poinsart. C’est un cours du département Technologie, Sociétés, Humanités (TSH) que suivent des élèvent ingénieurs. Le cours était intitulé « Écrire, communiquer et collaborer sur le web » et il consistait en des apports théoriques autour du fonctionnement technique de l’Internet, de l’histoire du Web, du droit d’auteur et de la culture libre, du capitalisme de surveillance ou encore des enjeux sociaux-écologiques liés au numérique. Le cours comporte également des apports méthodologiques autour de la lecture et la production d’articles scientifiques ou la critique de ce que le Web produit.

Le travail demandé aux étudiants en WE01 était essentiellement tourné vers la réalisation de fiches de lecture et de productions écrites de type scientifique autour de ces thématiques, en groupe, publiées en ligne sous licence libre, finalisées par une présentation en direct sur la radio locale Graf’hit.

IA et école (le récit en bref)

Alice, Bob, Claude et Daniel ont rédigé ensemble 3 séries d’articles, dont la dernière a donné lieu à une lecture en direct sur la radio Graf’hit. Nous faisons ici une synthèse du processus de rédaction qui a été mobilisé. Le déroulé complet de leurs travaux, détaillé article par article, peut-être consulté en annexe de l’article original, que nous n’avons pas reproduit ici.

Un robot dit « Bonjour ! Comment puis-je vous aider à écrire de la merde, aujourd'hui ?»

Image générée par un être humain grâce au Générateur de Grise Bouille

Étape 1a, le plan détaillé de Bob (fait avec ChatGPT)

Bob injecte dans ChatGPT la bibliographie, et probablement le sujet, donnés par les enseignants au début de cours, afin d’obtenir un plan détaillé. On y trouve des rubriques comme « concepts vus en cours » qui ne correspondent pas à des concepts vus en cours ou des « arguments réfutables » qui répondent à une demande de produire des arguments réfutables, mais au sens de Karl Popper, alors qu’ici le sens et plutôt le sens trivial (ChatGPT n’a pas assisté au cours).

Exemple d’extrait de plan détaillé obtenu avec ChatGPT à partir du sujet fourni en entrée par les enseignants

Valeur éducative et éthique des exercices rédactionnels

  • Concepts vus en cours : l’éthique du travail intellectuel et la question de l’authenticité dans la production du savoir. Importance de la production d’écrits personnels dans l’éducation pour développer l’individualité.
  • Contre-argument réfutable : peut-on se contenter d’une écriture automatisée sans perdre en humanité et en sens critique ?

Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/

Étape 1b, les références de Bob (produites avec ChatGPT)

Bob demande également à ChatGPT des références bibliographiques pour étayer les propos, ce qui est aussi une consigne donnée dans le cours. Cela conduit à l’apparition de sept sources hallucinées, c’est à dire sept références bibliographiques crédibles mais totalement inventées (les revues scientifiques mentionnées existent pour la plupart).

On note le J. Doe du début, qui correspond en anglais à une personne non identifiée (typiquement en cas de découverte d’un cadavre sans papier dans une série américaine). L’enseignant relit le plan détaillé, mais ne vérifie pas les références. Il prend donc le temps de corriger ce travail de ChatGPT et le trouve globalement de bonne qualité. Bravo ChatGPT.

 

Image générée par un être humain grâce au Générateur de Grise Bouille

Exemple de références bibliographiques hallucinées obtenues avec ChatGPT

  • Doe, J. (2022). Privacy Concerns in AI-Powered Education Systems. Journal of Educational Technology, 45(3), 123-145.
  • Jones, L. (2019). Automated Grading Systems : Benefits and Challenges. Educational Review, 32(2), 250-265.
  • Miller, A. (2021). Bias in Educational AI Algorithms : A Critical Review. AI & Society, 36(1), 89-102.
  • Smith, P., Johnson, T., & Davis, R. (2021). Adaptive Learning Platforms and Their Impact on Student Success. Journal of Learning Analytics, 5(1), 45-67.
  • Tanaka, S. (2020). AI in Classroom Management : Pilot Projects in Japan. Japanese Journal of Educational Technology, 36(4), 210-225.
  • Taylor, M. (2022). Artificial Intelligence in Education : Friend or Foe ? Educational Futures, 12(2), 98-115.
  • Helsinki Study (2023). AI and Pedagogy : Experimental Schools in Finland. Educational Research Quarterly, 40(3), 78-95.
Un étudiant se réjouit : « Première fois que je rends un truc avec une bibliographie aussi fouillée. Il va être content, le prof ! » Un autre doute : « Hum... Je me demande qui est ce "John Doe". Jamais rien lu de lui. »

(image réalisée par le Générateur de Grise Bouille)

Étape 2, la rédaction de Claude (faite sans ChatGPT et sans esprit critique)

Claude ne participe pas du tout à la mise au point du plan détaillé, il laisse Bob travailler seul. Il repart ensuite de ce plan détaillé, et sans aucune interaction avec Bob, sans consulter les sources, il fait un travail de développement du plan sous forme de phrases. Il ajoute néanmoins quelques éléments provenant de sources authentiques.

Ici on note donc que Claude ne fait pas directement usage de l’IA, mais qu’il finalise un article complet sur la base d’un plan complètement produit par IA et de références inventées. C’est un très bon cas de prolétarisation, on a une division des tâches et des responsabilités : Bob produit le plan puis Claude l’article sans connexion avec le travail de Bob.

Exemple d’extrait de plan détaillé obtenu avec ChatGPT mobilisé en entrée pour mener une rédaction sans ChatGPT

L’IA pourrait-elle remplacer l’enseignant ?

Argumentation face à l’hypothèse que l’IA pourrait réduire les interactions humaines en classe (Taylor, 2022).

Proposition : L’IA doit être considérée comme un outil complémentaire et non comme un substitut de l’enseignant.

Exemple de rédaction réalisée par Claude sans ChatGPT sur la base du plan détaillé précédent

L’IA pourrait-elle remplacer l’enseignant ? Si l’IA permet d’automatiser des tâches et de personnaliser l’apprentissage, elle ne peut remplacer l’interaction humaine essentielle. C’est d’ailleurs ce que défend Taylor (2022) avec l’avertissement qu’il propose face à la baisse d’interactions humaines en classe. Or, l’enseignant apporte un soutien émotionnel et une compréhension de l’humain que l’IA ne peux bien entendu pas produire. (Cuisinier, 2007).

L’IA devrait donc compléter l’enseignant et non le remplacer. De plus nous agissons différemment quand on se sait observé (effet Hawthorne), ce qui rajoute une limite supplémentaire, qu’il convient de notifier.

Étape 3, la réponse de Daniel (faite avec ChatGPT)

Alice et Daniel produisent en réponse un autre texte qui défend une position plus en faveur des IA, afin de construire pour la radio un dialogue autour d’études scientifiques orientées pour et contre.

Daniel injecte dans ChatGPT le texte de Bob et Claude et demande à ChatGPT un nouveau plan pour y répondre. Celui-ci sera donc basé sur un plan déjà généré avec ChatGPT et des fausses références. Il demande aussi à ChatGPT de nuancer ses propos. Il mobilise également un article réel, celui de Crozat (qui existe bien, nous pouvons en témoigner). Notons que cet article traite d’un cas précédent d’usage frauduleux de ChatGPT dans le même cours WE01 un an auparavant. Daniel l’a-t-il lu ?

Le résultat obtenu n’est plus cohérent avec les propos prêtés aux auteurs inventés, personne ne se rend compte que cela n’a plus de sens, même au sein de la fiction créée par ChatGPT.

Alice et Daniel se retrouvent avec une seconde bibliographie hallucinée. Il y a une cohérence partielle avec la première, on retrouve presque les mêmes entrées… Mais les auteurs, articles et revues se mélangent, suivant la logique combinatoire de l’IAG. Doe est remobilisé autour des données personnelles, tandis que Miller est dans un cas mobilisé sur les algorithmes de recommandations, dans l’autre sur les inégalités de ressources dans les écoles.

 

Image générée par un être humain grâce au Générateur de Grise Bouille

Exemple de proposition de ChatGPT avec nuance et avec citation de faux articles

Enfin, l’affirmation selon laquelle l’IA « ne remplacera pas l’enseignant » mérite également d’être nuancée. Smith et Lee rappellent que l’IA peut modifier de manière intrinsèque le rôle de l’enseignant, le faisant passer d’un « transmetteur de savoirs » à un « facilitateur d’apprentissages ».

Seconde bibliographie hallucinée, variation combinatoire de la première

  • Doe, J. (2022). Educational Spaces and Data Privacy : Rethinking Schools in the Age of AI. Journal of Educational Ethics.
  • Miller, A. (2021). Equality in Education : Addressing Technological Disparities in the Classroom. International Review of Educational Technology.
  • Smith, L., & Lee, R. (2021). Adapting Learning with Artificial Intelligence : Challenges and Opportunities. Advances in Educational Technologies.
  • Tanaka, H. (2020). Administrative Efficiency through AI : An Educational Perspective. Asian Journal of School Management.
  • Taylor, C. (2022). The Role of Teacher-Student Interaction in Non-Digital Classrooms. Educational Research and Practice.
  • Helsinki Study. (2023). Human-Centered Education in the Digital Age : Case Studies from Finnish Schools. Nordic Journal of Pedagogical Innovation.

Étape 4, la réponse d’Alice (faite avec ChatGPT)

Alice rédige partiellement sans ChatGPT, exclusivement à partir de la seconde version de la bibliographie. On note dans cette intervention l’apparition des prénoms des faux auteurs. Peut-être ont-ils été demandés à ChatGPT pour correspondre au format demandé en cours.

On note aussi l’apparition de nouveaux arguments prêtés à certains auteurs inventés. Comme les articles n’existent pas, la seule façon d’étayer leur contenu avec de nouveaux arguments était d’interroger à nouveau ChatGPT.

Premier argument généré avec ChatGPT

L’éducation sans IA privilégie l’interaction directe entre enseignants et élèves, permettant un lien pédagogique plus fort, difficilement remplaçable par des technologies (Taylor, 2022)

Argument complémentaire demandé à ChatGPT

Charlotte Taylor en 2022 ajoute que cela peut même appauvrir le processus d’apprentissage en rendant les enseignements moins inspirants et moins personnalisés.

Travail à la chaîne

Là où les étudiants avaient comme consigne de travailler ensemble, en groupe, ils ont plutôt mis en place un travail séquentiel. Dans ce cadre, ils semblent avoir très peu communiqué entre eux et de pas s’être relus les uns et les autres.

S’ils n’avaient pas utilisé ChatGPT ils auraient probablement été obligés de collaborer, certains travaux trop peu qualitatifs les auraient fait réagir et auraient, sinon, fait intervenir l’enseignant.

J’ai failli oublier

Vous l’avez peut-être deviné, mais leur sujet c’était… IA et école.

Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/

On a pas envie de lire des textes écrits par des machines (consignes et autres éléments de contexte)

« L’usage d’IA génératives est simplement interdit dans le cadre de l’UV : ça ne vous apportera rien puisque le but est d’apprendre à écrire par vous-même. »
(extrait de la présentation du cours WE01 en 2024)

Contexte

L’usage des IAG était donc interdit dans le cadre du cours et le règlement des études de l’UTC a été aménagé en 2024 pour interdire a priori l’usage des IAG (elles ne sont autorisées que si les profs l’explicitent).

Nous avons découvert l’usage d’IAG uniquement à la fin, en direct, à la radio alors que des références inventées par ChatGPT étaient mobilisées et que l’auteur John Doe interpelle l’enseignant qui anime l’émission. Après ré-étude du contenu nous avons soulevé un usage pluriel de l’IAG dans le cadre de WE01 par ces 4 étudiants (voir le récit complet en Annexe).

Nous avons rencontré ces quatre personnes pour un entretien d’environ quinze minutes chacune et leur avons posé trois questions :

— Avez-vous utilisé une IAG dans le cadre de l’un de vos exercices rédactionnels ?

— Saviez-vous que l’IAG était interdite dans le cadre de ces exercices ?

— Auriez-vous été capables de réaliser les exercices sans utiliser l’IAG ?

Premières hypothèses

À l’issue de cet échange, voici ce que nous avons relevé :

  • Claude a un usage marginal de ChatGPT de son côté (mais néanmoins existant malgré l’interdiction). Il s’est appuyé sur des travaux générés avec ChatGPT par ses collègues dont il est surprenant qu’il n’ait pas questionné l’origine. Il savait que l’usage de ChatGPT était interdit.
  • Alice et Daniel ont un usage récurrent de ChatGPT, ils ne sont pas à l’origine des fausses références détectées, mais leur usage de ChatGPT a conduit à continuer le projet jusqu’au bout avec ces fausses références. Ils savaient que l’usage de ChatGPT était interdit.
  • Bob est à l’origine du plan détaillé avec fausses références ; il a un usage important de ChatGPT qu’il justifie par le fait qu’il ne savait pas que c’était interdit ; sa moins bonne maîtrise du français étant non francophone ; une situation personnelle qui l’a conduit à être moins disponible pour ses études et peut-être à une situation d’isolement. Il affirme qu’il ne savait pas que l’usage de ChatGPT était interdit.
  • Il est peu crédible que Bob ne savait pas que l’usage de ChatGPT était interdit, cela supposerait une absence de communication totale entre lui et les autres membres du groupe. Si Bob ne sait pas que c’est interdit, il n’a pas de raison de le cacher ; donc il le dit aux autres, qui lui disent que c’est interdit.
  • Il est peu crédible qu’un des membres du groupe ne savait pas que ChatGPT avait été assez largement utilisé par d’autres membres et donc que le rendu final dont il est signataire avait largement mobilisé ChatGPT.

Les quatre étudiants avaient correctement suivi l’UV tout au long de l’année et étaient considérés par leur encadrant comme des élèves sérieux. Ils ont semblé honnêtes et désolés dans les échanges que nous avons eus avec eux. Ils ont présenté des excuses et ont semblé prendre conscience du caractère fâcheux de la situation.

J’ai l’impression que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont pas rendus compte de l’importance de ce qu’ils faisaient malgré leur connaissance de l’interdiction :

  1. jusqu’à énoncer des références inventées en direct à la radio dans le cadre d’un exercice qu’ils ont trouvé très intéressant et valorisant ;
  2. dans un contexte avec très peu de pression scolaire, leur régularité dans le cours leur en assurait la validation, même avec un rendu médiocre à la fin ;
  3. dans un cadre relationnel de confiance assez horizontal avec les enseignants.

D’abord ne pas lire (quelques perles)

Nous sélectionnons ici quelques citations provenant du travail fourni par les étudiants. La citation de début d’article leur est également créditée.

Nous nous passerons de commentaire, sidérés en quelque sorte, par la pertinence de tels propos critiques vis-à-vis de l’usage de l’IAG dans le contexte pédagogique, écrits sous la dictée de l’IAG.

« Avec l’avènement de l’intelligence artificielle (IA), les pratiques éducatives, notamment les exercices de rédaction, sont mises à l’épreuve. Il devient tentant de laisser les machines écrire à notre place, mais la question se pose : est-ce réellement bénéfique pour les étudiants ? »

« Au cœur de la question se trouve l’importance cognitive et créative de l’écriture. Bien plus qu’un simple moyen de communication, l’écriture est un outil puissant pour structurer notre pensée. »

« Si l’on délègue ces tâches à une IA, on risque de perdre cette précieuse occasion d’entraîner nos capacités cognitives. »

« C’est une démarche éthique : l’apprenant ne se contente pas de répéter des informations, il les reformule et se les approprie. En remplaçant cette démarche par l’automatisation, ne risquons-nous pas de perdre cette dimension humaine, essentielle à la construction de notre individualité ? »

« Pourtant, n’y a-t-il pas un risque que cette facilité entraîne une paresse intellectuelle, voire une dépendance à l’IA pour formuler nos pensées ? »

« Son utilisation massive par les étudiants est pourtant indiscutable ; nos professeurs qui se plaignent régulièrement de corriger des copies réalisées par IA ce qu’il considère, à juste titre, comme une perte de temps. »

Si les étudiants étaient passés à côté de leur sujet il y aurait eu une certaine cohérence, mais ici les problématiques sont très bien transcrites par leurs travaux. Qui tire quel bénéfice de l’IAG ? Quelles conséquences ? Déstructuration de la pensée ? Perte cognitive ? Question éthique ? Construction de l’individualité ? Paresse ? Dépendance ? Perte de temps…

Si l’on fait l’hypothèse que les étudiants ont tout de même lu ce qu’ils ont rendu, on observe donc une décorrélation entre la prise de recul proposée par leurs propos et l’absence totale de distance manifestée dans leur pratique.

Des étudiants modèles (c’est surprenant, malgré tout)

Un cas exemplaire

On pourra penser que ce cas est isolé est qu’il ne fait pas bon raisonner à partir d’un cas particulier.

Mais le cas n’est pas isolé. Je relève des cas similaires depuis 2023 et l’arrivée de ChatGPT. Suite à l’émission de radio, nous avons pris un temps de relecture d’autres travaux, révélant l’usage, moins évident, sans rôle principal pour John Doe, mais néanmoins régulier, d’IAG. Les échanges avec les collègues et les étudiants confirment également cette généralisation.

Par ailleurs, les étudiants forment un modèle raisonnable pour notre analyse. Ils sont assez représentatifs de la population UTCéenne, un étudiant étranger en reprise d’étude, deux étudiants tout juste sortis du lycée et un dernier en second semestre d’étude. Ces étudiants sont tout ce même tous les quatre présents à l’UTC depuis moins d’un an, on pourra faire l’hypothèse que des personnes plus expérimentées auraient moins utilisées l’IAG… ou se seraient moins fait détectées.

Rappelons que l’entrée à l’UTC est fortement sélective, les étudiants qui entrent à l’UTC étaient tous des « premiers de la classe » au lycée. Je ne sais pas exactement quoi faire de cette information, on pourra penser que des bons élèves sont moins enclins à tricher, au contraire que ce qui a fait leur réussite est leur habitude à optimiser, ou encore que confrontés pour la première fois à des difficultés scolaires à l’UTC ils n’ont pas su bien réagir. Les échanges avec des élèves de terminale font penser que tous utilisent les IAG, élèves à l’aise avec leur scolarité ou non.

Il y avait néanmoins des raisons objectives de penser que dans le cadre du cours WE01 les étudiants auraient pu être moins enclins à l’usage d’un ChatGPT.

Un cas surprenant sur le fond

Sur le fond, le sujet même du cours porte sur une dimension critique vis-à-vis du numérique, des enjeux socio-techniques associées, avec, notamment une réflexion sur le capitalisme du surveillance et la captation des données par les GAFAM. Surtout, le cours comporte une partie consacrée à l’écriture scientifique, qui expose le concept de réfutabilité de Karl Popper ou encore… l’importance de vérifier et citer ses sources !

« Lorsqu’une ressource est pré-sélectionnée, vérifier et qualifier la source permet de pré-évaluer la fiabilité de la ressource. »
Cours de WE01

Un cas surprenant sur la forme

Sur la forme, WE01 est un cours plutôt « cool », avec du travail horizontal et des méthodes assez proches de l’éducation populaire. Certains étudiants tutoient les profs ce qui assez inhabituel en début de cursus. On pourrait penser que l’idée de tricher dans ce contexte aurait posé des freins moraux. Enfin le cours n’intégrait pas d’examen et la validation était assurée sur la base d’une « obligation de moyen » : être présent, faire le job honnêtement. Tricher dans ce contexte était surprenant.

Une hypothèse néanmoins est que nous avons insisté sur le caractère « pour de vrai » des exercices proposés : articles publiés sur le web et communiqués via les médias sociaux, passage en direct à la radio. Peut-être avons nous réussi, en quelque sorte, sur ce point, et que leur interprétation du « pour de vrai » a impliqué pour eux, in fine, une obligation de résultat, quelques soient les moyens.

IA embarquée

Une hypothèse complémentaire est que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont plus aptes à en évaluer les conséquences pour eux. Il se retrouvent à tricher et prendre des risques importants pour leur scolarité dans un contexte avec très peu de pression scolaire et dans un cadre relationnel de confiance. C’est donc à la fois une très mauvaise évaluation bénéfices/risques et une mauvaise attitude vis-à-vis de leur propre sens éthique.

Je pense que cet usage est fortement généralisé à l’UTC, ce qui les dédouane un peu et nous interroge fortement en retour ; leur erreur est un usage tellement médiocre qu’ils ont laissé passer une ou deux fausses références grossières, mais nous aurions pu ne pas nous en apercevoir, et nous pensons que ça a été le cas pour d’autres groupes.

Je fais l’hypothèse que ces habitudes ont été ancrées au lycée et même qu’ils ont perdu des compétences de rédaction et de travail en groupe que nous attendons de leur part (et cela peut nous interroger, peut-être encore plus que nous le faisons déjà, sur les conséquences à l’UTC). Cela va plus vite de faire faire par ChatGPT, que de s’installer et prendre un temps pour partager un espace de travail à plusieurs. Donc : ça vaut le coup. Ils ne se sont pas « fait prendre » ou n’ont pas subi de conséquences importantes jusque-là. Donc : ça marche.

Effets de constitutivité technique (quelques réflexions)

Thèse TAC

La thèse TAC, pour Technologie Anthropologiquement Constitutive, formalisée à l’Université de Technologie de Compiègne, trouve son origine dans les travaux des anthropologues et philosophes André Leroi-Gourhan, Gilbert Simondon ou Bernard Stiegler. Une hypothèse fondatrice de cette théorie est que les humains et les objets techniques forment un couplage indissociable, dès l’origine. On abandonne l’idée que l’humain précède et surplombe la technique, que celle-ci n’est que le simple produit du travail ou de l’intelligence humaine, postérieure à une humanité qui en serait indépendante (Steiner, 2010).

La technique n’est pas un élément extérieur à l’humanité, mais la façon même dont celle-ci conçoit le monde. Les trains modifient la proximité entre les villes selon les connexions existantes ou non, la lumière artificielle modifie les cycles du jour et de la nuit, ou celui des saisons, les voyages spatiaux permettent d’imaginer exploiter des ressources situées dans l’espace ou se réfugier une autre planète si la terre n’est plus habitable.

Technique non neutre

Les objets techniques portent en leurs propriétés physiques des possibles et des probables. Le couteau, dur, pointu, solide, avec une lame d’une certaine taille embarque le geste de planter. Une propriété fondamentale du téléphone portable est qu’il est… portable. Sa taille, son autonomie, son mode de préhension rendent sa présence permanente au côté de l’humain aisée, naturelle en quelque sorte.

La technique n’est donc jamais neutre puisqu’elle configure notre rapport au monde. Nos usages, nos intentions, nos projets, ce que l’on veut faire, sont déjà, au moins en partie, pré-configurés par l’accès au monde rendu possible via la technique. La technique n’est pas neutre non plus car ceux qui la développent ne sont pas neutres. Les concepteurs d’une technique ont des représentations du monde qui sous-tendent ce pourquoi il veulent la faire advenir, ils visent un objectif qui est souhaitable, bon, selon eux. (Steiner, 2024)

Raison computationnelle

Écrire avec un ordinateur, c’est écrire avec une machine à calculer. Donc, à un moment ou un autre, on a envie de la faire calculer. J’ai fait de l’ingénierie documentaire pendant 20 ans, l’objectif de mes travaux via la conception de chaîne éditoriales était d’automatiser, de calculer donc, des tâches de manipulation documentaires (Crozat, 2007). Parce que l’on considère que la mise en forme n’est pas une étape créative, qu’elle n’a pas de réelle valeur ajoutée, que l’on peut la déléguer à la machine. Je me souviens, tout de même, avoir croisé des éditeurs, des artisans de la mise en forme, qui n’étaient pas d’accord. Je devais penser qu’ils étaient rétrogrades, qu’ils s’accrochaient à un savoir-faire en voie de disparition. On dirait, à présent que c’est moi qui m’accroche…

En tous cas, en fin de compte, puisque la technique n’est pas neutre, ce qui compte c’est de se demander ce que le numérique en général, et l’utilisation de l’IA en particulier fait à notre pensée. Dans le lignée de Jack Goody, Bruno Bachimont (2000) parle de raison computationnelle pour désigner ces transformations induites par l’usage du numérique.

Pharmakon

La technique pose toujours problème, c’est par essence un pharmakon, un remède en même temps qu’un poison, au sens qu’a réactivé Bernard Stiegler depuis Platon). Par exemple, l’écriture est un remède aux limites de la mémoire humaine, en même temps, ce qui amoindrit cette mémoire. L’informatique permet d’objectiver des impacts socio-écologiques tout en engendrant de nouveaux impacts socio-écologiques.

« [Platon] décrit alors l’écriture alors comme un pharmakon, mot grec signifiant à la fois le remède et le poison : à la fois remède pour la mémoire, car elle permet de stocker et de conserver les connaissances accumulées, mais aussi poison pour la pensée, car en fixant les connaissances et en épargnant aux individus de se les remémorer, l’écriture empêche leur mémoire de s’exercer. Bref, l’écriture, qui semblait innocente et bénéfique, a aussi de quoi inquiéter. »
(Alombert, 2023)

Prolétarisation

Un problème soulevé par l’usage des IAG qui doit être considéré en contexte pédagogique est celui de la prolétarisation intellectuelle, phénomène déjà largement observé et étudié sur le plan des activités manuelles dans le cadre de l’industrialisation. La prolétarisation est « ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser) » (Petit, 2013).

« Passer une commande à une machine, aussi performante soit-elle, ne revient pas à exercer techniquement sa pensée ; au contraire, le savoir-écrire a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques, de même que les savoir-faire avaient été extériorisés dans les machines-outils sous forme d’automatismes mécaniques. De même que l’artisan privé de ses savoir-faire s’était vu prolétarisé. En perdant nos savoir-écrire, nous risquons de devenir des prolétaires de la pensée. »
(Alombert, 2023)

Anne Alombert (2025) précise que « nous risquons de perdre notre capacité à nous exprimer en la déléguant aux algorithmes et en nous contentant de lire bêtement les textes produits » et avec elle notre capacité non seulement de mémorisation, mais, peut-être surtout d’imagination.

Substitution

En tous cas, l’idée que la machine est un instrument de délégation des travaux humains pénibles est ancré depuis la période industrielle au moins, probablement depuis la révolution agraire. L’ordinateur est dédié aux tâches cognitives, certains trouveront les tâches d’écriture fastidieuses, il est logique que l’ordinateur soit alors mobilisé comme assistance. Puis, de l’assistance au remplacement il n’y a qu’un pas. L’histoire de l’industrie nous le montre également.

À ce stade, la question que l’on doit se poser, c’est quel sens cela a-t-il de former la lecture et à l’écriture dans un monde où les IAG savent faire ce travail infiniment plus rapidement ?

Apprendre à bien rédiger ses « prompts » ? (apprendre à bien visser des boulons…)

Une idée défendue par certains comme une évidence, puisqu’il faut bien vivre avec son temps, serait de faire évoluer les formations pour, non plus enseigner comment, par exemple, bien lire et écrire, mais plutôt comment bien utiliser les IAG pour faire ce travail à notre place. C’est aussi applicable à l’expression graphique ou à l’écriture de code informatique. S’il est raisonnable de penser, sur le modèle de l’artisanat, que certaines tâches intellectuelles continueront d’échapper à la machine, il est tout aussi raisonnable de penser, sur le modèle de la mécanisation des tâches manuelles déjà opérée, que le bon usage d’une machine avancée ne nécessitera pas de compétences avancées.

Ces 14 prompts ChatGPT vont te transformer en machine à productivité (LinkedIn, 2024)

 

Selon Jacques Ellul, c’est la recherche systématisée de l’efficacité qui est problématique, car elle vide de leur sens les tâches qui sont menées, transformant le pourquoi on fait en comment on fait le plus efficacement possible (Rognon, 2020). Ainsi, l’idée de faire évoluer nos cours vers des formations à l’usage des IAG pourrait bien impliquer une évolution de l’ingénierie, de la conception de machines donc, à un objectif amoindri, d’utilisation de machines, voire d’utilisation par les machines.

ChatGPT 1 – Nous 0

WE01 v2

Nous observons donc que les étudiants ne savent plus, en entrant à l’université, jouer le jeu de la lecture et de l’écriture, et qu’il le font faire, au moins en partie, par une IAG. D’autre part, nous nous questionnons sur l’intérêt même de défendre ce type de compétence quand on observe en aval que les ingénieurs mobilisent également massivement ces outils pour faire de la veille, produire des rapports ou des présentations. Eux non plus ne veulent plus ni lire ni n’écrire.

En attendant de mieux comprendre ce qui se passe et comment faire évoluer nos formations, nous avons procédé à quelques modifications. WE01 était intitulé « Écrire, communiquer et collaborer sur le web », nous le renommons « Questionner le Web » et le faisons évoluer en conséquence. Nous avons assoupli les exercices rédactionnels, décidés à être moins exigeants et à demander un travail plus modeste en volume. En contre-partie nous avons restitué un examen de contrôle des connaissances. L’objectif du cours devient alors moins de savoir écrire que de disposer d’éléments pour aider à se poser des questions et à remettre en cause les évidences du numérique, dans une logique technocritique.

Nous déconseillons l’usage des IAG tout en les autorisant. Nous imposons en revanche une prise de recul, inspirés par ce que notre collègue Hugues Choplin à développé à l’UTC dans le cadre de son cours IS04.

« Vous ajouterez une section IAG à votre projet pour spécifier si vous avez utilisé des IAG (ou des IA de correction, de traduction…) et si oui : Indiquez quelles IA ont été utilisées, pour quelles parties du travail et pour quelles raisons ; Reproduisez une copie des prompts et des résultats ; Indiquez si les résultats ont été retravaillés et comment. »
Extrait de la présentation du cours WE01 en 2025

Attendre, observer, agir, réagir

Nous réfléchissons à un cours WE02 « Questionner l’IA » qui serait un pendant de WE01, orienté vers l’IA donc. Nous avons pris la décision d’attendre deux ou trois ans pour cela, histoire de se donner de l’espace pour consacrer l’énergie nécessaire au suivi d’une actualité très dynamique. Histoire également de se donner un peu de temps pour mieux analyser les évolutions en amont au lycée, en aval dans le monde socio-économique, et à les initiatives prises dans l’enseignement supérieur. Histoire, peut-être, que le domaine se stabilise un peu… ou pas.

  • D’autres collègues du département TSH à l’UTC envisagent d’intégrer le questionnement de l’IA à leur enseignement. Un service d’IAG hébergée localement est expérimentée, afin, a minima de sortir de la dépendance aux géants étatsuniens (Poinsart, 2025).
  • L’association Picasoft de l’UTC et l’association Framasoft (dont je fais partie) ont signé le manifeste Hiatus, « une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle ».
  • L’association Framasoft a lancé le site Framamia, pour aider à suivre et comprendre, et pour faire des propositions alternatives dans le domaine de l’IAG, dans une perspective de littératie technique.

Ces diverses attitudes sont autant de pistes pour maintenir une attitude active et critique vis-à-vis d’un phénomène qui percute l’ensemble de la société et que nous ne pouvons ignorer dans l’enseignement supérieur. Même quand on ne s’y intéresse pas par plaisir, donc.

Khrys’presso du lundi 7 avril 2025

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

❌