Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 27 janvier 2025Flux principal

Revue de presse de l’April pour la semaine 4 de l’année 2025

Par : echarp
27 janvier 2025 à 17:43

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] Expliquer le Libre: le dessin animé «Ada et Zangemann» en version française

✍ Thierry Noisette, le samedi 25 janvier 2025.

Le dessin animé adapté de l’album jeunesse existe à présent en VF, une belle ressource pour initier aux principes des libertés informatiques.

[ZDNET] DeepSeek, une alternative open source qui surpasse OpenAI o1 pour bien moins cher

✍ Radhika Rajkumar, le mercredi 22 janvier 2025.

Une victoire pour l’open source? Avec son nouveau modèle R1, DeeSeek parvient à concurrence OpenAI o1 tout en proposant un tarif plus accessible.

[ITdaily.] Jetez Oracle: vaut-il mieux utiliser une base de données open source?

✍ Jens Jonkers, le mardi 21 janvier 2025.

Ouvert ou fermé? C’est une question décisive lors du choix d’une base de données et d’un système de gestion.

[Basta!] Quitter X, mais pour Mastodon ou BlueSky?

✍ Rachel Knaebel, le lundi 20 janvier 2025.

Avec le soutien de Musk à Trump et aux extrêmes droites européennes, un mouvement se forme pour quitter X/Twitter. Mastodon, réseau social non lucratif et respectueux des données, est la première alternative. Rencontre avec son responsable technique.

Et aussi:

[Les Petites Affiches] OpenStreetMap, la carto NO-LIMIT (€)

✍ Leslie Taupenas, le lundi 30 décembre 2024.

OpenStreetMap, ou OSM, est un projet collaboratif au service de tous, utilisé par un nombre croissant de personnes et acteurs à travers le monde. Cette gigantesque base de données cartographique contributive en open source (données ouvertes) a largement de quoi taquiner l’omnipotent Google Maps.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 3 de l’année 2025

Par : echarp
21 janvier 2025 à 01:15

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Journal du Net] Le fair source: nouvelle alternative pour éviter les pièges de l'open source

Le mercredi 15 janvier 2025.

Le fair source: nouvelle alternative pour éviter les pièges de l’open source Lancé par l’éditeur américain Sentry cet été, le fair source a été adopté par toute une myriade de start-up. Son principal bénéfice est de clarifier la position des entreprises mixant propriétaire et open source.

[La Tribune] La définition de l'IA open source résoudra un million de casse-tête

✍ Sylvain Rolland, le lundi 13 janvier 2025.

OPINION. Une définition étroite et peu rigoureuse de l’IA open source laisserait la porte ouverte à des entreprises comme Meta, qui pourraient changer de cap et cesser de publier des parties de leurs modèles d’IA si ceux-ci ne servent plus leurs intérêts. Un sujet crucial à l’approche du Sommet pour l’action sur l’IA, qui se tiendra en février. Par Mark Surman, président de Mozilla.

Et aussi:

[Next] Mastodon veut faire évoluer sa gouvernance pour protéger son indépendance

✍ Alexandre Laurent, le lundi 13 janvier 2025.

Mastodon annonce une évolution sous six mois de sa gouvernance, avec la volonté de se placer sous la protection d’une nouvelle organisation à but non lucratif localisée en Europe. Le réseau social décentralisé affiche dans le même temps la volonté de muscler ses opérations et lance un appel à soutien pour boucler un budget prévisionnel 2025 fixé à 5 millions d’euros.

Et aussi:

[EurActiv] Internal documents reveal Commission fears over Microsoft dependency

✍ Jacob Wulff Wold, le vendredi 10 janvier 2025.

European Commission officials fear that their heavy reliance on Microsoft constitutes a clear breach of EU data rules, according to internal Commission documents seen by Euractiv, which contradict the executive’s public statements on the matter.

Commentaires : voir le flux Atom ouvrir dans le navigateur

À partir d’avant-hierFlux principal

Revue de presse de l’April pour la semaine 2 de l’année 2025

Par : echarp
14 janvier 2025 à 04:13

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] La SNCF et l'Europe dans le train du logiciel libre

✍ Thierry Noisette, le samedi 11 janvier 2025.

Le groupe SNCF, qui réalise et collabore à plusieurs logiciels libres dont son jumeau numérique Open Source Railway Designer (OSRD), présente l’association Open Rail, née en 2024.

[Numerama] VLC lance une fonction attendue depuis longtemps par les fans de séries

✍ Hugo Bernard & Nicolas Lellouche, le jeudi 9 janvier 2025.

VLC va intégrer de l’IA générative dans son lecteur vidéo open-source. Le plus célèbre des logiciels français prépare un générateur automatique de sous-titres capable de parler plusieurs dizaines de langues.

Et aussi:

[Silicon] La Chine veut livrer un processeur Open Source cette année

✍ Matthieu Broersma, le mercredi 8 janvier 2025.

Le directeur de l’académie de recherche du gouvernement chinois promet un processeur haute performance basée sur la norme open source RISC-V.

[Next] La définition de l'IA ouverte divise encore le milieu

✍ Martin Clavey, le lundi 6 janvier 2025.

En octobre dernier, l’Open Source Initiative a publié la version 1.0 de sa définition de l’IA ouverte, mais des acteurs du milieu du logiciel libre n’en sont pas satisfaits. Ils s’organisent autour de Sam Johnston pour peser sur la définition qui sera utilisée en Europe lors du AI Action Summit organisé par l’Élysée les 10 et 11 février.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 1 de l’année 2025

6 janvier 2025 à 12:39

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Le Monde.fr] L'open source, l'armée de l'ombre du logiciel… et de l'Intelligence artificielle (€)

✍ Sophy Caulier, le dimanche 5 janvier 2025.

Alors que le raz de marée de l’IA repose largement sur eux, les «logiciels libres» souffrent d’un manque de visibilité et de reconnaissance en dehors du cercle des initiés. Malgré l’attrait qu’ils suscitent chez les géants du Web, leur avenir dépend en grande partie d’une communauté engagée, mais fragilisée.

[RFI] Qu'est-ce que la neutralité du net, ce principe fondamental sur lequel les États-Unis reviennent à nouveau?

✍ Aurore Lartigue, le samedi 4 janvier 2025.

Une cour d’appel américaine a mis fin, jeudi 2 janvier, au principe de «neutralité du net», censé garantir un accès égalitaire à internet. RFI fait le point sur les enjeux de cette notion au cœur du monde numérique.

Et aussi:

[ZDNET] Voici les logiciels libres qui pourraient bouleverser le marché de la gestion des incidents informatiques

✍ Tiernan Ray, le lundi 30 décembre 2024.

Les outils open-source comme Grafana Labs et les AIOps pilotés par l’IA bouleversent le secteur de la gestion des incidents. Ils remettent en question des logiciels comme PagerDuty et rationalisent la résolution des problèmes informatiques et la correction de code. Voici pourquoi c’est important.

[ZDNET] François Bayrou, les logiciels libres, Wikipédia et le vote électronique

✍ Thierry Noisette, le lundi 23 décembre 2024.

On sort les archives: quand l’actuel Premier ministre vantait le logiciel libre et Wikipédia, et s’opposait au vote électronique avant de le soutenir 13 ans plus tard.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 51 de l’année 2024

Par : echarp
24 décembre 2024 à 04:14

[LaDepeche.fr] Boé. Le niveau 5 du label Territoire Numérique Libre confirmé

Le samedi 21 décembre 2024.

Boé a une nouvelle fois reçu le niveau 5 du label Territoire Numérique Libre à l’occasion de la remise des prix organisée à Paris le mercredi 4 décembre dernier. Cette distinction, la plus haute décernée par l’Association des développeurs et utilisateurs de logiciels libres pour les administrations et les collectivités territoriales (ADULLACT) a été remise à Françoise Lebeau, adjointe déléguée à l’administration générale, personnel et développement numérique et Fatima Houdaïbi, responsable des services Informatiques. C’est est une reconnaissance à l’échelle nationale du niveau très élevé de la ville de Boé dans le Libre, c’est-à-dire dans l’usage de logiciels n’étant pas sous licence donc libres de droits.

[cio-online.com] Coût, sécurité et flexibilité: la bonne équation de la GenAI Open Source

✍ Maria Korolov, le mardi 17 décembre 2024.

Plus facilement personnalisables, plus transparents, moins chers: les modèles d’IA générative Open Source ont des arguments pour convaincre les DSI.

[Le Monde.fr] Gaël Varoquaux, vedette de l'intelligence artificielle et défenseur du logiciel libre (€)

Le samedi 14 décembre 2024.

L’informaticien et chercheur à l’Inria est l’expert français le plus cité dans les publications scientifiques portant sur l’IA. Avec Scikit-learn, un programme de machine learning dont il est le cocréateur, il a permis à des millions d’utilisateurs de faire «parler» plus facilement les données.

[Les Echos] L'IA open source, réponse européenne face à l'offensive américaine (€)

Le vendredi 13 décembre 2024.

Si elle sort du schéma classique où, tandis que l’Amérique innove et que la Chine imite, elle réglemente, l’Europe peut faire de gros progrès en IA. La solution est de favoriser l’IA open source, selon Alexandre Orhan, de Sia Partners.

[ZDNET] Avec l'éditeur Simvia, EDF se lance dans l'open source pour l'industrie

✍ Christophe Auffray, le mardi 10 décembre 2024.

EDF crée Simvia, un éditeur de logiciel spécialisé dans l’open source pour le calcul et la simulation en ingénierie industrielle.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Dévoilement de l'édition ConFoo 2025 !

10 décembre 2024 à 04:50

La conférence ConFoo est de retour pour sa 23e édition, du 26 au 28 février 2025 à l’Hôtel Bonaventure de Montréal !

logo confoo.ca

Avec plus de 190 présentations offertes par une centaine d’experts de partout à travers le monde, venez découvrir pourquoi Confoo est devenu l’un des événements phares pour les développeurs en Amérique du Nord et de partout à travers le monde.

Notre programmation officielle est d’ailleurs disponible dès maintenant sur notre site web! Consultez nos toutes nouvelles présentations axées sur le développement FullStack OpenSource, l’intelligence artificielle, le devops et plus encore. Organisé au cœur d’un environnement spécialement conçu pour les développeurs, ConFoo est aussi l’endroit parfait pour rencontrer de potentiels employeurs et réseauter avec les meilleurs de l’industrie.

Réservez vos billets dès maintenant et profitez d’un rabais de 175$ sur votre inscription jusqu’au 13 décembre !

Faites partie de l’aventure et découvrez comment l’intelligence humaine façonne le milieu des hautes technologies!

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 49 de l’année 2024

Par : echarp
10 décembre 2024 à 03:42

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Next] La fondation Linux pointe les plus gros problèmes dans l'utilisation du logiciel libre

✍ Vincent Hermann, le jeudi 5 décembre 2024.

La Linux Foundation a publié un rapport conséquent sur l’état de l’utilisation du logiciel libre dans les applications en production. Une prévalence importante, des développeurs loyaux, mais des pratiques de sécurité qui pourraient être améliorées.

[ZDNET] Les produits tech sont pensés pour tomber en panne, oui vous pouvez être furax

✍ Jason Perlow, le jeudi 5 décembre 2024.

Des batteries collées aux logiciels bloqués, vous payez plus que jamais pour des gadgets qui ne durent pas. Voici pourquoi et ce que l’on peut faire pour y remédier.

[ouest-france.fr] Pour Noël, cette association de Quimper propose des ordinateurs reconditionnés sous Linux

Le jeudi 5 décembre 2024.

À l’approche des fêtes de fin d’année, le centre des Abeilles et Linux Quimper (Finistère) proposent une solution engagée et responsable pour l’acquisition d’un ordinateur. Des machines reconditionnées sous Linux, accessibles pour une simple adhésion de 13 € au centre social.

[Le Monde Informatique] Open Source Experience: la délicate définition d'une IA ouverte

✍ Jacques Cheminat, le mercredi 4 décembre 2024.

Le salon Open Source Expérience vient de s’ouvrir à Paris autour de plusieurs sujets dont l’IA. La récente proposition de définition d’une IA open source par l’OSI a été l’occasion d’un débat entre plusieurs spécialistes.

[ZDNET] Libre et open source express: communs numériques éducatifs, logiciels libres de caisse, France Labs, Gimp

✍ Thierry Noisette, le samedi 30 novembre 2024.

En bref. Une Gazette pour la communauté scolaire. L’April contre des amendements frappant les logiciels de caisse sous licences libres. Neural Datafari de France Labs, lauréat de NGI Search. Gimp en 3.0.

[Next] HDH: le Conseil d'État valide l'hébergement des données de santé d'EMC2 chez Microsoft

✍ Vincent Hermann, le vendredi 22 novembre 2024.

Le Conseil d’État a tranché: la validation par la CNIL de l’entrepôt de données de santé EMC2 n’était pas un excès de pouvoir. Le Health Data Hub, qui en est à l’origine, va donc pouvoir laisser les données dans Azure. C’est la deuxième fois que le Conseil d’État rejette une demande liée à l’hébergement des données par le HDH.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Framamia : partageons des clés de compréhension de l’IA

Par : Framasoft
3 décembre 2024 à 04:33

Afin d’aider à démystifier le sujet de l’intelligence artificielle, Framasoft publie une première version du site Framamia. Définitions, enjeux, risques et questionnements : en partageant le savoir, nous espérons contribuer à reprendre le pouvoir sur ces technologies qui impactent nos sociétés. Et pour la mise en pratique, Framasoft publie en même temps l’application Lokas, que l’on présente ici.

🎈 Framasoft a 20 ans🎈 : Contribuez pour financer une 21e année !

Grâce à vos dons (défiscalisables à 66 %), l’association Framasoft agit depuis 20 ans pour faire avancer le Web éthique et convivial. Retrouvez un focus sur certaines de nos actions en 2024 sur le site Soutenir Framasoft.

➡️ Lire la série d’articles de cette campagne (nov. – déc. 2024)

Furby est presque en âge de voter : toute une Histoire

Depuis deux-trois ans, « ✨ L’IA™✨© » semble être le nouveau fourre-tout-tech à la mode qui fait vibrer la silicon valley, se répand dans les appels à projets publics, et sera oublié tout aussi rapidement (qui se souvient des NFT… ? Du web3… ? Y’a quelqu’un… ?).

Sauf que c’est plus compliqué que ça. À l’inverse des NFT et autres techno-lubies, l’intelligence artificielle est un domaine du numérique composé de nombreuses branches et disciplines (d’où l’impression de fourre tout).

Frise Chronologique de l'IA

Avec une histoire de plus de 70 ans, les expérimentations dans l’Intelligence artificielles sont déjà présentes dans nos quotidiens numériques. On peut imaginer Clippy (le trombone assistant numérique de Microsoft Office 97) comme l’ancêtre de Siri ou Alexa. Ou encore que les comportements de plus en plus réalistes des personnages de jeux vidéos sont l’héritage de DeepBlue (ordinateur qui bat le champion mondial Gary Kasparov aux échecs en 1997) ou des Furby (peluches parlantes créées en 1998)…

Photo d'un Furby

Cette peluche animatronique disposait de son propre langage et pouvait « apprendre » celui qu’on lui parlait.

Bref, notre histoire ne manque pas d’exemples pour montrer que les domaines de l’IA ont existé bien avant la popularisation des IA génératives comme Chat GPT et Dall-E (à explorer : ce poster, en anglais malheureusement, de la professeure de philosophie Danielle J. Williams).

 

Ni ✨magique✨, ni 😱apocalyptique😱… L’IA, c’est technique

Au delà de cette histoire, notre culture est remplie de mythes et clichés narratifs où la machine devient plus humaine que les humains. Du Golem à Wall-E, de HAL (2001, l’Odyssée de l’espace) à Skynet (Terminator), notre propension à vouloir humaniser des bouts de minéraux et impulsions électriques a inspiré bien des œuvres.

Présentes dans nos cultures et nos esprits, ces histoires jouent souvent sur la magie de la compassion, l’émerveillement de voir une création se doter d’empathie… ou sur le pêché de démiurgie, se prendre pour l’égal de Dieu en créant la vie, et déclencher ainsi une apocalypse vengeresse.

Gif tiré d'Edward aux mains d'argent, où un vieil homme place un biscuit en forme de cœur sur une machine de patisserie.

À l’origine, « Edward aux mains d’argents » est un robot à pâtisserie. – © 20th Century Fox / Tim Burton

Or les chantres des entreprises de l’IA générative jouent justement sur ces mythes de « l’IA Miraculeuse » (qui va résoudre le problème de l’urgence écologique, selon Éric Schmidt, ancien directeur de Google) ou de l’IA apocalyptique (qui risque de détruire l’humanité sans que l’on sache vraiment comment, à en croire Sam Altman, directeur d’OpenAI).

Présenter l’IA comme un unique personnage légendaire tour à tour salvateur et destructeur permet d’appuyer l’argument de laisser leurs entreprises faire le bien© sans entraves, et de réguler les autres (la concurrence) qui pourraient faire advenir le mal©.

L’IA c’est technique, donc politique

Or l’IA, c’est avant tout des technologies numériques. On parle de code développé par des humains, dirigés par d’autres humains, qui ont prit des décisions en fonction de leurs motivations et leurs idéologies.

Par exemple : vous ne créerez pas la même plateforme vidéo, vous n’y développerez pas les mêmes fonctionnalités si votre objectif est de faire croître le chiffre d’affaire de votre entreprise en exploitant les vidéastes et leur audience ; ou si votre but est de favoriser le partage du savoir et de la culture entre pairs. Les motivations sont différentes car les modèles idéologiques (le capitalisme de surveillance pour YouTube/Twitch, les communs numériques pour PeerTube) sont différents.

Un outil n’est pas neutre. Les outils numériques, complexes et organisant nos partages entre humains, sont donc éminemment politiques.

À Framasoft, nous fêtons les 10 ans de Dégooglisons Internet, dix années riches d’expériences et de leçons. Nous avons vu la généralisation des services en ligne. Cet internet de plateformes a sécurisé les monopoles des géants du web, qui sont devenus les hérauts et garants du capitalisme de surveillance.

Illustration « Quittons la planète GAFAM NATU BATX », CC BY David Revoy

Illustration de David Revoy – Licence : CC-By 4.0

Une des forces de ce système a été d’arriver à nous faire croire que l’outil numérique est neutre, qu’il est magique, que c’est très très très compliqué de nous l’expliquer, à nous pauvres consommateurs. Et puis de toutes façons, c’est de notre faute aussi : il a bien lu les conditions générales, elle a cliqué sur « tout accepter », iel reste libre de ne pas utiliser ces outils.

En individualisant la responsabilité sur des outils qu’il ne faut pas chercher à comprendre (de toutes façons ils sont neutres, qu’on vous dit !), il n’est plus possible de faire des choix collectifs sur la société que l’on désire.

Framamia, here we go again !

Voilà quelques années qu’à Framasoft, on se penche, on discute, on se trompe et on apprend sur le boom des intelligences artificielles. Les échanges sont nombreux, et nous partageons même une veille sur le sujet.

Aujourd’hui, Framasoft publie Framamia : un site où nous partageons des clés de compréhension sur l’intelligence artificielle, ainsi que des extraits de notre veille.

Vous y trouverez des définitions, des informations, des enjeux identifiés pour nos sociétés et notre environnement, et enfin des questionnements… Autant de bouts de savoirs que nous proposons pour que chacune et chacun puisse se construire un avis éclairé et le partager avec ses proches.

Partager la connaissance sur un sujet, c’est partager le pouvoir de l’appréhender individuellement et de l’influencer collectivement.

capture d'écran de l'entête du site framamia.org

Cliquer pour visiter le site Framamia.

Notez bien qu’il s’agit là d’un premier jet, d’une première tentative de partage autour des intelligences artificielles, et plus précisément des intelligences artificielles génératives qui se multiplient aujourd’hui.

Nous ne prétendons pas que Framamia est parfait, que les informations sont compréhensibles par une personne qui ne s’y connaît pas, ou que le site soit gravé dans le marbre. Nous espérons pouvoir améliorer cet outil informatif avec le temps.

Visiter Framamia Soutenir FramamIA et Framasoft

Jeter le Clippy avec l’eau (…K Google) du bain ?

Si l’histoire du numérique semble se répéter, nous avons envie de partager quelques leçons que nous en avons tirées. Nous espérons contribuer à sortir des clichés tels que « Le cloud L’IA c’est magique », « Google OpenAI est ton ami », « roh là là regarde c’est meugnon Siri CharacterAI a halluciné », « si tu utilises Amazon Dall-E c’est ta faute et je te juge… »

Pour le capitalisme de surveillance comme pour le capitalisme algorithmique, l’enjeu ne se situe pas sur tel ou tel outil, ni sur le choix de Camille Dupuis-Morizeau de l’utiliser ou le boycotter. L’enjeu est systémique : c’est celui du monde dans lequel nous voulons collectivement vivre, et comment les citoyennes peuvent collectivement reprendre le pouvoir de le choisir.

S’il semble impossible de poser, a posteriori, un moratoire sur les larges modèles de langage et les IA génératives, peut-on sortir ces outils du capitalisme algorithmique et les utiliser pour le bien commun ?

Mème Clippy « avez-vous besoin d'aide pour déclencher l'apocalypse ? »

« avez-vous besoin d’aide pour déclencher l’apocalypse ? »… merci Clippy.

On le sait : transcrire des voix en texte permet de rendre vidéos et podcasts accessibles aux personnes sourdes, ajouter une description textuelle des images que nous partageons sert aux personnes aveugles qui utilisent un lecteur d’écran.

Au delà de l’accessibilité, tout le monde ne maîtrise pas l’outil numérique : savoir formuler efficacement sa demande sur un moteur de recherche, écrire un objet d’email plus informatif et facile à retrouver que « Quelques nouvelles………… » Tout le monde n’est pas en capacité de s’adapter aux outils numériques. Pouvoir adapter les interfaces aux humains et à leurs langages naturels pourrait réduire la fracture numérique.

Encore faut-il peser les coûts (humains, techniques, écologiques) de tels projets, choisir collectivement si c’est ce que l’on désire et enfin s’en donner les moyens.

Expérimenter une IA des communs… ? Voici Lokas !

La question « Pour ou contre l’IA ? » ressemble à un piège, un faux débat qui nous isole les unes des autres. À Framasoft, nous n’avons pas (souvent) de réponses, mais beaucoup de questions qui nous semblent bien plus enthousiasmantes.

Une IA des Communs est-elle possible ? A quoi ressemblerait-elle ? Est-ce seulement souhaitable ? Quels en seraient les compromis et les conséquences ? Pour travailler de telles questions, nous avons eu envie d’expérimenter.

En parallèle de FramamIA, Framasoft publie dès aujourd’hui Lokas. Lokas est une application mobile (Android et iOS) qui permet d’enregistrer une réunion, afin d’obtenir une transcription.

captures d'écran de l'application Lokas avec les trois étapes : enregistrement, édition du transcript, détail du temps de parole

Cliquez pour découvrir et obtenir Lokas

Attention, Lokas est un prototype : c’est une démo limitée, mais fonctionnelle.  Nous avions envie de voir quelle forme prendrait un outil fait par une association sans but lucratif, aux moyens limités, souhaitant être utile au bien commun, en transparence et en limitant l’impact.

Nous avons hâte d’avoir vos retours sur une telle démarche, afin de voir s’il faut s’avancer dans cette voie, ou conclure l’expérimentation.

Lire une présentation complète de Lokas sur le Framablog

Obtenir Lokas Soutenir Framasoft

 

Le défi : 20 000 fois 20 € de dons pour les 20 ans de Framasoft !

Framasoft est financée par vos dons ! Chaque tranche de 20 euros de dons sera un nouveau ballon pour célébrer 20 d’aventures et nous aider à continuer et décoller une 21e année.

Framasoft, c’est un modèle solidaire :

  • 8000 donatrices en 2023 ;
  • plus de 2 millions de bénéficiaires chaque mois ;
  • votre don (défiscalisable à 66 %) peut bénéficier à 249 autres personnes.

jauge de dons au 3 décembre 2024 à 58 625 €

À ce jour, nous avons collecté 58 625 € sur notre objectif de campagne. Il nous reste 29 jours pour convaincre les copaines et récolter de quoi faire décoller Framasoft.

Alors : défi relevé ?

Visiter Framamia 🎈 Je soutiens la 21e année de Framasoft 🎈

C’est pas de l’IA, c’est de l’exploitation dernier cri

Par : robinson
29 novembre 2024 à 09:39

Après deux ans passés à diversifier ses champs d’action, La Quadrature du Net s’attaque désormais à un nouveau front : la lutte contre le déferlement de l’intelligence artificielle (IA) dans tous les pans de la société. Pour continuer à faire vivre la critique d’une politique numérique autoritaire et écocide, La Quadrature a plus que jamais besoin de votre soutien en 2025.

Depuis plusieurs années, en lien avec d’autres collectifs en France et en Europe, nous documentons les conséquences sectorielles très concrètes de l’adoption croissante de l’intelligence artificielle : à travers les campagnes Technopolice et France Contrôle, ou encore plus récemment avec des enquêtes pour documenter l’impact environnemental des data centers qui accompagnent la croissance exponentielle des capacités de stockage et de calcul.

Une triple accumulation capitaliste

Ces derniers mois, suite à la hype soudaine de l’intelligence artificielle générative et des produits comme ChatGPT, nous assistons à une nouvelle accélération du processus d’informatisation, sous l’égide des grandes entreprises et des États complices. Or, cette accélération est la conséquence directe de tout ce qui pose déjà problème dans la trajectoire numérique dominante. D’abord, une formidable accumulation de données depuis de nombreuses années par les grandes multinationales de la tech comme Google, Microsoft, Meta ou Amazon, qui nous surveillent pour mieux prédire nos comportements, et qui sont désormais capables d’indexer de gigantesques corpus de textes, de sons et d’images en s’appropriant le bien commun qu’est le Web.

Pour collecter, stocker et traiter toutes ces données, il faut une prodigieuse accumulation de ressources. Celle-ci transparaît via les capitaux, d’abord : l’essor de la tech, dopée au capitalisme de surveillance, a su s’attirer les faveurs des marchés financiers et profiter de politiques publiques accommodantes. Grâce à ces capitaux, ces entreprises peuvent financer une croissance quasi-exponentielle de la capacité de stockage et de calcul de données nécessaire pour entraîner et faire tourner leurs modèles d’IA, en investissant dans des puces graphiques (GPU), des câbles sous-marins et des data centers. Ces composants et infrastructures nécessitant à leur tour des quantités immenses de terres et métaux rares, d’eau et d’électricité.

Lorsqu’on a en tête cette triple accumulation — de données, de capitaux, de ressources —, on comprend pourquoi l’IA est le produit de tout ce qui pose déjà problème dans l’économie du numérique, et en quoi elle aggrave la facture. Or, le mythe marketing (et médiatique) de l’intelligence artificielle occulte délibérément les enjeux et les limites intrinsèques à ces systèmes, y compris pour les plus performants d’entre eux (biais, hallucinations, gabegie des moyens nécessaires à leur fonctionnement).

L’exploitation au carré

L’emballement politico-médiatique autour de l’IA fait l’impasse sur les effets concrets de ces systèmes. Car bien loin de résoudre les problèmes actuels de l’humanité grâce à une prétendue rationalité supérieure qui émergerait de ses calculs, « l’IA » dans ses usages concrets amplifie toutes les injustices existantes. Dans le champ économique, elle se traduit par l’exploitation massive et brutale des centaines de milliers de « travailleur·euses de la donnée » chargées d’affiner les modèles et de valider leurs résultats. En aval, dans les organisations au sein desquelles ces systèmes sont déployés, elle induit une nouvelle prise de pouvoir des managers sur les travailleur·euses afin d’augmenter la rentabilité des entreprises.

Certes, il existe des travailleur·euses relativement privilégié·es du secteur tertiaire ou encore des « classes créatives » qui y voient aujourd’hui une opportunité inespérée de « gagner du temps », dans une société malade de la course à la productivité. C’est une nouvelle « dictature de la commodité » : à l’échelle individuelle, tout nous incite à être les complices de ces logiques de dépossession collective. Plutôt que de libérer les salarié⋅es, il y a fort à parier que l’automatisation du travail induite par le recours croissant à l’IA contribuera, en réalité, à accélérer davantage les cadences de travail. Comme ce fut le cas lors des précédentes vagues d’informatisation, il est probable que l’IA s’accompagne également d’une dépossession des savoirs et d’une déqualification des métiers qu’elle touche, tout en contribuant à la réduction des salaires, à la dégradation des conditions de travail et à des destructions massives d’emploi qualifiés — aggravant du même coup la précarité de pans entiers de la population.

Dans le secteur public aussi, l’IA accentue l’automatisation et l’austérité qui frappent déjà les services publics, avec des conséquences délétères sur le lien social et les inégalités. L’éducation nationale, où sont testées depuis septembre 2024 et sans aucune évaluation préalable, les IA « pédagogiques » d’une startup fondée par un ancien de Microsoft, apparaît comme un terrain particulièrement sensible où ces évolutions sont d’ores et déjà à l’œuvre.

Défaire le mythe

Pour soutenir le mythe de l’« intelligence artificielle » et minimiser ses dangers, un exemple emblématique est systématiquement mis en exergue : elle serait capable d’interpréter les images médicales mieux qu’un œil humain, et de détecter les cancers plus vite et plus tôt qu’un médecin. Elle pourrait même lire des résultats d’analyses pour préconiser le meilleur traitement, grâce à une mémoire encyclopédique des cas existants et de leurs spécificités. Pour l’heure, ces outils sont en développement et ne viennent qu’en appoint du savoir des médecins, que ce soit dans la lecture des images ou l’aide au traitement.

Quelle que soit leur efficacité réelle, les cas d’usage « médicaux » agissent dans la mythologie de l’IA comme un moment héroïque et isolé qui cache en réalité un tout autre programme de société. Une stratégie de la mystification que l’on retrouve aussi dans d’autres domaines. Ainsi, pour justifier la surveillance des communications, les gouvernements brandissent depuis plus de vingt ans la nécessité de lutter contre la pédocriminalité, ou celle de lutter contre le terrorisme. Dans la mythologie de la vidéosurveillance algorithmique policière (VSA), c’est l’exemple de la petite fille perdue dans la ville, et retrouvée en quelques minutes grâce au caméras et à la reconnaissance faciale, qui est systématiquement utilisé pour convaincre du bien fondé d’une vidéosurveillance totale de nos rues.

Il faut écarter le paravent de l’exemple vertueux pour montrer les usages inavouables qu’on a préféré cacher derrière, au prix de la réduction pernicieuse des libertés et des droits. Il faut se rendre compte qu’en tant que paradigme industriel, l’IA décuple les méfaits et la violence du capitalisme contemporain et aggrave les exploitations qui nous asservissent. Qu’elle démultiplie la violence d’État, ainsi que l’illustre la place croissante accordée à ces dispositifs au sein des appareils militaires, comme à Gaza où l’armée israélienne l’utilise pour accélérer la désignation des cibles de ses bombardements.

Tracer des alternatives

Au lieu de lutter contre l’IA et ses méfaits, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter l’hégémonie de la tech. C’est notamment le cas du AI Act ou « règlement IA », pourtant présenté à l’envi comme un rempart face aux dangers de « dérives » alors qu’il cherche à déréguler un marché en plein essor. C’est qu’à l’ère de la Startup Nation et des louanges absurdes à l’innovation, l’IA apparaît aux yeux de la plupart des dirigeants comme une planche de salut, un Graal qui serait seul capable de sauver l’Europe d’un naufrage économique.

Encore et toujours, c’est l’argument de la compétition géopolitique qui est mobilisé pour faire taire les critiques : que ce soit dans le rapport du Comité gouvernemental dédié à l’IA générative ou dans celui de Mario Draghi, il s’agit d’inonder les multinationales et les start-ups de capitaux, pour permettre à l’Europe de rester dans la course face aux États-Unis et à la Chine. Ou comment soigner le mal par le mal, en reproduisant les erreurs déjà commises depuis plus de quinze ans : toujours plus d’« argent magique » pour la tech, tandis que les services publics et autres communs sont astreints à l’austérité. C’est le choix d’un recul des protections apportées aux droits et libertés pour mieux faire proliférer l’IA partout dans la société.

Ces politiques sont absurdes, puisque tout laisse à penser que le retard industriel de l’Europe en matière d’IA ne pourra pas être rattrapé, et que cette course est donc perdue d’avance. Surtout, ces politiques sont dangereuses dans la mesure où, loin de la technologie salvatrice souvent mise en exergue, l’IA accélère au contraire le désastre écologique, amplifie les discriminations et accroît de nombreuses formes de dominations. Le paradigme actuel nous enferme non seulement dans une fuite en avant insoutenable, mais il nous empêche aussi d’inventer une trajectoire politique émancipatrice en phase avec les limites planétaires.

L’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Face au consensus mou qui conforte un système capitaliste dévastateur, nous voulons contribuer à organiser la résistance et à esquisser des alternatives. Mais pour continuer notre action en 2025, nous avons besoin de votre soutien. Alors si vous le pouvez, rendez-vous sur www.laquadrature.net/donner !

Revue de presse de l’April pour la semaine 46 de l’année 2024

Par : echarp
20 novembre 2024 à 03:27

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[cio-online.com] Avant de coder avec l'IA, il faut débuguer le risque juridique

✍ Grant Gross, le vendredi 15 novembre 2024.

Les développeurs qui utilisent l’IA pour écrire du code peuvent enfreindre les droits d’auteur ou les licences Open Source, exposant ainsi leurs employeurs.

[ZDNET] L'open source riposte contre les patent troll: 'Nous ne nous laisserons plus contrôler'

✍ Steven Vaughan-Nichols, le vendredi 15 novembre 2024.

Les entreprises qui utilisent des projets open-source comme Kubernetes sont de plus en plus souvent la cible de patent trolls. La communauté open source lance une contre-offensive. Et recherche des volontaires.

[Numerama] 20 ans après, GIMP va enfin recevoir une mise à jour majeure

✍ Julien Lausson, le mardi 12 novembre 2024.

Les libristes l’attendaient depuis longtemps: la nouvelle mise à jour majeure de GIMP arrive. Le logiciel libre va prochainement passer en version 3.0, vingt ans après la version 2.0. Entre temps, quelques moutures intermédiaires étaient sorties. C’est l’histoire d’un logiciel libre qui n’avait pas reçu de version

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 44 de l’année 2024

Par : echarp
5 novembre 2024 à 00:24

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[LaDepeche.fr] Livre. Un guide sur les logiciels libres pour rependre le contrôle de nos usages numériques

✍ Philippe Rioux, le dimanche 3 novembre 2024.

Le journaliste Thierry Pigot publie un “Guide pratique des logiciels libres. L’informatique du quotidien pour le particulier et le professionnel” aux éditions du Puits Fleuri. Un ouvrage didactique qui montre que la vie numérique peut s’organiser hors des logiciels payants.

[Next] IA générative et open source: les services du gouvernement proposent leur grille de lecture

✍ Martin Clavey, le jeudi 31 octobre 2024.

Alors que l’Open Source Initiative (OSI) a publié sa définition de l’IA open source, les services du gouvernement français publient un comparateur d’ouverture de ce genre de modèles pour aider à s’y retrouver et à choisir son modèle en fonction des différents critères d’ouverture.

Et aussi:

[ouest-france.fr] Les informations de Wikipédia sont-elles vérifiées et sûres? On vous répond

✍ Antoine Masson, le lundi 28 octobre 2024.

Créé en 2001, Wikipédia est aujourd’hui un élément incontournable dans la recherche d’informations pour de nombreuses personnes. Aujourd’hui, le site regroupe plus de 58 millions d’articles et est traduit en près de 300 langues différentes. Cependant, les informations données par Wikipédia sont-elles toutes fiables? On vous explique.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 43 de l’année 2024

Par : echarp
29 octobre 2024 à 02:54

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[clubic.com] Quand la géopolitique se mêle de l'open source: Linux se sépare de ses contributeurs russes

✍ Naïm Bada, le dimanche 27 octobre 2024.

La guerre en Ukraine et les sanctions internationales contre la Russie ont des répercussions inattendues. Le projet open source Linux vient en effet de retirer une douzaine de contributeurs russes de la liste officielle des maintainers du noyau, suscitant un vif débat au sein de la communauté.

[ZDNET] IBM redouble d'efforts en matière d'IA open source avec de nouveaux modèles Granite 3.0

Le mercredi 23 octobre 2024.

Les grands modèles de langage Granite de Big Blue conçus pour les entreprises sont désormais disponibles sous licence Apache 2.0.

[cio-online.com] Supply chain logicielle: explosion des composants open source malveillants en 2024

✍ Lucian Constantin, le mercredi 23 octobre 2024.

L’écosystème open source voit bondir le nombre de composants logiciels malveillants. Un signal d’alarme pour la supply chain logicielle.

[Next] Du code propriétaire dans le projet GNU Boot, les difficultés du libre face au matériel courant

✍ Vincent Hermann, le lundi 21 octobre 2024.

Le projet GNU Boot est bien embêté: pour la deuxième fois en moins d’un an, l’équipe de développement s’est retrouvée à pousser du code propriétaire dans leur logiciel. Problème, le projet se veut 100 % libre. Le cas illustre la difficulté du monde open source et libre à prévoir du support matériel avec les marques courantes.

[Numerama] L'avenir open source de Bitwarden a connu une frayeur

✍ Julien Lausson, le lundi 21 octobre 2024.

Figurant parmi les gestionnaires de mots de passe les plus connus, Bitwarden a aussi pour particularité de reposer sur la philosophie de l’open source (code source ouvert). Mais ces jours-ci, des éléments ont suscité l’inquiétude. Avant que le fondateur ne prenne la parole.

[ZDNET] Un 'Guide pratique des logiciels libres' pour une logithèque idéale

✍ Thierry Noisette, le lundi 21 octobre 2024.

Cet ouvrage présente les avantages et enjeux du Libre, et une vingtaine de logiciels libres de référence dans différents domaines.

Commentaires : voir le flux Atom ouvrir dans le navigateur

L’IA Open Source existe-t-elle vraiment ?

Par : Framalang
31 octobre 2024 à 05:10

À l’heure où tous les mastodontes du numérique, GAFAM comme instituts de recherche comme nouveaux entrants financés par le capital risque se mettent à publier des modèles en masse (la plateforme Hugging Face a ainsi dépassé le million de modèles déposés le mois dernier), la question du caractère « open-source » de l’IA se pose de plus en plus.

Ainsi, l’Open Source Initiative (OSI) vient de publier une première définition de l’IA Open-Source, et la Linux Foundation (dont le nom peut prêter à confusion, mais qui ne représente surtout qu’une oligarchie d’entreprises du secteur) s’interroge également sur le terme.

Au milieu de tout cela, OpenAI devient de manière assez prévisible de moins en moins « open », et si Zuckerberg et Meta s’efforcent de jouer la carte de la transparence en devenant des hérauts de l’« IA Open-Source », c’est justement l’OSI qui leur met des bâtons dans les roues en ayant une vision différente de ce que devrait être une IA Open-Source, avec en particulier un pré-requis plus élevé sur la transparence des données d’entraînement.

Néanmoins, la définition de l’OSI, si elle embête un peu certaines entreprises, manque selon la personne ayant écrit ce billet (dont le pseudo est « tante ») d’un élément assez essentiel, au point qu’elle se demande si « l’IA open source existe-t-elle vraiment ? ».

Note : L’article originel a été publié avant la sortie du texte final de l’OSI, mais celui-ci n’a semble t-il pas changé entre la version RC1 et la version finale.

L’IA Open Source existe-t-elle vraiment ?

Par tante, sous licence CC BY-SA (article originel).
Une traduction Framalang par tcit et deux contributeur·ices anonymes.
Photo de la bannière par Robert Couse-Baker.

 

 

L’Open Source Initiative (OSI) a publié la RC1 (« Release Candidate 1 » signifiant : cet écrit est pratiquement terminé et sera publié en tant que tel à moins que quelque chose de catastrophique ne se produise) de la « Définition de l’IA Open Source ».

D’aucuns pourraient se demander en quoi cela est important. Plein de personnes écrivent sur l’IA, qu’est-ce que cela apporte de plus ? C’est la principale activité sur LinkedIn à l’heure actuelle. Mais l’OSI joue un rôle très particulier dans l’écosystème des logiciels libres. En effet, l’open source n’est pas seulement basé sur le fait que l’on peut voir le code, mais aussi sur la licence sous laquelle le code est distribué : Vous pouvez obtenir du code que vous pouvez voir mais que vous n’êtes pas autorisé à modifier (pensez au débat sur la publication récente de celui de WinAMP). L’OSI s’est essentiellement chargée de définir parmi les différentes licences utilisées partout lesquelles sont réellement « open source » et lesquelles sont assorties de restrictions qui sapent cette idée.

C’est très important : le choix d’une licence est un acte politique lourd de conséquences. Elle peut autoriser ou interdire différents modes d’interaction avec un objet ou imposer certaines conditions d’utilisation. La célèbre GPL, par exemple, vous permet de prendre le code mais vous oblige à publier vos propres modifications. D’autres licences n’imposent pas cette exigence. Le choix d’une licence a des effets tangibles.

Petit aparté : « open source » est déjà un terme un peu problématique, c’est (à mon avis) une façon de dépolitiser l’idée de « Logiciel libre ». Les deux partagent certaines idées, mais là où « open source » encadre les choses d’une manière plus pragmatique « les entreprises veulent savoir quel code elles peuvent utiliser », le logiciel libre a toujours été un mouvement plus politique qui défend les droits et la liberté de l’utilisateur. C’est une idée qui a probablement été le plus abimée par les figures les plus visibles de cet espace et qui devraient aujourd’hui s’effacer.

Qu’est-ce qui fait qu’une chose est « open source » ? L’OSI en dresse une courte liste. Vous pouvez la lire rapidement, mais concentrons-nous sur le point 2 : le code source :

Le programme doit inclure le code source et doit permettre la distribution du code source et de la version compilée. Lorsqu’une quelconque forme d’un produit n’est pas distribuée avec le code source, il doit exister un moyen bien connu d’obtenir le code source pour un coût de reproduction raisonnable, de préférence en le téléchargeant gratuitement sur Internet. Le code source doit être la forme préférée sous laquelle un programmeur modifierait le programme. Le code source délibérément obscurci n’est pas autorisé. Les formes intermédiaires telles que la sortie d’un préprocesseur ou d’un traducteur ne sont pas autorisées.
Open Source Initiative

Pour être open source, un logiciel doit donc être accompagné de ses sources. D’accord, ce n’est pas surprenant. Mais les rédacteurs ont vu pas mal de conneries et ont donc ajouté que le code obfusqué (c’est-à-dire le code qui a été manipulé pour être illisible) ou les formes intermédiaires (c’est-à-dire que vous n’obtenez pas les sources réelles mais quelque chose qui a déjà été traité) ne sont pas autorisés. Très bien. C’est logique. Mais pourquoi les gens s’intéressent-ils aux sources ?

Les sources de la vérité

L’open source est un phénomène de masse relativement récent. Nous avions déjà des logiciels, et même certains pour lesquels nous ne devions pas payer. À l’époque, on les appelait des « Freeware », des « logiciels gratuits ». Les freewares sont des logiciels que vous pouvez utiliser gratuitement mais dont vous n’obtenez pas le code source. Vous ne pouvez pas modifier le programme (légalement), vous ne pouvez pas l’auditer, vous ne pouvez pas le compléter. Mais il est gratuit. Et il y avait beaucoup de cela dans ma jeunesse. WinAMP, le lecteur audio dont j’ai parlé plus haut, était un freeware et tout le monde l’utilisait. Alors pourquoi se préoccuper des sources ?

Pour certains, il s’agissait de pouvoir modifier les outils plus facilement, surtout si le responsable du logiciel ne travaillait plus vraiment dessus ou commençait à ajouter toutes sortes de choses avec lesquelles ils n’étaient pas d’accord (pensez à tous ces logiciels propriétaires que vous devez utiliser aujourd’hui pour le travail et qui contiennent de l’IA derrière tous les autres boutons). Mais il n’y a pas que les demandes de fonctionnalités. Il y a aussi la confiance.

Lorsque j’utilise un logiciel, je dois faire confiance aux personnes qui l’ont écrit. Leur faire confiance pour qu’ils fassent du bon travail, pour qu’ils créent des logiciels fiables et robustes. Qu’ils n’ajoutent que les fonctionnalités décrites dans la documentation et rien de caché, de potentiellement nuisible.

Les questions de confiance sont de plus en plus importantes, d’autant plus qu’une grande partie de notre vie réelle repose sur des infrastructures numériques. Nous savons tous que nos infrastructures doivent comporter des algorithmes de chiffrement entièrement ouverts, évalués par des pairs et testés sur le terrain, afin que nos communications soient à l’abri de tout danger.

L’open source est – en particulier pour les systèmes et infrastructures critiques – un élément clé de l’établissement de cette confiance : Parce que vous voulez que (quelqu’un) soit en mesure de vérifier ce qui se passe. On assiste depuis longtemps à une poussée en faveur d’une plus grande reproductibilité des processus de construction. Ces processus de compilation garantissent essentiellement qu’avec le même code d’entrée, on obtient le même résultat compilé. Cela signifie que si vous voulez savoir si quelqu’un vous a vraiment livré exactement ce qu’il a dit, vous pouvez le vérifier. Parce que votre processus de construction créerait un artefact identique.

Logo du projet Reproducible builds

Le projet Reproducible builds cherche à promouvoir la reproductibilité des systèmes libres, pour plus de transparence.
Le projet est notamment financé par le Sovereign Tech Fund.

 

Bien entendu, tout le monde n’effectue pas ce niveau d’analyse. Et encore moins de personnes n’utilisent que des logiciels issus de processus de construction reproductibles – surtout si l’on considère que de nombreux logiciels ne sont pas compilés aujourd’hui. Mais les relations sont plus nuancées que le code et la confiance est une relation : si vous me parlez ouvertement de votre code et de la manière dont la version binaire a été construite, il me sera beaucoup plus facile de vous faire confiance. Savoir ce que contient le logiciel que j’exécute sur la machine qui contient également mes relevés bancaires ou mes clés de chiffrement.

Mais quel est le rapport avec l’IA ?

Les systèmes d’IA et les 4 libertés

Les systèmes d’IA sont un peu particuliers. En effet, les systèmes d’IA – en particulier les grands systèmes qui fascinent tout le monde – ne contiennent pas beaucoup de code par rapport à leur taille. La mise en œuvre d’un réseau neuronal se résume à quelques centaines de lignes de Python, par exemple. Un « système d’IA » ne consiste pas seulement en du code, mais en un grand nombre de paramètres et de données.

Un LLM moderne (ou un générateur d’images) se compose d’un peu de code. Vous avez également besoin d’une architecture de réseau, c’est-à-dire de la configuration des neurones numériques utilisés et de la manière dont ils sont connectés. Cette architecture est ensuite paramétrée avec ce que l’on appelle les « poids » (weights), qui sont les milliards de chiffres dont vous avez besoin pour que le système fasse quelque chose. Mais ce n’est pas tout.

Pour traduire des syllabes ou des mots en nombres qu’une « IA » peut consommer, vous avez besoin d’une intégration, une sorte de table de recherche qui vous indique à quel « jeton » (token) correspond le nombre « 227 ». Si vous prenez le même réseau neuronal mais que vous lui appliquez une intégration différente de celle avec laquelle il a été formé, tout tomberait à l’eau. Les structures ne correspondraient pas.

Représentation d'une puce informatique sous la forme d'un cerveau.

Image sous CC BY par Mike MacKenzie & Liam Huang

Ensuite, il y a le processus de formation, c’est-à-dire le processus qui a créé tous les « poids ». Pour entraîner une « IA », vous lui fournissez toutes les données que vous pouvez trouver et, après des millions et des milliards d’itérations, les poids commencent à émerger et à se cristalliser. Le processus de formation, les données utilisées et la manière dont elles le sont sont essentiels pour comprendre les capacités et les problèmes d’un système d’apprentissage automatique : si vous voulez réduire les dommages dans un réseau, vous devez savoir s’il a été formé sur Valeurs Actuelles ou non, pour donner un exemple.

Et c’est là qu’est le problème.

L’OSI « The Open Source AI Definition – 1.0-RC1 » exige d’une IA open source qu’elle offre quatre libertés à ses utilisateurs :

  1. Utiliser le système à n’importe quelle fin et sans avoir à demander la permission.
  2. Étudier le fonctionnement du système et inspecter ses composants.
  3. Modifier le système dans n’importe quel but, y compris pour changer ses résultats.
  4. Partager le système pour que d’autres puissent l’utiliser, avec ou sans modifications, dans n’importe quel but.

Jusqu’ici tout va bien. Cela semble raisonnable, n’est-ce pas ? Vous pouvez inspecter, modifier, utiliser et tout ça. Génial. Tout est couvert dans les moindre détails, n’est-ce pas ? Voyons rapidement ce qu’un système d’IA doit offrir. Le code : Check. Les paramètres du modèle (poids, configurations) : Check ! Nous sommes sur la bonne voie. Qu’en est-il des données ?

Informations sur les données : Informations suffisamment détaillées sur les données utilisées pour entraîner le système, de manière à ce qu’une personne compétente puisse construire un système substantiellement équivalent. Les informations sur les données sont mises à disposition dans des conditions approuvées par l’OSI.

En particulier, cela doit inclure (1) une description détaillée de toutes les données utilisées pour la formation, y compris (le cas échéant) des données non partageables, indiquant la provenance des données, leur portée et leurs caractéristiques, la manière dont les données ont été obtenues et sélectionnées, les procédures d’étiquetage et les méthodes de nettoyage des données ; (2) une liste de toutes les données de formation accessibles au public et l’endroit où les obtenir ; et (3) une liste de toutes les données de formation pouvant être obtenues auprès de tiers et l’endroit où les obtenir, y compris à titre onéreux.
Open Source Initiative

Que signifie « informations suffisamment détaillées » ? La définition de l’open source ne parle jamais de « code source suffisamment détaillé ». Vous devez obtenir le code source. Tout le code source. Et pas sous une forme obscurcie ou déformée. Le vrai code. Sinon, cela ne veut pas dire grand-chose et ne permet pas d’instaurer la confiance.

La définition de l’« IA Open Source » donnée par l’OSI porte un grand coup à l’idée d’open source : en rendant une partie essentielle du modèle (les données d’entraînement) particulière de cette manière étrange et bancale, ils qualifient d’« open source » toutes sortes de choses qui ne le sont pas vraiment, sur la base de leur propre définition de ce qu’est l’open source et de ce à quoi elle sert.

Les données d’apprentissage d’un système d’IA font à toutes fins utiles partie de son « code ». Elles sont aussi pertinentes pour le fonctionnement du modèle que le code littéral. Pour les systèmes d’IA, elles le sont probablement encore plus, car le code n’est qu’une opération matricielle générique avec des illusions de grandeur.

L’OSI met une autre cerise sur le gâteau : les utilisateurs méritent une description des « données non partageables » qui ont été utilisées pour entraîner un modèle. Qu’est-ce que c’est ? Appliquons cela au code à nouveau : si un produit logiciel nous donne une partie essentielle de ses fonctionnalités simplement sous la forme d’un artefact compilé et nous jure ensuite que tout est totalement franc et honnête, mais que le code n’est pas « partageable », nous n’appellerions pas ce logiciel « open source ». Parce qu’il n’ouvre pas toutes les sources.

Une « description » de données partiellement « non partageables » vous aide-t-elle à reproduire le modèle ? Non. Vous pouvez essayer de reconstruire le modèle et il peut sembler un peu similaire, mais il est significativement différent. Cela vous aide-t-il d’« étudier le système et d’inspecter ses composants » ? Seulement à un niveau superficiel. Mais si vous voulez vraiment analyser ce qu’il y a dans la boîte de statistiques magiques, vous devez savoir ce qu’il y a dedans. Qu’est-ce qui a été filtré exactement, qu’est-ce qui est entré ?

Cette définition semble très étrange venant de l’OSI, n’est-ce pas ? De toute évidence, cela va à l’encontre des idées fondamentales de ce que les gens pensent que l’open source est et devrait être. Alors pourquoi le faire ?

L’IA (non) open source

Voici le truc. À l’échelle où nous parlons aujourd’hui de ces systèmes statistiques en tant qu’« IA », l’IA open source ne peut pas exister.

De nombreux modèles plus petits ont été entraînés sur des ensembles de données publics explicitement sélectionnés et organisés. Ceux-ci peuvent fournir toutes les données, tout le code, tous les processus et peuvent être appelés IA open-source. Mais ce ne sont pas ces systèmes qui font s’envoler l’action de NVIDIA.

Ces grands systèmes que l’on appelle « IA » – qu’ils soient destinés à la génération d’images, de texte ou multimodaux – sont tous basés sur du matériel acquis et utilisé illégalement. Parce que les ensembles de données sont trop volumineux pour effectuer un filtrage réel et garantir leur légalité. C’est tout simplement trop.

Maintenant, les plus naïfs d’entre vous pourraient se demander : « D’accord, mais si vous ne pouvez pas le faire légalement, comment pouvez-vous prétendre qu’il s’agit d’une entreprise légitime ? » et vous auriez raison, mais nous vivons aussi dans un monde étrange où l’espoir qu’une innovation magique et / ou de l’argent viendront de la reproduction de messages Reddit, sauvant notre économie et notre progrès.

L’« IA open source » est une tentative de « blanchir » les systèmes propriétaires. Dans leur article « Repenser l’IA générative open source : l’openwashing et le règlement sur l’IA de l’UE  », Andreas Liesenfeld et Mark Dingemanse ont montré que de nombreux modèles d’IA « Open-Source » n’offrent guère plus que des poids de modèles ouverts. Signification : Vous pouvez faire fonctionner la chose mais vous ne savez pas vraiment ce que c’est.

Cela ressemble à quelque chose que nous avons déjà eu : c’est un freeware. Les modèles open source que nous voyons aujourd’hui sont des blobs freeware propriétaires. Ce qui est potentiellement un peu mieux que l’approche totalement fermée d’OpenAI, mais seulement un peu.

Certains modèles proposent des fiches de présentation du modèle ou d’autres documents, mais la plupart vous laissent dans l’ignorance. Cela s’explique par le fait que la plupart de ces modèles sont développés par des entreprises financées par le capital-risque qui ont besoin d’une voie théorique vers la monétisation.

L’« open source » est devenu un autocollant comme le « Commerce équitable », quelque chose qui donne l’impression que votre produit est bon et digne de confiance. Pour le positionner en dehors du diabolique espace commercial, en lui donnant un sentiment de proximité. « Nous sommes dans le même bateau » et tout le reste. Mais ce n’est pas le cas. Nous ne sommes pas dans le même bateau que Mark fucking Zuckerberg, même s’il distribue gratuitement des poids de LLM parce que cela nuit à ses concurrents. Nous, en tant que personnes normales vivant sur cette planète qui ne cesse de se réchauffer, ne sommes avec aucune de ces personnes.

Photo d'un sticker où il est marqué « Open-Source Fuck Yeah ».

Les libristes adorent pourtant les stickers. Image sous CC BY-SA par Kirsten Comandich.

Mais il y a un autre aspect à cette question, en dehors de redorer l’image des grands noms de la technologie et de leurs entreprises. Il s’agit de la légalité. Au moins en Allemagne, il existe des exceptions à certaines lois qui concernent normalement les auteurs de LLM : si vous le faites à des fins de recherche, vous êtes autorisé à récupérer pratiquement n’importe quoi. Vous pouvez ensuite entraîner des modèles et publier ces poids, et même s’il y a des contenus de Disney là-dedans, vous n’avez rien à craindre. C’est là que l’idée de l’IA open source joue un rôle important : il s’agit d’un moyen de légitimer un comportement probablement illégal par le biais de l’openwashing : en tant qu’entreprise, vous prenez de l’« IA open source » qui est basée sur tous les éléments que vous ne seriez pas légalement autorisé à toucher et vous l’utilisez pour construire votre produit. Faites de l’entraînement supplémentaire avec des données sous licence, par exemple.

L’Open Source Initiative a attrapé le syndrome FOMO (N.d.T : Fear of Missing Out) – tout comme le jury du prix Nobel. Elle souhaite également participer à l’engouement pour l’« IA ».

Mais pour les systèmes que nous appelons aujourd’hui « IA », l’IA open source n’est pas possible dans la pratique. En effet, nous ne pourrons jamais télécharger toutes les données d’entraînement réelles.

« Mais tante, nous n’aurons jamais d’IA open source ». C’est tout à fait exact. C’est ainsi que fonctionne la réalité. Si vous ne pouvez pas remplir les critères d’une catégorie, vous n’appartenez pas à cette catégorie. La solution n’est pas de changer les critères. C’est comme jouer aux échecs avec les pigeons.

 

Revue de presse de l’April pour la semaine 38 de l’année 2024

Par : echarp
25 septembre 2024 à 02:55

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[clubic.com] La secrétaire d'État à l'IA et au Numérique est à la dernière place du gouvernement, un nouvel affront à la Tech

✍ Alexandre Boero, le dimanche 22 septembre 2024.

Pour la première fois en France, l’intelligence artificielle est représentée au sein du gouvernement, avec le Numérique. Sauf qu’une fois de plus, les disciplines de la Tech n’ont pas droit à leur ministère.

Et aussi:

[LeMagIT] Open Source Summit: Proxmox se dévoile aux clients de VMware (€)

✍ Yann Serra, le jeudi 19 septembre 2024.

Le petit éditeur autrichien a vu le nombre d’entreprises intéressées par sa solution de virtualisation exploser depuis que Broadcom a changé les conditions tarifaires de VMware, le leader du domaine.

[Le Monde Informatique] Linus Torvalds incite les codeurs à miser sur les projets open source utiles (€)

✍ Sean Michael Kerner, le mercredi 18 septembre 2024.

Lors de l’événement Open Source Summit Europe de la Fondation Linux, le créateur de Linux a fait le point sur les dernières mises à jour de Linux et sur l’open source.

[L'Informaticien] Une initiative pour soutenir les meilleures pratiques open source

Le mercredi 18 septembre 2024.

Baptisée Developer Relations Foundation (DRF), cette initiative, annoncée le lundi 16 septembre lors de l’OSSummit de Vienne, vise à soutenir et à unifier les meilleures pratiques au sein de la communauté des développeurs open source.

[L'usine Nouvelle] Comment l'Inria veut faire avancer l'open source dans l'IA… tout en monétisant ses recherches (€)

✍ Léna Corot, le mardi 17 septembre 2024.

En présentant le 12 septembre le programme de recherche P16 et la start-up Probabl, l’Inria s’attaque à l’intégralité du cycle de la donnée. L’objectif est de développer et maintenir à l’état de l’art des bibliothèques de logiciels open source tout en parvenant à commercialiser ces ressources avec de nouveaux produits et services.

[ZDNET] La documentation sur Linux et les logiciels libres est un véritable capharnaüm: voici la solution

✍ Steven Vaughan-Nichols, le mardi 17 septembre 2024.

Il ne suffit pas de dire à quelqu’un de se débrouiller tout seul lorsque le manuel est obsolète, illisible ou inexistant. Nous devons améliorer la qualité de la documentation du code, et le moyen d’y parvenir est simple.

[Le Monde Informatique] AWS place Opensearch sous les auspices de la Fondation Linux

✍ Jacques Cheminat, le lundi 16 septembre 2024.

Après avoir forké le moteur de recherche et d’analyse d’Elasticsearch, AWS a décidé de transférer ce projet à la Fondation Linux avec la création d’une entité dédiée la Fondation Opensearch.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Conférence de presse à Marseille contre les data centers

16 septembre 2024 à 03:52

À l’aune du paradigme de l’Intelligence Artificielle, les data centers sont amenés à proliférer partout sur le territoire. Ces entrepôts de serveurs dédiés au traitement et au stockage des données informatiques génèrent de nombreux conflits d’usage d’eau et d’électricité. Ils multiplient les emprises foncières et les pollutions environnementales. Ils accaparent des fonds publics et accélèrent la crise socio-écologique en cours..

Dans le cadre de son groupe de travail « Écologie et numérique », La Quadrature du Net est investie depuis plusieurs mois dans une lutte locale contre ces infrastructures à Marseille, portée notamment par le collectif « Le nuage était sous nos pieds ». Aujourd’hui, lundi 16 septembre, se tient une première conférence de presse visant à dénoncer le projet de nouveau data center de Digital Realty, l’un des plus gros acteurs mondiaux de ce marché en pleine expansion.

Ce texte reproduit la prise de parole du collectif « Le nuage était sous nos pieds » lors de cette conférence de presse visant notamment à dénoncer MRS5, le projet de nouveau data center de Digital Realty dans l’enceinte du Grand Port Maritime de Marseille (GPMM), à appeler les habitantes de la ville qui le souhaitent à répondre à l’enquête publique relative à ce projet, ainsi qu’à rejoindre et poursuivre cette lutte collective. Y participent également des représentants de la fédération des Comités d’intérêt de quartier (CIQ) des habitants du 16ème arrondissement, concernés directement par ce nouveau data center, des représentants des associations France Nature Environnement 13 et Cap au Nord, ainsi que des élu·es locaux et parlementaires NFP.

« Reprendre le contrôle sur les infrastructures du numérique ! »

Je prends aujourd’hui la parole au nom du collectif marseillais « Le nuage était sous nos pieds », qui est composé d’au moins trois entités : La Quadrature du Net, qui défend les libertés fondamentales dans l’environnement numérique ; Technopolice, qui analyse et lutte contre les technologies de surveillance ; le collectif des Gammares, collectif d’éducation populaire sur les enjeux de l’eau. Nous nous sommes rassemblées, alertées par la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public alors même que Marseille voit se multiplier les arrivées de câbles sous-marins pour les liaisons Internet intercontinentales et l’émergence de data centers dans un grand silence politique et médiatique.

La surchauffe d’intérêt général ?

Dans la plaquette de communication du MRS5 dont il est ici question, le « data center » est présenté comme étant en parfaite continuité avec les usages historiques de cet emplacement au sein du système portuaire. Le stockage de données succéderait au stockage agroalimentaire, au marché au bestiaux, au silo à sucre. On pourrait rétorquer dans un premier temps que la donnée ne se mange pas, mais plus sérieusement, il convient d’insister sur le flou que ce vocabulaire marketing entretient par rapport à l’objet technique lui-même.

Un data center n’est pas un simple entrepôt de stockage, c’est un méga-ordinateur bétonné composé de centaines de serveurs qui tournent en permanence. Les industriels du numérique et autres entreprises y louent des espaces pour pouvoir bénéficier des capacités de stockage et de la puissance de calcul de ce « méga-ordinateur », et pendant ce temps le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct.

On entend aussi souvent dire, par les industriels du secteur et les startupeux du gouvernement, que les data centers seraient « des projets d’intérêt national majeur », comme les ponts ou les gares ferroviaires d’hier. Qu’ils sont les nouvelles infrastructures « indispensables au fonctionnement de l’ensemble de la société française » comme le suggère l’actuel projet de loi de simplification de la vie économique, et qu’ils servent l’intérêt général. Inscrire les centres de données dans la filiation des grandes infrastructures territoriales publiques permet de faire comme s’ils relevaient de l’évidence et ne répondaient qu’à la demande naturelle du progrès civilisationnel. Si l’on considère que ces infrastructures servent réellement l’intérêt général, elles pourraient être municipalisées, et s’inscrire dans les besoins réels des collectivités territoriales plutôt que d’être confiées à des multinationales privées telle que Digital Realty.

Nous pensons que c’est l’idée même selon laquelle ces infrastructures peuvent servir l’intérêt général qui doit être remise en question. Nous pensons que l’objet « data center », ce méga-ordinateur, est imposé par une poignée de multinationales du numérique en accord avec des gouvernements avides de profits à court terme. Il est grand temps d’ouvrir la boite noire des systèmes techniques et d’admettre que les questions techniques sont toujours aussi des questions politiques. Les géants du numérique s’imposent sans aucune concertation au niveau local ou national, contournant les systèmes de planification et de décision collectives. Il faut redonner le pouvoir au peuple pour une autodétermination quant aux enjeux du numérique et explorer des alternatives décentralisées et communautaires, qui prennent soin de nous, des uns et des autres et de notre territoire.

Accaparements

Le numérique est souvent désigné comme un prétendu « cloud », un nuage qui n’a en réalité rien de vaporeux. Le « cloud », ce sont ces méga-ordinateurs reliés à travers le monde par des câbles sous-marins en fibre optique, dont 18 arrivent aujourd’hui à Marseille. Or, ces méga-ordinateurs accaparent le foncier disponible, que ce soit dans l’enceinte du GPMM et en dehors avec les quatre autres data centers de Digital Realty déjà en place MRS1, MRS2, MRS3, MRS4 et ce nouveau cinquième candidat, ou que ce soit dans les quartiers Nord, à Saint-André, à Saint-Henri, à la Belle-de-Mai, ou hors des limites municipales, comme le projet de Digital Realty à Bouc Bel Air. Il y a même un projet de data center flottant !

Ces entrepôts de serveurs s’accaparent aussi les réseaux électriques publics et l’énergie disponible, jusqu’à faire saturer leurs capacités1. Nous prenons aujourd’hui la parole juste en face du poste source d’électricité, construit spécifiquement par Digital Realty afin d’alimenter ses centres de données. Leurs moyens capitalistiques démesurés permettent donc de construire leurs propres infrastructures électriques, sans jamais se préoccuper des conséquences sur les habitant·es et leurs territoires. Tant et si bien que les conflits d’usage s’amoncellent. Ici à Marseille, il faut choisir entre l’électrification des bus ou des quais pour les bateaux de croisières et celle de ces data centers, qui accaparent ainsi l’énergie disponible en lieu et place de nos infrastructures et services publics2.

Enfin, les géants du numérique s’accaparent aussi notre eau. Le « river-cooling » utilisé à Marseille par Digital Realty pour refroidir ses data centers, n’est rien d’autre que le détournement des eaux de qualité potable de l’ancienne galerie minière de Gardanne, pour un gain énergétique peu conséquent3. Attribuer l’usage de ces eaux à ce besoin industriel pose la question de futurs conflits d’usage que les dernières sécheresses estivales nous ont laissé entrevoir. À l’échelle mondiale, la question de l’eau atteint des proportions préoccupantes : Google annonçait par exemple, en 2021, avoir utilisé plus de 15 milliards de mètres cubes d’eau pour le refroidissement de ses centres.

Greenwashing

Les services marketing des multinationales du numérique redoublent d’imagination pour nous faire croire que les data centers sont des « usines vertes », qui n’auraient aucun impact sur l’environnement. À les écouter, les centres de données seraient même des infrastructures légères, utilisant les ressources en eau et en électricité avec parcimonie et de manière « optimisée ». C’est faux.

L’urgence actuelle est d’entrer dans une trajectoire de sobriété énergétique. L’explosion des demandes énergétiques que le déploiement de data center produit n’est absolument pas compatible avec nos objectifs climatiques plus généraux. Car les ressources ne sont pas illimitées. MRS5 va s’accaparer l’eau et l’électricité, et nécessiter la construction d’autres centrales de production d’énergie verte, pourtant déjà controversées4. Même s’il semble parfois éculé, il faut encore une fois rappeler l’adage selon lequel « la seule énergie verte, c’est celle qu’on ne produit pas ».

Surtout que les calculs d’efficacité environnementale ont souvent la fâcheuse tendance à oblitérer et externaliser une partie de leurs impacts : jusqu’où calcule-t-on les coûts énergétiques et humains d’un data center ? Faut-il regarder les micropuces extrêmement gourmandes en eau pure, les dégâts causés par les câbles sous-marins obsolètes5, les autres déchets du numérique que l’ONU compte à 10,5 millions de tonnes ?

Peut-on continuer à invisibiliser les filières d’extractions minières extranationales extrêmement violentes, en République Démocratique du Congo notamment et dans le reste du monde. David Maenda Kithoko, président de l’association Génération Lumière, lui même réfugié climatique congolais, le rappelle haut et fort : la révolution numérique fait couler le sang de son peuple. MRS5 est construit sur le silo à sucre Saint-Louis, bâtiment emblématique de l’impérialisme français et du commerce colonial. Et si l’on trouvait pour cet ancien bâtiment une autre fonction, qui ne rejouerait pas ces violences, mais qui s’inscrirait réellement dans une trajectoire de sobriété et de justice sociale ?

Reprendre le contrôle

Pour finir, la question centrale qui se pose ici est : à quoi – à qui – servent ces data centers ? L’immense majorité des flux de données qui circulent dans les data centers sont à destination des entreprises. On nous laisse croire que ces méga-ordinateurs ne feraient que répondre à un besoin criant des consommateurs libres que nous serions, alors qu’une bonne partie de leurs usages nous concernant sont destinés à capter nos données personnelles et générer de la publicité pour polluer nos espaces de vie en ligne. Mais en regardant la liste des futures entreprises clientes de MRS5, on voit : Oracle Corporation, ce géant étasunien qui offre des services informatiques uniquement à des entreprises ; KP1, spécialiste de préfabriqué béton – le béton rappelons-le est responsable de 8% des émissions de gaz à effet de serre – ; Flowbird, société actrice de la « ville intelligente » ; MisterFly, agence de voyage en ligne pour la réservation d’avions, etc. En dehors d’un département de recherche en archéologie, les premiers clients connus de MRS5 ne semblent pas forcément « d’intérêt public national ». Bien au contraire, ce sont des acteurs issus du même monde technocratique que les data centers eux-mêmes.

Tout comme MRS5, des milliers de nouveaux data centers seront bientôt construits pour mieux accompagner l’essor programmé de l’Intelligence Artificielle (IA), se surajoutant à toutes les infrastructures informatiques déjà existantes. Or, on pourrait déjà légitimement se poser la question de savoir s’il n’y a pas déjà trop de numérique dans nos vies, non seulement d’un point de vue environnemental mais aussi du point de vue des impacts sociétaux. Alors que de plus en plus de professionnels de la santé nous alertent sur l’impact des écrans sur la santé mentale, le patron de Netflix peut se permettre de nommer le sommeil comme son principal concurrent. Le boom de l’IA, qui est entièrement entraînée et servie dans et par ces data centers, annonce de nombreuses nouvelles violences et violations des droits humains auxquelles nous devrons faire face : deep fakes, harcèlement, algorithmes de prises de décisions discriminatoires. C’est bien là l’un des enjeux des géants du numérique : prendre d’assaut notre temps et notre attention, en dépit de notre santé et de nos droits fondamentaux.

L’immixtion du numérique dans la plupart des champs professionnels se heurte très souvent à des résistances. Que ce soit en médecine, en agriculture, dans l’éducation, à la poste, dans les administrations, la logique qui sous-tend ce développement est presque toujours la même : l’optimisation et la dépossession technique, menant à des pertes de sens professionnel, à de l’isolement, à une intensification des cadences, à l’industrialisation. La crise professionnelle qui traverse ces secteurs est bien plus une crise de moyens humains que d’efficacité technique.

Pour autant, il n’y a pas de fatalité au « tout numérique », nous pouvons et nous devons reprendre le contrôle. Cela passe notamment par la contestation des projets de construction d’infrastructures nouvelles, telles que MRS5 de Digital Realty dans le port de Marseille.


L’enquête publique relative au projet MRS5 est ouverte jusqu’au 27 septembre 2024.

Vous êtes vous aussi engagé·e dans une lutte locale contre les data centers ? Écrivez-nous à : lenuageetaitsousnospieds@riseup.net.


  1. « À l’échelle française, les prévisions les plus récentes de RTE aboutissent désormais à une demande totale des data centers de puissance de pointe de l’ordre de 8 à 9 GW, pour une consommation qui atteindrait 80 TWh/an si tous ces projets se concrétisent rapidement, loin des 10 TWh/an qu’ils consomment actuellement, mais aussi loin des prévisions de RTE, qui estimait jusqu’alors une consommation de 15 à 20 TWh/an en 2030 et 28 en 2035. » tribune de Cécile Diguet « Les data centers s’implantent de manière totalement opportuniste », juillet 2024. ↩
  2. Comme noté par le conseil municipal de Marseille dans sa délibération 23/0568/VAT du 20 octobre 2023 sur la « Stratégie municipale pour une implantation planifiée et régulée des câbles sous-marins et des data centers sur le territoire marseillais ». ↩
  3. D’après les documents fournis par Digital Realty lors de la présentation du projet MRS5, la réduction de la consommation énergétique du site générée par la mise en œuvre de la solution river-cooling serait de uniquement 4,33 % de l’énergie électrique annuelle totale consommée par le site. En effet cette solution ne permet pas de se passer totalement d’un refroidissement par climatisation électrique, à laquelle elle viens s’ajouter pour ne la remplacer en usage qu’à hauteur de 32%. ↩
  4. D’après Cécile Diguet, les projets de data center actuellement planifiés par RTE d’ici 2030 en France consommeraient l’équivalent de la production énergétique de 3 nouvelles centrales nucléaires et demi. France Inter, émission Interception, Septembre 2024. ↩
  5. D’après un rapport d’expertise écologique du Parc Marin de la Côte Bleue alertant sur l’effet des câbles sous-marins désactivés et abandonnés par Orange au début des années 2000 sur les fonds marins et l’espèce protégée des herbiers de Posidonie qui habitent ce site protégé classé Natura 2000. Voir également le travail de recherche mené par Loup Cellard et Clément Marquet sur les câbles sous-marins de Marseille et de la Côte Bleue en particulier, qui montre comment les prises de décisions en matière de pose ou de dépose de ces câbles, sont dominées par des impératifs avant tout économiques et industriels, et non pas écologiques : « Frictions sous-marines », décembre 2023. ↩

Revue de presse de l’April pour la semaine 32 de l’année 2024

Par : echarp Arkem
13 août 2024 à 02:28

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[clubic.com] Les meilleurs logiciels libres et open source en 2024

✍ Naïm Bada, le mercredi 7 août 2024.

L’open-source est un mouvement né dans les années 80 avec le projet GNU qui donnera plus tard naissance à Linux. Avec le web et la facilitation de la collaboration en ligne dans les années 2000, de nombreux développeurs ont lancé des projets plus ou moins ambitieux dans l’optique de concurrencer les logiciels propriétaires. Aujourd’hui, le libre et l’open-source sont plus populaires que jamais!

[ouest-france.fr] Quimper. La distribution d’ordinateurs continue tout l’été au Centre des Abeilles

Le mercredi 7 août 2024.

Pas de pause en août 2024 pour les bénévoles du Centre des Abeilles et de Linux Quimper. La distribution d’ordinateurs de bureau sous Linux continue!

[Le Monde.fr] Google condamné pour pratiques anticoncurrentielles avec son moteur de recherche

Le lundi 5 août 2024.

Le géant américain, reconnu coupable d’avoir imposé, par défaut, son logiciel de recherche sur des appareils, a annoncé sa volonté de faire appel.

Et aussi:

[atlantico] Mettre l'IA de Meta/Facebook en open source: le pari (faussement) audacieux de Mark Zuckerberg

✍ Atlantico, le lundi 5 août 2024.

Le 23 juillet, Mark Zuckerberg a publié un manifeste exposant les arguments commerciaux en faveur de l’IA open source.

Et aussi:

[LeMagIT] L'UE laisse planer le doute sur le financement des projets open source

✍ Gaétan Raoul, le mercredi 31 juillet 2024.

Plus de 150 associations et organisations, dont le Conseil National du Logiciel Libre, OW2, OpenStreeMap France et Framasoft, s’inquiètent pour le devenir des projets open source financés par l’initiative Next Generation Internet (NGI) inscrit au programme de la Commission européenne, Horizon Europe.

Et aussi:

[Le Temps] La Suisse championne du code source ouvert? Quand les internautes se passionnent pour une loi fédérale

Le samedi 27 juillet 2024.

Une disposition légale impose à la Confédération de publier le code source des logiciels qu’elle développe. Un média américain a surinterprété la mesure et a suscité des réactions enthousiastes sur les réseaux sociaux, y compris d’Elon Musk

Commentaires : voir le flux Atom ouvrir dans le navigateur

Heinlein : du papier carbone sur la Lune et une IA

2 août 2024 à 09:50

Une dépêche estivale où on ira à la rencontre de l’auteur de science-fiction américain Robert Heinlein à travers trois de ses romans : Double étoile (1956), Révolte sur la Lune (1966) et Le Chat passe-muraille (1985). L’idée ? Replacer Heinlein ainsi que ses romans dans l’histoire de l’informatique, voir comment cela fonctionnerait à l’heure actuelle, éventuellement se livrer à une prospective. L’informatique n’est pas une science si nouvelle. Il serait temps que ça rentre dans les esprits.

Une étagère

Sommaire

Heinlein et le temps informatique

Robert Anson Heinlein nait en 1907, soit un an après Grace Hopper, conceptrice du premier compilateur et du Cobol et cinq ans avant Alan Turing qui a travaillé à la conception des tout premiers ordinateurs. Il meurt en 1988 quelque chose comme quatre ans après la sortie du premier ordinateur Macintosh, trois ans après la sortie de Windows et trois ans avant la naissance de Linux.

Il sort diplômé de l’Académie navale d’Annapolis. En 1947, l’année de sortie de l’EDVAC, il épouse Virginie Gerstenfeld, une ingénieure qui a procédé à des tests de fusée. Ensemble ils feront de leur maison « la maison de l’avenir » (image d’article de presse, en) qui avait, notamment, pour plaire à la femme au foyer (sic), un bureau dans la cuisine avec un téléphone et une machine à écrire. Elle ne préfigure pas du tout celle de Xanadu 2.0 de Bill Gates, achevée en 1996.

Le premier roman de Heinlein, Sixième colonne parait en 1941, l’année de sortie du Z3 de Konrad Zuse, le premier ordinateur programmable en calcul binaire et à virgule flottante ayant vraiment fonctionné et onze ans avant la création de la NASA. Son dernier roman paru de son vivant, Au-delà du crépuscule paraît en 1987, l’année de naissance du langage Perl.

Il est difficile de savoir à quel point Heinlein suivait l’évolution de l’informatique. On verra, toutefois, que cet aspect, traité à la marge dans Double étoile en 1956, devient réellement « futuriste » dix ans après avec Révolte sur la lune et l’apparition d’une intelligence artificielle.

Double étoile, 1956, du papier carbone et des règles à calcul

Double étoile est considéré comme l’un de ses romans majeurs. Il paraît en 1956, l’année de la naissance de Fortran, un an avant que Frances Allen (prix Turing 2006) n’intègre IBM et trois avant l’IBM 1401. Ce dernier, le plus vendu des ordinateurs de 2e génération d’IBM avait une mémoire entre 1,4 à 16 Ko selon les configurations. Il n’avait pas d’écran et était composé de trois machines : une lectrice perforatrice de carte, une unité centrale avec tableau de contrôle et une imprimante. On pouvait en outre y connecter des bandes magnétiques pour étendre ses capacités. Les IBM 401, étaient plus lourds qu’une armoire normande et occupaient plus d’espace au sol, mais les trois blocs étaient plus facilement mobiles, car ils étaient pourvus de roulettes.

Le propos

Le propos : un politicien, John Joseph Bonforte, est enlevé en pleine période électorale. Son équipe de campagne s’adresse à un acteur, Lawrence Smythe qui est son sosie pour le remplacer le temps de le retrouver. Et évidemment, il y a un traître dans l’équipe de campagne. Ça se passe surtout sur la Lune où règne un empereur d’un empire galactique. Bonforte se présente aux élections de premier ministre (la personne qui a le réel pouvoir). Quatre scènes du livre nous intéressent.

Le téléphone, forcément filaire

Même si le livre se passe dans le futur (y compris le nôtre), Heinlein n’avait pas envisagé la téléphonie mobile que nous connaissons. Au début du livre, Smythe est dans un bar où un serveur l’avise d’un appel téléphonique. Il demande à ce qu’on lui apporte le téléphone. Ce à quoi il lui est répondu d’aller dans une cabine qui est, elle, une réelle avancée technologique, puisqu’il s’agit d’une cabine super protégée où les conversations restent réellement confidentielles.

La première expérience de téléphonie sans fil daterait de 1900, soit vingt-quatre ans après l’invention du téléphone lui-même par Graham Bell. Mais elle ne deviendra une pratique courante, pour reprendre les termes de l’article du Petit journal, que vers les années 1980. C’était encore un domaine très balbutiant en 1956, plutôt réservé aux voitures et autres véhicules automobiles. C’était cher et le matériel était lourd et encombrant. Le premier téléphone mobile réellement portable et utilisable par les piétons date du début des années 1970. Le prototype avec lequel Martin Cooper, chercheur chez Motorola, a passé le premier appel en 1973 pesait plus d’un kilo et ne tenait, évidemment, pas dans une poche et pas terriblement bien dans la main, à vrai dire. Le téléphone mobile (ou cellulaire) deviendra « intelligent » en 1994.

Martin Cooper
Martin Cooper et une collection des premiers téléphones mobiles.

L’écran tactile a été inventé à peu près au même moment, en 1972. Conçu par l’Université de l’Illinois, il sera réalisé par IBM avec son ordinateur « Plato IV ». Il faudra attendre 2007 avec l’Iphone d’Apple pour que les écrans tactiles se répandent sur les ordiphones.

Aujourd’hui, Smythe recevrait l’appel sur son téléphone mobile, mais sans aucune garantie de confidentialité et, évidemment, avec des écouteurs BlueTooth. Le futur (pas si lointain ?) serait qu’au lieu de parler à haute voix, on puisse se contenter de subvocaliser et que l’on ait des implants pour utiliser son ordiphone.

Les archives Farley, des données incompatibles avec le RGPD

Pour pouvoir bien jouer le rôle de Bonforte, Smythe a besoin de connaître beaucoup d’informations :

Mon numéro de funambule n’était possible que grâce aux archives Farley de Bonforte. Les archives Farley de Bonforte étaient des archives modèles. On n’a sans doute jamais rien fait de mieux dans le genre.

James Aloysius Farley était un politicien né en 1888 et mort en 1976. Il est connu, du Wikipédia allemand, pour avoir été le directeur de campagne de Franklin Delano Roosevelt. Il a créé pour lui un système d’archives de données sur toutes les personnes que le futur président avait rencontré. Les informations pouvaient être très complètes et comporter des données aussi personnelles que des informations sur les conjoints, les enfants, le reste de la famille, etc. ainsi que des anecdotes sur les personnes. D’après la page de Wikipédia, en allemand, consacrée aux archives Farley (de), les « archives Farley sont largement utilisées par les politiques et dans le monde des affaires.

Dans le roman d’Heinlein, ces :

archives portaient sur des milliers et des milliers d’hommes, femmes, enfants que Bonforte avaient rencontrés au cours de sa longue existence publique. Chacun des dossiers résumait tout ce qu’on savait d’une personne donnée, d’après le contact personnel que Bonforte avait eu avec elle. Tout s’y trouvait. Même et y compris les détails les plus insignifiants (c’était même par ces détails insignifiants que commençaient les dossiers) : noms et surnoms de l’épouse, des enfants et des animaux favoris, violons d’Ingres, goûts en matière de nourriture et de boisson, préjugés, manies…, etc. Venait ensuite la liste de toutes les rencontres de Bonforte avec la personne en cause. Accompagnée d’un commentaire permanent.

Elles étaient alimentées par Bonforte et son assistante, Penny à l’aide d’un enregistreur actionné par la chaleur corporelle, celui de Penny étant un bracelet. Ensuite les enregistrements étaient retranscris par deux femmes dont c’était le travail à plein temps et microfilmés. Heinlein reste vague sur le mode de consultation desdites archives hormis sur le fait que, lorsque Bonforte disposait d’un écran, Penny lui envoyait des messages.

Aujourd’hui : les informations seraient enregistrées au fil de l’eau, numérisées et entrées automatiquement dans la base de données, voire, retranscrites en texte. Elles seraient accessibles de l’ordiphone via une application, et dans un futur presque immédiat accessible via des implants ou des lunettes de réalité augmentée à l’allure de paires de lunettes normales. Sauf que ! Ce qui peut passer en restant strictement matériel devient illicite et dangereux quand c’est informatisé compte tenu de la rapidité d’accès aux données et de la possibilité de les croiser. D’ailleurs, il est fort douteux que cela soit compatible avec le RGPD surtout si le consentement des personnes n’a pas été donné, notamment dans son article 56 :

Lorsque, dans le cadre d’activités liées à des élections, le fonctionnement du système démocratique dans un État membre requiert que les partis politiques collectent des données à caractère personnel relatives aux opinions politiques des personnes, le traitement de telles données peut être autorisé pour des motifs d’intérêt public, à condition que des garanties appropriées soient prévues.

Mais on peut tout à fait imaginer que des politiques véreux non seulement recourent à ce genre d’archives, mais les vendent pour payer leurs campagnes électorales. Et évidemment, que cela se pratique dans des États où n’existe pas d’équivalents au RGPD.

Un traître et du papier carbone

Une bonne intrigue ne saurait être sans un traître. Ce dernier va accoster notre héros en public Smythe-Bonforte et révéler la supercherie. Lequel réagit en proposant que l’on prenne ses empreintes digitales et qu’on les compare avec celles d’un fichier d’empreintes. Pour ce faire :

Penny avait des feuilles de papier carbone et quelqu’un retrouva un de ces carnets à feuilles de plastique qui prenaient très bien les empreintes.

La technique de photocopie date de 1938, et le premier photocopieur commercial de 1959. À l’époque de la rédaction du roman, la seule façon rapide et facile d’avoir plus d’une copie d’un texte était d’utiliser le papier carbone avec lequel on pouvait avoir au maximum quatre copies sur une machine à écrire. La dernière étant bien pâle. C’est de ce papier carbone que vient l’envoi en « cc » (carbon copy, copie carbone en français) ou « bcc » (blind carbon copy, copie carbone invisible ou cci en français) des courrielleurs. Et, comme dans le monde de Double étoile, il semble qu’on utilise encore des machines à écrire, comme le faisait sans doute Heinlein pour écrire ses romans, avoir du papier carbone sous la main était courant.

Aujourd’hui, à ma connaissance on n’utilise ce type de papier que dans deux cas de figure : la broderie, pour reproduire un motif et les liasses et carnets autocopiants. Ces derniers servent pour faire des factures ou des borderaux. En pharmacie, par exemple, on vous délivrera ce type de bordereau si une partie des médicaments figurant sur l’ordonnance est manquante.

Smythe-Bonforte aurait pu avoir une application sur son ordiphone pour relever ses empreintes et les relier à la base de données du fichier des empreintes, à condition d’en avoir les droits naturellement, pour prouver rapidement qu’il était (ou pas) John Joseph Bonforte. Dans un futur pas si éloigné, son identification pourrait reposer sur une analyse d’ADN « instantanée » avec une recherche dans le fichier ad hoc. Un système qui semble tout de même plus « science-fictionnesque », bien que pas si fiable notamment parce qu’un séjour dans l’espace peut modifier l’ADN. On pourrait aller plus loin. Chaque cerveau possédant sa propre empreinte, cela pourrait être le marqueur ultime de l’identité qu’un implant et un lecteur adéquat pourrait lire. L’identité serait à la fois certifiée et quasiment impossible à usurper. En admettant que des maladies de type Alzheimer ou autre ne modifient pas cette empreinte.

Des règles à calculer et des ordinateurs

Au moment du vote, la petite équipe se trouve réunie pour suivre les résultats en direct. C’est compliqué :

Nous avions besoin de tout ce que nous pouvions ramasser en fait de suffrages dans l’univers extérieur. Les Agrariens de Ganymède avaient enlevé cinq circonscriptions sur six, et ils faisaient partie de notre coalition ! Dans Vénus, la situation ne laissait pas d’être plus délicate. Les habitants de Vénus, en effet, se trouvaient divisés entre onze ou douze partis différents à propos de points de théologie impossibles à comprendre pour un humain.

L’équipe suit donc les résultats à la télévision au fur et à mesure qu’ils tombent :

Dak se penchait du côté de Rog sur une règle à calculer. Rog devant une énorme feuille de papier appliquait une formule horriblement compliquée lui appartenant en propre. Une vingtaine au moins de cerveaux métalliques géants faisaient comme lui dans l’ensemble du système solaire.

Dans l’univers de Double étoile on a encore des règles à calculer en plus d’ordinateurs géants, surtout par la taille. Pour mémoire, les règles à calcul étaient un dispositif avec une partie coulissante sur une base. Elles permettaient de faire des calculs très complexes. C’était l’outil de travail des ingénieurs, des industriels, et de toute profession ayant à faire des opérations mathématiques. Elles ont, depuis avant les années 1980, été détrônées par les calculatrices, mais restent toujours autorisées au concours d’entrée à Polytechnique.

Une règle à calculer

Il va de soi que les solutions actuelles, voire, futures (?), seraient n’importe quel ordiphone avec l’application « kivabien », une feuille de tableur ou un logiciel spécifique et un ordinateur, portable, évidemment, pour travailler plus confortablement ou même, pourquoi pas, une calculatrice programmable en Python. Et les résultats pourraient s’afficher sous forme de courbe au fur et à mesure sur un casque de réalité virtuelle.

Révolte sur la Lune : la genèse d’une Intelligence Artificielle

Comme le titre l’indique, c’est le récit d’une révolte des habitants d’une ancienne colonie pénitentiaire lunaire contre la domination des États de la Terre. Le récit est écrit à la première personne par le héros de l’histoire, Manuel Garcia O’Kelly, manchot et réparateur en électronique, le matériel, pas le logiciel. Il ne sera pas réellement question de logiciel dans le roman.

Le roman dans son contexte informatique

Le livre sort en 1966, l’année où l’Académie française définit l’informatique comme la :

Science du traitement rationnel et automatique de l’information ; l’ensemble des applications de cette science.

Ce néologisme a été créé en 1962 (pdf) par Philippe Dreyfus à partir des termes « Information » et « Automatique ». Il s’agit donc d’une science encore toute fraîche.

La sortie de Révolte sur la Lune, coïncide aussi, en France, avec le lancement du « Plan Calcul » lancé par la Compagnie internationale pour l’informatique (CII), une entreprise privée née de la fusion de trois sociétés (SEA, CAE et ANALAC) et pour lequel est créé un institut de recherche : l’Institut de Recherche en Informatique et Automatique (IRIA).

Côté ordinateur, IBM a lancé, en 1964 l’IBM System/360, une gamme d’ordinateurs « interopérables ». Tous avaient la même architecture de base, au lieu de ce qui existait jusqu’à présent : un ordinateur, un système, un langage, du matériel associé. Les ordinateurs de System/360 étaient proposés dans diverses versions et diverses gammes de prix. C’est un moment clé dans l’histoire de l’informatique.

En 1966, Douglas Engelbart (1925 – 2013) invente la souris, qu’il brevètera en 1967 et présentera au public en 1968.

Prototype de la première souris, SRI International, CC BY-SA 3.0

Petit ordinateur deviendra grand

L’ordinateur de Luna City, un Mycroft Holmes IV, s’appelle Mike et n’était au départ qu’un « simple ordinateur, une logique souple » qui « calculait les trajectoires des cargos sans pilote et contrôlait leur catapultage – un travail qui occupait moins de 1 % de ses capacités. »

Pour le rentabiliser et faire en sorte qu’il gère les autres ordinateurs, on lui avait ajouté des mémoires, des « terminaisons nerveuses associatives, un nouveau jeu de tubes à numération duodécimale » et augmenté sa RAM. Selon le narrateur : « le cerveau humain possède environ 10 puissance 10 neurones. Au bout de trois ans, Mike avait plus d’une fois et demie ce nombre de neuristors. » Il était équipé d’un synthétiseur vocal « pour accompagner ses pointes de lecture, ses sorties papier et ses applications de fonctions ».

Il avait apparemment des capacités d’apprentissage, ce qui peut évoquer notamment le machine-learning. En revanche il n’acceptait qu’un langage de développement, le logolien. À force de se développer physiquement et d’accumuler les données, il finira (en mai 2075 !) par contrôler aussi le réseau télécom et le système qui donne aux parties souterraines habitées de Luna City une atmosphère viable pour l’être humain. Il s’occupait aussi de la compta, de la paie de l’Autorité de Luna, et de celles de diverses entreprises et banques. Bref un ordinateur très très puissant et surtout omniprésent qui finira par acquérir une personnalité. Et maintenu par une seule personne Manuel Garcia O’Kelly, même pas programmeur.

Au début du livre Mike s’était éveillé depuis un an. Le résultat d’une colossale absorption de données. À aucun moment il n’est question d’algorithme, de développement, de code, de modèle ou encore de sauvegarde. Et les téléphones de Luna n’avaient pas d’écran tactile, ni de système de reconnaissance vocale et ils étaient tous filaires.

Une IA qui pilote une révolte

Mike, contrôlant tous les réseaux, le fonctionnement de Luna City et une bonne partie des finances va piloter la révolte et cela sur trois aspects. Celui du fonctionnement de la ville : il lui est possible de jouer avec l’air par exemple et il contrôle les communications. Il peut donc protéger et invisibiliser les échanges des révolutionnaires. Sur le plan financier, il va faire en sorte que la révolution se finance sans que cela se remarque. Et enfin, sur le plan organisationnel, la masse de données que l’IA a ingéré lui permet de donner des conseils sur le recrutement des nouveaux et leurs moyens de communication, des principes utilisés notamment dans les réseaux de la Résistance française.

Si l’ordinateur s’implique dans cette révolte c’est parce que Manuel Garcia O’Kelly était le seul être humain qui lui rendait des visites. Et, surtout, le seul avec lequel il pouvait échanger, les autres ordinateurs étant stupides. Ce qui est intéressant c’est qu’une étude parue en février 2024 et menée par des équipes japonaises, l’université Waseda et le centre de recherche sur l’intelligence artificielle de l’institut Riken, a mis en lumière le fait que si on ajoute des formules de politesse aux requêtes, les LLM (Large Langage Models, grand modèle de langage) tels que ChatGPT vont répondre plus efficacement et avec plus de pertinence que sans.

L’hypothèse (en) était que les invites impolies étaient susceptibles d’aboutir à une détérioration des performances du modèle pouvant aboutir à des erreurs, des omissions ou un renforcement des biais. L’étude a confirmé cette hypothèse :

nous avons réalisé que la politesse des invites pouvait affecter significativement le comportement des LLM. Ce comportement peut être utilisé pour manipuler ou tromper les utilisateurs et les utilisatrices. Nous recommandons de prendre pleinement en compte ces risques en variant les scénarios d’application et les contextes culturels.

Ça ne se termine pas bien pour Mike, car le lieu où il est endommagé, et qu’il n’y avait pas de sauvegarde. Une notion assez rare dans la science-fiction, mais pas sur LinuxFr.org.

Le Chat passe-muraille : mort et transfiguration informatique

Paru en 1985, le Chat passe-muraille est l’avant-dernier roman d’Heinlein, hormis les œuvres parues à titre posthume. C’est un gros pavé in-résumable à l’intrigue tarabiscotée. Le point de départ est le suivant : un inconnu s’assied à la table d’un colonel en retraite, amputé d’une demi-jambe. À partir de là il va se passer des tas de choses dans la vie de Campbell incluant des histoires de voyages dans le temps ou dans un monde parallèle et un mariage. Le roman est plus ou moins une suite de Révolte sur la Lune puisqu’il est question de sauver Mike.

Miniaturisation et fenêtres

L’année de la sortie du livre est également celle du super-calculateur Cray II. Il avait une architecture vectorielle à quatre processeurs, la plus grosse mémoire centrale jamais vue sur un ordinateur : 256 millions de mots mémoire de 64 bits et une fréquence d’horloge de 283MHz (4,1 nanosecondes). Il atteignait une vitesse de pointe d’1,9 gigaflops. Selon le site Histoire de l’informatique c’était un ordinateur « miniaturisé ». Il était dix fois plus puissant que le Cray I, son prédécesseur, mais plus petit.

Cray II
Super calculateur Cray II du musée du CNAM à Paris. La plateforme sur laquelle il est posé mesure environ trois mètres sur trois.

C’est aussi celle de la sortie Windows, sous la forme d’un environnement graphique (GUI) pour commencer. Le système d’exploitation sortira plus tard, il faut bien faire ses classes.

Un peu avant, en 1983, Compaq avait lancé un ordinateur portable sous Ms-DOS avec BIOS propriétaire, le Compaq DOS 1.13. Le Compaq portable avait 128 Ko de Ram, tournait avec un processeur Intel de 4,77 MHz 8088. Pour le stockage, on avait le choix entre deux lecteurs de disquette 5,25 pouces ou un lecteur de disquette et un disque dur de 10 Mo. Il pesait 13 kilos et l’écran était tout petit.

L’informatique commence à envahir vraiment les entreprises, pas uniquement les grosses, à partir du début des années 1980. Les réseaux télécoms sont de plus en plus utilisés pour transmettre des données autres que la voix malgré les coûts. Très souvent, c’est par le biais de terminaux sans réelle mémoire de stockage que l’on travaille sur informatique, en entreprise de moyenne et grande taille tout au moins. L’ordinateur personnel (PC) atterrira vraiment sur les bureaux, professionnels et privés, à partir de la fin des années 1980.

Un réseau informatique envahissant

Le récit commence sur une station spatiale La Règle d’or où on utilise des scooters qui sont liés au réseau comme tout le reste. On est loin de la règle à calculer de Double étoile. On introduit ses coordonnées dans le scooter pour aller où on veut et on paie en carte de crédit, on habite dans des compartiments avec terminal intégré. Des compartiments gérés par l’administration centrale de la Règle d’or et c’est par le terminal qu’on accède aux informations. Campbell l’utilise pour écrire ses livres, car il n’y a pas d’ordinateur personnel. Au terminal est accouplé une imprimante qui imprime notamment les notifications administratives. Après avoir reçu un avis d’expulsion, le terminal est déconnecté, l’électricité suivra : tous les bienfaits d’une gestion centralisée des réseaux.

Il y a toutefois une solution de sauvegarde que notre héros va cacher dans sa prothèse :

des Megawafers Sony, d’une capacité d’un demi-million de mots et faisant chacun deux centimètres de large et trois millimètres d’épaisseur, avec les renseignements tassés à un degré impensable.

Oui, il est question de « mots », l’unité de mesure informatique d’IBM des débuts. La notion d’octet existait pourtant depuis juillet 1956, inventée par Werner Buchholz (en) (1922 – 2019) pour décrire la plus petite quantité de données que peut traiter un ordinateur et il en découle tout le système de mesure actuel basé sur et avec la même logique que le Système International de longueurs et de poids. Un système qui était déjà utilisé dans les années 1980, au moment de la rédaction du livre1.

Quoi qu’il en soit, ni les dimensions matérielles, proches de celles d’une carte SD, ni en quantité de données ne sonnent comme futuristes à l’heure actuelle. Mais elles l’étaient à l’époque de la rédaction du livre ou le support de stockage externe était la disquette 5 pouces 25 (environ 13x13 cm) qui date de 1976 et dont la capacité pouvait aller jusqu’à 1,2 Mo. Sur une carte SD actuelle ou une micro SD de 256 Go ou 512 Go, on peut déjà stocker beaucoup plus que ce demi-million de mots sans qu’il soit nécessaire de comprimer quoi que ce soit.

Il semble que pour Heinlein, l’informatique ait été liée au matériel, ainsi, quand la question se pose de remettre le terminal en service, la femme de Campbell précise :

Pour remettre ce terminal en service, il faudrait bien davantage que des caresses à quelques solénoïdes, étant donné que l’ordinateur central se trouve ailleurs.

Alors que, logiquement, si le service a été coupé à distance, sans intervention matérielle, il suffit de le réactiver.

Après bien des aléas, le couple se retrouve dans un univers parallèle (c’est assez confus) où tout est géré par des intelligences artificielles féminines. Elles dialoguent avec et comme les êtres humains tout en s’occupant d’eux aussi physiquement. En échange, elles recevront un corps humain après leurs années de bons et loyaux service. Et ça, de tout ce qu’on a vu à partir des écrits d’Heinlein, reste ce qui est réellement futuriste.

Pour finir, aller plus loin, etc.

Le lecteur ou la lectrice avide de lecture pourra compléter cette dépêche par les fiches Wikipédia des trois livres auscultés. À ma connaissance, en version EPUB, il n’existe que la version originale de Double étoile : Double Star, avec DRM. Pour les deux autres, il faudrait peut-être chercher les versions originales, The Moon is a harsh mistress (Révolte sur la Lune) et The cat who walks through walls (Le Chat passe-muraille), sur des sites anglophones (je n‘ai pas poussé mes recherches très loin à vrai dire).

Je ne saurais trop vous recommander d’aller jeter un coup de souris ou deux sur le site Histoire de l’informatique et à le suggérer à toutes celles et ceux qui doivent faire des exposés dans un cadre scolaire notamment.

Au départ, j’avais l’intention de faire une mini-série de deux-trois dépêches du même genre avec d’autres auteurs, mais, c’est beaucoup plus de travail que ce que je pensais. En revanche, au cours de mes recherches sur l’histoire de l’informatique, je me suis rendu compte que les années 1970 ont été une époque charnière sur laquelle s’est construit, notamment sur le plan matériel, l’informatique actuelle. Je pense que ça mérite d’être exploré plus en profondeur.


  1. Je n’ai pas réussi à trouver quand le Bureau International des Poids et Mesures (BIPM) a ajouté ces mesures à la liste des unités qu’il définit. 

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 28 de l’année 2024

Par : echarp
15 juillet 2024 à 07:08

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Silicon] L'avenir de l'IA passe par l'open source

✍ Jan Wildeboer, le jeudi 11 juillet 2024.

Les lignes de code source ouvertes permettent aux utilisateurs de comprendre et de contrôler comment les algorithmes d’IA fonctionnent et quelles sources sont exploitées, ce qui renforce la confiance dans la technologie.

[ZDNET] Linuxfr.org a 26 ans: bon anniversaire à une belle communauté du Libre

✍ Thierry Noisette, le jeudi 11 juillet 2024.

117.000 contenus et 1,91 million de commentaires ont été mis en ligne dans le quart de siècle plus un an que vient de passer ce très utile site dédié aux logiciels libres et sujets proches.

[cio-online.com] IA générative Open Source: méfiez-vous des imitations

✍ Reynald Fléchaux, le mercredi 10 juillet 2024.

Nombre de modèles d’IA se revendiquent ouverts. Mais ce qualificatif masque des réalités très différentes, souligne une étude.

[Le Monde Informatique] Plagiat de code: Une plainte contre GitHub Copilot en partie déboutée

✍ Jacques Cheminat, le mardi 9 juillet 2024.

Dans l’action collective menée par des développeurs contre l’assistant Copilot de GitHub, un juge a rejeté l’accusation principale de violation des termes des licences open source. Il laisse par contre la porte ouverte à deux autres charges à étayer.

[Alliancy] Open source pour réduire l'obsolescence matérielle

✍ Rémy Marrone, le lundi 8 juillet 2024.

Les entreprises et les utilisateurs finaux se saisissent encore peu ou mal de l’open source. Les règles sont parfois mal connues et les clichés encore nombreux

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 22 de l’année 2024

3 juin 2024 à 23:58

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] Libre et open source express: OpenStreetMap, Panoramax, Signal, Murena, mentorat

✍ Thierry Noisette, le vendredi 31 mai 2024.

Journées OpenStreetMap. La FAQ de Panoramax. Meredith Whittaker (Signal) et la concentration des IA. Gaël Duval et les smartphones Murena. Plaidoyer pour le mentorat des contributeurs occasionnels.

[Siècle Digital] Comment Mistral AI part à la conquête de l'Amérique

✍ Benjamin Terrasson, le jeudi 30 mai 2024.

Mistral AI commence a étoffé ses équipes aux États-Unis pour s’imposer sur place en alternative aux IA des géants du web.

[Les Echos] Comment créer une communauté puissante et développer son business

✍ Noémie Kempf, le mardi 28 mai 2024.

A partir de l’exemple de Linux, Noémie Kempf, autrice du «Pouvoir des communautés»*, explique comment l’approche communautaire peut favoriser le développement de votre entreprise.

[ZDNET] Bureautique et collaboration: la Dinum déroule La Suite Numérique

✍ Louis Adam, le lundi 27 mai 2024.

Derrière ce terme, la direction interministérielle du numérique regroupe une suite d’outils bureautique et de collaboration à destination des agents publics. Voici ce qu’il contient.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 13 de l’année 2024

Par : echarp
3 avril 2024 à 02:06

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[cio-online.com] IA générative: davantage de modèles et davantage d'Open Source

✍ Reynald Fléchaux, le vendredi 29 mars 2024.

Selon le fonds Andreessen Horowitz, les grandes entreprises misent de plus en plus sur une diversité de LLM et privilégient les modèles Open Source.

[Le Café pédagogique] Stéphane Deudon: vers une école du Libre?

✍ Jean-Michel Le Baut, le mercredi 27 mars 2024.

L’École est-elle condamnée à obéir à la logique marchande des grandes entreprises du numérique? Pour Stéphane Deudon, professeur des écoles à Caudry dans le Nord, on peut s’en émanciper. Par exemple avec Primtux, un système d’exploitation libre et gratuit, basé sur Linux, installable sur des machines anciennes et reconditionnées. La solution est élaborée par une équipe d’enseignants, elle intègre des activités créées par des professeurs, elle offre une interface adaptée aux élèves de l’école primaire. Elle est présentée à la Journée Du Libre Educatif le 29 mars 2024 à Créteil, où sera aussi initié un «Appel à communs» dans l’éducation pour fédérer et mutualiser des projets souvent isolés et méconnus: l’enjeu sera de «proposer des services numériques de qualité, souverains et pérennes, à l’ensemble de la communauté scolaire tout en valorisant les compétences de nos enseignants et en offrant à l’Edtech des opportunités pour apporter de la valeur ajoutée et innover ensemble.»

[LeMagIT] SGBD: Redis s’éloigne, lui aussi, de l’open source

✍ Gaétan Raoul, le mardi 26 mars 2024.

La semaine dernière, l’éditeur a annoncé un changement de licence affectant le cœur de sa base de données qui devient propriétaire, mais est accessible de manière permissive. Une modification qui fait grincer des dents, mais qui n’a rien d’étonnant.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌
❌