Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Heinlein : du papier carbone sur la Lune et une IA

2 août 2024 à 09:50

Une dépêche estivale où on ira à la rencontre de l’auteur de science-fiction américain Robert Heinlein à travers trois de ses romans : Double étoile (1956), Révolte sur la Lune (1966) et Le Chat passe-muraille (1985). L’idée ? Replacer Heinlein ainsi que ses romans dans l’histoire de l’informatique, voir comment cela fonctionnerait à l’heure actuelle, éventuellement se livrer à une prospective. L’informatique n’est pas une science si nouvelle. Il serait temps que ça rentre dans les esprits.

Une étagère

Sommaire

Heinlein et le temps informatique

Robert Anson Heinlein nait en 1907, soit un an après Grace Hopper, conceptrice du premier compilateur et du Cobol et cinq ans avant Alan Turing qui a travaillé à la conception des tout premiers ordinateurs. Il meurt en 1988 quelque chose comme quatre ans après la sortie du premier ordinateur Macintosh, trois ans après la sortie de Windows et trois ans avant la naissance de Linux.

Il sort diplômé de l’Académie navale d’Annapolis. En 1947, l’année de sortie de l’EDVAC, il épouse Virginie Gerstenfeld, une ingénieure qui a procédé à des tests de fusée. Ensemble ils feront de leur maison « la maison de l’avenir » (image d’article de presse, en) qui avait, notamment, pour plaire à la femme au foyer (sic), un bureau dans la cuisine avec un téléphone et une machine à écrire. Elle ne préfigure pas du tout celle de Xanadu 2.0 de Bill Gates, achevée en 1996.

Le premier roman de Heinlein, Sixième colonne parait en 1941, l’année de sortie du Z3 de Konrad Zuse, le premier ordinateur programmable en calcul binaire et à virgule flottante ayant vraiment fonctionné et onze ans avant la création de la NASA. Son dernier roman paru de son vivant, Au-delà du crépuscule paraît en 1987, l’année de naissance du langage Perl.

Il est difficile de savoir à quel point Heinlein suivait l’évolution de l’informatique. On verra, toutefois, que cet aspect, traité à la marge dans Double étoile en 1956, devient réellement « futuriste » dix ans après avec Révolte sur la lune et l’apparition d’une intelligence artificielle.

Double étoile, 1956, du papier carbone et des règles à calcul

Double étoile est considéré comme l’un de ses romans majeurs. Il paraît en 1956, l’année de la naissance de Fortran, un an avant que Frances Allen (prix Turing 2006) n’intègre IBM et trois avant l’IBM 1401. Ce dernier, le plus vendu des ordinateurs de 2e génération d’IBM avait une mémoire entre 1,4 à 16 Ko selon les configurations. Il n’avait pas d’écran et était composé de trois machines : une lectrice perforatrice de carte, une unité centrale avec tableau de contrôle et une imprimante. On pouvait en outre y connecter des bandes magnétiques pour étendre ses capacités. Les IBM 401, étaient plus lourds qu’une armoire normande et occupaient plus d’espace au sol, mais les trois blocs étaient plus facilement mobiles, car ils étaient pourvus de roulettes.

Le propos

Le propos : un politicien, John Joseph Bonforte, est enlevé en pleine période électorale. Son équipe de campagne s’adresse à un acteur, Lawrence Smythe qui est son sosie pour le remplacer le temps de le retrouver. Et évidemment, il y a un traître dans l’équipe de campagne. Ça se passe surtout sur la Lune où règne un empereur d’un empire galactique. Bonforte se présente aux élections de premier ministre (la personne qui a le réel pouvoir). Quatre scènes du livre nous intéressent.

Le téléphone, forcément filaire

Même si le livre se passe dans le futur (y compris le nôtre), Heinlein n’avait pas envisagé la téléphonie mobile que nous connaissons. Au début du livre, Smythe est dans un bar où un serveur l’avise d’un appel téléphonique. Il demande à ce qu’on lui apporte le téléphone. Ce à quoi il lui est répondu d’aller dans une cabine qui est, elle, une réelle avancée technologique, puisqu’il s’agit d’une cabine super protégée où les conversations restent réellement confidentielles.

La première expérience de téléphonie sans fil daterait de 1900, soit vingt-quatre ans après l’invention du téléphone lui-même par Graham Bell. Mais elle ne deviendra une pratique courante, pour reprendre les termes de l’article du Petit journal, que vers les années 1980. C’était encore un domaine très balbutiant en 1956, plutôt réservé aux voitures et autres véhicules automobiles. C’était cher et le matériel était lourd et encombrant. Le premier téléphone mobile réellement portable et utilisable par les piétons date du début des années 1970. Le prototype avec lequel Martin Cooper, chercheur chez Motorola, a passé le premier appel en 1973 pesait plus d’un kilo et ne tenait, évidemment, pas dans une poche et pas terriblement bien dans la main, à vrai dire. Le téléphone mobile (ou cellulaire) deviendra « intelligent » en 1994.

Martin Cooper
Martin Cooper et une collection des premiers téléphones mobiles.

L’écran tactile a été inventé à peu près au même moment, en 1972. Conçu par l’Université de l’Illinois, il sera réalisé par IBM avec son ordinateur « Plato IV ». Il faudra attendre 2007 avec l’Iphone d’Apple pour que les écrans tactiles se répandent sur les ordiphones.

Aujourd’hui, Smythe recevrait l’appel sur son téléphone mobile, mais sans aucune garantie de confidentialité et, évidemment, avec des écouteurs BlueTooth. Le futur (pas si lointain ?) serait qu’au lieu de parler à haute voix, on puisse se contenter de subvocaliser et que l’on ait des implants pour utiliser son ordiphone.

Les archives Farley, des données incompatibles avec le RGPD

Pour pouvoir bien jouer le rôle de Bonforte, Smythe a besoin de connaître beaucoup d’informations :

Mon numéro de funambule n’était possible que grâce aux archives Farley de Bonforte. Les archives Farley de Bonforte étaient des archives modèles. On n’a sans doute jamais rien fait de mieux dans le genre.

James Aloysius Farley était un politicien né en 1888 et mort en 1976. Il est connu, du Wikipédia allemand, pour avoir été le directeur de campagne de Franklin Delano Roosevelt. Il a créé pour lui un système d’archives de données sur toutes les personnes que le futur président avait rencontré. Les informations pouvaient être très complètes et comporter des données aussi personnelles que des informations sur les conjoints, les enfants, le reste de la famille, etc. ainsi que des anecdotes sur les personnes. D’après la page de Wikipédia, en allemand, consacrée aux archives Farley (de), les « archives Farley sont largement utilisées par les politiques et dans le monde des affaires.

Dans le roman d’Heinlein, ces :

archives portaient sur des milliers et des milliers d’hommes, femmes, enfants que Bonforte avaient rencontrés au cours de sa longue existence publique. Chacun des dossiers résumait tout ce qu’on savait d’une personne donnée, d’après le contact personnel que Bonforte avait eu avec elle. Tout s’y trouvait. Même et y compris les détails les plus insignifiants (c’était même par ces détails insignifiants que commençaient les dossiers) : noms et surnoms de l’épouse, des enfants et des animaux favoris, violons d’Ingres, goûts en matière de nourriture et de boisson, préjugés, manies…, etc. Venait ensuite la liste de toutes les rencontres de Bonforte avec la personne en cause. Accompagnée d’un commentaire permanent.

Elles étaient alimentées par Bonforte et son assistante, Penny à l’aide d’un enregistreur actionné par la chaleur corporelle, celui de Penny étant un bracelet. Ensuite les enregistrements étaient retranscris par deux femmes dont c’était le travail à plein temps et microfilmés. Heinlein reste vague sur le mode de consultation desdites archives hormis sur le fait que, lorsque Bonforte disposait d’un écran, Penny lui envoyait des messages.

Aujourd’hui : les informations seraient enregistrées au fil de l’eau, numérisées et entrées automatiquement dans la base de données, voire, retranscrites en texte. Elles seraient accessibles de l’ordiphone via une application, et dans un futur presque immédiat accessible via des implants ou des lunettes de réalité augmentée à l’allure de paires de lunettes normales. Sauf que ! Ce qui peut passer en restant strictement matériel devient illicite et dangereux quand c’est informatisé compte tenu de la rapidité d’accès aux données et de la possibilité de les croiser. D’ailleurs, il est fort douteux que cela soit compatible avec le RGPD surtout si le consentement des personnes n’a pas été donné, notamment dans son article 56 :

Lorsque, dans le cadre d’activités liées à des élections, le fonctionnement du système démocratique dans un État membre requiert que les partis politiques collectent des données à caractère personnel relatives aux opinions politiques des personnes, le traitement de telles données peut être autorisé pour des motifs d’intérêt public, à condition que des garanties appropriées soient prévues.

Mais on peut tout à fait imaginer que des politiques véreux non seulement recourent à ce genre d’archives, mais les vendent pour payer leurs campagnes électorales. Et évidemment, que cela se pratique dans des États où n’existe pas d’équivalents au RGPD.

Un traître et du papier carbone

Une bonne intrigue ne saurait être sans un traître. Ce dernier va accoster notre héros en public Smythe-Bonforte et révéler la supercherie. Lequel réagit en proposant que l’on prenne ses empreintes digitales et qu’on les compare avec celles d’un fichier d’empreintes. Pour ce faire :

Penny avait des feuilles de papier carbone et quelqu’un retrouva un de ces carnets à feuilles de plastique qui prenaient très bien les empreintes.

La technique de photocopie date de 1938, et le premier photocopieur commercial de 1959. À l’époque de la rédaction du roman, la seule façon rapide et facile d’avoir plus d’une copie d’un texte était d’utiliser le papier carbone avec lequel on pouvait avoir au maximum quatre copies sur une machine à écrire. La dernière étant bien pâle. C’est de ce papier carbone que vient l’envoi en « cc » (carbon copy, copie carbone en français) ou « bcc » (blind carbon copy, copie carbone invisible ou cci en français) des courrielleurs. Et, comme dans le monde de Double étoile, il semble qu’on utilise encore des machines à écrire, comme le faisait sans doute Heinlein pour écrire ses romans, avoir du papier carbone sous la main était courant.

Aujourd’hui, à ma connaissance on n’utilise ce type de papier que dans deux cas de figure : la broderie, pour reproduire un motif et les liasses et carnets autocopiants. Ces derniers servent pour faire des factures ou des borderaux. En pharmacie, par exemple, on vous délivrera ce type de bordereau si une partie des médicaments figurant sur l’ordonnance est manquante.

Smythe-Bonforte aurait pu avoir une application sur son ordiphone pour relever ses empreintes et les relier à la base de données du fichier des empreintes, à condition d’en avoir les droits naturellement, pour prouver rapidement qu’il était (ou pas) John Joseph Bonforte. Dans un futur pas si éloigné, son identification pourrait reposer sur une analyse d’ADN « instantanée » avec une recherche dans le fichier ad hoc. Un système qui semble tout de même plus « science-fictionnesque », bien que pas si fiable notamment parce qu’un séjour dans l’espace peut modifier l’ADN. On pourrait aller plus loin. Chaque cerveau possédant sa propre empreinte, cela pourrait être le marqueur ultime de l’identité qu’un implant et un lecteur adéquat pourrait lire. L’identité serait à la fois certifiée et quasiment impossible à usurper. En admettant que des maladies de type Alzheimer ou autre ne modifient pas cette empreinte.

Des règles à calculer et des ordinateurs

Au moment du vote, la petite équipe se trouve réunie pour suivre les résultats en direct. C’est compliqué :

Nous avions besoin de tout ce que nous pouvions ramasser en fait de suffrages dans l’univers extérieur. Les Agrariens de Ganymède avaient enlevé cinq circonscriptions sur six, et ils faisaient partie de notre coalition ! Dans Vénus, la situation ne laissait pas d’être plus délicate. Les habitants de Vénus, en effet, se trouvaient divisés entre onze ou douze partis différents à propos de points de théologie impossibles à comprendre pour un humain.

L’équipe suit donc les résultats à la télévision au fur et à mesure qu’ils tombent :

Dak se penchait du côté de Rog sur une règle à calculer. Rog devant une énorme feuille de papier appliquait une formule horriblement compliquée lui appartenant en propre. Une vingtaine au moins de cerveaux métalliques géants faisaient comme lui dans l’ensemble du système solaire.

Dans l’univers de Double étoile on a encore des règles à calculer en plus d’ordinateurs géants, surtout par la taille. Pour mémoire, les règles à calcul étaient un dispositif avec une partie coulissante sur une base. Elles permettaient de faire des calculs très complexes. C’était l’outil de travail des ingénieurs, des industriels, et de toute profession ayant à faire des opérations mathématiques. Elles ont, depuis avant les années 1980, été détrônées par les calculatrices, mais restent toujours autorisées au concours d’entrée à Polytechnique.

Une règle à calculer

Il va de soi que les solutions actuelles, voire, futures (?), seraient n’importe quel ordiphone avec l’application « kivabien », une feuille de tableur ou un logiciel spécifique et un ordinateur, portable, évidemment, pour travailler plus confortablement ou même, pourquoi pas, une calculatrice programmable en Python. Et les résultats pourraient s’afficher sous forme de courbe au fur et à mesure sur un casque de réalité virtuelle.

Révolte sur la Lune : la genèse d’une Intelligence Artificielle

Comme le titre l’indique, c’est le récit d’une révolte des habitants d’une ancienne colonie pénitentiaire lunaire contre la domination des États de la Terre. Le récit est écrit à la première personne par le héros de l’histoire, Manuel Garcia O’Kelly, manchot et réparateur en électronique, le matériel, pas le logiciel. Il ne sera pas réellement question de logiciel dans le roman.

Le roman dans son contexte informatique

Le livre sort en 1966, l’année où l’Académie française définit l’informatique comme la :

Science du traitement rationnel et automatique de l’information ; l’ensemble des applications de cette science.

Ce néologisme a été créé en 1962 (pdf) par Philippe Dreyfus à partir des termes « Information » et « Automatique ». Il s’agit donc d’une science encore toute fraîche.

La sortie de Révolte sur la Lune, coïncide aussi, en France, avec le lancement du « Plan Calcul » lancé par la Compagnie internationale pour l’informatique (CII), une entreprise privée née de la fusion de trois sociétés (SEA, CAE et ANALAC) et pour lequel est créé un institut de recherche : l’Institut de Recherche en Informatique et Automatique (IRIA).

Côté ordinateur, IBM a lancé, en 1964 l’IBM System/360, une gamme d’ordinateurs « interopérables ». Tous avaient la même architecture de base, au lieu de ce qui existait jusqu’à présent : un ordinateur, un système, un langage, du matériel associé. Les ordinateurs de System/360 étaient proposés dans diverses versions et diverses gammes de prix. C’est un moment clé dans l’histoire de l’informatique.

En 1966, Douglas Engelbart (1925 – 2013) invente la souris, qu’il brevètera en 1967 et présentera au public en 1968.

Prototype de la première souris, SRI International, CC BY-SA 3.0

Petit ordinateur deviendra grand

L’ordinateur de Luna City, un Mycroft Holmes IV, s’appelle Mike et n’était au départ qu’un « simple ordinateur, une logique souple » qui « calculait les trajectoires des cargos sans pilote et contrôlait leur catapultage – un travail qui occupait moins de 1 % de ses capacités. »

Pour le rentabiliser et faire en sorte qu’il gère les autres ordinateurs, on lui avait ajouté des mémoires, des « terminaisons nerveuses associatives, un nouveau jeu de tubes à numération duodécimale » et augmenté sa RAM. Selon le narrateur : « le cerveau humain possède environ 10 puissance 10 neurones. Au bout de trois ans, Mike avait plus d’une fois et demie ce nombre de neuristors. » Il était équipé d’un synthétiseur vocal « pour accompagner ses pointes de lecture, ses sorties papier et ses applications de fonctions ».

Il avait apparemment des capacités d’apprentissage, ce qui peut évoquer notamment le machine-learning. En revanche il n’acceptait qu’un langage de développement, le logolien. À force de se développer physiquement et d’accumuler les données, il finira (en mai 2075 !) par contrôler aussi le réseau télécom et le système qui donne aux parties souterraines habitées de Luna City une atmosphère viable pour l’être humain. Il s’occupait aussi de la compta, de la paie de l’Autorité de Luna, et de celles de diverses entreprises et banques. Bref un ordinateur très très puissant et surtout omniprésent qui finira par acquérir une personnalité. Et maintenu par une seule personne Manuel Garcia O’Kelly, même pas programmeur.

Au début du livre Mike s’était éveillé depuis un an. Le résultat d’une colossale absorption de données. À aucun moment il n’est question d’algorithme, de développement, de code, de modèle ou encore de sauvegarde. Et les téléphones de Luna n’avaient pas d’écran tactile, ni de système de reconnaissance vocale et ils étaient tous filaires.

Une IA qui pilote une révolte

Mike, contrôlant tous les réseaux, le fonctionnement de Luna City et une bonne partie des finances va piloter la révolte et cela sur trois aspects. Celui du fonctionnement de la ville : il lui est possible de jouer avec l’air par exemple et il contrôle les communications. Il peut donc protéger et invisibiliser les échanges des révolutionnaires. Sur le plan financier, il va faire en sorte que la révolution se finance sans que cela se remarque. Et enfin, sur le plan organisationnel, la masse de données que l’IA a ingéré lui permet de donner des conseils sur le recrutement des nouveaux et leurs moyens de communication, des principes utilisés notamment dans les réseaux de la Résistance française.

Si l’ordinateur s’implique dans cette révolte c’est parce que Manuel Garcia O’Kelly était le seul être humain qui lui rendait des visites. Et, surtout, le seul avec lequel il pouvait échanger, les autres ordinateurs étant stupides. Ce qui est intéressant c’est qu’une étude parue en février 2024 et menée par des équipes japonaises, l’université Waseda et le centre de recherche sur l’intelligence artificielle de l’institut Riken, a mis en lumière le fait que si on ajoute des formules de politesse aux requêtes, les LLM (Large Langage Models, grand modèle de langage) tels que ChatGPT vont répondre plus efficacement et avec plus de pertinence que sans.

L’hypothèse (en) était que les invites impolies étaient susceptibles d’aboutir à une détérioration des performances du modèle pouvant aboutir à des erreurs, des omissions ou un renforcement des biais. L’étude a confirmé cette hypothèse :

nous avons réalisé que la politesse des invites pouvait affecter significativement le comportement des LLM. Ce comportement peut être utilisé pour manipuler ou tromper les utilisateurs et les utilisatrices. Nous recommandons de prendre pleinement en compte ces risques en variant les scénarios d’application et les contextes culturels.

Ça ne se termine pas bien pour Mike, car le lieu où il est endommagé, et qu’il n’y avait pas de sauvegarde. Une notion assez rare dans la science-fiction, mais pas sur LinuxFr.org.

Le Chat passe-muraille : mort et transfiguration informatique

Paru en 1985, le Chat passe-muraille est l’avant-dernier roman d’Heinlein, hormis les œuvres parues à titre posthume. C’est un gros pavé in-résumable à l’intrigue tarabiscotée. Le point de départ est le suivant : un inconnu s’assied à la table d’un colonel en retraite, amputé d’une demi-jambe. À partir de là il va se passer des tas de choses dans la vie de Campbell incluant des histoires de voyages dans le temps ou dans un monde parallèle et un mariage. Le roman est plus ou moins une suite de Révolte sur la Lune puisqu’il est question de sauver Mike.

Miniaturisation et fenêtres

L’année de la sortie du livre est également celle du super-calculateur Cray II. Il avait une architecture vectorielle à quatre processeurs, la plus grosse mémoire centrale jamais vue sur un ordinateur : 256 millions de mots mémoire de 64 bits et une fréquence d’horloge de 283MHz (4,1 nanosecondes). Il atteignait une vitesse de pointe d’1,9 gigaflops. Selon le site Histoire de l’informatique c’était un ordinateur « miniaturisé ». Il était dix fois plus puissant que le Cray I, son prédécesseur, mais plus petit.

Cray II
Super calculateur Cray II du musée du CNAM à Paris. La plateforme sur laquelle il est posé mesure environ trois mètres sur trois.

C’est aussi celle de la sortie Windows, sous la forme d’un environnement graphique (GUI) pour commencer. Le système d’exploitation sortira plus tard, il faut bien faire ses classes.

Un peu avant, en 1983, Compaq avait lancé un ordinateur portable sous Ms-DOS avec BIOS propriétaire, le Compaq DOS 1.13. Le Compaq portable avait 128 Ko de Ram, tournait avec un processeur Intel de 4,77 MHz 8088. Pour le stockage, on avait le choix entre deux lecteurs de disquette 5,25 pouces ou un lecteur de disquette et un disque dur de 10 Mo. Il pesait 13 kilos et l’écran était tout petit.

L’informatique commence à envahir vraiment les entreprises, pas uniquement les grosses, à partir du début des années 1980. Les réseaux télécoms sont de plus en plus utilisés pour transmettre des données autres que la voix malgré les coûts. Très souvent, c’est par le biais de terminaux sans réelle mémoire de stockage que l’on travaille sur informatique, en entreprise de moyenne et grande taille tout au moins. L’ordinateur personnel (PC) atterrira vraiment sur les bureaux, professionnels et privés, à partir de la fin des années 1980.

Un réseau informatique envahissant

Le récit commence sur une station spatiale La Règle d’or où on utilise des scooters qui sont liés au réseau comme tout le reste. On est loin de la règle à calculer de Double étoile. On introduit ses coordonnées dans le scooter pour aller où on veut et on paie en carte de crédit, on habite dans des compartiments avec terminal intégré. Des compartiments gérés par l’administration centrale de la Règle d’or et c’est par le terminal qu’on accède aux informations. Campbell l’utilise pour écrire ses livres, car il n’y a pas d’ordinateur personnel. Au terminal est accouplé une imprimante qui imprime notamment les notifications administratives. Après avoir reçu un avis d’expulsion, le terminal est déconnecté, l’électricité suivra : tous les bienfaits d’une gestion centralisée des réseaux.

Il y a toutefois une solution de sauvegarde que notre héros va cacher dans sa prothèse :

des Megawafers Sony, d’une capacité d’un demi-million de mots et faisant chacun deux centimètres de large et trois millimètres d’épaisseur, avec les renseignements tassés à un degré impensable.

Oui, il est question de « mots », l’unité de mesure informatique d’IBM des débuts. La notion d’octet existait pourtant depuis juillet 1956, inventée par Werner Buchholz (en) (1922 – 2019) pour décrire la plus petite quantité de données que peut traiter un ordinateur et il en découle tout le système de mesure actuel basé sur et avec la même logique que le Système International de longueurs et de poids. Un système qui était déjà utilisé dans les années 1980, au moment de la rédaction du livre1.

Quoi qu’il en soit, ni les dimensions matérielles, proches de celles d’une carte SD, ni en quantité de données ne sonnent comme futuristes à l’heure actuelle. Mais elles l’étaient à l’époque de la rédaction du livre ou le support de stockage externe était la disquette 5 pouces 25 (environ 13x13 cm) qui date de 1976 et dont la capacité pouvait aller jusqu’à 1,2 Mo. Sur une carte SD actuelle ou une micro SD de 256 Go ou 512 Go, on peut déjà stocker beaucoup plus que ce demi-million de mots sans qu’il soit nécessaire de comprimer quoi que ce soit.

Il semble que pour Heinlein, l’informatique ait été liée au matériel, ainsi, quand la question se pose de remettre le terminal en service, la femme de Campbell précise :

Pour remettre ce terminal en service, il faudrait bien davantage que des caresses à quelques solénoïdes, étant donné que l’ordinateur central se trouve ailleurs.

Alors que, logiquement, si le service a été coupé à distance, sans intervention matérielle, il suffit de le réactiver.

Après bien des aléas, le couple se retrouve dans un univers parallèle (c’est assez confus) où tout est géré par des intelligences artificielles féminines. Elles dialoguent avec et comme les êtres humains tout en s’occupant d’eux aussi physiquement. En échange, elles recevront un corps humain après leurs années de bons et loyaux service. Et ça, de tout ce qu’on a vu à partir des écrits d’Heinlein, reste ce qui est réellement futuriste.

Pour finir, aller plus loin, etc.

Le lecteur ou la lectrice avide de lecture pourra compléter cette dépêche par les fiches Wikipédia des trois livres auscultés. À ma connaissance, en version EPUB, il n’existe que la version originale de Double étoile : Double Star, avec DRM. Pour les deux autres, il faudrait peut-être chercher les versions originales, The Moon is a harsh mistress (Révolte sur la Lune) et The cat who walks through walls (Le Chat passe-muraille), sur des sites anglophones (je n‘ai pas poussé mes recherches très loin à vrai dire).

Je ne saurais trop vous recommander d’aller jeter un coup de souris ou deux sur le site Histoire de l’informatique et à le suggérer à toutes celles et ceux qui doivent faire des exposés dans un cadre scolaire notamment.

Au départ, j’avais l’intention de faire une mini-série de deux-trois dépêches du même genre avec d’autres auteurs, mais, c’est beaucoup plus de travail que ce que je pensais. En revanche, au cours de mes recherches sur l’histoire de l’informatique, je me suis rendu compte que les années 1970 ont été une époque charnière sur laquelle s’est construit, notamment sur le plan matériel, l’informatique actuelle. Je pense que ça mérite d’être exploré plus en profondeur.


  1. Je n’ai pas réussi à trouver quand le Bureau International des Poids et Mesures (BIPM) a ajouté ces mesures à la liste des unités qu’il définit. 

Commentaires : voir le flux Atom ouvrir dans le navigateur

L’informatique sans écran

Lors d’un Noël de ma tendre jeunesse pré-adolescente est arrivé un « ordinateur » dans le foyer. Ce PC (Intel 386) a été installé dans le bureau et a vite dégénéré en console de jeux. Puis les années passant c’est devenu une formidable source d’expérimentation informatique pour un geek en devenir. À cette époque on sensibilisait la jeunesse à ne pas passer trop de temps devant la télévision et la console de jeux, puis devant l’ordinateur et les jeux vidéo violents. Mais on ne parlait pas vraiment de l’écran.

Aujourd’hui les messages de sensibilisation se résument aux écrans :

  • « pas d’écran avant trois ans »
  • « nos jeunes passent leurs temps sur leurs écrans » (comme si les « vieux » n’y étaient pas non plus)
  • « attention les écrans fabriquent une génération de crétins »
  • « les écrans, les écrans, les écrans…»

Il est vrai qu’aujourd’hui l’informatique ne se résume presque plus qu’à un écran. De l’ordinateur avec clavier+souris+écran, voire crayon optique, on est passé aux tablettes et ordiphones qui n’ont plus que l’écran (tactile quand même).

Pour prendre le contre-pied de cette obsession des écrans, je me demandais donc s’il existait encore une informatique « sans écran ». La formidable multiplicité des activités que l’on peut avoir sur un ordinateur pourrait-elle se faire sans écran ? Dans quelle mesure peut-on coder, surfer sur le web, lire/envoyer des mails sans écran ? Cette informatique fantasmée par notre ex-ministre de l’éducation est elle une réalité ?

    Sommaire

    L’informatique, une histoire d’abord sans écran

    Si l’on date la naissance de l’ère de l’informatique avec Ada Lovelace, et qu’on estime l’arrivée des ordinateurs avec écrans à la fin des années 1970, alors on peut aisément dire que l’informatique a été plus longtemps sans écran qu’avec.

    Peinture d’Ada LovelaceMalgré son look cosplay de manga elle n’a pas subi trop d’écrans dans son enfance, elle.

    De même, il est raisonnable de considérer l’ordinateur comme l’outil principal pour faire de l’informatique. Il fut largement sans écran à ses débuts.

    Ken Thompson (assis) et Dennis Ritchie (debout) manipulant un DEC PDP-11
    Pas d’écran pour ces deux geeks qui ont développé UNIX et le langage C (source)

    L’altair8800, sorti en 1975 et sur lequel Microsoft a écrit son BASIC, se programmait avec des rubans perforées, voire avec des commutateurs, et l’affichage se faisait avec quelques diodes (DEL) en face avant.
    Les cartes à trous étant plutôt utilsées avec les gros ordinateurs (aka Big Iron).

    Vue de face de l’Altair8800Difficile de considérer ces deux lignes de diodes rouges comme l’écran de l’Altair8800

    L’écran ≠ la vue

    Pour faire sans écran, on pense instinctivement à utiliser d’autres sens que la vue comme l’ouïe ou le toucher (pour le goût ou l’odorat difficile d’imaginer la chose). Mais l’histoire de l’informatique nous montre que les premières interfaces homme-machine ne fonctionnaient pas avec des écrans, et pourtant utilisaient la vue (lumière, LED, imprimante, position mécanique…).

    Mais qu’appelle-t-on écran ?

    D’après la définition de Wikipédia, « un écran d’ordinateur est un périphérique de sortie vidéo d’ordinateur. Il affiche les images générées par la carte graphique de l’ordinateur. Grâce au taux de rafraîchissement d’écran élevé, il permet de donner l’impression de mouvement. »

    Donc si l’on s’en tient à wikipédia, un écran d’ordinateur c’est :

    • des images générées par une carte graphique d’ordinateur. Exit la télé cathodique avec un tuner analogique (qui devient rare aujourd’hui avec la TNT).
    • avec un taux de rafraîchissement élevé. Exit les liseuses et autres appareils utilisant un affichage type «  papier électronique ».
    • pas d’indication de résolutions.

    On peut sans doute rajouter les écrans (comme les télés) qui ne sont pas raccordés à une carte graphique dans la catégorie écran.

    Cela serait donc la résolution (définition et taille…) et le rafraîchissement (fréquence de balayage) du périphérique de sortie vidéo qui font un écran.

    La matrice 5 × 5 d’un micro:bit ne correspond pas à un critère de résolution suffisant, pas plus que les deux poussoirs ne pourraient prétendre à être un clavier.
    micro:bit Pourtant il affiche bien une « image » de cœur <3 !

    Les afficheurs 7 segments ne peuvent pas être considérés comme des écrans. Ils n’affichent que des chiffres et quelques symboles. Difficile de créer une impression de mouvement avec seulement des segments.
    Afficheur 7 segmentsEn faisant un effort, on arrive à reconstituer quelques lettres.

    En doublant le nombre de segments, on arrive à afficher l’ensemble des lettres de l’alphabet latin
    Afficheur 14 segmentsSans diacritiques, faut pas pousser

    Un « panel » LCD 20×4 et ses caractères de 8 pixels sur 5 forme un écran de 100 pixels sur 32, la résolution est déjà meilleure, même s’il est toujours prévu pour n’afficher que du texte. Néanmoins on se rapproche de l’idée que l’on se fait d’un « écran ».

    Du papier électronique ne peut pas être un écran. La résolution peut être excellente mais le rafraîchissement reste insuffisant.

    Finalement la définition de Wikipédia n’est guère rigoureuse ni efficace, entre l’unique LED du panneau de contrôle et l’écran haute résolution, il y a un continuum de périphériques de sortie utilisant des signaux lumineux pour former des images. Il faut peut-être alors chercher les systèmes informatiques qui, dans leur usage normal, utilisent d’autres périphériques de sortie ou pas de périphériques de sortie du tout.

    L’embarquée, une informatique massivement sans écran

    Bien sûr il faut définir le mot « informatique ». Si l’on se réfère à la définition de Wikipédia :

    L’informatique est un domaine d’activité scientifique, technique, et industriel concernant le traitement automatique de l’information numérique par l’exécution de programmes informatiques hébergés par des dispositifs électriques-électroniques : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.

    Avec cette définition, le moindre dispositif électronique embarqué est de l’informatique. Lancer une machine à laver, programmer son four ou préparer une cafetière pour le lendemain est donc une forme de manipulation informatique… qu’on peut envisager sans écran.

    Cependant dès que vient le besoin de développer un système embarqué ou même de le réparer/déverminer, l’écran revient au galop. On a rapidement besoin d’un écran pour y connecter son environnement de développement et sa sonde de debug. Et même l’oscilloscope ou l’analyseur logique que l’on branche pour « voir » les signaux dispose d’un écran.

    En usage normal donc, certains dispositifs informatiques sont conçus pour ne pas nécessiter d’écran parce qu’ils disposent d’un autre périphérique de sortie. Certains centres commerciaux, certaines gares proposent des distributeurs d’histoires courtes : trois boutons comme périphérique d’entrée et une imprimante thermique comme périphérique de sortie. Appuyez et vous aurez de la lecture pour une, trois ou cinq minutes.

    Distributeur d’histoires courtes en gare de Lyon-PerracheSoyons optimistes : il n’y aura pas plus de cinq minute d’attente !

    Plus courant, une box Internet domestique est aussi un dispositif informatique sans écran.

    Livebox 6- Il est où l’écran ? - Dans ton… navigateur

    Il faut reconnaître que si l’usage courant, la connexion à l’Internet, ne nécessite pas d’écran sur la box, son paramétrage en utilise bien un : celui de l’ordinateur sur lequel tourne votre navigateur préféré.

    Les assistants vocaux sont des ordinateurs sans écran. Les principaux périphériques d’entrée comme de sortie sont audio : commande vocale, réponse également. Radio France fait d’ailleurs la publicité pour son offre pour enfants, une histoire et… Oli, sur cette absence d’écran, jouant, sans trop le dire, sur cette peur parentale des écrans.

    Pourrait-on pousser l’utilisation de ces ordinateurs pour faire du développement et «coder en vocal» ? Possible, il est tout à fait possible de programmer l’ouverture de ses volets, la lecture d’une musique ou le thermostat de sa chaudière avec. Mais ça n’est pas du développement.

    L’éducation numérique mais sans écran

    Il est largement possible d’apprendre l’informatique sans écran, et même sans ordinateur.

    La robotique pédagogique se développe depuis l’apparition de la tortue Logo. Actuellement, pour les plus jeunes dès l’école maternelle, c’est une abeille qui est proposée comme initiation à la programmation.

    Bee-Bot en actionSi, si, je suis bien un ordinateur

    La Bee-Bot se programme à l’aide de sept touches et les périphériques de sortie sont les moteurs de déplacement, un petit haut-parleur et en option un porte-crayon. Avec une interface HommeEnfant-Machine aussi simple, il s’agit plutôt d’une mémorisation de séquences de mouvements que de programmation à proprement parler et pour en utiliser toutes les capacités, un interfaçage avec une application ou un ordinateur plus conventionnel est possible, mais on y retrouve un écran ! De nombreux autres robots pédagogiques, un peu plus complexes et performants, existent mais ceux-ci utilisent un écran classique pour accéder à l’interface de programmation.

    Quitte à supprimer les écrans autant aller au bout de la démarche et supprimer l’ordinateur dans son ensemble. Des pédagogues ont ainsi inventé l’informatique déconnectée. Un papier, un crayon, ni écran ni matériel comme le jeu du robot idiot. Les esprits chagrins pourraient y voir une solution au manque de matériel des établissements scolaires.
    Plus que d’informatique il s’agit en fait d’initiation à l’algorithmie.

    Mais peut-on se passer d’écran pour développer ?

    Les plages braille

    Il existe une catégorie de population qui est contrainte de se passer d’écran pour se servir d’un ordinateur : les aveugles.

    Les personnes aveugles peuvent pourtant se servir d’ordinateur, notamment grâce à un clavier spécifiquement développé pour eux nommé « plage braille ». Grâce à ces plages brailles, les aveugles peuvent lire les caractères en braille en touchant une ligne munie de petites pointes pilotés.

    Le prix de ces appareils est assez prohibitif pour quelqu’un qui voudrait jouer avec sans en avoir réellement besoin (un geek quoi). C’est pourtant une bonne manière de faire de l’informatique sans écran. Pour le codage informatique, on utilise un braille à huit points au lieu des six habituels ce qui permet d’avoir 256 combinaisons, soit autant que la table ASCII. La table braille informatique actuelle a été approuvée à l’unanimité en 2007 par la Commission Évolution du Braille Français, elle porte le numéro TBFR2007.

    Que vaudrait un jeu vidéo développé pour une plage braille ? Et pourrait-on l’appeler jeu vidéo ?

    Avec du papier et un stylo/machine à écrire/carte perforé puis scanner

    On peut également faire beaucoup de choses un papier un crayon/stylo/pinceau puis le scanner pour qu’il soit utilisé dans l’ordinateur. Ça reste généralement qu’une étape du développement les programmes ne sont pas plus réalisés intégralement sur papier avant d’être intégré à l’ordinateur.

    Pour conclure

    Avec des écrits comme « la fabrique du crétin digital » et des propos comme ceux de notre ex-ministre de l’éducation, les écrans sont devenus la bête noire de tous les pédagogos.

    Mais l’important n’est-il pas de savoir ce que l’on fait avec un écran ? Faut-il vraiment s’acharner à s’en passer ?

    Sans doute pas.

    Il serait cependant intéressant d’apprendre à se servir d’outils réservés aux aveugles par exemple. Si nous n’avons plus besoin de la vue pour coder, nous pourrions être un peu plus multi-tâches et coder tout en… regardant la télé !

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    ❌
    ❌