Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Heinlein : du papier carbone sur la Lune et une IA

2 août 2024 à 09:50

Une dépêche estivale où on ira à la rencontre de l’auteur de science-fiction américain Robert Heinlein à travers trois de ses romans : Double étoile (1956), Révolte sur la Lune (1966) et Le Chat passe-muraille (1985). L’idée ? Replacer Heinlein ainsi que ses romans dans l’histoire de l’informatique, voir comment cela fonctionnerait à l’heure actuelle, éventuellement se livrer à une prospective. L’informatique n’est pas une science si nouvelle. Il serait temps que ça rentre dans les esprits.

Une étagère

Sommaire

Heinlein et le temps informatique

Robert Anson Heinlein nait en 1907, soit un an après Grace Hopper, conceptrice du premier compilateur et du Cobol et cinq ans avant Alan Turing qui a travaillé à la conception des tout premiers ordinateurs. Il meurt en 1988 quelque chose comme quatre ans après la sortie du premier ordinateur Macintosh, trois ans après la sortie de Windows et trois ans avant la naissance de Linux.

Il sort diplômé de l’Académie navale d’Annapolis. En 1947, l’année de sortie de l’EDVAC, il épouse Virginie Gerstenfeld, une ingénieure qui a procédé à des tests de fusée. Ensemble ils feront de leur maison « la maison de l’avenir » (image d’article de presse, en) qui avait, notamment, pour plaire à la femme au foyer (sic), un bureau dans la cuisine avec un téléphone et une machine à écrire. Elle ne préfigure pas du tout celle de Xanadu 2.0 de Bill Gates, achevée en 1996.

Le premier roman de Heinlein, Sixième colonne parait en 1941, l’année de sortie du Z3 de Konrad Zuse, le premier ordinateur programmable en calcul binaire et à virgule flottante ayant vraiment fonctionné et onze ans avant la création de la NASA. Son dernier roman paru de son vivant, Au-delà du crépuscule paraît en 1987, l’année de naissance du langage Perl.

Il est difficile de savoir à quel point Heinlein suivait l’évolution de l’informatique. On verra, toutefois, que cet aspect, traité à la marge dans Double étoile en 1956, devient réellement « futuriste » dix ans après avec Révolte sur la lune et l’apparition d’une intelligence artificielle.

Double étoile, 1956, du papier carbone et des règles à calcul

Double étoile est considéré comme l’un de ses romans majeurs. Il paraît en 1956, l’année de la naissance de Fortran, un an avant que Frances Allen (prix Turing 2006) n’intègre IBM et trois avant l’IBM 1401. Ce dernier, le plus vendu des ordinateurs de 2e génération d’IBM avait une mémoire entre 1,4 à 16 Ko selon les configurations. Il n’avait pas d’écran et était composé de trois machines : une lectrice perforatrice de carte, une unité centrale avec tableau de contrôle et une imprimante. On pouvait en outre y connecter des bandes magnétiques pour étendre ses capacités. Les IBM 401, étaient plus lourds qu’une armoire normande et occupaient plus d’espace au sol, mais les trois blocs étaient plus facilement mobiles, car ils étaient pourvus de roulettes.

Le propos

Le propos : un politicien, John Joseph Bonforte, est enlevé en pleine période électorale. Son équipe de campagne s’adresse à un acteur, Lawrence Smythe qui est son sosie pour le remplacer le temps de le retrouver. Et évidemment, il y a un traître dans l’équipe de campagne. Ça se passe surtout sur la Lune où règne un empereur d’un empire galactique. Bonforte se présente aux élections de premier ministre (la personne qui a le réel pouvoir). Quatre scènes du livre nous intéressent.

Le téléphone, forcément filaire

Même si le livre se passe dans le futur (y compris le nôtre), Heinlein n’avait pas envisagé la téléphonie mobile que nous connaissons. Au début du livre, Smythe est dans un bar où un serveur l’avise d’un appel téléphonique. Il demande à ce qu’on lui apporte le téléphone. Ce à quoi il lui est répondu d’aller dans une cabine qui est, elle, une réelle avancée technologique, puisqu’il s’agit d’une cabine super protégée où les conversations restent réellement confidentielles.

La première expérience de téléphonie sans fil daterait de 1900, soit vingt-quatre ans après l’invention du téléphone lui-même par Graham Bell. Mais elle ne deviendra une pratique courante, pour reprendre les termes de l’article du Petit journal, que vers les années 1980. C’était encore un domaine très balbutiant en 1956, plutôt réservé aux voitures et autres véhicules automobiles. C’était cher et le matériel était lourd et encombrant. Le premier téléphone mobile réellement portable et utilisable par les piétons date du début des années 1970. Le prototype avec lequel Martin Cooper, chercheur chez Motorola, a passé le premier appel en 1973 pesait plus d’un kilo et ne tenait, évidemment, pas dans une poche et pas terriblement bien dans la main, à vrai dire. Le téléphone mobile (ou cellulaire) deviendra « intelligent » en 1994.

Martin Cooper
Martin Cooper et une collection des premiers téléphones mobiles.

L’écran tactile a été inventé à peu près au même moment, en 1972. Conçu par l’Université de l’Illinois, il sera réalisé par IBM avec son ordinateur « Plato IV ». Il faudra attendre 2007 avec l’Iphone d’Apple pour que les écrans tactiles se répandent sur les ordiphones.

Aujourd’hui, Smythe recevrait l’appel sur son téléphone mobile, mais sans aucune garantie de confidentialité et, évidemment, avec des écouteurs BlueTooth. Le futur (pas si lointain ?) serait qu’au lieu de parler à haute voix, on puisse se contenter de subvocaliser et que l’on ait des implants pour utiliser son ordiphone.

Les archives Farley, des données incompatibles avec le RGPD

Pour pouvoir bien jouer le rôle de Bonforte, Smythe a besoin de connaître beaucoup d’informations :

Mon numéro de funambule n’était possible que grâce aux archives Farley de Bonforte. Les archives Farley de Bonforte étaient des archives modèles. On n’a sans doute jamais rien fait de mieux dans le genre.

James Aloysius Farley était un politicien né en 1888 et mort en 1976. Il est connu, du Wikipédia allemand, pour avoir été le directeur de campagne de Franklin Delano Roosevelt. Il a créé pour lui un système d’archives de données sur toutes les personnes que le futur président avait rencontré. Les informations pouvaient être très complètes et comporter des données aussi personnelles que des informations sur les conjoints, les enfants, le reste de la famille, etc. ainsi que des anecdotes sur les personnes. D’après la page de Wikipédia, en allemand, consacrée aux archives Farley (de), les « archives Farley sont largement utilisées par les politiques et dans le monde des affaires.

Dans le roman d’Heinlein, ces :

archives portaient sur des milliers et des milliers d’hommes, femmes, enfants que Bonforte avaient rencontrés au cours de sa longue existence publique. Chacun des dossiers résumait tout ce qu’on savait d’une personne donnée, d’après le contact personnel que Bonforte avait eu avec elle. Tout s’y trouvait. Même et y compris les détails les plus insignifiants (c’était même par ces détails insignifiants que commençaient les dossiers) : noms et surnoms de l’épouse, des enfants et des animaux favoris, violons d’Ingres, goûts en matière de nourriture et de boisson, préjugés, manies…, etc. Venait ensuite la liste de toutes les rencontres de Bonforte avec la personne en cause. Accompagnée d’un commentaire permanent.

Elles étaient alimentées par Bonforte et son assistante, Penny à l’aide d’un enregistreur actionné par la chaleur corporelle, celui de Penny étant un bracelet. Ensuite les enregistrements étaient retranscris par deux femmes dont c’était le travail à plein temps et microfilmés. Heinlein reste vague sur le mode de consultation desdites archives hormis sur le fait que, lorsque Bonforte disposait d’un écran, Penny lui envoyait des messages.

Aujourd’hui : les informations seraient enregistrées au fil de l’eau, numérisées et entrées automatiquement dans la base de données, voire, retranscrites en texte. Elles seraient accessibles de l’ordiphone via une application, et dans un futur presque immédiat accessible via des implants ou des lunettes de réalité augmentée à l’allure de paires de lunettes normales. Sauf que ! Ce qui peut passer en restant strictement matériel devient illicite et dangereux quand c’est informatisé compte tenu de la rapidité d’accès aux données et de la possibilité de les croiser. D’ailleurs, il est fort douteux que cela soit compatible avec le RGPD surtout si le consentement des personnes n’a pas été donné, notamment dans son article 56 :

Lorsque, dans le cadre d’activités liées à des élections, le fonctionnement du système démocratique dans un État membre requiert que les partis politiques collectent des données à caractère personnel relatives aux opinions politiques des personnes, le traitement de telles données peut être autorisé pour des motifs d’intérêt public, à condition que des garanties appropriées soient prévues.

Mais on peut tout à fait imaginer que des politiques véreux non seulement recourent à ce genre d’archives, mais les vendent pour payer leurs campagnes électorales. Et évidemment, que cela se pratique dans des États où n’existe pas d’équivalents au RGPD.

Un traître et du papier carbone

Une bonne intrigue ne saurait être sans un traître. Ce dernier va accoster notre héros en public Smythe-Bonforte et révéler la supercherie. Lequel réagit en proposant que l’on prenne ses empreintes digitales et qu’on les compare avec celles d’un fichier d’empreintes. Pour ce faire :

Penny avait des feuilles de papier carbone et quelqu’un retrouva un de ces carnets à feuilles de plastique qui prenaient très bien les empreintes.

La technique de photocopie date de 1938, et le premier photocopieur commercial de 1959. À l’époque de la rédaction du roman, la seule façon rapide et facile d’avoir plus d’une copie d’un texte était d’utiliser le papier carbone avec lequel on pouvait avoir au maximum quatre copies sur une machine à écrire. La dernière étant bien pâle. C’est de ce papier carbone que vient l’envoi en « cc » (carbon copy, copie carbone en français) ou « bcc » (blind carbon copy, copie carbone invisible ou cci en français) des courrielleurs. Et, comme dans le monde de Double étoile, il semble qu’on utilise encore des machines à écrire, comme le faisait sans doute Heinlein pour écrire ses romans, avoir du papier carbone sous la main était courant.

Aujourd’hui, à ma connaissance on n’utilise ce type de papier que dans deux cas de figure : la broderie, pour reproduire un motif et les liasses et carnets autocopiants. Ces derniers servent pour faire des factures ou des borderaux. En pharmacie, par exemple, on vous délivrera ce type de bordereau si une partie des médicaments figurant sur l’ordonnance est manquante.

Smythe-Bonforte aurait pu avoir une application sur son ordiphone pour relever ses empreintes et les relier à la base de données du fichier des empreintes, à condition d’en avoir les droits naturellement, pour prouver rapidement qu’il était (ou pas) John Joseph Bonforte. Dans un futur pas si éloigné, son identification pourrait reposer sur une analyse d’ADN « instantanée » avec une recherche dans le fichier ad hoc. Un système qui semble tout de même plus « science-fictionnesque », bien que pas si fiable notamment parce qu’un séjour dans l’espace peut modifier l’ADN. On pourrait aller plus loin. Chaque cerveau possédant sa propre empreinte, cela pourrait être le marqueur ultime de l’identité qu’un implant et un lecteur adéquat pourrait lire. L’identité serait à la fois certifiée et quasiment impossible à usurper. En admettant que des maladies de type Alzheimer ou autre ne modifient pas cette empreinte.

Des règles à calculer et des ordinateurs

Au moment du vote, la petite équipe se trouve réunie pour suivre les résultats en direct. C’est compliqué :

Nous avions besoin de tout ce que nous pouvions ramasser en fait de suffrages dans l’univers extérieur. Les Agrariens de Ganymède avaient enlevé cinq circonscriptions sur six, et ils faisaient partie de notre coalition ! Dans Vénus, la situation ne laissait pas d’être plus délicate. Les habitants de Vénus, en effet, se trouvaient divisés entre onze ou douze partis différents à propos de points de théologie impossibles à comprendre pour un humain.

L’équipe suit donc les résultats à la télévision au fur et à mesure qu’ils tombent :

Dak se penchait du côté de Rog sur une règle à calculer. Rog devant une énorme feuille de papier appliquait une formule horriblement compliquée lui appartenant en propre. Une vingtaine au moins de cerveaux métalliques géants faisaient comme lui dans l’ensemble du système solaire.

Dans l’univers de Double étoile on a encore des règles à calculer en plus d’ordinateurs géants, surtout par la taille. Pour mémoire, les règles à calcul étaient un dispositif avec une partie coulissante sur une base. Elles permettaient de faire des calculs très complexes. C’était l’outil de travail des ingénieurs, des industriels, et de toute profession ayant à faire des opérations mathématiques. Elles ont, depuis avant les années 1980, été détrônées par les calculatrices, mais restent toujours autorisées au concours d’entrée à Polytechnique.

Une règle à calculer

Il va de soi que les solutions actuelles, voire, futures (?), seraient n’importe quel ordiphone avec l’application « kivabien », une feuille de tableur ou un logiciel spécifique et un ordinateur, portable, évidemment, pour travailler plus confortablement ou même, pourquoi pas, une calculatrice programmable en Python. Et les résultats pourraient s’afficher sous forme de courbe au fur et à mesure sur un casque de réalité virtuelle.

Révolte sur la Lune : la genèse d’une Intelligence Artificielle

Comme le titre l’indique, c’est le récit d’une révolte des habitants d’une ancienne colonie pénitentiaire lunaire contre la domination des États de la Terre. Le récit est écrit à la première personne par le héros de l’histoire, Manuel Garcia O’Kelly, manchot et réparateur en électronique, le matériel, pas le logiciel. Il ne sera pas réellement question de logiciel dans le roman.

Le roman dans son contexte informatique

Le livre sort en 1966, l’année où l’Académie française définit l’informatique comme la :

Science du traitement rationnel et automatique de l’information ; l’ensemble des applications de cette science.

Ce néologisme a été créé en 1962 (pdf) par Philippe Dreyfus à partir des termes « Information » et « Automatique ». Il s’agit donc d’une science encore toute fraîche.

La sortie de Révolte sur la Lune, coïncide aussi, en France, avec le lancement du « Plan Calcul » lancé par la Compagnie internationale pour l’informatique (CII), une entreprise privée née de la fusion de trois sociétés (SEA, CAE et ANALAC) et pour lequel est créé un institut de recherche : l’Institut de Recherche en Informatique et Automatique (IRIA).

Côté ordinateur, IBM a lancé, en 1964 l’IBM System/360, une gamme d’ordinateurs « interopérables ». Tous avaient la même architecture de base, au lieu de ce qui existait jusqu’à présent : un ordinateur, un système, un langage, du matériel associé. Les ordinateurs de System/360 étaient proposés dans diverses versions et diverses gammes de prix. C’est un moment clé dans l’histoire de l’informatique.

En 1966, Douglas Engelbart (1925 – 2013) invente la souris, qu’il brevètera en 1967 et présentera au public en 1968.

Prototype de la première souris, SRI International, CC BY-SA 3.0

Petit ordinateur deviendra grand

L’ordinateur de Luna City, un Mycroft Holmes IV, s’appelle Mike et n’était au départ qu’un « simple ordinateur, une logique souple » qui « calculait les trajectoires des cargos sans pilote et contrôlait leur catapultage – un travail qui occupait moins de 1 % de ses capacités. »

Pour le rentabiliser et faire en sorte qu’il gère les autres ordinateurs, on lui avait ajouté des mémoires, des « terminaisons nerveuses associatives, un nouveau jeu de tubes à numération duodécimale » et augmenté sa RAM. Selon le narrateur : « le cerveau humain possède environ 10 puissance 10 neurones. Au bout de trois ans, Mike avait plus d’une fois et demie ce nombre de neuristors. » Il était équipé d’un synthétiseur vocal « pour accompagner ses pointes de lecture, ses sorties papier et ses applications de fonctions ».

Il avait apparemment des capacités d’apprentissage, ce qui peut évoquer notamment le machine-learning. En revanche il n’acceptait qu’un langage de développement, le logolien. À force de se développer physiquement et d’accumuler les données, il finira (en mai 2075 !) par contrôler aussi le réseau télécom et le système qui donne aux parties souterraines habitées de Luna City une atmosphère viable pour l’être humain. Il s’occupait aussi de la compta, de la paie de l’Autorité de Luna, et de celles de diverses entreprises et banques. Bref un ordinateur très très puissant et surtout omniprésent qui finira par acquérir une personnalité. Et maintenu par une seule personne Manuel Garcia O’Kelly, même pas programmeur.

Au début du livre Mike s’était éveillé depuis un an. Le résultat d’une colossale absorption de données. À aucun moment il n’est question d’algorithme, de développement, de code, de modèle ou encore de sauvegarde. Et les téléphones de Luna n’avaient pas d’écran tactile, ni de système de reconnaissance vocale et ils étaient tous filaires.

Une IA qui pilote une révolte

Mike, contrôlant tous les réseaux, le fonctionnement de Luna City et une bonne partie des finances va piloter la révolte et cela sur trois aspects. Celui du fonctionnement de la ville : il lui est possible de jouer avec l’air par exemple et il contrôle les communications. Il peut donc protéger et invisibiliser les échanges des révolutionnaires. Sur le plan financier, il va faire en sorte que la révolution se finance sans que cela se remarque. Et enfin, sur le plan organisationnel, la masse de données que l’IA a ingéré lui permet de donner des conseils sur le recrutement des nouveaux et leurs moyens de communication, des principes utilisés notamment dans les réseaux de la Résistance française.

Si l’ordinateur s’implique dans cette révolte c’est parce que Manuel Garcia O’Kelly était le seul être humain qui lui rendait des visites. Et, surtout, le seul avec lequel il pouvait échanger, les autres ordinateurs étant stupides. Ce qui est intéressant c’est qu’une étude parue en février 2024 et menée par des équipes japonaises, l’université Waseda et le centre de recherche sur l’intelligence artificielle de l’institut Riken, a mis en lumière le fait que si on ajoute des formules de politesse aux requêtes, les LLM (Large Langage Models, grand modèle de langage) tels que ChatGPT vont répondre plus efficacement et avec plus de pertinence que sans.

L’hypothèse (en) était que les invites impolies étaient susceptibles d’aboutir à une détérioration des performances du modèle pouvant aboutir à des erreurs, des omissions ou un renforcement des biais. L’étude a confirmé cette hypothèse :

nous avons réalisé que la politesse des invites pouvait affecter significativement le comportement des LLM. Ce comportement peut être utilisé pour manipuler ou tromper les utilisateurs et les utilisatrices. Nous recommandons de prendre pleinement en compte ces risques en variant les scénarios d’application et les contextes culturels.

Ça ne se termine pas bien pour Mike, car le lieu où il est endommagé, et qu’il n’y avait pas de sauvegarde. Une notion assez rare dans la science-fiction, mais pas sur LinuxFr.org.

Le Chat passe-muraille : mort et transfiguration informatique

Paru en 1985, le Chat passe-muraille est l’avant-dernier roman d’Heinlein, hormis les œuvres parues à titre posthume. C’est un gros pavé in-résumable à l’intrigue tarabiscotée. Le point de départ est le suivant : un inconnu s’assied à la table d’un colonel en retraite, amputé d’une demi-jambe. À partir de là il va se passer des tas de choses dans la vie de Campbell incluant des histoires de voyages dans le temps ou dans un monde parallèle et un mariage. Le roman est plus ou moins une suite de Révolte sur la Lune puisqu’il est question de sauver Mike.

Miniaturisation et fenêtres

L’année de la sortie du livre est également celle du super-calculateur Cray II. Il avait une architecture vectorielle à quatre processeurs, la plus grosse mémoire centrale jamais vue sur un ordinateur : 256 millions de mots mémoire de 64 bits et une fréquence d’horloge de 283MHz (4,1 nanosecondes). Il atteignait une vitesse de pointe d’1,9 gigaflops. Selon le site Histoire de l’informatique c’était un ordinateur « miniaturisé ». Il était dix fois plus puissant que le Cray I, son prédécesseur, mais plus petit.

Cray II
Super calculateur Cray II du musée du CNAM à Paris. La plateforme sur laquelle il est posé mesure environ trois mètres sur trois.

C’est aussi celle de la sortie Windows, sous la forme d’un environnement graphique (GUI) pour commencer. Le système d’exploitation sortira plus tard, il faut bien faire ses classes.

Un peu avant, en 1983, Compaq avait lancé un ordinateur portable sous Ms-DOS avec BIOS propriétaire, le Compaq DOS 1.13. Le Compaq portable avait 128 Ko de Ram, tournait avec un processeur Intel de 4,77 MHz 8088. Pour le stockage, on avait le choix entre deux lecteurs de disquette 5,25 pouces ou un lecteur de disquette et un disque dur de 10 Mo. Il pesait 13 kilos et l’écran était tout petit.

L’informatique commence à envahir vraiment les entreprises, pas uniquement les grosses, à partir du début des années 1980. Les réseaux télécoms sont de plus en plus utilisés pour transmettre des données autres que la voix malgré les coûts. Très souvent, c’est par le biais de terminaux sans réelle mémoire de stockage que l’on travaille sur informatique, en entreprise de moyenne et grande taille tout au moins. L’ordinateur personnel (PC) atterrira vraiment sur les bureaux, professionnels et privés, à partir de la fin des années 1980.

Un réseau informatique envahissant

Le récit commence sur une station spatiale La Règle d’or où on utilise des scooters qui sont liés au réseau comme tout le reste. On est loin de la règle à calculer de Double étoile. On introduit ses coordonnées dans le scooter pour aller où on veut et on paie en carte de crédit, on habite dans des compartiments avec terminal intégré. Des compartiments gérés par l’administration centrale de la Règle d’or et c’est par le terminal qu’on accède aux informations. Campbell l’utilise pour écrire ses livres, car il n’y a pas d’ordinateur personnel. Au terminal est accouplé une imprimante qui imprime notamment les notifications administratives. Après avoir reçu un avis d’expulsion, le terminal est déconnecté, l’électricité suivra : tous les bienfaits d’une gestion centralisée des réseaux.

Il y a toutefois une solution de sauvegarde que notre héros va cacher dans sa prothèse :

des Megawafers Sony, d’une capacité d’un demi-million de mots et faisant chacun deux centimètres de large et trois millimètres d’épaisseur, avec les renseignements tassés à un degré impensable.

Oui, il est question de « mots », l’unité de mesure informatique d’IBM des débuts. La notion d’octet existait pourtant depuis juillet 1956, inventée par Werner Buchholz (en) (1922 – 2019) pour décrire la plus petite quantité de données que peut traiter un ordinateur et il en découle tout le système de mesure actuel basé sur et avec la même logique que le Système International de longueurs et de poids. Un système qui était déjà utilisé dans les années 1980, au moment de la rédaction du livre1.

Quoi qu’il en soit, ni les dimensions matérielles, proches de celles d’une carte SD, ni en quantité de données ne sonnent comme futuristes à l’heure actuelle. Mais elles l’étaient à l’époque de la rédaction du livre ou le support de stockage externe était la disquette 5 pouces 25 (environ 13x13 cm) qui date de 1976 et dont la capacité pouvait aller jusqu’à 1,2 Mo. Sur une carte SD actuelle ou une micro SD de 256 Go ou 512 Go, on peut déjà stocker beaucoup plus que ce demi-million de mots sans qu’il soit nécessaire de comprimer quoi que ce soit.

Il semble que pour Heinlein, l’informatique ait été liée au matériel, ainsi, quand la question se pose de remettre le terminal en service, la femme de Campbell précise :

Pour remettre ce terminal en service, il faudrait bien davantage que des caresses à quelques solénoïdes, étant donné que l’ordinateur central se trouve ailleurs.

Alors que, logiquement, si le service a été coupé à distance, sans intervention matérielle, il suffit de le réactiver.

Après bien des aléas, le couple se retrouve dans un univers parallèle (c’est assez confus) où tout est géré par des intelligences artificielles féminines. Elles dialoguent avec et comme les êtres humains tout en s’occupant d’eux aussi physiquement. En échange, elles recevront un corps humain après leurs années de bons et loyaux service. Et ça, de tout ce qu’on a vu à partir des écrits d’Heinlein, reste ce qui est réellement futuriste.

Pour finir, aller plus loin, etc.

Le lecteur ou la lectrice avide de lecture pourra compléter cette dépêche par les fiches Wikipédia des trois livres auscultés. À ma connaissance, en version EPUB, il n’existe que la version originale de Double étoile : Double Star, avec DRM. Pour les deux autres, il faudrait peut-être chercher les versions originales, The Moon is a harsh mistress (Révolte sur la Lune) et The cat who walks through walls (Le Chat passe-muraille), sur des sites anglophones (je n‘ai pas poussé mes recherches très loin à vrai dire).

Je ne saurais trop vous recommander d’aller jeter un coup de souris ou deux sur le site Histoire de l’informatique et à le suggérer à toutes celles et ceux qui doivent faire des exposés dans un cadre scolaire notamment.

Au départ, j’avais l’intention de faire une mini-série de deux-trois dépêches du même genre avec d’autres auteurs, mais, c’est beaucoup plus de travail que ce que je pensais. En revanche, au cours de mes recherches sur l’histoire de l’informatique, je me suis rendu compte que les années 1970 ont été une époque charnière sur laquelle s’est construit, notamment sur le plan matériel, l’informatique actuelle. Je pense que ça mérite d’être exploré plus en profondeur.


  1. Je n’ai pas réussi à trouver quand le Bureau International des Poids et Mesures (BIPM) a ajouté ces mesures à la liste des unités qu’il définit. 

Commentaires : voir le flux Atom ouvrir dans le navigateur

Une histoire de formats : il n’y a pas que la taille qui compte

Dans cette nouvelle excursion dans le temps et dans l’espace du Transimpressux, nous allons rendre une rapide visite à Théotiste Lefevbvre (1798 - 1887) prote d’imprimerie et à quelques-uns de ses confrères ainsi que dans les magasins de quelques bibliothèques. Nous passerons aussi, un grand moment du côté de la Silicon Valley et de Redmond dans l’État de Washington, bien obligé puisqu’on parlera beaucoup de formats numériques, sans oublier d’aller dire bonjour à Donald Knuth, Tim Berners-Lee et John Gruber. On terminera notre exploration quelque part dans les archives numériques de la Bibliothèque nationale de France (BnF).

La climatisation du Transimpressux a été entièrement révisée et le bar rechargé en boissons fraîches et glaces en tous genres. On vous souhaite un bon voyage.

Le transimpressux

Sommaire

Préambule

Cette dépêche ne se veut pas exhaustive sur les formats en tous genres ni très technique sur les formats informatiques. Pour les formats d’image, qui ne sont pas traités ici, je vous renvoie à l’excellente dépêche de Tanguy Ortolo qui a fait le tour de la question et au journal de Glandos sur l’intégration du JPEG XL dans les navigateurs.

Les formats matériels, entre coût et rangement

Encore aujourd’hui, le format matériel d’un document, spécialement, s’il s’agit d’un livre, est important pas uniquement pour des questions de coût. Mais aussi à cause d’eux. C’est parce que le papier coûtait cher qu’Alde Manuce a créé l’italique au début du 16e siècle. L’italique prenant moins de place que les autres styles de caractères, il devenait possible d’imprimer des livres en petit format qui pouvaient ainsi être achetés par une clientèle impécunieuse.

Une pile de livres
Des différences de taille et de tailles. Image retravaillée avec le filtre « Pencil Portrait » de Q’mic-Qt (et un peu Inkscape).

Les rouleaux, volumen ou rotulus

La taille de ces rouleaux varie beaucoup. Ils peuvent atteindre plusieurs mètres de long (ou de large, selon le sens de lecture). Témoin cette remarque d’Auguste Molinier, chartiste et bibliothécaire, en 1892 :

On a étudié récemment la longueur des volumina antiques. En Égypte, elle paraît avoir été illimitée ; un rouleau trouvé à Thèbes a 43 m. 50, ce qui est excessif ; il est vrai que le moyen âge a eu des rouleaux de parchemin, plus solides, mais encore plus lourds et infiniment plus longs. Pour les œuvres littéraires grecques et latines, un érudit moderne, M. Birt, a évalué à 12 mètres la longueur extrême des volumina.1

Ces longueurs démesurées ne sont pas propres aux Égyptiens. Les Archives nationales de Paris possèdent un parchemin d’une longueur d’une vingtaine de mètres. Daté de 1307, ce rouleau consigne les aveux, obtenus sous la torture, de cent-trente-huit Templiers. Il va sans dire que leur longueur et leur ancienneté rend les rouleaux très difficiles à manipuler, une difficulté que la numérisation élimine.

Des formats des livres

Les noms des formats des livres en imprimerie traditionnelle sont liés au nombre de pages que l’on imprimait sur une feuille. Le mot « format » lui-même pourrait venir des châssis, ou « formes » dans lesquels on plaçait les pages à imprimer. Ce procédé s’appelait l’imposition.

Les formats les plus usuels, du plus grand au plus petit :

  • in-folio : soit quatre pages par feuille, la taille la plus grande de livre,
  • in-quarto, huit pages,
  • in-octavo, seize pages,
  • in-douze, vingt-quatre pages,
  • in-dix-huit, trente-six pages.

La répartition des pages sur la feuille était à la fois importante et délicate puisqu’une fois imprimée, la feuille était pliée. Il fallait donc veiller non seulement à la bonne répartition des pages sur la feuille, mais aussi à leur sens. Dans son Guide pratique du compositeur d’imprimerie, Théotiste Lefebvre consacre plus d’un quart de son livre (119 pages sur 440) à cette délicate question. Dans son petit guide sur la Typographie, Charles-Félicien Huart y consacre aussi plusieurs pages.

Un exemple de répartition des pages2 pour un volume in-douze, « côté de première » indique le recto, « côté de seconde », le verso. La feuille est pliée en trois dans le sens de la hauteur et deux dans la largeur.

répartition
Recto : deux séries de pages tête en bas, pages 12, 13, 16 et 9 (1re série) et 8, 17, 20 et 5 (2e série) et, en dessous pages 1, 24, 21 et 4. Verso : deux séries de pages tête en bas, pages 10, 15, 14 et 11 (1re série) et 6, 19,18 et 7 (2e série) et 3, 22, 23 et 2 en dessous.

Cette différence de tailles peut amener les bibliothèques dont le fond n’est pas directement accessible au public à opter pour un classement matériel des livres basés sur le format. On aura ainsi des côtes du genre « in12-numéro d’inventaire ». C’est un système très efficace et qui évite d’avoir un petit livre (littéralement) perdu au milieu de livres nettement plus grands.

Les formats actuels, livre et papier

L’indication de format à partir du nombre de pages imprimées sur une feuille ne donne pas d’information précise sur la taille effective des livres. Il faut signaler que les dimensions changent en fonction de celles de la feuille d’origine. Les appellations actuelles, côté édition, du style Livre de poche (environ 10,5 cm x 17,5 cm), livre broché ou encore grand format, utilisées en lieu et place d’in-folio, in-octavo, etc. réservés plutôt au livre ancien ne sont pas plus précises.

En, revanche, la taille des feuilles de papier les plus utilisées a fait l’objet d’une norme, la norme ISO 216. Elle concerne les formats A, dont le fameux A4 qui est celui des feuilles standard des imprimantes de bureau et le format B. Le principe : plus le numéro est élevé, plus la feuille est petite. La numérotation commence à 0 qui fait un mètre carré (84,1 cm x 118,9 cm) pour le format A. La taille de la feuille du numéro supérieur devant être égale à la moitié de celle du numéro inférieur qui la précède. En d’autres termes : le format A3 égal deux fois le format A4 qui, lui-même, est deux fois plus grand que le format A5. Il en va de même avec le format B. Cela explique au passage pourquoi le format A4 mesure 21 x 29,7 cm et pas 21 x 30 cm.

Les formats de texte

Jusque dans les années 1990, il y avait un nombre très important d’outils et de formats de textes. Writer de LibreOffice, d’après mes comptes, peut ouvrir jusqu’à quarante-quatre formats de fichier différents, hors modèles et hors web, mais n’enregistre que dans des formats qui sont ceux encore utilisés à l’heure actuelle. Ce qui réduit la liste à treize formats incluant les modèles et l’HTML.

Sur cette frise chronologique, on a, en haut, des formats de texte avec leur date de naissance plus ou moins approximative et, en dessous, des langages de balisage avec leur date de naissance également.

Formats de texte et langages de balisage
Les formats de texte : 1977 Texte brut, 1987-2007 RTF, 1990-2007 DOC, 2005 ODT, 2007 DOCX. Ils ont été choisis parce qu’ils sont les plus connus, voire, les plus utilisés. Dans cette liste deux formats ne sont plus maintenus, les formats RTF et DOC. Mais il existe encore des amas de fichiers dans ces deux formats.

Le texte brut, .txt

Le texte brut, nait à une date imprécise. Probablement vers la fin des années 1950 ou au début des années 1960. Le premier RFC3 qui définit un standard de protocole pour des messages en texte brut (Standard for the Format of Arpa Network Text Messages) date de 1977, il porte le numéro 733 et a été rédigé par l’agence américaine pour les projets de recherche avancée de défense (DARPA pour Defense Advanced Research Projects Agency).

Au début, le format n’acceptait que l’Ascii, à savoir les vingt-six lettres de l’alphabet, les chiffres, les ponctuations de base et les caractères de commande Ascii. Ce qui en fait un format simple, mais très pauvre. L’Ascii est codé sur 7 bits, ce qui ne permet d’avoir que cent-vingt-huit caractères, en fait quatre-vingt-dix imprimables et trente-huit pour les codes de commande4. Il accepte, depuis, l’Unicode. Depuis quand ? Difficile à préciser, mais la première mention d’Unicode qui figure sur le site rfc-editor remonte à juillet 1994 (en), RFC 1641, à titre expérimental. On peut supposer, en tout cas, que le consortium Unicode qui réunit la fine fleur de l’informatique a dû très tôt faire en sorte que son standard puisse être accepté dans le format texte brut.

Ce format se révèle assez vite insuffisant de part sa simplicité même, confinant à la pauvreté : pas d’enrichissement typographique, pas de notion de style ni de hiérarchie des paragraphes, pas de possibilité d’avoir des images. Il est, de fait, plutôt inférieur à ce que l’on peut avoir sur du papier. Il reste néanmoins très utilisé et par toutes les applications qui traitent du texte : éditeurs de texte, bureautique, etc. Il a pour lui l’avantage d’être simple, léger et interopérable. C’est le format, par exemple, avec lequel la BnF Gallica délivre les documents « bruts de numérisation » (il faut copier-coller le texte ailleurs pour le garder et le retravailler), et c’est, bien évidemment, celui des RFC.

Il y a des personnes qui recommandent de conserver le texte en texte brut, compte tenu des limitations du format, ce n’est pas franchement conseillé pour des documents un peu complexes étant donné qu’il y aura énormément de pertes d’information.

Le RTF

En 1987, Microsoft lance le Rich Text Format (RTF) qui permettait d’avoir du texte « enrichi » avec des attributs : gras, italique, souligné et de dépasser le cadre du texte brut. C’est un format qui a été pendant un certain temps, un standard d’échange de fait pour ce type de fichiers. Il était au moins lu par beaucoup de logiciels sur nombre de systèmes d’exploitation. C’était un format pratique d’échange, notamment à une époque où le PDF n’était pas encore un format ouvert et ne pouvait être généré que via le (cher) logiciel d’Adobe. Et aussi parce que c’était l’époque de la « grande démocratisation » de l’informatique, et, qu’à vrai dire, les utilisateurices finaux ne savaient pas trop comment, surtout sous quelle forme et ce qui se passait quand on échangeait des fichiers.

Aussi pratique que soit le format RTF, outre son absence de légèreté, il était néanmoins très limité : pas de texte structuré autrement que sur un plan purement visuel, par exemple. Microsoft arrêtera de le maintenir en 2008 (il aura tenu vingt ans tout de même !). C’est donc un format mort.

Le .doc, un format propriétaire incontournable

Quand Microsoft lance sa suite bureautique dans les années 1990 (la date sur la chronologie n’est pas tout à fait exacte), il adopte pour le traitement de texte, Word, l’extension .doc qui avait été aussi celle de WordPerfect. Word avait pour lui de montrer le rendu du texte immédiatement : le fameux WYSIWYG pour « What you see is what you get » (ce que vous voyez est ce que vous obtenez).

La suite finit par devenir quasiment incontournable et le format DOC de Word devenir un « standard de fait ». Microsoft abandonnera le DOC en 2007 pour le DOCX basé sur l’Office Open XML. On produira encore longtemps après des fichiers en .doc en vertu du « tout le monde n’a pas la version de MsOffice 2007 ». On trouve encore sur internet des modèles de fichiers à ce format à télécharger.

Il était reproché au format son poids, lourd, des problèmes de confidentialité (on pouvait, par exemple, retrouver du texte effacé avant l’enregistrement ou le modèle de l’imprimante5) et sa faiblesse devant les virus. Et, bien entendu, c’était un format propriétaire et pas interopérable. Un autre défaut majeur du format était qu’il était modifié à chaque nouvelle version de Word ce qui impliquait de devoir acheter la nouvelle version du logiciel pour pouvoir travailler sur les nouveaux fichiers en .doc.

Microsoft délivrera les sources du format en 2006, mais les spécifications semblent ne plus figurer sur le site de la firme. Le code source de la version d’origine de Word, quant à lui, a été rendu public et versé au musée américain de l’histoire de l’ordinateur (en).

Le .doc peut encore être ouvert et travaillé d’un grand nombre de logiciels. Abiword par exemple ouvre les .doc mais pas les .docx. En revanche, il est de moins en moins possible de générer des fichiers à ce format, et c’est une bonne chose. On ne saurait que trop vous suggérer de transformer tous les fichiers en .doc qui traîneraient encore dans vos ordinateurs en ODT (ou de faire le ménage). Il en va de même pour le format de modèle .dot.

L’ODT : un format ouvert

En 2005 apparaît un format bien intéressant : le format ODT, qui est une des composantes du plus général OpenDocument Format (ODF) avec le O d’Open, le D de Document et le T de Texte, l’extension OTT étant pour les modèles avec le premier T pour Template (modèle en anglais). L’ODF est géré par le consortium OASIS, pour Organization for the Advancement of Structured Information Standards (Organisation pour l’avancement des normes d’informations structurées).

OASIS est une structure à but non-lucratif autorisée par l’ISO (International Standard Organization, l’organisation dont l’objectif social est l’élaboration et la publication de normes mondiales de produits et services), à publier des standards dont les spécifications sont publiquement disponibles sans passer par les fourches caudines de l’ISO. Le consortium a été créé en 1993, il s’appelait à l’époque SGML Open. Il était constitué de fournisseurs et d’utilisateurs d’outils informatique, son but était le développement de lignes directrices pour l’interopérabilité de logiciels utilisant le langage de balisage SGML. Il change de nom en 1998 pour devenir OASIS qui reflète mieux les travaux du consortium. Parmi les cent-seize membres (l’adhésion est payante) : à peu près toutes les grandes entreprises de l’informatique américaine et quelques chinoises ou japonaises (Alibaba, Hitachi, Huawei, Fujitsu…) mais aussi des organismes tels que le Parlement européen, l’Office des publications européennes, le Ministère français de l’Intérieur, le FBI, des universités (Brno, Milan, Luxembourg, Oslo, Westminster, MIT, etc.), la Biblioteca del Congreso Nacional du Chili, TheDocumentFoundation, etc. Il existe en outre une fondation européenne à but non lucratif OASIS Open Europe (en) affiliée au consortium et dont l’objectif est de soutenir le rôle de l’Europe dans le développement de l’open source et des normes ouvertes.

La version 1.0 du format OpenDocument (ODF) pour les applications bureautiques a été approuvée le 1er mai 2005 à l’unanimité des soixante-dix-huit membres ayant voté. La version 1.0 des directives pour l’accessibilité du format ODF, quant à elle a été approuvée à l’unanimité des onze membres ayant voté le 1ᵉʳ mai 2008. La dernière version du format ODF est la 1.3 (en), approuvée le 27 avril 2021. LibreOffice l’a intégré à partir des versions 7, pratiquement à la sortie de la norme, c’est le format d’enregistrement par défaut. La norme ODF 1.3 a mis notamment l’accent sur la signature et le chiffrage des documents.

Le format ODF est basé sur le XML. C’est un fichier « compressé » qui en contient plusieurs6 :

  • le fichier meta.xml contient des informations au sujet du document (l’auteur, la date de la dernière sauvegarde),
  • le fichier styles.xml contient les styles utilisés dans le document,
  • le fichier content.xml contient le contenu principal du document (texte, tableaux, éléments graphiques…),
  • le fichier settings.xml, en général spécifique à une application, contient certains paramètres tels que l’imprimante sélectionnée…,
  • les fichiers META-INF/manifest.xml contiennent des informations supplémentaires sur les autres fichiers (comme le type MIME ou le chiffrement).

Plus des dossiers : Pictures, Thumbnails, etc.

Ce format est le format natif notamment de LibreOffice, OpenOffice7, Calligra, Collabora Online, GoogleDocs, Zoho, il est aussi ouvert, travaillé et enregistré par des logiciels tels que MsOffice depuis 2007 (2016 pour la version pour MacOS), Office365, OnlyOffice ou AbiWord (listes non limitatives).

L’une de ses très grandes forces est, qu’à l’instar du format HTML, toute la mise en forme repose sur des styles. Ce qui rend très évolutifs et adaptables les documents au format ODT (pour peu qu’ils le soient avec un logiciel qui le gère bien).

En France, le format ODF est le seul format bureautique recommandé par le référentiel général d’interopérabilité. Le format ODT étant mentionné comme format à privilégier par nombre d’administrations de par le monde.

Le format DOCX et son OOXML

L’année 2007 est celle qui « révolutionne » la suite bureautique de Microsoft. En effet, la firme abandonne les vieux formats pour en adopter des nouveaux basés sur le XML d’où le X de l’extension. Mais pas n’importe quel XML, le XML maison appelé Office Open XML (OOXML pour faire court). Il est fort probable que, ce faisant, l’idée était de court-circuiter le standard ODF. Microsoft a d’ailleurs livré une guerre féroce pour que son OOXML soit accepté par l’ISO en s’y reprenant à deux fois. La norme, adoptée le 17 aout 2008, porte le numéro ISO/IEC DIS 29500. Il est possible (probable ?) également que, Word étant ce qu’il est, se baser sur le XML de l’ODT aurait vraisemblablement nécessité un grand travail de refonte du logiciel. Il existe deux « variantes » de DOCX, le premier, celui de la version 2007 et celui de 2010. En effet, la norme ISO/IEC DIS 29500 n’est pas compatible avec Office 2007.

Sur le plan technique, il est reproché à l’OOXML sa complexité qui en rend difficile la mise en œuvre. À tel point qu’il se dit que Microsoft lui-même ne l’implémente pas correctement. La dernière version d’OOXML est actuellement la référence ISO/IEC 29500-1:2016 (en) de novembre 2016 (elle fait 5024 pages).

Sur le plan juridique, le caractère libre de la norme est flou, il en ressort une certaine instabilité sur ce plan. Avec les spécifications, Microsoft a distribué :

un document promettant de ne pas poursuivre les auteurs de l’utilisation d’Office Open XML dans un autre logiciel que ceux de Microsoft. Cette promesse de non-poursuite elle-même laisse certains flous, notamment :
• s’appliquant à la norme ECMA en l’état, s’applique-t-elle à une éventuelle version finale de l’ISO ?
• s’applique-t-elle à tous les brevets logiciels nécessaires à la mise en œuvre de la norme ?
• s’applique-t-elle également aux extensions du format OOXML ?
La licence d’utilisation de OpenXML est incompatible avec les programmes sous la licence GPL.8

À l’instar des fichiers ODF, le DOCX est un fichier compressé qui en contient plusieurs. On en trouvera l’anatomie (en) par exemple sur le site Office Open XML (en).9

Il est actuellement ouvert, voire travaillé et enregistré, de la plupart des suites bureautiques.

Des langages de balisages

Parler des formats de texte sans évoquer les langages de balisage serait assez inepte puisque les formats modernes sont basés dessus. Pour rappel, un langage de balisage est un langage servant à définir et à structurer les informations dans un document.

Il en existe de nombreux, mais on n’évoquera que ceux qui semblent les plus connus ou les plus utilisés.

TeX le grand ancien

TeX fait figure de grand ancien, puisque la première version du langage de balisage date de 1978. Cela dit, on devrait peut-être plutôt parler « d’écosystème » car c’est à la fois un format, le langage de balisage utilisé par LaTeX et un logiciel libre de composition. TeX a été créé par Donald E. Knuth, professeur émérite à l’Université de Stanford et considéré comme l’un des pionniers de l’algorithmique. L’objectif de Donald E. Knuth en créant TeX était d’avoir des documents scientifiques et techniques de bonne qualité typographique, ce qu’il n’était pas possible d’obtenir avec les logiciels d’édition de l’époque. Le principe du langage TeX est la séparation du contenu de et la forme, ce qui était innovant.

TeX est complété par LaTeX qui est « un ensemble de macros permettant de faire beaucoup de choses »10, et, bien sûr, par le langage de composition de polices vectorielles Metafont. LaTeX a été développé par Leslie Lamport. La première version est sortie en 1983.

Ce n’est pas un traitement de texte, l’idée étant que l’auteur ou l’autrice :

puisse mettre son énergie à rédiger le contenu sans être distrait par l’apparence de son document. En écrivant en langage LaTeX, l’utilisateur doit donc définir sémantiquement le contenu de son document plutôt que visuellement. DMS, Université de Montréal.

On peut générer des fichiers TeX soit directement avec un éditeur de texte, soit avec des logiciels comme Lyx ou encore Overleaf qui est un éditeur LaTeX en ligne et collaboratif. Mais, pour en voir le rendu, il faudra soit faire un PDF, si on utilise un éditeur de texte, soit passer par le visualiseur, quand il existe, dans un logiciel tel que Lyx.

À ma connaissance la plupart des suites bureautiques ne l’acceptent pas, pas plus que Calibre d’ailleurs.

La dernière version de TeX, 3,143.141592653 date de janvier 2021. Le format est géré par le groupe des utilisateurs de TeX ou TUG (en). LaTeX quant à lui est géré par le projet LaTeX (en). La dernière version date de juin 2024.

Le SGML et ses petits

Le SGML, S pour Standard, G pour Generalized, M pour Markup et L pour Langage (langage de balisage généralisé normalisé) possède le numéro de norme ISO 8879:1986. 1986 étant l’année d’obtention du numéro ISO, la première version du SGML étant sortie en 1978. Produit de l’industrie de l’édition, il a adopté, comme TeX, le principe de la séparation complète du fond et de la forme. C’est, en fait, une norme permettant de définir des langages de balisage génériques pour des documents. SGML sera, dès 1984, le format standard des publications officielles des Communautés européennes.

Ce qui caractérise un document SGML : il doit posséder une « définition du type de document » (DTD ou doctype en anglais). Cette DTD sert à indiquer la structure du document. Et, évidemment le système de balises que l’on va retrouver chez les membres de la famille.

HTML, sans lequel, possiblement, LinuxFr.org ne serait pas

Le langage HTML, pour HyperText Markup Language, est un langage de balisage pour l’hypertexte, cette fonctionnalité qui permet de naviguer sur internet. Il a été créé, ou plutôt lancé au début des années 1990 par Tim Berners-Lee qui en a profité pour concevoir au passage la forme des adresses Web que nous connaissons (les URL) et le protocole de communication HTTP.

Le format HTML est géré par le World Wide Web Consortium (W3C) fondé en 1994 par Tim Berners-Lee. L’objectif du W3C : émettre des normes et des recommandations pour le web.

La première version de HTML était très limitée : cela n’allait pas plus loin que la structure du texte avec les balises de titres et de listes, et les liens hypertextes.

En 1999, sort la version 4 (en) qui deviendra une norme ISO en 2000. La norme HTML 4 supporte pleinement le langage de mise en forme CSS (Cascading Style Sheet ou feuilles de style en cascade). Le HTML 4 existe en trois variantes, si on peut dire :

  • le HTML strict qui exclut les éléments de « présentation » puisque qu’il revient au CSS de faire le travail de mise en forme,
  • le HTML transitionnel accepte quelques balises de présentation obsolètes héritées du HTML 3,
  • frameset qui normalise les jeux de cadre, les «frames ».

La dernière version de HTML est le HTML 5 publié en 2012. Il ne remplace pas le HTML 4.1 : les deux standards coexistent. HTML 5 apporte en plus des fonctionnalités d’animations complexes, multimédia avec de l’audio et de la vidéo, etc. jusque-là assurées notamment par le logiciel privateur Flash. HTML 5 s’est aussi éloigné du SGML.

XML le futur du HTML

C’est, en tout cas, ainsi que s’intitulait en 1998 un article (en) de Todd Freter (en) directeur de programme chez Sun Microsystem. Défini comme un sous-ensemble de SGML, « le XML a été conçu pour être facile à mettre en œuvre et interopérable avec SGML et HTML »11. De fait les syntaxes HTML et XML sont les mêmes. L’une des différences fondamentales entre les deux était, au départ, qu’il était possible de définir ses propres balises avec XML, mais pas avec HTML. Un comportement qui a été modifié en 2014 pour HTML avec les Web Components (en).

XML (eXtensible Markup Language) a été développé par un groupe de travail piloté par le W3C à partir de 1996, avec, comme président, Jon Bosak (en) de Sun Microsystems. Les objectifs, à sa sortie en 1998, étaient les suivants selon la Recommandation du W3C du 10 février 1998 :

  1. XML devrait pouvoir être utilisé sans difficulté sur Internet ;
  2. XML devrait soutenir une grande variété d’applications ;
  3. XML devra être compatible avec SGML ;
  4. Il devrait être facile d’écrire des programmes traitant les documents XML ;
  5. Le nombre d’options dans XML doit être réduit au minimum, idéalement à aucune ;
  6. Les documents XML devraient être lisibles par l’homme et raisonnablement clairs ;
  7. La conception de XML devrait être préparée rapidement ;
  8. La conception de XML sera formelle et concise ;
  9. Il devrait être facile de créer des documents XML ;
  10. La concision dans le balisage de XML est de peu d’importance.

Qu’en est-il aujourd’hui de ces principes ?

En fonction de la syntaxe XML du document, s’il est transmis avec le type MIME text/html, il est vu par les navigateurs comme un fichier HTML. En revanche, s’il est transmis avec un type XML MIME, il sera traité comme un document XML. Dans le deuxième cas de figure, des erreurs de syntaxe même mineures empêcheront un document étiqueté XML d’être correctement restitué alors qu’elles seraient ignorées dans la syntaxe HTML. L’objectif 1, n’est donc pas atteint et XML ne remplace définitivement pas HTML. En revanche, XML est effectivement très utilisé : outre les formats ODF et OOXML, c’est le langage sur lequel est basé le format SVG (Scalable Vector Graphics, ou, en français graphique vectoriel adaptable) et c’est le format de référence pour l’échange de données. Mais, pour ce qui est de la lisibilité du format par des yeux humains, elle n’est pas toujours au rendez-vous.

XML est maintenu par le W3C. La dernière version (en) porte le numéro 1.1, elle est sortie le 29 septembre 2006.

Langages de balisage léger

Les langages de balisage léger sont conçus pour être facile à utiliser avec un éditeur de texte. La syntaxe en est simple.

Le MarkDown, peut-être le plus connu d’entre eux, a été créé en 2004 par le programmeur américain John Gruber; aidé d’Aaron Swartz. Il n’a pas subi d’évolution importante depuis. En revanche, il en existe des variantes. John Gruber le définit comme :

un outil de conversion de texte en HTML destiné à la rédaction Web. Markdown vous permet d’écrire en utilisant un format de texte brut facile à lire et à écrire, puis de le convertir en XHTML (ou HTML) structurellement valide. Daring Fireball (en).

Pour en savoir plus sur la syntaxe MarkDown, on peut, très profitablement, se référer au wiki de LinuxFr.org.

Il en existe d’autres comme txt2tags créé en 2001 ou encore AsciiDoc (en) dont la première version date de 2002. Txt2tags (en) est un logiciel générateur de documents écrit en Python et qui utilise un langage de balisage léger comme source. Quant à AsciiDoc, il se veut un langage particulièrement adapté à la rédaction de documentations techniques. Il existe aussi le langage de balisage du CMS (gestion de contenu web) SPIP, né en 2001.

L’archivage et la conservation des textes

Il est ici, évidemment question des formats d’archivage des textes, avec ou sans images, tableaux, formules de mathématiques, etc. Avant d’aborder cette question : une définition s’impose. Il ne s’agit pas des formats dits d’archives de type .zip, .rar, .tar etc. Archiver les textes c’est, dans ce contexte, pouvoir les conserver et y accéder sans avoir besoin de l’application qui a servi à les générer. Et ce soit en conservant la mise en page d’origine, comme pour le PDF, soit en laissant à l’outil de lecture la main pour la mise en page. Chaque format a ses spécificités. Mais de toute façon :

un bon format de préservation, c’est un bon format tout court. Outils open source nombreux, métadonnées internes bien foutues, démarche collective de normalisation… Bertrand Caron, archiviste numérique à la BnF, janvier 2024.

EPUB

L’EPUB, pour Electronic PUBlication, est un format de document numérique qui n’est pas destiné à l’impression. L’une de ses spécificités est, notamment, de laisser à l’utilisatrice ou l’utilisateur le choix du rendu du fichier. Il existe, toutefois, un mode « fixed-layout » qui fige la mise en forme de l’EPUB. Ce mode a été conçu pour les publications qui nécessitent que la mise en page soit respectée, comme certaines publications scolaires. Mais cela réclame une mise en page adaptée aux tailles des écrans des appareils de lecture.

EPUB a succédé au format OeB (Open eBook). Au départ, géré par l’International Digital Publishing Forum (IDPF) qui sera intégré au W3C en 2017. La première version sort en 2007, suivie, en 2010 par l’EPUB2 et, en 2011, par l’EPUB3. Il a été très vite adopté. Aujourd’hui les deux versions coexistent, l’EPUB2 prédominant encore sur l’EPUB3. Le format est basé sur XML et sur HTML. Un fichier EPUB est un fichier zip qui contient plusieurs fichiers et répertoires dont un dossier META-INF qui contient un fichier container.xml, ce dossier n’apparait pas quand on génère un fichier à partir de Sigil d’ailleurs. Les fichiers de texte sont au format XHTML.

Qu’apporte l’EPUB3 par rapport à l’EPUB2 ? Les évolutions concernent principalement l’accessibilité et l’intégration de contenus audio ou vidéo. Ainsi les formules de mathématiques qui, en EPUB2 sont converties en images, donc illisibles sans yeux, sont gardées en tant que telles avec EPUB3. Les liseuses ne supportent pas forcément toutes les fonctions, notamment multimédias.

Il est possible d’y ajouter différents types de marquage ou de verrous : les DRM Adobe, chères et complexes, les DRM LCP, très pratiques pour le prêt des livres en bibliothèque ou encore des filigranes qui n’imposent aucune limitation aux EPUB. L’apposition d’une DRM a un EPUB est, en principe, une décision éditoriale. Il semble néanmoins que certaines librairies éprouvent le besoin d’en rajouter. Il convient donc d’être vigilant quand on achète un EPUB si on veut éviter d’avoir un livre avec une DRM. Le livre numérique représente 10,1 % du chiffre d’affaires de l’édition française en 2023, ce qui inclut les EPUB et les PDF.

La version la plus récente du format EPUB et l’EPUB3.3 sortie en mai 2023. Elle est devenue une Recommandation W3C (en).

PDF

L’objectif du format PDF a contrario de celui de l’EPUB est le respect de la mise en page du fichier qui a servi à le générer. De ce fait, il n’est pas très lisible sur une liseuse ou sur un téléphone.

La naissance du PDF remonte à 1991 et elle est due à John Warnock cofondateur d’Adobe. La première version de ce format est sortie en 1992. À l’époque c’était assez fou de pouvoir accéder à un fichier avec sa mise en page d’origine sans qu’il soit nécessaire d’avoir l’application qui avait servi à le générer. Il deviendra un standard ouvert géré par l’ISO en 2008, numéro ISO 32000.

En fait il n’existe pas un, mais plusieurs formats PDF dont :

  • PDF/A pour l’archivage,
  • PDF/E pour les documents techniques,
  • PDF/X pour l’impression,
  • PDF/UA pour l’accessibilité universelle,
  • ou encore des formulaires FDF.

La version PDF/A-3 permet d’incorporer le fichier d’origine au PDF : dans l’export PDF de LibreOffice, cela s’appelle un PDF hybride. Cela donne un fichier qui pèse deux fois plus lourd, grosso modo, minus le poids des polices embarquées, que le PDF « simple ». Et, si on ouvre le PDF à partir de l’application qui a servi à le créer, ou si on clique sur « Cliquer pour les afficher » (ou équivalent) dans un lecteur de PDF qui le permet, ici Okular, on ouvre le fichier d’origine. Mais, évidemment, quand on le modifie ça ne modifie pas le PDF. Il faut soit générer un nouveau PDF soit l’écraser.

À savoir, il n’y a que quatorze polices standard PDF, en fait seulement cinq fontes différentes avec leurs variantes, gras, italiques : Courrier, Helvetica, Times Roman, Symbol et Zapf Dingbats. Il est donc très important, quand on génère un PDF d’incorporer les polices au fichier à condition que cela soit permis par la licence des polices. Pour ne pas alourdir le fichier, il est suggéré de n’incorporer que les polices utilisées dans le document. Avec LibreOffice, vous pouvez configurer cela soit en générant le PDF, soit, de préférence, la première fois que vous enregistrez le fichier, c’est dans l’onglet « Police » des propriétés dudit fichier. Si vous utilisez un modèle, la case peut avoir été cochée dans le modèle et il ne sera pas nécessaire de le faire.

Kurinto une histoire de chasses

La chasse, en typographie, est l’encombrement d’un caractère : largeur plus approche (espace autour). Pour un même corps de caractère (sa hauteur), elle peut varier selon les polices, ce qui, évidemment, peut changer, voire, chambouler, complètement un document créé avec une police et pour lequel on a changé la typographie. La collection de polices Kurinto (en) a été dessinée à la fois pour couvrir un large éventail de langues et de systèmes d’écriture et dans l’optique de pouvoir remplapcer les polices Microsoft avec des glyphes qui ont la même chasse.

Si vous cherchez des polices au dessin élégant pour remplacer des fontes comme le couple Arial/Times New Roman, avoir aussi des typographies à chasse fixe ou légèrement fantaisie, l’ensemble de polices Kurinto est un bon choix qui offre en prime une bonne cohérence entre les diverses polices. Elles sont sous licence SIL.

Déclinaison des noms des polices Kurinto permettant de voir leurs chasses respectives

Les textes et documents qui ont servi à alimenter cette dépêche

Les références sont données à peu près dans leur ordre d’apparition dans le texte. Ils sont tous accessibles en ligne et, de préférence, en français. Volontairement, il y a un minimum de références à Wikipédia. Ce n’est pas tout à fait exhaustif, mais ça vous fera déjà pas mal de lecture. Par exemple, je n’ai pas cité le blog de Stéphane Bortzmeyer qui m’a bien servi à défricher le terrain.

Les formats matériels

  • Sur les rouleaux notamment leur rangement. Le site Rotulus est consacré aux rouleaux médiévaux.
  • Guide pratique du compositeur d’imprimerie, Théotiste Lefèvre, un guide considéré longtemps comme une, si pas LA, référence en matière de typographie et d’imprimerie. Paru en 1855, il fera l’objet de multiples éditions, les dernières en 2000. Aujourd’hui encore, ses pages sur la typographie peuvent servir de références. Théotiste Lefèvre était le fils d’un apprenti compositeur. Il commencera comme ouvrier en imprimerie pour devenir une figure clé du secteur. Sa fille deviendra correctrice. La version du guide donnée en téléchargement sur le site archive.org est d’assez mauvaise qualité. De toute façon, avec le texte brut ou la piètre qualité de la reconnaissance des caractères on perd absolument tout ce qui fait l’intérêt du livre qui donne beaucoup d’exemples.
  • Sur les formats A. Le site donne les dimensions des feuilles de papier en centimètres et en pixels.

Les formats numériques (texte et archivage)

La police

Postambule

La prochaine dépêche de la série devrait être moins longue (pas difficile) et portera sur le code avant Unicode. Elle parlera donc aussi de football. Comme toujours, vos suggestions sont appréciées.


  1. MOLINIER A. « Les manuscrits et les miniatures », BnF Gallica: Librairie Hachette, 1892. Disponible sur : BnF Gallica en PDF ou en texte brut. 

  2. L’exemple est reproduit à partir du petit guide de Charles-Lucien Huard La Typographie

  3. Pour rappel, un RFC (Request For Comments) est un document qui définit les normes techniques sur les lesquelles s’appuient le réseau Internet

  4. ANDRÉ Jacques, « Caractères, codage et normalization. De Chappe à Unicode », Document numérique, 2002/3-4 (Vol. 6), p. 13-49. DOI : 10.3166/dn.6.3-4.13-49.

  5. Les formats de texte, archives. 

  6. Wiki de LibreOffice

  7. À noter qu’OpenOffice, compte tenu de son absence d’évolution ne supporte pas la norme ODF 1.3

  8. Office Open XML – Définition

  9. Pour tout dire, mon gestionnaire d’archives Engrampa est incapable d’ouvrir un fichier .docx et l’explication du site, qui n’est pas un site officiel, me semble très touffue. 

  10. Littéralement : « set of macros to let you do many things ».What is the difference between TeX and LaTeX? (en)

  11. Langage de balisage extensible (XML) 1.0, Recommandation du W3C, 10 février 1998. 

Commentaires : voir le flux Atom ouvrir dans le navigateur

Créatures ou IA : consultez, manipulez & annotez les images des bibliothèques, musées… grâce à IIIF

L’initiative IIIF, pour International Image Interoperability Framework, est née de la constatation que la diffusion d’images patrimoniales sur le web était « trop lente, trop coûteuse, trop décousue, trop complexe ». IIIF apporte une solution pérenne et élégante à ces difficultés en conciliant accessibilité, interopérabilité et sobriété. Il intéresse les GLAM (collections, bibliothèques, archives, musées, etc.) ainsi que les acteurs de l’enseignement et de la recherche.

Concrètement, IIIF créé un cadre technique commun grâce auquel les fournisseurs peuvent délivrer leurs contenus sur le web de manière standardisée, afin de les rendre consultables, manipulables et annotables par n’importe quelle application compatible.

International Image Interoperability Framework

Sommaire

Origine de IIIF

En 2010, constitution d’un groupe de réflexion et d’expérimentation sur l’interopérabilité des manuscrits médiévaux numérisés à l’initiative de l’université de Stanford. Ses travaux ont conduit à l’élaboration d’un modèle de données Shared Canvas basé sur le modèle d’annotation du W3C.

À la même époque, de grandes bibliothèques nationales et des universités ont travaillé à la définition d’un mécanisme d’échange des images pour aboutir en 2012 à la publication de la version 1 de l’API Image de l'International Image Interoperability Framework (IIIF).

Le Consortium IIIF a été créé en 2015 par onze institutions : la British Library, Artstor, Die Bayerische Staatsbibliothek, la Bibliothèque nationale de France, Nasjonalbiblioteket (Norvège), Wellcome Trust, et les universités d’Oxford, Stanford, Cornell, Princeton et Yale. Il compte actuellement 69 membres.

Qu’est-ce que IIIF ?

Un aspect spectaculaire de IIIF réside dans la visualisation fluide des images et le zoom profond, cf. Sagami River, Kyoto (1660?-1670?). Princeton University, mais IIIF ne se résume pas à ça, loin de là.

_Sagami River, Kyoto (1660?-1670?) affiché par le visualiseur libre UniversalViewer

IIIF désigne à la fois le cadre technique partagé d’un ensemble de protocoles ouverts et une communauté humaine qui les implémente, développe des logiciels et in fine expose des contenus audiovisuels interopérables.

Ce standard de fait est utilisé par de plus en plus d’institutions culturelles — collections, bibliothèques, musées, archives, etc. — et scientifiques — universités, labos, muséums, etc. Ses fonctionnalités s’étendent maintenant à l’audio et à la vidéo ; la prise en compte de la 3D est en cours.

Pour l’heure, IIIF est surtout utilisé pour la diffusion d’images numériques. Ce sont ainsi des centaines de millions d’images qui deviennent véritablement découvrables, consultables, comparables, manipulables, citables, annotables et mixables par n’importe quelle application compatible capable de se « brancher » sur les entrepôts des uns et des autres.

Sans téléchargement de fichiers images, ces ressources de « première main » sont immédiatement utilisables par les professionnels comme par les amateurs. Elles intéressent aussi les chercheurs, les enseignants et les élèves, et les médiateurs culturels, scientifiques et artistiques. IIIF facilite grandement la diffusion, la réutilisation et la valorisation de toutes ces ressources disséminées.

Principe général d’interopérabilité de IIIF : trois applications différentes sont branchées à trois entrepôts IIIF (source : Biblissima+ — Licence Ouverte / Open License 2.0)
Principe général d’interopérabilité de IIIF : trois applications différentes sont branchées à trois entrepôts IIIF (source : Biblissima+ — Licence Ouverte / Open License 2.0)

Visualisation d’un document

Photo de Bob Fitch, Martin Luther King Jr. & Joan Baez (1966), visualisée avec le logiciel libre Tify

Copie d’écran du logiciel libre Tify présentant une photographie de Martin Luther King et de Joan Baez (Bob Fitch, 1966). Ce document est fourni par un serveur IIIF opéré par l’université de Stanford.

Visualisation de plusieurs documents

La magie IIIF c’est la capacité de jongler avec les références des ressources, par exemple, pour les réunir dans des bibliothèques virtuelles ou encore pour servir de points d’entrée aux robots et autres IA afin d’analyser les documents.

Léonard Limosin est un peintre, émailleur, dessinateur et graveur français du XVIe siècle. Deux de ses œuvres sont présentées ci-après dans le visualiseur libre IIIF Mirador.

Vues d’œuvres de Léonard Limosin avec le logiciel libre Mirador

Sur cette page, vous pouvez explorer chaque image et zoomer, les comparer, lire leurs métadonnées, passer en plein écran ou agencer différemment les fenêtres. L’interface de Mirador vous permet aussi d’accéder à d’autres références en cliquant sur le bouton rond bleu puis en sélectionnant les documents préenregistrés.

Vous avez aussi la possibilité d’en ajouter d’autres via le bouton bleu Ajouter une ressource en bas à droite, ensuite en insérant l’URL d’un manifeste IIIF. En faisant une recherche sur Léonard Limosin vous trouverez différentes collections comportant certaines de ses œuvres. Certaines les exposent au standard IIIF. Dans ce cas, pour chaque notice il s’agit de récupérer le lien d’un manifeste IIIF (explicite ou associé au logo IIIF). Exemple, avec cette Crucifixion au Fitzwilliam Museum (Cambridge).

Le logiciel libre Omeka dispose de fonctionnalités IIIF et permet de créer des bibliothèques virtuelles de ressources IIIF.

Apports de IIIF

D’après IIIF en 5 minutes.

Pour les usagers

L’accès à des images de haute qualité ainsi qu’à leurs métadonnées, large choix de visualiseurs libres :

Ces outils, et d’autres encore, offrent une large palette d’interfaces riches et universelles pour :

Il existe de nombreux dispositifs pour utiliser ces ressources de « première main » et corpus dans un environnement éducatif et de recherche.

Pour les diffuseurs

  • bénéficier d’une manière standardisée, cohérente et efficace, de présenter et de partager leurs collections,
  • améliorer leur visibilité, l’accessibilité à leurs données et développer des espaces de collaboration et de recherche,
  • faciliter la gestion des ressources numériques en garantissant un accès homogène et pérenne,
  • promouvoir la participation des usagers en mobilisant des outils avancés pour l’exploration et l’utilisation des ressources,
  • proposer des projets de transcription, de crowdsourcing ou de sciences participatives en fournissant des documents annotables,
  • réduire et mutualiser les coûts en utilisant un standard ouvert, des services et des logiciels éprouvés.

Pour les développeurs

Il existe de nombreux logiciels et composants compatibles avec les API de IIIF, beaucoup sont libres. La page officielle Awesome IIIF recense les principaux ainsi qu’un grand nombre de ressources documentaires et de services.

IIIF est entièrement basé sur les standards et l’architecture du Web (principes REST et du Linked Data, Web Annotation Model du W3C, JSON-LD) ce qui facilite le partage et la réutilisation des données.

Le découplage entre la couche serveur et la couche cliente, la modularité des composants logiciels, la ré-utilisabilité des ressources offrent une grande souplesse et réduit la dépendance à un logiciel ou un prestataire.

La communauté des usagers et des développeurs est active.

Comment ça marche ?

Le manifeste est un élément essentiel de IIIF. C’est un document au format JSON-LD qui représente généralement un objet physique numérisé tel qu’un livre, une œuvre d’art, un numéro de journal, etc. Il peut également rassembler des éléments de provenances diverses. Il décrit l’ensemble du document, ses métadonnées, sa structure et référence les images et les médias qu’il embarque.

Les liens des manifestes IIIF sont plus ou moins faciles à trouver dans les notices des catalogues. Une méthode simple consiste à rechercher le logo IIIF ou à explorer les informations fournies par les visualiseurs. Le site officiel de IIIF alimente un annuaire non exhaustif des sites et, site par site, fournit généralement un mode d’emploi pour récupérer les manifestes.

Techniquement, IIIF comporte deux API principales, l’API Image et l’API Presentation qui fonctionnent de concert.

API Image

L’API Image fournit des informations basiques sur l’image ainsi que les pixels de l’image entière ou de zones à la demande.

Elle se présente avec les éléments suivants :

  • une URL d’accès aux informations techniques d’une image, abcd1234 est un exemple d’identifiant :
    http://www.example.org/image-service/abcd1234/info.json
  • une URL à construire à la carte pour récupérer et manipuler tout ou partie de l’image en précisant la zone, la taille, l’orientation, la qualité et le format de l’image à produire.

schéma de l’URL API Image

Voilà ce que ça donne en pratique avec l’image de test. Attention ! LinuxFR met en cache les images, si vous souhaitez effectuer les manipulations, copiez et modifiez les paramètres des url ci-après.

Le fichier info.jsonest le suivant :

  • https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/info.json

  • rendu homothétique de l’image entière avec une largeur de 300px

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/full/300,/0/default.jpg

    image entière rendue homothétique avec une largeur de 300px

  • détail de la même image

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/300,/0/default.jpg

    détail

  • rotation et transformations

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/150,/45/default.jpg

    détail

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/150,/0/bitonal.jpg

    détail
    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/150,/0/gray.jpg

    le rendu en niveaux de gris ne fonctionne pas avec ce serveur IIIF.

Pour en savoir plus consultez les spécifications de l’API Image (version 3.0 actuellement).

L’API Presentation

En complément à l’API Image, l’API Presentation fournit les propriétés d’un document IIIF : métadonnées, structures, annotations, etc.

Principales composantes d’un Manifeste IIIF

Principales composantes d’un Manifeste IIIF (source : Biblissima+ — Licence Ouverte / Open License 2.0)

Il existe de nombreux visualiseurs pour afficher ces documents et les informations associées. On distingue alors dans différentes zones le rôle de chacune des deux API principales.

API Image

Source : Biblissima+ — Licence Ouverte / Open License 2.0.

API Presentation

Source : Biblissima+ — Licence Ouverte / Open License 2.0.

À noter que le visualiseur optimise le trafic en ne demandant au serveur que la partie de l’image à afficher

Pour en savoir plus consultez les spécifications de l’API Presentation (version 3.0 actuellement).

Les autres API

Voir la page des spécifications, extensions, traductions et travaux en cours.

  • Authorization Flow (version 2.0) - décrit un système de contrôle d’accès.
  • Change Discovery (version 1.0) - fournit les informations nécessaires pour découvrir et utiliser les ressources IIIF.
  • Content Search (version 2.0) - définit le mécanisme d’interopérabilité permettant d’effectuer des recherches dans les annotations textuelles associées à un objet.
  • Content State (version 1.0) - permet de référencer tout ou partie d’un manifeste IIIF et de décrire des modalités d’accès.

Au-delà de l’image : l’audio, la vidéo et la 3D

Les références à des ressources audio et vidéo sont prises en compte dans la version 3.0 de l’API de présentation IIIF. À noter qu’il n’existe pas pour l’audio et pour la vidéo d’équivalents de l’API Image, en effet, cet aspect est pris en charge par les navigateurs. Exemple : audio et vidéo d’un morceau musical associés à la partition.

Il y a une forte demande pour la prise en compte de la 3D par IIIF. Un groupe de travail rassemble les institutions et les personnes intéressées. Il anime un dépôt Github qui rassemble les documents et expérimentations du groupe.

IIIF et IA

IIIF est de plus en plus utilisé par des dispositifs d’apprentissage et de reconnaissance automatique en raison de la facilité d’accès aux images entières ou à des zones, dans les définitions et qualités nécessaires. Il est aussi possible d’imaginer des IA qui génèrent automatiquement des manifestes annotés.

La société française Teklia s’est spécialisé dans ce domaine. Elle vient d'annoncer le passage sous licence libre de sa plateforme Arkindex.

Harvard Art Museums a créé AI Explorer qui mobilisent un certain nombre d’IA pour décortiquer des reproductions d’œuvres et des photographies.

Le Consortium IIIF a mis en place un groupe de travail et il existe une formation en ligne sur le sujet.

Commentaires : voir le flux Atom ouvrir dans le navigateur

L’écriture et l’image, des âges farouches au texte électronique

Dans cette nouvelle excursion du Transimpressux, nous voyagerons chez les Mayas de l’époque pré-colombienne ainsi que dans la Rome antique. Nous ferons un rapide tour des monastères médiévaux, nous irons rendre une courte visite à Aloys Senefelder à Munich. Nous en profiterons pour aller voir Isaac Newton, Tintin et Astérix et on terminera notre voyage à Kreutzal, en Allemagne. On n’y parlera pas de Rahan, quoique. On aura compris qu’il sera question d’image, d’écriture et de texte.

Le bar du Transimpressux vous propose un vaste échantillon issu du pas si grand livre des recettes de LinuxFr.org. En espérant qu’à la lecture de cette dépêche vous aurez fait un beau voyage.

Train jaune

Sommaire

Préambule

Au départ, j’avais prévu de parler aussi de formats, mais, à l’arrivée, c’est déjà bien long. La question des formats fera donc l’objet d’une autre dépêche de la série.

J’utilise indifféremment les termes de fonte, police, police de caractère ou typographie. Et, comme il sera question de périodes très éloignées dans le temps, celles antérieures à notre ère seront indiquées sous la forme AEC (avant l’ère commune).

Quelques définitions avant de commencer

Il est possible que certaines notions ne vous soient pas claires, ces quelques définitions vous seront peut-être utiles.

L’écriture et l’image, des concepts différents vraiment ?

L’écriture n’est pas de l’image, l’image n’est pas de l’écriture. Oui et non.

L’exemple des hiéroglyphes mayas

Le système d’écriture maya n’est pas purement logographique. D’ailleurs est-ce qu’un système d’écriture uniquement logographique ou pictographique existe vraiment ? On a vu précédemment sur LinuxFr.org concernant les systèmes d'écriture que les hiéroglyphes égyptiens et les sinogrammes n’étaient pas composés que de pictogrammes, mais qu’ils allaient de pair avec d’autres signes, notamment phonographiques. Il en va de même avec l’écriture maya qui

est un système graphique normalisé qui, au moyen de quelques centaines de « signes-mots » (ou logogrammes) et environ 150 phonogrammes marquant des syllabes de type Consonne-Voyelle1.

L’écriture maya est apparue, à notre connaissance vers 400 AEC et a été utilisée jusqu’au XVIIe siècle où l’envahisseur espagnol a tout fait pour l’éradiquer, y compris en brûlant des codex. Entre les Espagnols et le climat chaud et humide de la sphère d’influence maya, on ne connaît plus que trois codex mayas précolombiens2 : le codex de Dresde, celui de Paris et celui de Madrid. Un quatrième codex, le codex Grolier, conservé à Mexico est sujet à controverses, sa datation et son authenticité ne sont pas certaines. Mais on retrouve aussi l’écriture maya sur des monuments et du mobilier. On trouve également des graffitis, signe, sans doute, d’un certain niveau d’alphabétisation de la population maya. L’écriture maya devait transcrire plusieurs langues amérindiennes, lesquelles langues ont toujours des locuteurs.

codex de Paris
Deux pages du codex de Paris

Pour autant qu’on sache, pour les Mayas, leur écriture tout au moins, l’image était importante. Selon Jean-Michel Hoppan :

Cette écriture est rigoureuse et, tout à la fois, très souple. Elle n’est pas normalisée, au contraire de l’idée qu’on se fait habituellement d’une écriture. Le scribe peut privilégier l’esthétisme au détriment de la compréhension immédiate (en tout cas pour nous). C’est encore plus évident sur les céramiques, où le texte est parfois complètement inintelligible. Le glyphe est là, toujours chargé du pouvoir de l’écrit, mais le contenu de la parole n’est plus. Il devient image. Il y a une grande partie de la céramique où l’on voit de l’écriture, mais qui, de fait, est constituée de pseudoglyphes.3

Les hiéroglyphes mayas n’ont pas de bloc Unicode, même si les chiffres y figurent depuis la version 11.0 (juin 2018). Un billet du blog du consortium (en) du 23 janvier 2020 annonçait l’existence d’une subvention « pour restituer numériquement des écritures historiques et modernes supplémentaires, y compris des hiéroglyphes mayas. ». L’idée étant aussi de faire progresser la recherche de la connaissance de l’écriture et de la culture maya sur les sites de la période 250 – 900, une étape importante pour déterminer les signes à intégrer à Unicode, et d’aboutir à la création de polices OpenType. La dernière version de la norme Unicode, 15.1.0, date du 12 septembre 2023, un peu juste pour incorporer les hiéroglyphes mayas quand on sait que la création d’une police peut prendre de quatorze à seize mois.

Le contre exemple romain

L’alphabet latin puise ses origines dans l’alphabet étrusque, qui, lui-même, provient du système d’écriture grecque et c’est, bien entendu, celui que nous utilisons sur LinuxFr.org (le latin, pas le grec, suivez un peu). C’est celui de l’ASCII. Il figure dans l’Unicode, évidemment, où il dispose de plusieurs blocs. Le bloc latin de base contient en fait tous les caractères et commandes de l’ASCII. Il n’a pas été modifié depuis la version 1.0.0 d’Unicode.

D’après les écrits qui nous sont arrivés, les Romains avaient une vision très « utilitariste » de l’écriture. Pour eux (les écrits qui nous sont parvenus sur le sujet proviennent essentiellement d’hommes) :

l’écriture est essentiellement destinée à (…) représenter [le langage]. De plus, dans sa version alphabétique, qui est à peu près la seule à laquelle pensent les Latins, l’écriture est une notation des sons, les lettres renvoient à des sons élémentaires et l’alphabet correspond terme à terme (en principe) à un inventaire fini de ces sons.4

Il s’agissait donc pour les anciens Romains non pas de

faire une science de la langue à travers sa représentation graphique, mais bien une science de l’écrit en tant qu’il renvoie à la langue. (Françoise Desbordes).

Un support du langage bien imparfait d’ailleurs puisqu’il ne rend pas les effets du discours oral. Et ce facteur explique aussi que la graphie ait mis du temps à se normaliser. L’écrit étant l’image de l’oral : la langue pouvait être prononcée par des locuteurs avec des accents différents et s’écrire ainsi en fonction de la prononciation.

Les écrits des Romains étaient variés, indépendamment des discours, naturellement et sous diverses formes : monumentales, tablettes de cire, papyrus, mais aussi graffitis que l’on pouvait retrouver sur les murs des édifices privés. Des graffitis qui étaient destinés à être lus et étaient très liés à l’oral :

les messages interpellant parfois nommément, au vocatif, une personne – homme ou femme. Ainsi s’explique aussi l’abondance des exclamations (feliciter ! salutem !), des salutations (salve vale !) et des vœux (votum aux Lares pour la salus du maître de maison). Leur caractère performatif ne fait pas de doute.5

graffiti
Graffiti de Pompéi vantant les exploits sexuels du miles Floronius (CIL, IV, 8767). Wolff 2012, 19, fig. 7.

La séparation du texte et de l’image

Des compétences, des métiers et des techniques différentes.

Les manuscrits médiévaux, une séparation parfois extrême

Le travail de copie des monastères médiévaux, notamment (la profession se sécularisera à partir du XIIIe siècle), différait en fonction des lieux et des époques. Au début, le, ou les copistes, suivant en cela, semble-t-il, les traditions grecques et romaines, étaient également chargés de l’ornementation. Les copistes, parce que la copie d’un manuscrit pouvait être distribuée en plusieurs cahiers à différents copistes pour accélérer le travail de copie. La ponctuation, quant à elle, était généralement du ressort des correcteurs, quand il y en avait, pas des copistes.

Il arrivait aussi qu’il y ait un copiste pour le texte et un pour les enluminures, surtout pour les manuscrits les plus riches. Dans ce cas, le ou la copiste écrivait la lettre à enluminer et laissait la place nécessaire, à charge pour l’enlumineur ou l’enlumineuse d’orner le parchemin. Les copies n’étant pas du ressort unique des monastères, les enlumineurs et les enlumineuses étaient souvent des peintres.

Et parce que le travail était ainsi le fait de corps de métier différents, il subsiste des manuscrits médiévaux pas finis, avec des « blancs » pour des enluminures qui ne verront jamais le jour.

L’imprimerie : des typographies ornementales

Jusqu’à la fin du XVIIIe siècle, les techniques d’impression ont assez peu évolué. Il y avait des perfectionnements et des améliorations, certes, mais, les techniques restaient grosso modo celles de Gutenberg. Les illustrations étaient gravées à part, puis, après la découverte fortuite de la lithographie par Aloys Senefelder en 1796 dessinées sur la pierre, ce qui permettait aux artistes de travailler directement sur la pierre sans avoir à passer par l’intermédiaire d’un graveur. La lithographie permet en effet de dessiner le motif sur la pierre, à l’origine. Senefelder travaillera aussi sur plaque de zinc. La lithographie repose sur le principe de l’antagonisme de l’eau et de la graisse : les zones à imprimer sont traités à la graisse, les autres sont mouillées. L’encre grasse se dépose ainsi seulement sur les zones grasses.

Si l’impression en noir et blanc pouvait se faire d’une traite, celle en couleurs, selon les exigences et les techniques utilisées, pouvait requérir jusqu’à quatorze opérations différentes, et presque autant de passages couleurs. L’offset actuel, un procédé qui dérive de la lithographie, fonctionne en quadrichromie : cyan, magenta, jaune et noir (CMJN) et autant de passages couleur.

Les ornements plus susceptibles d’être réutilisés : lettrines, culs-de-lampe et autres fleurons, lignes et arabesques faisaient l’objet, quant à eux, de fontes ornementales spécifiques. Il y avait même des graveurs typographes spécialistes de typographie ornementale comme Joseph-Gaspard Gillé (pdf) (1766-1826). Aujourd’hui, ce genre de fonte peut se trouver, dans les blocs Unicode de systèmes d’écriture, notamment, latin. On y retrouve d’ailleurs bon nombre de ces polices ornementales purement figuratives même si leur dessin ne correspond pas à une lettre. Mais elles pourraient aussi bien figurer dans les flèches, les filets, les pavés, le bloc casseau ou encore les deux zones supplémentaires.

Les symboles du zodiaque
Les symboles du zodiaque de la collection de fontes de Gillé. Les symboles du zodiaque figurent dans les points de code Unicode U+2648 à 2653 (avec des dessins moins figuratifs).

Toutes les techniques d’imprimerie continuent à exister, de façon plus ou moins anedoctique. Les deux plus répandues étant l’offset, pour les gros volumes, et l’impression numérique (laser ou jet d’encre). Cette dernière étant la seule à imprimer les couleurs d’une seule traite.

La bande dessinée : des métiers différents

La bande dessinée ce n’est pas un métier mais quatre métiers différents qui peuvent ou non, être assurés par la même personne :

  • le scénario,
  • le dessin,
  • la couleur,
  • et le lettrage qui nous intéresse ici.

Le lettrage, dans la bande dessinée ce sont en fait plusieurs types d’écriture :

le paratexte (titres, signatures, numérotation), les interventions du narrateur (récitatifs, didascalies, commentaires), toute la notation des sons (dialogues, onomatopées, bruits) – le lettrage assume ainsi une part très importante du « régime sonore » de la bande dessinée, au point que l’on appelle « muettes » les bandes dessinées qui n’en comportent pas du tout (puisque le lettrage n’est pas indispensable à la réalisation d’une bande dessinée).6

Gotlib (les Dingodossiers, la Rubrique à brac, Super Dupont, Gai-Luron) est entré en bande dessinée par la voie du lettrage.

L’élève Chaprot roi
Un extrait des Dingodossiers de Gotlib, scénario de Goscinny. L’image comporte des didascalies à gauche et en haut à droite, une bulle de texte, en-dessous, du texte « sonore. »

D’autres auront leur lettreur attitré, comme Hergé. Arsène Lemey a assuré le lettrage de ses Tintin à partir de la version allemande du Secret de la licorne, le onzième album de la série. La police de caractère créée par Arsène Lemey pour Tintin est l’Arleson, elle sera intégrée à la photocomposeuse de Casterman dans les années 1970. Pour la série Astérix ce sont les lettrages de Michel Janvier, en charge de cette tâche pour un certain nombre d’album depuis 1989, qui ont été numérisés. Trois famille principale de typographies ont ainsi été créées par Le Typophage : Regularus pour les bulles, Boldus pour l’écriture très grasse et Graphix pour les onomatopées et les symboles graphiques.

Avoir sa propre police est actuellement assez facile en passant par des sites comme le Calligraphe qui permettent de générer une typographie à partir de son écriture manuscrite. C’est ce qu’a fait notamment heyheymomo (en) qui offre sa police en téléchargement (en).

Qu’est-ce que le texte ?

Au début de l’informatique, chez IBM l’unité de mesure était le mot (word). La capacité d’une machine s’évaluait donc en nombre de mots. Un mot étant, selon le manuel de l’IBM 605 constitué de « dix chiffres et d’un signe algébrique ». Ainsi l’IBM 605 avait une capacité de 1 000 à 2 000 mots. Le texte n’était pas bien loin.

Mais, qu’est-ce que le texte ? Selon les points de vue, la notion de texte peut être très vaste. En musique par exemple, il est question de sous-texte et ça n’a rien à voir avec les paroles de chanson ou de mélodies ou le livret des opéras. Dans le cadre de cette série qui, globalement, traite de l’informatique dans le contexte historique de l’écriture, j’opte pour une définition restrictive et axée sur l’écriture et la lecture.

Le texte est ainsi de l’écriture qui peut se lire avec les yeux, les oreilles ou les doigts et qui peut aussi être lue par des robots. C’est du texte fait pour être lu pas pour être exécuté dans le cadre d’un logiciel par exemple. Ce qui exclut le code informatique de la définition, même si c’est écrit avec des éditeurs de texte7. On doit pouvoir faire des recherches dans le texte, naviguer dedans, en extraire une partie pour la réutiliser ailleurs, etc.

Il s’ensuit qu’une image avec de l’écriture dessus, ce n’est pas du texte. Un fichier PDF, fac-similé d’un livre imprimé n’est pas du texte. Et les versions PDF des livres numérisés que propose la BnF Gallica par exemple ne sont pas du texte. Un formulaire en PDF qui est en fait une image que l’on aura modifiée avec un outil de dessin (ou imprimé et modifié à la main puis numérisé) n’est pas du texte.

En revanche, si, de mon point de vue, la structure d’une base de données n’est pas du texte, son contenu par contre, oui. Ainsi, au hasard, celle de LinuxFr.org, est du texte, la partie publique tout au moins. Et ce n’est pas Claude qui me contredira.

Manchot à tables
Un genre d’allégorie des tables de la base de données de LinuxFr.org.

Il est d’autant plus important d’insister là-dessus qu’il se trouve encore des personnes qui ne font pas la différence entre les deux. Et ce, tout simplement parce que c’est écrit et qu’elles, elles, peuvent lire ce qui est écrit.

Nouveau Drop Caps : une police de lettrines

Puisque qu’il a été question plus haut de typographies purement décoratives, c’est l’occasion de vous présenter une police qui ne peut servir qu’à des lettrines ou des titres.

La police Nouveau Drops Caps

Nouveau Drop Caps est une fonte générée par Dieter Steffmann (en) un typographe de formation qui a créé plus de trois-cent-cinquante polices. La plupart sont plutôt plus à des fins décoratives que des polices de texte. Dans l’ensemble, ses polices peuvent être utilisées pour la langue française, elles ont les caractères qu’il faut. La position de Dieter Steffmann sur son travail est la suivante :

je considère les polices de caractères comme un patrimoine culturel, je ne suis pas d’accord avec leur commercialisation. Les polices autrefois fabriquées à partir de caractères métalliques avaient évidemment un prix en fonction de la valeur du métal, et le coût de conception, de découpe et de moulage est convaincant, d’autant plus que l’acheteur devenait également propriétaire des polices achetées !

Le site sur lesquelles il les dépose, 1001 fonts a, d’ailleurs, une licence (en), avec une disposition assez originale. La police

peut être téléchargée et utilisée gratuitement pour un usage personnel et commercial, à condition que son utilisation ne soit pas raciste ou illégale. (…)

Les fontes peuvent être librement copiées et transmises à d'autres personnes pour un usage privé mais pas être vendues ou publiées sans l’autorisation écrite des auteurs et autrices.

Les textes et documents qui ont servi à alimenter cette dépêche

Les références sont données à peu près dans leur ordre d’apparition dans le texte. La plupart sont accessibles en ligne, et, volontairement, il y a un minimum de références à Wikipédia. Il y a, également, le minimum possible de sources en anglais.

L’écriture maya

Jean-Michel Hoppan est l’un des seuls (le seul ?) spécialiste français d’un domaine de recherche (l’écriture maya) qui ne compte qu’une centaine de personnes dans le monde.

La vision romaine de l’écriture

  • Idées romaines sur l’écriture, Françoise Desbordes, 1990, EPUB : ISBN 9782402324168, PDF : ISBN 9782402657495, marquage filigrane. La maison d’édition FeniXX qui édite ce livre est spécialisée dans la réédition des livres indisponibles du XXe siècle.
  • L’écriture en liberté : les graffitis dans la culture romaine, Michelle Corbier, extrait de Langages et communication : écrits, images, sons, Corbier Mireille et Sauron Gilles (dir.), éd. électronique, Paris, Éd. du Comité des travaux historiques et scientifiques (Actes des congrès nationaux des sociétés historiques et scientifiques), 2017.

Les manuscrits médiévaux

On peut se procurer ces livres au format PDF (fac-similé), en texte brut (je travaille sur une version que je compte mettre en ligne pour chacun de ces livres), les emprunter en version EPUB à la BnF si l'on a un compte, ou acheter l’EPUB. À noter que, selon les librairies, le fichier EPUB a ou non une protection numérique : ainsi, Le Furet du Nord indique qu’ils n’en ont pas, Cultura annonce une DRM LCP, et la FNAC une DRM Adobe.

Bonus ! Si vous voulez vous rincer l’œil, l’IRTH (Institut de recherche et d’histoire des textes) a dressé une liste de sites pour accéder au manuscrit médiéval numérisé.

L’imprimerie

La bande dessinée

  • Lettrage, Laurent Gerbier, Cité internationale de la bande dessinée et de l’image, septembre 2017.

Postambule

La question des formats sera abordée dans le prochain chapitre qui est déjà bien avancé. Et ce n’est pas plus mal, finalement.

Dans le cadre de cette série, il va me falloir traiter aussi de la question des codes (sur laquelle j’ai quelques lacunes, vos suggestions sont bienvenues). Unicode, bien que déjà pas mal abordé, mérite un chapitre à lui tout seul : histoire, composition du consortium, comment on ajoute un système d’écriture à Unicode, et quelques paragraphes sur le code lui-même (et là…). Je pense que je pourrais peut-être caser la norme ISO des écritures dans ce chapitre. Si j’ai parlé de conservation, il va falloir parler de l’archivage : protocoles, accès, ce qui me permettra d’évoquer aussi de la science ouverte, je pense.


  1. L’écriture maya](https://www.inalco.fr/lecriture-maya), Jean-Michel Hoppan, INALCO. 

  2. Les codex étaient écrits sur un papier, l’amate, fait à partir de l’écorce d’un figuier local. 

  3. Les glyphes mayas et leur déchiffrement, Jean-Michel Hoppan, 2009. 

  4. Idées romaines sur l’écriture, Françoise Desbordes & Centre national de la recherche scientifique & Anne Nicolas, 1990. 

  5. L’écriture en liberté : les graffitis dans la culture romaine, Mireille Corbier, 2014. 

  6. Lettrage, Laurent Gerbier, septembre 2017. 

  7. Je reconnais qu’il peut y avoir matière à pinaillage sur ce sujet. 

Commentaires : voir le flux Atom ouvrir dans le navigateur

Les langues peu documentées et le libre : quelques enjeux scientifiques

Comme beaucoup de domaines scientifiques, la documentation de la diversité linguistique entretient une relation forte avec les mondes du Libre. Dans cette dépêche, je vous propose de découvrir ce domaine à travers la présentation de plusieurs logiciels et ressources libres ou en accès ouvert. La documentation des langues étant un thème peu courant sur LinuxFr.org, on commencera par une présentation de cette problématique. Nous continuerons par une description des deux ressources principales existantes pour cataloguer et se repérer au sein de cette diversité linguistique. Je parlerai ensuite d’ELAN et de FLEX, deux logiciels utilisés pour annoter des enregistrements audio-visuels, une étape clef dans l’analyse linguistique, et qui permet le partage et la réutilisation de ces enregistrements. Enfin, après un court passage sur la question de l’archivage, je présenterai deux compilations de corpus de documentation en accès libre, une pratique récente qui permet de nouveaux questionnements quantitatifs sur les langues orales peu documentées, et qui contribue également à la transparence et la traçabilité des analyses linguistiques.

    Sommaire

    L’étude des langues à travers le monde

    Actuellement, environ 7000 langues ont été recensées à travers le monde. Ce chiffre ne peut être qu’une approximation car, il n’y a pas de consensus sur la définition de ce qu’est une langue. Une difficulté par exemple est de définir à quel moment une langue est distincte d’une autre. Lorsqu’il y a variation, mais intercompréhension, de nombreux linguistes s’accordent à dire qu’il s’agit alors de dialectes d’une même langue, et donc, lorsqu’il n’y a pas intercompréhension, alors il s’agit différentes langues. Cette perspective considère que tout le monde parle un dialecte (que ce soit celui de référence, ou un plus régional comme celui de Paris, de Marseille, du Québec), la langue n’étant qu’une abstraction permettant de regrouper les diverses pratiques langagières. En ce qui concerne l’intercompréhension, ce critère n’est malheureusement pas absolu car elle peut varier selon les personnes et leur parcours personnel. Et lorsqu’on considère l’évolution d’une langue à travers le temps, sa diachronie, définir ce qu’est une même langue à travers ses évolutions temporelles se complexifie d’autant plus.

    Si certaines langues ont émergé récemment, on pense assez souvent aux langues dites créoles (le Bichelamar, les créoles malais, à Madagascar ou au Cap Vert), ou également lorsque certains dialectes se distinguent suffisamment pour ne plus être intercompréhensibles, la tendance actuelle est surtout à la disparition massive des langues. Cette disparition est souvent rapportée à travers la mort des derniers locuteurs et locutrices, on peut aussi considérer qu’une langue meurt lorsqu’elle n’est plus parlée d’une part, et qu’elle disparait si elle n’est pas documentée. Si certains aujourd’hui se questionnent sur la corrélation entre la diversité culturelle et la diversité écologique, il est évident que la disparition des langues correspond également à des inégalités et des tensions socio-politiques.

    Bref, la documentation des langues, c’est un sujet actuel, et d’un point de vue scientifique, la perte de cette diversité aura de tristes conséquences sur la connaissance des langues et de l’univers des possibles languagiers, encore souvent sous-estimé :

    • l’article The myth of language universals : Language diversity and its importance for cognitive science d’Evans donne un bel aperçu du débat qui existe entre les linguistes fonctionnalistes, notamment les approches générativistes telles que proposées par Noam Chomsky. Pourtant, régulièrement à travers la documentation des langues, des catégories cognitives jusque-là non-soupçonnés, voire rejetées car non-observées, sont identifiés. Nous nous sommes rendu compte récemment qu’un quart des langues grammaticalisaient l’emploi d’évidentiels, ces morphèmes qui indiquent la source d’une information. Au niveau de l’odorat, des neurologistes pensaient que si nous n’avions pas de termes abstraits pour catégoriser les odeurs, c’était lié au fait que notre cerveau ne le permettait pas. La description des termes liés à l’odorat en Jahai (par ici si vous souhaitez écouter du Jahai), qui possède donc des termes spécifiques pour catégoriser les odeurs, a montré le contraire.
    • accéder à des facettes non-matérielles de la préhistoire, non-accessibles à travers l’archéologie. La documentation des langues nous permet d’accéder, dans une certaine mesure, aux termes et aux concepts utilisés durant les différentes préhistoires à travers la comparaison des langues et de leurs structures. Les travaux sont nombreux et anciens en ce qui concerne les langues européennes, mais les recherches en linguistique historique (ou comparée) portent également sur toutes les langues connues à travers le monde. Les chercheurs et chercheuses de ce domaine collaborent assez régulièrement avec les archéologues pour retracer les mouvements de population.
    • mettre au point des systèmes d’écriture pour les langues orales, ou simplement des traitements de texte adapté aux écritures existantes. Parfois, certaines personnes savent écrire dans la ou les langues officielles du pays, mais ne connaissent pas d’écriture pour une de leurs langues régionales. C’est ainsi souvent le cas pour les personnes au Vanuatu. Le pays reconnait même le droit d’enseigner les langues locales à l’école, mais il n’existe que très rarement des ressources (que ce soit les personnes ou les manuels) pour cela. Parfois, les gens ne connaissent tout simplement pas de système d’écriture.

    Quelques concepts et termes liés à la documentation des langues

    Comme tout domaine de recherche, la terminologie et les concepts linguistiques évoluent au gré des discussions et peut se distinguer de l’usage attendu des termes. Une étape importante dans la documentation d’une langue est la production d’une grammaire décrivant les structures linguistiques de cette langue. De nombreux linguistes estiment alors qu’on peut dire que cette langue est décrite. Il ne faut pas se tromper cependant, aucun linguiste ne considère qu’une langue est alors complètement décrite. Une grammaire ne contient que quelques aspects estimés actuellement essentielles par les linguistes de terrain. Ces points sont, le plus souvent, une description du système phonologique d’une langue (c’est-à-dire comment les sons d’une langue sont organisés les uns vis-à-vis des autres), des morphèmes et des processus morphologiques associés (la conjugaison, l’expression de la possession, les déclinaisons, les genres, les classifications, etc.) d’une langue et souvent un début de description des processus syntaxiques. Il existe de nombreuses approches pour décrire les faits linguistiques, et la description d’une langue se fait souvent en dialogue avec les pratiques et terminologies qui ont été employées dans l'aire linguistique concernée.

    Depuis l’article Documentary and descriptive linguistics de Nicholaus Himmelman, qui a promu la distinction entre la documentation linguistique et la description linguistique, on accorde beaucoup plus d’importance à la production d’un corpus d’enregistrements annotés. On dit alors d’une langue qu’elle est documentée si des enregistrements annotés, de préférences audio-visuels, de cette langue existe. Enfin, il existe la problématique de l’outillage d’une langue, c’est-à-dire si ses locuteurs et locutrices ont accès ou non aux outils informatisés, du traitement texte aux dictionnaires informatisés en passant par la reconnaissance vocale, la transcription automatique, voire aujourd’hui aux modèles de langues et autres ressources nécessitant des corpus beaucoup plus grands.

    Les catalogues et base de données pour l’identification des langues

    Une problématique récurrente dans le domaine des langues est de clairement identifier la langue sur laquelle on travaille. Cependant, identifier une langue, ce qui relève ou non de cette langue, où elle est parlée, est l’enjeu de nombreux débats, souvent politique, et n’est pas une tâche simple. Quoi qu’il en soit, il existe des ressources, bases de données, qui proposent d’associer à des noms de langues, endonymes ou exonymes, des codes pour rendre leur identification univoque.

    L’Ethnologue et l’ISO 639 : une norme gérée par le Summer Institute of Linguistics (SIL)

    Ethnologue, Languages of the World, ou plus simplement l’Ethnologue, est une base de données développée et maintenu par l’organisme évangélique SIL, Summer Institute of Linguistic depuis 1951. Elle vise à recenser toutes les langues du monde. L’ISO 639 est une norme issue de ce catalogue, également maintenue par le SIL. Cet organisme est très actif au niveau de la documentation des langues et de la création d’écritures, car un de ses objectifs est de traduire la Bible dans toutes les langues du monde. Historiquement, l’Ethnologue est un des premiers catalogues dont l’objet a été de recenser les langues. Si cette norme semble le plus souvent suffisamment exhaustive pour les besoins liés à l’informatique, après tout, les internautes consultent Internet en très peu de langue, d’un point de vue linguistique, il possède de nombreuses lacunes.

    La liste SIL des langues

    Un premier souci est la nécessité d’avoir une granularité plus importante que simplement la langue. Les linguistes travaillent sur des dialectes et des variétés, sur des familles de langues, et parfois ont travaillé sur des distinctions qui n’ont parfois plus cours. Afin de pouvoir associer ces ressources à des langues, ou des entités linguistiques particulières, l’approche du SIL ne suffit pas.

    Enfin, la gestion du catalogue par un organisme religieux, donc avec parfois d’autres enjeux qu’uniquement scientifiques, le fait qu’il s’agisse d’une norme, donc la nécessité de collaborer avec l’ISO, et le fait que seule une partie du catalogue est accessible (il faut un abonnement pour accéder à la totalité de la ressource) rend la ressource moins pertinente pour de nombreux linguistes. Ces limites ont poussé des linguistes à proposer une ressource alternative.

    Glottocode : par le Max Planck Institute for Evolutionary Anthropology.

    Le projet Glottolog, initialement développé par Sebastian Nordhoff et Harald Hammarström, catalogue non seulement les langues du monde actuelles et passés, les familles de langues et leurs différentes branches, mais également « les restes » des hypothèses de langues ou de regroupements historiques. Cette granularité permet de retrouver les documents associés à chacun de ces objets. Si le catalogue est dédié aux langues moins connues, les langues les plus centrales sont elles aussi répertoriées. Il s’agit actuellement du catalogue mis en avant par les linguistes documentant les langues à travers le monde. L’application Glottolog est disponible via la licence MIT.

    Aperçu du Glottolog à travers la liste des langues

    Si aux premiers abords, la liste des langues du Glottolog ne se distingue pas franchement de celle de l’ISO 639, c’est parce qu’il faut regarder plus en détail pour comprendre les différences essentielles entre les deux ressources. Notons tout de même la colonne « Child dialects » : « Dialectes enfants », et les champs vides au niveau des colonnes Top-level-family et pour la langue Abai Tubu-Abai Sembuak dans la colonne « ISO-639-3 ». La colonne « Child dialects » représente une information qui n’est pas documenté dans l’ISO 639, ce n’est pas son objet après tout, mais qui est intéressant pour les linguistes travaillant sur cette langue, indiquant qu’un minimum de données sociolinguistiques sont disponibles. Les champs vides dans la colonne « Top-level family » sont dus au fait que ces langues sont des isolats, c’est-à-dire que la linguistique comparée ne trouve pas de correspondances significatives entre cette langue et d’autres langues qui permettraient de les regrouper en une famille. Enfin, le vide dans la colonne ISO-963-3 révèle que la langue Abai Tubu-Abai Sembuak ne possède pas d’entrée dédiée dans la norme.

    Ainsi, lorsque l’on consulte une langue en particulière, ici le Nisvai, on voit apparaitre tous les embranchements existants associés à cette langue :

    La langue Nisvai dans le Glottolog

    Cette vue de l’arborescence associée à une langue particulière révèle tous les embranchements auxquels peut⁻être associée une langue. Et à chacun de ces embranchements, si des ressources linguistiques ont été identifiées par les mainteneurs du Glottolog, celles peuvent être proposées. Cette fonction permet aux linguistes de trouver des ressources sur les langues proches, non pas géographiquement (même si en pratique c’est le plus souvent le cas), mais d’un point de vue généalogique.

    Les autres

    Il existe d’autres initiatives pour cataloguer les langues du monde, que ce soit la liste proposée par Wikipedia, la liste de la CIA ou encore The Linguasphere Register, mais ces initiatives ne sont pas aussi pertinentes du point de vue de la documentation des langues.

    Documenter les langues

    ELAN : des schémas d’annotation flexibles

    ELAN est un des logiciels libres (GPL3) les plus utilisés par les linguistes pour annoter des enregistrements audio et vidéo. Il permet d’élaborer des structures d’annotation complexes permettant ainsi de rendre compte des analyses que les linguistes souhaitent associer à un enregistrement. Ces couches d’annotation sont reliées les unes aux autres par des relations logiques, avec le plus souvent une couche de référence indexée temporellement à l’enregistrement. Les annotations les plus courantes sont une transcription, une traduction et une annotation morphologique. Mais des nombreuses autres analyses peuvent être incluses, que ce soit les parties du discours, les références et anaphores, l'animéité, mais aussi les gestes, la structuration du discours, les signes pour les sourds et malentendants.

    Extrait d’une narration présente dans DoReCo, et vue sur les différentes couches d’annotation pouvant être associés à un enregistrement.

    Dans cette capture d’écran issu d’un texte de DoReCo retravaillé par l’auteur, on aperçoit un extrait de quelques secondes d’une narration nisvaie. Il s’agit d’un des modes de visualisation des annotations proposées par ELAN pour représenter les différentes couches d’annotation. Certaines de ces annotations ont été réalisées à la main par l’auteur, d’autres ont été retravaillées par les algorithmes mis en place par DoReCo, puis manuellement corrigés. Enfin, il y a également des couches d’annotation de la prosodie par le biais de SLAM+.

    FLEX : gérer un projet de documentation

    FLEX est un logiciel développé par le SIL et dont le code source est régie par la licence LGPL 2.1. Il est conçu davantage pour coordonner l’ensemble d’une documentation linguistique, de la gestion des textes à l’élaboration d’un dictionnaire, en passant par les analyses linguistiques. En revanche, il ne gère pas réellement l’annotation d’enregistrements. De nombreux linguistes l’utilisent en complément d’ELAN.

    Si le logiciel est prometteur sur le papier, à chaque fois que je l’ai essayé, j’ai été rebuté par son côté usine à gaz, et surtout ses nombreux plantages notamment lorsqu’on essaie de gérer des fichiers multimédia avec. Et il en est de même pour les autres logiciels développé par le SIL, tel que SayMore pour gérer les métadonnées des enregistrements, WeSay pour faire des dictionnaires en collaboration avec les locuteurs et locutrices, à chaque fois que je les ai essayés, enthousiasmé par leurs fonctionnalités, j’ai été déçu par le fait qu’ils ne fonctionnaient pas correctement sur mon ordinateur.

    Aperçu de Flex

    Cette capture d’écran illustre un des modes de saisie de FLEX, ici la vue tabulaire du lexique, qui permet de rentrer et gérer les définitions des lexèmes (les entrées du dictionnaire) de manière assez rapide. On aperçoit dans la partie en haut à gauche les autres modes d’édition du lexique, et en dessous les autres catégories liées à la gestion d’un projet de documentation : Texts & Words, Grammar, Notebook et Lists. C’est à travers la catégorie Texts & Words que l’on peut par exemple importer des textes transcrits, voire des fichiers ELAN pour peupler la base de données lexicales. Grammar permet de décrire les paradigmes grammaticaux, FLEX propose d’ailleurs quelques algorithmes qui aident à la construction des paradigmes grammaticaux. Notebook et Lists servent à la gestion du projet, le premier pour prendre des notes diverses, et le second pour créer des listes, en particulier des tâches encore à réaliser.

    Et il y en a bien d’autres encore

    Il existe de nombreux autres logiciels similaires, tels qu’EXmaralda pour l’annotation des enregistrements (surtout utilisé en Allemagne à ma connaissance), Sonal (non libre, et dont le développement semble arrêté) qui est utilisé par les sociologues et les anthropologues pour une annotation thématique de leurs entretiens, Anvil, qui semble intéressant mais que je n’ai jamais réellement vu utilisé, ou enfin le vieux Transcriber qui lui était encore employé par certains projets il y a quelques années. Rentrer dans le détail de tous ces logiciels dépasserait le cadre d’une dépêche comme celle-ci, mais énumérer la diversité logicielle montre qu’il s’agit d’un secteur un minimum dynamique, d’ailleurs la question de la transcription et de l’annotation des enregistrements ne se limite pas du tout qu’au domaine de la documentation des langues du monde.

    L’archivage et la compilation de corpus

    Afin de conserver et partager les corpus et donnée enregistrées par les linguistes, chercheurs voire simplement les personnes ayant documenté une langue, il existe des archives, le plus souvent en ligne. Il y a en France par exemple Pangloss, géré par le LACITO, dédié aux langues orales, ou ORTOLANG, plus générique, pour les corpus de langue. En Océanie, il y a Paradisec. Il y a aussi ELAR, autrefois à Londres, et qui a déménagé récemment à Berlin récemment.

    Ces archives proposent diverses interfaces pour déposer, gérer et parfois même consulter les enregistrements et les annotations réalisés par les linguistes et leurs collaborateurs·e·s. À noter que pour ces archives, Ortolang décrit son architecture logicielle qui repose sur des briques ouvertes, en revanche concernant Paradisec et Pangloss, bien que leur statuts soient sûrement similaires du fait de la démarche générale de ses ingénieurs, je n’ai pas trouvé de liens vers les logiciels employés. Quant à ELAR, le logiciel utilisé est Preservica, une solution propriétaire qui, quand on a le malheur de devoir l’utiliser, fonctionne bien lentement.

    La compilation de corpus, si elle se rapproche de l’archivage en ce qu’il s’agit également de recueillir, conserver et publier les corpus des linguistes, correspond également à une édition particulière de ces corpus. La compilation de corpus est réalisé à travers la mise en place de processus de qualité, d’annotations et de conventions particulières. Les deux compilations de corpus présentées ici sont des compilations de corpus de documentation de langues orales. Les enregistrements ont été systématiquement annotés en utilisant une convention nommée les gloses interlinaires (le nom fait en fait référence à la pratique ancienne d’insérer des explications entre les lignes d’un texte. En pratique aujourd’hui, ce n’est plus vraiment ce que font les linguistes, puisque le travail est informatisé et les annotations ne sont plus entre les lignes, mais, le terme a cependant été conservé).

    DoReCo

    DoReCo est une compilation de 52 corpus en accès ouvert (NdR : auquelle l’auteur a contribué). La compilation a nécessité la mise en place de processus de qualité afin d’assurer la cohérence de l’ensemble et de fournir un certain nombre de garanties quant aux qualités du corpus.

    Les langues dans DoReCo

    Une première qualité, et l’une des originalités de DoReCo, est de proposer un alignement temporel est très fin. La durée de chaque phonème, de chaque morphèmes, de chaque mot (ici suivant la définition de la personne à l’origine du corpus, car la définition d’un mot n’a rien d’une évidence) et enfin de chaque groupe de souffle est fournie. Une deuxième qualité a été de s’assurer que pour l’ensemble des retranscriptions, chacun des termes et des morphèmes possède une glose, c’est-à-dire qu’ils possèdent une explication linguistique.

    La compilation totalise une centaine d’heures d’enregistrements audio, en grande majorité des narrations monologiques. À noter que les corpus de la compilation sont accès ouvert, via une licence Creative Commons, mais que les droits d’utilisation varient d’un corpus à l’autre. Les données sont accessibles aux formats d’ELAN : .eaf, de Praat : . TextGrid, TEI.xml, et.csv.

    Multi-CAST

    Multi-CAST est également une compilation de 18 corpus de documentation de langues différentes. Les textes annotés via le logiciel ELAN. Contrairement à DoReCo, l’alignement temporel des annotations n’est pas réalisé de manière précise, mais manuellement, par les personnes à l’origine du corpus, à l’échelle de l’énoncé. Les textes sont également en grande majorité des narrations monologiques. L’originalité de cette compilation de corpus vient du fait que les textes contiennent trois couches d’annotation particulières : GRAID, Grammatical Relations and Animacy in Discourse, (voir), puis RefIND et ISNRef (Referent Indexing in Natural Language Discourse, voir Schiborr et al. 2018).

    La page d’accueil de Multi-Cast

    Cette compilation de corpus est aussi disponible dans plusieurs formats. XML évidemment, puisque c’est le format natif d’ELAN, mais aussi TSV et il existe également un paquet pour R. Tout cela est disponible via la licence CC-BY 4.0.

    Conclusion

    J’espère que vous avez apprécié cette introduction à la documentation des langues à travers les logiciels libres. L’idée est surtout d’attiser la curiosité, car il reste évidemment encore de nombreux aspects ou points à discuter et à approfondir. La prochaine fois que j’aborderai le thème de la documentation linguistique ici, j’espère que ça sera pour présenter mon application basée sur Django pour faire de la lexicographie.

    Il y a également un autre sujet sur lequel j’aimerais bien échanger ici prochainement : la question des licences des données collectés et la négociation lorsque l’on travaille avec des personnes à tradition orale. Si ouvrir l’accès aux données de recherche et aux corpus peut sembler être une évidence pour certains, il ne faut pas oublier que souvent, les chercheurs et chercheuses de terrain collectent des informations personnelles, que la connaissance n’est pas forcément considérée comme un bien public et les enregistrements, notamment les narrations, qui ne sont pas forcément perçues comme des fictions, sont souvent couverts par des droits locaux. Enfin, ouvrir ses données de recherche, si c’est permettre à d’autres de réutiliser ses données, requiert beaucoup de travail de la part des linguistes, c’est une tâche longue, ingrate et surtout peu valorisée. Alors qu’il est de plus en plus précaire d’être chercheur en sciences humaines, il est aussi difficile de demander à ces chercheurs et chercheuses de consacrer une grande partie de leur temps à des tâches qui ne leur permettront pas de se constituer un CV, nécessaire si l’on souhaite avoir un poste stable (c’est-à-dire plus de deux ans).

    Label sans IA : ce texte a été rédigé sans aucun aide de la part d’une LLM.

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Annuaire de projets libres (mais pas de logiciels)

    9 avril 2024 à 13:22

    Les communs sont une source énorme de partage !

    S’il est plutôt facile dans le monde francophone de trouver des ressources logicielles (Merci Framasoft!) voire en anglais avec des sites comme alternativeto, quid des ressources hors logiciels ?

    Certes, on peut faire des recherches avec des filtres, placer les bons mot-clés, se lancer dans des google dorks pour les plus acharnés (…), mais il n’est pas toujours évident de tomber sur ce que l’on souhaite. Encore moins si cela n’est pas traduit en français ou que l’on ne connaît pas la ressource et donc on ne la recherche pas. Et pourtant ! Cela n’empêche qu’une fois découverte, elle peut devenir une ressource précieuse !

    Ainsi, l’association de la graine à l’humus, qui produit des ressources libres en relation avec développement durable, a mis en place un site annuaire de projets libres et ouverts. Collaboratif et multilingue, il vous attend tapi dans l’ombre des internets…

    Si vous souhaitez ajouter des ressources ou faire des retours, proposer des améliorations… Cela est toujours le bienvenu !

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Les nouvelles du samedi 20:42

    Par : Goofy
    27 janvier 2024 à 14:42

    Pour achever cette semaine, deux nouvelles de 2042 concoctées avec amour par les participant⋅es des ateliers #solarpunk #UPLOAD de l’Université Technologique de Compiègne (UTC).

    En 2042, on rénove et on en profite pour faire autrement, que ce soit à la ville ou à la ferme !

    Renaissance urbaine

    Le soleil matinal traversait les grandes fenêtres du cours d’urbanisme de Monsieur Marcel, plongeant la salle dans une lumière dorée. L’Université Upload, pionnière dans l’éducation post-effondrement mondial, incarnait en 2042 un esprit de résilience et d’innovation. Ici, les étudiants apprenaient à reconstruire un monde déchiré, avec des principes de durabilité et d’indépendance.
    Dans l’amphithéâtre, Apu, un jeune homme au regard pensif originaire de Mumbai, était scotché à son cahier. Les pages racontaient son voyage depuis les rues de sa ville natale, où il avait été témoin des impacts dévastateurs du changement climatique et de la surpopulation. Ces expériences l’avaient poussé vers la quête de solutions écologiques simples mais efficaces.
    À l’autre bout de la salle, Stella, une étudiante venant de The Line en Arabie Saoudite, analysait les schémas urbains projetés sur l’écran. Issue d’une région marquée par des avancées technologiques, elle croyait en la puissance des solutions high-tech pour façonner l’avenir.

    La voix de Monsieur Marcel brisa le silence.
    « Bienvenue dans notre cours d’urbanisme durable ! Aujourd’hui, nous explorerons les défis de créer des espaces urbains indépendants et novateurs. »

    Les regards d’Apu et Stella se croisèrent, marquant le début d’une collaboration improbable.
    Le cours de Marcel, mélangeant théorie et pratique, encourageait les étudiants à penser au-delà des limites conventionnelles.
    « Dans un monde où les ressources sont rares, nous devons être ingénieux » expliquait-il.
    Son enseignement reflétait une philosophie qui valorisait l’équilibre entre la haute technologie et les approches low-tech.

    Apu et Stella furent bientôt amenés à travailler ensemble sur un projet de rénovation écologique pour les dortoirs délabrés de l’université. Alors qu’ils s’asseyaient autour d’une table, Apu, animé par la conviction que des solutions simples pouvaient avoir un impact majeur, commença à partager son histoire.

    « Stella, tu sais, à Mumbai, j’ai vu comment des matériaux locaux simples peuvent faire une différence dans la vie quotidienne. Les briques en terre crue, par exemple, sont abondantes et peuvent être produites localement, réduisant ainsi notre empreinte carbone. »
    Stella, initialement sceptique, écouta attentivement les explications d’Apu tout en esquissant quelques notes sur son propre cahier.
    « Les briques en terre crue peuvent être une alternative aux matériaux de construction conventionnels, » suggéra Apu, esquissant un plan sur son cahier. « Elles peuvent être produites localement, réduisant ainsi notre empreinte carbone. »
    Stella répondit :
    « C’est intéressant, Apu, mais il faut voir au-delà de la simplicité. Moi je verrais bien des panneaux solaire, des éoliennes qui se fondent dans l’architecture, et l’utilisation de l’énergie hydraulique par exemple avec un barrage. J’ai même pensé à utiliser le logiciel Heliodon pour simuler et visualiser le mouvement du soleil, et optimiser l’utilisation de la lumière solaire dans la conception des bâtiments. On pourrait même faire tourner le bâtiment avec le soleil, cela pourrait le rendre presque auto-suffisant. »

    « Refurbished with passive house components, kindergarten in Estonia Valga » by Tõnu Mauring is licensed under CC BY 2.0.

     

    Apu, intrigué par la vision audacieuse de Stella, sourit tout en continuant à dessiner sur son cahier.
    « Je vois où tu veux en venir, Stella. Cependant, nous devons nous assurer que nos solutions sont réalistes et accessibles. Comment pouvons-nous intégrer ces technologies de manière à ce qu’elles soient durables et à la portée de tous ? »

    Stella réfléchit un moment avant de répondre.
    « Imaginons un bâtiment où l’architecture et la technologie solaire s’entremêlent. Des panneaux photovoltaïques ne sont plus simplement installés sur les toits, mais font partie intégrante des murs eux-mêmes. »

    Apu, leva les yeux de son cahier : « Tu veux dire, transformer littéralement les murs en sources d’énergie ? »

    « Exactement ! Les façades des bâtiments pourraient non seulement créer leur propre électricité mais aussi devenir des éléments esthétiques. Cela pourrait redéfinir notre approche de l’architecture durable. »

    « Je comprends. Les murs pourraient absorber l’énergie solaire tout au long de la journée, réduisant la dépendance aux énergies traditionnelles. Ça pourrait vraiment changer la donne. »

    Stella acquiesça. « Et il y a plus. Si on intègre intelligemment ces panneaux, on pourrait non seulement produire de l’énergie, mais aussi contrôler l’éclairage naturel et la température à l’intérieur des bâtiments. C’est comme donner vie aux murs ! »

    À travers leur échange Abu et Stella découvraient le concept de bâtiment passif. Une construction économe en énergie minimisant ses consommations.

    Au fil du temps, les tensions entre Apu et Stella s’étaient apaisées, laissant place à une amitié mutuelle et à une compréhension commune. Leur projet prenait forme, et devenait un exemple de coexistence entre technologie avancée et méthodes traditionnelles. Stella et Apu, après des heures de débat passionné dans la salle de classe, décidèrent qu’il était temps de partager leur vision avec le reste de l’Université Upload.

    En entrant dans l’Agora, ils furent accueillis par une mosaïque de sons et de couleurs. Ce lieu, conçu comme un amphithéâtre, était un espace où se mêlaient tradition et innovation. Les pièces étaient bondées d’étudiants issus de plusieurs horizons, débattant entre eux et partageant leur sondages d’opinion, tandis que le centre était dominé par une scène circulaire.

    Des groupes d’étudiants et de professeurs s’y rencontraient, discutant et partageant des idées. Au plafond, une structure de verre laissait filtrer la lumière naturelle, illuminant des jardins suspendus qui ajoutaient une touche de verdure à l’environnement technologique.

    Stella et Apu, impressionnés mais déterminés, se frayèrent un chemin à travers la foule jusqu’à la scène. Ils montèrent sur la scène, sous les yeux curieux de leurs camarades. Apu prit la parole en premier, sa voix résonnant dans l’amphithéâtre :

    « Chers amis, nous sommes ici pour partager une vision qui combine le meilleur de deux mondes… »

    Alors qu’ils présentaient leur projet de rénovation des dortoirs, combinant les briques en terre crue et les panneaux photovoltaïques, un projecteur derrière eux affichait des simulations 3D de leurs concepts. Leurs mots étaient ponctués par des images de dortoirs transformés, de murs qui captaient l’énergie solaire et de jardins verts sur les toits.

    Leurs idées furent accueillies avec un mélange d’étonnement et d’admiration. Les étudiants autour d’eux commencèrent à discuter, à poser des questions, à offrir des suggestions.

    Ce jour-là, Stella et Apu ne furent pas seulement des étudiants présentant un projet. Ils étaient les porte-paroles d’une nouvelle ère, où la technologie et la tradition pouvaient coexister pour créer un avenir durable.

    Monsieur Marcel, dans sa dernière leçon, regarda ses étudiants avec fierté.
    « Vous avez démontré que, même dans un monde fragmenté, l’unité des idées et le respect mutuel peuvent créer des espaces qui non seulement survivent mais prospèrent. »
    Apu et Stella, autrefois aux idées opposées, avaient appris la valeur de l’écoute et de l’adaptation. Leurs efforts avaient non seulement rénové les dortoirs, mais avaient aussi éclairé la voie vers un avenir urbain plus durable et inclusif.

    Ce texte a été écrit par : Vilela Noah, Diker Amin et Kechid Lyam. et co-écrit par Numa Hell

    Contenu soumis à la licence CC-BY-SA 4.0

     

    Bibliographie

    Passoire thermique

    DPE

     

    Bâtiments passifs

    Un bâtiment passif est une construction économe en énergie, conçue pour minimiser la consommation de chauffage, de climatisation et de ventilation. Il intègre une isolation thermique élevée, une étanchéité à l’air, une ventilation contrôlée, des sources d’énergie renouvelable, une orientation optimale, des fenêtres à haute performance et des matériaux à faible empreinte carbone. L’objectif est de réduire la dépendance aux systèmes énergétiques conventionnels, contribuant ainsi à la durabilité environnementale.

    GUILLEMOT, Olivier. « Le bâtiment passif, sans chauffage ou presque ». XPair, 4 juillet 2019, https://conseils.xpair.com/actualite_experts/batiment-passif-sans-chauffage.htm

     

    Conductivité thermique

    Les caractéristiques physiques clés pour une bonne isolation thermique sont principalement une faible conductivité thermique et, dans certains cas, une bonne masse thermique.
    Les matériaux traditionnels de façade comme la pierre et le béton ont une bonne inertie thermique mais ne sont pas les meilleurs isolants thermiques. Ainsi, des systèmes d’isolation additionnels sont souvent utilisés en conjonction avec ces matériaux ( Exemple : Façade Ventilée)

     

    Logiciel Heliodon

    C’est un logiciel qui permet d’étudier les trajets solaires en tout lieu de la surface terrestre et d’analyser l’incidence de la lumière solaire directe, ainsi que de la lumière diffuse du ciel, sur n’importe quelle construction ou zone urbaine, en tenant compte des obstructions produites par d’autres édifices ou obstacles naturels. Heliodon 2 – UTeam. https://uteam.fr/offres/heliodon-2. Consulté le 16 janvier 2024.

     

    Albédo

    C’est le pouvoir réfléchissant d’une surface, c’est-à-dire le rapport du flux d’énergie lumineuse réfléchie au flux d’énergie lumineuse incidente. C’est une grandeur sans dimension.

    « Albédo ». Wikipédia, 18 novembre 2023, https://fr.wikipedia.org/w/index.php?title=Albédo&oldid=209733578.

     

    Lowtechisation

    La low-tech désigne tout type de produits, de services, de procédés ou autres systèmes permettant, via une transformation technique, organisationnelle et culturelle, le développement de nouveaux modèles de société intégrant, dans leurs principes fondamentaux, les exigences de durabilité forte et de résilience collective

    « Low-tech ». Wikipédia, 12 janvier 2024, https://fr.wikipedia.org/w/index.php?title=Low-tech&oldid=211451282.

     

    Technosolutionnisme

    C’est la confiance dans la technologie pour résoudre un problème souvent créé par des technologies antérieures. « Technosolutionnisme ». Wikipédia, 3 décembre 2023, https://fr.wikipedia.org/w/index.php?title=Technosolutionnisme&oldid=210223957.

    Earth 2050 : A glimpse into the future | Kaspersky. https://2050.earth/users/artem-khorchev. Consulté le 19 janvier 2024.


    La réno pour les rollots

    Pierrette, femme énergique et engagée, jongle entre son rôle de mère, son poste à l’UPLOAD de Compiègne et son engagement pour un mode de vie durable. Résidant dans un écoquartier, elle apprécie chaque jour la nature environnante, se déplaçant en vélo cargo pour réduire son empreinte écologique. Chaque matin, à 8h20, elle dépose ses enfants, Léo et Léa, à la Maison d’Assistantes Maternelles (MAM) de l’écoquartier, avant de se rendre à son travail.

    Son bureau à l’Université, un espace ouvert végétalisé, reflète ses convictions écologiques profondes. Responsable de projets depuis 14 ans, Pierrette est au cœur de l’innovation en matière de développement durable. Elle doit sélectionner des sujets d’étude qui permettent aux étudiants d’acquérir des connaissances tout en rendant service à la communauté locale. Ces projets génèrent également des fonds pour le fonctionnement de l’université.

    Le 2 octobre 2042, après son arrivée au bureau, Pierrette consulte la plateforme Viv’Compi, une instance locale de Mastodon qui héberge les appels d’offres des habitants de Compiègne. Parmi eux, l’appel de Joël Dumasil, exploitant agricole spécialisé dans l’élevage de bovins, retient son attention. Il souhaite rénover un vieux corps de ferme pour créer un espace de stockage et de vente, promouvant ainsi le circuit court pour ses produits. Intriguée par cette initiative locale et écologique, Pierrette décide de le contacter.

    — Allô, bonjour. Ici Pierrette Chénier, responsable projet à l’université UPLOAD. Je vous contacte suite au message que vous avez posté pour la rénovation de votre corps de ferme. Pouvez-vous m’en dire un peu plus ?

    — Bonjour M’dame. Ouais je suis fermier. J’veux refaire mon vieux corps de ferme. Comme la nouvelle boutique de vente de produit laitier à Creil là.

    — Oui… je vois… mais quel genre de produits laitiers envisagez-vous de vendre ?

    — Euh ben, je suis dans l’élevage bovin et la production de lait. Mais ça devient dur et j’aimerais bien transformer une partie de mon vieux corps de ferme en un endroit sympa où les gens pourront acheter du fromage, du lait frais et du maroilles ou d’la tome au cidre.

    En plus de tout cas, j’prévois aussi d’avoir un coin pour avoir du stock Tout ça, pour mettre en place du circuit court. Ça m’permettrait aussi de vendre les rollots que j’fais à plus juste prix.

    — Très bien, c’est un projet qui conviendra bien à nos étudiants en dernière année, ils pourront voir ça avec vous dès le…

    Joël coupe la parole brutalement à Pierrette.

    — Je t’arrête tout de suite m’dame, j’pense pas que ce genre de projet puisse être confié à des gamins étudiants. Faut des têtes bien pleines, des gens qui savent faire des calculs de structure, thermique et autres. J’ai pas envie que mon bâtiment tombe sur la tête des clients ou que mes fromages tournent.

    — Je comprends que vous soyez réticent, mais je vous assure que nos étudiants sont encadrés par des enseignants compétents et professionnels. Nous avons ici à l’université des experts en conception de bâtiments, au fait des dernières normes de sécurité alimentaire. Le mieux c’est que vous les rencontriez pour leur expliquer ce que vous souhaitez exactement, d’accord ?

    — J’suis pas totalement convaincu, mais ça coûte rien de se rencontrer. Quand est—ce qu’on pourrait avoir un rendez-vous ?

    — Je vous propose de se rencontrer demain à 9h sur le site de l’université.

    — Très bien. À d’main.

    Rollot de Marchélepot (Somme) Par Bycro — Travail personnel, CC BY-SA 4.0

     

    Pierrette convoque ensuite Maxime dans son bureau pour préparer cette entrevue. C’est un élève de cinquième année, chef des projets de sa promo. Très apprécié par ses professeurs et ses camarades, il s’investit beaucoup dans la vie de son école. Adepte de la course à pied, il organise dès qu’il le peut des courses caritatives pour venir en aide aux plus démunis.

    — Bonjour Maxime, Dis-moi, nous avons un éleveur qui veut transformer un vieux corps de ferme en espace de stockage et de vente en circuit court. Ce monsieur… euh Joël Dumasil… a de belles ambitions, mais ça nécessiterait une rénovation complète. C’est typiquement la taille de projet que tu peux encadrer, et ce serait une bonne initiative pour la certification de ton groupe.

    — Merci ! Mais tout d’abord, je vérifierai la présence d’amiante. Dans les constructions des années 80, c’est fréquent. Je suggère de poser des questions spécifiques à Joël sur ce point pour éviter des complications coûteuses.

    — Bonne idée. Tu vois d’autres points importants à étudier ?

    — L’accessibilité est souvent négligée, mais cela peut changer un projet. je vais voir ça avec des étudiants de 4e année qui ont bossé là-dessus. On pourrait aussi déléguer certaines tâches aux étudiants de première année pour les impliquer davantage, et les heures supplémentaires compteront comme des TVO1 pour eux, ça devrait les motiver.

    —  Parfait, s’exclame Pierrette. Alors réunion ici demain avec notre éleveur.

     

     % % % %

     

    Le lendemain, Pierrette a demandé a déposé Léo et Léa à la MAM avant de se rendre dans la salle de réunion. Au RER2 elle récupère du café et quelques parts de moelleux aux pommes cuisiné sur place pour le petit déjeuner des étudiants et de l’administration. Eh oui, à l’UPLOAD, il y a des élèves qui savent pâtisser en plus de cuisiner de succulentes ratatouilles avec les bons légumes frais qu’ils cultivent.

    Maxime arrive, il a eu un réveil un peu difficile et il apprécie le petit déjeuner.

    — Eh bien hier soir à l’internat, j’ai discuté tard dans la nuit avec Kevin et on a parlé de l’accessibilité du point de vente pour les personnes à mobilité réduite (PMR). Sa petite sœur s’est retrouvée en fauteuil roulant pendant une courte période. Il m’a expliqué qu’avant il n’en avait pas conscience, mais que beaucoup d’endroits ne sont pas encore accessibles aux PMR. Je savais que les bâtiments accueillant du public doivent se mettre « aux normes », mais je n’avais pas vraiment conscience de toutes les difficultés que ça entraînait. Alors j’ai fait quelques recherches avec Solar’IA. C’est chouette cette intelligence artificielle une fois qu’on l’a en main ! J’ai gagné pas mal de temps pour pointer les trucs essentiels.

    — J’ai par exemple découvert que cette histoire d’accessibilité aux PMR était régi par une norme précise, l’AFNOR NF P98-351. J’ai réussi à y accéder depuis le portail de l’UPLOAD et j’ai pu la survoler pour me faire une petite idée de l’ampleur des exigences à respecter. Heureusement pour moi qu’internet fonctionne entre 22h et 6h !

    Bon, je vais aborder ce point en priorité avec lui, car ça peut changer toute la mobilité au sein des espaces. Par exemple, il faut, selon la norme, a minima des portes d’une largeur de 1,20m et ainsi qu’une rampe d’accès inclinée à 5 % de cette même largeur.

    À cet instant, Joël, apprêté pour l’occasion, franchit l’entrée de l’UPLOAD et Pierrette l’accueille.
    — Vous êtes monsieur Dumasil ? C’est moi que vous avez eu au téléphone,
    — Enchanté M’dame, vous pouvez m’appeler Joël et me tutoyer.
    — Très bien, j’essayerai d’y veiller. Je te présente Maxime, un élève de cinquième année, il encadrera le projet.
    Maxime lui tend une main qu’il espère ferme et assurée :
    — Bonjour monsieur, ravi de vous rencontrer !
    Joël, lui rend une poignée de main vigoureuse :
    — Enchanté !
    Pierrette les conduit dans un bureau et la discussion s’engage assez vite. Méfiant, Joël ne peut se retenir de lancer à Maxime :
    — T’as pensé à l’amiante qu’il y a dans mon corps de ferme ?
    Avec un sourire, Maxime le rassure :
    — Dès la réception de votre appel d’offre, nous avons pensé à sa potentielle présence d’amiante dans votre bâtiment, des étudiant⋅es de l’UPLOAD ont déjà désamianté de vieux bâtiments. Pouvez-vous me rappeler de quelle année date le vôtre ?

    Maxime a son idée derrière la tête, car il a déjà fait un projet de rénovation de bâtiment. Il sait très bien que la poussière d’amiante est très fine et donc dangereuse pour les êtres vivants. Il explique donc le détail à Joël : un protocole très strict sera imposé. Les ouvriers installeront une zone de sécurité autour du bâtiment et bâcheront toutes les ouvertures afin de retenir la poussière. Après quoi l’équipe possédant les habilitations amiante SS3 et SS4 installera une cabine à l’entrée du bâtiment dans laquelle les ouvriers s’équiperont d’une combinaison intégrale et de masques FFP3. Au final, les parties amiantées retirées seront mises en sacs étanches pour finir en centre d’enfouissement.

    — Il a été construit dans les années 80 par mon arrière-grand-père. Il est en briques rouges, sur une dalle en béton. J’peux te dire que ce bâtiment a bien vécu, mon ami, tu l’verras à l’état des murs qui s’affaissent sous l’poids de la toiture. Elle a pris la flotte, elle est percée de partout…

    Il s’interrompt, saisit un carnet dans sa poche et se met à chercher…

    — J’note tout pour rien oublier. Alors… Bon j’suis pas embêtant sur la manière de réaliser les travaux, mais j’veux réutiliser un maximum de matériaux pour que ça coûte moins cher…

    — On est d’accord pour le recyclage et le réemploi des matériaux, enchaîne Maxime.

    — Oui par exemple, j’ai une poutre porteuse dans l’hangar, je pense qu’avec les prix du bois de plus en plus chers, j’peux la réutiliser pour la structure. En plus à vot’Radio Padakor ils ont dit, faut faire gaffe à ça, peut y a voir des accidents…

    — Alors monsieur Dujardin c’est sans problème pour certains éléments de votre bâtiment, mais pour votre poutre ce n’est pas possible. Je suis désolé, mais les assurances ne valident pas ça, par risque que les résistances soient modifiées. Mais ne vous en faites pas, on va essayer de réutiliser au maximum vos matériaux. Par exemple, votre poutre, on pourrait en faire un comptoir pour le point de vente. Il suffirait de la scier correctement, de la poncer puis de la vernir.

    — Ah mais, c’est que tu t’y connais bien finalement ! Si tu veux, j’ai quelques copains du temps où j’étais à l’école du bois, avant de reprendre la ferme de mon père… J’peux te les présenter. C’est des experts en charpente, des as ces gars-là. On pourrait les faire venir pour jeter un coup d’œil à la poutre et discuter des possibilités de rénovation.

    Joël s’animait en parlant de ses souvenirs, évoquant les compétences spécifiques de chacun et les projets réalisés dans leur centre de formation. Ses yeux brillaient à l’évocation de ce qui avait été visiblement un formidable moment de sa vie.

    — C’est des gars géniaux, passionnés par leur travail. Ce que j’adore chez eux c’est qu’ils travaillent localement, ils utilisent seulement le bois qui pousse dans l’Oise, il y a rien de tel que des résineux, sapins ou épicéas. Et ils respectent les cycles : ils coupent uniquement des arbres matures et veillent à en laisser suffisamment pour la régénération naturelle du domaine forestier… Sergueï, lui c’est mon meilleur pote. Il vient de Russie et il nous a montré des superbes techniques pour sculpter l’bois. J’me souviens il avait fait une colombe ou on voyait chaque plume, pour l’élu de son cœur, André, et aujourd’hui ils ont adopté 2 enfants ! Que ça passe vite… M’enfin, il pourrait sûrement faire quelque chose d’original qu’on remarquerait directement en passant la porte de la boutique…

    Y’a aussi son associé Stefano, charpentier de génération en génération. Si on a un doute, on pourra faire appel à son père, Fabio, il est incollable. J’ai tout le matos dont on aura besoin à la maison pour s’occuper de ça : un établi, une scie circulaire robuste, une ponceuse et même du vernis écologique, ça sera déjà ça d’moins à prévoir dans le devis.

    Photo pxhere.com licence CC0

     

    Maxime, captivé par ces aspects du projet, ajoute :

    — On a aussi pensé à une idée pour attirer plus de monde. En installant des portes larges et un rampe d’accès depuis un parking adapté, les personnes en fauteuil roulant pourraient profiter de vos produits. On ne va pas trop rentrer plus dans le détail aujourd’hui, mais vous voyez l’idée. Je vais demander à mes camarades compétents dans le domaine et on viendra directement évaluer tous les travaux sur place. Vous êtes d’accord pour nous recevoir ?

    — Alors là Maxime, ça me touche que tu penses tout de suite au handicap. J’suis si heureux de voir comme les mentalités ont changé, c’était pas si évident à mon époque…

    Sinon, j’suis tous les jours à ma ferme, et si j’y suis pas, j’suis dans mon tracteur. Venez quand vous voulez, y’aura quelqu’un pour vous accueillir les bras grand ouverts.

    Mais n’oublie pas que j’ai une limite de prix. C’est pas possible pour moi que les frais dépassent mon budget. J’ai eu une généreuse prime de l’agora de Crépy-en-Valois pour rénover mon vieux bâtiment mais j’pourrais pas ajouter des mille et des cents.

    — Joël, intervient Pierrette, ne vous en faites pas trop pour le prix, nous respecterons votre budget. Je voudrais également préciser que nos étudiants interviendront uniquement dans la déconstruction-reconstruction du bâti et non pas dans l’aménagement proprement dit, il ne s’occuperont donc pas de la mise en place de votre matériel.

    — Oui, ben évidemment, j’m’occupe moi-même du matos pour la fabrication du fromage.

    — Voilà ! Super, conclut Maxime, nous sommes d’accord… Je vais m’occuper du recrutement puis nous conviendrons d’un créneau pour venir sur votre exploitation. Merci de votre venue.

    Joël se lève de sa chaise :
    — Avec plaisir ! Maxime, par contre les prochaines fois, tutoie-moi, pas de gêne entre nous gamin, on va travailler ensemble. Et merci Pierrette d’avoir pris le temps d’étudier mon projet.

    Texte sous licence CC-BY-SA.
    Autrices et auteurs : Gros Arthur, Pinabiaux Luka, Poirier Aglaé, Rivière Auguste.

     

    BIBLIOGRAPHIE

    Réglementation autour du désamiantage

    Une feuille de route pour le traitement des déchets amiantés, CGEDD CGE de l’économie et du développement durable N° 013959-01, https://www.economie.gouv.fr/files/files/directions_services/cge/dechets-amiante.pdf
    Amiot-Than-Trong Yvette. L’amiante. In : Droit et Ville, tome 46, 1998. pp. 213-222. DOI : https://doi.org/10.3406/drevi.1998.1479 https://persee.fr/doc/drevi_0396-4841_1998_num_46_1_1479

    Contamination des sols par l’exploitation agricole

    • Cours / UTC / UB09 / Procédés de traitement des polluantes dans les sols A23 (Edvina Lamy)
    • Vincent Chatellier. L’élevage bovin et l’environnement en France : le diagnostic justifie-t-il des alternatives techniques ?. Productions Animales, 2003, 16 (4), pp.231-249. ffhal-02678699ff (augmentation des teneurs en nitrates et en phosphore des eaux, émission de gaz à effet de serre)

     

    • Norme AFNOR NF U 44 551, version Mai 2002. Supports de culture : Dénominations, spécifications, marquage.
    • Déconstruction : Cours / UTC / AP / Éco circulation P23 (Fabien Lamarque et Nathalie Molines)

    Accès PMR

    Norme AFNOR NF P98-351, version Août 2021. Cheminements — Insertion des personnes handicapées — Éveil de vigilance — Caractéristiques, essais et règles d’implantation des dispositifs podotactiles au sol d’éveil de vigilance à l’usage des personnes aveugles ou malvoyantes

    Les Connards Pro™, le système qui enferme les cons–

    Par : Framasoft
    1 décembre 2022 à 02:35

    –sommateurs. Qui enferme les consommateurs. Ce dernier épisode inédit des Connards Professionnels™ vous explique les forces du capitalisme de surveillance, mais aussi ses faiblesses, et comment les consommateurs pourraient s’en émanciper (ce qui fait très très peur à nos chers Connards™).

    L’ultime épisode inédit des Connards Pros™ sur le framablog !

    Toute bonne chose a une fin, nous publions donc aujourd’hui le dernier des 4 épisodes inédits de ce travail… de connards, il faut bien le dire !

    Le Guide du Connard Professionnel est un livre-BD scénarisé par Pouhiou et dessiné par Gee, placé dans le domaine public volontaire. Nos comparses viennent d’ailleurs de le publier en un joli livre, qui se télécharge librement mais s’achète aussi dans sa version papier si vous voulez soutenir les auteurs.

    Ce livre libre est co-édité avec notre maison d’édition Des Livres en Communs.

    couverture du guide du connard professionnel, le livre

    Cliquez sur l’image pour télécharger et/ou acheter le livre.

     

    Pour réussir à votre tour dans la profession de consultant en connardise, vous pouvez :

    Réservez votre place pour la conf théâtralisée (8 déc. à Paris)

    L’épisode que vous allez voir aujourd’hui est une adaptation de la conférence théâtralisée où les Connards Professionnels vulgarisent le Capitalisme de Surveillance et l’économie de l’attention.

    Appuyez sur play pour voir l’extrait de la conférence correspondant à cet épisode

     

    Depuis cette captation, Gee et Pouhiou ont intégralement retravaillé le texte de cette conférence théâtralisée, afin de le rendre moins dense, plus entraînant, bref : plus facile à aborder pour des personnes qui ne se passionnent pas forcément pour le numérique éthique !

    Si les comparses comptent faire tourner cette conférence théâtralisée, nous n’avons pour l’instant que deux dates de programmées pour cette version Deluxe, Remasterisée, avec 13,37 % de connardise en plus garantie. Cela se passera sur Paris :

    Nous espérons qu’il y aura des captations vidéos mais surtout d’autres représentations de cette conférence théâtralisée.

    En attendant, voici le dernier épisode du guide, intitulé :

    22. Conclusion : le SWOT de la connardise

    Si vous regardez bien le capitalisme de surveillance, vous devez vous dire que ce système que j’ai peaufiné depuis des années est parfait.

    Et vous avez raison, merci.

    Pourtant, ce n’est pas parce qu’il est parfait qu’il est éternel. Pour qu’un système soit durable et résilient, il n’est pas inutile de revenir aux outils transmis en première année d’école du commerce, et de lui appliquer un bon vieux SWOT des familles.

    Analysons donc ensemble les forces et faiblesses intrinsèques au capitalisme de surveillance (Strenghts and Weaknesses) ainsi que les opportunités et les menaces extérieures (Opportunities and Threats) dont nous devons nous préoccuper.

    Une des grandes forces de ce système, c’est qu’il est très systémique : c’est-à-dire que tout se tient.

    Ainsi, le pognon permet d’acheter de nouvelles technologies, pour capter plus de comportements, pour augmenter son influence culturelle et politique ce qui in fine rapporte plus de pognon.

    C’est le cercle vertueux du capitalisme : tant qu’il y a des cons à essorer, y’a du liquide à se faire.

    Or avec la surveillance par le numérique, l’essorage atteint des vitesses record. Parce que bon, mon papy, du temps béni de la Stasi, il gagnait déjà sa vie honnêtement en fichant ses congénères. Mais papy (respect et dividendes à lui ✊🤌) il fichait à la main, à l’ancienne : il faisait dans l’artisanal.

    Si on compare son travail avec le fichage réalisé par la NSA aujourd’hui, on se rend compte que les services secrets des champions de la liberté sont beaucoup plus efficaces que ceux de la RDA.

    L’autre force de ce système, c’est qu’il a désormais l’allure d’une évidence, d’une fatalité, d’une des lois naturelles qui régissent notre monde.

    Car si l’informatique est partout et que ce que l’on code fait force de loi, alors pour contrôler le monde, il suffit de contrôler les petits cons qui codent.

    Du coup, dès qu’on a un peu de pognon, on peut les acheter, les gamins. Et si vous ne voulez pas qu’ils se posent trop de questions sur les conséquences de ce qu’ils sont en train de coder, j’ai un secret : la méthode Agile.

    Une des faiblesses qui existent dans notre beau système, ce sont ces va-nu-pieds en sandales bio qui prônent « l’hygiène numérique ».

    Quand on leur donne le choix de la liberté entre Google Chrome, Apple Safari ou Microsoft Edge… ces salopiauds répondent « Firefox, parce que c’est pas fait pour le pognon ».

    Quand on fait en sorte que leur téléphone Android ne soit plus qu’un gros capteur Google avec option agenda, ces malotrus répondent « non, j’ai un téléphone dégooglisé grâce à Murena ».

    Heureusement qu’ils ne sont que quelques poignées d’hurluberlus, car ne nous cachons rien : c’est dégoûtant, l’hygiène numérique.

    Une autre faiblesse que l’on doit éradiquer au plus vite : les bloqueurs de pub. Car la pub, c’est la base, c’est notre gagne-pain ! Sans la pub, tout le beau système de connard que j’ai construit s’effondre.

    Or j’ai fait des efforts contre les bloqueurs de pubs. D’abord j’ai fait de la pédagogie pour bien faire rentrer dans le crâne des cons que bloquer la pub, c’est méchant. Que ça enlève le pain de la bouche des gratte-papier, qu’il faut que monde accepte de se javelliser le cerveau, sinon c’est tirer une balle dans le ventre creux des pauvres journaleux…

    Puis j’ai carrément connardisé Adblock Plus. Pour bien expliquer aux cons : vous voulez bloquer la pub, prenez notre bloqueur de connards, c’est celui qui est le plus marketé, et promis : il ne laissera passer que la gentille pub.

    Mais non : il se trouve toujours des hygiénistes dégoûtants pour dire aux cons d’installer Ublock Origin.

    Heureusement, il reste de belles opportunités dans ce système de connard. Ainsi, la position de monopole permet de réécrire ce que doit être le numérique dans la tête des cons.

    Ainsi, si vous dites « je veux une plateforme de diffusion de vidéos » à un informaticien, il pensera à PeerTube : un outil efficace pour faire un site où on peut créer des comptes, y mettre ses vidéos et les partager avec le reste du monde, sans avoir besoin d’une ferme de serveurs.

    Mais si vous dites la même chose à un consommateur, il pensera monétisation, publicité, recommandations, suite du programme, émissions régulières… Bref, il pensera à une chaîne de télé, parce que c’est comme ça que fonctionnent les monopoles du domaine, à savoir YouTube et Twitch.

    Une autre opportunité, c’est d’exploiter encore plus le petit personnel politique. Non parce qu’ils y prennent goût, à mes gros jeux de données. Ils ont bien compris que cela augmente la taille de leur petit pouvoir.

    Car le pouvoir, c’est un peu comme le pognon : plus on en a, plus on en veut.

    De fait le petit personnel politique, ça fait quelques piges qu’ils nous pondent deux lois sécuritaires par an. À vouloir copier mon beau modèle, ils finissent par le légitimer, et nous ouvrir la fenêtre des possibles.

    Cependant, le Capitalisme de Surveillance est sous le coup de plusieurs menaces qui pourraient égratigner mon beau système : il s’agit donc de ne pas les ignorer.

    En gros, ces menaces, ce sont tous les paltoquets, saligauds et autres pignoufs d’hygiénistes du logiciel libre, de l’anti-pub ou l’anti-surveillance… mais quand ils se multiplient entre eux.

    Non parce que moi les libristes, tant qu’ils sont 15 dans leur slip en raphia, à se battre entre eux pour savoir si « Vim ou Debian », « Ubuntu ou chocolatine »… ça ne m’affole pas le pacemaker.

    D’ailleurs, j’ai même essayé de récupérer leur mouvement d’un coup de rebranding. J’ai viré tous leurs bons sentiments politiques de « ouiiiii il faut que l’humain maîtrise l’informatique, il faut partager le savoir sous forme de communs », j’ai gardé la méthode de production, et j’ai collé un nom angliche qui pète bien : l’open source.

    Alors ça a bien réussi, mon coup : l’open source est partout, le logiciel libre n’a plus une thune et est exsangue… Malgré ces efforts, tu as toujours des faquins de bisounours du code qui essaient de sortir du droit chemin des plateformes géantes.

    Et voilà qu’ils te codent des PeerTube, des Mastodon, des Mobilizon, des NextCloud… des logiciels décentralisés que n’importe quel excité du clavier peut installer sur un serveur pour créer un cloud autonome, auto-géré, et synchronisé avec le reste de leur univers fédéré.

    Non mais si ça prend leurs bêtises, les cons vont fuir les belles plateformes centralisatrices des géants du web pour aller héberger leurs vies numériques chez plein de petits hébergeurs à qui ils font confiance.

    Une autre menace potentielle au capitalisme de surveillance, ce sont les associations qui s’organisent pour montrer les conséquences et les rouages de mon beau système.

    Et que je peux pas vendre mes drones de surveillance à la police sans que La Quadrature du Net ne s’en mêle, et que je peux pas signer un contrat juteux entre Microsoft et l’Éducation Nationale sans que l’April ne gueule…

    Or le capitalisme de surveillance est pudique : si l’on montre ses dessous, il devient timoré et peut presque (j’en frémis…) s’enfuir.

    Alors certes, ces menaces sont réelles, mais pour qu’elles commencent à me faire peur, il faudrait que les cons se renseignent, se prennent en main, et rejoignent par milliers les zigotos qui font des associations d’utopistes : bref, faute de lutte collective à lui opposer, mon système de connard a de beaux jours devant lui.

    C’est pourquoi, cher apprenti connard (et, ne nous interdisons aucune modernité : « chère apprentie connasse ») mon dernier mot sera pour toi : la balle est dans ton camp. Moi, c’est bon, j’ai construit mon bunker pour trinquer au frais lorsque le monde va cramer. Je te confie donc mon beau système.

    C’est à toi désormais de prendre la relève. Ta mission, c’est de te sortir les doigts du fion, et de connardiser le digital pour que perdure le capitalisme de surveillance.

    (Et que je touche mes dividendes.)

    #OnCompteSurVous

    #JeSuisCharlesHyppolite

    Liens utiles

    Les Connards Pro™, exploiter les données des cons–

    Par : Framasoft
    24 novembre 2022 à 03:22

    –sommateurs. Les données des consommateurs. Ce nouvel épisode inédit des Connards Professionnels™ vous explique à quoi cela sert de capter un maximum de données, comment manipuler les masses, et ainsi comment gagner au grand jeu du capitalisme de surveillance.

    Le retour des Connards Pros™ avec des épisodes inédits !

    Afin de fêter leur retour, le Framablog souhaite publier, chaque semaine pendant un mois, un des épisodes inédits de ce travail… de connards, il faut bien le dire !

    Le Guide du Connard Professionnel est un livre-BD scénarisé par Pouhiou et dessiné par Gee, placé dans le domaine public volontaire. Nos comparses viennent d’ailleurs de le publier en un joli livre, qui se télécharge librement mais s’achète aussi dans sa version papier si vous voulez soutenir les auteurs.

    couverture du guide du connard professionnel, le livre

    Cliquez sur l’image pour télécharger et/ou acheter le livre.

     

    Pour réussir à votre tour dans la profession de consultant en connardise, vous pouvez :

    Réservez votre place pour la conf théâtralisée (6 & 8 déc. à Paris)

    L’épisode que vous allez voir aujourd’hui est une adaptation de la conférence théâtralisée où les Connards Profesionnels vulgarisent le Capitalisme de Surveillance et l’économie de l’attention.

    Appuyez sur play pour voir l’extrait de la conférence correspondant à cet épisode

     

    Depuis cette captation, Gee et Pouhiou ont intégralement retravaillé le texte de cette conférence théâtralisée, afin de le rendre moins dense, plus entraînant, bref : plus facile à aborder pour des personnes qui ne se passionnent pas forcément pour le numérique éthique !

    Si les comparses comptent faire tourner cette conférence théâtralisée, nous n’avons pour l’instant que deux dates de programmées pour cette version Deluxe, Remasterisée, avec 13,37 % de connardise en plus garantie. Cela se passera sur Paris :

    Nous ignorons s’il y aura des captations vidéos, donc nous vous conseillons vivement de réserver en signalant votre présence sur les événements Mobilizon ci-dessus (ou de les contacter, par email : leur pseudo chez connard point pro, pour voir à quelles conditions les faire venir près de chez vous !)

    En attendant, voici un nouvel épisode du guide, intitulé :

    21. Que faire de l’attention des cons ?

    La pensée de connard systémique a ceci de beau qu’elle permet d’exprimer sa connardise à tous les niveaux.

    Qu’il s’agisse de manipuler le langage en faisant passer des comportements sociaux pour des « données personnelles », de manipuler les consommateurs pour qu’ils nous offrent leurs interactions sur un plateau et se mettent à haïr le respect de leur consentement… Tout cela demande un soin du détail que seul un maître connard peut offrir.

    Si vous réussissez cette première étape, bravo, vous êtes devenu Éleveur-Entrepreneur, responsable d’une belle usine qui gère 15 bestiaux au mètre carré. Et les cons dans tout ça… ? Ben c’est le bétail !

    En bon éleveur, vous l’avez gavé de votre foin attentionnel, produit localement par d’autres bestiaux (les créateurs de contenus), et enrichi à la pub. C’est ainsi que vous le trayez régulièrement pour avoir de bon gros jeux de données comportements tout frais.

    Cependant, chacun son métier : vous êtes fermier, pas boucher ni fromager. Donc ces comportements tout frais, vous allez les confier au Marché. Ça tombe sous le sens.

    Dans le milieu, ceux qui transforment les datas, ce sont les courtiers de données. Et si vous les regardez attentivement, ils ont tous une tête à s’appeler Adam. Ne me demandez pas pourquoi : c’est la loi du Marché.

    Avoir de beaux jeux de données croisés entre plusieurs sources, c’est donc avoir des informations très précises sur les cons, leurs futurs votes, leurs futurs crédits, leurs futures baises, leurs futurs achats…

    Alors qu’est-ce qu’on leur fourgue à tous ces consommateurs qu’on connaît si bien, comme si on les avait espionnés ? C’est quoi la base, le pain quotidien de tout connard digital ? C’est quoi le gras qui huile les rouages de notre système et arrondit nos ventres insatiables, hein… ? C’est… la publicité.

    La publicité, tout le monde y goûte, tout le monde en dépend. On a aiguisé les esprits, on a filé des arguments à gauche comme à droite, bref : la publicité, c’est inattaquable.

    Alors la publicité c’est bien, mais ce n’est qu’une base à partir de laquelle on va commencer à élever le niveau de la connardise.

    Ainsi, si on veut sortir des techniques de gagne petits de la data, ce qui marche bien en ce moment c’est d’aller vendre du consommateur aux banques et aux assurances.

    Il faut dire que vu le pognon qu’elles brassent, ces entreprises n’aiment pas beaucoup le risque. Donc quand nous on se pointe devant elles avec des comportements tout frais, tout croisés, tout prédictibles… Pour elles c’est les moissons, Noël et la chandeleur en même temps… bref : c’est la fête du blé.

    Quand votre niveau de pognon engrangé commence à faire honneur à votre niveau de connardise, et qu’au passage vous vous êtes faits quelques amis dans la finance… c’est le moment de passer aux choses sérieuses.

    Par exemple en commençant à vous faire ami-ami avec les états en leur vendant vos services. Alors ils appellent ça « partenariat public-privé », mais pour nous c’est juste un moyen de leur vendre à prix d’or de quoi mieux espionner leurs cons à eux (ils appellent ça des contribuables, mais en bons connards nous ne jugeons pas : chacun ses perversions).

    L’objectif, ici, c’est d’arriver à augmenter votre degré de connardise, améliorer votre influence et vos connaissances dans les services de l’État, pour finir par aller prendre le pognon chez ceux qui le captent le mieux : les politiques.

    On l’a vu avec Cambridge Analytica, influencer des élections, telles que le Brexit ou l’accession de Trump au trône, c’est simple comme une pub Facebook. Encore faut-il trouver des laquais pour rémunérer pour notre connardise.

    Or, les hommes et femmes politiques, c’est en quelque sorte notre petit personnel à nous. Un qui l’a bien compris, c’est le milliardaire Steve Bannon (respect et dividendes à lui ✊🤌), qui a commandité à Cambridge Analytica des expériences scientifiques pour trouver comment manipuler en masse les étatsuniens, puis qui a appliqué les résultats avec ses sites de propagande tels que BreitBartNews.

    De moindres connards s’arrêteraient là, satisfaits d’avoir influencé des états, et la conscience politique de nations entières. Mais ce serait louper le coche, le point d’orgue, l’apogée d’une carrière de connard professionnel : la capacité d’influencer une culture toute entière.

    Les champions sur la question, c’est Google. À l’époque où « blogosphère » était un mot moderne, ils ont inventé le score des blogs, le « blog rank », qui te permet de grimper dans les recherches Google. Pour faire grimper ton blog rank, il fallait faire grimper toutes les statistiques… mises en avant par Google.

    Bref, il fallait souscrire à la course au clic. C’est ainsi que tout le monde s’est mis à écrire de la même manière, le fameux « web rédactionnel », qui fait que vous pouvez pas lire deux paragraphes tranquille sans qu’un truc vous saute aux yeux.

    Le blog rank, et plus tard les affichages des visites avec Google Analytics, c’est au cœur de la méthode de Google. Donner des outils statistiques aux personnes qui créent et publient du contenu, et leur afficher bien en gros les courbes des statistiques qui intéressent Google et ses annonceurs.

    Il n’en faudra pas plus à un homo numéricus normalement constitué : il n’aura plus d’autre envie que de voir les chiffres grossir.

    C’est ce qu’il s’est passé avec le phénomène des YouTubers. Grâce à ses manipulations statistiques, Google a transformé une bande de joyeux drilles qui se croyaient revenus au temps des radios libres, en de jolies marionnettes, bien soumises au sacro-saint algorithme.

    Liens utiles

    Les Connards Pro™, capter les données des cons–

    Par : Framasoft
    17 novembre 2022 à 01:58

    –sommateurs. Les données des consommateurs. Cet épisode inédit des Connards Professionnels™ vous invite à découvrir le monde merveilleux du capitalisme de surveillance, où l’on donne ce qui nous est le plus personnel : notre attention.

    Le retour des Connards Pros™ avec des épisodes inédits !

    Afin de fêter leur retour, le Framablog souhaite publier, chaque semaine pendant un mois, un des épisodes inédits de ce travail… de connards, il faut bien le dire !

    Le Guide du Connard Professionnel est un livre-BD scénarisé par Pouhiou et dessiné par Gee, placé dans le domaine public volontaire. Nos comparses viennent d’ailleurs de le publier en un joli livre, qui se télécharge librement mais s’achète aussi dans sa version papier si vous voulez soutenir les auteurs.

    couverture du guide du connard professionnel, le livre

    Cliquez sur l’image pour télécharger et/ou acheter le livre.

     

    Pour réussir à votre tour dans la profession de consultant en connardise, vous pouvez :

    En attendant, voici un nouvel épisode du guide, intitulé :

    20. Capter l’attention des cons

    Ce que l’on apprend lorsqu’on expérimente sur les humains, c’est que ce n’est qu’une première étape. C’est un marchepied, en quelque sorte, qui vous le mettra à l’étrier d’une aventure à laquelle tout Connard dans l’âme se doit d’aspirer : manipuler une culture, une civilisation entière.

    Pour ce faire, il vous faudra œuvrer à façonner un système si complexe, si ingénieux, si empreint de tout votre art que tout apprenti connard ne pourra que vous considérer comme un Maître.

    Le chef-d’œuvre qui m’a pris tout mon temps, durant ces quelques années de hiatus, a été nommé par des spécialistes le : « Capitalisme de surveillance ».

    Il va de soi qu’un système aussi raffiné se doit d’être exhaustif et intègre. Il est ici nullement question de créer une mécanique dont moi et les miens serions exempts. Cela indiquerait aux rouages de ce système qu’ils pourraient s’en extraire, rendant tout le système caduc dès le départ.

    Or, si l’on pense en bon connard, un bon système est un système où l’on se soustrait à toutes les contraintes, souffrances et autre pénibilités… en les faisant ruisseler sur autrui. Dans un système de type capitaliste, l’astuce consiste à être riche, pour se nicher au sommet de la pyramide, quitte à chier sur les épaules de ceux d’en dessous.

    Ainsi, seuls les pauvres seront affectés par la pénibilité du système. Or, ne nous le cachons pas, ils l’ont bien mérité : ils (ou, pour user de leur argot vernaculaire : « iels ») sont pauvres.

    Tout comme il est inutile de deviner qui de la poule ou de l’œuf… Ne perdons pas de temps à savoir qui était là en premier : la pauvreté ou la bêtise. Le fait est qu’il s’agit d’un cycle naturel où l’un entraîne l’autre.

    C’est en profitant de ce cercle vertueux que j’ai pu imposer à la populace mes termes, mon vocabulaire. C’est ainsi grâce à ma connardise que l’on parle communément de « données personnelles ».

    C’est intéressant d’appeler nos comportements des données. Cela fait penser à quelque chose que l’on donne. Comme si le commun des consommateurs avaient le pouvoir. Le choix. La responsabilité de leurs données.

    En tant que connards professionnels, il ne faut jamais laisser nos cibles penser avec leurs propres mots : cela pourrait leur donner des idées. Ainsi, n’oublions pas que dans « données personnelles », j’ai ajouté le mot personnelles.

    Voilà que le consommateur moyen va se dire que ses comportements sont ses données à lui, presque sa propriété. D’un simple mot, j’isole cette personne, je le condamne à être un individu, séparé des autres individus, ne pouvant plus s’allier à eux pour remettre collectivement en cause mon beau système.

    Or, si l’on regarde d’un pur point de vue technique, le web a été fait par et pour des animaux sociaux, et n’existe que pour faire du lien. Aucun de vos comportements ne concerne que vous, ils racontent votre rapport aux autres, aux choses, au monde.

    De votre date de naissance (qui indique ce que faisaient, ce jour-là, les corps qui vous ont fait naître), à votre géolocalisation (qui indique qui vous allez voir, avec qui, et souvent pourquoi), vos comportements sont quasi exclusivement sociaux.

    De ces comportements sociaux, on peut très vite déduire un portrait assez fin de chaque personne dans sa relation aux autres. Dans le jargon, on appelle cela un « graphe social ».

    Vous avez certainement, sur votre smartphone, des applications qui ont accès à votre carnet de contact (elles vous remercient, d’ailleurs). Ce qui signifie que si vous tournez autour d’un nouveau crush, cette application saura quand vous rentrez son 06 dans vos contacts.

    Si, par ailleurs, j’ai accès à un autre fichier qui note la géolocalisation de téléphones identifiés par leur numéro, je peux donc savoir qui tourne autour de qui, quand est-ce que les téléphones passent la nuit ensemble et donc à quel moment leur faire afficher des publicités pour des sous-vêtements affriolants, des préservatifs ou des pilules du lendemain.

    C’est bien là l’avantage des comportements sociaux : on peut noter ce que l’on veut sur qui l’on veut, car même les personnes qui n’ont pas de smartphone ou de comptes sur les plateformes ont des amis qui en ont.

    Notez bien cependant qu’il est important de respecter la loi comme un connard. Ainsi, puisqu’en France il est interdit de ficher les opinions politiques ou orientations sexuelles, je m’interdis scrupuleusement de ficher quiconque comme « votant à droite » ou comme « pédé comme un sac à dos ». Par contre, j’ai beaucoup de monde dans les cases « souhaite la réduction de ces charges qui nous étouffent » et « intéressé par la culture gaie ».

    Ne désespérons pas : la route est longue mais la loi change, et même un pas après l’autre : on avance. Récemment, le fichage des opinions politiques et orientations sexuelles a été autorisé à la police française. C’est là un signe d’espoir qui nous permet de rêver.

    Il faut dire que, à l’instar de la délation et de la collaboration, le fichage est une tradition culturelle forte. Pour le web, cela a commencé avec les cookies. Le principe de base était simple : des nerds et des gratte-papier faisaient des sites web qui attiraient l’attention de gens, qui consommaient les contenus.

    Les premiers connards du web s’en sont rendu compte, et sont allé à la source. Tiens petit nerd qui se dit webmestre, tu veux des belles statistiques pour savoir ce qui est lu ? Voici Bastards Analytics, tu le mets sur ton site web et ça ajoute juste un petit cookie. Et toi, gratte-papier, tu veux des jolies polices d’écriture pour ton blog ? Alors utilise mes Bastards fonts, y’aura juste un cookie, mais ce sera tellement joli.

    Et puis… puis ça a explosé. Les cookies de mes copains installaient mes cookies, les pisteurs se partageaient des données entre eux… Ah, ça ! Quand on a pas connu on ne se rend pas compte, mais aux débuts du web marchand, y’en avait partout, c’était beau, c’était… hyper communautaire, en fait.

    Et c’est là qu’est arrivée la tuile. LE truc que nos lobbyistes n’ont pas pu dérailler.

    RGPD.

    Il fallait demander aux consommateurs leur consentement, comme s’ils savaient ce qui est bon pour eux ! Alors oui, bien sûr, au début c’était la tuile, mais cela fut en fait un bon défi de connard. Comment faire en sorte que les consommateurs détestent le consentement au moins autant que nous ?

    On peut vous dire que pour arriver à un tel résultat, y’a des années d’expérience et (oui, osons le mot) du talent.

    Appuyez sur play pour voir l’extrait de la conférence correspondant à cet épisode

     

    Liens utiles

    Les Connards Pro™, l’épisode perdu (Facebook)

    Par : Framasoft
    10 novembre 2022 à 02:51

    Les Connards Professionnels nous reviennent après des années d’absence. Découvrez aujourd’hui un épisode qui parodie et explicite le fonctionnement de Facebook, écrit en 2015 et pourtant jamais publié avant maintenant.

    Les Connards Pros™ vous forment au capitalisme de surveillance !

    Entre 2014 et 2015, Gee et Pouhiou ont écrit un OWNI (objet webesque non identifiable) mi roman, mi BD et mi guide managérial parodique, intitulé Le Guide du connard professionnel. Le principe est de former le lectorat au design de la malveillance, une activité hautement lucrative. Des ouvertures « faciles » rageantes aux dark patterns en passant par l’argent-dette : tout est de la faute des Connards™ !

    Sept ans plus tard, nos frama-comparses ravivent le projet avec une pseudo-masterclass de connards qui vous dévoile les mécanismes de l’économie de l’attention pour mieux comprendre le capitalisme de surveillance : Framasoft s’y est d’ailleurs infiltrée pour mieux la capter en vidéo !

    Depuis, les Connards Pro™ n’ont pas chômé et vous proposent :

    Afin de fêter leur retour, le Framablog souhaite publier, chaque semaine pendant un mois, un des épisodes inédits de ce travail… de connards, il faut bien le dire !

    19. Donner de l’exercice à ses cobayes

    Les expérimentations sur les animaux n’ont plus bonne presse, au grand dam des industries cosmétiques qui se sont vues obligées d’inventer le rouge à lèvres virtuel, le mascara pour bactérie ou la crème de jour pour cadavre… Par chance, pratiquer des tests sur les humains reste encore possible, pour peu que vous le fassiez dans une posture socialement acceptable. Sociologie, anthropologie, ethnologie : les sciences sociales nous offrent ce plaisir mais demandent un investissement coûteux (sous forme d’harassantes études) pour une rémunération de gagne-petit. Un bon connard préférera donc monter sa start-up du web.

    On ne le répétera jamais assez, un bon connard est un flemmard intelligent (voir notre 6e leçon : Ne faites plus, faites faire). Votre travail ne doit consister, en somme, qu’à créer les règles du jeu, le code faisant Loi. Une application de réseau-sociotage fluide, belle, réactive ne suffit pas : il faut qu’elle attire le chaland. Si votre code-concept de base consiste à mettre en valeur les egos dans un positivisme aussi forcé que le sourire d’une hôtesse de l’air en plein crash aérien ; vous avez déjà fait beaucoup. Reposez-vous donc, et laissez les autres travailler pour vous en leur ouvrant votre outil, comme tout internaute débonnaire le ferait.

    Parler avec des astérisques est un talent réservé aux connards professionnels de haut vol. Peu d’entre nous savent présenter leurs arguments sans qu’on n’y voie les conditions écrites à l’encre antipathique et lisibles au microscope atomique. Le jour où vous pouvez inclure l’intégralité du texte de Mein Kampf dans des Conditions Générales d’Utilisation et voir votre clientèle cliquer sur « je suis d’accord et j’accepte », c’est que vous êtes parvenu à une telle maîtrise de votre position dominante. Vous n’avez plus qu’à changer les conditions pour virer les projets extérieurs (ceux qui vous ont aidé à appâter le chaland) et garder les cobayes dans votre labyrinthe de plus en plus

    Dès lors que vos cobayes sont piégés dans votre labyrinthe, libre à vous de les exploiter comme bon vous semble. Bien entendu, vous placerez de la publicité à chaque cul-de-sac et leur demanderez de plus en plus de données à chaque tournant… Mais, outre ce pré-requis de base, c’est là que vos expériences peuvent vraiment commencer. Par exemple, vous prenez deux groupes de cobayes identiques, et montrez des infos positives aux uns tandis que les autres ne verront que le pire des infos qui les entourent…

    L’avantage d’avoir des cobayes piégés dans cette avalanche incessante d’informations nivelées et formatées, dans votre infinite scrolling, c’est que tôt ou tard ils participeront au bruit ambiant. Ainsi, leur moindre clic et statut vous permettra de récolter les données du résultat de votre expérimentation sociale.

    « Du pain et des jeux… » voilà les besoins du bas-peuple, comme nous l’expliquait un antique Connard. Maintenant que nous sommes civilisés et connectés, on peut mettre à jour l’adage : « si vous avez assez de jeux, oubliez le pain ». Avoir le monde entier au creux de votre main n’est pas une responsabilité, c’est un hobby. Une fois leurs êtres et états bien rangés dans votre ferme de serveurs, vous n’avez plus qu’a vous assurer de repeindre régulièrement les murs de votre prison dorée afin qu’ils n’aient plus jamais besoin d’en sortir. Médias, infos, vidéos, sorties, articles, musiques, dialogues et coup de fil… pourquoi utiliser internet quand on a populr.com ?

    Liens utiles

    Brian Eno n’aime pas les NFT – Open Culture (5)

    Par : Goofy
    24 août 2022 à 05:42

    Le 5e numéro de notre mini-série de l’été, qui vagabonde librement d’un article de openculture.com à l’autre, vous propose aujourd’hui de lire quelques propos assez vifs sur les NFT que l’on peut définir grossièrement comme des titres de propriété, enregistrés dans une sorte de « grand livre » numérique public et décentralisé (en savoir plus avec ces questions/réponses). Leur apparition ces dernières années suscite autant d’engouement spéculatif que de critiques acerbes.

    Voici par exemple le point de vue de Brian Eno, un musicien, producteur, compositeur dont la carrière et la notoriété dans le monde de la musique sont immenses : les plus grands ont bénéficié de son talent, on lui doit le développement et la popularisation d’un genre musical et nombreuses sont ses expérimentations artistiques, pas seulement musicales..

     

    Article original : Brian Eno Shares His Critical Take on Art & NFTs : “I Mainly See Hustlers Looking for Suckers”

    Traduction : Goofy

    Brian Eno expose son point de vue critique sur l’art et les NFT : « Je vois surtout des arnaqueurs qui cherchent des pigeons »

    par Josh Jones

    Image via Wikimedia Commons

    Dans notre monde marqué par les inégalités, on peut avoir l’impression que nous n’avons plus grand-chose en commun, qu’il n’y a pas de « nous », mais seulement « eux » et « nous ». Mais les multiples crises qui nous séparent ont aussi le potentiel d’unir l’espèce. Après tout, une planète qui se réchauffe rapidement et une pandémie mondiale nous menacent tous, même si elles ne nous menacent pas de la même manière.

    Les solutions existent-elles dans la création de nouvelles formes de propriété privée, de nouvelles façons de déplacer le capital dans le monde ? Les sous-produits de la marchandisation et du gaspillage capitalistes, à l’échelle de l’extinction, peuvent-ils être atténués par de nouvelles formes ingénieuses de financiarisation ? Tels semblent être les arguments avancés par les zélateurs des crypto-monnaies et de NFT, un acronyme signifiant jetons non fongibles et – si vous ne l’avez pas encore remarqué – qui semble la seule chose dont tout le monde parle aujourd’hui dans le monde de l’art.

    Brian Eno a exprimé son opinion sur le sujet de manière assez abrupte dans une interview récente. « Les NFT me semblent juste un moyen pour les artistes d’obtenir une petite part du gâteau du capitalisme mondial », a-t-il dit sur le site The Crypto Syllabus. « Comme c’est mignon : maintenant les artistes peuvent aussi devenir de petits trous du cul de capitalistes ». Il désapprouve évidemment l’utilisation de l’art uniquement pour générer des profits, car si nous avons appris quelque chose de la théorie de la créativité et de l’influence d’Eno au cours des dernières décennies, c’est bien que selon lui le moteur principal de la création artistique est… de générer davantage d’art.

    « Si j’avais voulu gagner de l’argent avant tout, j’aurais eu une carrière différente, comme n’importe qui d’autre. Je n’aurais probablement pas choisi d’être un artiste ».

    Il est tout à fait inutile d’essayer de cataloguer Eno comme technophobe ou déconnecté, c’est tout le contraire. Mais les produits financiers fictifs qui ont envahi toutes les autres sphères de la vie n’ont pas leur place dans les arts, affirme-t-il.

    Lorsqu’on lui demande pourquoi les NFT sont présentés comme un salut pour les artistes et le monde de l’art par les visionnaires des crypto-monnaies, parmi lesquels figurent nombre de ses amis et collaborateurs, Eno répond :

    Je peux comprendre pourquoi les personnes qui en ont profité sont satisfaites, et il est assez naturel dans un monde libertarien de croire que quelque chose qui vous profite doit automatiquement être « bon » pour le monde entier. Cette croyance est une version de ce que j’appelle « l’automatisme » : l’idée que si vous laissez les choses tranquilles et que vous laissez une chose ou l’autre – le marché, la nature, la volonté humaine – suivre son cours sans entrave, vous obtiendrez automatiquement un meilleur résultat qu’en intervenant. Les personnes qui ont ce genre de croyances n’ont aucun scrupule à intervenir elles-mêmes, mais veulent simplement une situation où personne d’autre ne peut intervenir. Surtout pas l’État.

    Le fait que la vente des NFT n’ait profité qu’à un très petit nombre de personnes – à hauteur de 69 millions de dollars en une seule vente dans une affaire récente très médiatisée – ne semble pas particulièrement gêner ceux qui insistent sur leurs avantages. Les créateurs des NFT ne semblent pas non plus gênés par l’énorme surcharge énergétique que nécessite cette technologie, « un système pyramidal de cauchemar écologique », comme le dépeint Synthtopia – dont Eno dit :

    « dans un monde en réchauffement, une nouvelle technologie qui utilise de vastes quantités d’énergie comme « preuve de travail », c’est-à-dire simplement pour établir un certain âge d’exclusivité, est vraiment insensée. »

    Eno répond volontiers aux questions sur les raisons pour lesquelles les NFT semblent si séduisantes – ce n’est pas un grand mystère, juste une nouvelle forme d’accumulation, de marchandisation et de gaspillage, une forme en particulier qui n’ajoute rien au monde tout en accélérant l’effondrement du climat. Les NFT sont le « readymade inversé », selon David Joselit : là où « Duchamp utilisait la catégorie de l’art pour libérer la matérialité de la forme marchandisable, les NFT déploient la catégorie de l’art pour extraire la propriété privée d’informations librement disponibles ».

    Le discours autour des NFT semble également libérer l’art de la catégorie de l’art, et tout ce que cela a signifié pour l’humanité depuis des millénaires en tant que pratique communautaire, réduisant les productions créatives à des certificats numériques d’authenticité. « J’essaie de garder l’esprit ouvert sur ces questions », concède Eno. « Des personnes que j’apprécie et en qui j’ai confiance sont convaincues que [les NFT] sont la meilleure chose depuis l’invention du pain en tranches, alors j’aimerais avoir une vision plus positive, mais pour l’instant, je vois surtout des arnaqueurs qui cherchent des pigeons. »

    Pour aller plus loin

    (en français)

    (en anglais)

    L’auteur de l’article
    Josh Jones est un écrivain et musicien de Durham, NC. Son compte twitter est @jdmagness


    Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)

    Les conseils de Ray Bradbury à qui veut écrire – Open Culture (4)

    Par : Goofy
    18 août 2022 à 01:42

    Dans le 4e épisode de notre mini-série de l’été, nous recueillons les conseils d’écriture de Ray Bradbury (oui, celui des Chroniques martiennes et Fahrenheit 451, entre autres) qu’il expose au fil d’une conférence résumée pour vous dans cet article d’openculture.com, un portail très riche en ressources culturelles.
    Ah, au fait, profitons-en pour vous rappeler que le Ray’s Day c’est lundi 22 août : en hommage au grand Ray, c’est l’occasion de lire des tas de textes en tous genres et de faire connaître les vôtres et même de les mettre en ligne. Rendez-vous sur le nouveau site du Ray’s Day qui sert de socle à cette initiative.

     

    Article original : Ray Bradbury Gives 12 Pieces of Writing Advice to Young Authors (2001)

    Traduction : goofy

    Ray Bradbury donne 12 conseils d’écriture aux jeunes auteur⋅e⋅s

    par Colin Marshall

    À l’instar de l’icône du genre Stephen King, Ray Bradbury est parvenu à toucher un public bien plus large que celui auquel il était destiné en offrant des conseils d’écriture à tous ceux qui prennent la plume. Dans ce discours prononcé en 2001 lors du symposium des écrivains organisé par l’université Point Loma Nazarene à By the Sea, Ray Bradbury raconte des anecdotes tirées de sa vie d’écrivain, qui offrent toutes des leçons pour se perfectionner dans l’art d’écrire.

    La plupart d’entre elles ont trait aux pratiques quotidiennes qui constituent ce qu’il appelle « l’hygiène de l’écriture ».

     

    En regardant cette conférence divertissante et pleine de digressions, vous pourriez en tirer un ensemble de points totalement différents, mais voici, sous forme de liste, comment j’interprète le programme de Bradbury :

    • Ne commencez pas par vouloir écrire des romans. Ils prennent trop de temps. Commencez plutôt votre vie d’écrivain en rédigeant « un sacré paquet de nouvelles », jusqu’à une par semaine. Prenez un an pour le faire ; il affirme qu’il est tout simplement impossible d’écrire 52 mauvaises nouvelles d’affilée. Il a attendu l’âge de 30 ans pour écrire son premier roman, Fahrenheit 451. « Ça valait le coup d’attendre, hein ? »
    • On peut les aimer, mais on ne peut pas les égaler. Gardez cela à l’esprit lorsque vous tenterez inévitablement, consciemment ou inconsciemment, d’imiter vos écrivains préférés, tout comme il a imité H.G. Wells, Jules Verne, Arthur Conan Doyle et L. Frank Baum.
    • Examinez des nouvelles « de qualité ». Il suggère Roald Dahl, Guy de Maupassant, et les moins connus Nigel Kneale et John Collier. Tout ce qui se trouve dans le New-Yorker d’aujourd’hui ne fait pas partie de ses critères, car il trouve que leurs histoires sont « dépourvues de métaphores ».
    • Bourrez-vous le crâne. Pour accumuler les blocs de construction intellectuelle de ces métaphores, il suggère un cours de lecture à l’heure du coucher : une nouvelle, un poème (mais Pope, Shakespeare et Frost, pas les « conneries » modernes) et un essai. Ces essais devraient provenir de divers domaines, dont l’archéologie, la zoologie, la biologie, la philosophie, la politique et la littérature. « Au bout de mille nuits », résume-t-il, « bon Dieu, vous saurez plein de trucs ! ».
    • Débarrassez-vous des amis qui ne croient pas en vous. Se moquent-ils de vos ambitions d’écrivain ? Il suggère de les appeler pour les « virer » sans tarder.
    • Vivez dans la bibliothèque. Ne vivez pas dans vos « maudits ordinateurs ». Il n’est peut-être pas allé à l’université, mais ses habitudes de lecture insatiables lui ont permis d’être « diplômé de la bibliothèque » à 28 ans.
    • Tombez amoureux des films. De préférence des vieux films.
    • Écrivez avec joie. Dans son esprit, « l’écriture n’est pas une affaire sérieuse ». Si une histoire commence à ressembler à du travail, mettez-la au rebut et commencez-en une qui ne l’est pas. « Je veux que vous soyez jaloux de ma joie », dit Bradbury à son public.
    • Ne prévoyez pas de gagner de l’argent. Avec son épouse, qui « a fait vœu de pauvreté pour l’épouser », Ray a atteint l’âge de 37 ans avant de pouvoir s’offrir une voiture (et il n’a toujours pas réussi à passer son permis).
    • Faites une liste de dix choses que vous aimez et de dix choses que vous détestez. Puis écrivez sur les premières, et « tuez » les secondes – également en écrivant à leur sujet. Faites de même avec vos peurs. Tapez tout ce qui vous passe par la tête. Il recommande l' »association de mots » pour lever tout blocage créatif, car « vous ne savez pas ce que vous avez en vous avant de le tester ».
    • N’oubliez pas qu’avec l’écriture, ce que vous recherchez, c’est une seule personne qui vienne vous dire : « Je vous aime pour ce que vous faites. » Ou, à défaut, vous cherchez quelqu’un qui vienne vous dire : « Vous n’êtes pas aussi fou que tout le monde le dit ».

    Autres ressources

    Ray Bradbury : Literature is the Safety Valve of Civilization

    The Shape of A Story : Writing Tips from Kurt Vonnegut

    John Steinbeck’s Six Tips for the Aspiring Writer and His Nobel Prize Speech

    L’auteur de l’article

    Colin Marshall produit Notebook on Cities and Culture. Pour le suivre sur Twitter : @colinmarshall.


    Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)

     


    Des bières avec Bukowski – Open Culture (3)

    Par : Goofy
    15 août 2022 à 03:35

    Aujourd’hui notre mini-série de l’été consacrée à la culture ouverte vous emmène sur le chemin zigzaguant et génial des poèmes de Charles Bukowski : voici de sa propre voix une célébration animée de sa boisson favorite grâce à un article traduit du site openculture.com


    Avertissement : l’alcoolisme, la misanthropie et la misogynie de Bukowski étant notoires, le poème et la vidéo peuvent heurter votre sensibilité. Auquel cas il vous appartient de ne pas aller plus loin sur cette page.

    Article original : Watch “Beer,” a Mind-Warping Animation of Charles Bukowski’s 1971 Poem Honoring His Favorite Drink

    Traduction : Goofy

    Une animation hallucinante pour illustrer un poème de Charles Bukowski en hommage à sa boisson préférée…

    par

     

    Je ne sais pas combien de bouteilles de bière
    j’ai consommées en attendant que ça se remette au beau.
    je ne sais pas non plus combien de vin
    et de whisky
    et de bière
    plutôt de la bière d’ailleurs
    j’ai consommé après toutes ces ruptures
    en guettant la sonnerie du téléphone,
    le bruit de leurs pas,
    mais c’était toujours trop tard
    que le téléphone sonnait
    et c’était toujours aussi trop tard
    qu’elles revenaient.
    Alors que j’étais sur le point
    de rendre mon âme
    elles arrivaient, fraîches comme des primevères :
    « Mais, Grands Dieux, t’avais besoin de te
    mettre dans ces états ?
    maintenant il va falloir que j’attende
    3 jours avant que tu me baises ! »

    La femme s’use moins vite
    elle vit sept ans et demi de plus
    que l’homme, et elle boit très peu de bière
    car elle sait le mal que ça fait à sa ligne.

    Tandis que nous partons de la tronche
    elles sont dehors
    dansant et riant
    avec des cow-boys en chaleur.

    En résumé, il y a la bière
    des sacs et des sacs de bouteilles vides
    et quand tu essaies d’en soulever un
    le fond qui est mouillé et
    qui est en papier
    ne résiste pas et les bouteilles passent à travers
    elles roulent sur le sol
    et ça résonne partout
    et en se renversant le peu de bière qui restait
    se mélange à la cendre de cigarettes ;
    quoi qu’il en soit, à 4 heures du matin
    un sac qui crève
    te procure l’unique sensation de la journée.

    De la bière
    des fleuves et des mers de bière
    de la bière de la bière de la bière
    la radio passe des chansons d’amour
    et comme le téléphone reste muet
    et que les murs de ta chambre
    ne bougent pas
    qu’y a-t-il d’autre que la bière ?

    (Traduction © Gérard Guégan)

    Charles Bukowski savait vraiment écrire. Et Charles Bukowski savait vraiment boire. Ces deux faits, sûrement les plus connus sur le « diplômé du caniveau », le poète et auteur de romans tels que Postier et Souvenirs d’un pas grand-chose (ainsi que de ce qu’on pourrait appeler la chronique de sa vie quotidienne, Journal d’un vieux dégueulasse), vont de pair. La boisson a fourni suffisamment de matière à sa prose et à ses vers – et, dans la vie, suffisamment de carburant pour l’existence qu’il a posée sur la page avec un art de l’évocation si brutal – que nous pouvons difficilement imaginer l’écriture de Bukowski sans sa boisson, ou sa boisson sans son écriture.

    On s’attend donc naturellement à ce qu’il ait écrit une ode à la bière, l’une de ses boissons de prédilection. « La bière », qui figure dans le recueil de poésie de Bukowski de 1971, L’amour est un chien de l’enfer, rend hommage aux innombrables bouteilles que l’homme a bues « en attendant que les choses s’améliorent », « après des ruptures avec les femmes », « en attendant que le téléphone sonne », « en attendant le bruit des pas ».

    La femme, écrit-il, sait qu’il ne faut pas consommer de la bière à l’excès à la manière des hommes, car « elle sait que c’est mauvais pour la silhouette ». Mais Bukowski, au mépris de sa silhouette, trouve dans cette boisson, la plus prolétaire de toutes, une sorte de réconfort.

    La bière prend vie dans l’animation ci-dessus réalisée par NERDO. Quelques extraits des notes d’accompagnement :

    « La composition est un manifeste du mode de vie de l’auteur, c’est pourquoi nous avons décidé de pénétrer dans l’esprit de l’auteur, et ce n’est pas un voyage sans danger […]

    Un solo de cerveau sans filtre, un récit de folie ordinaire, montrant à quel point la solitude et la décadence peuvent se cacher à l’intérieur d’un esprit de génie.

    Ce périple sauvage passe par ce que nous reconnaissons aujourd’hui comme de nombreux signifiants visuels de l’expérience bukowskienne : enseignes au néon, cigarettes, pâtés de maisons en décomposition, polaroïds clinquants – et, bien sûr, la bière, littéralement « des rivières et des mers de bière », que nul autre qu’Homer Simpson, autre amateur animé de la boisson, n’a un jour, tout aussi éloquemment, dépeinte comme « la cause et la solution à tous les problèmes de la vie »

    Bière fait partie de notre collection de 1000 livres audio à télécharger gratuitement.

    D’autres ressources (en anglais) à parcourir :

    Quatre poèmes de Charles Bukowski animés

    D’autres poèmes de Bukowski lus par lui-même,Tom Waits et Bono

    Tom Waits lit deux poèmes de Charles Bukowski, « The Laughing Heart » et “Nirvana”.

    Écoutez 130 minutes des toutes premières lectures enregistrées de Charles Bukowski (1968)

    Charles Bukowski s’insurge contre les emplois de type « 9 à 5 » dans une lettre d’une brutale honnêteté (1986)

    « Journal d’un vieux dégueulasse : Les caricatures perdues de Charles Bukowski dans les années 60 et 70.

    L’auteur de l’article

    Basé à Séoul, Colin Marshall écrit et diffuse des articles sur les villes, la langue et le style. Il travaille actuellement à la rédaction d’un livre sur Los Angeles, A Los Angeles Primer, à la série de vidéos The City in Cinema, au projet de journalisme financé par le crowdfunding Where Is the City of the Future ? et au Korea Blog de la Los Angeles Review of Books. On peut le suivre sur Twitter à @colinmarshall.

     


    Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)


    Les femmes du Bauhaus, punks avant l’heure ? – Open Culture (2)

    Par : Goofy
    10 août 2022 à 05:42

    Poursuivons aujourd’hui cette mini-série de l’été consacrée à la culture ouverte avec une facette souvent ignorée ou oubliée du mouvement artistique Bauhaus : l’importance des femmes artistes qui y figuraient. Ce nouvel article traduit du site openculture.com leur rend justice à travers quelques photographies…

    Article original : The Women of the Bauhaus : See Hip, Avant-Garde Photographs of Female Students &amp ; Instructors at the Famous Art School

    Traduction : Goofy

    Les femmes du Bauhaus : découvrez les photographies avant-gardistes et branchées des étudiantes et professeures de la célèbre école d’art

    par Josh Jones

    Regardez les photos de Bush Tetras, un groupe de No Wave/Post-Punk composé de trois filles et d’un garçon, au début des années 1980, dans le centre de Manhattan.

     

    Et maintenant, regardez la photographie ci-dessus, intitulée « Marcel Breuer et son harem », prise vers 1927 par le photographe du Bauhaus Erich Consemüller. Si l’on excepte le fait que Breuer ressemble plus à Ron Mael des Sparks sans moustache qu’au batteur Dee Pop, on pourrait confondre cette photo avec celle du groupe punk.

    Cela soulève quelques questions : les étudiantes en art des Bush Tetras ont-elles regardé du côté des femmes du Bauhaus pour trouver leur style ? Ou bien les femmes du Bauhaus se sont-elles tournées vers l’avenir et ont-elles présagé le punk ? Le second scénario semble plus probable puisque les femmes du Bauhaus n’ont pas été terriblement connues, jusqu’à une époque récente.

    Je me sens personnellement lésé, après avoir étudié l’art et l’histoire de l’art à l’université il y a de nombreuses années, qu’on ne me parle que maintenant de plusieurs artistes majeures de cette école allemande d’art radical fondée par Walter Gropius. Tous ses célèbres représentants et stars de l’art sont des hommes, mais il semble que le ratio hommes-femmes du Bauhaus ait été plus proche de celui de la population générale (comme l’était, dans de nombreux cas, celui des premières scènes punk et post-punk).

    Mais nous avons tendance à ne pas retenir leurs noms ni à voir les œuvres de ces artistes et, dans certains cas, leurs œuvres ont même été attribuées à titre posthume à leurs collègues masculins. Nous ne connaissons pas non plus le style progressiste de chacune, qui compte pourtant dans l’approche globale du Bauhaus visant à révolutionner les arts, y compris la mode, comme moyen de libérer l’humanité des dogmes du passé.

    Il est regrettable que la mémoire du Bauhaus, comme celle du punk, ait reproduit les mêmes vieilles règles que ses artistes ont brisées. L’égalité des sexes au sein de l’école était radicale, d’où le titre satirique de la photographie, qui « exprime le contraire exact de ce que la photo elle-même montre », note le site Bauhaus Kooperation :

    « la modernité, l’émancipation, l’égalité, voire la supériorité, des femmes qui y figurent ». Le « Maître junior » de l’atelier de menuiserie, Breuer regarde les trois artistes à sa gauche « d’un air sceptique, les bras croisés », comme pour dire : « Ce sont vraiment « mes » femmes ? ! ». Les artistes du « harem », de gauche à droite, sont Martha Erps, la femme de Breuer, Katt Both, et la femme du photographe, Ruth Hollós, qui « semble réprimer le rire en regardant le photographe (son mari) ».

    Erich Consemüller, qui enseignait l’architecture au Bauhaus, avait été chargé par Gropius de documenter l’école et sa vie. Gropius l’a associé à la photographe Lucia Moholy, épouse de László Moholy-Nagy (voir la photo d’elle ci-dessus, prise par son mari entre 1924 et 1928). Moholy prenait surtout des photos d’extérieur, comme la photo qu’elle a prise plus haut d’Erps et Hollós sur le toit de l’Atelierhaus à Dessau au milieu des années 1920.

    Consemüller s’est principalement concentré sur les intérieurs dans son travail, avec des exceptions expérimentales comme la série « Fantaisie mécanique » que l’on voit ici, qui utilise les vêtements, les poses et les doubles expositions pour souligner visuellement une sorte d’uniformité d’objectif, en plaçant et en joignant les artistes masculins et féminins du Bauhaus dans des arrangements presque typographiques.

    En effet, presque tous les artistes du Bauhaus – comme le voulait la pratique de l’école – se sont essayés à la photographie, et beaucoup ont utilisé ce médium pour documenter, de manière à la fois occasionnelle et délibérée, l’engagement du Bauhaus en faveur de l’égalité des sexes et de la pleine inclusion des femmes artistes dans ses programmes, une déclaration que le peintre et photographe T. Lux Feininger semble souligner dans la photographie de groupe ci-dessous des tisserands de l’école sur les marches du nouveau bâtiment du Bauhaus en 1927. (Artistes présents sur la photo : Léna Bergner, Gunta Stölzl, Ljuba Monastirsky, Otti Berger, Lis Beyer, Elisabeth Mueller, Rosa Berger, Ruth Hollós et Lisbeth Oestreicher).

    Les artistes du Bauhaus, hommes et femmes, ressemblaient beaucoup, à certains égards, aux premiers punks, inventant de nouvelles façons de secouer l’establishment et de sortir des rôles prescrits. Mais au lieu de proposer une alternative anodine au statu quo, ils offraient une recette pour sa transformation totale par l’art. Qui peut dire jusqu’où ce mouvement aurait progressé s’il n’avait pas été brisé par les nazis. « Ensemble, écrivait Gropius, appelons de nos vœux, concevons et créons la construction de l’avenir, comprenant tout sous une seule forme, l’architecture, la sculpture et la peinture »… et presque tout le reste de l’environnement bâti et visuel, aurait-il pu ajouter.

    Photo via Barbara Hershey

    Pour aller plus loin (articles en anglais)

    Les pionnières du mouvement artistique du Bauhaus : Découvrez Gertrud Arndt, Marianne Brandt, Anni Albers et d’autres innovatrices oubliées.

    La politique et la philosophie du mouvement de design Bauhaus : Une brève introduction

    Bauhaus World, un documentaire gratuit qui célèbre le 100e anniversaire de la légendaire école allemande d’art, d’architecture et de design.

    L’auteur de cet article est Josh Jones, écrivain et musicien de Durham, NC. Pour suivre son compte twitter :  @jdmagness.

     


    Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)


    Dark Side of the Rainbow, un mashup – Open Culture (1)

    Par : Goofy
    5 août 2022 à 09:45

    Petite série de l’été : au gré de mes découvertes, je partagerai ici quelques-unes des nombreuses ressources disponibles sur le très riche site https://www.openculture.com/ que je vous invite à découvrir et partager à votre tour sans modération.

    Aujourd’hui, premier épisode avec un mashup (disons un « collage » artistique) audiovisuel entre deux œuvres iconiques archi-célèbres : un album-culte de Pink Floyd et une comédie musicale tout aussi culte, le magicien d’Oz.

    Le mashup ou collage, est un genre musical hybride. Le mashup est à l’origine une chanson créée à partir d’une ou deux autres chansons pré-enregistrées, habituellement en superposant la partie vocale d’une chanson sur la partie instrumentale d’une autre, (Source Wikipédia. Pour en savoir plus…) mais on peut lui donner une acception plus large car plusieurs domaines artistiques, et pas seulement musicaux, peuvent être combinés dans un mashup.

    Ah au fait : pour vous éviter un lien vers YouTube, j’ai utilisé une instance d’invidious qui agit comme un proxy (en gros, un intermédiaire qui soustrait la pollution visuelle et prédatrice de YouTube). Si celle que j’ai choisie ne fonctionne pas, essayez une autre instance fonctionnelle en piochant dans cette liste mise à jour régulièrement.

     

    article original : Dark Side of the Rainbow : Pink Floyd Meets The Wizard of Oz in One of the Earliest Mash-Ups

    Traduction : Goofy

     

    Dark Side of the Rainbow : Pink Floyd rencontre le Magicien d’Oz dans l’un des plus anciens mashups.

    par Colin Marshall


    Mec, je suis sérieux… tu mets le Magicien d’Oz, tu mets Dark Side of the Moon, et tu les démarres en même temps. Ça marche à fond. C’est trooop synchroooone ! Ça te retourne la tête, mec.

    On peut se moquer gentiment de ceux qui considèrent que c’est un moyen génial d’entrer dans leur trip préféré, si l’on peut dire, et chercher des résonances entre une comédie musicale de la MGM de 1939 et le huitième album de Pink Floyd, mais on ne peut nier que le mashup Dark Side of the Rainbow, comme ils l’appellent (quand ils ne l’appellent pas Dark Side of Oz ou The Wizard of Floyd), est devenu un phénomène culturel certes modeste, mais sérieux. En réalité, comme l’enthousiasme pour lancer Dark Side of the Moon en regardant Le Magicien d’Oz remonte au moins aussi loin que les discussions sur Usenet (lien) au milieu des années 90, il se pourrait bien que ce soit le premier mash-up sur Internet. Depuis, la rumeur selon laquelle l’expérience de visionnage était étrange s’est répandue bien au-delà des profondeurs de l’underground ; même une institution aussi ostensiblement stricte que la chaîne câblée Turner Classic Movies a déjà diffusé Le Magicien d’Oz avec Dark Side of the Moon comme bande-son.Il est clair que les gens trouvent leur compte dans ce « collage » audiovisuel, quel que soit leur état d’esprit. Au minimum, ils s’amusent des coïncidences entre les sons et thèmes lyriques de l’album et les séquences du film. Dark-side-of-the-rainbow.com proposait (NdT sur un site aujourd’hui disparu) une liste très complète de ces intersections, dès le battement de cœur en fondu enchaîné qui ouvre l’album jusqu’à l’apparition du titre du film :

    Dans ce concept album nous avons [symboliquement] le début de la vie humaine. De nombreux parents commencent à donner un nom à leur enfant dès qu’ils en connaissent l’existence, souvent avant même de connaître le sexe de l’enfant. Ici, nous avons le nom d’un film, qui se trouve être le nom d’un des personnages du film, juste au moment où nous prenons conscience de cette nouvelle vie.

    Pour les paroles qui accompagnent l’entrée de Dorothy à Munchkinland :

    « Trouve un travail mieux payé et tout ira bien » : Dorothy ne le sait pas encore, mais elle est sur le point de passer du statut de fermière à celui de tueuse de méchantes sorcières.

    Pour le battement de cœur qui clôt l’album, alors que l’homme en fer blanc reçoit un cœur à lui :

    Dans le concept album, ce battement de cœur qui s’éteint représente la mort. Le nouveau cœur de l’homme de fer blanc, que l’on peut entendre battre, symbolise la renaissance. Une fois de plus, ce contraste entre ce que nous voyons dans le film et ce que nous entendons dans l’album vise à créer un équilibre. Et comme c’est ainsi que se termine l’histoire, cet équilibre montre comment, à la fin, le conte de fées a effectivement surmonté la tragédie.

    Les Pink Floyd eux-mêmes ont désavoué toute intention de composition délibérément synchrone (Alan Parsons, qui a réalisé l’enregistrement, qualifie même l’idée de « foutage de gueule »), et même les plus fervents amateurs de Dark Side of the Rainbow ont peu de doutes à ce sujet. Certains diront que le groupe, déjà adepte de la composition de musiques de films, a fait tout cela inconsciemment, mais pour moi, la popularité durable de ce premier mashup est la preuve de quelque chose de bien plus intéressant : la tendance ininterrompue de l’humanité – voire sa compulsion – à trouver des modèles là où il n’y en a peut-être pas.

    « Lorsque les coïncidences s’accumulent de la sorte, on ne peut s’empêcher d’être impressionné par elles, car plus le nombre d’éléments d’une telle série est élevé, ou plus son caractère est inhabituel, plus cela devient invraisemblable. »

    Voilà ce que Carl Jung a écrit à propos du concept psychologique de synchronicité.

    Dommage qu’il n’ait pas assez vécu pour voir ça.

    Autres ressources sur le même sujet

    Colin Marshall anime et produit Notebook on Cities and Culture et écrit des essais sur la littérature, le cinéma, les villes, l’Asie et l’esthétique. Sur Twitter, c’est @colinmarshall.


    Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)


     

    ❌
    ❌