Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

L’aventure de la modération – épisode 4

12 janvier 2023 à 04:34

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le quatrième.

Alors maintenant que je vous ai dit tout ça, faisons un petit bilan des avantages et surtout des limites de ce système !

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.

My Neighbor Mastodon – CC-BY David Revoy

Les avantages

Je vais être courte parce que mon point n’est pas ici d’encenser Mastodon, donc je ne creuserai pas trop les avantages. Cependant je ne peux pas m’empêcher de remettre en avant deux points majeurs :

Indéniablement, on bloque très vite les fachos. C’est quand même, à mon avis, le grand intérêt, qui n’est pas assez connu au-delà de Mastodon. De ce fait nous avons une exigence collective très faible par rapport à la modération : quand Twitter annonce qu’il ne peut pas faire mieux, on le croit sur parole alors qu’une alternative sans moyens d’envergure y arrive… Journalistes spécialisés si vous lisez ce message !

 

Ensuite, le fonctionnement est beaucoup plus démocratique car : ce sont des humains que vous choisissez qui font la modération. Et ça, ça change beaucoup de choses. Déjà parce qu’on est dans un fonctionnement beaucoup plus… artisanal de la modération, donc potentiellement avec plus de proximité, dans l’idéal on peut discuter / appeler à l’aide ses modérateurices… et même selon les endroits, proposer de participer à la modération et ça, ça compte pour se rendre compte du boulot que c’est, et participer aux décisions importantes !

 

Les limites

 

Comme rien n’est parfait, et que nous sommes sur une alternative qui évolue tout le temps, quelques points qui restent des limites malgré le modèle anti-capitaliste de Mastodon.

 

Temps de traitement d’un signalement

 

Il y a un difficile équilibre entre le temps de traitement d’un signalement et le temps d’entendre plusieurs avis du collectif de modération. Je pense qu’il est sain de prendre le temps, mais il y a des situations où l’un·e des modérateurices peut considérer qu’il y a « urgence » et dans ce cas, attendre 48h c’est beaucoup (pour protéger une personne par exemple). C’est un point que nous n’avons pas encore creusé à Framasoft (comment gérer le dilemme rapidité d’action vs. disponibilité du collectif), mais que je me note de rajouter en discussion pour nos prochaines retrouvailles !

 

Encore une fois je parle là des cas difficiles à départager. Si il s’agit de pédopornographie, les salariés de Framasoft sont déjà habitués à devoir réagir rapidement pour supprimer le contenu, donc je ne traite pas ce sujet ici car il n’est pas spécifique.

 

Beaucoup d’utilisateurices, beaucoup de problèmes

Framasoft est une association très connue, et nos utilisateurices nous choisissent souvent car iels ont confiance en nous (merci !).

Mais cela entraine une responsabilité compliquée à gérer : plus de monde chez nous, ça nous fait plus de travail, de modération notamment.

 

Aussi, dans un cadre plus large qui était celui de la déframasoftisation d’Internet, nous avons fermé les inscriptions, ce qui nous a permis d’alléger la charge de notre coté.

 

Et comme tous les Mastodon sont interconnectés, il est possible d’aller s’inscrire ailleurs pour suivre ce qui se passe chez nous, donc c’est un fonctionnement technique qui nous permet de mieux vivre le travail de modération… youpi !

 

Éviter la « spécialisation » des modérateurices

 

Lors de la mise en place d’une équipe de modération à Framasoft, il a fallu faire un petit temps de formation-découverte à l’interface de modération de Mastodon.

 

Or on a vu apparaitre assez rapidement une « spécialisation » entre celleux qui « savaient » utiliser l’interface, et celleux qui n’osaient pas car ne « savaient pas » l’utiliser.

 

Pourtant il y a beaucoup de valeur à ce que la connaissance autour des outils circule auprès de tou·tes celleux que cela peut intéresser :
— Pour qu’il y ait de plus en plus de modérateurices, ce qui répartit le temps dédié à la modération,
— Pour que la discussion soit ouverte à des personnes qui n’ont pas la tête plongée dans la modération, ça permet d’entendre d’autres paroles, c’est appréciable.

 

Pour résoudre ce problème, nous avons organisé des visios de modération !

C’est une pratique que nous avons dans ma coopérative : faire des tâches chiantes, c’est quand même bien plus sympa ensemble !

Alors quand l’un de nous disait « bon, là, il y a quand même beaucoup de signalements qui s’accumulent » je répondais parfois « ça vous dit on fait une visio pour les traiter ensemble ? ! »

 

Nous n’avions pas besoin d’être beaucoup, à 2, 3 ou 4 c’était déjà bien plus sympa, même les contenus agressifs sont plus faciles à traiter quand les copains sont là pour faire des blagues ou râler avec toi ! Nous lancions un partage d’écran, idéalement d’une personne pas hyper à l’aise pour l’accompagner, et nous traitions les signalements.

 

Autre effet bénéfique : la boucle de « je demande leur avis aux copaines, j’attends, je traite le signalement » est raccourcie car nous pouvons collectivement débattre en direct du problème. C’est vraiment une façon très sympa de faire de la modération !

 

Les « On va voir » et autres « On peut pas savoir »

 

Enfin, si tout cela est possible actuellement, une part de moi me demande si ce n’est pas dû au fait que Mastodon passe encore « sous les radars ».

C’est un sentiment que j’ai tendance à minimiser vu que cela ne nous a pas empêché d’avoir des hordes de comptes d’extrêmes droites qui se ramenaient. Donc une part de moi pense que le réseau (qui a déjà six ans donc on est loin du petit truc tout nouveau qui a six mois) a un fonctionnement déjà résilient.

Et une autre partie de moi sait qu’elle n’est pas voyante, donc on verra bien dans le futur !

 

Par contre je voudrais insister sur le fait qu’on ne peut pas savoir. Tous les articles qui vous expliqueront que Mastodon ne peut pas fonctionner parce que « intégrer un argument d’autorité sur le fait que ce n’est pas assez gros » ne sont pas mieux au courant que les utilisateurices et administrateurices depuis des années. Et je n’ai pour l’instant vu aucun argument pertinent qui aurait tendance à montrer que le réseau et ses modérateurices ne peut pas supporter une taille critique.

 

Comme d’hab, le secret : il faut prendre soin

 

Cette conclusion ne va étonner personne : La solution pour une bonne modération, c’est de prendre soin.

 

Prendre soin des utilisateurices en n’encourageant pas les discours haineux (techniquement et socialement), en ne les propageant pas (techniquement et socialement).

 

Prendre soin des structures qui proposent des petits bouts de réseaux en leur évitant d’avoir trop de pouvoir et donc trop de responsabilités sur les épaules (et trop de coûts).

 

Prendre soin des modérateurices en les soutenant via un collectif aimant et disponible pour leur faire des chocolats chauds et des câlins.

Cher·e modérateurice qui me lis, tu fais un boulot pas facile, et grâce à toi le réseau est plus beau chaque jour. Merci pour ton travail, j’espère que tu as un collectif qui te soutiens, et que se soit le cas ou non, pense à avoir sous la main le numéro d’un·e psychologue, au cas où un jour tu tombes sur quelque chose de vraiment difficile pour toi/vous.

 

Cœur sur vous <3

 

Et pour finir ?

Je n’ai pas pu m’empêcher de conclure avec un billet dédié au contraste entre mon expérience de la modération et ce qui se passe sur Twitter. La semaine prochaine paraîtra donc un billet spécialement dédié à l’oiseau bleu : et Twitter alors ?

L’aventure de la modération – épisode 5 (et dernier ?)

19 janvier 2023 à 02:36

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le cinquième. Le dernier, pour l’instant.

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération
– Chapitre 4 : Bilan

 

Pour conclure cette série de textes sur la modération, et maintenant que j’ai grandement détaillé comment il est possible, sur Mastodon, d’avoir une modération qui fait le taf, je voulais revenir sur pourquoi, à mon avis, il est impossible pour les grandes entreprises capitalistes de faire correctement de la modération (et pourquoi ça ne sert à rien de leur demander de faire mieux !).

 

C’est le cœur de cette série car je suis très frustrée de voir systématiquement une bonne analyse faite sur les problèmes des outils, qui se casse la figure au moment d’évoquer les solutions. Alors c’est parti !

 

N.B. : je fais cette analyse sans considérer qui est le PDG au moment où je publie car je pense que ça ne change pas grand chose sur le fond, au pire le nouveau sera plus transparent sur sa (non-)politique de modération.

 

Twitter ne fera pas mieux car…

Twitter ne veut pas dépenser d’argent pour construire des équipes de modération

 

Vous le savez sans doute, c’est passé dans de nombreux articles comme celui de Numérama : Twitter assume n’avoir quasiment pas de modérateurs humains

Twitter emploie 1 867 modérateurs dans le monde.

 

Pour 400 millions d’utilisateurices, ça fait 1 modérateurice pour 200 000 comptes. Donc évidemment la modération ne peut pas être suffisante et encore, on ne sait pas comment les effectifs de modération sont répartis selon les langues. Il est évident qu’il est extrêmement difficile de modérer, alors modérer dans une langue qu’on ne maitrise pas c’est mission impossible !

 

Je rajoute rapidement qu’en plus, contrairement à ce que j’évoquais dans mes articles précédents sur « comment prendre soin » et construire un collectif de modération, il n’y a absolument aucune notion de soin et de collectif lorsque l’on est modérateurice chez Twitter. Il y a au contraire des conditions de travail délétères qui amplifient le problème : interdiction de parler à ses collègues, de raconter à l’extérieur ce à quoi on a été confronté, pression temporelle intense donc pas possible de récupérer après un moment violent.

 

Bref, Twitter veut économiser de l’argent, et le fait notamment sur le dos de ses modérateurices qui sont envoyées au massacre psychologique de la modération, et donc au détriment de ses utilisateurices les plus fragiles.

 

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.

My Neighbor Mastodon – CC-BY David Revoy

Twitter préfère les robots

Face aux critiques qui lui sont faites, Twitter répond qu’il compte sur l’automatisation des robots pour faire ce travail pénible.

Je pense que cette posture ne tient pas pour plusieurs raisons :
1. C’est technosolutionniste que de penser que des robots peuvent répondre à un problème social (et donc à mon avis voué à l’échec).

2. Les robots sont alimentés par ce que nous leur donnons, et donc remplis de biais qu’ils vont répercuter dans leur politique de modération. Dans un collectif de modérateurices, ces biais sont atténués par les débats et discussions. Je ne crois pas que les robots soient très portés sur la discussion de ce qui est juste ou non.

3. Le contexte est primordial en modération, et un robot ne peut pas être assez « intelligent » pour comprendre ce contexte. Pour exactement le même contenu, selon d’où parle la personne, la réponse de modération ne sera pas la même. Vous imaginez bien qu’entre une femme qui dit subir du sexisme ou un homme, on n’est pas sur la même action à réaliser, l’une subit une oppression systémique tandis que l’autre récupère maladroitement ou stratégiquement un mot en le détournant.

 

Les robots ne sont donc pas une solution sur laquelle on peut compter, mais sont une bonne façon de détourner la discussion du sujet « Pourquoi n’avez-vous pas plus de modérateurices ? ». Il vaut mieux répondre « Le boulot est trop ingrat, on préfère que se soit des robots, on les améliore chaque jour » plutôt que « on ne veut pas mettre d’argent à payer des modérateurices et puis quoi encore ? ». (Quoique en ce moment, il y a une bonne clarification des postes considérés comme utiles chez Twitter, et la modération n’en fait pas partie !).

 

On pourra me dire : « oui mais un robot, c’est fiable car ça prend toujours les mêmes décisions ! »

Et c’est peut-être vrai, mais pourquoi avons-nous besoin d’une modération qui ne bouge pas dans le temps ? Comment s’améliorer, comment faire évoluer nos pratiques si toute la connaissance est refilée aux robots ?

 

Nous avons besoin de remettre de l’humain dans nos médias sociaux, et déléguer aux robots ne fait que contourner le problème.

 

Twitter a besoin que les gens soient blessés

 

Enfin, de par le fonctionnement même de Twitter, le réseau social a besoin pour son modèle économique de gens qui souffrent, qui sont malheureux, blessés, en colère, pour gagner plus d’argent.

 

C’est le principe de l’économie de l’attention : plus vous restez sur un média social, plus vous partagez vos données, regardez des pubs, interagissez et faites rester les autres.

 

Et pour vous faire rester, rien de tel que de vous confronter à ce qui vous énerve, ce qui vous fait vous sentir mal, ce qui vous fait réagir.

 

Pour cela, les comptes d’extrême-droite sont de l’or en barre : ils passent leur temps à dire des saloperies, et à un moment l’une d’elle va forcément vous toucher plus particulièrement qu’une autre, soit parce que vous êtes concerné·e, soit parce que quelqu’un de votre entourage l’est.

 

Ensuite on cite le tweet concerné en disant qu’il faut surtout pas écouter ce genre de personne, on déconstruit l’argumentaire en un fil de huit tweets, tout cela augmente la visibilité du contenu initial et donc d’idées d’extrême-droite, personne n’a changé d’avis à la fin mais vous vous sentez sans doute encore moins bien qu’au début, ou plus énervé·e… et chouette pour Twitter, parce qu’être en colère ou triste ça rend davantage sensible à la publicité.

 

Vous l’aurez compris, il y a donc par nature un problème de fond : si Twitter vire tous les comptes d’extrême-droite, son chiffre d’affaire va chuter. Alors il peut promettre la main sur le cœur qu’il compte le faire, les yeux dans les yeux, et vous avez le droit de le croire.

 

Pour moi les résultats sont là, rien ne se passe, et il n’y a pas de raison que ça s’arrange avec le temps (au contraire !).

 

Oui mais… et la violence à laquelle sont soumis les modérateurices dans tout ça ?

 

Les entreprises capitalistes du numérique entretiennent savamment la croyance que puisqu’il y a de la violence dans le monde, il n’y a rien à faire, quelqu’un doit bien se farcir le taf ingrat de subir cette violence transposée sur les réseaux sociaux, et ces personnes, ce sont les modérateurices.

 

Je ne suis pas d’accord.

 

Je pense que nous pouvons collectivement améliorer de beaucoup la situation en priorisant des technologies qui prennent soin des humains, et qu’il est immoral de perpétuellement déléguer le travail de soin (des enfants, de la maison, des espaces en ligne) à des personnes qui sont toujours plus mal payées, plus précaires, plus minorées, à l’autre bout du monde…

 

Nous pouvons avoir des réseaux qui fonctionnent correctement, mes articles sur Mastodon en font l’exemple.

 

Est-ce que c’est parfait ? Non, mais au moins, la modération est gérée à petite échelle, sans la déléguer à des personnes inconnues qu’on rémunère de façon honteuse pour faire le « sale travail » en leur détruisant la santé.

 

Et si à terme Mastodon grossit tellement qu’il sera soumis aux contenus les plus atroces, et que cela rendra la modération impossible ou complètement délétère pour les modérateurices, eh bien il sera temps de l’améliorer ou de tout fermer. Parce que nous pouvons aussi faire le choix de ne pas utiliser un outil qui abime certain·es d’entre nous plutôt que de fermer les yeux sur cette violence.

 

Peut-être que le fonctionnement fondamental des réseaux sociaux a finalement des effets délétères intrinsèques, mais pourquoi se limiter à ça ? Pourquoi ne pas discuter collectivement de comment faire mieux ?

 

Et sur un autre registre, il est aussi possible de mettre de l’énergie en dehors de la technologie, sur un retour à plus de démocratie, plus de débat apaisé. Parce que peut-être que si chacun·e retrouve une confiance sur le fait que son avis et ses besoins seront entendus, il sera possible de retrouver collectivement plus de sérénité, et cela se ressentira sûrement dans nos interactions numériques.

 

Un autre monde (numérique) est possible, il nous reste à le construire, pour contribuer à une société empreinte de justice sociale où le numérique permet aux humain·es de s’émanciper, à contre-courant des imaginaires du capitalisme (de surveillance).

 

« Mastodon, c’est chouette » sur Grise Bouille, par @gee@framapiaf.org
https://grisebouille.net/mastodon-cest-chouette

La dégooglisation du GRAP, partie 1 : La sortie de Google Drive

Par : Framasoft
9 février 2023 à 04:06

A l’été 2020, nous avons commencé à publier une série d’articles faisant le récit de démarches de transitions numériques éthiques réalisées au sein de plusieurs organisations. Nous avons mené les interviews de 3 structures (WebAssoc, l’Atelier du Chat Perché et la maison d’édition Pourpenser) et puis… ça s’est arrêté. Il y avait sûrement quelque chose de plus urgent à faire ensuite… ou peut-être que le second confinement fin 2020 nous a démotivé. Peu importe la raison en fait, l’important est qu’on s’y remette !

On a donc sauté sur l’occasion lorsque le GRAP (Groupement Régional Alimentaire de Proximité), une coopérative réunissant des activités de transformation et de distribution dans l’alimentation bio-locale, a publié le récit de sa dégooglisation. Nous reproduisons ici ce long texte en trois parties pour vous partager leur expérience.

 

De 2018 à cette fin 2022, nous avons travaillé à Grap à notre dégooglisation. Nous vous proposons ce long texte en trois parties pour vous partager notre expérience.

Son premier intérêt est de laisser une trace du travail fourni et d’en faire le bilan.
Le deuxième intérêt est de partager cette expérience à d’autres structures qui souhaiteraient se lancer dans l’aventure.

Nous partageons dans ce texte les processus mis en place, les différentes étapes de cette dégooglisation, les difficultés rencontrées et quelques conseils.

Pour toute question ou retour, vous pouvez contacter le pôle informatique de Grap : pole-informatique <arobase> grap.coop

Bonne lecture et longue vie aux outils numériques émancipateurs et Libres !  🚲

Au début de Grap en 2012…

Il y a 10 ans, Grap naissait en tant que SCIC – Société Coopérative d’Intérêt Collectif. En 2012 est écrite une 1ère version du préambule des statuts qui décrit l’intérêt collectif qui réunit les associé·e·s de la SCIC. Ce préambule présentait alors que Grap aller « Contribuer au développement d’activités économiques citoyennes et démocratiques, c’est-à-dire […] travaillant dans une logique de partage des savoirs, en phase avec la philosophie Creative Commons ».

Cette 1ère référence au monde du Libre est complétée et enrichie 5 ans plus tard à l’occasion d’une révision du préambule des statuts, en 2017. Désormais le préambule des statuts indique que Grap entend :

Contribuer au développement d’activités économiques citoyennes et démocratiques […] promouvant l’économie des biens communs, c’est à dire :

  • Travailler dans une logique de partage des savoirs, en phase avec la philosophie Creative Commons
  • Promouvoir, contribuer et utiliser des logiciels libres au sens de la Free Software Foundation ; minimiser l’utilisation de logiciels sous licences privatives
  • Promouvoir, contribuer et utiliser des solutions informatiques qui n’exploitent pas de façons commerciales les données des utilisateurs et qui respectent leurs vies privées

Notre démarche de dégooglisation s’inscrit donc dans la continuité des choix politiques portés par les associé·e·s de la coopérative depuis sa création. Par dégooglisation, nous entendons ici le remplacement des logiciels propriétaires – qu’ils soient détenus par les GAFAM ou non – par des logiciels Libres.

Dès le début, il est décidé d’internaliser une partie de l’informatique au sein de l’équipe qui rend les services aux activités de la coopérative. [À Grap, nous utilisons le terme d’activité pour désigner les entreprises associées à Grap et les activités économiques de la Coopérative d’Activités et d’Emploi]. La majorité du temps informatique sera dédié au développement du progiciel libre OpenERP (nommé désormais Odoo) pour gérer la première activité d’épicerie (3 P’tits Pois à Lyon) de la coopérative.

Par pragmatisme économique et choix stratégique, les autres outils de la coopérative ne sont pas choisis par le critère de logiciel Libre ou non. Ainsi, la coopérative va utiliser Google Drive, Google Mail, Google Agenda, et aussi d’autres logiciels spécifiques comme EBP pour la compta ou Cegid Quadra pour la paie.

2018-2020/ Sortir de Google Drive pour Nextcloud

Après le départ d’un des cofondateurs et d’un informaticien en 2014, le service informatique va fonctionner avec 1 seule personne jusqu’à fin 2017. Sylvain Le Gal va alors consolider le périmètre existant (gestion d’une eBoutique, développements spécifiques à l’alimentaire dans OpenERP, connexion avec des balances client·es et migration de OpenERP 7.0 à Odoo 8.0).

Fin 2017, l’embauche de Quentin Dupont permet de gagner en temps de travail disponible et d’agrandir le périmètre des services du pôle informatique.

🌻 L’été 2018 pour valider l’alternative à Google Drive

Le choix du logiciel remplaçant se fait très facilement : Nextcloud est LA solution Libre qui s’impose autant par sa prise en main relativement simple pour des utilisateur·ices de tout niveau, que par l’engouement de sa communauté et son administration alors maîtrisée par le pôle informatique.

Il faut quand même s’assurer que toutes les fonctionnalités utilisées actuellement trouvent leur équivalent. Grâce aux différentes applications existantes sur Nextcloud, les différents besoins se retrouvent bien couverts.

🌸 À l’automne 2018, on prend la décision de sortir de Google Drive

Un changement de logiciel peut être l’occasion de revoir ses pratiques. Nous en profitons pour revoir notre arborescence de fichiers et de dossiers. Nous créons alors :

  • Un compte Nextcloud par :
    • personne physique de l’équipe interne
    • personne physique des activités qui ont des mandats particuliers (administrateur·ice au CA par exemple)
    • activité de la coopérative (donc par « personne morale ») et non pas par personne physique de la coopérative pour différentes raisons :
        • de nombreuses activités partagent réellement leurs ordinateurs tout au long de la journée
        • aucun intérêt à ce que chaque personne ait son compte, cela rajouterait une dose énorme de suivi de création de compte, de support, etc.
        • ce choix vient avec une limite : l’accès aux documents personnels avec le pôle social n’est pas possible
  • Un « groupe » Nextcloud pour chaque groupe autonome
    • un groupe par pôle de l’équipe interne
    • un groupe par mandat : DG, CA
    • un groupe par activité de la coopérative – regroupant le compte de la personne morale + les comptes des personnes physiques de cette activité qui ont des mandats particuliers.
  • Des dossiers communs pour travailler collaborativement
    • entre pôles de l’équipe
    • entre membres de la coopérative
    • entre mandataires (DG ou CA)
structure des dossiers NC au GRAP

La structure de dossiers présentée en nov. 2018 et qui est en place depuis.

Avec Nextcloud, nous avons donc pu créer une architecture plutôt simple pour les utilisateur·ices mais permettant de répondre aux complexités du travail collaboratif entre des profils bien différents.

Grâce aux droits d’accès paramétrables finement, le Nextcloud permet ainsi d’offrir plus de transparence et de collaboration dans la coopérative, que ce soit par les dossiers partagés totalement ou, à l’inverse, les dossiers dont l’accès n’est possible qu’en lecture sans possibilité de modifier.

💮 2019 – 2020 : la dégooglisation de 150 personnes dans 50 activités

Google Drive n’est pas seulement utilisé par l’équipe interne. L’outil est partagé à l’ensemble de la coopérative. C’est à dire à une cinquantaine – à l’époque – d’activités indépendantes, allant de l’entrepreneuse seule à la petite équipe de 10 personnes.

Il faut donc embarquer tout le monde dans ce changement.

  • Politiquement/théoriquement pas de soucis. Les méfaits de Google sont connus de la majorité des gens et théoriquement, nous n’avons jamais eu de désaccords sur l’idée de sortir de Google Drive.
  • En pratique, Google Drive s’avère être plutôt lourd à l’utilisation, pas bien maîtrisé ni maîtrisable, surtout concernant la gestion des partages qui est un véritable enfer (« Qui est le fichu propriétaire de ce fichier dont le propriétaire originel est parti de la structure / n’a plus de compte Google ? »).

En allant sur Nextcloud, nous allions maîtriser – et donc être responsables – des données de la coopérative, nous allions retrouver de la souveraineté et de la compétence sur le sujet.

Au printemps 2019, nous changeons aussi d’outil de documentation. Pour sa simplicité d’utilisation et son ergonomie générale, nous choisissons le logiciel Libre BookstackApp. Depuis, notre librairie tourne toujours aussi bien et héberge notre documentation informatique mais aussi toute la documentation stable de la coopérative.

Depuis 2020, la documentation informatique est librement consultable ici : https://librairie.grap.coop/shelves/informatique

💩 Une première difficulté : l’export des données de Google

L’export fut en effet très compliqué, trop compliqué pour un logiciel conçu par l’une des entreprises les plus puissantes au monde. L’export des données d’un Google Drive (à l’époque en tout cas) est extrêmement long et très peu sécurisant : Google fournit l’export en archives coupées en plusieurs parties (du style « ARCHIVE-PART01 » « ARCHIVE-PART02 »), archives dont une partie… pouvait être manquante (ex : on a la partie 01, 02, 04, 05 mais pas la partie 03), nécessitant de refaire un export entier.

Nous avons donc passé de nombreuses heures à exporter les données, puis nous les avons sécurisées sur un disque dur externe, avant de les envoyer sur notre Nextcloud.

🚀 Et tu formes formes formes, c’est ta façon d’aimer

Pour réussir à dégoogliser la coopérative, pas de miracle, on a enchaîné la formation des activités une à une, en mutualisant des formations par territoire géographique.

Chaque formation durait environ 1h30. En 2019, nous avons passé environ 150 heures de travail à la formation, l’accompagnement et la documentation de cette étape de dégooglisation (+ les heures techniques, voir bilan financier à la fin de ce récit). L’ensemble de la documentation – qui est un travail continu – est consultable ici : https://librairie.grap.coop/books/nextcloud

En janvier 2020, soit plus d’un an après la décision de passer sur Nextcloud, la migration était officiellement finie ! 🎉

🙊 Une difficulté pas anticipée : les limitations d’Onlyoffice pour les commandes groupées

Tout allait bien dans la dégooglisation progressive de la coopérative. Au cours de l’année 2019, la moitié de la coopérative utilise désormais Nextcloud au lieu de Google Drive !

Un des avantages de la coopérative pour les activités est de pouvoir mutualiser de nombreux sujets. Un de ces sujets est l’approvisionnement en produits artisanaux en circuits courts grâce à une logistique interne – Coolivri. Cette logistique s’appuyait à l’époque sur un GROS fichier tableur en ligne sur Google Drive.

Le 2 août 2019, une première commande groupée d’oranges et d’agrumes est lancée sur le Nextcloud et toutes les prochaines commandes groupées vont débarquer sur le Nextcloud, géré par l’application Onlyoffice.

Et c’est vers cette période que l’on se rend compte que l’application disponible d’Onlyoffice a une limitation : pas plus de 20 personnes connectées simultanément sur l’ensemble des fichiers collaboratifs du nuage ! À l’époque nous devions avoir une soixantaine d’utilisateur·ices et une équipe interne qui l’utilise toute la journée : ce n’était pas tenable.

mème limitations OnlyOffice

Cette limitation n’est pas technique, mais bien un choix délibéré de l’entreprise développant le logiciel pour amener à payer une licence permettant d’accéder au logiciel sans limitation. Un modèle freemium en soi. Cette question du modèle économique et de ce qu’est un « vrai » logiciel libre est bien sûr compliqué, et amènera de nombreux débats dans les forums de discussion de Nextcloud.

Fin 2019, nous nous questionnons réellement sur le fait de payer cette licence (coût à l’époque : ~1500€ en une fois pour 100 utilisateur·ices simultanées).

Après avoir écumé les Internets, contacté toutes les structures amies qui auraient la même problématique, la solution vient finalement de la communauté elle-même qui est partagée sur le fait de contourner cette limitation qui constitue le modèle économique de l’entreprise développant Onlyoffice. Un développeur bénévole a réussi à reproduire le logiciel (légalement car le logiciel est Libre) en enlevant cette limitation !

Depuis, nos commandes groupées ont été rapatriées sur Odoo grâce à un gros développement interne, en faisant un outil beaucoup plus résilient et solide. Et nous continuons d’utiliser Onlyoffice dans des versions communautaires trouvées par ci par là.

Google en 2022 s’inquiète 😉

To be continued…

Dans la seconde partie, nous continuerons notre récit de dégooglisation, nous permettant de nous débarrasser de Google Agenda puis du mastodonte.. Gmail !

Si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !

La dégooglisation du GRAP, partie 2 : Au revoir Google Agenda et Gmail

Par : Framasoft
15 février 2023 à 05:30

On vous a partagé la semaine dernière la première partie de la démarche de dégooglisation du GRAP qui vous invitait à découvrir comment iels avaient réussi à sortir de Google Drive. Voici donc la suite (mais pas la fin) de ce récit de dégooglisation qui nous permet de prendre conscience que ce n’est toujours facile de sortir des griffes de ces géants de la tech. Bonne lecture !

Dans l’épisode précédent…

En janvier 2020, après plus d’un an à avoir pris la décision de passer sur Nextcloud en remplacement de Google Drive, la migration était officiellement finie ! Mais voilà, nous passions encore pas mal de temps à ouvrir un onglet Google pour consulter nos agendas, ainsi que nos mails pour les personnes utilisant Gmail en ligne.

/2021/ Fini Google Agenda, go Nextcloud Agenda

Fin septembre 2020, nous décidons collectivement de passer sur l’agenda Nextcloud. Nous nous laissons 3 mois pour commencer l’année 2021 sur le nouvel outil. Quelques personnes (notamment le pôle informatique) vont alors tester en conditions réelles Nextcloud Agenda.

Le challenge est sympa car nous décidons de faire ça en pleine migration d’Odoo de version 8 à la version 12, qui est le résultat de pas moins de 1000 heures de temps de travail et 294 tests de non régression.

L’export de données de Google Agenda se passe relativement bien, et l’import sur Nextcloud Agenda aussi. Les seuls soucis viennent de soucis d’exportation d’évènements récurrents du côté Google. On demande alors de recréer ces évènements du côté de Nextcloud Agenda.

Début 2021, la migration n’est pas possible pour trop de monde dans l’équipe : nous décidons de nous donner du mou et de fixer une date de bascule au 29 mars 2021 après que certains temps collectifs soient passés (l’assemblée générale notamment).

Une procédure est écrite pour que chaque personne s’autonomise dans sa migration, mais la majorité de la migration se fait collectivement à la date choisie du 29 mars :

  • export de l’agenda Google
  • import dans l’agenda Nextcloud
  • partage de son agenda au reste de l’équipe
  • (optionnel) synchronisation de l’agenda avec Thunderbird
  • création des agendas partagés pour les salles de réunion

Tout est documenté ici : https://librairie.grap.coop/books/nextcloud/page/agenda-nextcloud

Depuis avril 2021, nous sommes donc officiellement toustes sur Nextcloud Agenda.

L’application reçoit régulièrement des mises à jour porteuses de fonctionnalités bien chouettes (corbeille, recherche d’évènements, recherche d’un créneau de disponibilité), ou de corrections de bugs.

/2021-22/ La transformation complète : sortir de Gmail

Nous voilà arrivé·es à la dernière étape qui nous permet de sortir des outils Google pour l’équipage (nouveau nom de l’équipe interne). La plus dure. Même si cette étape ne concerne « que » les membres de l’équipage, cette transformation fut la plus longue à mener.

Pourquoi ? Parce que :

  • le mail est l’outil principal de la majorité des salarié·es de l’équipe qui l’utilisent toute la journée
  • Gmail est très performant, notamment dans la recherche de mail
  • certain·es personnes ont jusqu’à 10 ans d’habitudes de travail avec Gmail

D’ailleurs, on l’a constaté empiriquement, les personnes les plus anciennes de Grap furent les personnes les plus compliquées à faire transiter. Autant du point de vue technique (transférer 10 ans de mail est forcement plus compliqué que pour une personne arrivée récemment) que des habitudes prises sur le logiciel.

Conseil n°1 : plus on s’y prend tôt à se dégoogliser, moins ça sera compliqué dans la conduite du changement de logiciel.

🌱 Été 2021 – Trouver la solution technique remplaçante

Gandi pour la gestion de l’hébergement de mail

Nous travaillons avec Gandi pour la majorité des activités de Grap afin de gérer leur nom de domaine et leurs mails. Pourquoi Gandi ?

  • Gandi est engagé depuis longtemps dans le respect de la vie privée
  • Gandi est une entreprise qui roule à priori bien sur laquelle on peut compter sur la durée
  • Gandi a un support de qualité qui répond rapidement à toutes nos demandes (et ce fut bien utile lors des moments de doute technique pour cette dégooglisation)
  • Gandi est une entreprise française qui paye à priori ses impôts en France  😉

Thunderbird comme logiciel bureau

Thunderbird va être notre pierre angulaire pour cette dé-gmail-isation. Autant pour permettre le transfert des mails de Google à Gandi, que pour travailler ses mails pour la suite. Ce fut une évidence de partir sur Thunderbird au début.

  • Ce logiciel libre est complet. Peut-être même trop complet, ce qui rend son ergonomie critiquable.
  • Ce logiciel est aussi assez ancien, ce qui lui donne une bonne robustesse. Peut-être trop ancien, ce qui rend son ergonomie critiquable  😉
  • Ce logiciel a une communauté importante qui développe de très nombreux modules complémentaires (à voir ici) qui viennent se greffer à Thunderbird pour apporter une myriade de possibilités.

Quelques mois plus tard, après la prise en main de certain·es utilisateur·ices, et de leur critique légitime, on s’est senti obligé de réaliser un banc d’essai (benchmark), qui validera définitivement ce choix.

Le benchmark pour choisir notre logiciel de bureau pour la gestion des emails

Les critères suivants ont été retenus :

  • logiciel libre
  • fonctionne sur Linux Ubuntu et Windows
  • communauté vivante et grande
  • modèle économique viable
  • installation simple
  • rempli les fonctionnalités de base demandées par les collègues (voir plus tard dans le texte)

🌿 Automne 2021 – Identifier les besoins et fonctionnalités utilisées

Pour être certain de pouvoir sortir de Google, il faut s’assurer que les collègues vont retrouver leurs petits, ou que l’on assume collectivement que l’on perdra des usages / fonctionnalités en passant sur Thunderbird.

Pour cela, nous envoyons un sondage qui nous permet d’y voir plus clair sur les fonctionnalités utilisées par l’équipe pour ajuster nos formations, documentations et recherches de modules complémentaires dans Thunderbird.

Réponse à la question « Quelles fonctionnalités mail utilises-tu actuellement ? »

 

Réponse à la question « Quelles fonctionnalités mail AIMERAIS-tu découvrir ou utiliser ? »

Sur la question « Sur une échelle de 0 à 6, est-ce que tu souhaites être précurseur·se de ce changement ? (0 : non / 6 : trop chaud·e)« , la moyenne et la médiane est à 3,5. Les gens sont donc.. moyennent chaud·es en général !

⚠️ Voici les points les plus bloquants pour un passage sur Thunderbird selon notre analyse :

  • les mails ne sont pas gérés sous la forme de fils de conversation
  • la recherche Thunderbird est laborieuse et pas aussi précise et rapide que Gmail
  • la peur de perdre des mails anciens
  • l’ergonomie de Thunderbird, notamment la différence de fluidité par rapport à une page web comme Gmail

Pour réussir ce changement de logiciel, il faut que les étapes soient claires et transparentes pour les utilisateur·ices. Cela leur permet de se projeter : « ok dans 6 mois / 1 an je change d’outil et je sais à peu près ce qui m’attend ! ».

Après ce premier sondage, un calendrier a donc été partagé, indiquant les différentes dates menant à la dégooglisation de tout le monde.

🪴 Automne – Hiver 2021 – Formation et Documentation Thunderbird

4 personnes sur 20 utilisent déjà Thunderbird. Pour les 16 autres, nous prévoyons d’étaler les formations par petits groupes sur 3 mois : les personnes les plus intéressées commencent dès mi-octobre, et les personnes les plus frileuses seront formées en janvier, ce qui nous laissera le temps d’avoir des retours, d’ajuster la formation et la documentation.

La formation suit le programme que vous pouvez retrouver ici :

  • une aide à l’installation de Thunderbird et du paramétrage du compte Gmail
  • une présentation globale de l’outil
  • une présentation des fonctionnalités de base
  • des conseils globaux d’utilisation et la présentation des meilleurs modules complémentaires.

La documentation va jouer un rôle très important dans la dégooglisation. Et dès septembre, on va mettre le paquet pour tout bien documenter.

✊ Dégooglisation – sortir de Gmail → https://librairie.grap.coop/books/mail/chapter/degooglisation-sortir-de-gmail
📪 Tutos Thunderbird 💻 → https://librairie.grap.coop/books/mail/chapter/tutos-thunderbird

Ce travail de plusieurs mois va être itératif : chaque formation apporte son lot de questions, ou de bugs, ou de besoins qu’il faut alors documenter et faire repartager à tout le monde. De nombreux points mails (ou des messages informels) sont envoyés à l’équipe pour leur faire part des retours, de l’avancée et des nouveaux modules complémentaires ou paramétrages trouvés pour faciliter l’utilisation de Thunderbird.

🙊 Une difficulté anticipée mais relou : le lien Thunderbird – Gmail

Thunderbird a des défauts indéniables. Mais dans cette dégooglisation, on n’est pas aidé par Gmail qui aime bien avoir des comportements… embêtants. Une de ses particularités est le traitement des mails dans un dossier appelé « Tous les messages ». Pour citer la doc officielle de Thunderbird :

Tous les messages : contient une copie de tous les messages de votre compte Gmail, en incluant le dossier « Courrier entrant », le dossier « Envoyé » et les messages archivés.

Donc si vous avez 10 000 messages entrants et sortants, Thunderbird va télécharger 20 000 mails. Sachant qu’on retrouve tous ses mails dans Courrier entrant et Envoyés, ce dossier ne sert donc à rien. Après plusieurs semaines d’utilisation, et certains ralentissements au lancement de Thunderbird, nous avons fini par conseiller aux gens de se désabonner de ce dossier.

D’autres conseils seront documentés par la suite ici : https://librairie.grap.coop/books/mail/page/thunderbird-et-gmail

☘️ Avril 2022 – Premier bilan et questionnement technique

Le calendrier des formations a été quasiment tenu. C’est seulement en janvier que certaines formations n’ont pas eu lieu, du fait de difficultés professionnelles rencontrées dans certains pôles de l’équipe. Il ne restait alors que 2 personnes à former.

Mais entre temps, Quentin qui est responsable de cette dégooglisation, est parti en congés sans solde en février-mars. La décision avait été prise de ne pas se presser avant son départ et de faire le point en avril, nous y voilà.

  • 2 personnes non formées en janvier + 2 arrivées
  • Certaines personnes de l’équipe n’ont pas pris le pli et sont revenues un peu / beaucoup sur Gmail
  • Un tableau partagé a fait remonter les problèmes soulevés :
    • La plupart peuvent être réglés par contournement ou par une meilleure documentation.
    • La recherche de mails est laborieuse.

Nous décidons de :

  • former les gens qui ne l’ont pas été
  • continuer à documenter et informer des meilleurs modules et petits paramétrages qui changent la vie
  • s’interroger sur pourquoi certaines personnes n’ont pas pris le pli
  • demander l’avis des membres de l’équipe sur Thunderbird et la dégooglisation en cours
  • faire un benchmark des solutions (voir si Thunderbird est vraiment le cheval gagnant)
  • s’assurer et valider le processus technique de bascule qu’il faudra faire (le voici)
  • prendre une décision lors de notre comité de pilotage informatique qui arrive

Conseil n°2 : Nous prenons aussi la décision que Quentin ne soit pas le seul porter ce projet. Il ressent une charge mentale et une certaine pression à gérer les retours des personnes en difficulté. Pour ne pas non plus tomber dans une posture de l’informaticien libriste qui impose le choix, et pour bien affirmer que nous prenons des choix collectivement, nous allons dé-personnifier le projet. Désormais le travail sera soutenu et partagé avec Sandie, et les mails signés par le pôle informatique.

⚡ Mai 2022 – La recherche boostée à notre rescousse !

Enfin ! Nous avons trouvé un moyen de répondre aux soucis de recherche sur Thunderbird. Avec un habile mélange de dossier virtuel et d’un module complémentaire de recherche avancée, nous parvenons à lier rapidité et complexité de recherche !

Nous le documentons dans la partie 4 de ce tuto : https://librairie.grap.coop/books/mail/page/recherche-mail-booste

🍀 Juin 2022 – Deuxième bilan : on y va, on sort de Google ?

Notre comité de pilotage ne prend pas une décision ferme. On continue juste à valider de travailler sur cette dégooglisation. En dehors de tous les aspects politiques, en sortant de Google, nous allons cesser de payer 2000€/an pour les comptes pros que nous avons, et c’est toujours ça de gagné dans un moment de crise économique !

Deux mois plus tôt, nous avions envoyé ce formulaire à l’équipe, commenté par cette phrase qui résume son intention « Vive le consentement, à bas la coercition 🌞 » pour prendre la température de l’équipe sur l’utilisation de Thunderbird. Voici notre analyse résumée des résultats :

🔴 les personnes n’ayant pas encore franchi l’étape Thunderbird sont :

  • une grande partie d’un pôle en surcharge
  • les « ancien⋅nes » qui sont là depuis longtemps

🔴 les difficultés principales vis-à-vis de l’outil sont :

  • la recherche de mail
  • le changement d’usage ergonomique
  • des problèmes liés à la connexion avec Google
  • des besoins spécifiques non fonctionnels (invitation Outlook)
  • des problèmes spécifiques réglés depuis (soucis d’antivirus, paramétrage mail d’absence, etc.)

✅ l’équipe est chaude pour sortir de Google !

✅ l’équipe se sent bien accompagnée à ce changement.

☑️ une minorité de l’équipe (3~4 personnes) ne se sent pas sécurisée ou perd quelques minutes par jour à l’utilisation de Thunderbird. Ces 3~4 personnes se recoupent avec les personnes utilisant Gmail. Nous pensons qu’avec l’usage et les améliorations du logiciel, nous parviendrons à améliorer ça.

⭕ les personnes revenues sur Gmail l’expliquent par :

  • « la flemme »
  • un mauvais timing / mauvais paramétrage au début
  • pôle ou personne avec grosse charge de travail

Nous décidons alors :

  • de réaliser deux sessions de formation à la recherche boostée  ⚡
  • de travailler sur la solution d’application smartphone adéquate pour sortir de l’application Gmail
  • de redonner une formation aux 5 personnes qui n’ont pas fait le switch afin qu’elles y arrivent
  • de fixer la date de sortie de Google : cela sera la 1ère ou 2ème semaine d’août
  • de commencer à créer toutes les boîtes mails et redirections mails nécessaires

Conseil n°3 : Nous avions 17 boîtes mails à recréer et 80 redirections de mails assez complexes à réaliser. C’est un travail fastidieux qui demande de se concentrer pour ne pas louper un mail dans la redirection mail créée. Car non, il n’existait pas d’export Google des « groupes Google » que nous utilisions. Le conseil est donc le suivant : partagez le travail :) Merci Sandie pour ce gros taf !

🚀 Juillet 2022 – la bonne nouvelle : Thunderbird s’améliore

Alors que nous venions de fixer le créneau de départ de Google (début août), Thunderbird sort sa dernière version (la 102), le 29 juin. Cette version apporte de très nombreuses améliorations ergonomiques, rendant le logiciel bien plus agréable à utiliser. Et quand on utilise un logiciel toute la journée, ce n’est pas un petit détail que de pouvoir modifier la taille d’affichage, la taille de police, les couleurs des dossiers mails ou encore une gestion des contacts totalement re-désignée. Leur annonce officielle ici.

Et les bonnes nouvelles s’enchaînent :

  • Thunderbird annonce rejoindre le projet K-9 Mail pour une application libre sur Android qui va donc s’améliorer encore plus vite !
  • Et leur feuille de route de modifications futures sont très très prometteuses pour répondre aux soucis les plus courants :
    • des fils de conversations natifs !
    • une ergonomie qui s’améliore de jour en jour avec notamment l’affichage des mails sur plusieurs lignes
    • une synchronisation de son compte qui permettrait d’avoir deux Thunderbird sur deux ordis différents

🌸 Voici à quoi pourrait ressembler Thunderbird en mi-2023 🌸

🌲 9 Août 2022 – Le fil rouge sur le bouton rouge..

Depuis quelques mois, on discutait avec Gandi pour nous assurer que la procédure était la bonne. Quel plaisir d’avoir des gens qui répondent rapidement à ces demandes. Merci ! Nous étions donc plutôt prêts pour ce switch. Le mardi 9 août à 22h, alors que les collègues sont pour la plupart en vacances, on change les DNS du domaine grap.coop (DNS = règles techniques qui disent ce qui se passe avec grap.coop) pour débrancher Google et brancher Gandi.

Le mardi 9 août à 23h50, après quelques tests d’envoi et de réception de mails, j’annonce officiellement que tout semble fonctionner comme prévu. Les mails de Gandi partent bien. On reçoit bien les mails sur la nouvelle boîte mail. Le monde n’a pas cessé de tourner. Victoire !

Grap vs Google, allégorie

🙊 Une difficulté pas anticipée : l’envoi de mail par notre logiciel Odoo [tech]

En créant toutes les boîtes mails sur Gandi, nous nous étions rendu compte des cas particuliers (des personnes qui avaient un compte mail mais qui n’étaient pas ou plus dans l’équipe par exemple) mais ce n’est que tardivement qu’on a réalisé que la boîte mail serveurs <arobase> grap.coop servait de boîte d’envoi à l’ensemble des mails du logiciel Odoo utilisé par les 65 activités. Comment cela allait se comporter en passant chez Gandi ? Deux soucis sont encore en cours :

1 – L’usurpation d’identité
  • En fait, chaque activité envoie ses bons de commandes et factures depuis Odoo. Odoo utilise une seule boîte mail serveurs grap.coop mais lors de l’envoi, prend l’identité de l’activité qui envoie un mail.
  • Cette « usurpation d’identité » était bien acceptée car nous étions chez Google. Mais avec le passage chez Gandi, cette usurpation d’identité n’est plus acceptée par les boîtes mail à la réception si celles-ci sont chez Google.
  • L’activité a un mail d’envoi géré par Gandi → envoi par serveurs qui est géré par Gandi → OK
  • L’activité a un mail d’envoi géré par Google / OVH / Ecomail etc. → envoi par serveurs qui est géré par Gandi → NOK si à la réception la personne utilise Google.

La solution future : améliorer l’envoi de mail sur Odoo pour que chaque activité puisse envoyer avec les informations de sa vraie boîte mail.

2 – Les mails envoyés par les serveurs <arobase> grap.coop ne sont pas automatiquement enregistrés dans le dossier Envoyés
  • À priori, l’envoi de mail n’est pas totalement bien développé et il manque quelques informations dans le mail pour que celui-ci soit bien mis dans le dossier Envoyés.
  • Mais avec Google, cela fonctionnait. Il devrait réussir à comprendre qu’un mail partait de sa boite mail, et il le plaçait le mail dans le dossier Envoyés. Ce qui était pratique pour vérifier que le mail était bien parti.

La solution future : améliorer l’envoi de mail sur Odoo pour que le mail arrive dans le dossier Envoyés.

🙊 Un comportement pas anticipé : Google, le mort-vivant

Malgré la déconnexion technique du nom de domaine grap.coop avec Google, il était encore possible de se connecter à Gmail et d’envoyer des mails. Alors certes, les réponses n’arrivaient plus sur Gmail, mais cela permettait encore aux irréductibles de résister au changement ! 😛

Surtout, même après avoir supprimé le compte Google sur Thunderbird (n’ayant alors que le compte Gandi), un paramétrage technique (le serveur SMTP d’envoi) faisait que les mails envoyés l’étaient par le serveur Google.

Donc au moment de la suppression réelle du compte Google, l’envoi par Thunderbird était bloqué. Ce n’est pas un gros souci, mais nous avons documenté le petit changement à faire.

🐢 Septembre 2022 – La fin de la route est longue, mais la voie est libre

Après la dégooglisation technique, place à la dernière étape, supprimer réellement les comptes Google. Chaque personne devait suivre un tutoriel nommé « Google débranché 💃🕺 La suite ✌️ » comportant ces étapes :

  • 🧹 Nettoyer derrière soi
  • 🚪 Fermer la porte
  • 🔧 S’assurer que l’on envoie ses mails avec les bons paramétrages
  • 🫑 Embellir son nouveau jardin
  • 📫 Découvrir le webmail (logiciel en ligne) de Gandi
  • 📱 Connecter son ordiphone
  • 💥 Quitter définitivement Google

Il a fallu 2 mois pour que les 30 personnes concernées suivent réellement ce tutoriel – voire rattrapent leur « retard » pour sortir leur mail de Google. Ce fut l’une des étapes les plus chronophages en termes de relance, de suivi personnel, de questions / réponses, de gestion de cas particuliers (certaines personnes n’avaient pas pu transférer leur mail à cause d’une connexion Internet trop faible par exemple). C’est aussi à ce moment que l’on devait bien vérifier qu’aucune autre donnée n’était encore stockée sur Google Drive / Google Photos / Agenda etc., ce qui a ralenti quelques personnes.

Conseil n°4 : pour motiver chaque personne à passer le pas, communiquer de façon informelle et encourageante !

💀 Octobre 2022 – Au revoir Google, tu ne vas pas me manquer

Même si nous avons tout fait pour être coercitifs, certaines personnes ont besoin de date limite pour prioriser leur travail. Trois semaines avant, la date butoir du 07 octobre est donc fixée pour motiver les dernières personnes.

🎄 Novembre 2022 – Jusqu’au bout !

La première date butoir et les nombreuses relances n’ont pas suffi à faire remonter en priorité n°1 à tou·te·s les collègues de sortir de Gmail.

Comme nous ne sommes pas des grands méchants, et que nous comprenons les difficultés et calendrier de chacun·e, nous redonnons du rab : le mardi 23 novembre. La veille de la fête des 10 ans de Grap, cela semble une date symbolique et assez lointaine pour réellement partir. Pour de bon.

Le mardi 23 novembre, à 13h35, nous étions 5 à nous réunir autour d’un ordinateur, observant ce moment… un peu stressant, comme quand on part d’un lieu en espérant n’y avoir rien oublié. À 13h43, Google était derrière nous.  ✊

To be continued…

Dans la troisième (et dernière) partie, nous continuerons notre récit de dégooglisation en faisant le bilan de cette démarche. A la semaine prochaine !

Si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !

Le Fediverse n’est pas Twitter, mais peut aller plus loin

Par : Framalang
17 février 2023 à 05:12

Maintenant que Mastodon a suscité l’intérêt d’un certain nombre de migrants de Twitter, il nous semble important de montrer concrètement comment peuvent communiquer entre eux des comptes de Mastodon, PeerTube, Pixelfed et autres… c’est ce que propose Ross Schulman dans ce billet de l’EFF traduit pour vous par Framalang…

 

source : The Breadth of the Fediverse

Traduction Framalang : CLC, Goofy, Henri-Paul

 

L’étendue du Fediverse

par Ross Schulman

Le Washington Post a récemment publié une tribune de Megan McArdle intitulée : « Twitter pourrait être remplacé, mais pas par Mastodon ou d’autres imitateurs ». L’article explique que Mastodon tombe dans le piège habituel des projets open source : élaborer une alternative qui a l’air identique et améliore les choses dont l’utilisateur type n’a rien à faire, tout en manquant des éléments qui ont fait le succès de l’original. L’autrice suggère plutôt que dépasser Twitter demandera quelque chose d’entièrement nouveau, et d’offrir aux masses quelque chose qu’elles ne savaient même pas qu’elles le désiraient.

Nous pensons, contrairement à Megan, que Mastodon (qui fait partie intégrante du Fediverse) offre en réalité tout cela, car c’est un réseau social véritablement interopérable et portable. Considérer que Mastodon est un simple clone de Twitter revient à oublier que le Fediverse est capable d’être ou de devenir la plate-forme sociale dont vous rêvez. C’est toute la puissance des protocoles. Le Fediverse dans son ensemble est un site de micro-blogging, qui permet de partager des photos, des vidéos, des listes de livres, des lectures en cours, et bien plus encore.

Comme beaucoup de gens se font, comme Megan, une fausse idée sur le Fediverse, et comme une image vaut mieux qu’un long discours, voyons comment l’univers plus large d’ActivityPub fonctionne dans la pratique.

Parlons de PeerTube. Il s’agit d’un système d’hébergement de vidéos, grâce auquel les internautes peuvent en suivre d’autres, télécharger des vidéos, les commenter et les « liker ».
Voici par exemple la page de la chaîne principale du projet open source Blender et c’est là que vous pouvez vous abonner à la chaîne…

fenêtre dans la page de peertube.tv où l'on peut s'abonner au canal blender en utilisant son compte activityPub, ici un compte de mastodon

Dans cet exemple nous avons créé un compte Mastodon sur l’instance (le serveur) framapiaf.org. Une fois qu’on clique sur « S’abonner à distance », nous allons sur le compte Mastodon, à partir duquel il nous suffit de cliquer sur « Suivre » pour nous permettre de…suivre depuis Mastodon le compte du PeerTube de Blender.

fenêtre de mastodon dans laquelle on peut confirmer vouloir suivre un canal peertube (de Blender dans cet exemple) en cliquant sur "Suivre"

Maintenant, dès que Blender met en ligne une nouvelle vidéo avec PeerTube, la mise à jour s’effectue dans le fil de Mastodon, à partir duquel nous pouvons « liker » (avec une icône d’étoile « ajouter aux favoris ») la vidéo et publier un commentaire.

… de sorte que le « like » et la réponse apparaissent sans problème sur la page de la vidéo.

un commentaire-réponse posté sur mastodon apparaît sur le canal peertube

Pixelfed est un autre service basé sur ActivityPub prenant la forme d’un réseau social de partage de photographies. Voici la page d’accueil de Dan Supernault, le principal développeur.

On peut le suivre depuis notre compte, comme nous venons de le faire avec la page PeerTube de Blender ci-dessus, mais on peut aussi le retrouver directement depuis notre compte Mastodon si nous connaissons son nom d’utilisateur.

capture : après recherche du nom d’utilisateur « dansup », mastodon retrouve le compte pixelfed recherché

Tout comme avec PeerTube, une fois que nous suivons le compte de Dan, ses images apparaîtront dans Mastodon, et les « likes » et les commentaires apparaîtront aussi dans Pixelfed.

capture d'écran montrant une photo du chat de Dansup publiée sur pixelfed mais qui s'affiche ici sur le compte mastodon que l'on "suit".

Voilà seulement quelques exemples de la façon dont des protocoles communs, et ActivityPub en particulier, permettent d’innover en termes de médias sociaux, Dans le Fediverse existent aussi BookWyrm, une plateforme sociale pour partager les lectures, FunkWhale, un service de diffusion et partage de musique ainsi que WriteFreely, qui permet de tenir des blogs plus étendus, pour ne mentionner que ceux-là.

Ce que garantit le Fediverse, c’est que tous ces éléments interagissent de la façon dont quelqu’un veut les voir. Si j’aime Mastodon, je peux toujours y voir des images de Pixelfed même si elles sont mieux affichées dans Pixelfed. Mieux encore, mes commentaires s’afficheront dans Pixelfed sous la forme attendue.

Les personnes qui ont migré de Twitter ont tendance à penser que c’est un remplaçant de Twitter pour des raisons évidentes, et donc elles utilisent Mastodon (ou peut-être micro.blog), mais ce n’est qu’une partie de son potentiel. La question n’est pas celle du remplacement de Twitter, mais de savoir si ce protocole peut se substituer aux autres plateformes dans notre activité sur la toile. S’il continue sur sa lancée, le Fediverse pourrait devenir un nouveau nœud de relations sociales sur la toile, qui engloberait d’autres systèmes comme Tumblr ou Medium et autres retardataires.

 

La dégooglisation du GRAP, partie 3 : Le bilan

Par : Framasoft
23 février 2023 à 03:37

On vous a partagé la semaine dernière la deuxième partie de La dégooglisation du GRAP qui vous invitait à découvrir comment iels avaient réussi à sortir de Google Agenda et gmail. Voici donc la suite et fin de ce récit palpitant de dégooglisation. Encore merci à l’équipe informatique du GRAP d’avoir documenté leur démarche : c’est vraiment très précieux ! Bonne lecture !

 

Dans l’épisode précédent…

Après la sortie de Google Drive remplacé par Nextcloud, Google Agenda par Nextcloud Agenda, nous avons fini par le plus gros bout en 2021-2022, sortir de Gmail et en finir avec le tentaculaire Google.

Le mardi 23 novembre, nous débranchions enfin Google. Nous voilà libres ! Presque 😉

Bilan dégooglisation

Après 4 ans de dégooglisation, où en sommes-nous de notre utilisation de logiciels non libres ?

Dans l’équipage ⛵

Système d’exploitation Libre ? Commentaire
Windows 13 personnes
Ubuntu 9 personnes
Gestion documentaire et travail collaboratif
Nextcloud Files Tout le monde depuis 2020 ✅
Nextcloud Agenda Tout le monde depuis 2021 ✅
Téléphonie et visio
3CX Tout le monde  ❌
Nextcloud Discussions
Mail et nom de domaine
Gandi
Tout le monde depuis 2022 ✅
Logiciels métier
Odoo (suivi des actis, achat/revente, facturation)
Pôles info, accompagnement et logistique
EBP (compta)
Pôle compta
Cegid (paie) Pôle social
Gimp, Inkscape, Scribus (graphisme et mise en page)
Pôle communication
BookstackApp (documentation) Tous pôles
Logiciels bureautique
Suite Office
Suite LibreOffice
Réseaux sociaux
Facebook, Linkedin, Twitter, Eventbrite
Peertube

Nos pistes d’amélioration en logiciel libre sont donc du côté du système d’exploitation et des logiciels métiers.

Les blocages sont dus :

  1. à certains logiciels métiers qui n’existent pas en logiciel libre
    → à voir si on arrive à développer certains bouts métier sur Odoo dans les prochaines années
  2. à la difficulté de se passer d’Excel pour certaines personnes grandement habituées à ses logiques et son efficacité
    → à voir si LibreOffice continue à s’améliorer et/ou si on se forme plus sur LibreOffice

Dans la coopérative  🌸

Système d’exploitation Libre ? Commentaire
Ubuntu Dans tous les points de vente
ordinateurs portables
Windows ou Mac Les autres ordinateurs portables
Gestion documentaire et travail collaboratif
Nextcloud Files Tout le monde y a accès depuis 2020 ✅
Fournisseur mail principal
Gandi
55 %
Gmail 37 %
Ecomail  ? 4 %
Logiciels métier
Odoo (achat, revente, stock, facturation, intelligence décisionnelle)
Utilisé par 95 % des activités
Autres
❌ ✅ Dur à dire, mais la majorité des activités de transformation utilise des tableaux Excel ou des logiciels dédiés
Logiciels bureautique
Suite Office Pas de référencement fait. Aucune visibilité actuellement
Suite LibreOffice

Nos pistes d’amélioration sont donc du côté des logiciels mails et des logiciels métiers.

→ Un des gros chantiers de 2022-2023 est justement le développement et la migration sur Odoo Transfo. Pas pour le côté politique du logiciel libre mais bien de l’amélioration continue d’un même logiciel partagé dans la coopérative.

→ À voir si la dégooglisation de l’équipe « inspire » certaines activités pour se motiver à se dégoogliser. Nous serons là pour les accompagner et continuer à porter le message à qui veut l’entendre.

Bilan humain

À l’heure où nous écrivons (fin octobre 2022), il est trop tôt pour faire le bilan de la sortie de Gmail. Nous comptons d’ailleurs envoyer un nouveau questionnaire dans quelques mois qui nous permettra d’y voir plus clair. Mais nous pouvons d’ores et déjà dire que ce fut clairement l’étape la plus compliquée de la dégooglisation.

Sortir d’un logiciel fonctionnel, performant et joli est forcément compliqué quand on migre vers un logiciel aux logiques différentes (logiciel bureau VS web par exemple) et qui souffre de la comparaison au premier abord. Pour compenser cela, nous avons fait le choix de dédier beaucoup de temps humains (nombreuses formations par mini groupes ou en individuels, réponses rapides aux questions posées) et beaucoup de documentations et de partage de retour d’expériences.

La sortie de Google Drive et Google Agenda furent relativement douces et moins complexes que Gmail. Le logiciel Nextcloud étant assez mature pour assurer un changement plutôt simple et serein.

Ça paraît simple une fois énoncé, mais plus les gens travaillent avec un outil (Google par exemple), plus il sera difficile de les amener à changer facilement d’outil.

Conseil n°5 :
Dans la mesure du possible, la meilleure des dégooglisation est celle qui commence dès le début, par l’utilisation d’outils Libres. En 2022, quasiment tout logiciel a son alternative Libre mature et fonctionnel.
Si ce n’est pas possible, dès que les moyens humains sont disponibles et que la majorité le veut, envisagez votre dégooglisation ?

À Grap, il existe une certaine culture politique de compréhension autour des enjeux du logiciel libre et des GAFAM. Cela nous a aidé. Et cela nous parait quasiment obligatoire avant d’envisager une dégooglisation. Car c’est un processus long où l’on a besoin du consentement – au moins théorique – des gens impactés pour que celleux-ci acceptent de se former à de nouveaux outils, s’habituer à de nouvelles habitudes etc.

Conseil n°6 : avant d’entamer une dégooglisation, faire monter en compétences votre groupe sur les sujets autour du Logiciel Libre et des enjeux des Gafam à travers des projections de films par exemple.
Voici un récap de quelques ressources.

Bilan technique

Voici nos choix de logiciels pour notre dégooglisation :

  • Nextcloud pour la gestion documentaire et le travail collaboratif (agenda, visio, gestion de tâches)
    • complété par Onlyoffice avec une image Docker sans limitation d’usage (pendant 2 ans l’image nemskiller007/officeunleashed puis désormais alehoho/oo-ce-docker-license)
    • sauvegarde quotidienne par le logiciel de sauvegarde Borg
  • BookstackApp et Peertube pour la documentation écrite et vidéo
  • Meshcentral pour la prise en main à distance d’autres ordinateurs
  • Gandi pour le prestataire de mails
  • Thunderbird pour le logiciel bureau pour gérer ses mails (et K9Mail sur téléphone)

Voici nos choix d’infrastructure :

  • OVH et Online  pour la location de serveurs faisant tourner ses services (choix historique)
  • 4 serveurs :
    • 1 serveur dédié Nextcloud de 2To (Gamme Start-1-L Intel Xeon E3 1220v2 @3,1 Ghz, 16Go RAM)
    • 1 serveur dédié Nextcloud Test en miroir du Nextcloud
    • 1 serveur de sauvegarde (mutualisé avec d’autres services de la coopérative)
    • 1 serveur dédié à différents services (Peertube, Meshcentral, Bookstackapp)

Bilan économique

Pour calculer le coût économique de notre dégooglisation commencé en 2018, voici les chiffres retenus.

☀️ Le scénario « Dégooglisation » est celui réellement effectué depuis 2018.
Son coût comprend :

  • le temps de travail du service informatique, découpé en
    • l’aide au collègue habituelle : qui subit une augmentation du fait de l’internalisation de certaines questions, notamment avec le changement de Gmail à Thunderbird
    • le support et administration système des services :
      • toutes les recherches techniques (comment bien gérer les installations, sauvegardes etc.)
      • toutes les questions / réponses par mail et téléphone
    • le « temps de dégooglisation » qui correspond
      • les temps d’écriture de documentation et de formation
      • les mails d’annonce, de relance, de re-re-relance  😉
  • le coût des serveurs informatiques pour faire tourner les logiciels remplaçant les services Google et Teamviewer

🤮 À l’opposé, le scénario Google comprend :

  • le temps de travail du service informatique sur l’aide au collègue – accès stable dans le temps – qui augmente par le nombre de gens dans l’équipe, mais diminue par notre appropriation des logiciels, améliorations de l’existant, documentation etc.
  • la facturation des comptes Google Workspace
    • stable depuis 2018, Google a annoncé cet été l’augmentation de ces prix. Les pauvres n’ont eu que 6 % de croissance en 2022 avec 14 milliards de dollars de bénéfices. Passant donc les comptes pro de 4€ à 10,40€/mois à partir de juin 2023.
  • la facturation hypothétique (car elle n’a jamais eu lieu) de Teamviewer Pro
    • En effet, jusqu’à juin 2019, nous utilisions Teamviewer pour aider les activités de la coopérative à distance. Mais notre utilisation intensive ne rentrait plus dans la version gratuite et Teamviewer nous bloquait l’usage du logiciel pour que l’on souscrive à leur abonnement.
    • Heureusement, nous sommes passés sur des logiciels auto-hebergés et libre : RemoteHelp (un logiciel libre abandonné depuis) puis en décembre 2020 sur Meshcentral.

En prenant en compte ces données, le scénario « Dégooglisation » finit par devenir moins cher que le scénario « Google ».
Pour le coût mensuel, cela arrive dès septembre 2022 (quasi à la fin de la sortie de Gmail donc) !  🎉
Pour le coût cumulé, cela devient rentable deux ans après, en septembre 2024 !  🎉

Ces chiffres s’expliquent par :

  • le coût important au démarrage de la sortie de Google Drive
    • 128h passées sur les 5 premiers mois pour valider la solution Nextcloud
  • un temps de support / administration système pour Nextcloud qui baisse progressivement
    • passant de 14h mensuels en 2019, à 9h en 2020, à 5h en 2021, à 3h en 2022
  • le prix de Google qui aurait augmenté (mais on y a échappé avant, ouf !)

Bilan politique

Nous sommes fièr·es en tant que coopérative de porter concrètement nos valeurs dans le choix de nos logiciels qui sont plus que de simples outils.

Ces outils sont porteurs de valeurs démocratiques très fortes. Nous ne voulons pas continuer à engraisser Google – et autres GAFAM – de nos données privées et professionnelles qui les revendent à des entreprises publicitaires et des états à tendance anti-démocratique (voir les révélations Snowden, le scandale Facebook-Cambridge Analytica). Cela est en contradiction avec ce que nous prônons : la coopération, de l’entraide et le lien humain.

Nous avons besoin d’outils conviviaux, modulables et modifiables selon qui nous sommes. Nous avons besoin de pouvoir trifouiller les outils que nous utilisons, comme nous pouvons trifouiller un vélo pour y réparer le frein ou y rajouter un porte-bagages. Des outils émancipateurs en somme, qui nous empouvoire et ne rendent pas plus esclave de la matrice capitaliste.

Notre démarche n’aurait pas pu avoir lieu sans le travail et l’aide de millions de personnes qui ont construit des outils Libres, des documentations Libres, des conférences et autres vidéos Libres. Elle n’aurait pas eu lieu non plus sans l’inspiration de structures comme Framasoft ou la Quadrature du Net. Merci.

 🍎 La route est longue, la voie est libre, et sur le chemin nous y cueillerons des pommes bios et paysannes.  🍏

Encore un grand merci aux informaticiens du GRAP pour leur travail de documentation sur cette démarche. D’autres témoignages de Dégooglisation ont été publiés sur ce blog, n’hésitez pas à prendre connaissance. Et si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !

 

Échirolles libérée ! La dégooglisation (1)

Par : Framasoft
10 mars 2023 à 01:42

Dans notre série de témoignages sur les processus de dégooglisation, voici la republication du premier article de Nicolas Vivant qui évoque aujourd’hui la nécessaire étape initiale, le consensus à réunir aux plans institutionnel et citoyen quand on envisage et planifie la « transformation numérique » à l’échelle d’une municipalité entière…


Dégooglisation d’Échirolles, partie 1 : la structuration

par Nicolas Vivant

La transformation numérique d’Échirolles est en route, et il n’est peut-être pas inutile que nous partagions notre approche. Située dans le département de l’Isère, cette commune de 37 000 habitants jouxte Grenoble. Son maire, Renzo Sulli est également vice-président de la Métropole. Active et populaire, Échirolles a vu naître quelques célébrités, de Calogero à Vincent Clerc, en passant par Philippe Vandel.

L’histoire commence par une équipe municipale qui prend conscience que des enjeux politiques forts existent autour du numérique, et qu’il convient de s’en saisir pour les inscrire dans une cohérence avec l’action municipale.

En 2014, elle signe le Pacte du Logiciel Libre de l’April, et les premières solutions sont mises en œuvre : elles concernent notamment la messagerie, qui passe de Microsoft à BlueMind, puis la téléphonie, d’Alcatel à Xivo.

Après l’élection municipale de 2020, le choix est fait de mieux structurer l’approche, pour gagner en efficacité et en visibilité, en interne comme en externe. Une délégation est créée qui annonce la couleur et Aurélien Farge devient « Conseiller municipal délégué au développement du numérique, à l’informatique et aux logiciels libres ». Son collègue Saïd Qezbour devient conseiller municipal délégué à l’inclusion numérique, le travail peut commencer.

Le conseil municipal échirollois

Sous la houlette d’Amandine Demore, première adjointe, d’Aurélien Farge et de Saïd Qezbour, un « groupe de travail numérique » transversal est crée. Il réunit les élu·e·s pour qui le numérique est un enjeu : ressources humaines, finances, solidarités, éducation, culture… En janvier 2021, une feuille de route du numérique est finalisée. Elle identifie les grands enjeux et les thèmes que l’équipe municipale souhaite aborder dans le cadre du mandat : impact environnemental, inclusion, animation des acteurs et logiciels libres, notamment.

Parallèlement, une étude sur le numérique dans la ville est commandée. Une vaste consultation est lancée, des micro-trottoirs sont réalisés, des entretiens ont lieu avec les chefs de service, les associations, les partenaires économiques, etc. Le cabinet en charge rend son rapport en février 2021. Au-delà des chiffres, intéressants et qui permettent d’avoir une vision globale de la problématique à l’échelle de la commune, les élu·e·s peuvent vérifier que la route choisie est bien en lien avec les attentes du territoire.

Au même moment, une fonction de « directeur·trice de la stratégie et de la culture numériques » est créée. Rattachée au directeur général des services, le/la DSCN chapeautera la DSI et l’équipe en charge de l’inclusion numérique. Rattachée à la direction générale, cette nouvelle direction est chargée de l’articulation entre vision politique et mise en œuvre opérationnelle.

Nicolas Vivant en hérite avec, comme première mission, la rédaction d’un schéma directeur pour le mandat : « Échirolles numérique libre ». Basé sur la feuille de route et sur le rapport sur le numérique dans la ville, il est une déclinaison stratégique de la volonté politique de la collectivité.

Voté le 8 novembre 2021 à l’unanimité des conseillères et conseillers municipaux, il sert de fil conducteur pour le plan d’action de la DSI, et permet d’inscrire les projets du service dans une cohérence globale.

Le vote du schéma directeur (8 novembre 2021)

Un bilan de la mise en œuvre du schéma directeur est porté par Aurélien Farge et Saïd Qezbour, chaque année, en conseil municipal.

Le bilan 2022 en vidéo

 

Voilà posés les fondements de ce qui nous permettra d’aller vers une nécessaire… transformation numérique.

[À SUIVRE…]

***

Retrouvez Nicolas Vivant sur Mastodon : https://colter.social/@nicolasvivant

 

D’autres témoignages de Dégooglisation ont été publiés sur ce blog, n’hésitez pas à prendre connaissance. Et si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !

Échirolles libérée ! La dégooglisation (2)

Par : Framasoft
17 mars 2023 à 02:42

Voici le deuxième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) tel que Nicolas Vivant nous en rend compte. Nous le re-publions volontiers, en souhaitant bien sûr que cet exemple suscite d’autres migrations vers des solutions libres et plus respectueuses des citoyens.


Dégooglisation d’Échirolles, partie 2 : la transformation numérique

par Nicolas Vivant

Le numérique est en train de vivre une révolution. Disposer d’une stratégie, même étayée par des enjeux politiques forts, ne permet pas d’y échapper. Le monde change et il faut s’adapter, sous peine de passer à côté des nombreuses possibilités offertes par les dernières technologies… et de se noyer dans la masse de données que nous générons chaque jour. Les mots-clés du changement : collaboratif, transparence, ouverture. Mais qu’est ce que cela veut dire, concrètement ?

L’inévitable transformation numérique

L’informatique s’est construite, depuis les années 90, autour d’un modèle que nous connaissons toutes et tous, et qui est en train de disparaître. Le poste client repose généralement sur :

  • Un système d’exploitation (généralement Windows, parfois Mac, rarement Linux)
  • Une suite bureautique (souvent Microsoft, parfois LibreOffice)
  • Un serveur de fichiers (avec un classement par arborescence et une gestion des droits centralisée)
  • Une messagerie (avec un client lourd de type Outlook, ou via une interface web) souvent couplée à un agenda

L’évolution que l’on constate partout :

  • Un système d’exploitation qui devient une simple interface de connexion
  • De plus en plus de terminaux mobiles (smartphone, PC portables, tablettes)
  • Des applications qui sont le plus souvent accessibles via un navigateur web
  • Un logiciel intégrant les fonctions de suite bureautique, de messagerie, d’agenda, d’édition collaborative et d’échanges textuels, audio ou vidéo (souvent basé sur un « cloud »)

Le changement culturel à opérer est majeur. Les utilisateurs, aux compétences souvent durement acquises, vont devoir s’adapter et notre responsabilité est de nous assurer que cette transition ne se fera pas dans la douleur.

Des fonctionnements durablement inscrits dans notre rapport à l’informatique sont repensés, sans que la question de l’adoption par les utilisateurs se pose. Exemple : l’organisation et la recherche de l’information. Aujourd’hui, la plupart des serveurs de fichiers et des systèmes de stockage de données sont organisés sous la forme d’une arborescence. Pendant très longtemps, ce classement a été le moyen le plus efficace de retrouver de l’information. Mais la masse de données numériques a grandi, la taille (et le nombre) des répertoires est devenue énorme, et les moteurs de recherche sont souvent inefficaces/lents (cf. la fonction « recherche » de l’explorateur de Windows quand il s’agit de chercher sur un serveur).

En ligne, cette question a été tranchée depuis longtemps. Aux début de l’internet, deux moteurs de recherche dominaient le marché : Yahoo, alors basé sur un classement des sites web en arborescence, par grands domaines, et Altavista (de la société, aujourd’hui disparue, Digital), qui fonctionnait sur le même principe que Google avec un unique champ de recherche. La masse d’information à gérer ayant explosé, c’est ce dernier principe qui a prévalu.

On a parfois cru que la GED (Gestion Électronique de Documents), pouvait être une réponse. Mais l’effort à consentir pour ajouter, souvent manuellement, les métadonnées lui permettant d’être efficace était important. Ce qu’on appelle le « big data » a tout changé. Aujourd’hui, la grande majorité des métadonnées peuvent être générées automatiquement par une analyse du contenu des documents, et des moteurs de recherche puissants sont disponibles. Dans ce domaine, le logiciel libre est roi (pensez à Elastic Search) et des solutions, associées à un cloud, permettent de retrouver rapidement une information, indépendamment de la façon dont elle est générée, classée ou commentée. C’est un changement majeur à conceptualiser dans le cadre de la transformation numérique, et les enjeux de formation et d’information des utilisatrices et utilisateurs ne peuvent pas être ignorés.

S’organiser pour évoluer

Si la feuille de route des élus échirollois ne nous dit pas ce qui doit être fait, elle met l’accent sur un certain nombre de thèmes qu’il va falloir prendre en compte : limitation de l’impact environnemental, réduction de toutes les fractures numériques, gestion responsable des données, autonomie et logiciels libres. À nous de nous adapter, en prenant garde, comme toujours, à la cohérence, la sécurité et la stabilité du système d’information… et en ne négligeant ni l’effort de formation, ni la nécessaire communication autour de ces changements.

Dans ma commune, c’est le rôle de la direction de la stratégie et de la culture numériques (souvent appelée, ailleurs, « direction de la transformation — ou de la transition — numérique ») en lien étroit avec la DSI, qui dispose des compétences opérationnelles.

Conjuguer autonomie et déploiement de logiciels libres a un coût : celui de l’expertise technique. Sans compétences techniques fortes, le nombre de prestations explose nécessairement et vient contredire l’objectif d’un système d’information maîtrisé, aussi bien en termes de responsabilités qu’au niveau financier. Hébergement, installation, paramétrage, sécurisation, maintenance et formation doivent pouvoir, autant que possible, être assurés en interne. Le DSI lui-même doit pouvoir faire des choix sur la base de critères qui ne sont pas seulement fonctionnels mais également techniques. La réorganisation du service est donc inévitable et l’implication de la direction des ressources humaines indispensable. Vouloir mettre en œuvre une politique autour du libre sans compétences ni appétences pour le sujet serait voué à l’échec.

À Échirolles, la grande proximité entre DSCN et DSI a permis de décliner la stratégie numérique en méthodologies opérationnelles qui, mises bout à bout, permettent de s’assurer que nous ne perdons pas de vue l’objectif stratégique. Pour chaque demande d’un nouveau logiciel exprimée par un service, par exemple, nous procédons comme suit :

  • Existe-t-il un logiciel en interne permettant de répondre au besoin ? Si oui, formons les utilisateurs et utilisons-le.
  • Si non, existe-t-il un logiciel libre permettant de répondre au besoin ? Installons-le.
  • Si non, existe-t-il un logiciel propriétaire ? Achetons-le.
  • Si non, en dernier recours, créons-le.

On mesure immédiatement ce que ce fonctionnement implique au niveau du recrutement et de l’organisation : il nous faut une équipe capable de gérer cette procédure de bout en bout et donc, forcément, une compétence en développement. Nous avons donc créé un « pôle applicatif » en charge de ce travail, et recruté un développeur. Et puisque la question de la contribution se pose également, nous avons décidé que 20 % du temps de travail de ce poste serait consacré à des contributions au code de logiciels libres utilisés par la ville.

À chaque mise en place d’une solution technique, la question de l’interopérabilité se pose. Partant du principe que le « cloud » deviendra central dans l’architecture future du système d’information, nous nous sommes penchés sur les logiciels libres qui permettraient de remplir cette fonction et nous avons fait le choix, très tôt et comme beaucoup, de Nextcloud, associé à Collabora pour l’édition collaborative des documents. Nous nous assurons donc, depuis, que tout nouveau logiciel installé dans la collectivité sera correctement interopérable avec ce logiciel quand, dans quelques années, la transition sera achevée.

Mais nous parlerons de logiciels dans la troisième partie de ce récit.

Retour vers l’épisode 1 : la structuration.

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant

ChatGPT, Bard et cie : nouvelle course à l’IA, et pourquoi faire déjà ?

Par : Louis Derrac
23 mars 2023 à 09:43

Google va ajouter de l’IA générative dans Gmail et Docs. Énième actualité d’un feuilleton permanent depuis « l’irruption » de ChatGPT. Et chez moi, un sentiment de malaise, d’incompréhension, et même de colère.

Qu’est-ce que ChatGPT ? Qu’est-ce que l’IA1 ? Ce sont d’abord d’immenses infrastructures : les câbles sous-marins, les serveurs des datacenters, mais aussi nos ordinateurs et nos smartphones. Donc ce sont des terres rares et des minerais, dégueulasses à excaver et à purifier (heureusement un jour il n’y en aura plus2). Ensuite, c’est du traitement MASSIF de données. Du vrai gavage de programmes d’apprentissages par des quantités phénoménales de données. C’est donc des infrastructures (encore) et de l’énergie. Une quantité phénoménale d’énergie, très largement carbonée. Enfin, c’est beaucoup de main-d’œuvre sous-payée pour entraîner, tester, et entretenir les systèmes d’IA. ChatGPT, il ne faut pas l’oublier, ce n’est que la face émergée d’un très très gros iceberg. Très gros et très sale.

vue d'une vallée étroite et du cheminement de mineurs vers une mine de cobalt

Ce n’est pas un film. ÇA, c’est l’ambiance dans une mine de cobalt.

Image issue du documentaire d’Arte : Cobalt, l’envers du rêve électrique

Bref, développer une IA a un coût environnemental et humain énorme (et largement opaque), ce n’est pas que du code informatique tout propre. À la rigueur, si le rapport coût/bénéfice était largement positif… Par exemple, si l’IA développée permettait des économies d’énergie de 30 % dans le monde, ou qu’elle permettait de mieux gérer les flux alimentaires et donc d’endiguer la faim, alors on pourrait sérieusement discuter de moralité (est-ce acceptable de détruire la planète et d’exploiter des humains pour sauver la planète et d’autres humains ?).

Mais à quoi servent ces IA génératives ? Pour le moment, à faire joujou, principalement. À chanter les louanges de l’innovation, évidemment. À se faire peur sur l’éternelle question du dépassement de l’humain par la machine, bien sûr. Et ensuite ? Supprimer des postes dans des domaines plutôt créatifs et valorisés ? Défoncer les droits d’auteur en pillant leur travail via des données amassées sans régulation ? Gagner un peu de temps en rédigeant ses mails et ses documents ? Transformer encore un peu plus les moteurs de recherche en moteurs de réponses (avec tous les risques que ça comporte) ? Est-ce bien sérieux ? Est-ce bien acceptable ?

copie d'écran d'un site "cadremploi", avec ce texte "comment s'aider de chatgpt pour rédiger sa lettre de motivation - ChatGPT est une intelligence artificielle capable de rédiger des contenus à votre place.

C’est ça, le principal défi du siècle que les technologies doivent nous aider à relever ? ? ?

Tout ça me laisse interrogateur, et même, en pleine urgence environnementale et sociale, ça me révolte. À un moment, on ne peut pas continuer d’alerter sur l’impact environnemental réel et croissant du numérique, et s’enthousiasmer pour des produits comme ChatGPT et consorts. Or souvent, ce sont les mêmes qui le font ! Ce qui me révolte, c’est que toute cette exploitation humaine et naturelle3, inhérente à la construction des Intelligences Artificielles, est tellement loin de ChatGPT que nous ne la voyons pas, ou plus, et nous ne voulons pas la voir. Cela se traduit par tous les messages, enthousiastes et même volubiles, postés quotidiennement, sans mauvaise intention de la plupart de leurs auteur⋅ice⋅s.

Symboliquement, je propose de boycotter ces technologies d’IA génératives. Je ne suis heureusement pas utilisateur de Google et Microsoft, qui veulent en mettre à toutes les sauces (pour quoi faire ?). J’espère que mes éditeurs de services numériques (a priori plus éthiques) ne céderont pas un pouce de leurs valeurs à cette hype mortifère…

schéma mettant en relation par des flèches bi-directionnelles : Le numérique acceptable :Emancipateur et non aliénant /Choisi et non subi / Soutenable humainement et environnementalement

Au vu de ce qu’elles apportent, les IA génératives sont-elles vraiment soutenables humainement et environnementalement ? Je ne le crois pas.

Pour poursuivre sa lecture et ses réflexions

Échirolles libérée ! La dégooglisation (3)

Par : Framasoft
24 mars 2023 à 02:42

Voici déjà le troisième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) tel que Nicolas Vivant nous en rend compte. Nous le re-publions volontiers, en souhaitant bien sûr que cet exemple suscite d’autres migrations vers des solutions libres et plus respectueuses des citoyens.


Dégooglisation d’Échirolles, partie 3 : les solutions

par Nicolas Vivant

L’organisation est structurée, les enjeux sont posés, place à la mise en œuvre opérationnelle.

L’âge de la maturité

Les informaticiens utilisent des logiciels libres, pour le fonctionnement de leur système d’information, depuis toujours. Pas par militantisme, dans la plupart des cas, mais simplement parce que ce sont les plus stables, les plus sûrs et souvent les meilleurs. L’immense majorité des serveurs web, par exemple, fonctionne avec Apache ou, de plus en plus, NGINX, et tournent sur des systèmes d’exploitation libres (GNU/Linux, souvent).

La nouveauté concerne le poste client, la communication et les applications métier. Dans ces trois domaines, les logiciels libres ont atteint un niveau de maturité inédit jusqu’alors. L’absence de publicité et de marketing ne favorise pas la découverte des solutions disponibles, mais certains logiciels ont fait leur chemin dans les organisations. Comment ? Par le bouche à oreille, les échanges sur les réseaux sociaux, la communication (et le travail) de différentes associations et structures étatiques (Adullact, April, Framasoft, Etalab, etc.) ou la contagion entre collectivités : une collectivité utilise un logiciel, j’en entends parler (ou je l’utilise dans mes échanges avec elle), je me renseigne et je finis par l’adopter.

Souvent, plusieurs solutions libres existent pour un même usage. L’exemple de la messagerie électronique est parlant. Microsoft (avec Outlook/Exchange) et Google (Gmail) sont dominants sur le marché. Pourtant, il existe au moins 6 alternatives « open source » : Zimbra, BlueMind, OpenXchange, SOGo, Kolab et eGroupWare qui ont peu ou prou les mêmes fonctionnalités ? Comment faire un choix ?

Savoir faire un choix

À Échirolles, après que les aspects fonctionnels sont validés, nous nous appuyons sur 4 piliers :

Le schéma directeur évoque des solutions gérées et maintenues en interne et met en avant les concepts de souveraineté numérique et d’autonomie vis-à-vis des éditeurs. C’est une première base de jugement : lesquelles de ces solutions correspondent le mieux aux enjeux identifiés par nos élus ?
L’analyse technique permet de vérifier les qualités intrinsèques de la solution, son interopérabilité correcte avec les outils existants, notre capacité à la gérer en autonomie, sa cohérence avec notre préoccupation de l’impact environnemental
La coopération intercommunale nous permet d’avoir une idée des problèmes rencontrés, de la réactivité des éventuels prestataires et, globalement, du niveau de satisfaction des collègues.
Le coût est évalué sur devis (le code de la commande publique nous contraignant, à raison, à la consultation de plusieurs acteurs et à la justification de nos choix) et par la vérification des références existantes même si pour nous, bien souvent, libre veut dire gratuit.

Les échanges entre services, et en interne au sein de la direction de la stratégie numérique, éclairent également nos décisions.

Go go go !

Sur la base de ces critères, Échirolles a fait le choix de SOGo, une solution fonctionnelle, éprouvée (par Gandi, notamment, en France), solide et qui semble le mieux correspondre à ce que sont nos orientations. D’autres communes font d’autres choix, privilégiant d’autres critères (le nombre et la qualité des prestataires susceptibles d’apporter une assistance sur la solution, par exemple).

Le choix d’une solution de Cloud et d’édition collaborative (alternative à Microsoft Teams ou Google Workspace) s’est fait selon les mêmes critères. Pour la partie Cloud/gestion de fichiers, la coopération intercommunale nous a conduit à éliminer Alfresco Share, peu adapté à nos usages. Pour l’édition collaborative, nous avons préféré Collabora à OnlyOffice, sur les conseils de différentes associations et partenaires et parce que le projet nous semblait mieux correspondre à nos valeurs.

Enfin, le passage à un système d’exploitation libre pour les postes clients est entamé à Échirolles. La ville a fait le choix de Zorin OS, pour de nombreuses raisons qui ont été expliquées dans des articles plus complets :

La stratégie gagnante d’une migration du poste de travail sous Linux (LeMagIT)
Le poste de travail Linux (étude d’ATOS réalisée par Arawa pour le Ministère des Finances)

Pour le reste, nous utilisons trop de logiciels libres pour les lister tous (les systèmes de gestion de bases de données, par exemple). Certains sont en place depuis très longtemps (Firefox, Thunderbird, 7zip…), d’autres ont été installés récemment (Peertube, Nextcloud, Joplin, Psono…), d’autres sont en cours de déploiement (Proxmox, Maarch courrier, Keycloak…). Quelques-uns, méconnus ou parce qu’ils ont fait l’objet d’une mise en œuvre particulière, ont fait l’objet d’articles dédiés sur mon blog : Mastodon, OBS Studio, Porteus Kiosk, BigBlueButton, etc.

Liste non exhaustive de logiciels libres utilisés à Échirolles

Postes clients :

Applications collectivité :

Applications DSI :

Communication :

Dématérialisation :

À noter l’excellente initiative de l’Adullact à destination des collectivités et des prestataires, qui permet d’identifier les acteurs pour chaque logiciel référencé : Comptoir du Libre. Échirolles y maintient les informations concernant les choix de logiciels de la commune.

Cet article ne serait pas complet sans dire un mot sur l’équipement des écoles maternelles et élémentaires, dont l’équipement en informatique incombe aux communes. Si les postes clients disposent des mêmes logiciels que ceux que nous déployons au sein des services municipaux, le passage à Linux attendra encore un peu, pour des raisons que j’ai détaillées dans un article dédié.

Structuration, transformation, mise en œuvre opérationnelle, tout cela est bel et bon. Mais comment être sûr de ne laisser personne au bord de la route ? C’est tout l’enjeu de l’inclusion numérique, sujet de l’article suivant.

L’épisode 1 (structuration)
L’épisode 2 (transformation)

***
    • Source image :

https://commons.wikimedia.org/wiki/File:Eug%C3%A8ne_Delacroix_-_Le_28_Juillet._La_Libert%C3%A9_guidant_le_peuple.jpg

  • Auteur : Erich Lessing Culture and Fine Arts Archives via artsy.net
  • Description : Tableau d’Eugène Delacroix « La Liberté Guidant le Peuple », commémorant la révolution des Trois Glorieuses (27-28-29 juillet 1830) en France.
  • Licence : Domaine public

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant

Échirolles libérée ! La dégooglisation (4)

Par : Goofy
31 mars 2023 à 01:42

Dans ce quatrième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) Nicolas Vivant aborde le complexe problème de la fracture numérique, qui demande d’aller au-delà de la médiation pour trouver des structures et des moyens adaptées aux pratiques diverses des citoyens : la stratégie numérique doit aller de pair avec l’action sociale.


Dégooglisation d’Échirolles, partie 4 : l’inclusion numérique

La fracture numérique : un symptôme parmi d’autres

Avec 36 % de logements sociaux et 3 quartiers « politique de la ville » Échirolles est, sans nul doute, une ville populaire. Plusieurs études sur les difficultés liées au numérique ont été réalisées sur notre territoire : l’une par notre CCAS (2019), l’autre par un cabinet indépendant (2020-2021). Si elles n’ont pas montré de situation spécifique à notre commune, elles ont permis de mesurer l’étendue des problématiques qu’il est indispensable de travailler.

Quelles sont les populations qui rencontrent des difficultés avec le numérique ?

  • Les personnes âgées ;
  • les personnes en situation de précarité sociale ou financière ;
  • les personnes ne maîtrisant pas bien la langue française ;
  • les jeunes qui possèdent les outils, mais ne maîtrisent pas les usages ;
  • les personnes en situation de handicap ou qui souffrent de pathologies.

Notre CCAS adresse avec sérieux l’ensemble de ces enjeux. Nos maisons des habitants (anciennement « centres sociaux ») jouent un rôle majeur dans leur prise en charge, partout sur le territoire communal. Des équipes existent, avec qui il n’est pas envisageable de ne pas travailler. Pour autant, dans un effort de cohérence avec le schéma directeur « Échirolles numérique libre », nos élus et notre direction générale ont choisi de rattacher l’inclusion numérique à la DSCN (Direction de la Stratégie et de la Culture Numériques).

Conclusion : la fracture numérique n’est pas un problème en tant que tel. C’est un symptôme d’enjeux sociaux qui doivent rester prioritaires dans l’aide apportée à nos habitants. Traiter la fracture numérique sans prendre en compte les problématiques sous-jacentes serait un pansement sur une jambe de bois. Un travail en transversalité est indispensable.

La médiation comme unique solution ?

Les études réalisées ont également montré que les difficultés rencontrées par notre population ne se limitaient pas aux usages. Un véritable effort d’inclusion numérique nécessite d’adresser 6 grands domaines :

1. L’accès au matériel (PC, smartphones, systèmes d’impression) ;
2. l’accès à une connexion internet de qualité ;
3. la formation technique ;
4. l’information, l’éducation populaire aux grands enjeux du numérique ;
5. l’assistance aux usages, l’accès au droit ;
6. le support matériel.

Les efforts de l’État et des collectivités sur l’inclusion numérique reposent principalement sur la médiation numérique (les points 3, 4 et 5, donc). Dans le cadre du plan « France Relance », par exemple, l’ANCT (Agence Nationale de Cohésion des Territoires) finance depuis 2021 le recrutement de « Conseillers Numériques France Services » dans les associations ou les collectivités territoriales. Des « Maisons France Services » et des « Bus France Services » émaillent également nos régions.

Pour les autres points (1, 2 et 6), seul le secteur privé se positionne. On connaît, par exemple, le travail d’associations comme Emmaüs Connect pour la mise à disposition de smartphones et de cartes SIM prépayées, mais seuls les publics en grande précarité sont adressés.

La mise à disposition, dans les communes, d’accès publics, permet de répondre, en partie, aux problématiques du manque de matériel et d’accès à internet. L’accès aux téléservices mis à disposition (et souvent rendus obligatoires) par l’état et les grandes structures compétentes dans le domaine social, est possible depuis ce type de lieu. Mais la dimension intime de l’accès au numérique n’est pas prise en compte : on ne contacte pas sa grand-mère (ou sa compagne) en visioconférence depuis un lieu public. On ne regarde pas une série ou un match de foot depuis une maison des habitants.

Sans faire l’effort de mettre à la disposition des publics fragiles du matériel et une connexion à internet de qualité à domicile, on ne pratique pas une véritable inclusion : ceux qui ont les moyens disposent d’accès dans des conditions confortables et dans l’intimité, les autres doivent sortir, par tous les temps, pour bénéficier d’un accès au numérique limité, à des horaires qu’ils ne peuvent pas choisir et sous le regard de leurs concitoyens.

La médiation numérique ne peut constituer, à elle seule, un dispositif d’inclusion numérique efficace et complet. Un travail plus ambitieux est indispensable. Nous essayons de nous y atteler (et ce n’est pas simple).

L’inclusion à l’échirolloise

L’accès au matériel

Pour la mise à disposition de matériel pour ceux qui en ont le plus besoin, la ville a choisi de s’appuyer sur une association échirolloise récente : PC solidaire (site en cours de développement au moment où cet article est rédigé). Le processus est en cours de création : notre DSI remettra son matériel usagé à cette association, qui se chargera de le reconditionner et de le remettre gratuitement, via les maisons des habitants, aux bénéficiaires.

L’association a eu l’excellente idée de se pencher sur le schéma directeur de la ville et a choisi, librement, de s’en inspirer. Le système d’exploitation par défaut devrait donc être le même que celui est en cours de déploiement : Zorin OS.

L’accès à internet

C’est le point le plus difficile à travailler, et de loin. L’offre étant exclusivement privée, nous essayons de négocier avec les FAI (fournisseurs d’accès à internet) la mise en place d’une solution très abordable à destination des bénéficiaires de logement sociaux. Des discussions sont en cours, mais aujourd’hui aucune offre véritablement satisfaisante n’est en place. Seule proposition (pas suffisamment) connue, à destination des populations bénéficiant des minima sociaux, celle d’Orange, « Coup de pouce Internet », à 15,99€/mois.

La formation, l’information et l’assistance

Grâce à un financement de l’ANCT, la Ville et son CCAS ont pu, en 2021, recruter 4 conseillers numériques. Ils interviennent dans les maisons des habitants, les bibliothèques et la maison des associations. Spécialisés dans la médiation numérique et formés dans le cadre du dispositif de l’État ils réalisent, depuis juillet 2021, des accompagnements individuels, des ateliers et des sessions de formation. Malheureusement, l’État annonce une baisse des financements et ces emplois sont menacés. Nous travaillons donc à la mise en place d’un nouveau dispositif, pérenne cette fois-ci, et qui ne dépendra pas de financements extérieurs.


Quelques-uns de nos conseillers, au travail dans une MDH

D’autres initiatives existent à Échirolles depuis des années : « Les écrans, parlons-en ! », par exemple. Conçu par le service « éducation » de la ville en lien étroit avec le CCAS, ce dispositif part du principe qu’une bonne hygiène numérique passe aussi par l’éloignement raisonné des écrans.

Mais encore ?

La ville a choisi de ne pas limiter son aide aux seuls habitants, mais aussi aux nombreuses associations qui animent le territoire (→ https://asso-echirolles.fr). Notre tissu associatif est riche de ses bénévoles, dynamique et innovant dans ses actions. Sa contribution au « vivre ensemble » est majeure. L’étude « Échirolles numérique » de 2021 a montré que l’accès aux ressources numériques était très variable en fonction des associations. Nous avons donc décidé de leur apporter une aide sur deux volets : la création de sites web et (dans un second temps) la mise à disposition d’outils numériques de gestion associative.

Le principe est simple : la DSI de la ville prend en charge l’hébergement, crée un sous-domaine dédié à l’association, installe un CMS (système de gestion de contenu) libre et gère les mises à jour (CMS, thèmes, extensions…) et les sauvegardes. 6 ateliers de formation sont organisés pour apprendre à créer son contenu et à faire vivre le site. À l’issue de ces ateliers, l’association administre son site en autonomie. En cas de problème, un forum permet d’échanger avec le formateur et les autres associations qui bénéficient du dispositif. Le point fort : si les personnes en charge du site ne sont plus en mesure de s’en occuper, un retour en atelier est toujours possible pour qu’une nouvelle équipe s’en saisisse.

Inclusion vs dégooglisation

L’efficacité du dispositif d’inclusion numérique de la ville repose sur deux piliers principaux : le schéma directeur, boussole technique et politique de nos choix, et le travail en transversalité, qui garantit une présence partout sur le territoire et la prise en compte de la problématique dans sa globalité. Rattaché à la direction du numérique, il permet une action cohérente à l’échelle de la ville.

Ce lien entre action sociale et stratégie numérique est l’une des forces d’Échirolles. Il est l’un des éléments qui permettent de faire rayonner le schéma directeur à l’échelle de la commune, et pas seulement en interne. Mais une autre façon d’agir (et surtout d’interagir) au delà sur périmètre de la ville existe. Elle fera l’objet du cinquième et dernier article de cette série.

L’épisode 1 (structuration)
L’épisode 2 (transformation)
L’épisode 3 (solutions)
L’épisode 4 (vous êtes ici)
L’épisode 5 (fédération)

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant

Échirolles libérée ! La dégooglisation (5)

Par : Framasoft
7 avril 2023 à 01:42

Voici aujourd’hui le 5e et dernier article que Nicolas Vivant consacre à la dégooglisation de la ville d’Échirolles (si vous avez raté les épisodes précédents). Maintenant que les outils sont en place, il est temps d’envisager comment la mutualisation et la décentralisation conjuguées pourraient ouvrir de nouvelles perspectives aux citoyens et citoyennes de l’agglomération.


Le grand absent de ce récit est le travail important entamé sur la réduction de l’impact environnemental du numérique. C’est un fil conducteur permanent pour notre action. De nombreuses choses sont faites, mais d’autres décrivent beaucoup mieux que nous les enjeux, les outils et ce qu’il convient de faire pour avancer. Leur travail nous sert de guide. J’y reviendrai dans un article (modeste et) dédié.

Voir plus loin pour viser juste

Une vision pour l’avenir, ce n’est pas une prédiction, ni même une prévision. C’est simplement un axe, une direction. C’est ce qui permet, quand deux chemins existent, de faire un choix. Ce n’est évidemment pas une garantie que ce choix soit le bon mais si, à chaque carrefour, une direction existe qui aide à se déterminer, alors nous gagnons en cohérence, en rapidité de décision et, finalement, en efficacité.

Dans un monde où la dégooglisation serait une réalité, où les logiciels libres seraient dominants et où transparence et partage des données s’imposeraient comme une évidence, quel pourrait être l’étape suivante ? Et quelles pierres poser, dès aujourd’hui, qui tendraient vers cet objectif et pourraient orienter notre action ?

La décentralisation comme facteur de résilience

Historiquement, l’internet public est une architecture décentralisée. C’est même l’une des raisons de sa création : l’interconnexion de réseaux divers, dans un but de coopération. Même si le récit d’un internet construit comme un réseau permettant de résister à une attaque nucléaire est une légende urbaine, les événements récents ont permis de vérifier que la décentralisation était bien l’une des clés de la résilience des systèmes d’information.

En France, la plupart des accès résidentiels reposent sur Orange, Free, Bouygues et SFR. Quatre infrastructures qui, si elles étaient attaquées, affecteraient durablement nos communications. Une étude du RIPE a montré comment l’internet ukrainien résistait au black-out général malgré les nombreuses dégradations de l »infrastructure. Le secret ? Une structure distribuée, décentralisée, et des fournisseurs d’accès locaux partout dans le pays.

L’exemple le plus connu (et l’un des plus anciens) d’un système fédéré est la messagerie électronique. Les fournisseurs d’adresses e-mail sont innombrables mais, parce qu’ils ont choisi d’utiliser des protocoles standard, interopérables, chaque utilisateur peut échanger des messages avec tous les autres. Si l’un des prestataires techniques disparaît (c’est arrivé plusieurs fois), il ne met pas en danger l’intégralité du système. La domination d’un acteur, en revanche, parce qu’elle repose sur la centralisation des ressources (pensons à Gmail), peut fragiliser cette construction.

Mais l’angle de la résilience n’est pas le seul qu’il est intéressant d’interroger.

Décentralisation et mutualisation

Dans l’esprit de la plupart de nos décideurs, mutualisation et centralisation vont de pair, l’un des objectifs d’un effort de mise en commun des moyens étant de réaliser des économies d’échelle. Pour un certain nombre d’applications centrales, cette promesse est tenue. Cependant, quelques inconvénients sont associés à ce type de projet :

  • éloignement des organes de décision
  • perte d’autonomie dans les choix techniques ou politiques
  • moindre connaissance de l’environnement des utilisateurs
  • moindre réactivité dans la mise en œuvre des projets

Comment articuler coopération (pour une plus grande efficacité dans les projets transversaux) et autonomie (pour conserver une certaine liberté de choix et d’action) ?

En coopérant, des structures indépendantes peuvent créer des réseaux au service de projets d’envergure, tout en conservant leur autonomie de gestion, d’évolution et d’action. Des moyens techniques existent, et elles sont très largement implantées dans les solutions libres. ActivityPub a été officiellement publié comme recommandation du W3C le 23 janvier 2018.

Ce standard, qui permet d’interfacer des solutions diverses, est présent dans plusieurs des logiciels utilisés par la ville d’Échirolles : Nextcloud (plateforme collaborative), Peertube (hébergement de vidéos), Mastodon (réseau social) et WordPress (création de sites web). Ces quatre outils sont de plus en plus utilisés par les collectivités territoriales, les ministères et les partenaires de la ville, mais les fonctionnalités de fédération sont rarement mises en œuvre, en interne comme en externe. Pourtant, les applications pourraient être nombreuses : partage d’annuaires/de dossiers entre collectivités (Nextcloud), meilleure visibilité de la communication des structures associées (Peertube), création de sites dans le cadre de projets intercommunaux (WordPress), mise en avant des actions d’un territoire (Mastodon), etc.

La fédération comme horizon

Au sein d’Alpes Numérique Libre, le collectif de DSI de la région grenobloise autour des logiciels libres, le sujet est en train de naître, sans concrétisation pour le moment. La mise en place d’une fédération des acteurs au sein d’un même territoire géographique pourrait être une première pierre posée, une expérience intéressante du point de vue de l’action publique dont nous pourrions, peut-être, tirer des enseignements plus larges.

Les EPCI (établissements publics de coopération intercommunale), comme le SITPI ou Grenoble Alpes Métropole dans notre région, pourraient jouer un rôle moteur dans ce type d’initiative : idéalement positionnés au centre des réseaux communaux, ils disposent d’une architecture parfaitement adaptée.

L’instance Mastodon colter.social, créée, hébergée et maintenue par le SITPI est, à ce titre, un précurseur intéressant de ce que pourraient être ces fonctionnements fédératifs. Mise à disposition de l’ensemble des collectivités territoriales, sa modération est assurée par les agents de collectivités qui ne sont pas forcément adhérentes du syndicat, mais qui ont choisi de coopérer. Des outils comme Zammad ou Signal (pour des instances plus importantes, pourquoi pas un serveur Matrix ?) permettent d’organiser efficacement ce travail.

Plusieurs autres systèmes de mutualisation innovants pourraient être imaginés, alliant la mise à disposition de ressources pour les petites collectivités (un serveur PeerTube partagé, par exemple) et une fédération avec les structures de taille plus importante, chacune maintenant sa propre solution.

Nous n’en sommes pas là pour le moment, et nombreuses sont les collectivités qui reposent sur des solutions hébergées (en mode SaaS), souvent chez des grands acteurs américains (Google, Microsoft, Amazon…), parce qu’elles n’ont pas les compétences ou les ressources financières permettant un autre fonctionnement.

Pas toujours très bien structurées, focalisées sur leur transformation numérique, choisie ou subie, ce type de projet peut paraître bien éloigné de leurs préoccupations quotidiennes. Mais il me semblait intéressant de faire ce travail de prospective, comme un horizon vers lequel nous pourrions, individuellement et collectivement, choisir de tendre.

L’épisode 1 (structuration)
L’épisode 2 (transformation)
L’épisode 3 (solutions)
L’épisode 4 (inclusion)
L’épisode 5 (vous êtes ici)

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant

Évaluer l’impact de la médiation numérique

13 avril 2023 à 02:50

Cette semaine, dans le cadre de la série Lost in médiation, nous republions un article de Loïc Gervais qu’il a publié le 14 mars 2023 sur son blog personnel car nous trouvons que son contenu fait écho aux réflexions menées ces dernières semaines sur la médiation numérique. Bonne lecture !

Musicien, improvisateur, papa et médiateur numérique, Loïc Gervais est par ailleurs chargé de projet inclusion numérique pour le Département de la Haute Savoie.

 

Quand on aborde la question de la médiation numérique, la notion d’impact est très rapidement associée. Les différentes politiques publiques d’inclusion numérique partent du principe que le développement des compétences numériques va augmenter le pouvoir d’agir de l’usager. Ces politiques ont conduit à des logiques d’équipement de masse des différents publics. De nombreuses collectivités ont ainsi équipé les écoliers, collégiens ou lycéens d’ordinateurs ou de tablettes afin de contribuer à la réussite éducative de ces derniers. Pour autant chacun peut s’accorder à dire que l’équipement ne fait pas le bachelier. La réussite éducative d’un enfant ne se limite pas au fait de posséder un appareil connecté à internet fut-il la tablette dernier cri. L’accompagnement des publics s’est imposé par la force des choses. Bien souvent cet accompagnement n’a été pensé que sur la montée en compétence numérique de l’usager sans prendre en compte sa situation dans son ensemble. Aussi, si nous voulons mesurer l’impact de la médiation numérique il nous faut peut être le faire à l’aune d’autres critères.

Évaluation numérique

Nous n’avons guère le choix. Notre action s’inscrit dans une logique de montée en compétences numériques des publics. La stratégie nationale d’inclusion numérique est bâtie sur cette idée d’accompagner les publics éloignés du numérique en les faisant monter en compétence afin d’être autonome d’un point de vue numérique. Personne ne prétend que cela va améliorer leur situation. Tout au plus on explique qu’ainsi ils pourraient recourir à leurs droits sans appui d’un travailleur social. Or si l’objectif de l’autonomie numérique est de pouvoir s’affranchir de l’appui d’un travailleur social pour réclamer son droit, l’une des solutions possible est de rendre ses droits effectifs en les attribuant directement sans démarche proactive de la part de l’usager. Sauf que la logique qui prévaut c’est de demander à l’usager de se mettre au niveau de l’administration, et non l’inverse.

Aussi dans nos actions de médiation numérique, il nous faut jouer le jeu de cette montée en compétences techniques. Cela nécessite un travail d’ingénierie pédagogique pour définir d’une part des compétences pédagogiques à atteindre. D’autre part, il faut également associer une évaluation de la formation. La mise en place d’un référentiel pédagogique partagé est un préalable indispensable pour évaluer une action d’inclusion numérique. Si mon objectif est d’accompagner un usager jusqu’à l’autonomie (au minimum), il me faut savoir si cela signifie qu’il doit connaître la différence entre le clic droit et le clic gauche de la souris ou si cela implique de rédiger un prompt sur ChatGPT. J’ai ainsi proposé dans le cadre du Conseil National de la Refondation dédié à l’inclusion numérique de définir un référentiel de compétences socles à acquérir pour pouvoir être déclaré « autonome d’un point de vue numérique ». Cette évaluation apparaît incontournable. Elle répond à une commande institutionnelle (qui demande à être précisée) de l’État. Elle n’en demeure pas moins incomplète pour mesurer l’impact d’une action de médiation numérique.

Évaluation sociale

Les « éloignés du numérique » (pour reprendre l’expression du gouvernement) sont pour la plus grande partie des personnes en difficulté sociale. Leur motivation première est donc de trouver une réponse à cette problématique sociale dont le traitement ne peut se faire que par voie numérique. En fonction du dispositif dans lequel s’inscrit l’accompagné, nous disposons d’ores et déjà d’indicateurs à renseigner. Pour un demandeur d’emploi, nous aurons pour objectif de l’accompagner vers le retour à l’emploi. Évidemment, il faut adapter ces objectifs à la situation personnalisée de la personne accompagnée. Il est plus difficile de retrouver un emploi à 60 ans qu’à 28 ans. Dans tous les cas nous pourrons nous interroger sur la manière dont le numérique aura été mobilisé tout au long du parcours de l’usager et comment il aura contribué à répondre à la problématique. Cette prise en compte globale de la situation de la personne demande un travail en équipe transversale. Dans bien des cas, ce travail en équipe dépassera les murs de la structure en propre pour impliquer d’autres acteurs.

En intégrant la dimension sociale de l’usager à l’évaluation nous nous offrons une marge de priorisation. Une personne isolée qui a suivi dix ateliers en groupe sur le mail aura rompu son isolement sans nécessairement réussir à envoyer un mail. Nous devrons nous interroger sur ce qui nous importe et pour cette question nous devrons associer l’usager à la construction de ses propres objectifs. En ce sens, l’utilisation de la toile des capabilités pourrait s’avérer un atout précieux. Malheureusement cet outil a été abandonné avant même d’avoir eu l’opportunité d’être déployé.

Évaluation systémique

Ce qui est fascinant dans les démarches d’évaluation menées c’est qu’elles sont toutes centrées sur l’usager. Or si nous voulons répondre aux problématiques sociales des éloignés du numériques, nous devons remettre en cause notre façon d’aborder les problématiques. Nous déployons des dispositifs qui obéissent à une logique de silos, là où la prise en charge doit être transversale. Si la médiation numérique doit avoir un premier impact c’est dans notre manière de considérer la problématique de chaque individu en premier lieu. Un médiateur numérique endosse tour à tour les casquettes de travailleur social, conseiller en insertion, tiers de confiance et tant d’autres. Pour répondre à ces défis, il nous faut mobiliser des équipes pluridisciplinaires du social, de l’éducation, de l’enfance, des bâtiments, de l’informatique, des ressources humaines, des finances, de la culture, du développement durable et d’autres encore.

Si nous voulons réellement évaluer l’impact de ce que nous faisons, le premier défi auquel on doit s’attaquer c’est de réinterroger les manières de faire de l’institution à la lumière de l’impact du numérique dans la transformation de nos actions.

Un grand merci à Loïc Gervais d’avoir accepté qu’on publie ici ses réflexions. Si celles-ci vous font réagir, n’hésitez pas à partager les vôtres en commentaires.

Infrastructures numériques de communication pour les anarchistes (et tous les autres…)

Par : Framatophe
14 avril 2023 à 05:42

Des moyens sûrs de communiquer à l’abri de la surveillance ? Évitons l’illusion de la confidentialité absolue et examinons les points forts et limites des applications…

 

PRÉAMBULE

Nous avons des adversaires, ils sont nombreux. Depuis la première diffusion de Pretty Good Privacy (PGP) en 1991 par Philip Zimmermann, nombreuses furent les autorités publiques ou organisations privées à s’inquiéter du fait que des individus puissent échanger des messages rigoureusement indéchiffrables en vertu de lois mathématiques (c’est moins vrai avec les innovations en calculateurs quantiques). Depuis lors, les craintes ne cessèrent d’alimenter l’imaginaire du bloc réactionnaire.

On a tout envisagé, surtout en se servant de la lutte contre le terrorisme et la pédopornographie, pour mieux faire le procès d’intention des réseaux militants, activistes, anarchistes. Jusqu’au jour où les révélations d’E. Snowden (et bien d’autres à la suite) montrèrent à quel point la vie privée était menacée (elle l’est depuis 50 ans de capitalisme de surveillance), d’autant plus que les outils de communication des multinationales du numérique sont largement utilisés par les populations.

Les libertariens s’enivrèrent de cette soif de protection de nos correspondances. Ils y voyaient (et c’est toujours le cas) un point d’ancrage de leur idéologie capitaliste, promouvant une « liberté » contre l’État mais de fait soumise aux logiques débridées du marché. Dès lors, ceux qu’on appelle les crypto-anarchistes, firent feu de ce bois, en connectant un goût certain pour le solutionnisme technologique (blockchain et compagnie) et un modèle individualiste de communication entièrement chiffré où les crypto-monnaies remplissent le rôle central dans ce marché prétendu libre, mais ô combien producteur d’inégalités.

Alimentant le mélange des genres, certains analystes, encore très récemment, confondent allègrement les anarchistes et les crypto-anarchistes, pour mieux dénigrer l’importance que nous accordons à la légitimité sociale, solidaire et égalitaire des protocoles de communication basés sur le chiffrement. Or, ce sont autant de moyens d’expression et de mobilisation démocratique et ils occupent une place centrale dans les conditions de mobilisation politique.

Les groupes anarchistes figurent parmi les plus concernés, surtout parce que les logiques d’action et les idées qui y sont partagées sont de plus en plus insupportables aux yeux des gouvernements, qu’il s’agisse de dictatures, d’illibéralisme, ou de néofascisme. Pour ces adversaires, le simple fait d’utiliser des communications chiffrées (sauf quand il s’agit de protéger leurs corruptions et leurs perversions) est une activité suspecte. Viennent alors les moyens de coercition, de surveillance et de contrôle, la technopolice. Dans cette lutte qui semble sans fin, il faut néanmoins faire preuve de pondération autant que d’analyse critique. Bien souvent on se précipite sur des outils apparemment sûrs mais peu résilients. Gratter la couche d’incertitude ne consiste pas à décourager l’usage de ces outils mais montrer combien leur usage ne fait pas l’économie de mises en garde.

Dans le texte qui suit, issu de la plateforme d’information et de médias It’s Going Down, l’auteur prend le parti de la prévention. Par exemple, ce n’est pas parce que le créateur du protocole Signal et co-fondateur de la Signal Foundation est aussi un anarchiste (quoique assez individualiste) que l’utilisation de Signal est un moyen fiable de communication pour un groupe anarchiste ou plus simplement militant. La convivialité d’un tel outil est certes nécessaire pour son adoption, mais on doit toujours se demander ce qui a été sacrifié en termes de failles de sécurité. Le même questionnement doit être adressé à tous les autres outils de communication chiffrée.

C’est à cette lourde tâche que s’attelle l’auteur de ce texte, et il ne faudra pas lui tenir rigueur de l’absence de certains protocoles tels Matrix ou XMPP. Certes, on ne peut pas aborder tous les sujets, mais il faut aussi lire cet article d’après l’expérience personnelle de l’auteur. Si Signal et Briar sont les objets centraux de ses préoccupations, son travail cherche surtout à produire une vulgarisation de concepts difficiles d’accès. C’est aussi l’occasion d’une mise au point actuelle sur nos rapports aux outils de communication chiffrée et la manière dont ces techniques et leurs choix conditionnent nos communications. On n’oubliera pas son message conclusif, fort simple : lorsqu’on le peut, mieux vaut éteindre son téléphone et rencontrer ses amis pour de vrai…

Framatophe / Christophe Masutti

 

Pour lire le document (50 pages) qui suit hors-connexion, ou pour l’imprimer, voici quatre liens de téléchargement :

Format .EPUB (3 Mo)

Impression format A4 imposé .PDF (2 Mo)

Impression format Letter imposé .PDF (2 Mo)

Lecture simple .PDF (2 Mo)

 

 

 

 

Infrastructures numériques de communication pour les anarchistes

(et tous les autres…)

Un aperçu détaillé et un guide des diverses applications qui utilisent le pair-à-pair, le chiffrement et Tor

Source : The Guide to Peer-to-Peer, Encryption, and Tor : New Communication Infrastructure for Anarchists, It’s Going Down, 06 oct. 2022.
Traduction : Christophe Masutti
Révisions Framalang : ellébore, goofy, Henri-Paul, jums, Sichat, Wisi_eu

Les applications de chat sécurisées avec chiffrement constituent une infrastructure numérique essentielle pour les anarchistes. Elles doivent donc être examinées de près. Signal est un outil de chiffrement sécurisé très utilisé par les anarchistes aujourd’hui. Au-delà des rumeurs complotistes, l’architecture de base et les objectifs de développement de Signal présentent certaines implications en termes de sécurité pour les anarchistes. Signal est un service de communication centralisé. La centralisation peut avoir des conséquences sur la sécurité, en particulier lorsque elle est mise en perspective avec l’éventail des menaces. D’autres applications de chat sécurisées, comme Briar et Cwtch, sont des outils de communication pair-à-pair qui, en plus d’être chiffrés comme Signal, font transiter tout le trafic par Tor (appelé aussi CPT pour communication Chiffrée en Pair-à-pair via Tor). Cette conception de communication sécurisée offre de grands avantages en termes de sécurité, d’anonymat et de respect de la vie privée, par rapport à des services plus courants tels que Signal, malgré quelques réserves. Cependant, les anarchistes devraient sérieusement envisager d’essayer et d’utiliser Briar et/ou Cwtch, pour pouvoir former une infrastructure de communication plus résiliente et plus sûre.

Malgré tout, la meilleure façon de communiquer en toute sécurité demeure le face à face.

Chhhhuuut…

Il est ici question des outils numériques qui permettent de communiquer en toute sécurité et en toute confidentialité. Pour bien commencer, il s’agit d’insister sur le fait que le moyen le plus sûr de communiquer reste une rencontre en face à face, à l’abri des caméras et hors de portée sonore d’autres personnes et appareils. Les anarchistes se promenaient pour discuter bien avant que les textos chiffrés n’existent, et ils devraient continuer à le faire aujourd’hui, à chaque fois que c’est possible.

Ceci étant dit, il est indéniable que les outils de communication numérique sécurisés font maintenant partie de notre infrastructure anarchiste. Peut-être que nous sommes nombreux à nous appuyer sur eux plus que nous ne le devrions, mais ils sont devenus incontournables pour se coordonner, collaborer et rester en contact. Puisque ces outils constituent une infrastructure indispensable, il est vital pour nous d’examiner et réévaluer constamment leur sécurité et leur aptitude à protéger nos communications contre nos adversaires.

Au cours des dix ou vingt dernières années, les anarchistes ont été les premiers à adopter ces outils et ces techniques de communication chiffrée. Ils ont joué un rôle majeur dans la banalisation et la diffusion de leur utilisation au sein de nos propres communautés, ou auprès d’autres communautés engagées dans la résistance et la lutte. Le texte qui suit a pour but de présenter aux anarchistes les nouveaux outils de communication chiffrée et sécurisée. Il s’agit de démontrer que nous devrions les adopter afin de renforcer la résilience et l’autonomie de notre infrastructure. Nous pouvons étudier les avantages de ces nouvelles applications, voir comment elles peuvent nous aider à échapper à la surveillance et à la répression – et par la suite les utiliser efficacement dans nos mouvements et les promouvoir plus largement.

schéma d'une bulle de conversation en partie pointillée, en partie en traits pleins

Le plus simple est de présenter les nouvelles applications de chat sécurisé en les comparant avec celle que tout le monde connaît : Signal. Signal est de facto l’infrastructure de communication sécurisée de beaucoup d’utilisatrices, du moins en Amérique du Nord. Et de plus en plus, elle devient omniprésente en dehors des cercles anarchistes. Si vous lisez ceci, vous utilisez probablement Signal, et il y a de fortes chances que votre mère ou qu’un collègue de travail l’utilise également. L’utilisation de Signal a explosé en janvier 2021 (à tel point que le service a été interrompu pendant 24 heures), atteignant 40 millions d’utilisateurs quotidiens. Signal permet aux utilisateurs d’échanger très facilement des messages chiffrés. Il est issu d’un projet antérieur appelé TextSecure, qui permettait de chiffrer les messages SMS (les textos à l’ancienne, pour les baby zoomers qui nous lisent). TextSecure, et plus tard Signal, ont très tôt bénéficié de la confiance des anarchistes, en grande partie grâce au réseau de confiance IRL entre le développeur principal, Moxie Marlinspike, et d’autres anarchistes.

Au début de l’année 2022, Moxie a quitté Signal, ce qui a déclenché une nouvelle vague de propos alarmistes à tendance complotiste. Le PDG anarchiste de Signal a démissionné. Signal est neutralisé. Un article intitulé « Signal Warning », publié sur It’s Going Down, a tenté de dissiper ces inquiétudes et ces hypothèses complotistes, tout en discutant de la question de savoir si les anarchistes peuvent encore « faire confiance » à Signal (ils le peuvent, avec des mises en garde comme toujours). L’article a réitéré les raisons pour lesquelles Signal est, en fait, tout à fait sûr et digne de confiance (il est minutieusement audité et examiné par des experts en sécurité).

Cependant, l’article a laissé entendre que le départ de Moxie établissait, à tout le moins, une piqûre de rappel sur la nécessité d’un examen critique et sceptique permanent de Signal, et qu’il en va de même pour tout outil ou logiciel tiers utilisé par les anarchistes.

« Maintenant que la couche de vernis est enlevée, notre capacité à analyser Signal et à évaluer son utilisation dans nos milieux peut s’affranchir des distorsions que la confiance peut parfois engendrer. Nous devons désormais considérer l’application et son protocole sous-jacent tels qu’ils sont : un code utilisé dans un ordinateur, avec tous les avantages et les inconvénients que cela comporte. On en est encore loin, et, à ce jour, on ne va même pas dans cette direction. Mais, comme tous les systèmes techniques, nous devons les aborder de manière sceptique et rationnelle »

Signal continue de jouir d’une grande confiance, et aucune contre-indication irréfutable n’a encore été apportée en ce qui concerne la sécurité de Signal. Ce qui suit n’est pas un appel à abandonner Signal – Signal reste un excellent outil. Mais, étant donné son rôle prépondérant dans l’infrastructure anarchiste et l’intérêt renouvelé pour la question de savoir si nous pouvons ou devons faire confiance à Signal, nous pouvons profiter de cette occasion pour examiner de près l’application, son fonctionnement, la manière dont nous l’utilisons, et explorer les alternatives. Un examen minutieux de Signal ne révèle pas de portes dérobées secrètes (backdoors), ni de vulnérabilités béantes. Mais il révèle une priorité donnée à l’expérience utilisateur et à la rationalisation du développement par rapport aux objectifs de sécurité les plus solides. Les objectifs et les caractéristiques du projet Signal ne correspondent peut-être pas exactement à notre modèle de menace. Et en raison du fonctionnement structurel de Signal, les anarchistes dépendent d’un service centralisé pour l’essentiel de leurs communications sécurisées en ligne. Cela a des conséquences sur la sécurité, la vie privée et la fiabilité.

Il existe toutefois des alternatives développées en grande partie pour répondre spécifiquement à ces problèmes. Briar et Cwtch sont deux nouvelles applications de chat sécurisé qui, comme Signal, permettent également l’échange de messages chiffrés. Elles sont en apparence très proches de Signal, mais leur fonctionnement est très différent. Alors que Signal est un service de messagerie chiffrée, Briar et Cwtch sont des applications qui permettent l’échange de messages Chiffrés et en Pair-à-pair via Tor (CPT). Ces applications CPT et leur fonctionnement seront présentés en détail. Mais la meilleure façon d’expliquer leurs avantages (et pourquoi les anarchistes devraient s’intéresser à d’autres applications de chat sécurisées alors que nous avons déjà Signal) passe par une analyse critique approfondie de Signal.

Modèle de menace et avertissements

Avant d’entrer dans le vif du sujet, il est important de replacer cette discussion dans son contexte en définissant un modèle de menace pertinent. Dans le cadre de cette discussion, nos adversaires sont les forces de l’ordre au niveau national ou bien les forces de l’ordre locales qui ont un accès aux outils des forces de l’ordre nationale. Malgré le chiffrement de bout en bout qui dissimule le contenu des messages en transit, ces adversaires disposent de nombreuses ressources qui pourraient être utilisées pour découvrir ou perturber nos activités, nos communications ou nos réseaux afin de pouvoir nous réprimer. Il s’agit des ressources suivantes :

  • Ils ont un accès facile aux sites de médias sociaux et à toutes autres informations publiques.
  • Dans certains cas, ils peuvent surveiller l’ensemble du trafic internet du domicile d’une personne ciblée ou de son téléphone.
  • Ils peuvent accéder à des données ou à des métadonnées « anonymisées » qui proviennent d’applications, d’opérateurs de téléphonique, de fournisseurs d’accès à Internet, etc.
  • Ils peuvent accéder au trafic réseau collecté en masse à partir des nombreux goulots d’étranglement de l’infrastructure internet.
  • Avec plus ou moins de succès, ils peuvent combiner, analyser et corréler ces données et ce trafic réseau afin de désanonymiser les utilisateurs, de cartographier les réseaux sociaux ou de révéler d’autres informations potentiellement sensibles sur des individus ou des groupes et sur leurs communications.
  • Ils peuvent compromettre l’infrastructure de l’internet (FAI, fournisseurs de services, entreprises, développeurs d’applications) par la coercition ou le piratage1.

Le présent guide vise à atténuer les capacités susmentionnées de ces adversaires, mais il en existe bien d’autres qui ne peuvent pas être abordées ici :

  • Ils peuvent infecter à distance les appareils des personnes ciblées avec des logiciels malveillants d’enregistrement de frappe au clavier et de pistage, dans des cas extrêmes.
  • Ils peuvent accéder à des communications chiffrées par l’intermédiaire d’informateurs confidentiels ou d’agents infiltrés.
  • Ils peuvent exercer de fortes pressions ou recourir à la torture pour contraindre des personnes à déverrouiller leur téléphone ou leur ordinateur ou à donner leurs mots de passe.
  • Bien qu’ils ne puissent pas casser un système de chiffrement robuste dans un délai raisonnable, ils peuvent, en cas de saisie, être en mesure d’obtenir des données à partir d’appareils apparemment chiffrés grâce à d’autres vulnérabilités (par exemple, dans le système d’exploitation de l’appareil) ou de défaillances de la sécurité opérationnelle.

Toute méthode de communication sécurisée dépend fortement des pratiques de sécurité de l’utilisateur. Peu importe que vous utilisiez l’Application de Chat Sécurisée Préférée d’Edward Snowden TM si votre adversaire a installé un enregistreur de frappe sur votre téléphone, ou si quelqu’un partage des captures d’écran de vos messages chiffrés sur Twitter, ou encore si votre téléphone a été saisi et n’est pas correctement sécurisé.

Une explication détaillée de la sécurité opérationnelle, de la culture de la sécurité, des concepts connexes et des meilleures pratiques dépasse le cadre de ce texte – cette analyse n’est qu’une partie de la sécurité opérationnelle pertinente pour le modèle de menace concerné. Vous devez envisager une politique générale de sécurité pour vous protéger contre la menace des infiltrés et des informateurs. Comment utiliser en toute sécurité des appareils, comme les téléphones et les ordinateurs portables, pour qu’ils ne puissent pas servir à monter un dossier s’ils sont saisis, et comment adopter des bonnes habitudes pour réduire au minimum les données qui se retrouvent sur les appareils électroniques (rencontrez-vous face à face et laissez votre téléphone à la maison !)

La « cybersécurité » évolue rapidement : il y a une guerre d’usure entre les menaces et les développeurs d’applications. Les informations fournies ici seront peut-être obsolètes au moment où vous lirez ces lignes. Les caractéristiques ou la mise en œuvre des applications peuvent changer, qui invalident partiellement certains des arguments avancés ici (ou qui les renforcent). Si la sécurité de vos communications électroniques est cruciale pour votre sécurité, vous ne devriez pas vous croire sur parole n’importe quelle recommandation, ici ou ailleurs.

Perte de Signal

Vous avez probablement utilisé Signal aujourd’hui. Et Signal ne pose pas vraiment de gros problèmes. Il est important de préciser que malgré les critiques qui suivent, l’objectif n’est pas d’inciter à la panique quant à l’utilisation de Signal. Il ne s’agit pas de supprimer l’application immédiatement, de brûler votre téléphone et de vous enfuir dans les bois. Cela dit, peut-être pourriez-vous le faire pour votre santé mentale, mais en tout cas pas seulement à cause de ce guide. Vous pourriez envisager de faire une petite randonnée au préalable.

Une parenthèse pour répondre à certaines idées complotistes

Une rapide recherche sur DuckDuckGo (ou peut-être une recherche sur Twitter ? Je ne saurais dire) avec les termes « Signal CIA », donnera lieu à de nombreuses désinformations et théories complotistes à propos de Signal. Compte tenu de la nature déjà critique de ce guide et de l’importance d’avoir un avis nuancé, penchons-nous un peu sur ces théories.

La plus répandue nous dit que Signal aurait été développé secrètement par la CIA et qu’il serait donc backdoorisé. Par conséquent, la CIA (ou parfois la NSA) aurait la possibilité d’accéder facilement à tout ce que vous dites sur Signal en passant par leur porte dérobée secrète.

« L’étincelle de vérité qui a embrasé cette théorie complotiste est la suivante : entre 2013 et 2016, les développeurs de Signal ont reçu un peu moins de 3 millions de dollars américains de financement de la part de l’Open Technology Fund (OTF). L’OTF était à l’origine un programme de Radio Free Asia, supervisé par l’Agence américaine pour les médias mondiaux (U. S. Agency for Global Media, USAGM – depuis 2019, l’OTF est directement financé par l’USAGM). L’USAGM est une « agence indépendante du gouvernement américain », qui promeut les intérêts nationaux des États-Unis à l’échelle internationale et qui est financée et gérée directement par le gouvernement américain. Donc ce dernier gère et finance USAGM/Radio Free Asia, qui finance l’OTF, qui a financé le développement de Signal (et Hillary Clinton était secrétaire d’État à l’époque ! !) : c’est donc la CIA qui aurait créé Signal… »

L’USAGM (et tous ses projets tels que Radio Free Asia et l’OTF) promeut les intérêts nationaux américains en sapant ou en perturbant les gouvernements avec lesquels les États-Unis sont en concurrence ou en conflit. Outre la promotion de contre-feux médiatiques (via le soutien à une « presse libre et indépendante » dans ces pays), cela implique également la production d’outils pouvant être utilisés pour contourner la censure et résister aux « régimes oppressifs ».

Les bénéficiaires de la FTO sont connus et ce n’est un secret pour personne que l’objectif affiché de la FTO consiste à créer des outils pour subvertir les régimes qui s’appuient fortement sur la répression en ligne, sur la surveillance généralisée et sur la censure massive de l’internet pour se maintenir au pouvoir (et que ces régimes sont ceux dont le gouvernement américain n’est pas fan). Comment et pourquoi cela se produit en relation avec des projets tels que Signal est clairement rapporté par des médias grand public tels que le Wall Street Journal. Des médias comme RT rapportent également ces mêmes informations hors contexte et en les embellissant de manière sensationnelle, ce qui conduit à ces théories complotistes.

Illustration 2: Le journaliste Kit Klarenburg se plaît à produire des articles farfelus sur Signal pour des médias tels que RT.
Illustration 2 : Le journaliste Kit Klarenburg se plaît à produire des articles farfelus sur Signal pour des médias tels que RT.

Signal est un logiciel open source, ce qui signifie que l’ensemble de son code est vérifié et examiné par des experts. C’est l’application-phare où tout le monde cherche une porte dérobée de la CIA. Or, en ce qui concerne la surveillance de masse, il est plus facile et plus efficace pour nos adversaires de dissimuler des dispositifs de surveillance dans des applications et des infrastructures internet fermées et couramment utilisées, avec la coopération d’entreprises complices. Et en termes de surveillance ciblée, il est plus facile d’installer des logiciels malveillants sur votre téléphone.

De nombreux projets de logiciels open-source, comme Signal, ont été financés par des moyens similaires. La FTO finance ou a financé de nombreux autres projets dont vous avez peut-être entendu parler : Tor (au sujet duquel il existe des théories complotistes similaires), K-9 Mail, NoScript, F-Droid, Certbot et Tails (qui compte des anarchistes parmi ses développeurs).

Ces financements sont toujours révélés de manière transparente. Il suffit de consulter la page des sponsors de Tails, où l’on peut voir que l’OTF est un ancien sponsor (et que son principal sponsor actuel est… le département d’État des États-Unis !) Les deux applications CPT dont il est question dans ce guide sont en partie financées par des sources similaires.

On peut débattre sans fin sur les sources de financement des projets open source qui renforcent la protection de la vie privée ou la résistance à la surveillance : conflits d’intérêts, éthique, crédibilité, développement de tels outils dans un contexte de géopolitique néolibérale… Il est bon de faire preuve de scepticisme et de critiquer la manière dont les projets sont financés, mais cela ne doit pas nous conduire à des théories complotistes qui obscurcissent les discussions sur leur sécurité dans la pratique. Signal a été financé par de nombreuses sources « douteuses » : le développement initial de Signal a été financé par la vente du projet précurseur (TextSecure) à Twitter, pour un montant inconnu. Plus récemment, Signal a bénéficié d’un prêt de 50 millions de dollars à taux zéro de la part du fondateur de WhatsApp, qui est aujourd’hui directeur général de la Signal Foundation. Il existe de nombreuses preuves valables qui expliquent pourquoi et comment Signal a été financé par une initiative des États-Unis visant à dominer le monde, mais elles ne suggèrent ni n’impliquent d’aucune façon l’existence d’une porte dérobée, impossible à dissimuler, conçue par la CIA pour cibler les utilisatrices de Signal.

– Alors, Signal c’est bien, en fait ?

Si Signal n’est pas une opération secrète de la CIA, alors tout va bien, non ? Les protocoles de chiffrement de Signal sont communément considérés comme sûrs. En outre, Signal a l’habitude d’améliorer ses fonctionnalités et de remédier aux vulnérabilités en temps voulu, de manière transparente. Signal a réussi à rendre les discussions chiffrées de bout en bout suffisamment faciles pour devenir populaires. L’adoption généralisée de Signal est très certainement une bonne chose.

Thèses complotistes mises à part, les anarchistes ont toutefois de bonnes raisons d’être sceptiques à l’égard de Signal. Pendant le développement de Signal, Moxie a adopté une approche quelque peu dogmatique à l’égard de nombreux choix structurels et d’ingénierie logicielle. Ces décisions ont été prises intentionnellement (comme expliqué dans des articles de blog, lors de conférences ou dans divers fils de discussion sur GitHub) afin de faciliter l’adoption généralisée de Signal Messenger parmi les utilisateurs les moins avertis, mais aussi pour préparer la croissance du projet à long terme, et ainsi permettre une évolution rationalisée tout en ajoutant de nouvelles fonctionnalités.

Les adeptes de la cybersécurité en ligne ont longtemps critiqué ces décisions comme étant des compromis qui sacrifient la sécurité, la vie privée ou l’anonymat de l’utilisateur au profit des propres objectifs de Moxie pour Signal. S’aventurer trop loin risquerait de nous entraîner sur le terrain des débats dominés par les mâles prétentieux du logiciel libre (si ce n’est pas déjà le cas). Pour être bref, les justifications de Moxie se résument à maintenir la compétitivité de Signal dans l’écosystème capitaliste de la Silicon Valley, axé sur le profit. Mise à part les stratégies de développement logiciel dans le cadre du capitalisme moderne, les caractéristiques concrètes de Signal les plus souvent critiquées sont les suivantes :

  1. Signal s’appuie sur une infrastructure de serveurs centralisée.
  2. Signal exige que chaque compte soit lié à un numéro de téléphone.
  3. Signal dispose d’un système de paiement en crypto-monnaie intégré.

schéma simplifié de la centralisation des conversations vers un serveur unique.

Peut-être que Moxie a eu raison et que ses compromis en valaient la peine : aujourd’hui, Signal est extrêmement populaire, l’application s’est massivement développée avec un minimum de problèmes de croissance, de nombreuses nouvelles fonctionnalités (à la fois pour la convivialité et la sécurité) ont été facilement introduites, et elle semble être durable dans un avenir prévisible2. Mais l’omniprésence de Signal en tant qu’infrastructure anarchiste exige un examen minutieux de ces critiques, en particulier lorsqu’elles s’appliquent à nos cas d’utilisation et à notre modèle de menace dans un monde en mutation. Cet examen permettra d’expliquer comment les applications CPT comme Briar et Cwtch, qui utilisent une approche complètement différente de la communication sécurisée, nous apportent potentiellement plus de résilience et de sécurité.

Signal en tant que service centralisé

Signal est moins une application qu’un service. Signal (Open Whisper Systems/The Signal Foundation) fournit l’application Signal (que vous pouvez télécharger et exécuter sur votre téléphone ou votre ordinateur) et gère un serveur Signal3. L’application Signal ne peut rien faire en soi. Le serveur Signal fournit la couche de service en traitant et en relayant tous les messages envoyés et reçus via l’application Signal. C’est ainsi que fonctionnent la plupart des applications de chat. Discord, WhatsApp, iMessage, Instagram/Facebook Messenger et Twitter dms sont tous des services de communication centralisés, où vous exécutez une application sur votre appareil et où un serveur centralisé, exploité par un tiers, relaie les messages entre les individus. Une telle centralisation présente de nombreux avantages pour l’utilisateur : vous pouvez synchroniser vos messages et votre profil sur le serveur pour y accéder sur différents appareils ; vous pouvez envoyer un message à votre ami même s’il n’est pas en ligne et le serveur stockera le message jusqu’à ce que votre ami se connecte et le récupère ; les discussions de groupe entre plusieurs utilisateurs fonctionnent parfaitement, même si les utilisateurs sont en ligne ou hors ligne à des moments différents.

Signal utilise le chiffrement de bout en bout, ce qui signifie que le serveur Signal ne peut lire aucun de vos messages. Mais qu’il soit un service de communication centralisé a de nombreuses implications importantes en termes de sécurité et de fiabilité.

petit bureau de poste imaginaire où figure le drapeau de Signal, une boîte aux lettres et l'indication "comme en Europe" sous le titre "Bureau de poste de Signal"

Le bureau de poste de Signal

Signal-en-tant-que-service est comparable à un service postal. Il s’agit d’un très bon service postal, comme il en existe peut-être quelque part en Europe. Dans cet exemple, le serveur Signal est un bureau de poste. Vous écrivez une lettre à votre ami et la scellez dans une enveloppe avec une adresse (disons que personne d’autre que votre ami ne peut ouvrir l’enveloppe – c’est le chiffrement). À votre convenance, vous déposez toutes les lettres que vous envoyez au bureau de poste Signal, où elles sont triées et envoyées aux différents amis auxquels elles sont destinées. Si un ami n’est pas là, pas de problème ! Le bureau de poste Signal conservera la lettre jusqu’à ce qu’il trouve votre ami à la maison, ou votre ami peut simplement la récupérer au bureau de poste le plus proche. Le bureau de poste Signal est vraiment bien (c’est l’Europe, hein !) et vous permet même de faire suivre votre courrier partout où vous souhaitez le recevoir.

Peut-être aurez-vous remarqué qu’un problème de sécurité potentiel se pose sur le fait de confier tout son courrier au bureau de poste Signal. Les enveloppes scellées signifient qu’aucun facteur ou employé ne peut lire vos lettres (le chiffrement les empêche d’ouvrir les enveloppes). Mais celles et ceux qui côtoient régulièrement leur facteur savent qu’il peut en apprendre beaucoup sur vous, simplement en traitant votre courrier : il sait de qui vous recevez des lettres, il connaît tous vos abonnements à des magazines, mais aussi quand vous êtes à la maison ou non, tous les différents endroits où vous faites suivre votre courrier et toutes les choses embarrassantes que vous commandez en ligne. C’est le problème d’un service centralisé qui s’occupe de tout votre courrier – je veux dire de vos messages !

Les métadonnées, c’est pour toujours

Les informations que tous les employés du bureau de poste Signal connaissent sur vous et votre courrier sont des métadonnées. Les métadonnées sont des données… sur les données. Elles peuvent inclure des éléments tels que l’expéditeur et le destinataire d’un message, l’heure à laquelle il a été envoyé et le lieu où il a été distribué. Tout le trafic sur Internet génère intrinsèquement ce type de métadonnées. Les serveurs centralisés constituent un point d’entrée facile pour observer ou collecter toutes ces métadonnées, puisque tous les messages passent par un point unique. Il convient de souligner que l’exemple ci-dessus du bureau de poste Signal n’est qu’une métaphore pour illustrer ce que sont les métadonnées et pourquoi elles constituent une préoccupation importante pour les services de communication centralisés. Signal est en fait extrêmement doué pour minimiser ou masquer les métadonnées. Grâce à la magie noire du chiffrement et à une conception intelligente du logiciel, il y a très peu de métadonnées auxquelles le serveur Signal peut facilement accéder. Selon les propres termes de Signal :

«  Les éléments que nous ne stockons pas comprennent tout ce qui concerne les contacts d’un utilisateur (tels que les contacts eux-mêmes, un hachage des contacts, ou toute autre information dérivée sur les contacts), tout ce qui concerne les groupes d’un utilisateur (les groupes auxquels il appartient, leur nombre, les listes de membres des groupes, etc.), ou tout enregistrement des personnes avec lesquelles un utilisateur a communiqué.  »

Il n’existe que deux parties de métadonnées connues pour être stockées de manière persistante, et qui permettent de savoir :

  • si un numéro de téléphone est enregistré auprès d’un compte Signal
  • la dernière fois qu’un compte Signal a été connecté au serveur.

C’est une bonne chose ! En théorie, c’est tout ce qu’un employé curieux du bureau de poste Signal peut savoir sur vous. Mais cela est dû, en partie, à l’approche « Moi, je ne le vois pas » du serveur lui-même. Dans une certaine mesure, nous devons croire sur parole ce que le serveur Signal prétend faire…

Bien obligés de faire confiance

Tout comme l’application Signal sur votre téléphone ou votre ordinateur, le serveur Signal est également basé sur du code principalement4 open source. Il est donc soumis à des contrôles similaires par des experts en sécurité. Cependant, il y a une réalité importante et inévitable à prendre en compte : nous sommes obligés de croire que le serveur de Signal exécute effectivement le même code open source que celui qui est partagé avec nous. Il s’agit là d’un problème fondamental lorsque l’on se fie à un serveur centralisé géré par une tierce partie.

« Nous ne collectons ni ne stockons aucune information sensible sur nos utilisateurs, et cela ne changera jamais. » (blog de Signal)

En tant que grande association à but non lucratif, Signal ne peut pas systématiquement se soustraire aux ordonnances ou aux citations à comparaître qui concerne les données d’utilisateurs. Signal dispose même d’une page sur son site web qui énumère plusieurs citations à comparaître et les réponses qu’elle y a apportées. Mais rappelons-nous des deux types de métadonnées stockées par le serveur Signal qui peuvent être divulguées :

Illustration 3: Les réponses de Signal indiquent la date de la dernière connexion, la date de création du compte et le numéro de téléphone (caviardé)
Illustration 3 : Les réponses de Signal indiquent la date de la dernière connexion, la date de création du compte et le numéro de téléphone (caviardé)

À l’heure où nous écrivons ces lignes, il n’y a aucune raison de douter de ce qui a été divulgué, mais il faut noter que Signal se conforme également à des procédures-bâillon qui l’empêchent de révéler qu’elle a reçu une citation à comparaître ou un mandat. Historiquement, Signal se bat contre ces injonctions, mais nous ne pouvons savoir ce qui nous est inconnu, notamment car Signal n’emploie pas de warrant canary, ces alertes en creux qui annoncent aux utilisateurs qu’aucun mandat spécifique n’a été émis pour le moment [une manière détournée d’annoncer des mandats dans le cas où cette annonce disparaisse, NDLR]. Il n’y a aucune raison sérieuse de penser que Signal a coopéré avec les autorités plus fréquemment qu’elle ne le prétend, mais il y a trois scénarios à envisager :

  1. Des modifications de la loi pourraient contraindre Signal, sur demande, à collecter et à divulguer davantage d’informations sur ses utilisateurs et ce, à l’insu du public.
  2. Signal pourrait être convaincu par des arguments éthiques, moraux, politiques ou patriotiques de coopérer secrètement avec des adversaires.
  3. Signal pourrait être infiltré ou piraté par ces adversaires afin de collecter secrètement davantage de données sur les utilisateurs ou afin que le peu de métadonnées disponibles puissent leur être plus facilement transmis.

Tous ces scénarios sont concevables, ils ont des précédents historiques ailleurs, mais ils ne sont pas forcément probables ni vraisemblables. En raison de la « magie noire du chiffrement » susmentionnée et de la complexité des protocoles des réseaux, même si le serveur Signal se retrouvait altéré pour devenir malveillant, il y aurait toujours une limite à la quantité de métadonnées qui peuvent être collectées sans que les utilisatrices ou les observateurs ne s’en aperçoivent. Cela n’équivaudrait pas, par exemple, à ce que le bureau de poste Signal laisse entrer un espion (par une véritable « porte dérobée installée par la CIA ») qui viendrait lire et enregistrer toutes les métadonnées de chaque message qui passe par ce bureau. Des changements dans les procédures et le code pourraient avoir pour conséquence que des quantités faibles, mais toujours plus importantes de métadonnées (ou autres informations), deviennent facilement disponibles pour des adversaires, et cela pourrait se produire sans que nous en soyons conscients. Il n’y a pas de raison particulière de se méfier du serveur Signal à ce stade, mais les anarchistes doivent évaluer la confiance qu’ils accordent à un tiers, même s’il est historiquement digne de confiance comme Signal.

Illustration 4: Intelligence Community Comprehensive National Initiative Data Center (Utah) Vue aérienne des bâtiments
Illustration 4 : Intelligence Community Comprehensive National Initiative Data Center (Utah)

Mégadonnées

De nombreux et puissants ennemis sont capables d’intercepter et de stocker des quantités massives de trafic sur Internet. Il peut s’agir du contenu de messages non chiffré, mais avec l’utilisation généralisée du chiffrement, ce sont surtout des métadonnées et l’activité internet de chacun qui sont ainsi capturées et stockées.

Nous pouvons choisir de croire que Signal n’aide pas activement nos adversaires à collecter des métadonnées sur les communications des utilisateurs et utilisatrices, mais nos adversaires disposent de nombreux autres moyens pour collecter ces données : la coopération avec des entreprises comme Amazon ou Google (Signal est actuellement hébergé par Amazon Web Services), ou bien en ciblant ces hébergeurs sans leur accord, ou tout simplement en surveillant le trafic internet à grande échelle.

Les métadonnées relatives aux activités en ligne sont également de plus en plus accessibles à des adversaires moins puissants, ceux qui peuvent les acheter, sous forme brute ou déjà analysées, à des courtiers de données, qui à leur tour les achètent ou les acquièrent via des sociétés spécialisées dans le développement d’applications ou les fournisseurs de téléphones portables.

Les métadonnées ainsi collectées donnent lieu à des jeux de données volumineux et peu maniables qui étaient auparavant difficiles à analyser. Mais de plus en plus, nos adversaires (et même des organisations ou des journalistes) peuvent s’emparer de ces énormes jeux de données, les combiner et leur appliquer de puissants outils d’analyse algorithmique pour obtenir des corrélations utiles sur des personnes ou des groupes de personnes (c’est ce que l’on appelle souvent le « Big Data »). Même l’accès à de petites quantités de ces données et à des techniques d’analyse rudimentaires permet de désanonymiser des personnes et de produire des résultats utiles.

Histoire des messages de Jean-Michel

salle de projection de cinéma avec dans l'ombre un type qui consulte ses mails dans un halo lumineux, au-dessus de lui, le faisceau de projection du film

Voici un scénario fictif qui montre comment l’analyse du trafic et la corrélation des métadonnées peuvent désanonymiser un utilisateur de Signal.

Imaginez un cinéphile assidu, mais mal élevé, disons Jean-Michel, qui passe son temps à envoyer des messages via Signal pendant la projection. Les reflets de l’écran de son téléphone (Jean-Michel n’utilise pas le mode sombre) gênent tout le monde dans la salle. Mais la salle est suffisamment sombre pour que Lucie, la gérante qui s’occupe de tout, ne puisse pas savoir exactement qui envoie des messages en permanence. Lucie commence alors à collecter toutes les données qui transitent par le réseau Wi-Fi du cinéma, à la recherche de connexions au serveur Signal. Les connexions fréquentes de Jean-Michel à ce serveur apparaissent immédiatement. Lucie est en mesure d’enregistrer l’adresse MAC (un identifiant unique associé à chaque téléphone) et peut confirmer que c’est le même appareil qui utilise fréquemment Signal sur le réseau Wi-Fi du cinéma pendant les heures de projection. Lucie est ensuite en mesure d’établir une corrélation avec les relevés de transactions par carte bancaire de la billetterie et d’identifier une carte qui achète toujours des billets de cinéma à l’heure où l’appareil utilise fréquemment Signal (le nom du détenteur de la carte est également révélé : Jean-Michel). Avec l’adresse MAC de son téléphone, son nom et sa carte de crédit, Lucie peut fournir ces informations à un détective privé véreux, qui achètera l’accès à de vastes jeux de données collectées par des courtiers de données (auprès des fournisseurs de téléphones portables et des applications mobiles), et déterminera un lieu où le même téléphone portable est le plus fréquemment utilisé. Outre le cinéma, il s’agit du domicile de Jean-Michel. Lucie se rend chez Jean-Michel de nuit et fait exploser sa voiture (car la salle de cinéma était en fait une couverture pour les Hell’s Angels du coin).

Des métadonnées militarisées

Général Michael Hayden
Général Michael Hayden

« Nous tuons des gens en nous appuyant sur des métadonnées… mais ce n’est pas avec les métadonnées que nous les tuons ! » (dit avec un sourire en coin, les rires fusent dans l’assistance)

Général Michael Hayden, ancien Directeur de la NSA (1999-2005) et Directeur de la CIA (2006-2009).

Sur un Internet où les adversaires ont les moyens de collecter et d’analyser d’énormes volumes de métadonnées et de données de trafic, l’utilisation de serveurs centralisés peut s’avérer dangereuse. Ils peuvent facilement cibler les appareils qui communiquent avec le serveur Signal en surveillant le trafic internet en général, au niveau des fournisseurs d’accès, ou éventuellement aux points de connexion avec le serveur lui-même. Ils peuvent ensuite essayer d’utiliser des techniques d’analyse pour révéler des éléments spécifiques sur les utilisatrices individuelles ou leurs communications via Signal.

Dans la pratique, cela peut s’avérer difficile. Vous pourriez vous demander si un adversaire qui observe tout le trafic entrant et sortant du serveur Signal pourrait déterminer que vous et votre ami échangez des messages en notant qu’un message a été envoyé de votre adresse IP au serveur de signal à 14:01 et que le serveur de Signal a ensuite envoyé un message de la même taille à l’adresse IP de votre ami à 14:02. Heureusement, une analyse corrélationnelle très simple comme celle-ci n’est pas possible en raison de l’importance du trafic entrant et sortant en permanence du serveur de Signal et de la manière dont ce trafic est traité à ce niveau. C’est moins vrai pour les appels vidéo/voix où les protocoles internet utilisés rendent plus plausible l’analyse corrélationnelle du trafic pour déterminer qui a appelé qui. Il n’en reste pas moins que la tâche reste très difficile pour qui observe l’ensemble du trafic entrant et sortant du serveur de Signal afin d’essayer de déterminer qui parle à qui. Peut-être même que cette tâche est impossible à ce jour.

Pourtant, les techniques de collecte de données et les outils d’analyse algorithmique communément appelés « Big Data » deviennent chaque jour plus puissants. Nos adversaires sont à la pointe de cette évolution. L’utilisation généralisée du chiffrement dans toutes les télécommunications a rendu l’espionnage illicite traditionnel beaucoup moins efficace et, par conséquent, nos adversaires sont fortement incités à accroître leurs capacités de collecte et d’analyse des métadonnées. Ils le disent clairement : « Si vous avez suffisamment de métadonnées, vous n’avez pas vraiment besoin du contenu »5. Ils tuent des gens sur la base de métadonnées.

Ainsi, bien qu’il ne soit peut-être pas possible de déterminer avec certitude une information aussi fine que « qui a parlé à qui à un moment précis », nos adversaires continuent d’améliorer à un rythme soutenu leur aptitude à extraire, à partir des métadonnées, toutes les informations sensibles qu’ils peuvent. Certaines fuites nous apprennent régulièrement qu’ils étaient en possession de dispositifs de surveillance plus puissants ou plus invasifs qu’on ne le pensait jusqu’à présent. Il n’est pas absurde d’en déduire que leurs possibilités sont bien étendues que ce que nous en savons déjà.

Signal est plus vulnérable à ce type de surveillance et d’analyse parce qu’il s’agit d’un service centralisé. Le trafic de Signal sur Internet n’est pas difficile à repérer et le serveur Signal est un élément central facile à observer ou qui permet de collecter des métadonnées sur les utilisateurs et leurs activités. D’éventuelles compromissions de Signal, des modifications dans les conditions d’utilisation ou encore des évolutions législatives pourraient faciliter les analyses de trafic et la collecte des métadonnées de Signal, pour que nos adversaires puissent les analyser.

Les utilisateurs individuels peuvent mettre en œuvre certaines mesures de protection, comme faire transiter leur trafic Signal par Tor ou un VPN, mais cela peut s’avérer techniquement difficile à mettre en œuvre et propice aux erreurs. Tout effort visant à rendre plus difficile la liaison d’une utilisatrice de Signal à une personne donnée est également rendu complexe par le fait que Signal exige de chaque compte qu’il soit lié à un numéro de téléphone (nous y reviendrons plus tard).

Dépendances et points faibles

Un service centralisé signifie non seulement qu’il existe un point de contrôle central, mais aussi un point faible unique : Signal ne fonctionne pas si le serveur Signal est en panne. Il est facile de l’oublier jusqu’au jour où cela se produit. Signal peut faire une erreur de configuration ou faire face à un afflux de nouveaux utilisateurs à cause d’un tweet viral et tout à coup Signal ne fonctionne carrément plus.

message de service de Signal, indisponibilité du service due à des difficultés techniques qui seront bientôt réglées blablabla

Signal pourrait également tomber en panne à la suite d’actions intentées par un adversaire. Imaginons une attaque par déni de service (ou tout autre cyberattaque) qui viserait à perturber le fonctionnement de Signal lors d’une rébellion massive. Les fournisseurs de services qui hébergent le serveur Signal pourraient également décider de le mettre hors service sans avertissement pour diverses raisons : sous la pression d’un adversaire, sous une pression politique, sous la pression de l’opinion publique ou pour des raisons financières.

Des adversaires qui contrôlent directement l’infrastructure Internet locale peuvent tout aussi bien perturber un service centralisé. Lorsque cela se produit dans certains endroits, Signal réagit en général rapidement en mettant en œuvre des solutions de contournement ou des modifications créatives, ce qui donne lieu à un jeu du chat et de la souris entre Signal et l’État qui tente de bloquer Signal dans la zone qu’il contrôle. Une fois encore, il s’agit de rester confiant dans le fait que les intérêts de Signal s’alignent toujours sur les nôtres lorsqu’un adversaire tente de perturber Signal de cette manière dans une région donnée.

Cryptocontroverse

En 2021, Signal a entrepris d’intégrer un nouveau système de paiement dans l’application en utilisant la crypto-monnaie MobileCoin. Si vous ne le saviez pas, vous n’êtes probablement pas le seul, mais c’est juste là, sur la page de vos paramètres.

bandeaux pour paiements sur l'application

MobileCoin est une crypto-monnaie peu connue, qui privilégie la protection de la vie privée, et que Moxie a également contribué à développer. Au-delà des débats sur les systèmes pyramidaux de crypto-monnaies, le problème est qu’en incluant ce type de paiements dans l’application, Signal s’expose à des vérifications de légalité beaucoup plus approfondies de la part des autorités. En effet, les crypto-monnaies étant propices à la criminalité et aux escroqueries, le gouvernement américain se préoccupe de plus en plus d’encadrer leur utilisation. Signal n’est pas une bande de pirates, c’est une organisation à but non lucratif très connue. Elle ne peut pas résister longtemps aux nouvelles lois que le gouvernement américain pourrait adopter pour réglementer les crypto-monnaies.

Si les millions d’utilisateurs de Signal utilisaient effectivement MobileCoin pour leurs transactions quotidiennes, il ne serait pas difficile d’imaginer que Signal fasse l’objet d’un plus grand contrôle de la part de l’organisme fédéral américain de réglementation (la Securities and Exchange Commission) ou autres autorités. Le gouvernement n’aime pas les systèmes de chiffrement, mais il aime encore moins les gens ordinaires qui paient pour de la drogue ou échappent à l’impôt. Imaginez un scénario dans lequel les cybercriminels s’appuieraient sur Signal et MobileCoin pour accepter les paiements des victimes de rançongiciels. Cela pourrait vraiment mettre le feu aux poudres et dégrader considérablement l’image de Signal en tant qu’outil de communication fiable et sécurisé.

Un mouchard en coulisses

Cette frustration devrait déjà être familière aux anarchistes qui utilisent Signal. En effet, les comptes Signal nécessitent un numéro de téléphone. Quel que soit le numéro de téléphone auquel un compte est lié, il est également divulgué à toute personne avec laquelle vous vous connectez sur Signal. En outre, il est très facile de déterminer si un numéro de téléphone donné est lié à un compte Signal actif.

Il existe des solutions pour contourner ce problème, mais elles impliquent toutes d’obtenir un numéro de téléphone qui n’est pas lié à votre identité afin de pouvoir l’utiliser pour ouvrir un compte Signal. En fonction de l’endroit où vous vous trouvez, des ressources dont vous disposez et de votre niveau de compétence technique, cette démarche peut s’avérer peu pratique, voire bien trop contraignante. Signal ne permet pas non plus d’utiliser facilement plusieurs comptes à partir du même téléphone ou ordinateur. Configurer plusieurs comptes Signal pour différentes identités, ou pour les associer à différents projets, devient une tâche énorme, d’autant plus que vous avez besoin d’un numéro de téléphone distinct pour chacun d’entre eux.

Pour des adversaires qui disposent de ressources limitées, il est toujours assez facile d’identifier une personne sur la base de son numéro de téléphone. En outre, s’ils se procurent un téléphone qui n’est pas correctement éteint ou chiffré, ils ont accès aux numéros de téléphone des contacts et des membres du groupe. Il s’agit évidemment d’un problème de sécurité opérationnelle qui dépasse le cadre de Signal, mais le fait que Signal exige que chaque compte soit lié à un numéro de téléphone accroît considérablement la possibilité de pouvoir cartographier le réseau, ce qui entraîne des conséquences dommageables.

On ignore si Signal permettra un jour l’existence de comptes sans qu’ils soient liés à un numéro de téléphone ou à un autre identifiant de la vie réelle. On a pu dire qu’ils ne le feront jamais, ou que le projet est en cours mais perdu dans les limbes6. Quoi qu’il en soit, il s’agit d’un problème majeur pour de nombreux cas d’utilisation par des anarchistes.

Vers une pratique plus stricte

Après avoir longuement discuté de Signal, il est temps de présenter quelques alternatives qui répondent à certains de ces problèmes : Briar et Cwtch. Briar et Cwtch sont, par leur conception même, extrêmement résistants aux métadonnées et offrent un meilleur anonymat. Ils sont également plus résilients, car ils ne disposent pas de serveur central ou de risque de défaillance en un point unique. Mais ces avantages ont un coût : une plus grande sécurité s’accompagne de quelques bizarreries d’utilisation auxquelles il faut s’habituer.

Rappelons que Cwtch et Briar sont des applications CPT :

C : comme Signal, les messages sont chiffrés de bout en bout,

P : pour la transmission en pair-à-pair,

T : les identités et les activités des utilisatrices sont anonymisées par l’envoi de tous messages via Tor.

Parce qu’elles partagent une architecture de base, elles ont de nombreuses fonctionnalités et caractéristiques communes.

Pair-à-pair

communication pair-à-pair illustrée par le vieux truc de la liaison par fil de deux boîtes de conserve percées, avec un "hello" à chaque bout

Signal est un service de communication centralisé, qui utilise un serveur pour relayer et transmettre chaque message que vous envoyez à vos amis. Les problèmes liés à ce modèle ont été longuement discutés ! Vous êtes probablement lassés d’en entendre parler maintenant. Le P de CPT signifie pair-à-pair. Dans un tel modèle, vous échangez des messages directement avec vos amis. Il n’y a pas de serveur central intermédiaire géré par un tiers. Chaque connexion directe s’appuie uniquement sur l’infrastructure plus large d’Internet.

facteur à vélo qui tient une enveloppe

Vous vous souvenez du bureau de poste Signal ? Avec un modèle pair-à-pair, vous ne passez pas par un service postal pour traiter votre courrier. Vous remettez vous-même chaque lettre directement à votre ami. Vous l’écrivez, vous la scellez dans une enveloppe (chiffrement de bout en bout), vous la mettez dans votre sac et vous traversez la ville à vélo pour la remettre en main propre.

La communication pair-à-pair offre une grande résistance aux métadonnées. Il n’y a pas de serveur central qui traite chaque message auquel des métadonnées peuvent être associées. Il est ainsi plus difficile pour les adversaires de collecter en masse des métadonnées sur les communications que de surveiller le trafic entrant et sortant de quelques serveurs centraux connus. Il n’y a pas non plus de point de défaillance unique. Tant qu’il existe une route sur Internet pour que vous et votre amie puissiez vous connecter, vous pouvez discuter.

Synchronisation

Il y a un point important à noter à propos de la communication pair-à-pair : comme il n’y a pas de serveur central pour stocker et relayer les messages, vous et votre ami devez tous deux avoir l’application en cours d’exécution et avoir une connexion en ligne pour échanger des messages. C’est pourquoi ces applications CPT privilégient la communication synchrone. Que se passe-t-il si vous traversez la ville à vélo pour remettre une lettre à vos amis et… qu’ils ne sont pas chez eux ? Si vous voulez vraiment faire du pair-à-pair, vous devez remettre la lettre en main propre. Vous ne pouvez pas simplement la déposer quelque part (il n’y a pas d’endroit assez sûr !). Vous devez être en mesure de joindre directement vos amis pour leur transmettre le message – c’est l’aspect synchrone de la communication de pair à pair.

Un appel téléphonique est un bon exemple de communication synchrone. Vous ne pouvez pas avoir de conversation téléphonique si vous n’êtes pas tous les deux au téléphone en même temps. Mais qui passe encore des appels téléphoniques ? De nos jours, nous sommes beaucoup plus habitués à un mélange de messagerie synchrone et asynchrone, et les services de communication centralisés comme Signal sont parfaits pour cela. Il arrive que vous et votre ami soyez tous deux en ligne et échangiez des messages en temps réel, mais le plus souvent, il y a un long décalage entre les messages envoyés et reçus. Au moins pour certaines personnes… Vous avez peut-être, en ce moment, votre téléphone allumé, à portée de main à tout moment. Vous répondez immédiatement à tous les messages que vous recevez, à toute heure de la journée. Donc toute communication est et doit être synchrone… si vous êtes dans ce cas, vous vous reconnaîtrez certainement.

Le passage à la communication textuelle synchrone peut être une vraie difficulté au début. Certaines lectrices et lecteurs se souviendront peut-être de ce que c’était lorsque on utilisait AIM, ICQ ou MSN Messenger (si vous vous en souvenez, vous avez mal au dos). Vous devez savoir si la personne est réellement en ligne ou non. Si la personne n’est pas en ligne, vous ne pouvez pas envoyer de messages pour plus tard. Si l’une d’entre vous ne laisse pas l’application en ligne en permanence, vous devez prendre l’habitude de prévoir des horaires pour discuter. Cela peut s’avérer très agréable. Paradoxalement, la normalisation de la communication asynchrone a entraîné le besoin d’être toujours en ligne et réactif. La communication synchrone encourage l’intentionnalité de nos communications, en les limitant aux moments où nous sommes réellement en ligne, au lieu de s’attendre à être en permanence plus ou moins disponibles.

Une autre conséquence importante de la synchronisation des connexions pair-à-pair est qu’elle peut rendre les discussions de groupe un peu bizarres. Que se passe-t-il si tous les membres du groupe ne sont pas en ligne au même moment ? Briar et Cwtch gèrent ce problème différemment, un sujet abordé plus bas, dans les sections relatives à chacune de ces applications.

Tor

grand type perplexe et chapeauté au t-shirt BIG DATA, qui se pose des questions (3 points d'interrogation) tandis qu'à ses pieds deux enfants communiquent avec des boites de conserve reliées par un fil

Bien que la communication pair-à-pair soit très résistante aux métadonnées et évite d’autres écueils liés à l’utilisation d’un serveur central, elle ne protège pas à elle seule contre la collecte de métadonnées et l’analyse du trafic dans le cadre du « Big Data ». Tor est un très bon moyen de limiter ce problème, et les applications CPT font transiter tout le trafic par Tor.

Si vous êtes un⋅e anarchiste et que vous lisez ces lignes, vous devriez déjà connaître Tor et la façon dont il peut être utilisé pour assurer l’anonymat (ou plutôt la non-associativité). Les applications CPT permettent d’établir des connexions directes pair-à-pair pour échanger des messages par l’intermédiaire de Tor. Il est donc beaucoup plus difficile de vous observer de manière ciblée ou de vous pister et de corréler vos activités sur Internet, de savoir qui parle à qui ou de faire d’autres analyses utiles. Il est ainsi bien plus difficile de relier un utilisateur donné d’une application CPT à une identité réelle. Tout ce qu’un observateur peut voir, c’est que vous utilisez Tor.

Tor n’est pas un bouclier à toute épreuve et des failles potentielles ou des attaques sur le réseau Tor sont possibles. Entrer dans les détails du fonctionnement de Tor prendrait trop de temps ici, et il existe de nombreuses ressources en ligne pour vous informer. Il est également important de comprendre les mises en garde générales en ce qui concerne l’utilisation de Tor. Comme Signal, le trafic Tor peut également être altéré par des interférences au niveau de l’infrastructure Internet, ou par des attaques par déni de service qui ciblent l’ensemble du réseau Tor. Toutefois, il reste beaucoup plus difficile pour un adversaire de bloquer ou de perturber Tor que de mettre hors service ou de bloquer le serveur central de Signal.

Il faut souligner que dans certaines situations, l’utilisation de Tor peut vous singulariser. Si vous êtes la seule à utiliser Tor dans une région donnée ou à un moment donné, vous pouvez vous faire remarquer. Mais il en va de même pour toute application peu courante. Le fait d’avoir Signal sur votre téléphone vous permet également de vous démarquer. Plus il y a de gens qui utilisent Tor, mieux c’est, et s’il est utilisé correctement, Tor offre une meilleure protection contre les tentatives d’identification des utilisateurs que s’il n’était pas utilisé. Les applications CPT utilisent Tor pour tout, par défaut, de manière presque infaillible.

Pas de téléphone, pas de problème

Un point facilement gagné pour les deux applications CPT présentées ici : elles ne réclament pas de numéro de téléphone pour l’enregistrement d’un compte. Votre compte est créé localement sur votre appareil et l’identifiant du compte est une très longue chaîne de caractères aléatoires que vous partagez avec vos amis pour qu’ils deviennent des contacts. Vous pouvez facilement utiliser ces applications sur un ordinateur, sur un téléphone sans carte SIM ou sur un téléphone mais sans lien direct avec votre numéro de téléphone.

Mises en garde générales concernant les applications CPT

La fuite de statut

Les communications pair-à-pair laissent inévitablement filtrer un élément particulier de métadonnées : le statut en ligne ou hors ligne d’un utilisateur. Toute personne que vous avez ajoutée en tant que contact ou à qui vous avez confié votre identifiant (ou tout adversaire ayant réussi à l’obtenir) peut savoir si vous êtes en ligne ou hors ligne à un moment donné. Cela ne s’applique pas vraiment à notre modèle de menace, sauf si vous êtes particulièrement négligent avec les personnes que vous ajoutez en tant que contact, ou pour des événements publics qui affichent les identifiants d’utilisateurs. Mais cela vaut la peine d’être noté, parce qu’il peut parfois arriver que vous ne vouliez pas que tel ami sache que vous êtes en ligne !

message dans une bulle dont l'auteur se réjouit de "voir" sa maman en ligne au moment où il écrit

Un compte par appareil

Lorsque vous ouvrez ces applications pour la première fois, vous créez un mot de passe qui sera utilisé pour chiffrer votre profil, vos contacts et l’historique de vos messages (si vous choisissez de le sauvegarder). Ces données restent chiffrées sur votre appareil lorsque vous n’utilisez pas l’application.

Comme il n’y a pas de serveur central, vous ne pouvez pas synchroniser votre compte sur plusieurs appareils. Vous pouvez migrer manuellement votre compte d’un appareil à l’autre, par exemple d’un ancien téléphone à un nouveau, mais il n’y a pas de synchronisation magique dans le cloud. Le fait d’avoir un compte distinct sur chaque appareil est une solution de contournement facile, qui encourage la compartimentation. Le fait de ne pas avoir à se soucier d’une version synchronisée sur un serveur central (même s’il est chiffré) ou sur un autre appareil est également un avantage. Cela oblige à considérer plus attentivement où se trouvent vos données et comment vous y accédez plutôt que de tout garder « dans le nuage » (c’est-à-dire sur l’ordinateur de quelqu’un d’autre). Il n’existe pas non plus de copie de vos données utilisateur qui serait sauvegardée sur un serveur tiers afin de restaurer votre compte en cas d’oubli de votre mot de passe ou de perte de votre appareil. Si c’est perdu… c’est perdu !.

Les seuls moyens de contourner ce problème sont : soit de confier à un serveur central une copie de vos contacts et de votre compte de média social, soit de faire confiance à un autre média social, de la même manière que Signal utilise votre liste de contacts composée de numéros de téléphone. Nous ne devrions pas faire confiance à un serveur central pour stocker ces informations (même sous forme chiffrée), ni utiliser quelque chose comme des numéros de téléphone. La possibilité de devoir reconstruire vos comptes de médias sociaux à partir de zéro est le prix à payer pour éviter ces problèmes de sécurité, et encourage la pratique qui consiste à maintenir et à rétablir des liens de confiance avec nos amis.

Durée de la batterie

Exécuter des connexions pair-à-pair avec Tor signifie que l’application doit être connectée et à l’écoute en permanence au cas où l’un de vos amis vous enverrait un message. Cela peut s’avérer très gourmand en batterie sur des téléphones anciens. Le problème se pose de moins en moins, car il y a une amélioration générale de l’utilisation des batteries et ces dernières sont de meilleure qualité.

Rien pour les utilisateurs d’iOS

Aucune de ces applications ne fonctionne sur iOS, principalement en raison de l’hostilité d’Apple à l’égard de toute application qui permet d’établir des connexions pair-à-pair avec Tor. Il est peu probable que cela change à l’avenir (mais ce n’est pas impossible).

Le bestiaire CPT

Il est temps de faire connaissance avec ces applications CPT. Elles disposent toutes les deux d’excellents manuels d’utilisation qui fournissent des informations complètes, mais voici un bref aperçu de leur fonctionnement, de leurs fonctionnalités et de la manière dont on les peut les utiliser.

Briar

Site officiel de BriarManuel de Briar

Histoire et philosophie de l’application

petit logo de Briar

Briar est développé par le Briar Project, un collectif de développeurs, de hackers et de partisans du logiciel libre, principalement basé en Europe. En plus de résister à la surveillance et à la censure, la vision globale du projet consiste à construire une infrastructure de communication et d’outils à utiliser en cas de catastrophe ou de panne d’Internet. Cette vision est évidemment intéressante pour les anarchistes qui se trouvent dans des régions où il y a un risque élevé de coupure partielle ou totale d’Internet lors d’une rébellion, ou bien là où l’infrastructure générale peut s’effondrer (c.-à-d. partout). Si les connexions à Internet sont coupées, Briar peut synchroniser les messages par Wi-Fi ou Bluetooth. Briar permet également de partager l’application elle-même directement avec un ami. Elle peut même former un réseau maillé rudimentaire entre pairs, de sorte que certains types de messages peuvent passer d’un utilisateur à l’autre.

Briar est un logiciel open source et a également fait l’objet d’un audit de sécurité indépendant en 2013.

  • À l’heure où nous écrivons ces lignes, Briar est disponible pour Android et la version actuelle est la 1.4.9.
  • Une version desktop bêta est disponible pour Linux (version actuelle 0.2.1.), bien qu’il lui manque de nombreuses fonctionnalités.
  • Des versions Windows et macOS du client desktop sont prévues.

Utiliser Briar

Conversation basique

Le clavardage de base fonctionne très bien. Les amis doivent s’ajouter mutuellement pour pouvoir se connecter. Briar dispose d’une petite interface agréable pour effectuer cette opération en présentiel en scannant les codes QR de l’autre. Mais il est également possible de le faire à distance en partageant les identifiants (sous la forme d’un « lien briar:// »), ou bien un utilisateur peut en « présenter » d’autres dans l’application, ce qui permet à deux utilisatrices de devenir des contacts l’une pour l’autre par l’intermédiaire de leur amie commune. Cette petite contrainte dans la manière d’ajouter des contacts peut sembler gênante, mais pensez à la façon dont ce modèle encourage des meilleures pratiques, notamment sur la confiance que l’on s’accorde en ajoutant des contacts. Briar a même un petit indicateur à côté de chaque nom d’utilisateur pour vous rappeler comment vous le « connaissez » (en personne, via des liens de partage, ou via un intermédiaire).

Actuellement, dans les discussions directes, vous pouvez envoyer des fichiers, utiliser des émojis, supprimer des messages ou les faire disparaître automatiquement au bout de sept jours. Si votre ami n’est pas en ligne, vous pouvez lui écrire un message qui sera envoyé automatiquement la prochaine fois que vous le verrez en ligne.

Groupes privés

Les groupes privés de Briar sont des groupes de discussion de base. Seul le créateur du groupe peut inviter d’autres membres. La création de groupes privés est donc très pensée en amont et destinée à un usage spécifique. Ils prennent en charge un affichage par fil de discussion (vous pouvez répondre directement à un message spécifique, même s’il ne s’agit pas du message le plus récent de la discussion), mais il s’agit d’un système assez rudimentaire. Il n’est pas possible d’envoyer des images dans un groupe privé, ni de supprimer des messages.

Avec Briar, les discussions de groupe étant véritablement sans serveur, les choses peuvent être un peu bizarres lorsque tous les membres du groupe ne sont pas en ligne en même temps. Vous vous souvenez de la synchronicité ? Tout message de groupe sera envoyé à tous les membres du groupe qui sont en ligne à ce moment-là. Briar s’appuie sur tous les membres d’un groupe pour relayer les messages aux autres membres qui ne sont pas en ligne. Si vous avez manqué certains messages dans une discussion de groupe, n’importe quel autre membre qui a reçu ces messages peut vous les transmettre lorsque vous êtes tous les deux en ligne.

Forums

Briar dispose également d’une fonction appelée Forums. Les forums fonctionnent de la même manière que les groupes privés, sauf que tout membre peut inviter d’autres membres.

Blog

La fonction de blog de Briar est plutôt sympa ! Chaque utilisateur dispose par défaut d’un flux de blog. Les articles de blog publiés par vos contacts s’affichent dans votre propre flux. Vous pouvez également commenter un billet, ou « rebloguer » le billet d’un contact pour qu’il soit partagé avec tous vos contacts (avec votre commentaire). En bref, c’est un réseau social rudimentaire qui fonctionne uniquement sur Briar.

Lecteur de flux RSS

Briar dispose également d’un lecteur de flux rss intégré qui récupère les nouveaux messages des sites d’information via Tor. Cela peut être un excellent moyen de lire le dernier communiqué de votre site de contre-information anarchiste préféré (qui fournit sûrement un flux rss, si vous ne le saviez pas déjà !). Les nouveaux messages qui proviennent des flux rss que vous avez ajoutés apparaissent dans le flux Blog, et vous pouvez les « rebloguer » pour les partager avec tous vos contacts.

Devenez un maillon

Briar propose de nombreux outils pour faire circuler des messages entre contacts, sans avoir recours à des serveurs centraux. Les forums et les blogs sont relayés d’un contact à l’autre, à l’instar des groupes privés qui synchronisent les messages entre les membres sans serveur. Tous vos contacts peuvent recevoir une copie d’un billet de blog ou de forum même si vous n’êtes pas en ligne en même temps – les contacts partagés transmettent le message pour vous. Briar ne crée pas de réseau maillé où les messages sont transmis via d’autres utilisateurs (ce qui pourrait permettre à un adversaire d’exploiter plusieurs comptes malveillants et de collecter des métadonnées). Briar ne confie aucun de vos messages à des utilisateurs auxquels ils ne sont pas destinés. Au contraire, chaque utilisatrice censée recevoir un message participe également à la transmission de ce message, et uniquement grâce à ses propres contacts. Cela peut s’avérer particulièrement utile pour créer un réseau de communication fiable qui fonctionne même si Internet est indisponible. Les utilisatrices de Briar peuvent synchroniser leurs messages par Wi-Fi ou Bluetooth. Vous pouvez vous rendre au café internet local, voir quelques amis et synchroniser divers messages de blogs et de forums. Puis une fois rentré, vos colocataires peuvent se synchroniser avec vous pour obtenir les mêmes mises à jour de tous vos contacts mutuels partagés.

Mises en garde pour Briar

Chaque instance de l’application ne prend en charge qu’un seul compte. Il n’est donc pas possible d’avoir plusieurs comptes sur le même appareil. Ce n’est pas un problème si vous utilisez Briar uniquement pour parler avec un groupe d’amis proches, mais cela rend difficile l’utilisation de Briar avec des groupes différents que vous voudriez compartimenter. Briar fournit pour cela plusieurs arguments basés sur la sécurité, dont l’un est simple : si le même appareil utilise plusieurs comptes, il pourrait théoriquement être plus facile pour un adversaire de déterminer que ces comptes sont liés, malgré l’utilisation de Tor. Si deux comptes ne sont jamais en ligne en même temps, il y a de fortes chances qu’ils utilisent le même téléphone portable pour leurs comptes Briar individuels. Il existe d’autres raisons, et aussi des solutions de contournement, toujours est-il qu’il n’est pas possible, pour le moment, d’avoir plusieurs profils sur le même appareil.

type ligoté avec l elogo de Briar sur la tête auquel un personnage du dessin animé Scoobidoo s'apprête à mettre un baîllon

Le protocole Briar exige également que deux utilisatrices s’ajoutent mutuellement en tant que contacts, ou qu’ils soient parrainés par un ami commun, avant de pouvoir interagir. Cela empêche de publier une adresse Briar pour recevoir des messages anonymes. Par exemple, vous voudriez publier votre identifiant Briar pour recevoir des commentaires honnêtes sur un article qui compare différentes applications de chat sécurisées.

Briar et la communication asynchrone

De manière générale, les utilisateurs et utilisatrices apprécient beaucoup la communication asynchrone. Le projet Briar travaille sur une autre application : une boîte aux lettres (Briar Mailbox) qui pourrait être utilisée facilement sur un vieux téléphone Android ou tout autre machine bon marché. Cette boîte aux lettres resterait en ligne principalement pour recevoir des messages pour vous, puis se synchroniserait avec votre appareil principal via Tor lorsque vous êtes connecté. C’est une idée intéressante. Une seule boîte aux lettres Briar pourrait potentiellement être utilisée par plusieurs utilisateurs qui se font confiance, comme des colocataires dans une maison collective, ou les clients réguliers d’un magasin d’information local. Plutôt que de s’appuyer sur un serveur central pour faciliter les échanges asynchrones, un petit serveur facile à configurer et contrôlé par vous-même serait utilisé pour stocker les messages entrants pour vous et vos amis lorsque vous n’êtes pas en ligne. Ce système étant encore en cours de développement, son degré de sécurité (par exemple, savoir si les messages stockés ou d’autres métadonnées seraient suffisamment sûrs si un adversaire accédait à la boîte aux lettres) n’est pas connu et devra faire l’objet d’une évaluation.

Cwtch

Site officiel de CwtchManuel de Cwtch

Historique et philosophie de l’application

petit logo de Cwtch

Alors oui ce nom pas facile à prononcer… ça rime avec « butch ». Apparemment, il s’agit d’un mot gallois qui signifie une étreinte offrant comme un refuge dans les bras de quelqu’un.

Cwtch est développé par l’Open Privacy Research Society, une organisation à but non lucratif basée à Vancouver. Dans l’esprit, Cwtch pourrait être décrit comme un « Signal queer ». Open Privacy s’investit beaucoup dans la création d’outils destinés à « servir les communautés marginalisées » et à résister à l’oppression. Elle a également travaillé sur d’autres projets intéressants, comme la conception d’un outil appelé « Shatter Secrets », destiné à protéger les secrets contre les scénarios dans lesquels les individus peuvent être contraints de révéler un mot de passe (comme lors d’un passage de frontière).

Cwtch est également un logiciel open source et son protocole repose en partie sur le projet CPT antérieur nommé Ricochet. Cwtch est un projet plus récent que Briar, mais son développement est rapide et de nouvelles versions sortent fréquemment.

  • À l’heure où nous écrivons ces lignes, la version actuelle est la 1.8.0.
  • Cwtch est disponible pour Android, Windows, Linux et macOS.

Utiliser Cwtch

Lorsque vous ouvrez Cwtch pour la première fois, vous créez votre profil, protégé par un mot de passe. Votre nouveau profil se voit attribuer un mignon petit avatar et une adresse Cwtch. Contrairement à Briar, Cwtch peut prendre en charge plusieurs profils sur le même appareil, et vous pouvez en avoir plusieurs déverrouillés en même temps. C’est idéal si vous voulez avoir des identités séparées pour différents projets ou réseaux sans avoir à passer d’un appareil à l’autre (mais dans ce cas attention aux possibles risques de sécurité !).

Pour ajouter un ami, il suffit de lui donner votre adresse Cwtch. Il n’est pas nécessaire que vous et votre ami échangiez d’abord vos adresses pour discuter. Cela signifie qu’avec Cwtch, vous pouvez publier une adresse Cwtch publiquement et vos ami⋅e⋅s’ou non peuvent vous contacter de manière anonyme. Vous pouvez également configurer Cwtch pour qu’il bloque automatiquement les messages entrants provenant d’inconnus. Voici une adresse Cwtch pour contacter l’auteur de cet article si vous avez des commentaires ou envie d’écrire un quelconque message haineux :

g6px2uyn5tdg2gxpqqktnv7qi2i5frr5kf2dgnyielvq4o4emry4qzid

En mode conversation directe, Cwtch propose un formatage de texte riche, des emojis et des réponses. Chaque conversation peut être configurée pour « enregistrer l’historique » ou « supprimer l’historique » à la fermeture de Cwtch.

C’est le strict minimum et cela fonctionne très bien. Pour l’instant, toutes les autres fonctionnalités de Cwtch sont « expérimentales » et vous pouvez les choisir en y accédant par les paramètres. Cela comprend les discussions de groupe, le partage de fichiers, l’envoi de photos, les photos de profil, les aperçus d’images et les liens cliquables avec leurs aperçus. Le développement de Cwtch a progressé assez rapidement, donc au moment où vous lirez ces lignes, toutes ces fonctionnalités seront peut-être entièrement développées et disponibles par défaut.

Discussions de groupe

Cwtch propose également des discussions de groupe en tant que « fonction expérimentale ». Pour organiser cela, Cwtch utilise actuellement des serveurs gérés par les utilisateurs, ce qui est très différent de l’approche de Briar. Open Privacy considère que la résistance aux métadonnées des discussions de groupe est un problème ouvert, et j’espère qu’en lisant ce qui précède, vous comprendrez pourquoi. Tout comme le serveur Signal, les serveurs Cwtch sont conçus de telle sorte qu’ils soient toujours considérés comme « non fiables » et qu’ils puissent en apprendre le moins possible sur le contenu des messages ou les métadonnées. Mais bien entendu, ces serveurs sont gérés par des utilisateurs individuels et non par une tierce partie centrale.

Tout utilisateur de Cwtch peut devenir le « serveur » d’une discussion de groupe. C’est idéal pour les groupes à usage unique, où un utilisateur peut devenir l’« hôte » d’une réunion ou d’une discussion rapide. Les serveurs de discussion de groupe de Cwtch permettent également la transmission asynchrone des messages, de sorte qu’un groupe ou une communauté peut exploiter son propre serveur en permanence pour rendre service à ses membres. La façon dont Cwtch aborde les discussions de groupe est encore en cours de développement et pourrait changer à l’avenir, mais il s’agit pour l’instant d’une solution très prometteuse et sympathique.

Correspondance asynchrone avec Cwtch

Les discussions de groupe dans Cwtch permettent la correspondance asynchrone (tant que le serveur/hôte est en ligne), mais comme Briar, Cwtch exige que les deux contacts soient en ligne pour l’envoi de messages directs. Contrairement à Briar, Cwtch ne permet pas de mettre en file d’attente les messages à envoyer à un contact une fois qu’il est en ligne.

petit logo de cœur barré

Cwtch et la question des crypto-monnaies

Fin 2019, Open Privacy, qui développe Cwtch, a reçu un don sans conditions de 40 000 dollars canadiens de la part de la fondation Zcash. Zcash est une autre crypto-monnaie centrée sur la vie privée, similaire mais nettement inférieure à Monero7. En 2019, Cwtch en était au tout début de son développement, et Open Privacy a mené quelques expériences exploratoires sur l’utilisation de Zcash ou de crypto-monnaies blockchain similaires comme des solutions créatives à divers défis relatifs au chiffrement, avec l’idée qu’elles pourraient être incorporées dans Cwtch à un moment ou à un autre. Depuis lors, aucun autre travail de développement avec Zcash ou d’autres crypto-monnaies n’a été associé à Cwtch, et il semble que ce ne soit pas une priorité ou un domaine de recherche pour Open Privacy. Toutefois, il convient de mentionner ce point comme un signal d’alarme potentiel pour les personnes qui se méfient fortement des systèmes de crypto-monnaies. Rappelons que Signal dispose déjà d’une crypto-monnaie entièrement fonctionnelle intégrée à l’application, qui permet aux utilisateurs d’envoyer et de recevoir des MobileCoin.

Conclusions

(… « X a quitté le groupe »)

De nombreux lecteurs se disent peut-être : « Les applications CPT ne semblent pas très bien prendre en charge les discussions de groupe… et j’adore les discussions de groupe ! »… Premièrement, qui aime vraiment les discussions de groupe ? Deuxièmement, c’est l’occasion de soulever des critiques sur la façon dont les anarchistes finissent par utiliser les discussions de groupe dans Signal, pour faire valoir que la façon dont elles sont mises en œuvre dans Briar et Cwtch ne devrait pas être un obstacle.

Signal, Cwtch et Briar vous permettent tous les trois d’organiser facilement un groupe en temps réel (synchrone !) pour une réunion ou une discussion collective rapide qui ne pourrait pas avoir lieu en présentiel. Mais lorsque les gens parlent de « discussion de groupe » (en particulier dans le contexte de Signal), ce n’est pas vraiment ce qu’ils veulent dire. Les discussions de groupe dans Signal deviennent souvent d’énormes flux continus de mises à jour semi-publiques, de « shitposts », de liens repartagés, etc. qui s’apparentent davantage à des pratiques de médias sociaux. Il y a plus de membres qu’il n’est possible d’en avoir pour une conversation vraiment fonctionnelle, sans parler de la prise de décision. La diminution de l’utilité et de la sécurité selon l’augmentation de la taille, de la portée et de la persistance des groupes Signal a été bien décrite dans l’excellent article Signal Fails. Plus un groupe de discussion s’éloigne de la petite taille, du court terme, de l’intention et de l’objectif principal, plus il est difficile à mettre en œuvre avec Briar et Cwtch — et ce n’est pas une mauvaise chose. Briar et Cwtch favorisent des habitudes plus saines et plus sûres, sans les « fonctionnalités » de Signal qui encouragent la dynamique des discussions de groupe critiquées dans des articles tels que « Signal Fails ».

Proposition

Briar et Cwtch sont deux initiatives encore jeunes. Certains anarchistes en ont déjà entendu parler et essaient d’utiliser l’un ou l’autre pour des projets ou des cas d’utilisation spécifiques. Les versions actuelles peuvent sembler plus lourdes à utiliser que Signal, et elles souffrent de l’effet de réseau – tout le monde utilise Signal, donc personne ne veut utiliser autre chose 8. Il est intéressant de souligner que les obstacles apparents à l’utilisation de Cwtch et Briar (encore en version bêta, effet de réseau, différent de ce à quoi vous êtes habitué, sans version iOS) sont exactement les mêmes que ceux qui ont découragé les premiers utilisateurs de Signal (alias TextSecure !).

Il est difficile d’amener les gens à se familiariser avec un nouvel outil et à commencer à l’utiliser. Surtout lorsque l’outil auquel ils sont habitués semble fonctionner à merveille ! Le défi est indéniable. Ce guide a pris des pages et des pages pour tenter de convaincre les anarchistes, qui sont peut-être ceux qui se préoccupent le plus de ces questions, qu’ils ont intérêt à utiliser ces applications.

Les anarchistes ont déjà réussi à adopter de nouveaux outils électroniques prometteurs, à les diffuser et à les utiliser efficacement lors des actions de lutte et de résistance. La normalisation de l’utilisation des applications CPT en plus ou à la place de Signal pour la communication électronique renforcera la résilience de nos communautés et de ceux que nous pouvons convaincre d’utiliser ces outils. Ils nous aideront à nous protéger de la collecte et de l’analyse de métadonnées de plus en plus puissantes, à ne pas dépendre d’un service centralisé et à rendre plus facile l’accès à l’anonymat.

Voici donc la proposition. Après avoir lu ce guide, mettez-le en pratique et partagez-le. Vous ne pouvez pas essayer Cwtch ou Briar seul, vous avez besoin d’au moins un ami pour cela. Installez-ces applications avec votre équipe et essayez d’utiliser l’une ou l’autre pour un projet spécifique qui vous convient. Organisez une réunion hebdomadaire avec les personnes qui ne peuvent pas se rencontrer en personne pour échanger des nouvelles qui, autrement, auraient été partagées dans un groupe de discussion agglutiné sur Signal. Gardez le contact avec quelques amis éloignés ou avec une équipe dont les membres sont distants. Vous n’êtes pas obligé de supprimer Signal (et vous ne le devriez probablement pas), mais vous contribuerez au minimum à renforcer la résilience en établissant des connexions de secours avec vos réseaux. Alors que la situation s’échauffe, la probabilité d’une répression intensive ou de fractures sociétales telles que celles qui perturbent Signal dans d’autres pays est de plus en plus grande partout, et nous aurons tout intérêt à mettre en place nos moyens de communication alternatifs le plus tôt possible !

Briar et Cwtch sont tous deux en développement actif, par des anarchistes et des sympathisants à nos causes. En les utilisant, que ce soit sérieusement ou pour le plaisir, nous pouvons contribuer à leur développement en signalant les bogues et les vulnérabilités, et en incitant leurs développeurs à continuer, sachant que leur projet est utilisé. Peut-être même que les plus férus d’informatique d’entre nous peuvent contribuer directement, en vérifiant le code et les protocoles ou même en participant à leur développement.

Outre la lecture de ce guide, essayer d’utiliser ces applications en tant que groupe d’utilisateurs curieux est le meilleur moyen d’apprécier en quoi elles sont structurellement différentes de Signal. Même si vous ne pouvez pas vous résoudre à utiliser ces applications régulièrement, le fait d’essayer différents outils de communication sécurisés et de comprendre comment, pourquoi et en quoi ils sont différents de ceux qui vous sont familiers améliorera vos connaissances en matière de sécurité numérique. Il n’est pas nécessaire de maîtriser les mathématiques complexes qui sous-tendent l’algorithme de chiffrement à double cliquet de Signal, mais une meilleure connaissance et une meilleure compréhension du fonctionnement théorique et pratique de ces outils permettent d’améliorer la sécurité opérationnelle dans son ensemble. Tant que nous dépendons d’une infrastructure pour communiquer, nous devrions essayer de comprendre comment cette infrastructure fonctionne, comment elle nous protège ou nous rend vulnérables, et explorer activement les moyens de la renforcer.

Le mot de la fin

Toute cette discussion a porté sur les applications de communication sécurisées qui fonctionnent sur nos téléphones et nos ordinateurs. Le mot de la fin doit rappeler que même si l’utilisation d’outils de chiffrement et d’anonymisation des communications en ligne peut vous protéger contre vos adversaires, vous ne devez jamais saisir ou dire quoi que ce soit sur une application ou un appareil sans savoir que cela pourrait être interprété devant un tribunal. Rencontrer vos amis, face à face, en plein air et loin des caméras et autres appareils électroniques est de loin le moyen le plus sûr d’avoir une conversation qui doit être sécurisée et privée. Éteignez votre téléphone, posez-le et sortez !

Appendice : d’autres applications dont vous n’avez pas forcément entendu parler

Ricochet Refresh

Ricochet était une toute première application CPT de bureau financée par le Blueprint for Free Speech, basé en Europe. Ricochet Refresh est la version actuelle. Fondamentalement, elle est très similaire à Cwtch et Briar, mais assez rudimentaire – elle dispose d’un système basique de conversation directe et de transfert de fichiers, et ne fonctionne que sur MacOS, Linux et Windows. Cette application est fonctionnelle, mais dépouillée, et n’a pas de version pour mobiles.

OnionShare

OnionShare est un projet fantastique qui fonctionne sur n’importe quel ordinateur de bureau et qui est fourni avec Tails et d’autres systèmes d’exploitation. Il permet d’envoyer et de recevoir facilement des fichiers ou d’avoir un salon de discussion éphémère rudimentaire via Tor. Il est également CPT !

Telegram

Telegram est en fait comme Twitter. Il peut s’avérer utile d’y être présent dans certains scénarios, mais il ne devrait pas être utilisé pour des communications sécurisées car il y a des fuites de métadonnées partout. Il n’est probablement pas utile de passer plus de temps à critiquer Telegram ici, mais il ne devrait pas être utilisé là où la vie privée ou la sécurité sont exigées.

Tox

Tox est un projet similaire à Briar et Cwtch, mais il n’utilise pas Tor – c’est juste CP. Tox peut être routé manuellement à travers Tor. Aucune des applications développées pour Tox n’est particulièrement conviviale.

Session

Session mérite qu’on s’y attarde un peu. L’ambiance y est très libertarienne, et activiste façon « free-speech movement ». Session utilise le protocole de chiffrement robuste de Signal, est en pair-à-pair pour les messages directs et utilise également le routage Onion pour l’anonymat (le même principe que celui qui est à la base de Tor). Cependant, au lieu de Tor, Session utilise son propre réseau de routage Onion pour lequel une « participation financière » est nécessaire afin de faire fonctionner un nœud de service qui constitue le réseau Onion. Point essentiel, cette participation financière prend la forme d’une crypto-monnaie administrée par la fondation qui développe Session. Le projet est intéressant d’un point de vue technologique, astucieux même, mais il s’agit d’une solution très « web3 » drapée dans une culture cryptobro. Malgré tout ce qu’ils prétendent, leurs discussions de groupe ne sont pas conçues pour être particulièrement résistantes à la collecte de métadonnées, et les grandes discussions de groupe semi-publiques sont simplement hébergées sur des serveurs centralisés (et apparemment envahis par des cryptobros d’extrême-droite). Peut-être que si la blockchain finit par s’imposer, ce sera une bonne option, mais pour l’instant, on ne peut pas la recommander en toute bonne conscience.

Molly

Molly est un fork du client Signal pour Android. Il utilise toujours le serveur Signal mais propose un peu plus de sécurité et de fonctionnalités sur l’appareil.

Contact

Cet article a été écrit originellement en août 2022. Courriel de l’auteur : pettingzoo riseup net ou via Cwtch : g6px2uyn5tdg2gxpqqktnv7qi2i5frr5kf2dgnyielvq4o4emry4qzid


dessin en noir et blanc. Main qui brandit un smartphone émettant un message (bulle) qui prend feu. Légende : le soulèvement ne dure qu'une nuit… les métadonnées sont éternelles


  1. Par le biais d’un hameçonnage ou d’une ruse
  2. Cependant, Signal semble vraiment vouloir obtenir davantage de dons de la part des utilisateurs, malgré le prêt de 50 millions de dollars contracté par l’entreprise. ¯_(ツ)_/¯
  3. Au lieu d’un serveur physique unique, il s’agit en fait d’un énorme réseau de serveurs loués dans les datacenters d’Amazon un peu partout aux États-Unis – ce qui peut être résumé à un serveur Signal unique pour les besoins de notre discussion.
  4. Récemment, Signal a choisi de fermer une partie du code de son serveur, soi-disant pour lui permettre de lutter contre le spam sur la plateforme. Cela signifie que désormais, une petite partie du code du serveur Signal n’est pas partagée publiquement. Ce changement dénote également une augmentation, bien qu’extrêmement minime, de la collecte de métadonnées côté serveur, puisqu’elle est nécessaire pour faciliter la lutte efficace contre le spam, même de manière basique. Il n’y a aucune raison de suspecter une manœuvre malveillante, mais il est important de noter qu’il s’agit là encore d’une décision stratégique qui sacrifie les questions de sécurité dans l’intérêt de l’expérience de l’utilisateur.
  5. Stewart Baker, Conseiller Général de la NSA.
  6. Pardonnez ce pavé sur les numéros de téléphone. Bien que, dans les fils de questions-réponses sur Github, Signal ait mentionné être ouvert à l’idée de ne plus exiger de numéro de téléphone, il n’y a pas eu d’annonce officielle indiquant qu’il s’agissait d’une fonctionnalité à venir et en cours de développement. Il semblerait que l’un des problèmes liés à l’abandon des numéros de téléphone pour l’enregistrement soit la rupture de la compatibilité avec les anciens comptes Signal, en raison de la manière dont les choses étaient mises en œuvre à l’époque de TextSecure. C’est paradoxal, étant donné que le principal argument de Moxie contre les modèles décentralisés est qu’il serait trop difficile d’aller vite – il y a trop de travail à faire avant de pouvoir mettre en œuvre de nouvelles fonctionnalités. Et pourtant, Signal est bloqué par un problème très embarrassant à cause d’un ancien code concernant l’enregistrement des comptes auprès d’un serveur central. Moxie a également expliqué que les numéros de téléphone sont utilisés comme point de référence de votre identité dans Signal pour faciliter la préservation de votre « graphe social ». Au lieu que Signal ait à maintenir une sorte de réseau social en votre nom, tous vos contacts sont identifiés par leur numéro de téléphone dans le carnet d’adresses de votre téléphone, ce qui facilite le maintien et la conservation de votre liste de contacts lorsque vous passez d’autres applications à Signal, ou si vous avez un nouveau téléphone, ou que sais-je encore. Pour Moxie, il semble qu’avoir à « redécouvrir » ses contacts régulièrement et en tout lieu soit un horrible inconvénient. Pour les anarchistes, cela devrait être considéré comme un avantage d’avoir à maintenir intentionnellement notre « graphe social » basé sur nos affinités, nos désirs et notre confiance. Nous devrions constamment réévaluer et réexaminer qui fait partie de notre « graphe social » pour des raisons de sécurité (est-ce que je fais encore confiance à tous ceux qui ont mon numéro de téléphone d’il y a 10 ans ?) et pour encourager des relations sociales intentionnelles (suis-je toujours ami avec tous ceux qui ont mon numéro de téléphone d’il y a 10 ans ?). Dernière anecdote sur l’utilisation des numéros de téléphone par Signal : Signal dépense plus d’argent pour la vérification des numéros de téléphone que pour l’hébergement du reste du service : 1 017 990 dollars pour Twillio, le service de vérification des numéros de téléphone, contre 887 069 dollars pour le service d’hébergement web d’Amazon.
  7. Le créateur de Zcash, un cypherpunk du nom de Zooko Wilcox-O’Hearn, semble prétendre que Zcash est privé mais ne peut pas être utilisé dans un but criminel…
  8. Avez-vous un moment pour parler d’interopérabilité et de fédération ? Peut-être plus tard…

Publier le code source ne suffit pas…

Par : Framalang
17 avril 2023 à 05:42

Un court billet où Nicolas Kayser-Bril opère une mise au point : la loi européenne et les grandes entreprises du Web peuvent donner accès au code source, mais ce n’est qu’un facteur parmi d’autres qui s’avère souvent inutile à lui seul…

Article original : The ideology behind publishing Twitter’s source code publié dans le bulletin d’information (en anglais ou allemand)  d’Algorithmwatch auquel on peut s’abonner sur cette page.

Traduction Framalang relue et révisée par l’auteur : Squeeek, goofy, audionuma

L’idéologie derrière la publication du code source de Twitter

par Nicolas Kayser-Bril

Photo noir/blanc de l'auteur, jeune homme brun souriant.

Photo par Julia Bornkessel licence CC-BY 4.0

Une fuite

Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité. Cette décision a été prise quelques jours après qu’il a été rendu public que de grandes parties de ce code avaient déjà été divulguées sur Github [Gizmodo, 31 mars].

Les 85 797 lignes de code ne nous apprennent pas grand-chose. Les tweets ne contenant pas de liens sont mis en avant. Ceux rédigés dans une langue que le système ne peut pas reconnaître sont rétrogradés – discriminant clairement les personnes qui parlent une langue qui n’est pas reconnue par les ingénieurs californiens. Les Spaces (la fonction de podcasting en direct de Twitter) sur l’Ukraine semblent également être cachés [Aakash Gupta, 2 avril].

Le plus intéressant dans cette affaire reste le billet de blog rédigé par ce qu’il reste de l’équipe d’ingénieurs de Twitter. Il explique bien comment fonctionne un fil d’actualité d’un point de vue technique.

Comment (ne pas) ouvrir le code source

Une entreprise a été pionnière pour rendre son code source public : Twitter. Il y a deux ans, son équipe « Éthique, Transparence et Responsabilité » a publié le code d’un algorithme de recadrage d’images et a organisé une compétition permettant à quiconque d’y trouver d’éventuels biais [AlgorithmWatch, 2021]. Cette équipe a été l’une des premières à être licenciée l’année dernière.

Il ne suffit pas de lire un code source pour l’auditer. Il faut le faire fonctionner (l’exécuter) sur un ordinateur. En ce qui concerne l’Ukraine, par exemple, nous savons seulement que les Spaces Twitter étiquetés « UkraineCrisisTopic » subissent le même traitement que les articles étiquetés « violence » ou « porno ». Mais nous ne savons pas comment cette étiquette est attribuée, ni quels en sont les effets. Il semble que le code de ces fonctionnalités n’ait même pas été rendu public.

Dissimulation

Publier du code informatique sans expliquer comment le faire fonctionner peut être pire qu’inutile. Cela permet de prétendre à la transparence tout en empêchant tout réel audit. Twitter n’est pas la première organisation à suivre cette stratégie.

La Caisse Nationale des Allocations Familiales a publié les 7 millions de lignes du code de son calculateur d’allocations suite à une demande d’informations publiques (demande CADA) [NextINpact, 2018]. On ne pouvait rien en tirer. J’ai fait une demande de communication des « documents d’architecture fonctionnelle », qui sont mentionnés dans des commentaires du code. La CNAF a répondu qu’ils n’existaient pas.

La loi européenne sur les services numériques prévoit que les « chercheurs agréés » pourront accéder aux « données » des très grandes plateformes, y compris éventuellement au code source [AlgorithmWatch, 2022]. Pour que la loi sur les services numériques fonctionne, il est essentiel que les entreprises traitent ces demandes comme le Twitter de 2021, et non comme le Twitter de 2023.

L’idéologie technologiste

Enfin, la focalisation sur le code source est au service d’un projet politique. J’entends souvent dire que le code est le cœur d’une entreprise, que c’est un secret commercial précieusement gardé. C’est faux. Si c’était le cas, les fuites de code source nuiraient aux entreprises. Suite à des intrusions ou des fuites, le code source de Yandex et de Twitch a été publié récemment [ArsTechnica, 2021 et 2023]. À ma connaissance, ces entreprises n’en ont pas souffert.

Le code source n’est qu’un facteur parmi d’autres pour une entreprise du Web. Parmi les autres facteurs, citons les employés, les relations avec des politiques, les procédures internes, la position sur le marché, l’environnement juridique et bien d’autres encore. Mettre le code sur un piédestal implique que les autres facteurs sont sans importance. Les propriétaires de Twitter et de Meta (et ils sont loin d’être les seuls) ont dit très clairement que les ingénieurs étaient beaucoup plus importants que le reste de leurs employé·e·s. Pour eux, tout problème est fondamentalement technique et peut être résolu par du code.

Je suis certain que la publication du code source de Twitter conduira certains technologues à prétendre que le harcèlement en ligne, les agressions et la désinformation peuvent désormais être « corrigés » par une pull request (lorsqu’un contributeur à un projet open source propose une modification du code). Ce serait un pas dans la mauvaise direction.

Ouvrir le code des algorithmes ? — Oui, mais… (1/2)

15 mai 2023 à 05:42

Voici le premier des deux articles qu’Hubert Guillaud nous fait le plaisir de partager. Sans s’arrêter à la surface de l’actualité, il aborde la transparence du code des algorithmes, qui entraîne un grand nombre de questions épineuses sur lesquelles il s’est documenté pour nous faire part de ses réflexions.


Dans le code source de l’amplification algorithmique : publier le code ne suffit pas !

par Hubert GUILLAUD

Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité, comme l’a expliqué l’équipe elle-même dans un billet. Ces dizaines de milliers de lignes de code contiennent pourtant peu d’informations nouvelles. Depuis le rachat de l’oiseau bleu par Musk, Twitter a beaucoup changé et ne cesse de se modifier sous les yeux des utilisateurs. La publication du code source d’un système, même partiel, qui a longtemps été l’un des grands enjeux de la transparence, montre ses limites.

un jeune homme montre une ligne d'une explication de l'encodage des algorithmes au rétroprojecteur

« LZW encoding and decoding algorithms overlapped » par nayukim, licence CC BY 2.0.

Publier le code ne suffit pas

Dans un excellent billet de blog, le chercheur Arvind Narayan (sa newsletter mérite également de s’y abonner) explique ce qu’il faut en retenir. Comme ailleurs, les règles ne sont pas claires. Les algorithmes de recommandation utilisent l’apprentissage automatique ce qui fait que la manière de classer les tweets n’est pas directement spécifiée dans le code, mais apprise par des modèles à partir de données de Twitter sur la manière dont les utilisateurs ont réagi aux tweets dans le passé. Twitter ne divulgue ni ces modèles ni les données d’apprentissages, ce qui signifie qu’il n’est pas possible d’exécuter ces modèles. Le code ne permet pas de comprendre pourquoi un tweet est ou n’est pas recommandé à un utilisateur, ni pourquoi certains contenus sont amplifiés ou invisibilisés. C’est toute la limite de la transparence. Ce que résume très bien le journaliste Nicolas Kayser-Bril pour AlgorithmWatch (pertinemment traduit par le framablog) : « Vous ne pouvez pas auditer un code seulement en le lisant. Il faut l’exécuter sur un ordinateur. »

« Ce que Twitter a publié, c’est le code utilisé pour entraîner les modèles, à partir de données appropriées », explique Narayan, ce qui ne permet pas de comprendre les propagations, notamment du fait de l’absence des données. De plus, les modèles pour détecter les tweets qui violent les politiques de Twitter et qui leur donnent des notes de confiance en fonction de ces politiques sont également absentes (afin que les usagers ne puissent pas déjouer le système, comme nous le répètent trop de systèmes rétifs à l’ouverture). Or, ces classements ont des effets de rétrogradation très importants sur la visibilité de ces tweets, sans qu’on puisse savoir quels tweets sont ainsi classés, selon quelles méthodes et surtout avec quelles limites.

La chose la plus importante que Twitter a révélée en publiant son code, c’est la formule qui spécifie comment les différents types d’engagement (likes, retweets, réponses, etc.) sont pondérés les uns par rapport aux autres… Mais cette formule n’est pas vraiment dans le code. Elle est publiée séparément, notamment parce qu’elle n’est pas statique, mais qu’elle doit être modifiée fréquemment.

Sans surprise, le code révèle ainsi que les abonnés à Twitter Blue, ceux qui payent leur abonnement, bénéficient d’une augmentation de leur portée (ce qui n’est pas sans poser un problème de fond, comme le remarque pertinemment sur Twitter, Guillaume Champeau, car cette préférence pourrait mettre ces utilisateurs dans la position d’être annonceurs, puisqu’ils payent pour être mis en avant, sans que l’interface ne le signale clairement, autrement que par la pastille bleue). Reste que le code n’est pas clair sur l’ampleur de cette accélération. Les notes attribuées aux tweets des abonnés Blue sont multipliées par 2 ou 4, mais cela ne signifie pas que leur portée est pareillement multipliée. « Une fois encore, le code ne nous dit pas le genre de choses que nous voudrions savoir », explique Narayan.

Reste que la publication de la formule d’engagement est un événement majeur. Elle permet de saisir le poids des réactions sur un tweet. On constate que la réponse à tweet est bien plus forte que le like ou que le RT. Et la re-réponse de l’utilisateur originel est prédominante, puisque c’est le signe d’une conversation forte. À l’inverse, le fait qu’un lecteur bloque, mute ou se désabonne d’un utilisateur suite à un tweet est un facteur extrêmement pénalisant pour la propagation du tweet.

Tableau du poids attribué en fonction des types d’engagement possibles sur Twitter.

Ces quelques indications permettent néanmoins d’apprendre certaines choses. Par exemple que Twitter ne semble pas utiliser de prédictions d’actions implicites (comme lorsqu’on s’arrête de faire défiler son fil), ce qui permet d’éviter l’amplification du contenu trash que les gens ne peuvent s’empêcher de regarder, même s’ils ne s’y engagent pas. La formule nous apprend que les retours négatifs ont un poids très élevé, ce qui permet d’améliorer son flux en montrant à l’algorithme ce dont vous ne voulez pas – même si les plateformes devraient permettre des contrôles plus explicites pour les utilisateurs. Enfin, ces poids ont des valeurs souvent précises, ce qui signifie que ce tableau n’est valable qu’à l’instant de la publication et qu’il ne sera utile que si Twitter le met à jour.

Les algorithmes de recommandation qui optimisent l’engagement suivent des modèles assez proches. La publication du code n’est donc pas très révélatrice. Trois éléments sont surtout importants, insiste le chercheur :

« Le premier est la manière dont les algorithmes sont configurés : les signaux utilisés comme entrée, la manière dont l’engagement est défini, etc. Ces informations doivent être considérées comme un élément essentiel de la transparence et peuvent être publiées indépendamment du code. La seconde concerne les modèles d’apprentissage automatique qui, malheureusement, ne peuvent généralement pas être divulgués pour des raisons de protection de la vie privée. Le troisième est la boucle de rétroaction entre les utilisateurs et l’algorithme ».

Autant d’éléments qui demandent des recherches, des expériences et du temps pour en comprendre les limites.

Si la transparence n’est pas une fin en soi, elle reste un moyen de construire un meilleur internet en améliorant la responsabilité envers les utilisateurs, rappelle l’ingénieur Gabriel Nicholas pour le Center for Democracy & Technology. Il souligne néanmoins que la publication d’une partie du code source de Twitter ne contrebalance pas la fermeture du Consortium de recherche sur la modération, ni celle des rapports de transparence relatives aux demandes de retraits des autorités ni celle de l’accès à son API pour chercheurs, devenue extrêmement coûteuse.

« Twitter n’a pas exactement ’ouvert son algorithme’ comme certains l’ont dit. Le code est lourdement expurgé et il manque plusieurs fichiers de configuration, ce qui signifie qu’il est pratiquement impossible pour un chercheur indépendant d’exécuter l’algorithme sur des échantillons ou de le tester d’une autre manière. Le code publié n’est en outre qu’un instantané du système de recommandation de Twitter et n’est pas réellement connecté au code en cours d’exécution sur ses serveurs. Cela signifie que Twitter peut apporter des modifications à son code de production et ne pas l’inclure dans son référentiel public, ou apporter des modifications au référentiel public qui ne sont pas reflétées dans son code de production. »

L’algorithme publié par Twitter est principalement son système de recommandation. Il se décompose en 3 parties, explique encore Nicholas :

  • Un système de génération de contenus candidats. Ici, Twitter sélectionne 1500 tweets susceptibles d’intéresser un utilisateur en prédisant la probabilité que l’utilisateur s’engage dans certaines actions pour chaque tweet (c’est-à-dire qu’il RT ou like par exemple).
  • Un système de classement. Une fois que les 1 500 tweets susceptibles d’être servis sont sélectionnés, ils sont notés en fonction de la probabilité des actions d’engagement, certaines actions étant pondérées plus fortement que d’autres. Les tweets les mieux notés apparaîtront généralement plus haut dans le fil d’actualité de l’utilisateur.
  • Un système de filtrage. Les tweets ne sont pas classés strictement en fonction de leur score. Des heuristiques et des filtres sont appliqués pour, par exemple, éviter d’afficher plusieurs tweets du même auteur ou pour déclasser les tweets d’auteurs que l’utilisateur a déjà signalés pour violation de la politique du site.

Le score final est calculé en additionnant la probabilité de chaque action multipliée par son poids (en prenant certainement en compte la rareté ou la fréquence d’action, le fait de répondre à un tweet étant moins fréquent que de lui attribuer un like). Mais Twitter n’a pas publié la probabilité de base de chacune de ces actions ce qui rend impossible de déterminer l’importance de chacune d’elles dans les recommandations qui lui sont servies.

Twitter a également révélé quelques informations sur les autres facteurs qu’il prend en compte en plus du classement total d’un tweet. Par exemple, en équilibrant les recommandations des personnes que vous suivez avec celles que vous ne suivez pas, en évitant de recommander les tweets d’un même auteur ou en donnant une forte prime aux utilisateurs payants de Twitter Blue.

Il y a aussi beaucoup de code que Twitter n’a pas partagé. Il n’a pas divulgué beaucoup d’informations sur l’algorithme de génération des tweets candidats au classement ni sur ses paramètres et ses données d’entraînement. Twitter n’a pas non plus explicitement partagé ses algorithmes de confiance et de sécurité pour détecter des éléments tels que les abus, la toxicité ou les contenus pour adultes, afin d’empêcher les gens de trouver des solutions de contournement, bien qu’il ait publié certaines des catégories de contenu qu’il signale.

 

graphe des relations entre comptes twitter, tr-s nombreux traits bleus entre minuscules avatars de comptes, le tout donne une impression d'inextricable comlexité

« 20120212-NodeXL-Twitter-socbiz network graph » par Marc_Smith ; licence CC BY 2.0.

 

Pour Gabriel Nicholas, la transparence de Twitter serait plus utile si Twitter avait maintenu ouverts ses outils aux chercheurs. Ce n’est pas le cas.

Il y a plein d’autres points que l’ouverture de l’algorithme de Twitter a documentés. Par exemple, l’existence d’un Tweepcred, un score qui classe les utilisateurs et qui permet de voir ses publications boostées si votre score est bon, comme l’expliquait Numerama. Ou encore le fait que chaque compte est clustérisé dans un groupe aux profils similaires dans lequel les tweets sont d’abord diffusés avant d’être envoyés plus largement s’ils rencontrent un premier succès… De même, il semblerait qu’il y ait certaines catégories d’utilisateurs spéciaux (dont une catégorie relative à Elon Musk) mais qui servent peut-être plus certaines statistiques qu’à doper la portée de certains comptes comme on l’a entendu (même s’il semble bien y avoir une catégorie VIP sur Twitter – comme il y a sur Facebook un statut d’exception à la modération)…

Ouvrir, mais ouvrir quoi ?

En conclusion de son article, Narayan pointe vers un très intéressant article qui dresse une liste d’options de transparence pour ceux qui produisent des systèmes de recommandation, publiée par les chercheurs Priyanjana Bengani, Jonathan Stray et Luke Thorburn. Ils rappellent que les plateformes ont mis en place des mesures de transparence, allant de publications statistiques à des interfaces de programmation, en passant par des outils et des ensembles de données protégés. Mais ces mesures, très techniques, restent insuffisantes pour comprendre les algorithmes de recommandation et leur influence sur la société. Une grande partie de cette résistance à la transparence ne tient pas tant aux risques commerciaux qui pourraient être révélés qu’à éviter l’embarras d’avoir à se justifier de choix qui ne le sont pas toujours. D’une manière très pragmatique, les trois chercheurs proposent un menu d’actions pour améliorer la transparence et l’explicabilité des systèmes.

Documenter
L’un des premiers outils, et le plus simple, reste la documentation qui consiste à expliquer en termes clairs – selon différentes échelles et niveaux, me semble-t-il – ce qui est activé par une fonction. Pour les utilisateurs, c’est le cas du bouton « Pourquoi je vois ce message » de Facebook ou du panneau « Fréquemment achetés ensemble » d’Amazon. L’idée ici est de fourbir un « compte rendu honnête ». Pour les plus évoluées de ces interfaces, elles devraient permettre non seulement d’informer et d’expliquer pourquoi on nous recommande ce contenu, mais également, permettre de rectifier et mieux contrôler son expérience en ligne, c’est-à-dire d’avoir des leviers d’actions sur la recommandation.

Une autre forme de documentation est celle sur le fonctionnement général du système et ses décisions de classement, à l’image des rapports de transparence sur les questions de sécurité et d’intégrité que doivent produire la plupart des plateformes (voir celui de Google, par exemple). Cette documentation devrait intégrer des informations sur la conception des algorithmes, ce que les plateformes priorisent, minimisent et retirent, si elles donnent des priorités et à qui, tenir le journal des modifications, des nouvelles fonctionnalités, des changements de politiques. La documentation doit apporter une information solide et loyale, mais elle reste souvent insuffisante.

Les données
Pour comprendre ce qu’il se passe sur une plateforme, il est nécessaire d’obtenir des données. Twitter ou Facebook en ont publié (accessibles sous condition de recherche, ici pour Twitter,  pour Facebook). Une autre approche consiste à ouvrir des interfaces de programmation, à l’image de CrowdTangle de Facebook ou de l’API de Twitter. Depuis le scandale Cambridge Analytica, l’accès aux données est souvent devenu plus difficile, la protection de la vie privée servant parfois d’excuse aux plateformes pour éviter d’avoir à divulguer leurs pratiques. L’accès aux données, même pour la recherche, s’est beaucoup refermé ces dernières années. Les plateformes publient moins de données et CrowdTangle propose des accès toujours plus sélectifs. Chercheurs et journalistes ont été contraints de développer leurs propres outils, comme des extensions de navigateurs permettant aux utilisateurs de faire don de leurs données (à l’image du Citizen Browser de The Markup) ou des simulations automatisées (à l’image de l’analyse robotique de TikTok produite par le Wall Street Journal), que les plateformes ont plutôt eu tendance à bloquer en déniant les résultats obtenus sous prétexte d’incomplétude – ce qui est justement le problème que l’ouverture de données cherche à adresser.

Le code
L’ouverture du code des systèmes de recommandation pourrait être utile, mais elle ne suffit pas, d’abord parce que dans les systèmes de recommandation, il n’y a pas un algorithme unique. Nous sommes face à des ensembles complexes et enchevêtrés où « différents modèles d’apprentissage automatique formés sur différents ensembles de données remplissent diverses fonctions ». Même le classement ou le modèle de valeur pour déterminer le score n’explique pas tout. Ainsi, « le poids élevé sur un contenu d’un type particulier ne signifie pas nécessairement qu’un utilisateur le verra beaucoup, car l’exposition dépend de nombreux autres facteurs, notamment la quantité de ce type de contenu produite par d’autres utilisateurs. »

Peu de plateformes offrent une grande transparence au niveau du code source. Reddit a publié en 2008 son code source, mais a cessé de le mettre à jour. En l’absence de mesures de transparence, comprendre les systèmes nécessite d’écluser le travail des journalistes, des militants et des chercheurs pour tenter d’en obtenir un aperçu toujours incomplet.

La recherche
Les plateformes mènent en permanence une multitude de projets de recherche internes voire externes et testent différentes approches pour leurs systèmes de recommandation. Certains des résultats finissent par être accessibles dans des revues ou des articles soumis à des conférences ou via des fuites d’informations. Quelques efforts de partenariats entre la recherche et les plateformes ont été faits, qui restent embryonnaires et ne visent pas la transparence, mais qui offrent la possibilité à des chercheurs de mener des expériences et donc permettent de répondre à des questions de nature causale, qui ne peuvent pas être résolues uniquement par l’accès aux données.

Enfin, les audits peuvent être considérés comme un type particulier de recherche. À l’heure actuelle, il n’existe pas de bons exemples d’audits de systèmes de recommandation menés à bien. Reste que le Digital Service Act (DSA) européen autorise les audits externes, qu’ils soient lancés par l’entreprise ou dans le cadre d’une surveillance réglementaire, avec des accès élargis par rapport à ceux autorisés pour l’instant. Le DSA exige des évaluations sur le public mineur, sur la sécurité, la santé, les processus électoraux… mais ne précise ni comment ces audits doivent être réalisés ni selon quelles normes. Des méthodes spécifiques ont été avancées pour contrôler la discrimination, la polarisation et l’amplification dans les systèmes de recommandation.

En principe, on pourrait évaluer n’importe quel préjudice par des audits. Ceux-ci visent à vérifier si « la conception et le fonctionnement d’un système de recommandation respectent les meilleures pratiques et si l’entreprise fait ce qu’elle dit qu’elle fait. S’ils sont bien réalisés, les audits pourraient offrir la plupart des avantages d’un code source ouvert et d’un accès aux données des utilisateurs, sans qu’il soit nécessaire de les rendre publics. » Reste qu’il est peu probable que les audits imposés par la surveillance réglementaire couvrent tous les domaines qui préoccupent ceux qui sont confrontés aux effets des outils de recommandations.

Autres moteurs de transparence : la gouvernance et les calculs

Les chercheurs concluent en soulignant qu’il existe donc une gamme d’outils à disposition, mais qu’elle manque de règles et de bonnes pratiques partagées. Face aux obligations de transparence et de contrôles qui arrivent (pour les plus gros acteurs d’abord, mais parions que demain, elles concerneront bien d’autres acteurs), les entreprises peinent à se mettre en ordre de marche pour proposer des outillages et des productions dans ces différents secteurs qui leur permettent à la fois de se mettre en conformité et de faire progresser leurs outils. Ainsi, par exemple, dans le domaine des données, documenter les jeux et les champs de données, à défaut de publier les jeux de données, pourrait déjà permettre un net progrès. Dans le domaine de la documentation, les cartes et les registres permettent également d’expliquer ce que les calculs opèrent (en documentant par exemple leurs marges d’erreurs).

Reste que l’approche très technique que mobilisent les chercheurs oublie quelques leviers supplémentaires. Je pense notamment aux conseils de surveillance, aux conseils éthiques, aux conseils scientifiques, en passant par les organismes de contrôle indépendants, aux comités participatifs ou consultatifs d’utilisateurs… à tous les outils institutionnels, participatifs ou militants qui permettent de remettre les parties prenantes dans le contrôle des décisions que les systèmes prennent. Dans la lutte contre l’opacité des décisions, tous les leviers de gouvernance sont bons à prendre. Et ceux-ci sont de très bons moyens pour faire pression sur la transparence, comme l’expliquait très pertinemment David Robinson dans son livre Voices in the Code.

Un autre levier me semble absent de nombre de propositions… Alors qu’on ne parle que de rendre les calculs transparents, ceux-ci sont toujours absents des discussions. Or, les règles de traitements sont souvent particulièrement efficaces pour améliorer les choses. Il me semble qu’on peut esquisser au moins deux moyens pour rendre les calculs plus transparents et responsables : la minimisation et les interdictions.

La minimisation vise à rappeler qu’un bon calcul ne démultiplie pas nécessairement les critères pris en compte. Quand on regarde les calculs, bien souvent, on est stupéfait d’y trouver des critères qui ne devraient pas être pris en compte, qui n’ont pas de fondements autres que d’être rendus possibles par le calcul. Du risque de récidive au score de risque de fraude à la CAF, en passant par l’attribution de greffes ou aux systèmes de calculs des droits sociaux, on trouve toujours des éléments qui apprécient le calcul alors qu’ils n’ont aucune justification ou pertinence autres que d’être rendu possibles par le calcul ou les données. C’est le cas par exemple du questionnaire qui alimente le calcul de risque de récidive aux Etats-Unis, qui repose sur beaucoup de questions problématiques. Ou de celui du risque de fraude à la CAF, dont les anciennes versions au moins (on ne sait pas pour la plus récente) prenaient en compte par exemple le nombre de fois où les bénéficiaires se connectaient à leur espace en ligne (sur cette question, suivez les travaux de la Quadrature et de Changer de Cap). La minimisation, c’est aussi, comme l’explique l’ex-chercheur de chez Google, El Mahdi El Mhamdi, dans une excellente interview, limiter le nombre de paramètres pris en compte par les calculs et limiter l’hétérogénéité des données.

L’interdiction, elle, vise à déterminer que certains croisements ne devraient pas être autorisés, par exemple, la prise en compte des primes dans les logiciels qui calculent les données d’agenda du personnel, comme semble le faire le logiciel Orion mis en place par la Sncf, ou Isabel, le logiciel RH que Bol.com utilise pour gérer la main-d’œuvre étrangère dans ses entrepôts de logistique néerlandais. Ou encore, comme le soulignait Narayan, le temps passé sur les contenus sur un réseau social par exemple, ou l’analyse de l’émotion dans les systèmes de recrutement (et ailleurs, tant cette technologie pose problème). A l’heure où tous les calculs sont possibles, il va être pertinent de rappeler que selon les secteurs, certains croisements doivent rester interdits parce qu’ils sont trop à risque pour être mobilisés dans le calcul ou que certains calculs ne peuvent être autorisés.

Priyanjana Bengani, Jonathan Stray et Luke Thorburn, pour en revenir à eux, notent enfin que l’exigence de transparence reste formulée en termes très généraux par les autorités réglementaires. Dans des systèmes vastes et complexes, il est difficile de savoir ce que doit signifier réellement la transparence. Pour ma part, je milite pour une transparence “projective”, active, qui permette de se projeter dans les explications, c’est-à-dire de saisir ses effets et dépasser le simple caractère narratif d’une explication loyale, mais bien de pouvoir agir et reprendre la main sur les calculs.

Coincés dans les boucles de l’amplification

Plus récemment, les trois mêmes chercheurs, passé leur article séminal, ont continué à documenter leur réflexion. Ainsi, dans « Rendre l’amplification mesurable », ils expliquent que l’amplification est souvent bien mal définie (notamment juridiquement, ils ont consacré un article entier à la question)… mais proposent d’améliorer les propriétés permettant de la définir. Ils rappellent d’abord que l’amplification est relative, elle consiste à introduire un changement par rapport à un calcul alternatif ou précédent qui va avoir un effet sans que le comportement de l’utilisateur n’ait été, lui, modifié.

L’amplification agit d’abord sur un contenu et nécessite de répondre à la question de savoir ce qui a été amplifié. Mais même dire que les fake news sont amplifiées n’est pas si simple, à défaut d’avoir une définition précise et commune des fake news qui nécessite de comprendre les classifications opérées. Ensuite, l’amplification se mesure par rapport à un point de référence précédent qui est rarement précisé. Enfin, quand l’amplification atteint son but, elle produit un résultat qui se voit dans les résultats liés à l’engagement (le nombre de fois où le contenu a été apprécié ou partagé) mais surtout ceux liés aux impressions (le nombre de fois où le contenu a été vu). Enfin, il faut saisir ce qui relève de l’algorithme et du comportement de l’utilisateur. Si les messages d’un parti politique reçoivent un nombre relativement important d’impressions, est-ce parce que l’algorithme est biaisé en faveur du parti politique en question ou parce que les gens ont tendance à s’engager davantage avec le contenu de ce parti ? Le problème, bien sûr, est de distinguer l’un de l’autre d’une manière claire, alors qu’une modification de l’algorithme entraîne également une modification du comportement de l’utilisateur. En fait, cela ne signifie pas que c’est impossible, mais que c’est difficile, expliquent les chercheurs. Cela nécessite un système d’évaluation de l’efficacité de l’algorithme et beaucoup de tests A/B pour comparer les effets des évolutions du calcul. Enfin, estiment-ils, il faut regarder les effets à long terme, car les changements dans le calcul prennent du temps à se diffuser et impliquent en retour des réactions des utilisateurs à ces changements, qui s’adaptent et réagissent aux transformations.

Dans un autre article, ils reviennent sur la difficulté à caractériser l’effet bulle de filtre des médias sociaux, notamment du fait de conceptions élastiques du phénomène. S’il y a bien des boucles de rétroaction, leur ampleur est très discutée et dépend beaucoup du contexte. Ils en appellent là encore à des mesures plus précises des phénomènes. Certes, ce que l’on fait sur les réseaux sociaux influe sur ce qui est montré, mais il est plus difficile de démontrer que ce qui est montré affecte ce que l’on pense. Il est probable que les effets médiatiques des recommandations soient faibles pour la plupart des gens et la plupart du temps, mais beaucoup plus importants pour quelques individus ou sous-groupes relativement à certaines questions ou enjeux. De plus, il est probable que changer nos façons de penser ne résulte pas d’une exposition ponctuelle, mais d’une exposition à des récits et des thèmes récurrents, cumulatifs et à long terme. Enfin, si les gens ont tendance à s’intéresser davantage à l’information si elle est cohérente avec leur pensée existante, il reste à savoir si ce que l’on pense affecte ce à quoi l’on s’engage. Mais cela est plus difficile à mesurer car cela suppose de savoir ce que les gens pensent et pas seulement constater leurs comportements en ligne. En général, les études montrent plutôt que l’exposition sélective a peu d’effets. Il est probable cependant que là encore, l’exposition sélective soit faible en moyenne, mais plus forte pour certains sous-groupes de personnes en fonction des contextes, des types d’informations.

Bref, là encore, les effets des réseaux sociaux sont difficiles à percer.

Pour comprendre les effets de l’amplification algorithmique, peut-être faut-il aller plus avant dans la compréhension que nous avons des évolutions de celle-ci, afin de mieux saisir ce que nous voulons vraiment savoir. C’est ce que nous tenterons de faire dans la suite de cet article…

Ouvrir le code des algorithmes ? — oui, mais… (2/2)

22 mai 2023 à 05:42

Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse  des enjeux qui en découlent.


Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ?

par Hubert GUILLAUD

Que voulons-nous vraiment savoir en enquêtant sur l’amplification algorithmique ? C’est justement l’enjeu du projet de recherche qu’Arvind Narayan mène au Knight Institute de l’université Columbia où il a ouvert un blog dédié et qui vient d’accueillir une grande conférence sur le sujet. Parler d’amplification permet de s’intéresser à toute la gamme des réponses qu’apportent les plateformes, allant de l’amélioration de la portée des discours à leur suppression, tout en se défiant d’une réduction binaire à la seule modération automatisée, entre ce qui doit être supprimé et ce qui ne doit pas l’être. Or, les phénomènes d’amplification ne sont pas sans effets de bord, qui vont bien au-delà de la seule désinformation, à l’image des effets très concrets qu’ont les influenceurs sur le commerce ou le tourisme. Le gros problème, pourtant, reste de pouvoir les étudier sans toujours y avoir accès.

Outre des analyses sur TikTok et les IA génératives, le blog recèle quelques trésors, notamment une monumentale synthèse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (l’article est également très riche en liens et références, la synthèse que j’en propose y recourra assez peu).

Narayan rappelle que les plateformes disposent de très nombreux algorithmes entremêlés, mais ceux qui l’intéressent particulièrement sont les algorithmes de recommandation, ceux qui génèrent les flux, les contenus qui nous sont mis à disposition. Alors que les algorithmes de recherche sont limités par le terme recherché, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrôle bien plus grand sur ce qu’elles recommandent à un utilisateur.

La souscription, le réseau et l’algorithme

Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le réseau et l’algorithme. Dans le modèle par abonnement, le message atteint les personnes qui se sont abonnées à l’auteur du message. Dans le modèle de réseau, il se propage en cascade à travers le réseau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé.

À l’origine, les réseaux sociaux comme Facebook ou Twitter ne fonctionnaient qu’à l’abonnement : vous ne voyiez que les contenus des personnes auxquelles vous étiez abonnés et vous ne pouviez pas republier les messages des autres ! Dans le modèle de réseau, un utilisateur voit non seulement les messages créés par les personnes auxquelles il s’est abonné, mais aussi les messages que ces utilisateurs choisissent d’amplifier, ce qui crée la possibilité de cascades d’informations et de contenus “viraux”, comme c’était le cas de Twitter jusqu’en 2016, moment où le réseau introduisit le classement algorithmique. Dans le modèle algorithmique, la souscription est bien souvent minorée, le réseau amplifié mais surtout, le flux dépend principalement de ce que l’algorithme estime être le plus susceptible d’intéresser l’utilisateur. C’est ce que Cory Doctorow désigne comme « l’emmerdification  » de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnés comme des suggestions et non comme des commandes.

Le passage aux recommandations algorithmiques a toujours généré des contestations, notamment parce que, si dans les modèles d’abonnement et de réseau, les créateurs peuvent se concentrer sur la construction de leur réseau, dans le « modèle algorithmique, cela ne sert à rien, car le nombre d’abonnés n’a rien à voir avec la performance des messages  » (mais comme nous sommes dans des mélanges entre les trois modèles, le nombre d’abonnés a encore un peu voire beaucoup d’influence dans l’amplification). Dans le modèle algorithmique, l’audience de chaque message est optimisée de manière indépendante en fonction du sujet, de la « qualité » du message et d’un certain nombre de paramètres pris en compte par le modèle.

Amplification et viralité

La question de l’amplification interroge la question de la viralité, c’est-à-dire le fait qu’un contenu soit amplifié par une cascade de reprises, et non pas seulement diffusé d’un émetteur à son public. Le problème de la viralité est que sa portée reste imprévisible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des créateurs, la majorité de l’engagement provient d’une petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidéos les plus vues d’un compte obtiennent plus de 70 % des vues. Plus le rôle de l’algorithme dans la propagation du contenu est important, par opposition aux abonnements ou au réseau, plus cette inégalité semble importante.

Parce qu’il est particulièrement repérable dans la masse des contenus, le contenu viral se prête assez bien à la rétropropagation, c’est-à-dire à son déclassement ou à sa suppression. Le problème justement, c’est qu’il y a plein de manières de restreindre le contenu. Facebook classe les posts rétrogradés plus bas dans le fil d’actualité qu’ils ne le seraient s’ils ne l’avaient pas été, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. À son tour, l’effet de la rétrogradation sur la portée peut être imprévisible, non linéaire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rétrogradation est parfaitement opaque, notamment parce qu’une faible portée n’est pas automatiquement suspecte, étant donné qu’il existe une grande variation dans la portée naturelle du contenu.

Amplification et prédiction de l’engagement

Les plateformes ont plusieurs objectifs de haut niveau : améliorer leurs revenus publicitaires bien sûr et satisfaire suffisamment les utilisateurs pour qu’ils reviennent… Mais ces objectifs n’aident pas vraiment à décider ce qu’il faut donner à un utilisateur spécifique à un moment précis ni à mesurer comment ces décisions impactent à long terme la plateforme. D’où le fait que les plateformes observent l’engagement, c’est-à-dire les actions instantanées des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilité que l’utilisateur s’y intéresse. « D’une certaine manière, l’engagement est une approximation des objectifs de haut niveau. Un utilisateur qui s’engage est plus susceptible de revenir et de générer des revenus publicitaires pour la plateforme.  »
Si l’engagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intègrent bien d’autres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives », c’est-à-dire une moyenne pondérée des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durée de visionnage que l’algorithme prédit. TikTok utilise les interactions sociales et valorise les vidéos qui ont été regardées jusqu’au bout, comme un signal fort et qui explique certainement le caractère addictif de l’application et le fait que les vidéos courtes (qui ont donc tendance à obtenir un score élevé) continuent de dominer la plateforme.

En plus de ces logiques de base, il existe bien d’autres logiques secondaires, comme par exemple, pour que l’expérience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitées, sélectionnées plus que classées, selon divers critères plus que selon des critères uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires à ceux qu’on a apprécié, TikTok se distingue à nouveau par l’importance qu’il accorde à l’exploration de nouveaux contenus… c’est d’ailleurs la tactique suivie désormais par Instagram de Meta via les Reels, boostés sur le modèle de TikTok, qui ont le même effet que sur TikTok, à savoir une augmentation du temps passé sur l’application)… 

« Bien qu’il existe de nombreuses différences dans les détails, les similitudes entre les algorithmes de recommandation des différentes plateformes l’emportent sur leurs différences », estime Narayan. Les différences sont surtout spécifiques, comme Youtube qui optimise selon la durée de visionnage, ou Spotify qui s’appuie davantage sur l’analyse de contenu que sur le comportement. Pour Narayan, ces différences montrent qu’il n’y a pas de risque concurrentiel à l’ouverture des algorithmes des plateformes, car leurs adaptations sont toujours très spécifiques. Ce qui varie, c’est la façon dont les plateformes ajustent l’engagement.

Comment apprécier la similarité ?

Mais la grande question à laquelle tous tentent de répondre est la même : « Comment les utilisateurs similaires à cet utilisateur ont-ils réagi aux messages similaires à ce message ?  »

Si cette approche est populaire dans les traitements, c’est parce qu’elle s’est avérée efficace dans la pratique. Elle repose sur un double calcul de similarité. D’abord, celle entre utilisateurs. La similarité entre utilisateurs dépend du réseau (les gens que l’on suit ou ceux qu’on commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires s’ils se sont engagés dans un ensemble de messages similaires  ») et les données démographiques (du type âge, sexe, langue, géographie… qui sont en grande partie déduits des comportements).

Ensuite, il y a un calcul sur la similarité des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes d’extraction des caractéristiques (comme la langue) intégrant des évaluations normatives, comme la caractérisation de discours haineux. L’autre signal de similarité des messages tient, là encore, au comportement : « deux messages sont similaires si un ensemble similaire d’utilisateurs s’est engagé avec eux ». Le plus important à retenir, insiste Narayan, c’est que « l’enregistrement comportemental est le carburant du moteur de recommandation  ». La grande difficulté, dans ces appréciations algorithmiques, consiste à faire que le calcul reste traitable, face à des volumes d’enregistrements d’informations colossaux.

Une histoire des évolutions des algorithmes de recommandation

« La première génération d’algorithmes de recommandation à grande échelle, comme ceux d’Amazon et de Netflix au début des années 2000, utilisait une technique simple appelée filtrage collaboratif : les clients qui ont acheté ceci ont également acheté cela ». Le principe était de recommander des articles consultés ou achetés d’une manière rudimentaire, mais qui s’est révélé puissant dans le domaine du commerce électronique. En 2006, Netflix a organisé un concours en partageant les évaluations qu’il disposait sur les films pour améliorer son système de recommandation. Ce concours a donné naissance à la « factorisation matricielle », une forme de deuxième génération d’algorithmes de recommandation, c’est-à-dire capables d’identifier des combinaisons d’attributs et de préférences croisées. Le système n’étiquette pas les films avec des termes interprétables facilement (comme “drôle” ou “thriller” ou “informatif”…), mais avec un vaste ensemble d’étiquettes (de micro-genres obscurs comme « documentaires émouvants qui combattent le système ») qu’il associe aux préférences des utilisateurs. Le problème, c’est que cette factorisation matricielle n’est pas très lisible pour l’utilisateur et se voir dire qu’on va aimer tel film sans savoir pourquoi n’est pas très satisfaisant. Enfin, ce qui marche pour un catalogue de film limité n’est pas adapté aux médias sociaux où les messages sont infinis. La prédominance de la factorisation matricielle explique pourquoi les réseaux sociaux ont tardé à se lancer dans la recommandation, qui est longtemps restée inadaptée à leurs besoins.

Pourtant, les réseaux sociaux se sont tous convertis à l’optimisation basée sur l’apprentissage automatique. En 2010, Facebook utilisait un algorithme appelé EdgeRank pour construire le fil d’actualité des utilisateurs qui consistait à afficher les éléments par ordre de priorité décroissant selon un score d’affinité qui représente la prédiction de Facebook quant au degré d’intérêt de l’utilisateur pour les contenus affichés, valorisant les photos plus que le texte par exemple. À l’époque, ces pondérations étaient définies manuellement plutôt qu’apprises. En 2018, Facebook est passé à l’apprentissage automatique. La firme a introduit une métrique appelée « interactions sociales significatives  » (MSI pour meaningful social interactions) dans le système d’apprentissage automatique. L’objectif affiché était de diminuer la présence des médias et des contenus de marque au profit des contenus d’amis et de famille. « La formule calcule un score d’interaction sociale pour chaque élément susceptible d’être montré à un utilisateur donné  ». Le flux est généré en classant les messages disponibles selon leur score MSI décroissant, avec quelques ajustements, comme d’introduire de la diversité (avec peu d’indications sur la façon dont est calculée et ajoutée cette diversité). Le score MSI prédit la probabilité que l’utilisateur ait un type d’interaction spécifique (comme liker ou commenter) avec le contenu et affine le résultat en fonction de l’affinité de l’utilisateur avec ce qui lui est proposé. Il n’y a plus de pondération dédiée pour certains types de contenus, comme les photos ou les vidéos. Si elles subsistent, c’est uniquement parce que le système l’aura appris à partir des données de chaque utilisateur, et continuera à vous proposer des photos si vous les appréciez.

« Si l’on pousse cette logique jusqu’à sa conclusion naturelle, il ne devrait pas être nécessaire d’ajuster manuellement la formule en fonction des affinités. Si les utilisateurs préfèrent voir le contenu de leurs amis plutôt que celui des marques, l’algorithme devrait être en mesure de l’apprendre ». Ce n’est pourtant pas ce qu’il se passe. Certainement pour lutter contre la logique de l’optimisation de l’engagement, estime Narayan, dans le but d’augmenter la satisfaction à long terme, que l’algorithme ne peut pas mesurer, mais là encore sans que les modalités de ces ajustements ne soient clairement documentés.

Est-ce que tout cela est efficace ?

Reste à savoir si ces algorithmes sont efficaces ! « Il peut sembler évident qu’ils doivent bien fonctionner, étant donné qu’ils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux d’engagement est une façon de quantifier le problème : il s’agit de la probabilité qu’un utilisateur s’intéresse à un message qui lui a été recommandé. Sur la plupart des plateformes, ce taux est inférieur à 1 %. TikTok est une exception, mais même là, ce taux dépasse à peine les 5 %. »

Le problème n’est pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prévisibles. Et qu’au final, les utilisateurs ne se soucient pas tant du manque de précision de la recommandation. « Même s’ils sont imprécis au niveau individuel, ils sont précis dans l’ensemble. Par rapport aux plateformes basées sur les réseaux, les plateformes algorithmiques semblent être plus efficaces pour identifier les contenus viraux (qui trouveront un écho auprès d’un grand nombre de personnes). Elles sont également capables d’identifier des contenus de niche et de les faire correspondre au sous-ensemble d’utilisateurs susceptibles d’y être réceptifs. » Si les algorithmes sont largement limités à la recherche de modèles dans les données comportementales, ils n’ont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitésimal – même s’il est toujours considéré comme un succès !

Les ingénieurs contrôlent-ils encore les algorithmes ?

Les ingénieurs ont très peu d’espace pour contrôler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook s’est rendu compte que les publications virales étaient beaucoup plus susceptibles de contenir des informations erronées ou d’autres types de contenus préjudiciables. En d’autres termes, ils se sont rendu compte que le passage à des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient l’indignation et alimentaient les divisions gagnaient en portée, comme l’a expliqué l’ingénieure et lanceuse d’alerte Frances Haugen à l’origine des Facebook Files, dans ses témoignages. C’est ce que synthétise le tableau de pondération de la formule MSI publié par le Wall Street Journal, qui montrent que certains éléments ont des poids plus forts que d’autres : un commentaire vaut 15 fois plus qu’un like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondération aussi élevée permet d’identifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramené la pondération des partages à 1,5, mais la pondération des commentaires est restée très élevée (15 à 20 fois plus qu’un like). Alors que les partages et les commentaires étaient regroupés dans une seule catégorie de pondération en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polémiques. Reste, on le comprend, que le jeu qui reste aux ingénieurs de Facebook consiste à ajuster le poids des paramètres. Pour Narayan : piloter un système d’une telle complexité en utilisant si peu de boutons ne peut qu’être difficile.

Le chercheur rappelle que le système est censé être neutre à l’égard de tous les contenus, à l’exception de certains qui enfreignent les règles de la plateforme. Utilisateurs et messages sont alors rétrogradés de manière algorithmique suite à signalement automatique ou non. Mais cette neutralité est en fait très difficile à atteindre. Les réseaux sociaux favorisent ceux qui ont déjà une grande portée, qu’elle soit méritée ou non, et sont récompensés par une plus grande portée encore. Par exemple, les 1 % d’auteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralité finit par récompenser ceux qui sont capables de pirater l’engagement ou de tirer profit des biais sociaux.

Outre cette neutralité, un deuxième grand principe directeur est que « l’algorithme sait mieux que quiconque ». « Ce principe et celui de la neutralité se renforcent mutuellement. Le fait de confier la politique (concernant le contenu à amplifier) aux données signifie que les ingénieurs n’ont pas besoin d’avoir un point de vue à ce sujet. Et cette neutralité fournit à l’algorithme des données plus propres à partir desquelles il peut apprendre. »
Le principe de l’algorithme qui sait le mieux signifie que la même optimisation est appliquée à tous les types de discours : divertissement, informations éducatives, informations sur la santé, actualités, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rétrograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources d’information de haute qualité que de faible qualité, augmentant la désinformation. Cette neutralité affichée permet également une forme de désengagement des ingénieurs.

En 2021, encore, FB a entraîné des modèles d’apprentissage automatique pour classer les messages en deux catégories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour qu’ils apprécient des contenus qui leurs étaient proposés pour former les données. FB a constaté que les messages ayant une plus grande portée étaient considérés comme étant mauvais pour le monde. FB a donc rétrogradé ces contenus… mais en trouvant moins de contenus polémique, cette modification a entraîné une diminution de l’ouverture de l’application par les utilisateurs. L’entreprise a donc redéployé ce modèle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modèle d’affaires.

Illustration par Jason Alderman « Those Algorithms That Govern Our Lives – Kevin Slavin« . (CC BY 2.0)

Pourquoi l’optimisation de l’engagement nous nuit-elle ?

« Un grand nombre des pathologies familières des médias sociaux sont, à mon avis, des conséquences relativement directes de l’optimisation de l’engagement », suggère encore le chercheur. Cela explique pourquoi les réformes sont difficiles et pourquoi l’amélioration de la transparence des algorithmes, de la modération, voire un meilleur contrôle par l’utilisateur de ce qu’il voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (même si elles sont nécessaires).

Les données comportementales, celles relatives à l’engagement passé, sont la matière première essentielle des moteurs de recommandations. Les systèmes privilégient la rétroaction implicite sur l’explicite, à la manière de YouTube qui a privilégié le temps passé sur les rétroactions explicites (les likes). Sur TikTok, il n’y a même plus de sélection, il suffit de swipper.

Le problème du feedback implicite est qu’il repose sur nos réactions inconscientes, automatiques et émotionnelles, sur nos pulsions, qui vont avoir tendance à privilégier une vidéo débile sur un contenu expert.

Pour les créateurs de contenu, cette optimisation par l’engagement favorise la variance et l’imprévisibilité, ce qui a pour conséquence d’alimenter une surproduction pour compenser cette variabilité. La production d’un grand volume de contenu, même s’il est de moindre qualité, peut augmenter les chances qu’au moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de récompenser les contenus viraux se fait au détriment de tous les autres types de contenus (d’où certainement le regain d’attraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).

Au niveau de la société, toutes les institutions sont impactées par les plateformes algorithmiques, du tourisme à la science, du journalisme à la santé publique. Or, chaque institution à des valeurs, comme l’équité dans le journalisme, la précision en science, la qualité dans nombre de domaines. Les algorithmes des médias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualité. « Ils récompensent des facteurs sans rapport, sur la base d’une logique qui a du sens pour le divertissement, mais pas pour d’autres domaines ». Pour Narayan, les plateformes de médias sociaux « affaiblissent les institutions en sapant leurs normes de qualité et en les rendant moins dignes de confiance ». C’est particulièrement actif dans le domaine de l’information, mais cela va bien au-delà, même si ce n’est pas au même degré. TikTok peut sembler ne pas représenter une menace pour la science, mais nous savons que les plateformes commencent par être un divertissement avant de s’étendre à d’autres sphères du discours, à l’image d’Instagram devenant un outil de communication politique ou de Twitter, où un tiers des tweets sont politiques.

La science des données en ses limites

Les plateformes sont bien conscientes de leurs limites, pourtant, elles n’ont pas fait beaucoup d’efforts pour résoudre les problèmes. Ces efforts restent occasionnels et rudimentaires, à l’image de la tentative de Facebook de comprendre la valeur des messages diffusés. La raison est bien sûr que ces aménagements nuisent aux résultats financiers de l’entreprise. « Le recours à la prise de décision subconsciente et automatique est tout à fait intentionnelle ; c’est ce qu’on appelle la « conception sans friction ». Le fait que les utilisateurs puissent parfois faire preuve de discernement et résister à leurs impulsions est vu comme un problème à résoudre. »

Pourtant, ces dernières années, la réputation des plateformes n’est plus au beau fixe. Narayan estime qu’il y a une autre limite. « La plupart des inconvénients de l’optimisation de l’engagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considérable à la recherche d’une relation quantitative et causale entre les changements apportés à l’algorithme et leurs effets. »
Si on observe les raisons qui poussent l’utilisateur à quitter une plateforme, la principale est qu’il ne parvient pas à obtenir des recommandations suffisamment intéressantes. Or, c’est exactement ce que l’optimisation par l’engagement est censée éviter. Les entreprises parviennent très bien à optimiser des recommandations qui plaisent à l’utilisateur sur l’instant, mais pas celles qui lui font dire, une fois qu’il a fermé l’application, que ce qu’il y a trouvé l’a enrichi. Elles n’arrivent pas à calculer et à intégrer le bénéfice à long terme, même si elles restent très attentives aux taux de rétention ou aux taux de désabonnement. Pour y parvenir, il faudrait faire de l’A/B testing au long cours. Les plateformes savent le faire. Facebook a constaté que le fait d’afficher plus de notifications augmentait l’engagement à court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets à longs termes ne semble pas être une priorité par rapport à leurs effets de plus courts termes.

Une autre limite repose sur l’individualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes n’intériorisent leurs préjudices collectifs. Ces systèmes reposent sur l’hypothèse que le comportement de chaque utilisateur est indépendant et que l’effet sur la société (l’atteinte à la démocratie par exemple…) est très difficile à évaluer. Narayan le résume dans un tableau parlant, où la valeur sur la société n’a pas de métrique associée.

Graphique montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d'engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Tableau montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d’engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Les algorithmes ne sont pas l’ennemi (enfin si, quand même un peu)

Pour répondre à ces problèmes, beaucoup suggèrent de revenir à des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnés. Pas sûr que cela soit une solution très efficace pour gérer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont été la réponse à la surcharge d’information, rappelle-t-il : « Il y a beaucoup plus d’informations en ligne en rapport avec les intérêts d’une personne qu’elle n’en a de temps disponible. » Les algorithmes de classement sont devenus une nécessité pratique. Même dans le cas d’un réseau longtemps basé sur l’abonnement, comme Instagram : en 2016, la société indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils étaient abonnés. Aujourd’hui, Instagram compte 5 fois plus d’utilisateurs. En fait, les plateformes subissent d’énormes pressions pour que les algorithmes soient encore plus au cœur de leur fonctionnement que le contraire. Et les systèmes de recommandation font leur entrée dans d’autres domaines, comme l’éducation (avec Coursera) ou la finance (avec Robinhood).

Pour Narayan, l’enjeu reste de mieux comprendre ce qu’ils font. Pour cela, nous devons continuer d’exiger d’eux bien plus de transparence qu’ils n’en livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts à faire pour contrecarrer activement les modèles les plus nuisibles des recommandations. L’enjeu, conclut-il, est peut-être d’esquisser plus d’alternatives que nous n’en disposons, comme par exemple, d’imaginer des algorithmes de recommandations qui n’optimisent pas l’engagement, ou pas seulement. Cela nécessite certainement aussi d’imaginer des réseaux sociaux avec des modèles économiques différents. Un autre internet. Les algorithmes ne sont peut-être pas l’ennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considération, ne sont pas nos amis non plus !

Un kit pédagogique proposé par Exodus Privacy

Par : Framasoft
8 juin 2023 à 01:42

À l’heure où dans une dérive policière inquiétante on criminalise les personnes qui veulent protéger leur vie privée, il est plus que jamais important que soient diffusées à une large échelle les connaissances et les pratiques qui permettent de prendre conscience des enjeux et de préserver la confidentialité. Dans cette démarche, l’association Exodus Privacy joue un rôle important en rendant accessible l’analyse des trop nombreux pisteurs qui parasitent nos ordiphones. Cette même association propose aujourd’hui un nouvel outil ou plutôt une boîte à outils tout aussi intéressante…

Bonjour, Exodus Privacy. Chez Framasoft, on vous connaît bien et on vous soutient mais pouvez-vous rappeler à nos lecteurs et lectrices en quoi consiste l’activité de votre association ?

Oui, avec plaisir ! L’association Exodus Privacy a pour but de permettre au plus grand nombre de personnes de mieux protéger sa vie privée sur son smartphone. Pour cela, on propose des outils d’analyse des applications issues du Google Play store ou de F-droid qui permettent de savoir notamment si des pisteurs s’y cachent. On propose donc une application qui permet d’analyser les différentes applications présentes sur son smartphone et une plateforme d’analyse en ligne.

Logo d'exodus privacy, c'est un E

Logo d’Exodus Privacy

Alors ça ne suffisait pas de fournir des outils pour ausculter les applications et d’y détecter les petits et gros espions ? Vous proposez maintenant un outil pédagogique ? Expliquez-nous ça…
Depuis le début de l’association, on anime des ateliers et des conférences et on est régulièrement sollicité·es pour intervenir. Comme on est une petite association de bénévoles, on ne peut être présent·es partout et on s’est dit qu’on allait proposer un kit pour permettre aux personnes intéressées d’animer un atelier « smartphones et vie privée » sans avoir besoin de nous !

Selon vous, dans quels contextes le kit peut-il être utilisé ? Vous vous adressez plutôt aux formatrices ou médiateurs de profession, aux bénévoles d’une asso qui veulent proposer un atelier ou bien directement aux membres de la famille Dupuis-Morizeau ?
Clairement, on s’adresse à deux types de publics : les médiateur·ices numériques professionnel·les qui proposent des ateliers pour leurs publics, qu’ils et elles soient en bibliothèque, en centre social ou en maison de quartier, mais aussi les bénévoles d’associations qui proposent des actions autour de la protection de l’intimité numérique.

Bon en fait qu’est-ce qu’il y a dans ce kit, et comment on peut s’en servir ?
Dans ce kit, il y a tout pour animer un atelier d’1h30 destiné à un public débutant ou peu à l’aise avec le smartphone : un déroulé détaillé pour la personne qui anime, un diaporama, une vidéo pédagogique pour expliquer les pisteurs et une fiche qui permet aux participant·es de repartir avec un récapitulatif de ce qui a été abordé pendant l’atelier.

Par exemple, on propose, à partir d’un faux téléphone, dont on ne connaît que les logos des applications, de deviner des éléments sur la vie de la personne qui possède ce téléphone. On a imaginé des méthodes d’animation ludiques et participatives, mais chacun·e peut adapter en fonction de ses envies et de son aisance !

un faux téléphone pour acquérir de vraies compétences en matière de vie privée

un faux téléphone pour acquérir de vraies compétences en matière de vie privée

Comment l’avez-vous conçu ? Travail d’une grosse équipe ou d’un petit noyau d’acharnés ?
Nous avons été au total 2-3 bénévoles dans l’association à créer les contenus, dont MeTaL_PoU qui a suivi/piloté le projet, Héloïse de NetFreaks qui s’est occupée du motion-design de la vidéo et _Lila* de la création graphique et de la mise en page. Tout s’est fait à distance ! À chaque réunion mensuelle de l’association, on faisait un point sur l’avancée du projet, qui a mis plus longtemps que prévu à se terminer, sûrement parce qu’on n’avait pas totalement bien évalué le temps nécessaire et qu’une partie du projet reposait sur du bénévolat. Mais on est fier·es de le publier maintenant !

Vous l’avez déjà bêta-testé ? Premières réactions après tests ?
On a fait tester un premier prototype à des médiateur·ices numériques. Les retours ont confirmé que l’atelier fonctionne bien, mais qu’il y avait quelques détails à modifier, notamment des éléments qui manquaient de clarté. C’est l’intérêt des regards extérieurs : au sein d’Exodus Privacy, des choses peuvent nous paraître évidentes alors qu’elles ne le sont pas du tout !

aspi espion qui aspire les données avec l'œil de la surveillance

Aspi espion qui aspire vos données privées en vous surveillant du coin de l’œil

 

Votre kit est disponible pour tout le monde ? Sous quelle licence ? C’est du libre ?
Il est disponible en CC-BY-SA, et c’est du libre, comme tout ce qu’on fait ! Il n’existe pour le moment qu’en français, mais rien n’empêche de contribuer pour l’améliorer !

Tout ça représente un coût, ça justifie un appel aux dons ?
Nous avons eu de la chance : ce projet a été financé en intégralité par la Fondation AFNIC pour un numérique inclusif et on les remercie grandement pour ça ! Le coût de ce kit est quasi-exclusivement lié à la rémunération des professionnel·les ayant travaillé sur le motion design, la mise en page et la création graphique.

Est-ce que vous pensez faire un peu de communication à destination des publics visés, par exemple les médiateur-ices numériques de l’Éducation Nationale, des structures d’éducation populaire comme le CEMEA  etc. ?

Mais oui, c’est prévu : on est déjà en contact avec le CEMEA et l’April notamment. Il y a également une communication prévue au sein des ProfDoc. et ce sera diffusé au sein des réseaux de MedNum.

Le travail d’Exodus Privacy va au delà de ce kit et il est important de le soutenir ! Pour découvrir les actions de cette formidable association et y contribuer, c’est sur leur site web : https://exodus-privacy.eu.org/fr/page/contribute On souhaite un franc succès et une large diffusion à ce nouvel outil. Merci pour ça et pour toutes leurs initiatives !

un personnage vêtu de gris assis sur un banc est presque entièrement abrité derrière un parapluie gris. le banc est sur l'herbe, au bord d'un trottoir pavé

« Privacy » par doegox, licence CC BY-SA 2.0.

Comment dégafamiser une MJC – un témoignage

Par : Framasoft
12 juin 2023 à 05:42

Nous ouvrons volontiers nos colonnes aux témoignages de dégooglisation, en particulier quand il s’agit de structures locales tournées vers le public. C’est le cas pour l’interview que nous a donnée Fabrice, qui a entrepris de « dégafamiser » au sein de son association. Il évoque ici le cheminement suivi, depuis les constats jusqu’à l’adoption progressive d’outils libres et éthiques, avec les résistances et les passages délicats à négocier, ainsi que les alternatives qui se sont progressivement imposées. Nous souhaitons que l’exemple de son action puisse donner envie et courage (il en faut, certes) à d’autres de mener à leur tour cette « migration » émancipatrice.

Bonjour, peux-tu te présenter brièvement pour le Framablog ?
Je m’appelle Fabrice, j’ai 60 ans et après avoir passé près de 30 années sur Paris en tant que DSI, je suis venu me reposer au vert, à la grande campagne… Framasoft ? Je connais depuis très longtemps… Linux ? Aussi puisque je l’ai intégré dans une grande entreprise française, y compris sur des postes de travail, il y a fort longtemps…

Ce n’est que plus tard que j’ai pris réellement conscience du pouvoir néfaste des GAFAM et que je défends désormais un numérique Libre, simple, accessible à toutes et à tous et respectueux de nos libertés individuelles. Ayant du temps désormais à accorder aux autres, j’ai intégré une association en tant que bénévole, une asso qui compte un peu moins de 10 salariés et un budget annuel avoisinant les 400 K€.

Quel a été le déclencheur de  l’opération de dégafamisation ?

En fait, quand je suis arrivé au sein de l’association le constat était un peu triste :

  • des postes de travail (PC sous Windows 7, 8, 10) poussifs, voire inutilisables, avec 2 ou 3 antivirus qui se marchaient dessus, sans compter les utilitaires en tout genre (Ccleaner, TurboMem, etc.)
  • une multitude de comptes Gmail à gérer (plus que le nb d’utilisateurs réels dans l’asso.)
  • des partages de Drive incontrôlables
  • des disques durs portables et autres clés USB qui faisaient office aussi de « solutions de partage »
  • un niveau assez faible de compréhension de toutes ces « technologies »

Il devenait donc urgent de « réparer » et j’ai proposé à l’équipe de remettre tout cela en ordre mais en utilisant des outils libres à chaque fois que cela était possible. À ce stade-là, je pense que mes interlocuteurs ne comprenaient pas exactement de quoi je parlais, ils n’étaient pas très sensibles à la cause du Libre et surtout, ils ne voyaient pas clairement en quoi les GAFAM posaient un problème…

deux mains noires tiennent une bombe de peinture verte, un index appuie sur le haut de l'objet. Plusieurs doigts ont des traces de peinture. Dans l'angle inférieur droit le logo : MJC L'aigle en blanc

Quand on lance une dégafamisation, ce n’est pas simplement pour changer la couche de peinture…

 

En amont de votre « dégafamisation », avez-vous organisé en interne des moments pour créer du consensus sur le sujet et passer collectivement à l’action (lever aussi les éventuelles résistances au changement) ? Réunions pour présenter le projet, ateliers de réflexion, autres ?

Le responsable de la structure avait compris qu’il allait y avoir du mieux – personne ne s’occupait du numérique dans l’asso auparavant – et il a dit tout simplement « banco » à la suite de quelques démos que j’ai pu faire avec l’équipe :

  • démo d’un poste de travail sous Linux (ici c’est Mint)
  • démo de LibreOffice…

Pour être très franc, je ne pense pas que ces démos aient emballé qui que ce soit…

Franchement, il était difficile d’expliquer les mises à jour de Linux Mint à un utilisateur de Windows qui ne les faisait de toutes façons jamais, d’expliquer LibreOffice Writer à une personne qui utilise MS Word comme un bloc-notes et qui met des espaces pour centrer le titre de son document…
Néanmoins, après avoir dressé le portrait peu glorieux des GAFAM, j’ai tout de même réussi à faire passer un message : les valeurs de l’association (ici une MJC) sont à l’opposé des valeurs des GAFAM ! Sous-entendu, moins on se servira des GAFAM et plus on sera en adéquation avec nos valeurs !

Comment avez-vous organisé votre dégafamisation ? Plan stratégique machiavélique puis passage à l’opérationnel ? Ou par itérations et petit à petit, au fil de l’eau ?

Pour montrer que j’avais envie de bien faire et que mon bénévolat s’installerait dans la durée, j’ai candidaté pour participer au Conseil d’Administration et j’ai été élu. J’ai présenté le projet aux membres du C.A sans véritable plan, si ce n’est de remettre tout d’équerre avec du logiciel Libre ! Là encore, les membres du C.A n’avaient pas forcément une exacte appréhension le projet mais à partir du moment où je leur proposais mieux, ils étaient partants !

Le plan (étalé sur 12 mois) :

Priorité no1 : remettre en route les postes de travail (PC portables) afin qu’ils soient utilisables dans de bonnes conditions. Certains postes de moins de 5 ans avaient été mis au rebut car ils « ramaient »…

  • choix de la distribution : Linux Mint Cinnamon ou Linux Mint XFCE pour les machines les moins puissantes
  • choix du socle logiciel : sélection des logiciels nécessaires après analyse des besoins / observations

Priorité no 2 : stopper l’utilisation de Gmail pour la messagerie et mettre en place des boites mail (avec le nom de domaine de l’asso), boites qui avaient été achetées mais jamais utilisées…

Priorité no 3 : augmenter le niveau des compétences de base sur les outils numériques

Prorité no 4 : mettre en place un cloud privé afin de stocker, partager, gérer toutes les données de l’asso (350Go) et cesser d’utiliser les clouds des GAFAM…

Est-ce que vous avez rencontré des résistances que vous n’aviez pas anticipées, qui vous ont pris par surprise ?

Bizarrement, les plus réticents à un poste de travail Libre étaient ceux qui maîtrisaient le moins l’utilisation d’un PC…
« Nan mais tu comprends, Windows c’est quand même vachement mieux… Ah bon, pourquoi ? Ben j’sais pô…c’est mieux quoi… »

* Quand on représente la plus grosse association de sa ville, il y a de nombreux échanges avec les collectivités territoriales et, on s’arrache les cheveux à la réception des docx ou pptx tout pourris… Il en est de même avec les services de l’État et l’utilisation de certains formulaires PDF qui ont un comportement étrange…
* Quand un utilisateur resté sous Windows utilise encore des solutions Google alors que nous avons désormais tout en interne pour remplacer les services Google, je ne me bats pas…
* Quand certains matériels (un Studio de podcast par exemple) requièrent l’utilisation de Windows et ne peuvent pas fonctionner sous Linux, c’est désormais à prendre en compte dans nos achats…
* Quand Il faut aussi composer avec les services civiques et autres stagiaires qui débarquent, ne jurent que par les outils d’Adobe et expliquent au directeur que sans ces outils, leur création est diminuée…

* Quand le directeur commence à douter sur le choix des logiciels libres, je lui rappelle gentiment que le véhicule de l’asso est une Dacia et non une Tesla…
* Quand on se rend compte qu’un mail provenant des serveurs Gmail est rarement considéré comme SPAM par les autres alors que nos premiers mails avec OVH et avec notre nom de domaine ont eu du mal à « passer » les premières semaines…et de temps en temps encore maintenant…

 

dessin probablement mural illustrant les activités de la MJC avec un dessin symbolique : une main noire et une blanche s'associant par le petit doigt sur fond bleu. des coulures de couleurs tombent des doigts.

 

Est-ce qu’au contraire, il y a eu des changements que vous redoutiez et qui se sont passés comme sur des roulettes ?

Rassembler toutes les données de l’asso. et de ses utilisateurs au sein de notre cloud privé (Nextcloud) était vraiment la chose qui me faisait le plus peur et qui est « passée crème » ! Peut-être tout simplement parce que certaines personnes avaient un peu « oublié » où étaient rangées leurs affaires auparavant…

… et finalement quels outils ou services avez-vous remplacés par lesquels ?

  • Messagerie Google –> Messagerie OVH + Client Thunderbird ou Client mail de Nextcloud (pour les petits utilisateurs)
  • Gestion des Contacts Google –> Nextcloud Contacts
  • Calendrier Google –> Nextcloud Calendrier
  • MS Office –> LibreOffice
  • Drive Google, Microsoft, Apple –> Nextcloud pour les fichiers personnels et tous ceux à partager en interne comme en externe
  • Doodle –> Nextcloud Poll
  • Google Forms –> Nextcloud Forms

NB : Concernant les besoins en création graphique ou vidéo on utilise plusieurs solutions libres selon les besoins (Gimp, Krita, Inkscape, OpenShotVideo,…) et toutes les autres solutions qui étaient utilisées de manière « frauduleuse » ont été mises à la poubelle ! Nous avons néanmoins un compte payant sur canva.com

À combien estimez-vous le coût de ce changement ? Y compris les coûts indirects : perte de temps, formation, perte de données, des trucs qu’on faisait et qu’on ne peut plus faire ?

Il s’agit essentiellement de temps, que j’estime à 150 heures dont 2/3 passées en « formation/accompagnement/documentation » et 1/3 pour la mise au point des outils (postes de travail, configuration du Nextcloud).
Côté coûts directs : notre serveur Nextcloud dédié, hébergé par un CHATONS pour 360 €/an et, c’est tout, puisque les boîtes mail avaient déjà été achetées avec un hébergement web mais non utilisées…
Il n’y a eu aucune perte de données, au contraire on en a retrouvé !
À noter que les anciens mails des utilisateurs (stockés chez Google donc) n’ont pas été récupérés, à la demande des utilisateurs eux-mêmes ! Pour eux c’était l’occasion de repartir sur un truc propre !
À ma connaissance, il n’y a rien que l’on ne puisse plus faire aujourd’hui, mais nous avons conservé deux postes de travail sous Windows pour des problèmes de compatibilité matérielle.
Cerise sur le gâteau : des PC portables ont été ressuscités grâce à une distribution Linux, du coup, nous en avons trop et n’en avons pas acheté cette année !

Est-ce que votre dégafamisation a un impact direct sur votre public ou utilisez-vous des services libres uniquement en interne ? Si le public est en contact avec des solutions libres, comment y réagit-il ? Est-il informé du fait que c’est libre ?

Un impact direct ? Oui et non…

En fait, en plus de notre démarche, on invite les collectivités et autres assos à venir « voir » comment on a fait et à leur prouver que c’est possible, ce n’est pas pour autant qu’on nous a demandé de l’aide.

Pour eux, la marche peut s’avérer trop haute et ils n’ont pas forcément les compétences pour franchir le pas sans aide. Imaginez un peu, notre mairie continue de sonder la population à coups de GoogleForms alors qu’on leur a dit quantité de fois qu’il existe des alternatives plus éthiques et surtout plus légales !

Et encore oui, bien que nous utilisions essentiellement ces outils en interne le public en est informé, les « politiques » et autres collectivités qui nous soutiennent le sont aussi et ils sont toujours curieux et, de temps en temps, admiratifs ! La gestion même de nos adhérents et de nos activités se fait au travers d’une application client / serveur développée par nos soins avec LibreOffice Base. Les données personnelles de nos adhérents sont ainsi entre nos mains uniquement.

Est-ce qu’il reste des outils auxquels vous n’avez pas encore pu trouver une alternative libre et pourquoi ?
Oui… nos équipes continuent à utiliser Facebook et WhatsApp… Facebook pour promouvoir nos activités, actions et contenus auprès du grand public et WhatsApp pour discuter instantanément ensemble (en interne) ou autour d’un « projet »avec des externes. Dans ces deux cas, il y a certes de très nombreuses alternatives, mais elles sont soit incomplètes (ne couvrent pas tous les besoins), soit inconnues du grand public (donc personne n’adhère), soit trop complexes à utiliser (ex. Matrix) mais je garde un œil très attentif sur tout cela, car les usages changent vite…

photo noir/blanc de l'entrée de la MJC, chevrons jaunes pointe vers le haut pour indiquer le sens de l'entrée. on distingue le graph sur une porte : MJC Le rond-point

Entrée de la MJC

Quels conseils donneriez-vous à des structures comparables à la vôtre (MJC, Maison de quartier, centre culturel…) qui voudrait se dégafamiser aussi ? Des erreurs à ne pas commettre, des bonnes pratiques éprouvées à l’usage ?

  • Commencer par déployer une solution comme Nextcloud est une étape très fondatrice sur le thème « reprendre le contrôle de ses données » surtout dans des structures comme les nôtres où il y a une rotation de personnels assez importante (contrats courts/aidés, services civiques, volontaires européens, stagiaires, apprentis…).
  • Pour un utilisateur, le fait de retrouver ses affaires, ou les affaires des autres, dans une armoire bien rangée et bien sécurisée est un vrai bonheur. Une solution comme Nextcloud, avec ses clients de synchronisation, représente une mécanique bien huilée désormais et, accessible à chacun. L’administration de Nextcloud peut très bien être réalisée par une personne avertie (un utilisateur ++), c’est à dire une personne qui sait lire une documentation et qui est rigoureuse dans la gestion de ses utilisateurs et de leurs droits associés. Ne vous lancez pas dans l’auto-hébergement si vous n’avez pas les compétences requises ! De nombreuses structures proposent désormais « du Nextcloud » à des prix très abordables.
  • À partir du moment où ce type de solution est installée, basculez-y la gestion des contacts, la gestion des calendriers et faites la promotion, en interne, des autres outils disponibles (gestion de projets, de budget, formulaires…)
  • Fort de ce déploiement et, si votre messagerie est encore chez les GAFAM, commencez à chercher une solution ailleurs en sachant qu’il y aura des coûts, des coups et des pleurs… Cela reste un point délicat compte-tenu des problèmes exposés plus haut… Cela prend du temps mais c’est tout à fait possible ! Pour les jeunes, le mail est « ringard », pour les administratifs c’est le principal outil de communication avec le monde extérieur… Là aussi, avant de vous lancer, analysez bien les usages… Si Google vous autorise à envoyer un mail avec 50 destinataires, ce ne sera peut-être pas le cas de votre nouveau fournisseur…
  • Le poste de travail (le PC) est, de loin, un sujet sensible : c’est comme prendre la décision de jeter à la poubelle le doudou de votre enfant, doudou qui l’a endormi depuis de longues années… Commencez par recycler des matériels “obsolètes” pour Windows mais tout à fait corrects pour une distribution Linux et faites des heureux ! Montrer aux autres qu’il s’agit de systèmes non intrusifs, simple, rapides et qui disposent d’une logithèque de solutions libres et éthiques incommensurable !

Cela fait deux ans que notre asso. est dans ce mouvement et si je vous dis que l’on utilise FFMPEG pour des traitements lourds sur les médias de notre radio FM associative, traitements que l’on n’arrivait pas à faire auparavant avec un logiciel du commerce ? Si je vous dis qu’avec un simple clic-droit sur une image, un utilisateur appose le logo de notre asso en filigrane (merci nemo-action !). Si je vous dis que certains utilisateurs utilisent des scripts en ligne de commande afin de leur faciliter des traitements fastidieux sur des fichiers images, audios ou vidéos ? Elle est pas belle la vie ?

Néanmoins, cela n’empêche pas des petites remarques de-ci de-là sur l’utilisation de solutions libres plutôt que de « faire comme tout le monde » mais ça, j’en fais mon affaire et tant que je leur trouverai une solution libre et éthique pour répondre à leurs besoins alors on s’en sortira tous grandis !
Ah, j’oubliais : cela fait bien longtemps maintenant qu’il n’est plus nécessaire de mettre les mains dans le cambouis pour déployer un poste de travail sous Linux, le support est quasi proche du zéro !

Merci Fabrice d’avoir piloté cette opération et d’en avoir partagé l’expérience au lectorat du Framablog !

 

❌
❌