Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Échirolles libérée ! La dégooglisation (2)

Voici le deuxième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) tel que Nicolas Vivant nous en rend compte. Nous le re-publions volontiers, en souhaitant bien sûr que cet exemple suscite d’autres migrations vers des solutions libres et plus respectueuses des citoyens.


Dégooglisation d’Échirolles, partie 2 : la transformation numérique

par Nicolas Vivant

Le numérique est en train de vivre une révolution. Disposer d’une stratégie, même étayée par des enjeux politiques forts, ne permet pas d’y échapper. Le monde change et il faut s’adapter, sous peine de passer à côté des nombreuses possibilités offertes par les dernières technologies… et de se noyer dans la masse de données que nous générons chaque jour. Les mots-clés du changement : collaboratif, transparence, ouverture. Mais qu’est ce que cela veut dire, concrètement ?

L’inévitable transformation numérique

L’informatique s’est construite, depuis les années 90, autour d’un modèle que nous connaissons toutes et tous, et qui est en train de disparaître. Le poste client repose généralement sur :

  • Un système d’exploitation (généralement Windows, parfois Mac, rarement Linux)
  • Une suite bureautique (souvent Microsoft, parfois LibreOffice)
  • Un serveur de fichiers (avec un classement par arborescence et une gestion des droits centralisée)
  • Une messagerie (avec un client lourd de type Outlook, ou via une interface web) souvent couplée à un agenda

L’évolution que l’on constate partout :

  • Un système d’exploitation qui devient une simple interface de connexion
  • De plus en plus de terminaux mobiles (smartphone, PC portables, tablettes)
  • Des applications qui sont le plus souvent accessibles via un navigateur web
  • Un logiciel intégrant les fonctions de suite bureautique, de messagerie, d’agenda, d’édition collaborative et d’échanges textuels, audio ou vidéo (souvent basé sur un « cloud »)

Le changement culturel à opérer est majeur. Les utilisateurs, aux compétences souvent durement acquises, vont devoir s’adapter et notre responsabilité est de nous assurer que cette transition ne se fera pas dans la douleur.

Des fonctionnements durablement inscrits dans notre rapport à l’informatique sont repensés, sans que la question de l’adoption par les utilisateurs se pose. Exemple : l’organisation et la recherche de l’information. Aujourd’hui, la plupart des serveurs de fichiers et des systèmes de stockage de données sont organisés sous la forme d’une arborescence. Pendant très longtemps, ce classement a été le moyen le plus efficace de retrouver de l’information. Mais la masse de données numériques a grandi, la taille (et le nombre) des répertoires est devenue énorme, et les moteurs de recherche sont souvent inefficaces/lents (cf. la fonction « recherche » de l’explorateur de Windows quand il s’agit de chercher sur un serveur).

En ligne, cette question a été tranchée depuis longtemps. Aux début de l’internet, deux moteurs de recherche dominaient le marché : Yahoo, alors basé sur un classement des sites web en arborescence, par grands domaines, et Altavista (de la société, aujourd’hui disparue, Digital), qui fonctionnait sur le même principe que Google avec un unique champ de recherche. La masse d’information à gérer ayant explosé, c’est ce dernier principe qui a prévalu.

On a parfois cru que la GED (Gestion Électronique de Documents), pouvait être une réponse. Mais l’effort à consentir pour ajouter, souvent manuellement, les métadonnées lui permettant d’être efficace était important. Ce qu’on appelle le « big data » a tout changé. Aujourd’hui, la grande majorité des métadonnées peuvent être générées automatiquement par une analyse du contenu des documents, et des moteurs de recherche puissants sont disponibles. Dans ce domaine, le logiciel libre est roi (pensez à Elastic Search) et des solutions, associées à un cloud, permettent de retrouver rapidement une information, indépendamment de la façon dont elle est générée, classée ou commentée. C’est un changement majeur à conceptualiser dans le cadre de la transformation numérique, et les enjeux de formation et d’information des utilisatrices et utilisateurs ne peuvent pas être ignorés.

S’organiser pour évoluer

Si la feuille de route des élus échirollois ne nous dit pas ce qui doit être fait, elle met l’accent sur un certain nombre de thèmes qu’il va falloir prendre en compte : limitation de l’impact environnemental, réduction de toutes les fractures numériques, gestion responsable des données, autonomie et logiciels libres. À nous de nous adapter, en prenant garde, comme toujours, à la cohérence, la sécurité et la stabilité du système d’information… et en ne négligeant ni l’effort de formation, ni la nécessaire communication autour de ces changements.

Dans ma commune, c’est le rôle de la direction de la stratégie et de la culture numériques (souvent appelée, ailleurs, « direction de la transformation — ou de la transition — numérique ») en lien étroit avec la DSI, qui dispose des compétences opérationnelles.

Conjuguer autonomie et déploiement de logiciels libres a un coût : celui de l’expertise technique. Sans compétences techniques fortes, le nombre de prestations explose nécessairement et vient contredire l’objectif d’un système d’information maîtrisé, aussi bien en termes de responsabilités qu’au niveau financier. Hébergement, installation, paramétrage, sécurisation, maintenance et formation doivent pouvoir, autant que possible, être assurés en interne. Le DSI lui-même doit pouvoir faire des choix sur la base de critères qui ne sont pas seulement fonctionnels mais également techniques. La réorganisation du service est donc inévitable et l’implication de la direction des ressources humaines indispensable. Vouloir mettre en œuvre une politique autour du libre sans compétences ni appétences pour le sujet serait voué à l’échec.

À Échirolles, la grande proximité entre DSCN et DSI a permis de décliner la stratégie numérique en méthodologies opérationnelles qui, mises bout à bout, permettent de s’assurer que nous ne perdons pas de vue l’objectif stratégique. Pour chaque demande d’un nouveau logiciel exprimée par un service, par exemple, nous procédons comme suit :

  • Existe-t-il un logiciel en interne permettant de répondre au besoin ? Si oui, formons les utilisateurs et utilisons-le.
  • Si non, existe-t-il un logiciel libre permettant de répondre au besoin ? Installons-le.
  • Si non, existe-t-il un logiciel propriétaire ? Achetons-le.
  • Si non, en dernier recours, créons-le.

On mesure immédiatement ce que ce fonctionnement implique au niveau du recrutement et de l’organisation : il nous faut une équipe capable de gérer cette procédure de bout en bout et donc, forcément, une compétence en développement. Nous avons donc créé un « pôle applicatif » en charge de ce travail, et recruté un développeur. Et puisque la question de la contribution se pose également, nous avons décidé que 20 % du temps de travail de ce poste serait consacré à des contributions au code de logiciels libres utilisés par la ville.

À chaque mise en place d’une solution technique, la question de l’interopérabilité se pose. Partant du principe que le « cloud » deviendra central dans l’architecture future du système d’information, nous nous sommes penchés sur les logiciels libres qui permettraient de remplir cette fonction et nous avons fait le choix, très tôt et comme beaucoup, de Nextcloud, associé à Collabora pour l’édition collaborative des documents. Nous nous assurons donc, depuis, que tout nouveau logiciel installé dans la collectivité sera correctement interopérable avec ce logiciel quand, dans quelques années, la transition sera achevée.

Mais nous parlerons de logiciels dans la troisième partie de ce récit.

Retour vers l’épisode 1 : la structuration.

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant

❌