Transformation numérique & espace public : découverte des jeux de données du CEREMA

J’avais de grands espoirs dans la note des nouvelles sorties de data.gouv.fr promettant l’ouverture des données de propriétaires d’infrastructures routières par le CEREMA. Le projet initial consistait à réutiliser cette donnée pour en faire une petite application permettant de faire plus facilement des permissions de voiries et des arrêtés de circulation en connaissant directement le gestionnaire de domanialité. En effet, pour ceux qui doivent en faire beaucoup pour des petits travaux, c’est assez pénible et à ma connaissance aucun acteur n’a structuré le marché comme dans le cas de Sogelink ou Prothys pour la gestion des DICT. Hélas, c’est un échec, car on ne voit pour le moment que les très grands axes (la plus petite voirie est une RN), et c’est plutôt frustrant…

J’ai découvert à cette occasion la richesse des données ouvertes par le CEREMA et clairement, il y a du bon pour nous autres transformateurs de travaux :

Le CEREMA (Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement) est un établissement public tourné vers l’appui aux politiques publiques, placé sous la double tutelle du ministère de la transition écologique et solidaire et du ministère de la cohésion des territoires. Les missions du Cerema concernent l’ensemble des thématiques de l’aménagement et du développement durable (urbanisme, environnement, infrastructures de transport, gestion des risques etc.). Il apporte un appui notamment aux collectivités territoriales et aux services déconcentrés de l’État.

Objectivement, elles ne sont pas toutes très documentées et certaines n’apportent pas encore beaucoup au débat, mais le fait qu’elles soient mises en ligne est le début d’un mouvement intéressant, car on peut espérer que leur mise à jour et leur extension fasse l’objet de KPIs au CEREMA.

En tout cas, une des couches m’a particulièrement intéressée en termes de transformation numérique et d’utilisation des ressources du grand public pour contribuer au suivi de l’évolution liée au réchauffement climatique et à une meilleure connaissance de notre territoire :

Les traits de côte ont été levés par des contributeurs grand public utilisant l’application participative rivages développée par le Cerema. Les contributeurs ont à suivre un protocole disponible dans l’application et marcher sur le lieu adapté au type de plage sur lesquelles ils se trouvent. La trace est donc enregistrée avec la localisation du GPS interne au smartphone, susceptible de qualité plus ou moins bonne en fonction du smartphone et de la couverture satellitaire (masque…). Le Cerema élimine dans le processus de collecte participatif les données les plus aberrantes.

Plus de data sur ce projet :

Quelques remarques technophiles sur ce projet :

  • Un ordre de grandeur d’installation de l’ordre du millier, et un nombre de contributeurs inférieur à 100 : on est dans un taux de participation (~10%) qui n’est pas mauvais (comparé au standard), mais pas génial non plus sachant que l’application est clairement dédiée à ça. Ceci dit, beaucoup d’utilisateurs (comme moi) ont surement du la télécharger pour regarder. L’application doit être plutôt ergonomique, surtout qu’il n’est pas certain que la couverture data soit optimale ;
  • Hélas l’application mobile n’est pas Open Source (et je pense qu’elle devrait l’être). En effet, une telle application pourrait être tout à fait pertinente pour d’autres sujets qui sont aussi d’intérêts mais qui ne pourraient pas forcément porter l’intégralité du développement de l’application et de la plateforme. Par exemple, je pense à une mesure de la frontière entre feuillus et conifères dans les forêts, à l’évolution de la frontière de certains espaces naturels qui sont à la fois vastes et menacés, et dont la surveillance et d’une certaine partie la responsabilité pourrait aussi être confiée à tous, ou tout simplement à l’extension du même principe dans d’autres pays ;
  • Une diversité de téléphone importante (cf. liste extraite) et pas forcément faite de téléphones très haut de gamme, sur des données commençant en 2016, donc attente ;
  • Une petite analyse de la donnée (cf. tableau dyn croisé) permet de savoir que le projet est en perte de vitesse sur 2019 (un peu plus de communication à faire ?) et que paradoxalement, les mois les plus productifs sont les mois d’automne et de printemps. Décidément une application de passionnés locaux plus que touristes, ca laisse à la fois un réservoir à aller chercher et une idée de la qualité de la donnée collectée. Renforcé par le fait que depuis que la langue système est une donnée collectée, c’est du français ;
  • J’aimerais bien savoir comment sont triées les données aberrantes car c’est clairement un des enjeux dans le cas de la mesure de quelque chose doit évoluer et qui est hors carto / vue satellite par nature, et par horaire (phénomènes de marées) ;
  • Les données sont aussi collectées à l’international (cf. Fig. 1) et cela fait vraiment prendre conscience de l’impact que peuvent avoir certains projets qui sont conçus de manière globale : tout ce qu’il faut pour que l’Italie (ou l’Espagne, ou le Mozambique) soit couvert par cette application et que l’on puisse constater un phénomène à l’échelle globale, c’est 1°) d’un plan de communication dans le pays concerné 2°) d’un peu de volonté d’une agence locale pour trier des données. On peut se réjouir du fait que les scientifiques n’ont jamais autant eu autant de données qu’avec les tendances actuelles à la mise en oeuvre de la puissance de la multitude, et on peut penser qu’il n’en auront jamais aussi peu…

Lien vers le Google Sheet de travail.

Fig. 1 : Plutot parcellaire pour le moment, centrée sur le sud-est, et débordant vers l’Italie…

En tout cas si vous avez QGIS sous la main et un peu de bande passante (!), jetez un oeil à leur serveur il y a de vraiment beaucoup de choses dispo, et c’est plus simple de fouiller comme ça qu’en passant par datagouv. Il y a aussi quelques WFS mais c’est un peu fouillis pour les retrouver…

On ne peut que remercier le CEREMA pour toutes ces données !

Anticiper les travaux avec la carte du sous-sol

… Et prévoir des randonnées plus ludiques !

La plus-value rochen vous connaissez ? Si non, adressez vous à votre génie civiliste préféré : il connait certainement. C’est ce qui est facturé en plus lorsque les travaux requièrent d’utiliser un brise roche (ou de l’explosif) pour se débarrasser d’un rocher encombrant. Dans les réseaux, souvent vendu sous le nom de PV roche au ml, c’est l’objet de discussions agitées avec la Maitrise d’Ouvrage, la Maitrise d’Oeuvre, voire plus si (non) affinités.

Ce qui rend la PV roche savoureux, c’est son caractère un peu aléatoire ; on ne sait pas trop ce que l’on va trouver. Votre prestataire local sait ; par contre, si on déploie des réseaux sur une zone un peu étendue, c’est plus délicat… Et c’est là que le risque de plus value indue (ou dépassement non planifié) explose.

Heureusement, le BRGM (Bureau de Recherches Géologiques et Minières) édite le site Infoterre qui propose à titre gratuit et en Open Data des données cartographiques sur le territoire. A ce titre, il donne accès aux couches de la Banque du Sous-Sol (BSS), aux cartes géologiques, ainsi qu’aux autres données relatives aux thématiques du BRGM..

Dispo ici : http://infoterre.brgm.fr/formulaire/telechargement-cartes-geologiques-departementales-150-000-bd-charm-50

Où risque-t-on de la PV sur cette route ? Village de Jarrier en Savoie.

Intéressant à plus d’un égard :

  • Optimisation des couts de travaux (choix du type de trancheuse) ;
  • Optimisation de la durée de vie du réseau (éviter « Eboulements à gros bloc », « boues torrentielles ») ;
  • Optimisation de l’exploitation (éviter « Alluvions récents », « cone de déjections », « cones torrentiels »)

Ce sont des informations qui relèvent du bon sens et que connait le local de l’étape, mais qui peuvent avoir un sens particulier lorsque l’on contrôle des études ou que l’on valorise un réseau.

Une carte à télécharger par département, et on rajoute ça dans toutes les bonnes bases de données !

Bonus, parce qu’il n’y a pas que les travaux dans la vie, florilège de données utiles (sur le département de la Savoie) :

L’Open Source dans le déploiement telecoms, pour demain grâce à Etalab ?

Conséquence de la loi pour la République Numérique (2005, principe de gratuité en 2015), le sujet de l’OpenData avance en France. Certes pas toujours aussi vite qu’on le souhaiterait, mais ce mouvement est une véritable lame de fond dont les effets se font déjà ressentir et qui est en passe de servir de support à une révolution de la manière dont les services sont rendus.

Extension logique, les développements réalisés pour le compte d’organismes de l’Etat devraient également être diffusés. Il y a eu plusieurs précédents (simulateur d’impôts, Parcoursup entre autres) mais pas d’initiatives aussi généralisées et passant pas une plateforme dédiée, même si une page contenant tous les liens vers les forges publiques est maintenue. Toutes les collectivités ne sont pas en concurrence, et il est illogique que Lyon paie pour ce qu’aurait déjà financé Paris (et une plus petite collectivité à plus forte raisons), et que des prestataires facturent plusieurs fois le même développement.

Etalab, la mission qui maintient data.gouv.fr a créée une nouvelle plateforme pour recenser et stocker tous ces logiciels : https://code.etalab.gouv.fr/fr/repos

C’est le début, et il n’y a pas encore grand chose (on est loin d’une approche basée sur une synchronisation de tous les GitLab des services de l’Etat), mais c’est déjà intéressant parce que ca nous donne une bonne idée de quels services sont les plus « ouverts ». C’est sans doute dans ceux là qu’il faut aller chasser les bonnes pratiques de transformation numérique du reste de notre administration.

Etalab, qui remplit décidément très bien sa mission, a mis en place un questionnaire qui permet en quelques questions de savoir si un logiciel est diffusable. Les clauses sont assez larges ; même dans le cas ou des briques sont sous licence, elles peuvent être enlevées tandis que le reste du logiciel doit être publié si il n’est pas vidé de son sens.

Il est disponible ici : https://guide-juridique-logiciel-libre.etalab.gouv.fr/#0

Et dans le domaine des télécoms ?

État des lieux : on ne trouve aujourd’hui aucune contribution dans le domaine télécom / génie civil, ni sur la liste des diffuseurs de logiciels ni sur la nouvelle plateforme d’Etalab.

Le déploiement de réseaux télécom est un grand consommateur de data. C’est aussi un énorme consommateur d’algorithmes, allant des configurations d’ETL aux requêtes SQL qui permettent d’automatiser des contrôles sur des bases, plugins QGIS divers et variés, scripts d’adaptation des PIT, outils de gestion de la documentation, outils de contrôles de routage, VBA de contrôles financiers, et sans doute beaucoup d’autres.

Ces outils sont certes présents chez les entreprises (et c’est un avantage stratégique pour ceux qui en ont de bons…) ainsi que chez les maîtres d’ouvrage dans le cas des RIP, ou à l’ARCEP ou chez d’autres contrôleurs / régulateurs / financeurs. Parmi ces derniers, beaucoup de structures publiques : en tout logique elle devraient publier leurs codes sources. Intérêts évidents :

  • Faire en sorte que d’autres collectivités ne paient pas plusieurs fois pour les mêmes outils, mais passent leurs budgets supplémentaires dans l’adaptation desdits outils ainsi que leur extension. Ce qui permettra de n’avoir que des projets public state of the art ;
  • Encourager les développements sur des socles sains et avec des bonnes pratiques de développement : évite les codes « poubelles » qui ne peuvent être réutilisés ;
  • Auditer fonctionnellement ces outils, notamment pour ceux qui ont un rôle contractuel ;
  • Plus de testeurs, plus de rapport de bugs, donc des outils plus robustes ;
  • Faire profiter à la filière de ces outils afin de produire collectivement les études (et les récolements) les plus aboutis possibles.
  • Et beaucoup d’autres, cf les argumentaires classiques de l’open source

Je suis à même de constater professionnellement la difficulté qu’ont les entreprises du secteur à travailler sur des formats « nouveaux », et l’impact financier sur certaines petites structures déséquilibre la filière entière tant elles ne sont pas a même de faire l’investissement nécessaire à l’usage de ce langage commun qu’est la base de donnée.

Facteur aggravant, GraceTHD v3 va sortir de manière imminente, et de nombreux outils du toolkit classique devront sans doute être revus avec cette nouvelle version dont les modifications structurelles sont assez importantes. C’est l’occasion de se préparer à faire des économies rapidement.

N’oublions pas que ce que nous vivons aujourd’hui avec le déploiement de la fibre optique préfigure le futur des travaux publics (le passage du monde Autocad vers le monde GIS en raccourci). C’est donc un sujet qui est d’ampleur nationale et qui est de nature à influer sur la compétitivité de nombreuses PME locales pourvoyeuses d’emploi sur tout le territoire.

Comment faire évoluer la chose ?

Nous pourrions réfléchir (et je vais attaquer rapidement à faire ma part) à une liste d’acteurs et donc d’applicatifs dont la diffusion pourrait être demandée.

La question qui se pose est celle de la liste des administrations à contacter, ainsi que des logiciels que l’on pourrait leur demander de diffuser. En effet, d’expérience, les « propriétaires de PI publique », comme on pourrait les appeler de manière générique, ne sont pas toujours enclins à livrer spontanément les données et codes sources. Qui dit absence de catalogue dit connaissance par contact… Et c’est là que nous pouvons collectivement faire quelque chose ; si vous travaillez avec des administrations vous savez quoi leur demander ; problème réglé !

En en discutant par mail, LinkedIn ou Twitter, on peut faire assez vite le tour.

Se pose bien sur la question du futur de ces codes sources, ou de comment faire vivre ces codes sources au delà de leur existence actuelle. Idées pêle-mêle :

  • Diffuser cette liste de logiciel auprès des parties prenantes : collectivités, conseils, entreprises du secteur, afin qu’elle soit utilisée au maximum ;
  • Faire en sorte que les entreprises qui utilisent aient aussi une démarche de contributeurs en fixant des bugs / mettant à jour des fonctionnements ;
  • On peut globalement espérer un développement de plusieurs briques autour de standards tels que Grace ou les plans Iti par exemple, qui fonctionneraient comme des communautés Open Source, voire gérées par un consortium, ou une commission d’Infranum, ou autre structure de la filière.

L’étendue des possibles dépasse bien évidemment le cadre de ce document et ne pourra être imaginé que collectivement ; mais il est certain qu’une des conditions favorisant le mouvement Open Source dans un domaine est la contribution significative d’un acteur qui fait le premier pas. Cet acteur pourrait être l’administration française.

Pour suggérer les codes sources manquants, on peut passer par le GitHub de la DISIC ou tout simplement contacter la structure en question, de manière individuelle ou via madada.fr.

Réponse anticipée aux critiques concernant la tendance à l’ouverture des données

Cette tendance de l’ouverture des logiciels du public n’a rien d’une exception française, ou d’un quelconque délire local et temporaire visant à empêcher les ESN et consultants de travailler comme on peut l’entendre. C’est un mouvement à l’échelle mondiale, un peu de lecture récente sur le sujet :

Quant à la crainte que cette initiative ne puisse se déployer largement à cause du fait que la plupart des prestataires de l’état commercialisent des codes sous licence, il faut agir en amont (et en urgence) : la commande publique peut et doit être utilisée comme un outil pour améliorer encore l’efficacité de l’action de l’Etat. C’est un sujet dont il faut se saisir, et un certain nombre d’actions existent dans ce domaine comme les Trophées de la commande publique qui peuvent certainement être mis à contribution.

On en parle ?