Dépasser QGIS 3.4 dans les télécoms

L’avantage des jours de congés en confinement, c’est qu’ils permettent de rattraper un peu de retard. Par exemple, publier des articles sur ce blog… Mais aussi remettre à jour ses versions de QGIS ! Et c’est particulièrement vrai dans les entreprises ou pour de bonnes raisons (stabilité, développement in-house non réalisés sous forme de plugins), on se retrouve souvent avec des logiciel un peu datés. Si sur un certain nombre d’entre eux le périmètre fonctionnel est plutôt stable, ce n’est pas le cas de QGIS dont les features introduites sont nombreuses et intéressantes.

Quasiment toutes les entreprises des télécoms sont passées vers QGIS 3.4, mais beaucoup y sont restées. La LTR actuelle est la 3.10.5, et la version courante la 3.12.

Je suis preneur de vos retours et idées, n’hésitez pas à me pousser des usages ou fonctions que je n’aurais pas vues.

Pourquoi un BE télécom devrait passer à QGIS 3.10 ?

Morceaux choisis du changelog de 3.10 qui peuvent améliorer l’expérience.

Export GeoPDF

Malheureusement, il reste dans notre industrie des utilisateurs qui ne travaillent pas sur des bases de données, et selon les mauvaises langues, généralement chez les génie civilistes et les décideurs. Ceci dit, il y aussi de « bonnes raisons » d’utiliser ponctuellement du PDF :

  • les chargés d’affaire qui vont sur le terrain et qui doivent voir des plans sur téléphone ;
  • les échanges de données hybrides, quand on s’adresse à plusieurs publics (visualiseurs, mais aussi certains qui voudraient incorporer dans leur propres jeux de données) ;
  • 100 % des cas ou on envoie des PDF (notamment appels d’offre, communication, DOE).

Des tests terrain s’imposent, et ce d’autant plus que l’intérêt dépend aussi des compatibilités et fonctionnalités logiciel de lecture PDF utilisés.

Détails :

Facilitation des actes courants : export et sélections complexes

Pour faire le 12ème export (GeoPDF) d’une zone arrière de NRO, ou la n-ème recherche par filtre des PB qui sont sur une zone d’emprise donnée, deux petites modifications qui vont faire gagner du temps. Sur des actions « métier », des développements de plugins avaient déjà été certainement faits pour automatiser ces petites frictions, mais ça va dans le sens du citizen developper qui peut customiser ces outils.

C’est une très bonne chose de voir arriver ces réglages qui changeront également la vie des chefs de projets qui font du reporting (oui, les chefs de projet doivent utiliser QGIS).

image37

Détails :

Algorithme « Point to layer »

Un peu plus fin, et je n’ai pas encore eu l’occasion d’expérimenter. Permet de récupérer sous forme de couche une seule géométrie associée à un point. Je pense qu’il y a des usages intéressants avec deux types de scénarios :

  • Les actions que l’on ne pouvait pas automatiser car impossible à mettre en oeuvre avec le modeleur graphique car on avait pas les bonnes entrées. Sert aux traitements de base sur, par exemple, de la zone arrière de SRO / PBO pour ne donner qu’une idée.
  • Les utilisateurs commerciaux qui veulent faire des simulations sur de la maximalisation de potentiel avec différentes hypothèses de base sans passer par des développements ou des manipulations extrêmement fastidieuses.

En gros, du point de vue d’un développeur, c’est une sorte de pointeur. Et ça ouvre autant de possibilités que l’usage des pointeurs dans un langage de programmation.

Détails :

Gestion d’une dimension supplémentaire pour serveur WMS

Une autre fonctionnalité avec que je n’ai pas encore testée, mais qui peut sans doute avoir des cas d’usages intéressant dans une approche exploitation et suivi d’évolutions (d’ailleurs, son développement est sponsorisé par l’IFREMER). C’est le cas du temps qui est proposé en illustration, mais suivant les projets de déploiements à suivre, on pourrait sans doute imaginer d’autres cas d’usage (même si le temps reste une donnée clef).

Le retour en grace des Shapefiles ?

Comme le dit fort sobrement le changelog :

Regardless of where you sit on the Shapefile vs Geopackage battle, you’ll welcome this ability to de-clutter your folders and store shapefiles as a single file!

Peut être que c’est ce qui marchera finalement pour nous délivrer de l’enfer du SHP cassé dans les projets… J’ai personnellement essayé de pousser la solution des Geopackages, mais sans vrai succès tant la culture de la shapefile est forte. Espérons que cette première marche soit la plus facile (un avantage : elle rentre dans la formulation fichier de type « shape » des consultations et appels d’offres).

Détails :

Contribuons (et faisons contribuer nos entreprises) à QGIS et aux développements des logiciels libre en général

QGIS est un formidable outil pour le secteur télécom, et de très gros clients d’ESRI (les plus gros en France pour ne pas citer leur nom) sont en train de passer sur des infrastructures QGIS + PostGIS. Ces logiciels libres sont de véritables biens communs et permettent l’existence et l’innovation de nombreux acteurs dans toutes les filières. Il est important, pour pérenniser cette situation de contribuer via des heures de développement reportées dans code commun ou le subventionnement de fonctionnalités, au développement de QGIS. La ressource développeur est très tendue dans nos métiers, et on ne peut pas forcément donner du temps de développement ; il est par contre possible de soutenir le logiciel pécuniairement, et il y a des avantages qui sont assez démontrables (lien) via :

J’insiste sur ce point car je considère qu’il s’agit d’un devoir individuel de lobby collectif.

Pour finir, si vous avez déjà sauté ce pas, ou si vous êtes convaincu, vous pouvez vous préparer sur l’article suivant qui concernera les bonnes raisons de passer à QGIS 3.12 🙂

Je suis preneur de vos retours et idées, n’hésitez pas à me pousser des usages ou fonctions que je n’aurais pas vues.

Transformation numérique & espace public : découverte des jeux de données du CEREMA

J’avais de grands espoirs dans la note des nouvelles sorties de data.gouv.fr promettant l’ouverture des données de propriétaires d’infrastructures routières par le CEREMA. Le projet initial consistait à réutiliser cette donnée pour en faire une petite application permettant de faire plus facilement des permissions de voiries et des arrêtés de circulation en connaissant directement le gestionnaire de domanialité. En effet, pour ceux qui doivent en faire beaucoup pour des petits travaux, c’est assez pénible et à ma connaissance aucun acteur n’a structuré le marché comme dans le cas de Sogelink ou Prothys pour la gestion des DICT. Hélas, c’est un échec, car on ne voit pour le moment que les très grands axes (la plus petite voirie est une RN), et c’est plutôt frustrant…

J’ai découvert à cette occasion la richesse des données ouvertes par le CEREMA et clairement, il y a du bon pour nous autres transformateurs de travaux :

Le CEREMA (Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement) est un établissement public tourné vers l’appui aux politiques publiques, placé sous la double tutelle du ministère de la transition écologique et solidaire et du ministère de la cohésion des territoires. Les missions du Cerema concernent l’ensemble des thématiques de l’aménagement et du développement durable (urbanisme, environnement, infrastructures de transport, gestion des risques etc.). Il apporte un appui notamment aux collectivités territoriales et aux services déconcentrés de l’État.

Objectivement, elles ne sont pas toutes très documentées et certaines n’apportent pas encore beaucoup au débat, mais le fait qu’elles soient mises en ligne est le début d’un mouvement intéressant, car on peut espérer que leur mise à jour et leur extension fasse l’objet de KPIs au CEREMA.

En tout cas, une des couches m’a particulièrement intéressée en termes de transformation numérique et d’utilisation des ressources du grand public pour contribuer au suivi de l’évolution liée au réchauffement climatique et à une meilleure connaissance de notre territoire :

Les traits de côte ont été levés par des contributeurs grand public utilisant l’application participative rivages développée par le Cerema. Les contributeurs ont à suivre un protocole disponible dans l’application et marcher sur le lieu adapté au type de plage sur lesquelles ils se trouvent. La trace est donc enregistrée avec la localisation du GPS interne au smartphone, susceptible de qualité plus ou moins bonne en fonction du smartphone et de la couverture satellitaire (masque…). Le Cerema élimine dans le processus de collecte participatif les données les plus aberrantes.

Plus de data sur ce projet :

Quelques remarques technophiles sur ce projet :

  • Un ordre de grandeur d’installation de l’ordre du millier, et un nombre de contributeurs inférieur à 100 : on est dans un taux de participation (~10%) qui n’est pas mauvais (comparé au standard), mais pas génial non plus sachant que l’application est clairement dédiée à ça. Ceci dit, beaucoup d’utilisateurs (comme moi) ont surement du la télécharger pour regarder. L’application doit être plutôt ergonomique, surtout qu’il n’est pas certain que la couverture data soit optimale ;
  • Hélas l’application mobile n’est pas Open Source (et je pense qu’elle devrait l’être). En effet, une telle application pourrait être tout à fait pertinente pour d’autres sujets qui sont aussi d’intérêts mais qui ne pourraient pas forcément porter l’intégralité du développement de l’application et de la plateforme. Par exemple, je pense à une mesure de la frontière entre feuillus et conifères dans les forêts, à l’évolution de la frontière de certains espaces naturels qui sont à la fois vastes et menacés, et dont la surveillance et d’une certaine partie la responsabilité pourrait aussi être confiée à tous, ou tout simplement à l’extension du même principe dans d’autres pays ;
  • Une diversité de téléphone importante (cf. liste extraite) et pas forcément faite de téléphones très haut de gamme, sur des données commençant en 2016, donc attente ;
  • Une petite analyse de la donnée (cf. tableau dyn croisé) permet de savoir que le projet est en perte de vitesse sur 2019 (un peu plus de communication à faire ?) et que paradoxalement, les mois les plus productifs sont les mois d’automne et de printemps. Décidément une application de passionnés locaux plus que touristes, ca laisse à la fois un réservoir à aller chercher et une idée de la qualité de la donnée collectée. Renforcé par le fait que depuis que la langue système est une donnée collectée, c’est du français ;
  • J’aimerais bien savoir comment sont triées les données aberrantes car c’est clairement un des enjeux dans le cas de la mesure de quelque chose doit évoluer et qui est hors carto / vue satellite par nature, et par horaire (phénomènes de marées) ;
  • Les données sont aussi collectées à l’international (cf. Fig. 1) et cela fait vraiment prendre conscience de l’impact que peuvent avoir certains projets qui sont conçus de manière globale : tout ce qu’il faut pour que l’Italie (ou l’Espagne, ou le Mozambique) soit couvert par cette application et que l’on puisse constater un phénomène à l’échelle globale, c’est 1°) d’un plan de communication dans le pays concerné 2°) d’un peu de volonté d’une agence locale pour trier des données. On peut se réjouir du fait que les scientifiques n’ont jamais autant eu autant de données qu’avec les tendances actuelles à la mise en oeuvre de la puissance de la multitude, et on peut penser qu’il n’en auront jamais aussi peu…

Lien vers le Google Sheet de travail.

Fig. 1 : Plutot parcellaire pour le moment, centrée sur le sud-est, et débordant vers l’Italie…

En tout cas si vous avez QGIS sous la main et un peu de bande passante (!), jetez un oeil à leur serveur il y a de vraiment beaucoup de choses dispo, et c’est plus simple de fouiller comme ça qu’en passant par datagouv. Il y a aussi quelques WFS mais c’est un peu fouillis pour les retrouver…

On ne peut que remercier le CEREMA pour toutes ces données !

Prototyper les modifications du territoire : application concrète du Design Thinking aux travaux publics

Note préliminaire : cet article effleure le sujet du Design Thinking dans les couches basses des télécoms, et il y aura sans doute d’autres réflexions sur le même thème. Si vous souhaitez échanger sur ce sujet, n’hésitez pas à me contacter !

La réalisation de travaux d’ampleurs, et plus particulièrement le déploiement d’infrastructures, est vis-à-vis des parties prenantes qui seront concernés à la croisée de deux sentiments souvent assez forts mais toujours opposés : la peur de de l’impact, et la volonté de toucher les fruits de ce projet d’intérêt général. Le résultat, c’est le fameux effet NIMBY, défini par Wikipedia :

Le terme ou les expressions effet Nimbysyndrome Nimby, sont utilisés généralement pour décrire soit l’opposition de résidents à un projet local d’intérêt général dont ils considèrent qu’ils subiront des nuisances, soit les résidents eux-mêmes.

J’ajouterais à cette définition que les élus locaux sont une des parties prenantes qui, si elle n’est pas gérée correctement, peut être un véritable levier négatif.

Dans tous les cas, c’est un échec, et pour ceux qui ont un réseau à déployer, ce sont des études à refaire, des plannings percutés, des délais qui courent, et une pression supplémentaire qui monte et qui pousse parfois à réaliser des choix techniques que l’histoire jugera assez durement.

Une des solutions pour lutter contre ce rejet, qui est souvent lié à une communication défaillante, est la co-construction avec les parties prenantes. Malheureusement, cette notion, qui est aujourd’hui parfaitement intégrée dans les réflexions sur la manière de gérer les transformations (le paradigme expérientiel du changement) n’est pas du tout intégré dans les processus qui sont aujourd’hui en vigueur dans les déploiements d’infrastructures à grande échelle. Ce sont des cas où la partie prenante qui est confrontée à la nuisance n’a été ni décideur, ni demandeur, ni sollicité durant la phase de conception globale. Cette situation est courante dans les télécoms : déploiement de fibre optique, déploiement d’un réseau de relais radio, …

Quelles pistes d’amélioration ?

C’est un sujet très vaste et qui dépasse largement le cadre de cet article. Il y a de nombreuses idées d’autres secteurs à adapter dans notre domaine d’activité, et nous ne les parcourerons pas toutes aujourd’hui…

La première étape – et sans doute la plus simple – c’est de savoir comment partager efficacement le plan d’un projet. C’est la que nous rejoignons la notion de Design Thinking : avoir une représentation sous forme de « maquette » permet de co-construire le projet, de le représenter, de se l’approprier, bref de le faire adopter plus facilement. L’objet physique permet de créer un lien, bien plus qu’un plan papier et oh combien plus qu’une projection sur un vidéoprojecteur.

Hélas aujourd’hui, encore trop de projets sont présentés sous forme de plans d’exécution sur fond de cadastre, qui sont au mieux lisibles par ceux qui connaissent bien le détail de la commune et qui ont l’habitude de tels plans.

Exemple ici avec un réseau d’eau potable, similaire dans la logique aux déploiements fibre.

Légèrement plus ergonomiques sont les tracés projets sur des plans Google Maps (ça arrive, l’aspect professionnel laisse un peu a désirer pour des travaux qui se chiffrent en centaines de milliers d’euros…), voire des fonds de plans de l’IGN via Géoportail (un peu mieux, mais quel gâchis de « redessiner » en permanence les tracés). On a parfois la chance d’avoir un orthophotoplan, et ce d’autant plus qu’il est de plus en plus simple d’en réaliser à bas cout avec des drones grand public.

Cependant, il existe aujourd’hui des solutions techniques qui permettent de créer un véritable objet représentant le territoire. Un objet que l’on peut faire circuler de main en main, qui par son format concret permet d’instaurer un effet « wow » : il s’agit de l’impression en 3D d’une carte du paysage avec l’emprise des bâtiments existants.

C’est une superbe opportunité de présenter un projet, et pourquoi pas d’affiner les détails avec les parties prenantes concernées, celles qui connaissent le territoire et pourront être force de proposition pour affiner un APD par exemple. C’est un excellent moyen d’aider les intervenants à construire une meilleure image mentale de la zone très rapidement.

Comment ça marche ? Les fichiers qui sont ci dessus sont générés par Touch Mapper, une application web qui a pour but de générer facilement des fichiers permettant d’imprimer des cartes sensorielles pour les déficients visuels. Ce qui explique que la hauteur des bâtiments n’est pas prise en compte. Il est possible de faire beaucoup plus réaliste, comme le montre la page du wiki OpenStreetMap dédiée à ce sujet, mais c’est plus complexe et requiert une chaine logicielle avec des modeleurs 3D tels que Blender.

File:3d print blender3d-fin.png
Même si ca vaut le coup, on sort du quick win pour aller vers l’investissement en temps non négligeable…

Le vrai intérêt de la solution de Touch Mapper, c’est l’immédiateté et la facilité de la chose ; de l’adresse au fichier STL prêt à être imprimé, il n’y a que quelques secondes.

Quel usage pour les déploiements de télécom ?

Au-delà de l’évidente envie d’imprimer les alentours de son logement, ou son parc préféré, ou encore un atoll paradisiaque que l’on préférerait fouler du pied mais que l’on est déjà content de caresser du doigt, les usages suivant sont pertinents dans un contexte professionnel dans les télécoms :

  • Implantation de bâtiments techniques « conséquents » : NRO, datacenters. On peut faciliter les démarches de négociations foncières avec un tel outil sur plusieurs niveau :
    • Impression de la zone, et échange avec les technicien de la collectivité locale sur le meilleur endroit ou on peut mettre en place un bâtiment ou une grosse armoire ;
    • Une fois qu’elle est positionnée, intégration paysagère avec un modeler 3D pour générer non seulement une vue 3D qui permet de se rendre compte de l’impact, mais aussi le résultat final physique.
  • Positionnement des mats d’antenne et sites radio : représentation du vis-à-vis, visualisation de l’amélioration de la couverture, …
  • Travaux de VRD pour déploiement de la fibre : impact, visualisation chantier, préparation à la vie pendant les travaux dans les zones concernées
Central Park, Manhattan, au bout des doigts…

Les usages dépassent largement le sujet du déploiement dans les télécommunications, voici quelques exemples :

  • Couches plus hautes : lors de la constructions de bâtiments, ou de ponts, on peut intégrer directement les résultats finaux dans le terrain ; de nos jours tout ce qui est livré doit l’être en STL, et on peut l’intégrer sur le résultat final ;
  • Couches purement travaux : on peut se servir d’une telle simulation pour l’impact travaux, par exemple la gestion des gravats. Certains chantiers génèrent beaucoup de matériaux de déblais
  • Couches basses : avec les informations d’infrastructures qui sont comprises dans OpenStreetMap grâce aux travails de passionnés (lignes électriques, conduites forcées, pipelines de gaz ou d’hydrocarbures, lignes de trains,…) de superbes visualisations peuvent être construites qui permettent de prendre la mesure de l’existent et de penser des schémas cohérents.

Pour faire simple, on peut considérer qu’avec la représentation sémantique du territoire d’OpenStreetMap, on a quasiment l’opportunité d’imprimer en 3D le résultat d’un SELECT dans une base de données… Et c’est très puissant.

Pourquoi est-ce bien plus qu’une maquette d’architecte ?

Peut être vous demandez-vous en quoi c’est fondamentalement différent d’une maquette faite par un cabinet d’architecte ; l’objet final est similaire, l’objectif est le même mais il y a une énorme différence : le coût.

Une maquette, c’est une véritable oeuvre, faite souvent par des artisans spécialisés dans des temps conséquents et dont le coût est de plusieurs milliers d’euros. Elle est donc faite pour vendre un projet, et un projet aussi « contraint » spatialement que possible tant le prix est au cube du diamètre de l’objet construit.

Dans notre cas de figure, c’est tout le contraire : on cherche un système qui est rapide à réaliser, qui ne craint pas le contact physique et dont le cout est moindre ; et à plus forte raison que celui qui portera la charge financière n’est pas forcément le maître d’ouvrage, mais peut être un prestataire en charge de la négociation foncière, ou le titulaire d’un lot du marché. Ces derniers n’ont plus à convaincre un acheteur d’investir, mais doivent toujours persuader une partie prenante non incluse dans le deal initial de ne pas s’y opposer tant son pouvoir de nuisance pourrait être désastreux pour l’équilibre global.

On parle ici d’un cout de production de l’ordre de 50 €, et d’une facilité de modéliser enfantine : avec un marqueur, avec du papier, avec un SRO imprimé en 3D à l’échelle… On est dans une échelle de coût qui permet d’imaginer des schémas nouveaux tant l’importance de la négociation foncière est clé (et facteur d’économies, ou au contraire de gabegies) dans les déploiements FttH. Imprimer 10 maquettes similaire pour un déploiement correspondant à une zone arrière de NRO n’est pas un problème ; ce ne serait pas la même chose avec une maquette traditionnelle…

A noter que les architectes et urbanistes peuvent bien entendu s’emparer dès maintenant des ses possibles pour encore améliorer leurs maquettes actuelles !

De l’effet vertueux dans la ville

Enfin, un des externalités positives inhérente à cette pratique, si elle tend à se généraliser, va être l’augmentation de la contribution à OpenStreetMap par des entreprises qui n’auraient pas forcément investi dans son renseignement hors de ce projet.

En effet, plus la carte est à jour, plus les données sont renseignées, meilleur est le rendu : la contribution par l’acteur qui cherche à communiquer vis à vis des utilisateurs du territoire est une véritable création de lien entre les deux, qui permet de transcender les simples travaux pour créer un véritable projet de territoire, à la fois physique et numérique.

OpenStreetMap, le socle du « digital twin » ?

La suite de cette réflexion est l’utilisation Open Street Map comme un support pour la création de digital twin pour permettre de modéliser les changements qui peuvent être apportés à la ville (urbanisme, transport en commun, impact des politiques « vertes », co-construction avec les citoyens, …)

Le meilleur exemple existe déjà, sous forme d’un projet expérimental, qui n’est malheureusement plus développé : il s’agit de osmgo.org, qui utilise les données d’Open Street Map, avec des attributs un peu plus complets, pour recréer un double virtuel de n’importe quelle ville.

Représentation vue de la Saone de la place Bellecour à Lyon via osmgo.org, de l’intérêt de la modélisation des arbres !

Toutes les impressions ne se valent pas…

Les bureaux d’études (au moins dans le FttH) ont peu à peu abandonné le traceur, qui finalement n’était plus à même de représenter l’intégralité et la richesse du contenu d’une base de données, tant nous avons des outils qui sont efficaces (ordinateur, mais aussi mobiles) pour représenter des plans en 2D, voir en 2,5D avec une flexibilité que ne permet pas le papier.

On peut par contre parier sur le fait qu’il faudra encore longtemps avant que nos moyens numériques puissent supplanter la sensation d’une maquette, et la capacité d’un objet physique à créer une représentation mentale permettant de construire collectivement autour d’une idée commune.

A mon sens, ces mêmes bureaux d’études devraient externaliser les traceurs qui sont aujourd’hui tout sauf un avantage concurrentiel ; il devraient limiter l’usage des imprimantes classiques qui nuisent à la transformation numérique, mais ils devraient se pencher sur l’impression 3D, car elle peut être un levier de leur transformation.

Ressources supplémentaires

Ce sujet vous parle ? Vous avez une idée à implémenter dans un de vos projets et un accompagnement vous intéresse ? Nous pouvons prévoir un temps d’échange…

Anticiper les travaux avec la carte du sous-sol

… Et prévoir des randonnées plus ludiques !

La plus-value rochen vous connaissez ? Si non, adressez vous à votre génie civiliste préféré : il connait certainement. C’est ce qui est facturé en plus lorsque les travaux requièrent d’utiliser un brise roche (ou de l’explosif) pour se débarrasser d’un rocher encombrant. Dans les réseaux, souvent vendu sous le nom de PV roche au ml, c’est l’objet de discussions agitées avec la Maitrise d’Ouvrage, la Maitrise d’Oeuvre, voire plus si (non) affinités.

Ce qui rend la PV roche savoureux, c’est son caractère un peu aléatoire ; on ne sait pas trop ce que l’on va trouver. Votre prestataire local sait ; par contre, si on déploie des réseaux sur une zone un peu étendue, c’est plus délicat… Et c’est là que le risque de plus value indue (ou dépassement non planifié) explose.

Heureusement, le BRGM (Bureau de Recherches Géologiques et Minières) édite le site Infoterre qui propose à titre gratuit et en Open Data des données cartographiques sur le territoire. A ce titre, il donne accès aux couches de la Banque du Sous-Sol (BSS), aux cartes géologiques, ainsi qu’aux autres données relatives aux thématiques du BRGM..

Dispo ici : http://infoterre.brgm.fr/formulaire/telechargement-cartes-geologiques-departementales-150-000-bd-charm-50

Où risque-t-on de la PV sur cette route ? Village de Jarrier en Savoie.

Intéressant à plus d’un égard :

  • Optimisation des couts de travaux (choix du type de trancheuse) ;
  • Optimisation de la durée de vie du réseau (éviter « Eboulements à gros bloc », « boues torrentielles ») ;
  • Optimisation de l’exploitation (éviter « Alluvions récents », « cone de déjections », « cones torrentiels »)

Ce sont des informations qui relèvent du bon sens et que connait le local de l’étape, mais qui peuvent avoir un sens particulier lorsque l’on contrôle des études ou que l’on valorise un réseau.

Une carte à télécharger par département, et on rajoute ça dans toutes les bonnes bases de données !

Bonus, parce qu’il n’y a pas que les travaux dans la vie, florilège de données utiles (sur le département de la Savoie) :

L’Open Source dans le déploiement telecoms, pour demain grâce à Etalab ?

Conséquence de la loi pour la République Numérique (2005, principe de gratuité en 2015), le sujet de l’OpenData avance en France. Certes pas toujours aussi vite qu’on le souhaiterait, mais ce mouvement est une véritable lame de fond dont les effets se font déjà ressentir et qui est en passe de servir de support à une révolution de la manière dont les services sont rendus.

Extension logique, les développements réalisés pour le compte d’organismes de l’Etat devraient également être diffusés. Il y a eu plusieurs précédents (simulateur d’impôts, Parcoursup entre autres) mais pas d’initiatives aussi généralisées et passant pas une plateforme dédiée, même si une page contenant tous les liens vers les forges publiques est maintenue. Toutes les collectivités ne sont pas en concurrence, et il est illogique que Lyon paie pour ce qu’aurait déjà financé Paris (et une plus petite collectivité à plus forte raisons), et que des prestataires facturent plusieurs fois le même développement.

Etalab, la mission qui maintient data.gouv.fr a créée une nouvelle plateforme pour recenser et stocker tous ces logiciels : https://code.etalab.gouv.fr/fr/repos

C’est le début, et il n’y a pas encore grand chose (on est loin d’une approche basée sur une synchronisation de tous les GitLab des services de l’Etat), mais c’est déjà intéressant parce que ca nous donne une bonne idée de quels services sont les plus « ouverts ». C’est sans doute dans ceux là qu’il faut aller chasser les bonnes pratiques de transformation numérique du reste de notre administration.

Etalab, qui remplit décidément très bien sa mission, a mis en place un questionnaire qui permet en quelques questions de savoir si un logiciel est diffusable. Les clauses sont assez larges ; même dans le cas ou des briques sont sous licence, elles peuvent être enlevées tandis que le reste du logiciel doit être publié si il n’est pas vidé de son sens.

Il est disponible ici : https://guide-juridique-logiciel-libre.etalab.gouv.fr/#0

Et dans le domaine des télécoms ?

État des lieux : on ne trouve aujourd’hui aucune contribution dans le domaine télécom / génie civil, ni sur la liste des diffuseurs de logiciels ni sur la nouvelle plateforme d’Etalab.

Le déploiement de réseaux télécom est un grand consommateur de data. C’est aussi un énorme consommateur d’algorithmes, allant des configurations d’ETL aux requêtes SQL qui permettent d’automatiser des contrôles sur des bases, plugins QGIS divers et variés, scripts d’adaptation des PIT, outils de gestion de la documentation, outils de contrôles de routage, VBA de contrôles financiers, et sans doute beaucoup d’autres.

Ces outils sont certes présents chez les entreprises (et c’est un avantage stratégique pour ceux qui en ont de bons…) ainsi que chez les maîtres d’ouvrage dans le cas des RIP, ou à l’ARCEP ou chez d’autres contrôleurs / régulateurs / financeurs. Parmi ces derniers, beaucoup de structures publiques : en tout logique elle devraient publier leurs codes sources. Intérêts évidents :

  • Faire en sorte que d’autres collectivités ne paient pas plusieurs fois pour les mêmes outils, mais passent leurs budgets supplémentaires dans l’adaptation desdits outils ainsi que leur extension. Ce qui permettra de n’avoir que des projets public state of the art ;
  • Encourager les développements sur des socles sains et avec des bonnes pratiques de développement : évite les codes « poubelles » qui ne peuvent être réutilisés ;
  • Auditer fonctionnellement ces outils, notamment pour ceux qui ont un rôle contractuel ;
  • Plus de testeurs, plus de rapport de bugs, donc des outils plus robustes ;
  • Faire profiter à la filière de ces outils afin de produire collectivement les études (et les récolements) les plus aboutis possibles.
  • Et beaucoup d’autres, cf les argumentaires classiques de l’open source

Je suis à même de constater professionnellement la difficulté qu’ont les entreprises du secteur à travailler sur des formats « nouveaux », et l’impact financier sur certaines petites structures déséquilibre la filière entière tant elles ne sont pas a même de faire l’investissement nécessaire à l’usage de ce langage commun qu’est la base de donnée.

Facteur aggravant, GraceTHD v3 va sortir de manière imminente, et de nombreux outils du toolkit classique devront sans doute être revus avec cette nouvelle version dont les modifications structurelles sont assez importantes. C’est l’occasion de se préparer à faire des économies rapidement.

N’oublions pas que ce que nous vivons aujourd’hui avec le déploiement de la fibre optique préfigure le futur des travaux publics (le passage du monde Autocad vers le monde GIS en raccourci). C’est donc un sujet qui est d’ampleur nationale et qui est de nature à influer sur la compétitivité de nombreuses PME locales pourvoyeuses d’emploi sur tout le territoire.

Comment faire évoluer la chose ?

Nous pourrions réfléchir (et je vais attaquer rapidement à faire ma part) à une liste d’acteurs et donc d’applicatifs dont la diffusion pourrait être demandée.

La question qui se pose est celle de la liste des administrations à contacter, ainsi que des logiciels que l’on pourrait leur demander de diffuser. En effet, d’expérience, les « propriétaires de PI publique », comme on pourrait les appeler de manière générique, ne sont pas toujours enclins à livrer spontanément les données et codes sources. Qui dit absence de catalogue dit connaissance par contact… Et c’est là que nous pouvons collectivement faire quelque chose ; si vous travaillez avec des administrations vous savez quoi leur demander ; problème réglé !

En en discutant par mail, LinkedIn ou Twitter, on peut faire assez vite le tour.

Se pose bien sur la question du futur de ces codes sources, ou de comment faire vivre ces codes sources au delà de leur existence actuelle. Idées pêle-mêle :

  • Diffuser cette liste de logiciel auprès des parties prenantes : collectivités, conseils, entreprises du secteur, afin qu’elle soit utilisée au maximum ;
  • Faire en sorte que les entreprises qui utilisent aient aussi une démarche de contributeurs en fixant des bugs / mettant à jour des fonctionnements ;
  • On peut globalement espérer un développement de plusieurs briques autour de standards tels que Grace ou les plans Iti par exemple, qui fonctionneraient comme des communautés Open Source, voire gérées par un consortium, ou une commission d’Infranum, ou autre structure de la filière.

L’étendue des possibles dépasse bien évidemment le cadre de ce document et ne pourra être imaginé que collectivement ; mais il est certain qu’une des conditions favorisant le mouvement Open Source dans un domaine est la contribution significative d’un acteur qui fait le premier pas. Cet acteur pourrait être l’administration française.

Pour suggérer les codes sources manquants, on peut passer par le GitHub de la DISIC ou tout simplement contacter la structure en question, de manière individuelle ou via madada.fr.

Réponse anticipée aux critiques concernant la tendance à l’ouverture des données

Cette tendance de l’ouverture des logiciels du public n’a rien d’une exception française, ou d’un quelconque délire local et temporaire visant à empêcher les ESN et consultants de travailler comme on peut l’entendre. C’est un mouvement à l’échelle mondiale, un peu de lecture récente sur le sujet :

Quant à la crainte que cette initiative ne puisse se déployer largement à cause du fait que la plupart des prestataires de l’état commercialisent des codes sous licence, il faut agir en amont (et en urgence) : la commande publique peut et doit être utilisée comme un outil pour améliorer encore l’efficacité de l’action de l’Etat. C’est un sujet dont il faut se saisir, et un certain nombre d’actions existent dans ce domaine comme les Trophées de la commande publique qui peuvent certainement être mis à contribution.

On en parle ?

Workflow d’ajout sur OpenStreetMap depuis le terrain

Je partage ici deux workflow d’ajout sur OpenStreetMap qui peuvent servir aux néophytes voulant cartographier depuis le terrain. Nécessite un compte.

Version légère (no app)

  1. Aller avec son smartphone directement sur openstreetmap.org
  2. Se localiser avec le GPS
  3. Cliquer sur annotation cf ci dessous
La petite case en vert…

Une fois chez soi, retourner sur la zone (avec ID, par exemple comme ici), retrouver sa note et saisir l’objet proprement. Permet de le faire calmement et de rechercher les bons attributs quand on est débutant (ou quand ils sont complexes).

Protip : prendre l’objet en photo simplifie bien la vie 🙂

Version instrumentée : OsmGo !

  1. Télécharger OsmGo (Android / GitHub)
  2. Se logger sur OSM, sinon ca ne marche pas
  3. Créer l’objet avec « + »

Certains objets (les caméras de vidéosurveillance, avec man_made=surveillance) ont un preset tout fait, mais certains autres objets n’ont pas tous les tags. Une solution consiste à les demander à l’auteur qui est plutôt réactif sur Github / Twitter.

Cette solution a le grand intérêt de fonctionner hors ligne et de permettre d’aller relativement vite, sans avoir à y revenir sur plus tard, lorsque l’objet a cartographier a des preset biens définis dans l’application. Utile quand on cartographie 15+ caméras dans une balade…

Vidéo surveillance, Open Data, et madada.fr

J’ai rempli ce début de semaine sur le site madada.fr une demande pour la libération par la mairie du 7ème arrondissement de Lyon ainsi que la mairie de Fréjus de l’intégralité de l’emplacement des caméras de vidéos surveillances sur l’emprise de leur commune ainsi que les zones surveillées.

Cela fait suite à mes travaux de cartographie des caméras de vidéosurveillance sur OpenStreetMap des villes de Lyon et Fréjus de ce dernier mois.

Le 7ème arrondissement de Lyon, temple de la vie privée ? (celles comprises dans le cercle viennent de moi)

Suite des évènements au plus tard le 11/12/2019 selon la loi. Ayant par ailleurs eu maille avec d’autres administrations publiques avant l’arrivée de ce site, je sais que le délai de réponse n’est pas toujours respecté, et les avis de la CADA ne sont pas toujours suivis… Affaire à suivre donc.

Les liens :

« Versioning » de vos process avec Git

Très connu par les développeurs et de plus en plus par les devops, Git est un système de gestion de code source très puissant (en simplifié, c’est le premier qui rend facile l’utilisation de branches) et avec une large communauté d’utilisateurs.

On peut « détourner » l’usage de Git hors du monde du développement dès qu’on est familier avec l’outil. L’immense majorité du travail de structuration en entreprise doit répondre (entre autres) à ce deux impératifs :

  • être robuste : dans le sens de backupé, dernière version commune et utilisée par tous, certitude d’utiliser la bonne version, source centrale de référénce …
  • être cohérent : c’est à dire que tous les documents afférents à un process doivent être cohérents entre eux. C’est à dire que le mode opératoire x et le process y doivent évoluer ensemble et être dans la même version de manière absolument certaine. Sinon, gare aux trous dans la raquette !
Grand classique : les schémas de process qui ne sont pas tous dans la même version. Attention aux mauvaises surprises à l’éxécution !

La solution, comme le laissait entendre le titre de l’article, passe par Git. Git permet de backuper efficacement tout ce qui n’est pas du binaire, dont les formats ci-dessous, ceux que vous devez viser pour être tranquille sur la durabilité :

  • Markdown : pour écrire de la documentation qui peut se compiler dans d’autres formats
  • XML : LE format de base des documents un peu ouverts ; que ce soit des schémas de processus BPML, des graphiques, des texte sous des formats ouverts.
  • Texte : parce que certaines choses sont en full text, depuis la nuit des temps
  • Code source : c’est quand même l’usage de Git à la base.

Si vous ne savez pas par ou commencer : https://githowto.com est un bon point de départ. Voir GitHub / GitLab si vous vous voulez backuper (privé/gratuit) sur Internet, et une installation de GitLab en local (conseillé) si vous voulez gérer en interne.

One last word : ne gérez pas la documentation générale comme ça ! Utilisez un wiki, c’est la bonne manière. J’y reviendrais un peu plus tard.

Je suis intéressé par des échanges sur ce sujet, notamment via Twitter.

Les tutos des « plombiers du numériques »

Un site à consulter pour tous ceux qui sont intéressés par le déploiement de la fibre optique, de près ou de loin (dans les BE par exemple, pour ceux qui n’ont jamais mis les pieds sur dans une chambre) : https://lesplombiersdunumerique.dokit.io/wiki/Accueil

Les tutos sont très orientés terrain et matériel, la plupart sont proposés par Telenco qui est un distributeur. Ils sont utilisés comme support de formation par le « réseau » Ecoles des Plombiers du numérique (lesplombiersdunumerique.org),  un dispositif d’insertion dans les métiers des infrastructures numériques.

On regrette seulement que ce site n’aborde pas le sujet des microtubes qui sont le vrai point de convergence entre le déploiement de fibre optique et la plomberie… et un point de passage à mon sens obligatoire en terme de simplification pour pouvoir déployer selon les ambitions affichées en France.

Le béton connecté, en avance (de manière surprenante)

Une idée toute simple, qui pourrait exister sur de nombreux types fournitures :

  • BPEO : le plan de câblage à portée de main
  • Chambres (dont plastiques) : meilleure vue d’ensemble avec lien vers le SIG
  • Boitiers d’étages : pour éviter les bêtises en sous-traitance de rang n
  • Fourreaux : faciliter la pose et le contrôle d’occupation du GC

On en parle depuis longtemps, je suis surpris que cela n’existe toujours pas à grande échelle. Il me semble pourtant que c’est typiquement le type de chose ou le premier (d’une taille raisonnable) qui bouge est en mesure de faire basculer vers lui le marché / la norme…