• Open data publique : « On voit les limites dès que les données pourraient remettre en cause le pouvoir établi »
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/open-data-publique-on-voit-les-limites-des-que-les-donnees-pourraient-remett

    Cofondateur de la coopérative Datactivist, spécialisée dans l’ouverture des données notamment dans le secteur public, Samuel Goëta est maître de conférences associé à Sciences Po Aix. Il vient de publier Les Données de la démocratie. Open data, pouvoirs et contre-pouvoirs (C & F éditions, 2024), un ouvrage dans lequel il développe un bilan critique autour des réussites et des limites du mouvement des données ouvertes, près de huit ans après la loi Lemaire, qui a imposé aux administrations d’ouvrir « par défaut » leurs données.

    Malgré cette loi, seules 16 % des collectivités respectaient, fin 2022, leurs obligations en la matière, d’après le dernier état des lieux de l’observatoire open data des territoires.
    Lire l’enquête | Article réservé à nos abonnés Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    Où en est l’ouverture des données publiques aujourd’hui en France ?

    La situation est ambiguë. En apparence, c’est une très belle réussite : l’open data française est en tête des classements internationaux, avec un écosystème public développé et un certain nombre de fleurons d’entreprises et d’associations qui lui sont dédiés, et il y a des usages importants. Mais l’ouverture des données en France est bâtie sur une culture de la transparence assez faible. Celle-ci remonte à l’accès aux documents administratifs, un droit peu connu qui date d’une quarantaine d’années, souvent contourné par les administrations : environ 80 % des demandes ne reçoivent aucune réponse.

    Or, l’open data, c’est mettre à disposition volontairement des jeux de données. Il y a une open data à double vitesse, entre celui qui va intéresser les décideurs pour innover, et celui qui va titiller les élus. On voit ces limites dès qu’on s’intéresse aux subventions, aux données de la commande publique… En clair, dès que ces données pourraient remettre en cause le pouvoir établi. C’est un écosystème fragile qui s’appuie sur une volonté politique, et qui pourrait facilement s’effondrer.
    Comment expliquer la mise en œuvre difficile des obligations nées de la loi Lemaire ?

    A la suite de la loi pour une République numérique de 2016, peu de moyens ont été mis en place. Il y a eu une petite aide à l’association OpenDataFrance. Celle-ci, comme Etalab [un département de la direction interministérielle du numérique, la dinum, chargé de l’ouverture des données publiques], a fait de l’accompagnement – mais pas à l’échelle d’une ouverture des données « par défaut ». Les moyens qu’ont mis les collectivités ont donc beaucoup dépendu de la présence d’une impulsion politique, d’un peu de moyens, d’un intérêt… et, souvent, des bonnes volontés de quelques agents qui ont fait ça sur leur temps libre ou en marge de leurs missions, avec peu de soutien hiérarchique. Cela a accentué les fractures territoriales.

    Par ailleurs, le soutien politique est assez intermittent. Il y a eu une sorte de désintérêt après la loi pour une République numérique. Mais au moment de la pandémie, la question de l’open data est devenue centrale : toutes les décisions étaient prises avec des indicateurs, et il y a aussi eu une vraie demande. Le rapport du député Bothorel, paru fin 2020, a permis de donner une nouvelle impulsion, mais celle-ci n’est plus très claire. Quand on regarde la feuille de route de la Dinum, l’impératif est celui de l’usage des données par l’administration, l’ouverture de celles-ci étant vue comme un acquis du passé. Or c’est encore un chantier important. On manque notamment d’impulsion thématique, comme ce qui s’est passé avec le point d’accès national aux données de transport. Dès lors qu’il y a un usage pensé des données ouvertes qui est proposé, les acteurs vont plus facilement entrer dans la démarche.
    Quels défis identifiez-vous pour favoriser l’usage de l’open data ?

    On a fait de l’open data en pensant qu’en claquant des doigts, des gens allaient s’en servir. Mais il faut aussi aller chercher les usagers potentiels. La moitié du temps de travail d’un responsable d’open data, c’est d’informer.
    Testez votre culture générale avec la rédaction du « Monde »
    Découvrir

    Il y a plusieurs autres sujets. Le premier, c’est de permettre de trouver les bonnes données quand elles existent, ce que j’appelle la « découvrabilité ». Les jeux de données ne sont pas toujours nommés de manière intelligible. Il y a aussi un investissement à faire dans la standardisation des données, en passant par des règles communes pour le nommage et l’organisation des fichiers, comme celles de schema.data.gouv.fr.

    Ensuite, il y a la question de la documentation, c’est-à-dire une description du contenu du jeu de données. Avec Etalab, nous avons calculé que près de six jeux de données sur dix publiés sur data.gouv.fr contenaient une documentation de moins de 1 000 caractères, et un peu moins d’un quart ont une longueur inférieure à celle d’un SMS.

    Enfin, même quand les données existent, l’utilisateur qui cherche à s’en saisir se trouve souvent confronté à un problème de qualité. Je ne parle pas de soucis liés à un usage qui n’avait pas été prévu à l’origine, mais de lacunes dans les données. Par exemple, il y a un nombre encore très important de marchés publics dont le montant renseigné est « zéro » parce que les producteurs estiment qu’il y a secret des affaires. Ces montants sont donc inutilisables. Une solution serait de favoriser les échanges entre les producteurs et les réutilisateurs, ces derniers étant souvent laissés sans réponse.

    Raphaëlle Aubert et Léa Sanchez

    #Open_data #Samuel_Goëta

  • Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/comment-opendatasoft-est-devenue-l-acteur-incontournable-de-l-ouverture-des-

    Malgré un budget doublé cette année, passant d’un à deux millions d’euros, la plate-forme étatique data.gouv.fr a cumulé un retard important face à l’offre privée d’Opendatasoft. « Pendant longtemps, data.gouv.fr s’est positionnée uniquement comme catalogue central de données françaises », analyse Samuel Goëta, maître de conférences à Sciences Po Aix et cofondateur de Datactivist, un cabinet de conseil spécialisé dans l’open data et auteur de l’ouvrage Les Données de la démocratie (2024, C & F Editions).

    « Il n’y a sûrement pas eu les mêmes investissements sur data.gouv.fr que ce qu’Opendatasoft a pu faire sur ses outils », soutient Christian Quest, spécialiste des données, présent à Etalab de 2014 à 2019 et revenu en tant que consultant en 2023. « Porté par deux personnes pendant les premières années (…), data.gouv.fr était très bien fichu mais ça avait un côté plus artisanal », se rappelle-t-il.

    En 2012, Etalab avait même décerné un prix à Opendatasoft. « Au fond, ils s’étaient dit : “en fait c’est ça qu’il faudrait qu’on arrive à faire”… mais avec beaucoup moins d’investissements », ironise Christian Quest. Jean-Marc Lazard préfère mettre en avant la « complémentarité » de sa solution avec celle de l’Etat.

    L’alternative publique compte toutefois plusieurs utilisateurs exclusifs : le ministère de l’intérieur et des outre-mer, celui de la justice, mais aussi des communautés d’agglomération comme le Grand Annecy ou des communes comme Bar-le-Duc.

    L’offre de la Dinum s’est récemment diversifiée en proposant des portails thématiques avec les sites transports.data.gouv.fr, adresse.data.gouv.fr et, plus récemment, meteo.data.gouv.fr. Dans les prochains mois paraîtra ecologie.data.gouv.fr. Dans la feuille de route 2024 de la plate-forme publique, de nombreuses évolutions prévues rappellent d’ailleurs les fonctionnalités d’Opendatasoft.

    Ces améliorations sont suivies de près par les administrations. Le ministère de la culture se dit prêt à faire évoluer ses choix techniques « si le rapport coût/efficience du service rendu s’avérait favorable ». La publication directe grâce aux outils de data.gouv.fr permettrait de réaliser des économies importantes pour les administrations, précise la Dinum. D’autant plus que ses équipes doivent « moissonner » quotidiennement les données des portails externes pour les centraliser sur data.gouv.fr – une opération coûteuse et complexe.

    Et n’oublions pas que le libre n’est pas forcément gratuit. La lberté a un prix.

    Le choix de l’open source intégral reste rare, souvent le fruit de volontés individuelles, d’agents ou d’élus. Il concerne surtout des régions ou des métropoles, comme celle du Grand Lyon. Aidée par l’arrivée d’un « doctorant mouton à cinq pattes », l’équipe technique de l’agglomération est devenue l’un des précurseurs dans la mutualisation d’une solution open source, aujourd’hui utilisée par la Nouvelle-Aquitaine et Provence-Alpes-Côte d’Azur. Si celle-ci est maintenue par un éditeur, Neogeo, l’ouverture du code garantit une indépendance : « L’avantage c’est que cette solution n’est pas une boîte noire (…) et si Neogeo fait faillite on peut récupérer toutes les sources, toute l’infrastructure logicielle », souligne Emmanuel Gastaud, responsables des données métropolitaines.

    Le Grand Lyon débourse 100 000 euros par an pour l’hébergement, la supervision et la maintenance. Il compte aussi sur le travail de 4 ou 5 équivalents temps plein. Un investissement apprécié localement – le portail abrite les données d’une vingtaine de communes du territoire – mais très éloigné des budgets « open data » de nombreuses administrations. Pour celles qui en ont un.

    Le livre de Samuel Goëta explique les raisons, problèmes et solutions de l’open data en France.
    https://cfeditions.com/donnees-ouvertes


    #Open_data #Public_privé #Logiciel_libre