• Recension du livre « Les données de la démocratie » de Samuel Goëta | LinkedIn
    https://www.linkedin.com/feed/update/urn:li:activity:7184452712401371136

    Recension du livre « Les données de la démocratie » de Samuel Goëta.

    Elsa Foucraut • Consultante • Enseignante • Autrice du "Guide du Plaidoyer" (éditions Dunod)

    💡"L’ouverture des données en France, rendue obligatoire par la loi pour une République numérique, ressemble à bien des égards à la tour de Pise. Ce superbe édifice, qui attire les regards du monde entier, doit son inclinaison à des fondations instables.”

    📚 Lecture du jour : "Les données de la démocratie" de Samuel Goëta (C & F EDITIONS), avec une préface de l’ancienne ministre du numérique Axelle Lemaire.

    Depuis 2016, la loi impose à toutes les administrations françaises le principe de l’open data par défaut. Pourtant, quiconque a déjà eu besoin d’accéder à des données d’intérêt général non publiques mesure à quel point le principe est loin d’être pleinement appliqué (euphémisme). De vraies fractures territoriales se creusent entre les collectivités, accéder aux données relève souvent du saut d’obstacles, et les données disponibles sur les portails open data des collectivités sont parfois décevantes.

    Le livre revient d’abord en détail sur l’histoire de l’open data : des origines aux étapes plus récentes, avec la création d’Etalab et la loi pour une République numérique. Une belle synthèse, avec plein de références et d’anecdotes que je ne connaissais pas. Il manquait justement un livre de référence pour retracer cette histoire contemporaine, avec le versant français.

    Mais ce sont les chapitres sur le bilan critique de l’open data, qui m’ont semblé les plus intéressants. Certes, les obstacles à l’open data tiennent parfois à la résistance consciente de certains agents (un "DataBase Hugging Disorder" ou DBHD 😅).

    Mais Samuel Goëta montre que cela tient le plus souvent à des frictions organisationnelles et/ou techniques : les agents n’ont pas toujours le mandat pour ouvrir des données qui pourraient servir l’opposition ou remettre en question l’action des élus ; de nombreux projets d’open data sont conçus comme des projets servant d’abord l’image de l’institution, sans les moyens de leur ambition ; la mauvaise qualité des données peut s’expliquer par le fait que les données d’une administration étaient d’une qualité suffisante pour un usage interne et n’avaient pas été envisagées pour un usage externe ; les problèmes techniques sont fréquents et l’ouverture se transforme parfois en une véritable enquête dans les serveurs quand les techniciens n’ont pas accès aux "schémas de base" ; et les agents sont parfois réticents parce qu’ils anticipent des usages malveillants des données, ou bien ont une interprétation excessive du RGPD (un grand classique !).

    L’ouvrage préconise notamment une refonte du droit d’accès aux données : transférer à la CNIL l’arbitrage de l’accès aux données individuelles traitées par les acteurs publics ; intégrer la Cada dans la HATVP ; donner à la CADA le pouvoir de sanctionner les administrations récalcitrantes ; créer un “référé communication” pour accélérer le traitement des demandes. Pourquoi pas !

    ➡ "Faut tout donner afin de changer les données" : une citation de NTM (oui oui) qui sert de conclusion au livre ;-)

    #Samuel_Goëta #Open_data #Données_démocratie

  • « L’ouverture des données ressemble à la tour de Pise » | La Gazette des communes
    https://www.lagazettedescommunes.com/916856/louverture-des-donnees-ressemble-a-la-tour-de-pise

    Auteur des « Données de la démocratie, open data, pouvoirs et contre-pouvoirs », paru en janvier, le sociologue Samuel Goëta dresse un bilan critique de l’émergence de l’open data, entre renouvellement de la transparence en demi-teinte, transformation des administrations inaboutie et promesses de croissance et d’innovation non tenues.

    Défendre l’ouverture des données publiques pour revitaliser la démocratie, c’est la conviction développée par ­Samuel ­Goëta dans son ouvrage paru le mois dernier, « Les Données de la démocratie, open data, pouvoirs et contre-pouvoirs », (C&F éd.). Sociologue, maître de conférences associé à ­Sciences-po Aix, cofondateur de la société coopérative et participative spécialisée dans l’open data ­Datactivist, il a aussi participé à la création de l’association Open ­Knowledge France, en 2012, qui anime « ­madada.fr », visant à faciliter les demandes d’accès aux données et aux documents administratifs.

    Samuel ­Goëta revient sur la naissance et l’émergence de l’open data, ce mouvement encourageant le libre usage des données, et en dresse un bilan critique, entre renouvellement de la transparence en demi-teinte, promesses de croissance et d’innovation non tenues, et transformation des administrations indéniable mais non aboutie. Ainsi, si ce sont bien des collectivités pionnières qui ont impulsé les premières politiques d’ouverture de données, seules 16 % de celles qui sont concernées par la loi « Lemaire » respectent leurs obligations en la matière, et les données ouvertes sont loin d’être les plus sensibles, pointant les fragilités de la transparence administrative.

    Riche sur les plans théorique et pratique, car nourrie d’exemples et de cas d’usage, la réflexion développée dans ce livre croise plusieurs champs : sociologie, histoire, science politique, design de politiques publiques… Il avance aussi des propositions pour concourir à une nouvelle étape de l’ouverture des données au service du renforcement de la démocratie.
    Quelle est la situation en matière d’open data en France ?

    Quand on regarde du côté des classements, la France fait partie des pays les plus avancés en matière d’open data. Pour autant, seules 16 % des collectivités concernées par la loi pour une République numérique ont respecté leurs obligations en la matière et il existe une fracture entre grandes et petites collectivités avec, d’un côté, les grandes métropoles, les régions et une large majorité des départements qui se sont saisis de leurs obligations et, de l’autre, les plus petites communes et intercommunalités. L’ouverture des données demande des moyens et sa mise en œuvre crée de nouvelles fractures entre les territoires.

    Et lorsqu’on s’intéresse aux jeux de données publiés, on s’aperçoit de leur grande disparité puisqu’il peut s’agir de l’agenda des élus, des menus dans les cantines… Mais dès lors que les données sont sensibles, elles manquent à l’appel. En effet, plus on s’approche de ce genre de données, qui peuvent questionner le mandat des élus ou remettre en cause leurs politiques, moins ces jeux sont ouverts.

    L’open data met ainsi en lumière les fragilités de la transparence administrative. Malgré l’ancienneté de la loi « Cada » (du 17 juillet 1978, ndlr), les circuits organisationnels de la transparence sont encore balbutiants et elle reste presque un acte politique alors qu’elle est très largement codifiée par le code des relations entre le public et l’administration. L’ouverture des données en France ressemble donc un peu à la tour de Pise, un édifice penché du fait de ses fondations instables.
    Comment expliquer ces fondations instables ?

    L’ouverture des données charriait avec elle trois grandes promesses : renouveler la transparence, créer de l’innovation et des emplois, et transformer l’administration. C’est cette dernière qui a sans doute été sous-évaluée et qui apporte le plus de bénéfices. Pour la transparence, bien qu’entré dans la loi, le principe d’open data par défaut ne suffit pas à donner aux agents la possibilité de publier des données sans obtenir de validation.

    On voit que l’open data n’a pas agi comme une « machine à révélations ». Concernant l’innovation et l’emploi, les attentes étaient faramineuses. En interne, en revanche, l’open data a participé à une grande transformation des collectivités, en augmentant leur maturité sur ces sujets. Nombreuses sont celles qui, engagées dans l’open data, ont travaillé sur la gouvernance des données, ce qui leur a été bénéfique : les métropoles de Lille, Rennes, Nantes, Lyon ou encore Bordeaux.
    Comment continuer de nourrir ou de réinventer notre rapport aux données ?

    Notre rapport à l’open data a déjà massivement changé du fait du ­Covid-19. Plusieurs outils, comme ­Covidtracker, ont renouvelé le plaidoyer pour l’ouverture des données, en faisant de l’open data un outil essentiel de gestion de la crise sanitaire. La pandémie a vraiment remis l’open data à l’agenda, quand chaque geste de notre vie quotidienne était déterminé par des chiffres, un graphique, une courbe…

    Toutefois, quand j’ai été auditionné par la mission « data et territoires » dans le cadre du rapport remis à Stanislas ­Guerini (ministre de la Transformation et de la fonction publiques, ndlr), en novembre, j’ai défendu l’idée que les politiques d’open data ne se suffisent pas à elles-mêmes : il manque une sensibilisation à grande échelle des citoyens pour qu’ils puissent se saisir du pouvoir des données et renouveler le débat démocratique. C’est comme si le mariage entre les acteurs de la participation citoyenne et de l’open data ne s’était pas fait.
    Que proposez-vous pour que les données ouvertes renforcent la démocratie ?

    On constate une prise de conscience généralisée de l’importance des données dans la conduite des politiques publiques. Comment accompagner toutes ces collectivités qui se sont saisies de la loi « ­Lemaire » ? Comment aider les autres à s’en emparer ? Je propose des pistes d’action via trois chantiers : obtenir les données manquantes, améliorer la fiabilité et la qualité des données ouvertes, et développer la culture des données. En effet, un certain nombre de données ne sont pas encore ouvertes, et un nouvel acte du droit d’accès aux documents administratifs me paraît essentiel. Il faut aussi donner plus de corps à la notion de données d’intérêt général, permettant d’aller jusqu’à la réquisition de données. Ensuite, améliorer la fiabilité et la qualité suppose un travail organisationnel. Il est important de continuer de vulgariser l’open data auprès du grand public et l’intégrer dans les procédures de démocratie participative.

    De plus, trop souvent encore, les administrations considèrent les données personnelles comme une matière radioactive et oublient que l’anonymisation et la pseudonymisation existent. Par ailleurs, l’association Open Data France s’est récemment engagée dans une démarche de redéfinition de son action : doit-elle élargir son champ d’intervention, historiquement centré sur l’open data ? Des questions émergent sur la standardisation, l’acculturation à la donnée, la transparence algorithmique, et il reste beaucoup à faire.

    #Samuel_Goeta #Open_data #Communes

  • Open data publique : « On voit les limites dès que les données pourraient remettre en cause le pouvoir établi »
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/open-data-publique-on-voit-les-limites-des-que-les-donnees-pourraient-remett

    Cofondateur de la coopérative Datactivist, spécialisée dans l’ouverture des données notamment dans le secteur public, Samuel Goëta est maître de conférences associé à Sciences Po Aix. Il vient de publier Les Données de la démocratie. Open data, pouvoirs et contre-pouvoirs (C & F éditions, 2024), un ouvrage dans lequel il développe un bilan critique autour des réussites et des limites du mouvement des données ouvertes, près de huit ans après la loi Lemaire, qui a imposé aux administrations d’ouvrir « par défaut » leurs données.

    Malgré cette loi, seules 16 % des collectivités respectaient, fin 2022, leurs obligations en la matière, d’après le dernier état des lieux de l’observatoire open data des territoires.
    Lire l’enquête | Article réservé à nos abonnés Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    Où en est l’ouverture des données publiques aujourd’hui en France ?

    La situation est ambiguë. En apparence, c’est une très belle réussite : l’open data française est en tête des classements internationaux, avec un écosystème public développé et un certain nombre de fleurons d’entreprises et d’associations qui lui sont dédiés, et il y a des usages importants. Mais l’ouverture des données en France est bâtie sur une culture de la transparence assez faible. Celle-ci remonte à l’accès aux documents administratifs, un droit peu connu qui date d’une quarantaine d’années, souvent contourné par les administrations : environ 80 % des demandes ne reçoivent aucune réponse.

    Or, l’open data, c’est mettre à disposition volontairement des jeux de données. Il y a une open data à double vitesse, entre celui qui va intéresser les décideurs pour innover, et celui qui va titiller les élus. On voit ces limites dès qu’on s’intéresse aux subventions, aux données de la commande publique… En clair, dès que ces données pourraient remettre en cause le pouvoir établi. C’est un écosystème fragile qui s’appuie sur une volonté politique, et qui pourrait facilement s’effondrer.
    Comment expliquer la mise en œuvre difficile des obligations nées de la loi Lemaire ?

    A la suite de la loi pour une République numérique de 2016, peu de moyens ont été mis en place. Il y a eu une petite aide à l’association OpenDataFrance. Celle-ci, comme Etalab [un département de la direction interministérielle du numérique, la dinum, chargé de l’ouverture des données publiques], a fait de l’accompagnement – mais pas à l’échelle d’une ouverture des données « par défaut ». Les moyens qu’ont mis les collectivités ont donc beaucoup dépendu de la présence d’une impulsion politique, d’un peu de moyens, d’un intérêt… et, souvent, des bonnes volontés de quelques agents qui ont fait ça sur leur temps libre ou en marge de leurs missions, avec peu de soutien hiérarchique. Cela a accentué les fractures territoriales.

    Par ailleurs, le soutien politique est assez intermittent. Il y a eu une sorte de désintérêt après la loi pour une République numérique. Mais au moment de la pandémie, la question de l’open data est devenue centrale : toutes les décisions étaient prises avec des indicateurs, et il y a aussi eu une vraie demande. Le rapport du député Bothorel, paru fin 2020, a permis de donner une nouvelle impulsion, mais celle-ci n’est plus très claire. Quand on regarde la feuille de route de la Dinum, l’impératif est celui de l’usage des données par l’administration, l’ouverture de celles-ci étant vue comme un acquis du passé. Or c’est encore un chantier important. On manque notamment d’impulsion thématique, comme ce qui s’est passé avec le point d’accès national aux données de transport. Dès lors qu’il y a un usage pensé des données ouvertes qui est proposé, les acteurs vont plus facilement entrer dans la démarche.
    Quels défis identifiez-vous pour favoriser l’usage de l’open data ?

    On a fait de l’open data en pensant qu’en claquant des doigts, des gens allaient s’en servir. Mais il faut aussi aller chercher les usagers potentiels. La moitié du temps de travail d’un responsable d’open data, c’est d’informer.
    Testez votre culture générale avec la rédaction du « Monde »
    Découvrir

    Il y a plusieurs autres sujets. Le premier, c’est de permettre de trouver les bonnes données quand elles existent, ce que j’appelle la « découvrabilité ». Les jeux de données ne sont pas toujours nommés de manière intelligible. Il y a aussi un investissement à faire dans la standardisation des données, en passant par des règles communes pour le nommage et l’organisation des fichiers, comme celles de schema.data.gouv.fr.

    Ensuite, il y a la question de la documentation, c’est-à-dire une description du contenu du jeu de données. Avec Etalab, nous avons calculé que près de six jeux de données sur dix publiés sur data.gouv.fr contenaient une documentation de moins de 1 000 caractères, et un peu moins d’un quart ont une longueur inférieure à celle d’un SMS.

    Enfin, même quand les données existent, l’utilisateur qui cherche à s’en saisir se trouve souvent confronté à un problème de qualité. Je ne parle pas de soucis liés à un usage qui n’avait pas été prévu à l’origine, mais de lacunes dans les données. Par exemple, il y a un nombre encore très important de marchés publics dont le montant renseigné est « zéro » parce que les producteurs estiment qu’il y a secret des affaires. Ces montants sont donc inutilisables. Une solution serait de favoriser les échanges entre les producteurs et les réutilisateurs, ces derniers étant souvent laissés sans réponse.

    Raphaëlle Aubert et Léa Sanchez

    #Open_data #Samuel_Goëta

  • Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/comment-opendatasoft-est-devenue-l-acteur-incontournable-de-l-ouverture-des-

    Malgré un budget doublé cette année, passant d’un à deux millions d’euros, la plate-forme étatique data.gouv.fr a cumulé un retard important face à l’offre privée d’Opendatasoft. « Pendant longtemps, data.gouv.fr s’est positionnée uniquement comme catalogue central de données françaises », analyse Samuel Goëta, maître de conférences à Sciences Po Aix et cofondateur de Datactivist, un cabinet de conseil spécialisé dans l’open data et auteur de l’ouvrage Les Données de la démocratie (2024, C & F Editions).

    « Il n’y a sûrement pas eu les mêmes investissements sur data.gouv.fr que ce qu’Opendatasoft a pu faire sur ses outils », soutient Christian Quest, spécialiste des données, présent à Etalab de 2014 à 2019 et revenu en tant que consultant en 2023. « Porté par deux personnes pendant les premières années (…), data.gouv.fr était très bien fichu mais ça avait un côté plus artisanal », se rappelle-t-il.

    En 2012, Etalab avait même décerné un prix à Opendatasoft. « Au fond, ils s’étaient dit : “en fait c’est ça qu’il faudrait qu’on arrive à faire”… mais avec beaucoup moins d’investissements », ironise Christian Quest. Jean-Marc Lazard préfère mettre en avant la « complémentarité » de sa solution avec celle de l’Etat.

    L’alternative publique compte toutefois plusieurs utilisateurs exclusifs : le ministère de l’intérieur et des outre-mer, celui de la justice, mais aussi des communautés d’agglomération comme le Grand Annecy ou des communes comme Bar-le-Duc.

    L’offre de la Dinum s’est récemment diversifiée en proposant des portails thématiques avec les sites transports.data.gouv.fr, adresse.data.gouv.fr et, plus récemment, meteo.data.gouv.fr. Dans les prochains mois paraîtra ecologie.data.gouv.fr. Dans la feuille de route 2024 de la plate-forme publique, de nombreuses évolutions prévues rappellent d’ailleurs les fonctionnalités d’Opendatasoft.

    Ces améliorations sont suivies de près par les administrations. Le ministère de la culture se dit prêt à faire évoluer ses choix techniques « si le rapport coût/efficience du service rendu s’avérait favorable ». La publication directe grâce aux outils de data.gouv.fr permettrait de réaliser des économies importantes pour les administrations, précise la Dinum. D’autant plus que ses équipes doivent « moissonner » quotidiennement les données des portails externes pour les centraliser sur data.gouv.fr – une opération coûteuse et complexe.

    Et n’oublions pas que le libre n’est pas forcément gratuit. La lberté a un prix.

    Le choix de l’open source intégral reste rare, souvent le fruit de volontés individuelles, d’agents ou d’élus. Il concerne surtout des régions ou des métropoles, comme celle du Grand Lyon. Aidée par l’arrivée d’un « doctorant mouton à cinq pattes », l’équipe technique de l’agglomération est devenue l’un des précurseurs dans la mutualisation d’une solution open source, aujourd’hui utilisée par la Nouvelle-Aquitaine et Provence-Alpes-Côte d’Azur. Si celle-ci est maintenue par un éditeur, Neogeo, l’ouverture du code garantit une indépendance : « L’avantage c’est que cette solution n’est pas une boîte noire (…) et si Neogeo fait faillite on peut récupérer toutes les sources, toute l’infrastructure logicielle », souligne Emmanuel Gastaud, responsables des données métropolitaines.

    Le Grand Lyon débourse 100 000 euros par an pour l’hébergement, la supervision et la maintenance. Il compte aussi sur le travail de 4 ou 5 équivalents temps plein. Un investissement apprécié localement – le portail abrite les données d’une vingtaine de communes du territoire – mais très éloigné des budgets « open data » de nombreuses administrations. Pour celles qui en ont un.

    Le livre de Samuel Goëta explique les raisons, problèmes et solutions de l’open data en France.
    https://cfeditions.com/donnees-ouvertes


    #Open_data #Public_privé #Logiciel_libre

  • #OpenDataDay - les faits d’hiver de l’open data | Datactivist
    https://odoo.datactivist.coop/event/opendataday-les-faits-d-hiver-de-l-open-data-2024-03-07-3/register
    https://odoo.datactivist.coop

    En 2017, un utilisateur de Reddit du doux nom de saladedepdt postait sur r/france un message intitulé "Data.gouv, ou comment perdre des heures à se promener dans des banques de données." Son message, qui est resté dans nos mémoires et en tête du reddit r/france pendant plusieurs jours, part d’un émerveillement pour data.gouv.fr et les trésors de données qu’on y trouve "Data.gouv : ce site est génial. J’y ai appris une quantité astronomique de choses inutiles et donc indispensables à ma vie". Il cite quelques unes de ces trouvailles, voici nos favorites :

    il y a eu 29 278 771€ de dépenses en « produits contre la dysfonction érectile » en Île-de-France en 2013.

    Il y a plus d’agents cynophiles (309) que de chiens (278) dans la police municipale en France.

    La France a produit officiellement 4 785 561 700 de litres de vin en 2015 (quatre milliards sept cent quatre-vingt-cinq millions cinq cent soixante et un mille sept cents ), mais seulement 4800 litres (quatre mille huit cents) ont été produits par les départements du Nord et du Pas-de-Calais réunis. Heureusement on a la bière.

    Chez Datactivist, nous avons adoré cette idée et, depuis quelques années, il nous arrive de repartir avec nos clients et nos partenaires à la recherche de faits improbables, drôles ou intrigants pour leur faire découvrir l’open data. À chaque fois, nous en ressortons avec quelques fous rires et des découvertes saugrenues et les participants voient l’open data sous un jour plus ludique en découvrant des trésors de données.

    A l’occasion de la journée internationale de l’open data, nous vous proposons vous aussi de découvrir les faits les plus improbables ou curieux sur les portails open data. Pendant 2h, sur Twitch animé par Margaux Larre-Perez et Samuel Goëta, nous vous aiderons à découvrir les "faits d’hiver" de l’open data tout en échangeant avec des curateurs de données qui vous partageront leur métier de sélectionner et valoriser les plus belles perles de l’open data. Le programme détaillé sera annoncé très prochainement.

    #Open_data #Datactivist

  • Parution du livre « Les données de la démocratie : open data, pouvoirs et contre-pouvoirs » - Veille - #TeamOpenData
    https://teamopendata.org/t/parution-du-livre-les-donnees-de-la-democratie-open-data-pouvoirs-et-contre-pouvoirs/4432/2

    Enro
    Antoine Blanchard
    6 j

    Bravo et merci pour cet ouvrage @samgoeta ! J’avais peur de m’ennuyer à la lecture de cet ouvrage « grand public » mais sa lecture m’a passionné, il est bien écrit et tu mêles intelligemment les grandes notions avec des exemples concrets. Et même si on connaît bien l’open data ou les communs numériques on peut apprendre des choses sur le droit d’accès, sur la transparence de l’action publique, ou les hackers citoyens… le livre est tellement riche !

    J’ai particulièrement apprécié tes recommandations en fin d’ouvrage, en espérant qu’elles soient suivies d’effet. En ce qui concerne le chapitre sur les stratégies alternatives pour obtenir des données, j’aurais apprécié quelques conseils pratiques pour passer à l’action, par exemple en matière de scraping (une technique prometteuse qui n’est pas forcément à la portée du premier venu, alors qu’il existe forcément des outils incontournables à connaître ?!). A part cette frustration et quelques coquilles (je ne les ai pas notées, désolé), c’est un sans faute (et encore je ne parle pas de l’introspection d’Axelle Lemaire, qui vaut aussi le détour) :slight_smile :

    #Open_data #Samuel_Goeta #Données_démocratie

  • L’Open data : un pilier de la démocratie contemporaine, selon Samuel Goëta | La Netscouade
    https://lanetscouade.com/picks/l-open-data-un-pilier-de-la-democratie-contemporaine-selon-samuel-goet

    Culture digitale

    Dans une interview avec La Netscouade, Samuel Goëta, expert en données et auteur d’un livre sur l’Open data, dévoile les motivations derrière son ouvrage « Les données de la démocratie, Open data, pouvoirs et contre-pouvoirs » et explore le rôle crucial que l’Open data joue dans la gouvernance contemporaine. Convaincu que la transparence des données renforce la démocratie, Samuel expose les défis actuels, les avancées en France et les perspectives pour un usage plus éclairé de l’information.

    

    Dans son livre "Les données de la démocratie", @samgoeta présente les origines du mouvement #opendata et pose un bilan critique de ses réalisations et propose des pistes d’action pour que les données ouvertes renforcent la démocratie https://t.co/GNQTpA04i1 pic.twitter.com/LlTplaS6ZE
    — La Netscouade (@LaNetscouade) February 22, 2024

    Une décennie d’Open data

    Pour clarifier le concept, Samuel simplifie la définition de l’Open data. Il explique, "Ce sont des données librement réutilisables, tant d’un point de vue technique que juridique. Elles sont lisibles par les machines dans des formats ouverts, et on peut les utiliser librement." L’élément clé est la précision des données, allant au-delà des chiffres globaux pour offrir un accès détaillé, tout en respectant la vie privée grâce à l’anonymisation des données.

    L’Open data, selon Samuel, est bien plus qu’une tendance récente. Il explique, "L’open data, c’est un mouvement qui existe depuis à peu près une dizaine d’années et qui a souvent été un peu sous-évalué pour son intérêt pour la démocratie." Dans son livre, Samuel défend l’idée que l’ouverture des données renforce la démocratie en permettant un débat éclairé, la réévaluation des calculs et l’émergence de nouvelles interprétations des données circulant dans le débat public.
    Quelle est l’utilisation aujourd’hui de l’Open data ?

    Samuel souligne que la France n’est pas en retard dans le mouvement actuel. Il affirme, "En France, on est loin d’être en retard sur cette question-là, au contraire." En effet, les politiques d’Open data sont ancrées dans la loi, notamment la loi pour une République numérique, instaurant le principe d’ouverture des données par défaut pour les administrations et les collectivités territoriales. Cependant, il met en lumière des défis démocratiques, soulignant des problèmes liés à la transparence et à l’application du droit d’accès aux documents administratifs.

    Par ailleurs, dans un monde marqué par la pandémie, Samuel observe un appétit croissant de la société pour les données. Il mentionne, "Il y a qu’à regarder l’époque de la pandémie où tout le monde subissait des décisions prises avec des données et où il y a eu un très fort appétit pour utiliser ces données-là." Des initiatives civiles telles que CovidTracker ont émergé, illustrant la demande croissante de données précises. Des médias, tels que Rape Miner, utilisent des données pour analyser les paroles de rap, tandis que des émissions populaires comme DataGueule renforcent la culture de la donnée.
    L’Open data, un pilier de la démocratie ?

    Interrogé sur le potentiel de l’Open data comme pilier de la démocratie, Samuel est convaincu que c’est déjà une réalité. Il affirme, “C’est déjà un peu un pilier de la vie démocratique en fait, dès qu’on est dans une situation de crise, comme la crise énergétique, comme dans la situation de la pandémie, quand on voit même sur la crise en Ukraine, on va se tourner vers les données.” En période de crise, que ce soit face à une pandémie ou à une crise énergétique, les données deviennent essentielles pour alimenter un débat éclairé.

    Samuel souligne l’Open data comme un outil impulsé par le pouvoir, enraciné dans les lois et les politiques, mais également alimentant les contre-pouvoirs. Il déclare, "L’open data, c’est, d’une certaine manière, un outil impulsé par le pouvoir. C’est à dire que c’était une loi qui a été adoptée dans les collectivités territoriales." Cette dualité crée un équilibre essentiel, où les citoyens, la société civile, les chercheurs et les journalistes peuvent débattre de manière éclairée, contester et réévaluer les décisions.

    Concernant la protection des données personnelles, Samuel rassure en soulignant que l’Europe dispose d’une législation robuste, notamment le RGPD. Il explique, "Il se trouve qu’en Europe, on a une législation sur la protection des données qui est une des plus fortes, qui est le RGPD." Il souligne que l’Open data renforce la culture de la vie privée, avec des données généralement dépourvues d’informations personnelles.

    L’interview se conclut par un message d’espoir de la part de Samuel. Il conclut, "Une bonne raison de lire ce livre c’est qu’il se termine par un message d’espoir. Et le message du livre, ce n’est pas juste de se saisir des données, mais c’est aussi comment est-ce qu’on peut approfondir et étendre la démocratie." Son livre ne se limite pas à encourager l’utilisation des données, mais explore également comment approfondir et étendre la démocratie. Un appel à renforcer les contre-pouvoirs et à équilibrer le débat démocratique, dans lequel les données ouvertes jouent un rôle central.

    À travers cette interview, Samuel Goëta offre une perspective éclairante sur l’Open data, un sujet qui se positionne au cœur des enjeux démocratiques contemporains. Ses paroles enrichissent le débat sur la transparence, la participation citoyenne et l’avenir de la gouvernance. Son livre devient ainsi une lecture incontournable pour ceux qui s’intéressent à ces questions cruciales.

    #Open_data #Samuel_Goeta

  • Parution du livre « Les données de la démocratie : open data, pouvoirs et contre-pouvoirs » - Veille - #TeamOpenData
    https://teamopendata.org/t/parution-du-livre-les-donnees-de-la-democratie-open-data-pouvoirs-et-contre-pouvoirs/4432/2?u=samgoeta

    Enro
    Antoine Blanchard
    6 h

    Merci pour cet ouvrage @samgoeta ! J’avais peur de m’ennuyer à la lecture de cet ouvrage « grand public » mais sa lecture m’a passionné, tu écris bien et tu mêles intelligemment les grandes notions avec des exemples concrets. Et même si on connaît bien l’open data ou les communs numériques on peut apprendre des choses sur le droit d’accès, sur la transparence de l’action publique, ou les hackers citoyens… le livre est tellement riche !

    J’ai particulièrement apprécié tes recommandations en fin d’ouvrage, en espérant qu’elles soient suivies d’effet. En ce qui concerne le chapitre sur les stratégies alternatives pour obtenir des données, j’aurais apprécié quelques conseils pratiques pour passer à l’action, par exemple en matière de scraping (une technique prometteuse qui n’est pas forcément à la portée du premier venu, alors qu’il existe forcément des outils incontournables à connaître ?!). A part cette frustration et quelques coquilles (je ne les ai pas notées, désolé), c’est un sans faute (et encore je ne parle pas de l’introspection d’Axelle Lemaire, qui vaut aussi le détour) :slight_smile :


    https://cfeditions.com/donnees-democratie

    #Samuel_Goëta #Open_data #Données_démocratie

  • Je découvre #duckdb
    https://duckdb.org/docs/archive/0.9.2

    Quel merveilleux outil pour travailler avec open data.

    Merci @simplicissimus pour ce lien vers la présentation à Toulouse.
    https://seenthis.net/messages/1038730

    Côté pratique c’est mpressionnant

    Data Import & Export

    CSV Import
    CSV Export
    Parquet Import
    Parquet Export
    Query Parquet
    HTTP Parquet Import
    S3 Parquet Import
    S3 Parquet Export
    JSON Import
    JSON Export
    Excel Import
    Excel Export
    SQLite Import
    PostgreSQL Import

    Tout sauf du #PHP

    There are various client APIs for DuckDB:

    C
    C++
    Java
    Julia
    Node.js
    Python
    R
    Rust
    WebAssembly/Wasm
    ADBC API
    ODBC API

    Additionally, there is a standalone Command Line Interface (CLI) client.

    There are also contributed third-party DuckDB wrappers for:

    C# by Giorgi
    Common Lisp by ak-coram
    Crystal by amauryt
    Go by marcboeker
    Ruby by suketa
    Zig by karlseguin

    Les arguments pour
    https://duckdb.org/why_duckdb

    ... what goals DuckDB has and why and how we try to achieve those goals through technical means. To start with, DuckDB is a relational (table-oriented) DBMS that supports the Structured Query Language (SQL)
    ...
    no external dependencies ...
    no DBMS server software to install ...
    support for complex queries in SQL with a large function library ...

    DuckDB is deeply integrated into Python and R for efficient interactive data analysis. DuckDB provides APIs for Java, C, C++, Julia, Swift, and others.
    ...
    DuckDB is released under the very permissive MIT License
    etc.

    don’t

    High-volume transactional use cases (e.g., tracking orders in a webshop)
    Large client/server installations for centralized enterprise data warehousing
    Writing to a single database from multiple concurrent processes
    Multiple concurrent processes reading from a single writable database

    mais

    PHP example to integrate DuckDB using PHP-FFI
    https://github.com/thbley/php-duckdb-integration

    Currently there is no PHP extension available for using DuckDB, so I created a small library using PHP-FFI.

    DuckDB is an embeddable SQL OLAP database management system. It does not require external servers. Databases are stored in single files (similar to SQLite). Compared to SQLite, DuckDB is much faster. E.g. I imported 16M rows from a CSV file in 5s on my notebook (i5-8250U).

    DuckDB can import CSV files with automatic format detection and automatic table creation using:

    CREATE TABLE test1 AS SELECT FROM read_csv_auto(’test1.csv’);
    CREATE TABLE test2 AS SELECT
    FROM read_csv_auto(’test2.csv.gz’);

    Usage:

    php -dffi.enable=1 test.php

    or:

    docker build -t php-ffi .
    docker run -it —rm -v $(pwd):/code php-ffi php /code/test.php

    Requirements:

    PHP 7.4+ with FFI extension enabled

    Question / défi

    Directly running DuckDB queries on data stored in SQLite files | Hacker News
    https://news.ycombinator.com/item?id=30801575

    #SQL #open_data

  • Meetup Eric Mauvière - Avec DuckDB, gavez-vous d’open data ! - YouTube
    https://www.youtube.com/watch?v=ajo0VBXT6ho

    Nouveau venu parmi les moteurs de requêtes, le « canard » bluffe les habitués par sa vélocité et sa simplicité d’usage. Avec un SQL moderne et amical, il écume tous les formats : CSV, Parquet, JSON et bien d’autres, y compris en ligne. Il se joue de vos dataframes R, Pandas ou Polars et se régale aussi avec les données spatiales.

    Pour vous donner envie de « quacker », rejoignez-nous pour cette présentation basée sur des cas d’usage concrets : elle vous ouvrira de nouveaux espaces et de belles envolées.

    00:00 Introduction
    05:49 Comment utiliser DuckDB
    36:45 Quelques points forts de DuckDB
    47:24 DuckDB, D’ou ça sort ?
    49:43 Savoir utiliser les nouveaux formats orientés colonnes..
    1:00:05 Perspectives et limites

  • Une #île_artificielle pour déporter les palestiniens ?

    Ce lundi 22 janvier à Bruxelles, une réunion du Conseil des affaires étrangères de l’Union Européenne était organisée, en présence de Ministres des 27 États membres ainsi que du représentant d’Israël, invité pour parler de la situation au Proche-Orient.

    À cette occasion, le chef de la diplomatie Israélienne, #Israël_Katz, a proposé la construction d’une île artificielle en #Méditerranée, au large de Gaza, pour y “loger” la population palestinienne, selon les mot du journal anglais The Guardian. Le ministre a montré deux vidéos lors de cette réunion, l’une montrant une ligne de train reliant Gaza à la Cisjordanie, et l’autre montrant ce projet d’île artificielle comprenant un port, une zone industrielle et des habitations. Cette modélisation d’île hautement militarisée et comprenant des checkpoints parait toutefois bien trop petite pour y déporter un grand nombre de palestiniens.

    Cette proposition semble aussi dystopique que déplacée, car cette réunion avait pour objectif de discuter de la crise humanitaire qui frappe Gaza et les moyens d’aller vers une désescalade de la violence. Josep Borell, le représentant des affaires étrangères pour l’Union Européenne, a déclaré aux journalistes : « Je pense que le ministre aurait pu mieux utiliser son temps pour s’inquiéter de la situation dans son pays ou du nombre élevé de morts à Gaza ». Plusieurs ministres ont exprimé leur « perplexité ». C’est un euphémisme.

    Ce projet d’île remonterait à l’époque où Katz était ministre israélien des Transports et a été présenté pour la première fois dans une vidéo de 2017 comme « une réponse à une réalité qui est mauvaise pour les Palestiniens et pas bonne pour Israël », selon Reuters.

    La réunion avait lieu après que le Premier ministre israélien Benjamin Netanyahou ait répété son opposition à la création d’un État palestinien. Sachant que la « solution à deux États », palestinien et israélien, est celle proposée par les États européens. Une idée hypocrite, puisque l’extrême droite israélienne est en train de raser Gaza et d’éliminer ses habitants tout en colonisant morceaux par morceaux la Cisjordanie. Tout ceci vise à rendre impossible toute création d’un futur État palestinien viable. La seule option réaliste est celle d’un seul État, multiconfessionnel, avec une égalité des droits, sans murs, sans discrimination, sans colonisation.

    Netanyahou et ses complices n’ont jamais caché leur volonté d’annexer toute la terre palestinienne, au nom de textes religieux vieux de plus de 2000 ans attribuant, selon eux, ce territoire au seul peuple juif. Dans cette logique messianique, il faudrait donc chasser tous les palestiniens.

    Il y a quelques jours, les médias révélaient un autre projet du gouvernement israélien : celui de déporter la population de Gaza vers un pays africain, affirmant même que des négociations avaient lieu avec le Congo. Une proposition finalement démentie face au scandale.

    Au début de la seconde guerre mondiale, les nazis annonçaient leur projet de chasser tous les juifs d’Europe et envisageaient sérieusement de les déporter sur l’île de Madagascar. Un plan appelé « Madagaskar Projekt » a même été élaboré par des cadres du Reich. Face aux contraintes logistiques posées par la guerre, et animé par un antisémitisme exterminateur, Hitler avait opté pour la solution finale et les camps de la mort.

    L’idée d’îles « ghettos » ou d’îles « prison » pour parquer les indésirables n’est pas unique dans l’histoire. Au large de l’Australie, l’île de Nauru et celle de Manus ont été transformées en camps visant à enfermer des personnes sans-papiers pendant des mois voire des années. Ce modèle inspire l’Europe, qui installe des points de contrôles et des camps de réfugiés sur les îles aux portes de l’Europe.

    Cependant, le projet israélien serait d’une ampleur sans commune mesure, et paraît difficilement réalisable s’il fallait y déplacer des centaines de milliers de personnes. Mais le fait même qu’une telle idée soit évoquée témoigne d’une volonté d’épuration ethnique de la part de l’État israélien.

    https://contre-attaque.net/2024/01/22/une-ile-artificielle-pour-deporter-les-palestiniens

    #île #asile #migrations #réfugiés #réfugiés_palestiniens #Palestine #îles #Israël

    voir aussi, signalé par @gonzo :
    Sources, Katz proposes artificial island in front of Gaza.
    https://seenthis.net/messages/1037778

    ajouté à la métaliste autour des #îles qui sont utilisées (ou dont il a été question d’imaginer de le faire) pour y envoyer des #réfugiés :
    https://seenthis.net/messages/881889

  • Upcoming Executions | Death Penalty Information Center
    https://deathpenaltyinfo.org/executions/upcoming-executions

    The Death Penalty Information Center (DPIC) is a national non-profit organization whose mission is to serve the media, policymakers, and the general public with data and analysis on issues concerning capital punishment and the people it affects. DPIC does not take a position on the death penalty itself but is critical of problems in its application.

    Founded in 1990, DPIC promotes insightful discourse on the death penalty by curating and presenting expansive, authoritative data from credible sources and offering clear, trustworthy, and timely information and research about the history and current application of the death penalty. DPIC produces groundbreaking reports on issues such as arbitrariness, costs, innocence, and racial disparities. DPIC also releases an annual year-end report highlighting significant developments and trends. A wide variety of free online resources are available on DPIC’s award-winning website, including searchable databases; data visualizations; educational curricula; and podcast series, Discussions with DPIC, which explores diverse viewpoints and experiences related to capital punishment.

    https://deathpenaltyinfo.org/about/about-us

    #USA #peine_capitale #open_data

  • Rising Interest Rates Might Herald the End of the Open Internet | WIRED
    https://www.wired.com/story/rising-interest-rates-might-herald-the-end-of-the-open-internet

    Web 2.0 took off with help from the economic conditions of the 2000s. Recent moves from Reddit and Twitter signal that that era is coming to an end.

    Tim Hwang is a policy analyst and the author of Subprime Attention Crisis, a book about the global bubble of programmatic advertising. Follow him on Twitter @timhwang.

    Tianyu Fang is a writer and researcher. He was part of Chaoyang Trap, an experimental newsletter about culture and life on the Chinese internet. Follow him on Twitter @tianyuf.

    Photo-illustration: WIRED Staff; Getty Images

    The open internet once seemed inevitable. Now, as global economic woes mount and interest rates climb, the dream of the 2000s feels like it’s on its last legs. After abruptly blocking access to unregistered users at the end of last month, Elon Musk announced unprecedented caps on the number of tweets—600 for those of us who aren’t paying $8 a month—that users can read per day on Twitter. The move follows the platform’s controversial choice to restrict third-party clients back in January.

    This wasn’t a standalone event. Reddit announced in April that it would begin charging third-party developers for API calls this month. The Reddit client Apollo would have to pay more than $20 million a year under new pricing, so it closed down, triggering thousands of subreddits to go dark in protest against Reddit’s new policy. The company went ahead with its plan anyway.

    Leaders at both companies have blamed this new restrictiveness on AI companies unfairly benefitting from open access to data. Musk has said that Twitter needs rate limits because AI companies are scraping its data to train large language models. Reddit CEO Steve Huffman has cited similar reasons for the company’s decision to lock down its API ahead of a potential IPO this year.

    These statements mark a major shift in the rhetoric and business calculus of Silicon Valley. AI serves as a convenient boogeyman, but it is a distraction from a more fundamental pivot in thinking. Whereas open data and protocols were once seen as the critical cornerstone of successful internet business, technology leaders now see these features as a threat to the continued profitability of their platforms.

    It wasn’t always this way. The heady days of Web 2.0 were characterized by a celebration of the web as a channel through which data was abundant and widely available. Making data open through an API or some other means was considered a key way to increase a company’s value. Doing so could also help platforms flourish as developers integrated the data into their own apps, users enriched datasets with their own contributions, and fans shared products widely across the web. The rapid success of sites like Google Maps—which made expensive geospatial data widely available to the public for the first time—heralded an era where companies could profit through free, mass dissemination of information.

    “Information Wants To Be Free” became a rallying cry. Publisher Tim O’Reilly would champion the idea that business success in Web 2.0 depended on companies “disagreeing with the consensus” and making data widely accessible rather than keeping it private. Kevin Kelly marveled in WIRED in 2005 that “when a company opens its databases to users … [t]he corporation’s data becomes part of the commons and an invitation to participate. People who take advantage of these capabilities are no longer customers; they’re the company’s developers, vendors, skunk works, and fan base.” Investors also perceived the opportunity to generate vast wealth. Google was “most certainly the standard bearer for Web 2.0,” and its wildly profitable model of monetizing free, open data was deeply influential to a whole generation of entrepreneurs and venture capitalists.

    Of course, the ideology of Web 2.0 would not have evolved the way it did were it not for the highly unusual macroeconomic conditions of the 2000s and early 2010s. Thanks to historically low interest rates, spending money on speculative ventures was uniquely possible. Financial institutions had the flexibility on their balance sheets to embrace the idea that the internet reversed the normal laws of commercial gravity: It was possible for a company to give away its most valuable data and still get rich quick. In short, a zero interest-rate policy, or ZIRP, subsidized investor risk-taking on the promise that open data would become the fundamental paradigm of many Google-scale companies, not just a handful.

    Web 2.0 ideologies normalized much of what we think of as foundational to the web today. User tagging and sharing features, freely syndicated and embeddable links to content, and an ecosystem of third-party apps all have their roots in the commitments made to build an open web. Indeed, one of the reasons that the recent maneuvers of Musk and Huffman seem so shocking is that we have come to expect data will be widely and freely available, and that platforms will be willing to support people that build on it.

    But the marriage between the commercial interests of technology companies and the participatory web has always been one of convenience. The global campaign by central banks to curtail inflation through aggressive interest rate hikes changes the fundamental economics of technology. Rather than facing a landscape of investors willing to buy into a hazy dream of the open web, leaders like Musk and Huffman now confront a world where clear returns need to be seen today if not yesterday.

    This presages major changes ahead for the design of the internet and the rights of users. Twitter and Reddit are pioneering an approach to platform management (or mismanagement) that will likely spread elsewhere across the web. It will become increasingly difficult to access content without logging in, verifying an identity, or paying a toll. User data will become less exportable and less shareable, and there will be increasingly fewer expectations that it will be preserved. Third-parties that have relied on the free flow of data online—from app-makers to journalists—will find APIs ever more expensive to access and scraping harder than ever before.

    We should not let the open web die a quiet death. No doubt much of the foundational rhetoric of Web 2.0 is cringeworthy in the harsh light of 2023. But it is important to remember that the core project of building a participatory web where data can be shared, improved, critiqued, remixed, and widely disseminated by anyone is still genuinely worthwhile.

    The way the global economic landscape is shifting right now creates short-sighted incentives toward closure. In response, the open web ought to be enshrined as a matter of law. New regulations that secure rights around the portability of user data, protect the continued accessibility of crucial APIs to third parties, and clarify the long-ambiguous rules surrounding scraping would all help ensure that the promise of a free, dynamic, competitive internet can be preserved in the coming decade.

    For too long, advocates for the open web have implicitly relied on naive beliefs that the network is inherently open, or that web companies would serve as unshakable defenders of their stated values. The opening innings of the post-ZIRP world show how broader economic conditions have actually played the larger role in architecting how the internet looks and feels to this point. Believers in a participatory internet need to reach for stronger tools to mitigate the effects of these deep economic shifts, ensuring that openness can continue to be embedded into the spaces that we inhabit online.

    Tim Hwang est l’auteur de “Le grand krach de l’attention”
    https://cfeditions.com/krach

    #Tim_Hwang #Internet_ouvert #Open_data

  • Open data du monde

    Nous nous sommes appuyés sur cette base de travail pour commencer à réétiqueter avec le plus de précision possible la liste complète des 6 293 candidatures diffusée par le ministère de l’intérieur le 23 mai au soir. Non sans difficulté : cela représente un travail considérable, qui est ensuite complété par les informations des correspondants du Monde, fins connaisseurs des personnalités locales et de leurs trajectoires. Une base que nous mettons à jour quotidiennement et que nous mettons à disposition de tous ceux qui le souhaitent, en open data sur ce lien.

    https://assets-decodeurs.lemonde.fr/decodeurs/elections_2022/legislatives/tour1/candidats_legislatives_lemonde.csv

    #le_vent_tournicote
    #open_data

    • oui, c’est un gros boulot, mais, tel quel, je n’en vois pas trop l’utilité. Il y a un équilibre à trouver entre la précision de l’affiliation du ou de la candidat·e (on ne s’occupe que de candidat·e, pas des suppléant·e·s) et la nécessité d’agrégation pour obtenir une vision à peu près correcte de l’éventail politique national (j’évite volontairement nuance et étiquette…) qui permette, ne serait-ce, que les comparaisons avec d’autres élections législatives, bien sûr, mais aussi les autres élections nationales.

      S’il y a des trucs évidents comme Reconquête dont c’est la première apparition qu’on n’a pas trop de problème à placer sous une nuance EXD, pour le reste – et comme toujours dans ce type de problématique – l’arbitrage n’est pas facile à faire ; sans parler des (très) nombreux cas particuliers…

      Pourquoi, ce n’est pas satisfaisant, et en tous cas, pas utilisable tel quel :
      • pour le ministère, il y a 18 nuances (dans leur état premier)
      • les décodeurs détaillent 86 nuances agrégées par Le Monde, dont les « sans nuance » :-
      • et identifient 70 partis agrégés par Le Monde, dont les « sans parti »

      mais les décodeurs étiquettent certaines nuances en leur adjoignant un regroupement, j’en ai identifié 3 : Ensemble (13 sous-nuances), NUPES (11 sous-nuances) et RPS (régionalistes, 6 sous-nuances) ; en les regroupant, on descend à 59 nuances (dont les sans nuances) ce qui est encore beaucoup trop pour une synthèse.

      Dont voici les plus nombreuses (au passage, mes chiffres diffèrent de ceux ci-dessus et je n’ai pas le même total de candidats : il m’en manque 2 à 6291)

      Note : il faut aussi distinguer du parti de rattachement que doit déclarer le candidat pour les calculs de financement des partis politiques :

      [la fraction] des aides [liée aux résultats électoraux} est attribuée :
      • soit aux partis et groupements politiques qui ont présenté lors des dernières élections législatives des candidats ayant obtenu chacun au moins 1 % des suffrages exprimés dans au moins cinquante circonscriptions ;

      https://fr.wikipedia.org/wiki/Financement_des_partis_politiques_français#Première_partie_(résultats_

    • Financement public 2022 pour le Parti Animaliste : 67 k€/an
      avec un gros manque à gagner du fait du non respect de la parité H-F : -37 k€/an

      cette année, iels font attention :
      207 candidats, 200 candidates
      (7/407 = 1,7% inférieur donc au seuil de 2%, il n’y aura pas de pénalité)

      (sources : article WP cité plus haut et fichier des décodeurs)

    • Le Parti animaliste, qui présente une liste aux européennes, a reçu une pénalité pour ne pas avoir respecté la parité lors des législatives de 2017. Rien de nouveau sous le soleil vous me direz. Mais le parti a été sanctionné non pas pour un manque de femmes sur sa liste, mais pour en avoir au contraire présenté trop . Son financement public a été amputé de 36 %, comme le prévoit la loi sur la parité. « Si le Parti animaliste ne conteste pas la règle de la parité, il aurait souhaité que l’esprit de cette loi, qui est de favoriser l’accès des femmes à la vie politique, soit respecté », indique-t-il dans un communiqué. Et il en appelle aux Français « afin de compenser les fonds dont il a été privé », soit 37 291,16 euros pour 2019.

      https://www.liberation.fr/france/2019/03/28/si-le-parti-animaliste-ne-conteste-pas-la-regle-de-la-parite-il-aurait-so
      #parité

    • parité H-F pour les partis tels que pointés par les Décodeurs du Monde
      (restreint aux partis présentant plus de 50 candidat·e·s qui seront donc éligibles au financement si au moins 50 dépassent les 1% des suffrages exprimés)
      la pénalisation pour non respect de la parité commence à partir d’un écart supérieur à 2% (quel qu’en soit le sens, effectivement, @mad_mad_meg ) et est proportionnelle à l’écart

  • Vol. 10 No. 1 (2022) : Les chiffres au cœur de la crise du coronavirus (1) | Statistique et Société
    http://statistique-et-societe.fr/issue/view/93

    La Société française de Statistique débute la publication d’articles sur la crise du coronavirus et ses (diverses) répercussions sous l’angle des statistiques. La revue est entièrement accessible en pdf.

    • Éditorial, Emmanuel Didier, 1-8
    • L’épidémie de COVID-19 en France : la prudence s’impose face aux chiffres. Bénédicte GASTINEAU, Valérie GOLAZ, Marie-Laurence FLAHAUX, Stéphanie DOS SANTOS
    9-18
    • ICUBAM (Intensive Care Unit Bed Availability Monitoring) Intensive care unit bed availability monitoring and analysis in the Grand Est region of France during the COVID-19 epidemic. Consortium ICUBAM, Laurent BONNASSE-GAHOT, Maxime DÉNÈS, Gabriel DULAC-ARNOLD, Sertan GIRGIN, François HUSSON, Valentin IOVENE, Julie JOSSE, Antoine KIMMOUN, François LANDES, Jean-Pierre NADAL, Romain PRIMET, Frederico QUINTAO, Pierre Guillaume RAVERDY, Vincent ROUVREAU, Olivier TEBOUL, Roman YURCHAK 19-36
    • Traitement médiatique des morts de la Covid-19 : entre avalanche de chiffres et récits de vie. Patrick PERETTI-WATEL, Caroline ALLEAUME, Jean CONSTANCE. 37-51
    • Pourquoi devrions-nous arrêter d’embêter les gens avec la « recherche reproductible » et autres « bonnes pratiques » ? Christophe POUZAT. 53-57
    • Une histoire politique du recensement au Ghana aux 20e et 21e siècles. Alena THIEL. 59-78
    • Les enquêtes sociales et l’identification des bénéficiaires dans la mise en place d’une protection sociale au Maroc. Boris SAMUEL. 79-111
    • Les médias et leurs fonctions - Du Paléolithique au numérique de Philippe TASSI (2021). Jean-Jacques DROESBEKE. 113-115
    • Sciences sociales des religions et de la quantification. Emmanuel DIDIER. 117-119
    • Hommage à Jean-Claude Deville. Pascal ARDILLY. 121-123

    • l’édito :

      Chère lectrice, cher lecteur,

      Ce nouveau numéro de Statistique et Société est d’abord composé d’un dossier portant sur la crise du coronavirus. Il n’a pas pu vous échapper que celle-ci a été pour une grande part non seulement documentée, mais aussi gouvernée par une avalanche de statistiques. Dans ces conditions, nous avions lancé un appel à communications sur les chiffres « au cœur » de la crise, ce qui signifiait non seulement en son centre, mais en même temps comme instruments de gouvernement y compris des émotions que la crise suscitait, en particulier la peur et le deuil. Ce dernier point nous semblait particulièrement intéressant car il est habituel d’associer faussement chiffres et froideur détachée. Or, cette crise nous a montré à quel point certains chiffres peuvent être associés à des affects. Les propositions de contributions ont été si nombreuses et si riches que nous nous sommes résolus à consacrer deux numéros à la question, celui-ci en constituant donc le premier.

      Vous trouverez donc un premier article écrit par une équipe dirigée par Bénédicte Gastineau sur les précautions à prendre pour comprendre et utiliser les données épidémiologiques françaises. Vient ensuite un article du collectif ICUBAM présentant leur outil statistique de gestion des lits disponibles en soins intensifs, une denrée rare et centrale pendant les confinements. Le troisième article, écrit par Patrick Peretti-Watel et ses collaborateurs, porte sur le traitement médiatique du nombre de morts, et montre en particulier que celui-ci a participé à créer, associé aux histoires singulières, la peur du virus. Enfin, le dernier article est un pied de nez rédigé par Christophe Pouzat qui montre sur un mode ironique l’importance des critères d’intégrité scientifique pour les épidémiologistes, y compris en temps de crise.

      Vient ensuite un mini dossier sur les statistiques en Afrique composé de deux communications, l’une d’Alena Thiel sur les recensements au Ghana aux XIXe et XXe siècles, et l’autre de Boris Samuel sur la protection sociale au Maroc. Les deux articles ont en commun de montrer comme la constitution de « data subjects » pour reprendre l’expression d’Alena Thiel, c’est-à-dire d’individus en tant qu’ils sont saisis par les méthodes de quantification, n’a rien de naturel. Le détour par l’Afrique nous permet ainsi de prendre de la distance avec certaines représentations tenues pour naturelles concernant l’individu statistique.

      Viennent ensuite deux recensions. Dans la première, Jean-Jacques Droesbeke vous résume le dernier ouvrage de Philippe Tassi, ancien directeur général adjoint de Médiamétrie, qui porte sur les médias. Dans la seconde, je vous présente deux volumes qui ont en commun d’appliquer les méthodes de la socio-histoire de la quantification à la religion, ce qui constitue une véritable innovation. Il s’agit, d’une part, d’un livre intitulé Taking Stock édité par Kravel-Tovi et Moore sur les « cultures de l’énumération » dans la vie contemporaine juive et, d’autre part, d’un numéro spécial des Archives des sciences sociales des religions, dirigé par Béatrice de Gasquet, faisant le point sur la place des chiffres dans les principales religions mondiales.

      Pour finir, nous avons tenu à rendre hommage à Jean-Claude Deville qui, malheureusement, vient de disparaître. Pascal Ardilly a eu la grande amabilité de se faire notre porte-parole pour exprimer toute l’affection et toute l’admiration que nous lui portions. Jean-Claude était l’un des plus grands théoriciens des sondages de sa génération. Il a aussi été un enseignant brillant. Et il s’intéressait beaucoup à l’histoire de sa discipline, au point qu’il avait eu l’amabilité de venir à ma soutenance de thèse, thèse qu’il avait ensuite discutée avec moi. C’était un grand statisticien doublé d’un sacré bonhomme. Il nous manquera énormément.

      Bonne lecture ! Emmanuel Didier

    • notez l’article vivement critique sur le contexte méthodologique (déficient quant à l’ouverture et la reproductibilité) du rapport 9 de l’Imperial College, à la racine de toutes les interventions en Europe…

      Pourquoi devrions-nous arrêter d’embêter les gens avec la « recherche reproductible » et autres « bonnes pratiques » ? | Statistique et Société
      http://statistique-et-societe.fr/article/view/844

      Comment continuer à encourager étudiants et collègues à faciliter l’accès à leurs travaux — en documentant et en rendant publics leurs programmes, en rendant accessibles leurs données, c’est-à-dire en mettant en oeuvre la « recherche reproductible » — à la lumière d’un contre-exemple : le rapport d’un groupe d’épidémiologistes de l’Imperial College de Londres ayant eu une importance, semble-t-il déterminante, sur les confinements et donc sur nos vies depuis un an ? Telle est la question posée sous forme de dialogue par ce texte.

      et le pdf
      http://statistique-et-societe.fr/article/view/844/898

  • Tracks. Spécial « Smartphonocène »

    En compagnie du philosophe italien Maurizio Ferraris, « Tracks » explore la relation, à tendance dévorante, que nous entretenons avec nos smartphones.

    Pour le philosophe italien #Maurizio_Ferraris, auteur de #Mobilisation_totale (éd. PUF, 2016), le téléphone portable nous maintient dans un état d’alerte permanent. Mais cette arme sociale pourrait-elle aussi aider à penser un nouveau bien-être mondial ? Un an après le début de la pandémie de Covid-19, qui a consacré le règne des écrans et du télétravail, Tracks a rencontré le philosophe chez lui, à Naples.

    #Forensic_Architecture
    Fondé par l’Israélien #Eyal_Weizman, le collectif pluridisciplinaire Forensic Architecture met en lumière la violence d’État en s’appuyant, notamment, sur des #technologies architecturales et de l’#open_data.

    Anti-5G
    Un monde saturé d’ondes magnétiques pour certains, le paradis des objets connectés pour d’autres : que nous promet la 5G ? Alors que les incendies d’antennes-relais se multiplient en Europe, une partie de la gauche libertaire et écologiste s’organise pour alerter sur ses risques, à l’instar du libraire Gontalde, à Montreuil, ou de la branche française de l’organisation américaine Deep Green Resistance.

    https://www.arte.tv/fr/videos/100281-007-A/tracks

    #architecture_forensique #violence_d'Etat #traces #contre-enquête #justice #violences_policières #vérité

    voir aussi sur twitter l’extrait sur l’architecture forensique :
    https://twitter.com/ARTEfr/status/1382951390834696193

  • Kein Live-Stream der Bezirksverordnetenversammlung - Berliner Morgenpost
    https://www.morgenpost.de/bezirke/steglitz-zehlendorf/article230717886/Kein-Live-Stream-der-Bezirksverordnetenversammlung.html

    20.10.2020, von Katrin Lange - CDU und Grüne lehnen die Forderung ab. Protokolle könnten im Internet eingesehen werden, argumentiert die Bezirksbürgermeisterin.

    Eine Übertragung der Bezirksverordnetenversammlung (BVV) über einen Streaming-Dienst – wie zum Beispiel in Lichtenberg und Reinickendorf schon üblich – wird es in Steglitz-Zehlendorf bis auf weiteres nicht geben. Das geht zum einen aus der Antwort der Bezirksbürgermeisterin Cerstin Richter-Kotowski (CDU) auf eine Bürgeranfrage hervor. Zum anderen wurden in der jüngsten Sitzung der Bezirksverordneten Anträge von der SPD- und der FDP-Fraktion, die einen Live-Stream der BVV fordern, abgelehnt. Die Zählgemeinschaft von CDU und Grüne ist gegen eine Übertragung im Internet.
    Beitrag zum Gesundheitsschutz

    Besonders unverständlich ist die Ablehnung für die Mitglieder der FDP-Fraktion, für die der Live-Stream der BVV nur ein erster Schritt gewesen wäre. Sie wollten zudem prüfen lassen, inwieweit die Versammlung künftig digitalt abgehalten – also ohne „physische Anwesenheit der Bezirksverordneten und des Bezirksamtes“. Das sei gerade in Corona-Zeiten wichtig, sagt Lars Rolle, Mitglied der FDP-Fraktion und Initiator des Antrags. Wenn sich die Krise weiter verschärfe und die BVV auch in abgespeckter Version nicht mehr tagen könnte, wäre das eine gute Möglichkeit, weiterzuarbeiten. „Ich bin schließlich gewählt worden, um auch in Krisenzeiten meine Aufgaben zu erfüllen“, sagt Rolle. Deshalb sei es notwendig, die Teilhabe an den Sitzungen zu ermöglichen und gleichzeitig einen Beitrag zum Gesundheitsschutz zu leisten. „Parteitage werden schließlich auch schon online abgehalten“, so der Lokalpolitiker.
    Mehr Interesse für die Lokalpolitik

    Rolle geht davon aus, dass durch eine Übertragung im Netz das öffentliche Interesse an der Kommunalpolitik gestärt werden könnte. „Die Hürde, die Debatten zu verfolgen, ist geringer, denn die Menschen müssen nicht extra ins Rathaus kommen“, so seine Argumentation. Gleichzeitig könnte der Bezirk Steglitz-Zehlendorf damit eine Vorreiterrolle bei der Modernisierung der Kommunalpolitik einnehmen. Er hält es zudem für einen Skandal, dass der Vorsitzende der CDU-Fraktion die Ablehnung der Anträge damit begründete, dass sich ohnehin niemand für die BVV interessieren und einen Live-Stream verfolgen würde.
    CDU fordert Online-Ausbau der Bürgerdienste

    Dieser Darstellung widerspricht Torsten Hippe. „Ich habe lediglich die Frage aufgeworfen, ob ein Bürger auf dem Teltower Damm sich eher für den Online-Ausbau der Bürgerdienste oder für einen Live-Stream der BVV interessieren würde“, sagt der CDU-Fraktionschef. Er gehe davon aus, dass es wichtiger sei, zunächst die Angebote der Bürgerdienste verstärkt ins Internet zu verlegen. Die Kosten von etwa 10.000 Euro für die Bereitstellung des Live-Streams sollten aus diesem Grund lieber in den digitalen Ausbau der Bürgerdienste gesteckt werden. Bezirksbürgermeisterin Cerstin Richter-Kotowski (CDU) verweist zudem auf datenschutzrechtliche Bedenken. „In der BVV sind Zuschauer jederzeit zugelassen und die Sitzungsprotokolle im Internet einsehbar“, erklärte Richter-Kotowski auf die Bürgeranfrage. Damit sei die Transparenz hergestellt.
    In Spandau beschlossen, aber nicht umgesetzt

    In Spandau hatten die Bezirksverordneten auf Antrag der Grünen bereits 2018 beschlossen, einen Live-Stream der BVV einzurichten. „Auf die bereits gewonnenen Erfahrungen mit ähnlichen Initiativen in anderen Bezirken (u. a. Reinickendorf, Lichtenberg, Marzahn-Hellersdorf) soll zurückgegriffen werden“, heißt es in dem Antrag. Mitte Oktober teilte das Bezirksamt mit, dass es kein Geld für die Umsetzung gibt.

    #Steglitz-Zehlendorf #Politik #BVV #Internet #Open_Data

  • Analyser l’évolution de l’économie libanaise : l’apport du registre du tribunal de commerce - papier fascinant de @RosalieBerthier

    Grand Theft Lebanon, par Rosalie Berthier
    https://synaps.network/post/lebanon-finance-economy-ponzi-bankrupt
    https://www.synaps.network/uploads/websitepages/Vice+city%20by%20Patricio%20Betteo%20copy.jpg

    Ce papier utilise le site en accès libre Shinminlam (acronyme arabe pour société à responsabilité limitée) créé des informations locaux cherchant à promouvoir la transparence économique et financière, en rendant disponibles et cherchables les données déjà publiques, mais malcommodes à utiliser, de l’enregistrement des sociétés au tribunal de commerce.

    The dataset released by Shinmimlam, which describes itself as a collective of local software engineers promoting transparency, may be the first instance in Lebanon of a platform offering comprehensive, easily-accessible public information. It documents the creation of businesses of all kinds as recorded in the commercial register, enabling users to rigorously research topics that are otherwise discussed only in terms of rumors and generalities. Lebanese law requires that these files be published transparently, although the commercial register makes them extremely difficult to navigate, by restricting access to one form per query. Shinmimlam simplifies the process, compiling raw data from the commercial register to illustrate the connections between businesses and businesspeople through time and across the country.

    Rosalie Berthier propose une lecture depuis 1944 des tendances de l’économie libanaise, dans ses caratéristiques sectorielles, juridiques et géographiques.
    Bien entendu, c’est un regard officiel sur l’économie formelle, qui laisse de côté l’économie informelle. Cela dit, sans nier que l’économie libanaise est à beaucoup d’égard souterraine, mafieuse etc., les données publiques en donnent néanmoins beaucoup à voir...
    Je référence ici brièvement quelques-uns des graphes qu’elle a produits.
    Une chronologie qui met en évidence l’explosion des créations d’entreprises dans la période de la reconstruction.


    Un graphe montrant la géographie très concentrée de l’économie libanaise, sur Beyrouth puis le Mont Liban mais avec une montée du Liban-Sud qui est intéressante.

    L’analyse des statuts juridiques montre le passage d’une économie centrée sur des individus en situation de confiance et d’interconnaissance, à une économie financiarisée, basée sur l’action et l’anonymat, une économie de rente.

    Les deux graphiques suivants montrent les liens de l’économie libanaise avec les capitalismes voisins. On perçoit d’une part la dynamique d’investissement saoudien au Liban jusque vers 2011, mais aussi le refuge que les capitaux irakiens et syriens trouvent au Liban en lien avec la déstabilisation de leurs économies. Les liens avec la Syrie sont « consanguins » sur une longue période.

    Rosalie Berthier analyse ensuite différents indicateurs montrant le rôle de l’Etat dans la structuration de l’économie, notamment à travers la régulation du secteur bancaire et de celui du pétrole.
    Enfin, dans un dernier graphe, elle montre l’essor d’une économie de spéculations tirant profit du placement des bons du Trésor, et plus largement de la dette publique libanaise, levier essentiel de l’accumulation du capital privé dans le pays sur les deux dernières décennies.

    #Liban #entreprises #économie #finance #données #open_data

  • The Judge Statistical Data Ban – My Story – Michaël Benesty – Artificial Lawyer
    https://www.artificiallawyer.com/2019/06/07/the-judge-statistical-data-ban-my-story-michael-benesty

    Artificial Lawyer wrote about the new French law that seeks to prevent people analysing and sharing statistical data on named French judges’ decisions. The story went global and created a huge reaction.

    But, now here is a Guest Post from someone in France who writes that he was right at the centre of the events that led up to the law passing this year. It gives some fascinating extra detail and some more context to what happened.

    The author, Michaël Benesty, is a machine learning (ML) expert and qualified lawyer in France. He currently works at Lefebvre Sarrut at Neuilly-sur-Seine, Paris. This is his personal story and his views on what happened are from his own perspective and in his own words.

    #open_data
    #justice
    #transparence
    #asile
    #réfugiés

  • The Judge Statistical Data Ban – My Story – Michaël Benesty – Artificial Lawyer
    https://www.artificiallawyer.com/2019/06/07/the-judge-statistical-data-ban-my-story-michael-benesty

    The basic issue was that some judges had a very high asylum rejection ratio (close to 100%, with hundreds of cases per year), while others from the same court had a very low ratio, and in France cases are randomly distributed among judges from the same courts (there is no judge specialised in Moroccan asylum and the other in Chinese asylum for instance).

    Basically, we believed there was no reasonable explanation to such discrepancies, which were stable year afters year.

    #droit #machine-learning #biais #asile #france #juges

    • #rapport_Cadiet #open_data #justice

      sur ce sujet, et d’autres (notation des avocats,…) un point de vue détaillé et argumenté, avec des options affirmées,…

      Notation des Avocats, algorithmes et Open Data des décisions de justice : les liaisons dangereuses. Par Fabien Drey, Avocat.
      https://www.village-justice.com/articles/notation-des-avocats-algorithmes-open-data-des-decisions-justice-le

      II. Algorithmes partout, justice nulle part.
      […]
      A. Le véritable Open Data doit être une réalité.
      […]
      1. Nous sommes en faveur de l’Open Data des décisions de justice.
      […]
      2. Nous sommes pour le développement d’outils de recherches poussés.
      […]
      3. Nous sommes pour la transparence totale et le contrôle des algorithmes.
      […]
      B. L’Open Data des décisions de justice doit être régulé.
      […]
      1. Pour une interdiction des traitements statistiques des décisions de justice.
      […]
      2. Pour l’interdiction de l’automatisation des décisions de justice.
      […]
      C. Le « traçage » des Avocats doit être interdit.
      […]
      1. Pour une interdiction du traçage des Avocats (si, les Avocats veulent rester anonymes.)
      […]
      2. Traçage et notation des Avocats, la fin de l’Etat de Droit ?
      […]
      III. Et maintenant, que fait-on ?

    • et ce passage, plus particulièrement sur les traitements,…

      Le premier constat fait par nos confrères réside dans le fait que la justice est « rendue publiquement ». Nous ne pouvons à cet égard qu’être d’accord avec une telle affirmation, bien que de nombreuses exceptions soient prévues.

      Cependant, le caractère public des décisions de justice ne signifie pas que l’ensemble des données issues des décisions de justice doivent être rendues publiques.

      Il y a à notre sens une large différence entre le fait d’ouvrir les portes d’un tribunal (ce qui permet d’assister au procès, d’entendre les plaidoiries, d’apprécier la personnalité des personnes en cause, etc.) et publier sur Internet le contenu aride de l’ensemble des décisions de justice…

      En effet, cette large publication a un triple effet pervers :
      • D’une part, devant la masse d’information à traiter, aucun être humain ne serait capable de lire l’ensemble des décisions publiées sur un sujet, il est donc nécessaire d’être assisté d’un algorithme permettant de trier et synthétiser la ou les décisions recherchées. Or, comment nous l’avons vu, rien ne permet de dire que l’algorithme n’est pas orienté ou imparfait. Dans ce cadre, la publication n’est que de façade et nos recherches sont plus orientées par l’algorithme que par la véritable recherche d’un point juridique ;
      • D’autre part, la masse des informations publiées oblige à effectuer des statistiques. La masse des décisions publiées nous oblige donc à faire confiance aux taux calculés par l’algorithme. Or, qui est en mesure de véritablement vérifier la pertinence de ces calculs ?
      • Enfin, l’automatisation de nos recherches et la synthétisation qui en est faite nous amène à penser et réagir comme des algorithmes, en fonction simplement du passé et de ce qui a été déjà été fait. Dans ce cadre, quelle place aura la création ? Où se placera l’innovation ?

      Nous rappelons à cet égard que l’innovation repose sur le fait de s’affranchir de toute règle, de ne pas raisonner en fonction du passé mais par l’intermédiaire d’un nouveau système, voire de raisonner par l’absurde… bref, tout le contraire du deep learning…

      A trop vouloir analyser le passé pour essayer de prédire les décisions futures, nous en perdrons notre âme et ce qui a toujours fait le sel de notre profession, à savoir l’audace et l’ingéniosité.

      Le rapport Cadiet avait là-encore cerné ce problème, faisant de la transparence des algorithmes un enjeu majeur.

      Or, force est de constater que nous en sommes encore loin.

      La publication de l’ensemble des décisions de justice ne pose pas véritablement problème, ce sont les traitements issus de ces publications qui peuvent poser d’énormes difficultés, notamment en ce qui concerne l’identité des Avocats.

    • nous en perdrons notre âme et ce qui a toujours fait le sel de notre profession, à savoir l’audace et l’ingéniosité

      C’est du grand art, ça me rappelle la complainte des génies de la chirurgie esthétique.

      Or, qui est en mesure de véritablement vérifier la pertinence de ces calculs ?

      On pourrait croire que les avocats seraient sensibles à la notion d’un débat entre argumentation et contre-argumentation, au service de la justice. Apparemment pas :)