• Des cerveaux humains de 12 000 ans découverts dans un état de conservation exceptionnel - Ça m’intéresse
    https://www.caminteresse.fr/histoire/des-cerveaux-humains-de-12-000-ans-decouverts-dans-un-etat-de-conservat

    Lors d’une vaste opération de recensement des cerveaux humains les mieux préservés naturellement, des chercheurs ont découvert qu’il existait des organes fossilisés vieux de 1 000 à 12 000 ans. Depuis, ils enquêtent sur leurs mystérieuses conditions de conservation.

    On dirait une vieille noix desséchée. Il s’agit en réalité d’un cerveau humain qui a survécu aux affres du temps, pendant un millénaire. Cette incroyable découverte n’est pas la seule réalisée par Alexandra Morton-Hayward et son équipe de l’Université d’Oxford, qui a même découvert des organes encore plus anciens, datant de 12 000 ans maximum, conservés dans les archives archéologiques mondiales !
    Une gigantesque archive cérébrale

    Ces taphonomistes, des spécialistes de la fossilisation d’un organisme humain, animal, ou végétal après sa mort, se sont lancés dans le projet de répertorier tous les cerveaux humains gardés dans les musées et les universités pour étudier leur état de conservation. Comme ils l’expliquent dans leur étude publiée dans Proceedings of the Royal Society B, ils ont identifié dans la littérature scientifique mondiale plus de 4 400 cerveaux préservés dans différents environnements, sur tous les continents. Ces archives, qui remontent jusqu’au milieu du XVIIe siècle, remettent en question l’idée communément admise selon laquelle le cerveau est toujours l’un des premiers organes à se décomposer après la mort.

    En effet, un corps en décomposition qui n’a pas été embaumé, momifié, congelé, va perdre ses tissus mous, qui vont se liquéfier, ne laissant visible que son squelette. Que ces tissus mous aient été préservés est rare, et il est encore plus rare qu’il s’agisse d’un cerveau. Pourtant, parmi les cerveaux préservés qui ont été retrouvés, près d’un tiers (1 300) était la seule trace de tissu mou ayant survécu sur le squelette. Et cela a aussi été le cas sur certains des plus vieux organes retrouvés.
    Un mystérieux mécanisme de conservation

    Pourquoi ces cerveaux, qui étaient censés être réduits en poussière, se sont-ils fossilisés ? Cela ne peut pas être lié aux seules conditions naturelles de conservation, car ils ont été retrouvés dans des endroits très divers : fosse commune de la guerre civile espagnole, tombe préhistorique, épave, tumulus néolithique, désert, rives d’un lac, volcan endormi... Il y avait même des têtes décapitées. Ils appartenaient à toutes catégories de population (moines, guerriers, famille royale, explorateurs, enfants etc.). Les chercheurs pensent donc qu’il pourrait exister un mécanisme de préservation spécifique au système nerveux central, qui se déclencherait parfois lors d’un contact avec quelque chose de présent dans l’environnement, et qui permettrait au cerveau de se durcir.

    Les scientifiques tâtonnent encore, mais poursuivent leurs recherches, car ces immenses archives démontrent clairement qu’il existe certaines circonstances dans lesquelles le cerveau peut survivre pendant un nombre exceptionnel d’années. "Que ces circonstances soient environnementales ou liées à la biochimie unique du cerveau, c’est au centre de nos travaux en cours et futurs, explique Alexandra Morton-Hayward à Newsweek. Leur étude s’intéresse notamment à l’analyse moléculaire de ces vestiges exceptionnels, aux restes de lipides, de protéines ou de glucides qui pourraient subsister dans ces cerveaux et nous donner des réponses. « Nous découvrons un incroyable nombre d’anciennes biomolécules de toutes sortes préservées dans ces cerveaux archéologiques, et c’est passionnant d’explorer tout ce qu’elles contiennent, et à quel point elles peuvent nous parler de la vie et de la mort de nos ancêtres. »

    Human #brains preserve in diverse environments for at least 12 000 years #ProcB #OpenAccess https://t.co/S581ZlPFL3 #Palaeontology #Evolution @MortonHayward @ErinSaupe pic.twitter.com/1JJlRMAvsS
    — Royal Society Publishing (@RSocPublishing) March 20, 2024

    Mais il existe un obstacle dans l’accès à ces cerveaux, considérés à juste titre comme des découvertes exceptionnelles, déplore la chercheuse à Oxford. Moins d’1% d’entre eux seraient étudiés de près, rapporte Newsweek, ce qui limite beaucoup les découvertes scientifiques qu’ils pourraient permettre.

  • Pourquoi C# reste aussi décrié par les libristes, et pourquoi ils ont raison ?

    – Le langage C# est normalisé ECMA, mais n’est que open-source
    – .NET Core est libre (licence MIT), mais reste sous l’EULA Microsoft... je ne sais pas comment ca se résoudrait devant un juge.
    – Le compilateur est libre (Roslyn, licence MIT).
    – Xamarin, le cross platform implementation, est privateur
    – je ne parle pas du compilateur indépendant MONO

    Donc on peut vite penser que C# et .NET sont libres, mais en vrai, ils s’adossent à des outils qui ne le sont pas. On peut tomber dans des superpositions de licences qui ne sont pas libres, juste open-sources.

    Et n’oublions pas : L’open-source, c’est la laisse que le maitre a faite tomber au sol, mais qu’il peut reprendre à tout moment.

    #microsoft #.net #csharp #dotnet #opensource

  • « L’ouverture des données ressemble à la tour de Pise » | La Gazette des communes
    https://www.lagazettedescommunes.com/916856/louverture-des-donnees-ressemble-a-la-tour-de-pise

    Auteur des « Données de la démocratie, open data, pouvoirs et contre-pouvoirs », paru en janvier, le sociologue Samuel Goëta dresse un bilan critique de l’émergence de l’open data, entre renouvellement de la transparence en demi-teinte, transformation des administrations inaboutie et promesses de croissance et d’innovation non tenues.

    Défendre l’ouverture des données publiques pour revitaliser la démocratie, c’est la conviction développée par ­Samuel ­Goëta dans son ouvrage paru le mois dernier, « Les Données de la démocratie, open data, pouvoirs et contre-pouvoirs », (C&F éd.). Sociologue, maître de conférences associé à ­Sciences-po Aix, cofondateur de la société coopérative et participative spécialisée dans l’open data ­Datactivist, il a aussi participé à la création de l’association Open ­Knowledge France, en 2012, qui anime « ­madada.fr », visant à faciliter les demandes d’accès aux données et aux documents administratifs.

    Samuel ­Goëta revient sur la naissance et l’émergence de l’open data, ce mouvement encourageant le libre usage des données, et en dresse un bilan critique, entre renouvellement de la transparence en demi-teinte, promesses de croissance et d’innovation non tenues, et transformation des administrations indéniable mais non aboutie. Ainsi, si ce sont bien des collectivités pionnières qui ont impulsé les premières politiques d’ouverture de données, seules 16 % de celles qui sont concernées par la loi « Lemaire » respectent leurs obligations en la matière, et les données ouvertes sont loin d’être les plus sensibles, pointant les fragilités de la transparence administrative.

    Riche sur les plans théorique et pratique, car nourrie d’exemples et de cas d’usage, la réflexion développée dans ce livre croise plusieurs champs : sociologie, histoire, science politique, design de politiques publiques… Il avance aussi des propositions pour concourir à une nouvelle étape de l’ouverture des données au service du renforcement de la démocratie.
    Quelle est la situation en matière d’open data en France ?

    Quand on regarde du côté des classements, la France fait partie des pays les plus avancés en matière d’open data. Pour autant, seules 16 % des collectivités concernées par la loi pour une République numérique ont respecté leurs obligations en la matière et il existe une fracture entre grandes et petites collectivités avec, d’un côté, les grandes métropoles, les régions et une large majorité des départements qui se sont saisis de leurs obligations et, de l’autre, les plus petites communes et intercommunalités. L’ouverture des données demande des moyens et sa mise en œuvre crée de nouvelles fractures entre les territoires.

    Et lorsqu’on s’intéresse aux jeux de données publiés, on s’aperçoit de leur grande disparité puisqu’il peut s’agir de l’agenda des élus, des menus dans les cantines… Mais dès lors que les données sont sensibles, elles manquent à l’appel. En effet, plus on s’approche de ce genre de données, qui peuvent questionner le mandat des élus ou remettre en cause leurs politiques, moins ces jeux sont ouverts.

    L’open data met ainsi en lumière les fragilités de la transparence administrative. Malgré l’ancienneté de la loi « Cada » (du 17 juillet 1978, ndlr), les circuits organisationnels de la transparence sont encore balbutiants et elle reste presque un acte politique alors qu’elle est très largement codifiée par le code des relations entre le public et l’administration. L’ouverture des données en France ressemble donc un peu à la tour de Pise, un édifice penché du fait de ses fondations instables.
    Comment expliquer ces fondations instables ?

    L’ouverture des données charriait avec elle trois grandes promesses : renouveler la transparence, créer de l’innovation et des emplois, et transformer l’administration. C’est cette dernière qui a sans doute été sous-évaluée et qui apporte le plus de bénéfices. Pour la transparence, bien qu’entré dans la loi, le principe d’open data par défaut ne suffit pas à donner aux agents la possibilité de publier des données sans obtenir de validation.

    On voit que l’open data n’a pas agi comme une « machine à révélations ». Concernant l’innovation et l’emploi, les attentes étaient faramineuses. En interne, en revanche, l’open data a participé à une grande transformation des collectivités, en augmentant leur maturité sur ces sujets. Nombreuses sont celles qui, engagées dans l’open data, ont travaillé sur la gouvernance des données, ce qui leur a été bénéfique : les métropoles de Lille, Rennes, Nantes, Lyon ou encore Bordeaux.
    Comment continuer de nourrir ou de réinventer notre rapport aux données ?

    Notre rapport à l’open data a déjà massivement changé du fait du ­Covid-19. Plusieurs outils, comme ­Covidtracker, ont renouvelé le plaidoyer pour l’ouverture des données, en faisant de l’open data un outil essentiel de gestion de la crise sanitaire. La pandémie a vraiment remis l’open data à l’agenda, quand chaque geste de notre vie quotidienne était déterminé par des chiffres, un graphique, une courbe…

    Toutefois, quand j’ai été auditionné par la mission « data et territoires » dans le cadre du rapport remis à Stanislas ­Guerini (ministre de la Transformation et de la fonction publiques, ndlr), en novembre, j’ai défendu l’idée que les politiques d’open data ne se suffisent pas à elles-mêmes : il manque une sensibilisation à grande échelle des citoyens pour qu’ils puissent se saisir du pouvoir des données et renouveler le débat démocratique. C’est comme si le mariage entre les acteurs de la participation citoyenne et de l’open data ne s’était pas fait.
    Que proposez-vous pour que les données ouvertes renforcent la démocratie ?

    On constate une prise de conscience généralisée de l’importance des données dans la conduite des politiques publiques. Comment accompagner toutes ces collectivités qui se sont saisies de la loi « ­Lemaire » ? Comment aider les autres à s’en emparer ? Je propose des pistes d’action via trois chantiers : obtenir les données manquantes, améliorer la fiabilité et la qualité des données ouvertes, et développer la culture des données. En effet, un certain nombre de données ne sont pas encore ouvertes, et un nouvel acte du droit d’accès aux documents administratifs me paraît essentiel. Il faut aussi donner plus de corps à la notion de données d’intérêt général, permettant d’aller jusqu’à la réquisition de données. Ensuite, améliorer la fiabilité et la qualité suppose un travail organisationnel. Il est important de continuer de vulgariser l’open data auprès du grand public et l’intégrer dans les procédures de démocratie participative.

    De plus, trop souvent encore, les administrations considèrent les données personnelles comme une matière radioactive et oublient que l’anonymisation et la pseudonymisation existent. Par ailleurs, l’association Open Data France s’est récemment engagée dans une démarche de redéfinition de son action : doit-elle élargir son champ d’intervention, historiquement centré sur l’open data ? Des questions émergent sur la standardisation, l’acculturation à la donnée, la transparence algorithmique, et il reste beaucoup à faire.

    #Samuel_Goeta #Open_data #Communes

  • L’Open Source INTelligence, une révolution de la preuve

    Le « renseignement de sources ouvertes », plus connu sous l’acronyme anglais #OSINT (#Open_Source_INTelligence), désigne la capacité de collecter et d’exploiter des données ouvertes, disponibles sans avoir besoin de recourir à des moyens légaux ou coercitifs, ni à la ruse ou au piratage.

    https://www.radiofrance.fr/franceculture/podcasts/esprit-de-justice/l-open-source-intelligence-une-revolution-de-la-preuve-8810804
    #preuve #justice #traces_numériques

    #audio #podcast #images #données

  • Open data publique : « On voit les limites dès que les données pourraient remettre en cause le pouvoir établi »
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/open-data-publique-on-voit-les-limites-des-que-les-donnees-pourraient-remett

    Cofondateur de la coopérative Datactivist, spécialisée dans l’ouverture des données notamment dans le secteur public, Samuel Goëta est maître de conférences associé à Sciences Po Aix. Il vient de publier Les Données de la démocratie. Open data, pouvoirs et contre-pouvoirs (C & F éditions, 2024), un ouvrage dans lequel il développe un bilan critique autour des réussites et des limites du mouvement des données ouvertes, près de huit ans après la loi Lemaire, qui a imposé aux administrations d’ouvrir « par défaut » leurs données.

    Malgré cette loi, seules 16 % des collectivités respectaient, fin 2022, leurs obligations en la matière, d’après le dernier état des lieux de l’observatoire open data des territoires.
    Lire l’enquête | Article réservé à nos abonnés Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    Où en est l’ouverture des données publiques aujourd’hui en France ?

    La situation est ambiguë. En apparence, c’est une très belle réussite : l’open data française est en tête des classements internationaux, avec un écosystème public développé et un certain nombre de fleurons d’entreprises et d’associations qui lui sont dédiés, et il y a des usages importants. Mais l’ouverture des données en France est bâtie sur une culture de la transparence assez faible. Celle-ci remonte à l’accès aux documents administratifs, un droit peu connu qui date d’une quarantaine d’années, souvent contourné par les administrations : environ 80 % des demandes ne reçoivent aucune réponse.

    Or, l’open data, c’est mettre à disposition volontairement des jeux de données. Il y a une open data à double vitesse, entre celui qui va intéresser les décideurs pour innover, et celui qui va titiller les élus. On voit ces limites dès qu’on s’intéresse aux subventions, aux données de la commande publique… En clair, dès que ces données pourraient remettre en cause le pouvoir établi. C’est un écosystème fragile qui s’appuie sur une volonté politique, et qui pourrait facilement s’effondrer.
    Comment expliquer la mise en œuvre difficile des obligations nées de la loi Lemaire ?

    A la suite de la loi pour une République numérique de 2016, peu de moyens ont été mis en place. Il y a eu une petite aide à l’association OpenDataFrance. Celle-ci, comme Etalab [un département de la direction interministérielle du numérique, la dinum, chargé de l’ouverture des données publiques], a fait de l’accompagnement – mais pas à l’échelle d’une ouverture des données « par défaut ». Les moyens qu’ont mis les collectivités ont donc beaucoup dépendu de la présence d’une impulsion politique, d’un peu de moyens, d’un intérêt… et, souvent, des bonnes volontés de quelques agents qui ont fait ça sur leur temps libre ou en marge de leurs missions, avec peu de soutien hiérarchique. Cela a accentué les fractures territoriales.

    Par ailleurs, le soutien politique est assez intermittent. Il y a eu une sorte de désintérêt après la loi pour une République numérique. Mais au moment de la pandémie, la question de l’open data est devenue centrale : toutes les décisions étaient prises avec des indicateurs, et il y a aussi eu une vraie demande. Le rapport du député Bothorel, paru fin 2020, a permis de donner une nouvelle impulsion, mais celle-ci n’est plus très claire. Quand on regarde la feuille de route de la Dinum, l’impératif est celui de l’usage des données par l’administration, l’ouverture de celles-ci étant vue comme un acquis du passé. Or c’est encore un chantier important. On manque notamment d’impulsion thématique, comme ce qui s’est passé avec le point d’accès national aux données de transport. Dès lors qu’il y a un usage pensé des données ouvertes qui est proposé, les acteurs vont plus facilement entrer dans la démarche.
    Quels défis identifiez-vous pour favoriser l’usage de l’open data ?

    On a fait de l’open data en pensant qu’en claquant des doigts, des gens allaient s’en servir. Mais il faut aussi aller chercher les usagers potentiels. La moitié du temps de travail d’un responsable d’open data, c’est d’informer.
    Testez votre culture générale avec la rédaction du « Monde »
    Découvrir

    Il y a plusieurs autres sujets. Le premier, c’est de permettre de trouver les bonnes données quand elles existent, ce que j’appelle la « découvrabilité ». Les jeux de données ne sont pas toujours nommés de manière intelligible. Il y a aussi un investissement à faire dans la standardisation des données, en passant par des règles communes pour le nommage et l’organisation des fichiers, comme celles de schema.data.gouv.fr.

    Ensuite, il y a la question de la documentation, c’est-à-dire une description du contenu du jeu de données. Avec Etalab, nous avons calculé que près de six jeux de données sur dix publiés sur data.gouv.fr contenaient une documentation de moins de 1 000 caractères, et un peu moins d’un quart ont une longueur inférieure à celle d’un SMS.

    Enfin, même quand les données existent, l’utilisateur qui cherche à s’en saisir se trouve souvent confronté à un problème de qualité. Je ne parle pas de soucis liés à un usage qui n’avait pas été prévu à l’origine, mais de lacunes dans les données. Par exemple, il y a un nombre encore très important de marchés publics dont le montant renseigné est « zéro » parce que les producteurs estiment qu’il y a secret des affaires. Ces montants sont donc inutilisables. Une solution serait de favoriser les échanges entre les producteurs et les réutilisateurs, ces derniers étant souvent laissés sans réponse.

    Raphaëlle Aubert et Léa Sanchez

    #Open_data #Samuel_Goëta

  • Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/comment-opendatasoft-est-devenue-l-acteur-incontournable-de-l-ouverture-des-

    Malgré un budget doublé cette année, passant d’un à deux millions d’euros, la plate-forme étatique data.gouv.fr a cumulé un retard important face à l’offre privée d’Opendatasoft. « Pendant longtemps, data.gouv.fr s’est positionnée uniquement comme catalogue central de données françaises », analyse Samuel Goëta, maître de conférences à Sciences Po Aix et cofondateur de Datactivist, un cabinet de conseil spécialisé dans l’open data et auteur de l’ouvrage Les Données de la démocratie (2024, C & F Editions).

    « Il n’y a sûrement pas eu les mêmes investissements sur data.gouv.fr que ce qu’Opendatasoft a pu faire sur ses outils », soutient Christian Quest, spécialiste des données, présent à Etalab de 2014 à 2019 et revenu en tant que consultant en 2023. « Porté par deux personnes pendant les premières années (…), data.gouv.fr était très bien fichu mais ça avait un côté plus artisanal », se rappelle-t-il.

    En 2012, Etalab avait même décerné un prix à Opendatasoft. « Au fond, ils s’étaient dit : “en fait c’est ça qu’il faudrait qu’on arrive à faire”… mais avec beaucoup moins d’investissements », ironise Christian Quest. Jean-Marc Lazard préfère mettre en avant la « complémentarité » de sa solution avec celle de l’Etat.

    L’alternative publique compte toutefois plusieurs utilisateurs exclusifs : le ministère de l’intérieur et des outre-mer, celui de la justice, mais aussi des communautés d’agglomération comme le Grand Annecy ou des communes comme Bar-le-Duc.

    L’offre de la Dinum s’est récemment diversifiée en proposant des portails thématiques avec les sites transports.data.gouv.fr, adresse.data.gouv.fr et, plus récemment, meteo.data.gouv.fr. Dans les prochains mois paraîtra ecologie.data.gouv.fr. Dans la feuille de route 2024 de la plate-forme publique, de nombreuses évolutions prévues rappellent d’ailleurs les fonctionnalités d’Opendatasoft.

    Ces améliorations sont suivies de près par les administrations. Le ministère de la culture se dit prêt à faire évoluer ses choix techniques « si le rapport coût/efficience du service rendu s’avérait favorable ». La publication directe grâce aux outils de data.gouv.fr permettrait de réaliser des économies importantes pour les administrations, précise la Dinum. D’autant plus que ses équipes doivent « moissonner » quotidiennement les données des portails externes pour les centraliser sur data.gouv.fr – une opération coûteuse et complexe.

    Et n’oublions pas que le libre n’est pas forcément gratuit. La lberté a un prix.

    Le choix de l’open source intégral reste rare, souvent le fruit de volontés individuelles, d’agents ou d’élus. Il concerne surtout des régions ou des métropoles, comme celle du Grand Lyon. Aidée par l’arrivée d’un « doctorant mouton à cinq pattes », l’équipe technique de l’agglomération est devenue l’un des précurseurs dans la mutualisation d’une solution open source, aujourd’hui utilisée par la Nouvelle-Aquitaine et Provence-Alpes-Côte d’Azur. Si celle-ci est maintenue par un éditeur, Neogeo, l’ouverture du code garantit une indépendance : « L’avantage c’est que cette solution n’est pas une boîte noire (…) et si Neogeo fait faillite on peut récupérer toutes les sources, toute l’infrastructure logicielle », souligne Emmanuel Gastaud, responsables des données métropolitaines.

    Le Grand Lyon débourse 100 000 euros par an pour l’hébergement, la supervision et la maintenance. Il compte aussi sur le travail de 4 ou 5 équivalents temps plein. Un investissement apprécié localement – le portail abrite les données d’une vingtaine de communes du territoire – mais très éloigné des budgets « open data » de nombreuses administrations. Pour celles qui en ont un.

    Le livre de Samuel Goëta explique les raisons, problèmes et solutions de l’open data en France.
    https://cfeditions.com/donnees-ouvertes


    #Open_data #Public_privé #Logiciel_libre

  • #OpenDataDay - les faits d’hiver de l’open data | Datactivist
    https://odoo.datactivist.coop/event/opendataday-les-faits-d-hiver-de-l-open-data-2024-03-07-3/register
    https://odoo.datactivist.coop

    En 2017, un utilisateur de Reddit du doux nom de saladedepdt postait sur r/france un message intitulé "Data.gouv, ou comment perdre des heures à se promener dans des banques de données." Son message, qui est resté dans nos mémoires et en tête du reddit r/france pendant plusieurs jours, part d’un émerveillement pour data.gouv.fr et les trésors de données qu’on y trouve "Data.gouv : ce site est génial. J’y ai appris une quantité astronomique de choses inutiles et donc indispensables à ma vie". Il cite quelques unes de ces trouvailles, voici nos favorites :

    il y a eu 29 278 771€ de dépenses en « produits contre la dysfonction érectile » en Île-de-France en 2013.

    Il y a plus d’agents cynophiles (309) que de chiens (278) dans la police municipale en France.

    La France a produit officiellement 4 785 561 700 de litres de vin en 2015 (quatre milliards sept cent quatre-vingt-cinq millions cinq cent soixante et un mille sept cents ), mais seulement 4800 litres (quatre mille huit cents) ont été produits par les départements du Nord et du Pas-de-Calais réunis. Heureusement on a la bière.

    Chez Datactivist, nous avons adoré cette idée et, depuis quelques années, il nous arrive de repartir avec nos clients et nos partenaires à la recherche de faits improbables, drôles ou intrigants pour leur faire découvrir l’open data. À chaque fois, nous en ressortons avec quelques fous rires et des découvertes saugrenues et les participants voient l’open data sous un jour plus ludique en découvrant des trésors de données.

    A l’occasion de la journée internationale de l’open data, nous vous proposons vous aussi de découvrir les faits les plus improbables ou curieux sur les portails open data. Pendant 2h, sur Twitch animé par Margaux Larre-Perez et Samuel Goëta, nous vous aiderons à découvrir les "faits d’hiver" de l’open data tout en échangeant avec des curateurs de données qui vous partageront leur métier de sélectionner et valoriser les plus belles perles de l’open data. Le programme détaillé sera annoncé très prochainement.

    #Open_data #Datactivist

  • Parution du livre « Les données de la démocratie : open data, pouvoirs et contre-pouvoirs » - Veille - #TeamOpenData
    https://teamopendata.org/t/parution-du-livre-les-donnees-de-la-democratie-open-data-pouvoirs-et-contre-pouvoirs/4432/2

    Enro
    Antoine Blanchard
    6 j

    Bravo et merci pour cet ouvrage @samgoeta ! J’avais peur de m’ennuyer à la lecture de cet ouvrage « grand public » mais sa lecture m’a passionné, il est bien écrit et tu mêles intelligemment les grandes notions avec des exemples concrets. Et même si on connaît bien l’open data ou les communs numériques on peut apprendre des choses sur le droit d’accès, sur la transparence de l’action publique, ou les hackers citoyens… le livre est tellement riche !

    J’ai particulièrement apprécié tes recommandations en fin d’ouvrage, en espérant qu’elles soient suivies d’effet. En ce qui concerne le chapitre sur les stratégies alternatives pour obtenir des données, j’aurais apprécié quelques conseils pratiques pour passer à l’action, par exemple en matière de scraping (une technique prometteuse qui n’est pas forcément à la portée du premier venu, alors qu’il existe forcément des outils incontournables à connaître ?!). A part cette frustration et quelques coquilles (je ne les ai pas notées, désolé), c’est un sans faute (et encore je ne parle pas de l’introspection d’Axelle Lemaire, qui vaut aussi le détour) :slight_smile :

    #Open_data #Samuel_Goeta #Données_démocratie

  • L’Open data : un pilier de la démocratie contemporaine, selon Samuel Goëta | La Netscouade
    https://lanetscouade.com/picks/l-open-data-un-pilier-de-la-democratie-contemporaine-selon-samuel-goet

    Culture digitale

    Dans une interview avec La Netscouade, Samuel Goëta, expert en données et auteur d’un livre sur l’Open data, dévoile les motivations derrière son ouvrage « Les données de la démocratie, Open data, pouvoirs et contre-pouvoirs » et explore le rôle crucial que l’Open data joue dans la gouvernance contemporaine. Convaincu que la transparence des données renforce la démocratie, Samuel expose les défis actuels, les avancées en France et les perspectives pour un usage plus éclairé de l’information.

    

    Dans son livre "Les données de la démocratie", @samgoeta présente les origines du mouvement #opendata et pose un bilan critique de ses réalisations et propose des pistes d’action pour que les données ouvertes renforcent la démocratie https://t.co/GNQTpA04i1 pic.twitter.com/LlTplaS6ZE
    — La Netscouade (@LaNetscouade) February 22, 2024

    Une décennie d’Open data

    Pour clarifier le concept, Samuel simplifie la définition de l’Open data. Il explique, "Ce sont des données librement réutilisables, tant d’un point de vue technique que juridique. Elles sont lisibles par les machines dans des formats ouverts, et on peut les utiliser librement." L’élément clé est la précision des données, allant au-delà des chiffres globaux pour offrir un accès détaillé, tout en respectant la vie privée grâce à l’anonymisation des données.

    L’Open data, selon Samuel, est bien plus qu’une tendance récente. Il explique, "L’open data, c’est un mouvement qui existe depuis à peu près une dizaine d’années et qui a souvent été un peu sous-évalué pour son intérêt pour la démocratie." Dans son livre, Samuel défend l’idée que l’ouverture des données renforce la démocratie en permettant un débat éclairé, la réévaluation des calculs et l’émergence de nouvelles interprétations des données circulant dans le débat public.
    Quelle est l’utilisation aujourd’hui de l’Open data ?

    Samuel souligne que la France n’est pas en retard dans le mouvement actuel. Il affirme, "En France, on est loin d’être en retard sur cette question-là, au contraire." En effet, les politiques d’Open data sont ancrées dans la loi, notamment la loi pour une République numérique, instaurant le principe d’ouverture des données par défaut pour les administrations et les collectivités territoriales. Cependant, il met en lumière des défis démocratiques, soulignant des problèmes liés à la transparence et à l’application du droit d’accès aux documents administratifs.

    Par ailleurs, dans un monde marqué par la pandémie, Samuel observe un appétit croissant de la société pour les données. Il mentionne, "Il y a qu’à regarder l’époque de la pandémie où tout le monde subissait des décisions prises avec des données et où il y a eu un très fort appétit pour utiliser ces données-là." Des initiatives civiles telles que CovidTracker ont émergé, illustrant la demande croissante de données précises. Des médias, tels que Rape Miner, utilisent des données pour analyser les paroles de rap, tandis que des émissions populaires comme DataGueule renforcent la culture de la donnée.
    L’Open data, un pilier de la démocratie ?

    Interrogé sur le potentiel de l’Open data comme pilier de la démocratie, Samuel est convaincu que c’est déjà une réalité. Il affirme, “C’est déjà un peu un pilier de la vie démocratique en fait, dès qu’on est dans une situation de crise, comme la crise énergétique, comme dans la situation de la pandémie, quand on voit même sur la crise en Ukraine, on va se tourner vers les données.” En période de crise, que ce soit face à une pandémie ou à une crise énergétique, les données deviennent essentielles pour alimenter un débat éclairé.

    Samuel souligne l’Open data comme un outil impulsé par le pouvoir, enraciné dans les lois et les politiques, mais également alimentant les contre-pouvoirs. Il déclare, "L’open data, c’est, d’une certaine manière, un outil impulsé par le pouvoir. C’est à dire que c’était une loi qui a été adoptée dans les collectivités territoriales." Cette dualité crée un équilibre essentiel, où les citoyens, la société civile, les chercheurs et les journalistes peuvent débattre de manière éclairée, contester et réévaluer les décisions.

    Concernant la protection des données personnelles, Samuel rassure en soulignant que l’Europe dispose d’une législation robuste, notamment le RGPD. Il explique, "Il se trouve qu’en Europe, on a une législation sur la protection des données qui est une des plus fortes, qui est le RGPD." Il souligne que l’Open data renforce la culture de la vie privée, avec des données généralement dépourvues d’informations personnelles.

    L’interview se conclut par un message d’espoir de la part de Samuel. Il conclut, "Une bonne raison de lire ce livre c’est qu’il se termine par un message d’espoir. Et le message du livre, ce n’est pas juste de se saisir des données, mais c’est aussi comment est-ce qu’on peut approfondir et étendre la démocratie." Son livre ne se limite pas à encourager l’utilisation des données, mais explore également comment approfondir et étendre la démocratie. Un appel à renforcer les contre-pouvoirs et à équilibrer le débat démocratique, dans lequel les données ouvertes jouent un rôle central.

    À travers cette interview, Samuel Goëta offre une perspective éclairante sur l’Open data, un sujet qui se positionne au cœur des enjeux démocratiques contemporains. Ses paroles enrichissent le débat sur la transparence, la participation citoyenne et l’avenir de la gouvernance. Son livre devient ainsi une lecture incontournable pour ceux qui s’intéressent à ces questions cruciales.

    #Open_data #Samuel_Goeta

  • Parution du livre « Les données de la démocratie : open data, pouvoirs et contre-pouvoirs » - Veille - #TeamOpenData
    https://teamopendata.org/t/parution-du-livre-les-donnees-de-la-democratie-open-data-pouvoirs-et-contre-pouvoirs/4432/2?u=samgoeta

    Enro
    Antoine Blanchard
    6 h

    Merci pour cet ouvrage @samgoeta ! J’avais peur de m’ennuyer à la lecture de cet ouvrage « grand public » mais sa lecture m’a passionné, tu écris bien et tu mêles intelligemment les grandes notions avec des exemples concrets. Et même si on connaît bien l’open data ou les communs numériques on peut apprendre des choses sur le droit d’accès, sur la transparence de l’action publique, ou les hackers citoyens… le livre est tellement riche !

    J’ai particulièrement apprécié tes recommandations en fin d’ouvrage, en espérant qu’elles soient suivies d’effet. En ce qui concerne le chapitre sur les stratégies alternatives pour obtenir des données, j’aurais apprécié quelques conseils pratiques pour passer à l’action, par exemple en matière de scraping (une technique prometteuse qui n’est pas forcément à la portée du premier venu, alors qu’il existe forcément des outils incontournables à connaître ?!). A part cette frustration et quelques coquilles (je ne les ai pas notées, désolé), c’est un sans faute (et encore je ne parle pas de l’introspection d’Axelle Lemaire, qui vaut aussi le détour) :slight_smile :


    https://cfeditions.com/donnees-democratie

    #Samuel_Goëta #Open_data #Données_démocratie

  • Lancement de la première usine de recyclage | Plastic Odyssey
    https://plasticodyssey.org/installation-micro-usine-guinee-bgs-recyplast

    L’entreprise BGS Recyplast (Binedou Global Services) est installée à Conakry, en République de Guinée, depuis 2018. Elle produit de façon artisanale une centaine de pavés routiers par jour, à partir de déchets plastiques ramassés dans la ville. Depuis leur rencontre, Plastic Odyssey et Mariam travaillent main dans la main pour développer et faire grandir l’activité de recyclage existante de BGS Recyplast.

    #plastique #recyclage #conakry #Open_source #Low_tech

  • Je découvre #duckdb
    https://duckdb.org/docs/archive/0.9.2

    Quel merveilleux outil pour travailler avec open data.

    Merci @simplicissimus pour ce lien vers la présentation à Toulouse.
    https://seenthis.net/messages/1038730

    Côté pratique c’est mpressionnant

    Data Import & Export

    CSV Import
    CSV Export
    Parquet Import
    Parquet Export
    Query Parquet
    HTTP Parquet Import
    S3 Parquet Import
    S3 Parquet Export
    JSON Import
    JSON Export
    Excel Import
    Excel Export
    SQLite Import
    PostgreSQL Import

    Tout sauf du #PHP

    There are various client APIs for DuckDB:

    C
    C++
    Java
    Julia
    Node.js
    Python
    R
    Rust
    WebAssembly/Wasm
    ADBC API
    ODBC API

    Additionally, there is a standalone Command Line Interface (CLI) client.

    There are also contributed third-party DuckDB wrappers for:

    C# by Giorgi
    Common Lisp by ak-coram
    Crystal by amauryt
    Go by marcboeker
    Ruby by suketa
    Zig by karlseguin

    Les arguments pour
    https://duckdb.org/why_duckdb

    ... what goals DuckDB has and why and how we try to achieve those goals through technical means. To start with, DuckDB is a relational (table-oriented) DBMS that supports the Structured Query Language (SQL)
    ...
    no external dependencies ...
    no DBMS server software to install ...
    support for complex queries in SQL with a large function library ...

    DuckDB is deeply integrated into Python and R for efficient interactive data analysis. DuckDB provides APIs for Java, C, C++, Julia, Swift, and others.
    ...
    DuckDB is released under the very permissive MIT License
    etc.

    don’t

    High-volume transactional use cases (e.g., tracking orders in a webshop)
    Large client/server installations for centralized enterprise data warehousing
    Writing to a single database from multiple concurrent processes
    Multiple concurrent processes reading from a single writable database

    mais

    PHP example to integrate DuckDB using PHP-FFI
    https://github.com/thbley/php-duckdb-integration

    Currently there is no PHP extension available for using DuckDB, so I created a small library using PHP-FFI.

    DuckDB is an embeddable SQL OLAP database management system. It does not require external servers. Databases are stored in single files (similar to SQLite). Compared to SQLite, DuckDB is much faster. E.g. I imported 16M rows from a CSV file in 5s on my notebook (i5-8250U).

    DuckDB can import CSV files with automatic format detection and automatic table creation using:

    CREATE TABLE test1 AS SELECT FROM read_csv_auto(’test1.csv’);
    CREATE TABLE test2 AS SELECT
    FROM read_csv_auto(’test2.csv.gz’);

    Usage:

    php -dffi.enable=1 test.php

    or:

    docker build -t php-ffi .
    docker run -it —rm -v $(pwd):/code php-ffi php /code/test.php

    Requirements:

    PHP 7.4+ with FFI extension enabled

    Question / défi

    Directly running DuckDB queries on data stored in SQLite files | Hacker News
    https://news.ycombinator.com/item?id=30801575

    #SQL #open_data

  • Meetup Eric Mauvière - Avec DuckDB, gavez-vous d’open data ! - YouTube
    https://www.youtube.com/watch?v=ajo0VBXT6ho

    Nouveau venu parmi les moteurs de requêtes, le « canard » bluffe les habitués par sa vélocité et sa simplicité d’usage. Avec un SQL moderne et amical, il écume tous les formats : CSV, Parquet, JSON et bien d’autres, y compris en ligne. Il se joue de vos dataframes R, Pandas ou Polars et se régale aussi avec les données spatiales.

    Pour vous donner envie de « quacker », rejoignez-nous pour cette présentation basée sur des cas d’usage concrets : elle vous ouvrira de nouveaux espaces et de belles envolées.

    00:00 Introduction
    05:49 Comment utiliser DuckDB
    36:45 Quelques points forts de DuckDB
    47:24 DuckDB, D’ou ça sort ?
    49:43 Savoir utiliser les nouveaux formats orientés colonnes..
    1:00:05 Perspectives et limites

  • Une #île_artificielle pour déporter les palestiniens ?

    Ce lundi 22 janvier à Bruxelles, une réunion du Conseil des affaires étrangères de l’Union Européenne était organisée, en présence de Ministres des 27 États membres ainsi que du représentant d’Israël, invité pour parler de la situation au Proche-Orient.

    À cette occasion, le chef de la diplomatie Israélienne, #Israël_Katz, a proposé la construction d’une île artificielle en #Méditerranée, au large de Gaza, pour y “loger” la population palestinienne, selon les mot du journal anglais The Guardian. Le ministre a montré deux vidéos lors de cette réunion, l’une montrant une ligne de train reliant Gaza à la Cisjordanie, et l’autre montrant ce projet d’île artificielle comprenant un port, une zone industrielle et des habitations. Cette modélisation d’île hautement militarisée et comprenant des checkpoints parait toutefois bien trop petite pour y déporter un grand nombre de palestiniens.

    Cette proposition semble aussi dystopique que déplacée, car cette réunion avait pour objectif de discuter de la crise humanitaire qui frappe Gaza et les moyens d’aller vers une désescalade de la violence. Josep Borell, le représentant des affaires étrangères pour l’Union Européenne, a déclaré aux journalistes : « Je pense que le ministre aurait pu mieux utiliser son temps pour s’inquiéter de la situation dans son pays ou du nombre élevé de morts à Gaza ». Plusieurs ministres ont exprimé leur « perplexité ». C’est un euphémisme.

    Ce projet d’île remonterait à l’époque où Katz était ministre israélien des Transports et a été présenté pour la première fois dans une vidéo de 2017 comme « une réponse à une réalité qui est mauvaise pour les Palestiniens et pas bonne pour Israël », selon Reuters.

    La réunion avait lieu après que le Premier ministre israélien Benjamin Netanyahou ait répété son opposition à la création d’un État palestinien. Sachant que la « solution à deux États », palestinien et israélien, est celle proposée par les États européens. Une idée hypocrite, puisque l’extrême droite israélienne est en train de raser Gaza et d’éliminer ses habitants tout en colonisant morceaux par morceaux la Cisjordanie. Tout ceci vise à rendre impossible toute création d’un futur État palestinien viable. La seule option réaliste est celle d’un seul État, multiconfessionnel, avec une égalité des droits, sans murs, sans discrimination, sans colonisation.

    Netanyahou et ses complices n’ont jamais caché leur volonté d’annexer toute la terre palestinienne, au nom de textes religieux vieux de plus de 2000 ans attribuant, selon eux, ce territoire au seul peuple juif. Dans cette logique messianique, il faudrait donc chasser tous les palestiniens.

    Il y a quelques jours, les médias révélaient un autre projet du gouvernement israélien : celui de déporter la population de Gaza vers un pays africain, affirmant même que des négociations avaient lieu avec le Congo. Une proposition finalement démentie face au scandale.

    Au début de la seconde guerre mondiale, les nazis annonçaient leur projet de chasser tous les juifs d’Europe et envisageaient sérieusement de les déporter sur l’île de Madagascar. Un plan appelé « Madagaskar Projekt » a même été élaboré par des cadres du Reich. Face aux contraintes logistiques posées par la guerre, et animé par un antisémitisme exterminateur, Hitler avait opté pour la solution finale et les camps de la mort.

    L’idée d’îles « ghettos » ou d’îles « prison » pour parquer les indésirables n’est pas unique dans l’histoire. Au large de l’Australie, l’île de Nauru et celle de Manus ont été transformées en camps visant à enfermer des personnes sans-papiers pendant des mois voire des années. Ce modèle inspire l’Europe, qui installe des points de contrôles et des camps de réfugiés sur les îles aux portes de l’Europe.

    Cependant, le projet israélien serait d’une ampleur sans commune mesure, et paraît difficilement réalisable s’il fallait y déplacer des centaines de milliers de personnes. Mais le fait même qu’une telle idée soit évoquée témoigne d’une volonté d’épuration ethnique de la part de l’État israélien.

    https://contre-attaque.net/2024/01/22/une-ile-artificielle-pour-deporter-les-palestiniens

    #île #asile #migrations #réfugiés #réfugiés_palestiniens #Palestine #îles #Israël

    voir aussi, signalé par @gonzo :
    Sources, Katz proposes artificial island in front of Gaza.
    https://seenthis.net/messages/1037778

    ajouté à la métaliste autour des #îles qui sont utilisées (ou dont il a été question d’imaginer de le faire) pour y envoyer des #réfugiés :
    https://seenthis.net/messages/881889

  • Le directeur d’#OpenAI : ‘Une percée énergétique s’avère nécessaire pour l’avenir de l’intelligence artificielle’ - Data News
    https://datanews.levif.be/actualite/innovation/le-directeur-dopenai-une-percee-energetique-savere-necessaire-pour-la

    ‘Il n’y a aucun moyen d’y parvenir sans une avancée décisive’, a-t-il déclaré à propos de l’avenir de l’IA. ‘Cela nous motive à investir davantage dans la #fusion nucléaire.’ En 2021 déjà, Altman avait personnellement procuré 375 millions de dollars à la société américaine de #fusion_nucléaire #Helion Energy. Cette dernière avait ensuite signé un accord pour fournir de l’énergie à #Microsoft, le principal bailleur de fonds d’OpenAI.

    Je partageais hier l’info, déjà. Là, on constate que le monsieur participe aussi à une startup de la fusion nucléaire.

    https://seenthis.net/messages/1037047

    La fusion, c’est pour au bas mot dans 15 ans, ce qui finalement, est presque proche... mais d’ici là... pour alimenter nos super-intelligences qui vont nous rendre la vie plus facile, et nous permettre à tous de profiter de la vie (au chômage https://seenthis.net/messages/1037216), pour les alimenter, donc, il va falloir de l’énergie... et cette énergie, c’est dans la fission qu’on va la trouver, pendant encore au moins 15 ans.

    La SF qui imagine que les derniers électrons produits par l’humanité le seront pour faire fonctionner la dernière IA avant extinction finale, elle n’est pas à côté de la plaque ?

  • #OpenAI CEO Sam Altman Says Future Of AI Depends On #Nuclear #Fusion Breakthrough - News18
    https://www.news18.com/tech/openai-ceo-sam-altman-says-future-of-ai-depends-on-nuclear-fusion-breakthrou

    OpenAI’s CEO Sam Altman on Tuesday said an energy breakthrough is necessary for future artificial intelligence, which will consume vastly more power than people have expected.

    Coco, tu vois, on va mettre 40% de la planète au chômage https://seenthis.net/messages/1037216, et en plus, cette fois, on ne va pas pouvoir leur faire faire autre chose à la place de ce qu’ils faisaient.
    Mais en plus, il va falloir être capable de produire encore plus d’énergie, parce que sinon, les promesses annoncées ne seront pas tenables.
    Pire, peut-être que si on est incapable de maintenir le niveau d’énergie requis par les super-intelligences qui doivent nous remplacer, on devra faire travailler des humains alors qu’ils ne seront plus capables de faire mieux que d’acheter des Nike ou des Reebok en édition spéciale Black Friday. Ça sera la fin des haricots et il faudra aller se réarmer chez Macron.

  • Large Language Publishing, par Jeff Pooley
    https://doi.org/10.54900/zg929-e9595

    Analyse très intéressante sur l’Open access dans la science, ses limites notamment en termes de licence et de droit d’utilisation et de l’usage des articles scientifiques pour entrainer l’intelligence artificielle (#AI) avec la question de la captation des profits associés alors que les éditeurs scientifiques ne rémunèrent jamais, quant à eux, les producteurs de connaissance scientifique et au contraire, exploitent les universités et leurs financements publics sous forme d’abonnements des bibliothèques aux revues ou de APC (charges payées par les scientifiques pour être publiés en #open_access). Le texte soulève d’intéressants paradoxes sur ces enjeux, en faisant un parallèle avec le procès que les grands journaux comme le New York Times ont lancé contre OpenAI et autres entreprises d’intelligence artificielle pour avoir entrainé les logiciels d’AI sans autorisation et surtout sans paiement leurs archives.

    Thus the two main sources of trustworthy knowledge, science and journalism, are poised to extract protection money—to otherwise exploit their vast pools of vetted text as “training data.” But there’s a key difference between the news and science: Journalists’ salaries, and the cost of reporting, are covered by the companies. Not so for scholarly publishing: Academics, of course, write and review for free, and much of our research is funded by taxpayers. The Times suit is marinated in complaints about the costly business of journalism. The likes of Taylor & Francis and Springer Nature won’t have that argument to make. It’s hard to call out free-riding when it’s your own business model.
    [...]
    Enter Elsevier and its oligopolistic peers. They guard (with paywalled vigilance) a large share of published scholarship, much of which is unscrapable. A growing proportion of their total output is, it’s true, open access, but a large share of that material carries a non-commercial license. Standard OA agreements tend to grant publishers blanket rights, so they have a claim—albeit one contested on fair-use grounds by OpenAI and the like—to exclusive exploitation. Even the balance of OA works that permit commercial re-use are corralled with the rest, on propriety platforms like Elsevier’s ScienceDirect. Those platforms also track researcher behavior, like downloads and citations, that can be used to tune their models’ outputs.
    [...]
    As the Times lawsuit suggests, there’s a big legal question mark hovering over the big publishers’ AI prospects. The key issue, winding its way through the courts, is fair use: Can the likes of OpenAI scrape up copyrighted content into their models, without permission or compensation? The Silicon Valley tech companies think so; they’re fresh converts to fair-use maximalism, as revealed by their public comments filed with the US Copyright Office. The companies’ “overall message,“ reported The Verge in a round-up, is that they “don’t think they should have to pay to train AI models on copyrighted work.” Artists and other content creators have begged to differ, filing a handful of high-profile lawsuits.

    The publishers haven’t filed their own suits yet, but they’re certainly watching the cases carefully. Wiley, for one, told Nature that it was “closely monitoring industry reports and litigation claiming that generative AI models are harvesting protected material for training purposes while disregarding any existing restrictions on that information.” The firm has called for audits and regulatory oversight of AI models, to address the “potential for unauthorised use of restricted content as an input for model training.“ Elsevier, for its part, has banned the use of “our content and data” for training; its sister company LexisNexis, likewise, recently emailed customers to “remind” them that feeding content to “large language models and generative AI” is forbidden.
    [...]
    One near-term consequence may be a shift in the big publishers’ approach to open access. The companies are already updating their licenses and terms to forbid commercial AI training—for anyone but them, of course. The companies could also pull back from OA altogether, to keep a larger share of exclusive content to mine. Esposito made the argument explicit in a recent Scholarly Kitchen post: “The unfortunate fact of the matter is that the OA movement and the people and organizations that support it have been co-opted by the tech world as it builds content-trained AI.“ Publishers need “more copyright protection, not less,“ he added. Esposito’s consulting firm, in its latest newsletter, called the liberal Creative Commons BY license a “mechanism to transfer value from scientific and scholarly publishers to the world’s wealthiest tech companies.“ Perhaps, though I would preface the point: Commercial scholarly publishing is a mechanism to transfer value from scholars, taxpayers, universities to the world’s most profitable companies.
    [...]
    There are a hundred and one reasons to worry about Elsevier mining our scholarship to maximize its profits. I want to linger on what is, arguably, the most important: the potential effects on knowledge itself. At the core of these tools—including a predictable avalanche of as-yet-unannounced products—is a series of verbs: to surface, to rank, to summarize, and to recommend. The object of each verb is us—our scholarship and our behavior. What’s at stake is the kind of knowledge that the models surface, and whose knowledge.
    [...]
    These dynamics of cumulative advantage have, in practice, served to amplify the knowledge system’s patterned inequalities—for example, in the case of gender and twentieth-century scholarship, aptly labeled the Matilda Effect by Margaret Rossiter.

    The deployment of AI models in science, especially proprietary ones, may produce a Matthew Effect on the scale of Scopus, and with no paper trail. The problem is analogous to the well-documented bias-smuggling with existing generative models; image tools trained on, for example, mostly white and male photos reproduce the skew in their prompt-generated outputs. With our bias-laden scholarship as training data, the academic models may spit out results that, in effect, double-down on inequality. What’s worse is that we won’t really know, due to the models’ black-boxed character. Thus the tools may act as laundering machines—context-erasing abstractions that disguise their probabilistic “reasoning.” Existing biases, like male academics’ propensity for self-citation, may win a fresh coat of algorithmic legitimacy. Or consider center-periphery dynamics along North-South and native-English-speaking lines: Gaps traceable to geopolitical history, including the legacy of European colonialism, may be buried still deeper. The models, in short, could serve as privilege multipliers.
    [...]
    So it’s an urgent task to push back now, and not wait until after the models are trained and deployed. What’s needed is a full-fledged campaign, leveraging activism and legislative pressure, to challenge the commercial publishers’ extractive agenda. One crucial framing step is to treat the impending AI avalanche as continuous with—as an extension of—the publishers’ in-progress mutation into surveillance-capitalist data businesses.
    [...]
    So far the publishers’ data-hoovering hasn’t galvanized scholars to protest. The main reason is that most academics are blithely unaware of the tracking—no surprise, given scholars’ too-busy-to-care ignorance of the publishing system itself. The library community is far more attuned to the unconsented pillage, though librarians—aside from SPARC—haven’t organized on the issue. There have been scattered notes of dissent, including a Stop Tracking Science petition, and an outcry from Dutch scholars on a 2020 data-and-publish agreement with Elsevier, largely because the company had baked its prediction products into the deal. In 2022 the German national research foundation, Deutsche Forschungsgemeinschaft (DFG), released its own report-cum-warning—“industrialization of knowledge through tracking,” in the report’s words. Sharp critiques from, among others Bjorn Brembs, Leslie Chan, Renke Siems, Lai Ma, and Sarah Lamdan have appeared at regular intervals.

    None of this has translated into much, not even awareness among the larger academic public. A coordinated campaign of advocacy and consciousness-raising should be paired with high-quality, in-depth studies of publisher data harvesting—on the example of SPARC’s recent ScienceDirect report. Any effort like this should be built on the premise that another scholarly-publishing world is possible. Our prevailing joint-custody arrangement—for-profit publishers and non-profit universities—is a recent and reversible development. There are lots of good reasons to restore custody to the academy. The latest is to stop our work from fueling the publishers’ AI profits.

    #profits #Elsevier #science #commons #inégalités

  • Sylvain Machefert : « Si durant vos balades familiales de fin d’année vous croisez des boîtes à livres »
    https://framapiaf.org/@symac@mamot.fr/111653501473525832

    Si durant vos balades familiales de fin d’année vous croisez des boîtes à livres, assurez vous qu’elles sont déclarées sur https://www.boites-a-livres.fr (et donc #openstreetmap ) et sinon pensez à les signaler, avec photo si possible. Je viens d’ajouter un formulaire sur le site, je m’occuperai de la mise en ligne sur OpenStreetMap et Wikimédia Commons pour une diffusion de l’information la plus large possible ! #communs #geocommuns

    https://www.boites-a-livres.fr

  • Les #outils de #gestion de #projet #opensource offrent plusieurs avantages, notamment la #flexibilité, l’#adaptabilité et la #transparence. Je sais de quoi je parle car j’utilise actuellement #ProjeQtOr chez mon #employeur pour gérer mes projets. Quelques bonnes raisons d’utiliser ces outils : la possibilité de #personnaliser et de modifier le #code #source pour répondre à des besoins spécifiques, ce qui les rend plus flexibles que les #solutions #propriétaire.
    https://michelcampillo.com/blog/3176.html

  • Upcoming Executions | Death Penalty Information Center
    https://deathpenaltyinfo.org/executions/upcoming-executions

    The Death Penalty Information Center (DPIC) is a national non-profit organization whose mission is to serve the media, policymakers, and the general public with data and analysis on issues concerning capital punishment and the people it affects. DPIC does not take a position on the death penalty itself but is critical of problems in its application.

    Founded in 1990, DPIC promotes insightful discourse on the death penalty by curating and presenting expansive, authoritative data from credible sources and offering clear, trustworthy, and timely information and research about the history and current application of the death penalty. DPIC produces groundbreaking reports on issues such as arbitrariness, costs, innocence, and racial disparities. DPIC also releases an annual year-end report highlighting significant developments and trends. A wide variety of free online resources are available on DPIC’s award-winning website, including searchable databases; data visualizations; educational curricula; and podcast series, Discussions with DPIC, which explores diverse viewpoints and experiences related to capital punishment.

    https://deathpenaltyinfo.org/about/about-us

    #USA #peine_capitale #open_data