• Opinion | Scarlett Johansson’s Voice Isn’t the Only Thing A.I. Companies Want - The New York Times
    https://www.nytimes.com/live/2024/05/21/opinion/thepoint#openai-scarlett-johansson

    Par Zeynep Tufekci

    When OpenAI introduced its virtual assistant, Sky, last week, many gasped. It sounded just like Scarlett Johansson, who had famously played an artificial intelligence voice assistant in the movie “Her.”

    On the surface, the choice made sense: Last year, Sam Altman, the C.E.O. of OpenAI, had named it his favorite science fiction movie, even posting the single word “her” around the assistant’s debut.

    OpenAI approached Johansson to be the voice for its virtual assistant, and she turned it down. The company approached her again two days before the debut of Sky, but this time, she said in a blistering statement, it didn’t even wait for her official “no” before releasing a voice that sounds so similar to hers that it even fooled her friends and family.

    In response to Johansson’s scathing letter, OpenAI claimed that the voice was someone else and “was never intended to resemble hers,” but it took Sky down anyway.

    The A.I. industry is built on grabbing our data — the output that humanity has collectively produced: books, art, music, blog posts, social media, videos — and using it to train their models, from which they then make money or use as they wish. For the most part, A.I. companies haven’t asked or paid the people who created the data they grab and whose actual employment and future are threatened by the models trained on it.

    Politicians haven’t stepped in to ask why humanity’s collective output should be usurped and monopolized by a handful of companies. They’ve practically let the industry do what it wants for decades.

    I am someone who believes in the true upside of technology, including A.I. But amid all the lofty talk about its transformational power, these companies are perpetuating an information grab, a money grab and a “break the rules and see what we can get away with” mentality that’s worked very well for them for the past few decades.

    Altman, it seems, liked Johansson’s voice, so the company made a simulacrum of it. Why not?

    When you’re a tech industry star, they let you do anything.

    #Zeynep_Tufekci #Intelligence_artificielle #OpenAI #Voice

  • RTS Des drones tueurs fonctionnent avec un logiciel d’origine suisse

    Créé entre 2008 et 2011 à l’EPF de Zurich, un logiciel de pilotage automatique équipe de nombreux drones utilisés sur le champ de bataille, de l’Ukraine à Gaza, y compris des drones kamikazes, révèle jeudi le Pôle enquête de la RTS. L’EPFZ et l’inventeur du concept, un ex-étudiant de l’école, s’estiment exonérés de toute responsabilité liée à ces développements.

    Le logiciel de pilotage automatique, appelé PX4, et sa suite Pixhawk, ont été conçus entre 2008 et 2011 à l’Ecole polytechnique fédérale de Zurich (EPFZ) par une équipe d’une quinzaine d’étudiants encadrés par certains de leurs professeurs.


    Ils cherchaient le moyen de faire fonctionner un drone de façon autonome, indépendamment d’une télécommande. On le compare souvent au système d’exploitation Android pour les smartphones, tant son utilisation s’est généralisée. A des fins civiles, mais aussi militaires. Ce qui soulève un certain nombre de questions éthiques et stratégiques.

    Utilisation en Ukraine
    Le logiciel d’origine suisse est utilisé par divers belligérants dans le monde en zone de guerre. Il a été retrouvé en Ukraine, sur le champ de bataille, par des unités russes, dans au moins quatre cas identifiés par le Pôle enquête de la RTS. Dans l’une de ces situations, le logiciel dans sa version Pixhawk se trouvait à l’intérieur d’un drone ukrainien équipé d’une charge explosive.

    Les codes sources du logiciel ont été partagés sur une plateforme internet dédiée, ce qui vaut au système d’être régulièrement mis à jour par ses utilisateurs, pour la plus grande satisfaction des forces armées ukrainiennes notamment. « Le fait que des logiciels de pilotage soient disponibles en source ouverte, ça leur a certainement fait gagner des années », estime l’expert en aéronautique Xavier Tytelman jeudi dans le 19h30 de la RTS.

    Des drones autonomes à bas coûts
    L’autopilotage a révolutionné l’industrie du drone de guerre. Sur le théâtre d’opérations, où le signal GPS peut facilement être brouillé, permettre à un drone de faire aboutir sa mission quoi qu’il arrive est un enjeu majeur. « Quand ils sont en train de guider leurs drones kamikazes pour aller par exemple sur un char, même si la communication est perdue, il faut que le drone continue tout droit jusqu’à l’impact. Et ça, ce sont des modifications qu’ils ont pu réaliser et ils l’ont fait très rapidement », souligne Xavier Tytelman.

    Même si la communication est perdue, il faut que le drone continue tout droit jusqu’à l’impact
    Xavier Tytelman, expert en aéronautique

    Vendu à peine plus de 100 euros sur internet pour les modèles les moins récents, dont certains sont fabriqués en Chine, Pixhawk a favorisé l’essor d’une nouvelle économie, celle des drones de guerre autonome à bas coûts. La RTS a pu consulter un document dans lequel la coalition menée par les Etats-Unis pour vaincre le groupe Etat islamique alerte ses membres sur la volonté du groupe terroriste d’acquérir ce logiciel pour ses drones. Le groupe terroriste a déjà pu s’en procurer, a appris la RTS.

    Révolution « dangereuse »
    Fondateur de l’Organisation israélienne de défense antimissile, à qui l’on doit le fameux Dôme de fer, l’ingénieur Uzi Rubin, aujourd’hui chercheur à l’Institut d’études stratégiques de Jérusalem, estime que cette prolifération représente un danger. Il s’inquiète des développements militaires favorisés par le partage d’expérience open-source, via PX4 ou son concurrent Ardupilot. « N’importe qui avec ça peut aujourd’hui créer une arme de guerre vu que les logiciels sont accessibles librement et sans contrôle, tout comme les composants. Ces armes dangereuses prolifèrent au sein des gouvernements, mais aussi des organisations criminelles et cela favorise l’instabilité », déclare-t-il à la RTS.

    Ces armes dangereuses prolifèrent au sein des gouvernements, mais aussi des organisations criminelles et cela favorise l’instabilité
    Uzi Rubin, chercheur à l’Institut d’études stratégiques de Jérusalem

    Israël n’est pas en reste. L’été dernier, le fabricant de drones de guerre israélien Xtend a adopté le logiciel développé initialement en Suisse, dans une version miniaturisée par la société américaine ModalAI. Xtend travaille pour l’armée israélienne et déploie ses drones dans le cadre des opérations militaires actuelles dans la bande de Gaza.

    Nouvel outil d’autopilotage
    Arrivé en Suisse en 2008 à la faveur d’une bourse décrochée à l’EPFZ, l’inventeur de ces outils, Lorenz Meier, les a depuis mis aux normes de l’armée américaine. Il a créé une nouvelle société, Auterion, établie à Zurich avec un siège aux Etats-Unis. Il développe un nouvel outil d’autopilotage pour les drones militaires américains d’observation. Le code éthique de l’entreprise exclut les contributions pour les drones armés.

    Lorenz Meier a décliné la proposition d’interview formulée par la RTS et répondu par l’entremise d’une porte-parole. Cette dernière reconnaît l’utilisation du logiciel à des fins militaires, mais rappelle qu’il est développé par des milliers de personnes dans le monde, du fait de son caractère open-source. Il s’agit, selon elle, « du plus grand écosystème de développeurs au monde, exploitant des robots autonomes. Des logiciels comme PX4 et Pixhawk sont largement utilisés pour permettre le transport et la livraison civile dans le monde entier ».

    De son côté, l’EPFZ n’a pas donné suite à la demande d’interview de la RTS avec son président et s’est exprimée en des termes similaires, notamment pour ce qui concerne l’impossibilité de contrôler des développements effectués en open-source. « Chaque fabricant de drones peut utiliser le code gratuitement et le personnaliser selon ses propres besoins, tout comme les fabricants de smartphones peuvent le faire avec Android », déclare une porte-parole dans un email. Concernant l’usage à des fins militaires, l’institution dit le regretter et n’avoir aucune prise en la matière. « Malheureusement, les avancées technologiques peuvent être utilisées non seulement à des fins positives, mais aussi potentiellement dans des contextes plus problématiques. »

    Une catégorie de matériels interdits d’exportations en Russie et en Ukraine
    Interpellé par la RTS, le Secrétariat d’Etat à l’économie fait savoir que ces dispositifs de commande « peuvent être considérés à première vue comme open source et librement disponibles. Ils ne sont pas soumis à des contrôles à l’exportation ».

    Cependant, le Seco précise qu’ils entrent dans la catégorie de matériels interdits d’exportation en Russie et en Ukraine, comme stipulé dans une ordonnance adoptée par le Conseil fédéral en mars 2022, après le début de l’invasion russe.

    Dans leur grande majorité, ces outils ne sont pas fabriqués en Suisse.

    #Suisse #EPF #EPFZ #scientifiques #chercheurs #drones #open_source #logiciel_libre #opensource #libre #autopilotage #logiciels_libres #Linux #software #guerre
     
    Source : https://www.rts.ch/info/suisse/2024/article/des-drones-tueurs-fonctionnent-avec-un-logiciel-d-origine-suisse-28482795.html

    • Les Suisses, ils sont toujours là « Booh, on vend des armes à l’étranger, c’est contraire à notre législation ». Mais ils le font depuis toujours, toujours avec des parades pour passer ce filtre : vente en pièces détachées, sans les armes incluses, pour un autre usage sur le papier...
      Soit ils reprennent ça en main, soit ils s’essuient le cul avec leurs conventions. Et qu’on mette à jour la neutralité suisse en fonction de la réalité.

      Vendre des Piranha et des Pilatus, ca redevient des armes, la plupart du temps sur le terrain.

  • Recension du livre « Les données de la démocratie » de Samuel Goëta | LinkedIn
    https://www.linkedin.com/feed/update/urn:li:activity:7184452712401371136

    Recension du livre « Les données de la démocratie » de Samuel Goëta.

    Elsa Foucraut • Consultante • Enseignante • Autrice du "Guide du Plaidoyer" (éditions Dunod)

    💡"L’ouverture des données en France, rendue obligatoire par la loi pour une République numérique, ressemble à bien des égards à la tour de Pise. Ce superbe édifice, qui attire les regards du monde entier, doit son inclinaison à des fondations instables.”

    📚 Lecture du jour : "Les données de la démocratie" de Samuel Goëta (C & F EDITIONS), avec une préface de l’ancienne ministre du numérique Axelle Lemaire.

    Depuis 2016, la loi impose à toutes les administrations françaises le principe de l’open data par défaut. Pourtant, quiconque a déjà eu besoin d’accéder à des données d’intérêt général non publiques mesure à quel point le principe est loin d’être pleinement appliqué (euphémisme). De vraies fractures territoriales se creusent entre les collectivités, accéder aux données relève souvent du saut d’obstacles, et les données disponibles sur les portails open data des collectivités sont parfois décevantes.

    Le livre revient d’abord en détail sur l’histoire de l’open data : des origines aux étapes plus récentes, avec la création d’Etalab et la loi pour une République numérique. Une belle synthèse, avec plein de références et d’anecdotes que je ne connaissais pas. Il manquait justement un livre de référence pour retracer cette histoire contemporaine, avec le versant français.

    Mais ce sont les chapitres sur le bilan critique de l’open data, qui m’ont semblé les plus intéressants. Certes, les obstacles à l’open data tiennent parfois à la résistance consciente de certains agents (un "DataBase Hugging Disorder" ou DBHD 😅).

    Mais Samuel Goëta montre que cela tient le plus souvent à des frictions organisationnelles et/ou techniques : les agents n’ont pas toujours le mandat pour ouvrir des données qui pourraient servir l’opposition ou remettre en question l’action des élus ; de nombreux projets d’open data sont conçus comme des projets servant d’abord l’image de l’institution, sans les moyens de leur ambition ; la mauvaise qualité des données peut s’expliquer par le fait que les données d’une administration étaient d’une qualité suffisante pour un usage interne et n’avaient pas été envisagées pour un usage externe ; les problèmes techniques sont fréquents et l’ouverture se transforme parfois en une véritable enquête dans les serveurs quand les techniciens n’ont pas accès aux "schémas de base" ; et les agents sont parfois réticents parce qu’ils anticipent des usages malveillants des données, ou bien ont une interprétation excessive du RGPD (un grand classique !).

    L’ouvrage préconise notamment une refonte du droit d’accès aux données : transférer à la CNIL l’arbitrage de l’accès aux données individuelles traitées par les acteurs publics ; intégrer la Cada dans la HATVP ; donner à la CADA le pouvoir de sanctionner les administrations récalcitrantes ; créer un “référé communication” pour accélérer le traitement des demandes. Pourquoi pas !

    ➡ "Faut tout donner afin de changer les données" : une citation de NTM (oui oui) qui sert de conclusion au livre ;-)

    #Samuel_Goëta #Open_data #Données_démocratie

  • The pact kills : l’istituzionalizzazione della fine del diritto d’asilo nell’UE

    Un documento dell’Associazione #Open_Your_Borders di Padova sul nuovo patto europeo sulla migrazione e l’asilo.

    Il 10 aprile il Parlamento europeo ha approvato il Nuovo Patto sulla Migrazione e l’Asilo, frutto di un lungo negoziato cominciato nel 2020 tra Parlamento, Consiglio e Commissione.

    Prima di entrare in vigore, dovrà essere votato anche dal Consiglio dell’UE, l’organo in cui risiedono i rappresentanti dei governi dei 27 stati membri, la cui votazione è attesa entro la fine di aprile.

    In sintesi, questo Nuovo Patto prevede una serie di riforme del sistema di gestione dei flussi migratori e della richiesta di protezione internazionale nel territorio dell’Unione Europea e, in particolare, raccoglie al suo interno dieci proposte di legge che vanno brutalmente a rafforzare l’approccio securitario della ormai consolidata “fortezza Europa”, costituita dalle 27 nazioni, sulle 43 + 7 dell’Europa geografica.

    È evidente che i tempi e i contenuti di questa mossa hanno chiare motivazioni elettoralistiche in vista delle elezioni Europee, con il riposizionamento dei vari partiti nazionali in funzione sia della propria affermazione locale che della futura riaggregazione in probabili inedite coalizioni. Infatti “il Patto” è stato approvato trasversalmente con 301 voti favorevoli, 269 contrari e 51 astensioni.

    La coalizione di centrodestra governativa guidata da Giorgia Meloni è risultata non omogenea, con lo spostamento di Fratelli d’Italia (attualmente all’opposizione in Europa) a favore e con la Lega che ha confermato il proprio voto contrario, probabilmente perché considera la linea adottata troppo moderata e poco sovranista.

    Con motivazioni opposte, si sono schierati contrari anche il PD (che è organico dell’attuale maggioranza in UE) e il Movimento 5 stelle.

    Si rincorrono i toni trionfalistici per la “decisione storica” presa, dipinta come “un enorme risultato per l’Europa”, “un solido quadro legislativo su come affrontare la migrazione e l’asilo nell’Unione europea” e per una fantomatica e propagandistica “vittoria italiana” sottolineata da Meloni, nonostante il tanto criticato Regolamento di Dublino (per cui è il paese di primo ingresso l’unico responsabile di esaminare le richieste di protezione internazionale e di gestire e trattenere al suo interno le persone migranti) sia stato di fatto rafforzato.

    Noi, in questa giornata buia per il diritto d’asilo europeo e per la libertà di movimento internazionale, vediamo solo un consolidamento di pratiche di violazione dei diritti umani, che sono già attuate e condivise da parecchio tempo, sia alle frontiere che nei territori degli Stati dell’Unione Europea, in vista di quello che si prospetta come un inasprimento e allargamento del conflitto mediorientale e di una sempre maggiore instabilità di tutta l’area del Sahel (testimoniato da 7 colpi di Stato in pochi anni e dalla guerra solo apparentemente interna in Sudan che continua nell’indifferenza generale) dove si stanno giocando gli interessi egemonici in Africa dei due blocchi politici ed economici contrapposti, con Stati Uniti e Francia su tutti da un lato, e paesi Brics (Russia, Cina, India, ecc.) dall’altro.

    Con l’Unione Europa dal peso politico inconsistente tra le due parti e i suoi Stati membri che si percepiscono (erroneamente) come meta di approdo per tutti i movimenti di fuga delle popolazioni, i confini esterni dell’Unione diventano in primis la rappresentazione materiale da blindare assolutamente a scopo preventivo.

    Di seguito, analizziamo nello specifico le nuove norme per noi più critiche e problematiche.
    1) Procedure accelerate e sommarie per la richiesta di protezione internazionale

    Il Nuovo Patto divide in maniera importante i percorsi di richiesta di protezione internazionale, con l’applicazione di una procedura accelerata e generalizzata basata soprattutto sulla provenienza geografica legata alla classificazione dei cosiddetti “Stati sicuri” e non sulla storia individuale delle persone.

    Il testo prevede che tali procedure accelerate – che dovrebbero durare al massimo 12 settimane – siano svoltedirettamente nelle zone di frontiera, con il trattenimento di migliaia di persone in centri di detenzione posizionati ai confini degli Stati dell’Unione Europea.

    Lo svolgimento dell’esame approssimativo delle richieste sulla base della nazionalità porterà quindi ad un aumento generalizzato delle espulsioni, limitando la possibilità di richiesta di asilo, in violazione del principio internazionale del non respingimento, ma anche, ad esempio, al diritto alle cure mediche e al ricongiungimento familiare.

    Il criterio basato sullo Stato di provenienza è già stato eccezionalmente usato per velocizzare l’ingresso e l’integrazione diffusa delle persone rifugiate ucraine – però limitato a donne, bambin* e anzian*. Tale applicazione, causata dal conflitto Russia-Ucraina, che evidentemente ci tocca da vicino sia per posizione geografica che etnica, ha però contestualmente escluso l’evacuazione di tutti gli altri “non bianchi” presenti in quel territorio per motivi di lavoro, di studio o in transito migratorio. Anche per questo motivo, utilizzare solamente il criterio di provenienza geografica di origine senza considerare le specificità delle persone nelle procedure accelerate è funzionale alla negazione dell’asilo, in quanto arbitraria e strumentale da parte degli Stati.
    2) Un nuovo regolamento di screening (ovvero l’esercizio della bio-politica)

    Le persone richiedenti asilo non possono scegliere se seguire una procedura tradizionale (che richiede molti mesi) o accelerata, ma vengono divisi e indirizzati in base al loro profilo, stilato attraverso un nuovo e uniforme regolamento di screening obbligatorio inserito nell’Eurodac, creando così una enorme banca dati comune: questa “procedura di frontiera” preliminare, da farsi entro 7 giorni dall’arrivo, comprende identificazione, raccolta dei dati biometrici, controlli sanitari e di sicurezza, controllo di eventuali trasferimenti e precedenti, il tutto a partire dai 6 anni di età. Questa procedura sarà adottata principalmente per le persone richiedenti asilo che per qualche motivo vengono considerati un “pericolo” per i paesi dell’Unione, per coloro che provengono dai paesi considerati “sicuri” e per chi proviene da paesi che, anche per altri motivi, hanno un tasso molto basso (sotto il 20 per cento) di domande d’asilo accolte.
    3) Introduzione del concetto di “finzione del non ingresso”

    Il patto introduce il concetto di “finzione giuridica di non ingresso”, secondo il quale le zone di frontiera sono considerate come non parte del territorio degli Stati membri. Questo interessa in particolare l’Italia, la Grecia e la Spagna per gli sbarchi della rotta mediterranea, mentre sono più articolati “i confini” per la rotta balcanica. Durante le 12 settimane di attesa per l’esito della richiesta di asilo, le persone sono considerate legalmente “non presenti nel territorio dell’UE”, nonostante esse fisicamente lo siano (in centri di detenzione ai confini), non avranno un patrocinio legale gratuito per la pratica amministrativa e tempi brevissimi per il ricorso in caso di un primo diniego (e in quel caso rischiano anche di essere espulse durante l’attesa della decisione che li riguarda). In assenza di accordi con i paesi di origine (come nella maggioranza dei casi), le espulsioni avverranno verso i paesi di partenza.

    Tale concetto creadelle pericolose “zone grigie” in cui le persone in movimento, trattenute per la procedura accelerata di frontiera, non potranno muoversi sul territorio né tantomeno accedere a un supporto esterno. Tutto questo in spregio del diritto internazionale e della tutela della persona che, sulla carta, l’UE si propone(va) di difendere.
    4) L’istituzione di un meccanismo di “solidarietà obbligatoria” e l’esternalizzazione dei confini

    All’interno di una narrazione in cui le persone in movimento sono un onere da cui gli Stati Europei cercano di sottrarsi, viene istituito un meccanismo di “accettazione obbligatoria” di ricollocamento e trasferimento delle persone migranti, ma solo in caso di non precisate impennate di arrivi. Gli Stati potranno però scegliere se “accettare” un certo numero di migranti o, in alternativa all’accoglienza, fornire supporto operativo al paese d’arrivo, inviando del personale o mezzi, oppure pagare una quota di 20mila euro per ogni richiedente che si rifiutano di accogliere, da versare in un fondo comune dell’Unione Europea.

    I soldi versati in questo fondo comune, oltre a poter essere redistribuiti tra i paesi di frontiera (come l’Italia), potranno essere utilizzati per sostenere e finanziare «azioni nei paesi terzi o in relazione ad essi che hanno un impatto diretto sui flussi migratori verso l’UE» ossia paesi, come Libia e Tunisia da cui le persone migranti partono per raggiungere l’Europa.

    Un meccanismo disumanizzante e che trasforma le persone e le garanzie dei diritti umani in merci barattabili con un compenso economico destinabile a rafforzare i confini ancora più esternamente.

    Un ulteriore sviluppo è dato dalla delocalizzazione della zona di frontiera, attraverso la creazione di hotspot al di fuori dei confini nazionali, come nel caso dei futuri centri italiani in Albania.

    L’adozione di questo Nuovo Patto – non ancora definitivo, si ricorda – dimostra come i valori di accoglienza e “integrazione” e il diritto alla libertà di movimento, previsto dall’art. 12 della Dichiarazione Universale dei Diritti Umani, vengano sgretolati di fronte ad una sempre più marcata diffidenza, chiusura e difesa della sovranità nazionale.

    Con la recrudescenza dei nazionalismi negli Stati Europei e la loro incapacità di agire con una lungimiranza alternativa e una visione decolonializzata nello scacchiere geopolitico, la tutela degli individui e della dignità umana viene “semplicemente” sostituita da inquietanti concetti privi di senso legati alla purezza della nazione e dell’etnia e alla difesa, in modalità securitaria e repressiva, della patria e della tradizione, che si traducono in istituzionalizzazione e normalizzazione dell’agire violento ai confini della UE e in una crescente esternalizzazione della frontiera attraverso il respingimento delle persone razzializzate nell’ultimo Paese di partenza, con l’intento dichiarato di voler scoraggiare la mobilità verso l’Europa.

    https://www.meltingpot.org/2024/04/the-pact-kills-listituzionalizzazione-della-fine-del-diritto-dasilo-nell
    #pacte #asile #migrations #réfugiés #droit_d'asile #procédure_accélérée #pays_sûrs #rétention #frontières #rétention_aux_frontières #screening #Eurodac #procédure_de_frontière #biométrie #fiction_juridique #zones_frontalières #solidarité_obligatoire #externalisation #relocalisation #fiction_légale #legal_fiction

    –-

    ajouté à la métaliste sur #Pacte_européen_sur_la_migration_et_l’asile :
    https://seenthis.net/messages/1019088

    ajouté à la métaliste autour de la Création de zones frontalières (au lieu de lignes de frontière) en vue de refoulements :
    https://seenthis.net/messages/795053

  • #Organic_Maps, une alternative à #google_maps :

    Organic Maps est un #logiciel_libre de #cartographie et de navigation utilisable #hors-ligne et basé les données cartographiques d’#OpenStreetMap. Il se base uniquement sur des données vectorielles pour le rendu des objets et permet un rendu 2D ou 3D temps réel. Il s’adapte au logiciel de synthèse vocale disponible du système d’exploitation sur lequel il tourne. Il est disponible pour Android et GNU/Linux et iOS. Il s’agît à l’origine d’un fork de #Maps.me, fait par ses propres développeurs.

    https://fr.wikipedia.org/wiki/Organic_Maps

    #offline #off-line #OSM #marche #vélo #app

  • Vous avez suivi l’histoire avec la librairie #XZ ?
    C’est Mission Impossible IRL (ou le poisson d’avril le plus dingue de l’histoire des poissons d’avril)

    Rémy sur Mastodon

    Ça fait deux jours que je suis fasciné par ce qui se passe dans le monde de la sécurité informatique, autour de la backdoor XZ. Je vais essayer de vous l’expliquer, ça va être technique, mais c’est important.

    Pour Internet, c’est l’équivalent d’un gros astéroïde qui serait passé à 5000km de la Terre. Pas d’impact, pas de dégâts directs, mais on aurait pu tous y passer et personne ne l’a vu venir.

    Je vais chercher à vulgariser un maximum, tout en donnant des liens vers les sources directes, qui sont souvent très techniques et en anglais.

    Le fil complet :
    https://mamot.fr/@rusty@piaille.fr/112190942190403821

    #cybersecurité #hacking #InfoSec #backdoor #OpenSSH

  • Des cerveaux humains de 12 000 ans découverts dans un état de conservation exceptionnel - Ça m’intéresse
    https://www.caminteresse.fr/histoire/des-cerveaux-humains-de-12-000-ans-decouverts-dans-un-etat-de-conservat

    Lors d’une vaste opération de recensement des cerveaux humains les mieux préservés naturellement, des chercheurs ont découvert qu’il existait des organes fossilisés vieux de 1 000 à 12 000 ans. Depuis, ils enquêtent sur leurs mystérieuses conditions de conservation.

    On dirait une vieille noix desséchée. Il s’agit en réalité d’un cerveau humain qui a survécu aux affres du temps, pendant un millénaire. Cette incroyable découverte n’est pas la seule réalisée par Alexandra Morton-Hayward et son équipe de l’Université d’Oxford, qui a même découvert des organes encore plus anciens, datant de 12 000 ans maximum, conservés dans les archives archéologiques mondiales !
    Une gigantesque archive cérébrale

    Ces taphonomistes, des spécialistes de la fossilisation d’un organisme humain, animal, ou végétal après sa mort, se sont lancés dans le projet de répertorier tous les cerveaux humains gardés dans les musées et les universités pour étudier leur état de conservation. Comme ils l’expliquent dans leur étude publiée dans Proceedings of the Royal Society B, ils ont identifié dans la littérature scientifique mondiale plus de 4 400 cerveaux préservés dans différents environnements, sur tous les continents. Ces archives, qui remontent jusqu’au milieu du XVIIe siècle, remettent en question l’idée communément admise selon laquelle le cerveau est toujours l’un des premiers organes à se décomposer après la mort.

    En effet, un corps en décomposition qui n’a pas été embaumé, momifié, congelé, va perdre ses tissus mous, qui vont se liquéfier, ne laissant visible que son squelette. Que ces tissus mous aient été préservés est rare, et il est encore plus rare qu’il s’agisse d’un cerveau. Pourtant, parmi les cerveaux préservés qui ont été retrouvés, près d’un tiers (1 300) était la seule trace de tissu mou ayant survécu sur le squelette. Et cela a aussi été le cas sur certains des plus vieux organes retrouvés.
    Un mystérieux mécanisme de conservation

    Pourquoi ces cerveaux, qui étaient censés être réduits en poussière, se sont-ils fossilisés ? Cela ne peut pas être lié aux seules conditions naturelles de conservation, car ils ont été retrouvés dans des endroits très divers : fosse commune de la guerre civile espagnole, tombe préhistorique, épave, tumulus néolithique, désert, rives d’un lac, volcan endormi... Il y avait même des têtes décapitées. Ils appartenaient à toutes catégories de population (moines, guerriers, famille royale, explorateurs, enfants etc.). Les chercheurs pensent donc qu’il pourrait exister un mécanisme de préservation spécifique au système nerveux central, qui se déclencherait parfois lors d’un contact avec quelque chose de présent dans l’environnement, et qui permettrait au cerveau de se durcir.

    Les scientifiques tâtonnent encore, mais poursuivent leurs recherches, car ces immenses archives démontrent clairement qu’il existe certaines circonstances dans lesquelles le cerveau peut survivre pendant un nombre exceptionnel d’années. "Que ces circonstances soient environnementales ou liées à la biochimie unique du cerveau, c’est au centre de nos travaux en cours et futurs, explique Alexandra Morton-Hayward à Newsweek. Leur étude s’intéresse notamment à l’analyse moléculaire de ces vestiges exceptionnels, aux restes de lipides, de protéines ou de glucides qui pourraient subsister dans ces cerveaux et nous donner des réponses. « Nous découvrons un incroyable nombre d’anciennes biomolécules de toutes sortes préservées dans ces cerveaux archéologiques, et c’est passionnant d’explorer tout ce qu’elles contiennent, et à quel point elles peuvent nous parler de la vie et de la mort de nos ancêtres. »

    Human #brains preserve in diverse environments for at least 12 000 years #ProcB #OpenAccess https://t.co/S581ZlPFL3 #Palaeontology #Evolution @MortonHayward @ErinSaupe pic.twitter.com/1JJlRMAvsS
    — Royal Society Publishing (@RSocPublishing) March 20, 2024

    Mais il existe un obstacle dans l’accès à ces cerveaux, considérés à juste titre comme des découvertes exceptionnelles, déplore la chercheuse à Oxford. Moins d’1% d’entre eux seraient étudiés de près, rapporte Newsweek, ce qui limite beaucoup les découvertes scientifiques qu’ils pourraient permettre.

  • Pourquoi C# reste aussi décrié par les libristes, et pourquoi ils ont raison ?

    – Le langage C# est normalisé ECMA, mais n’est que open-source
    – .NET Core est libre (licence MIT), mais reste sous l’EULA Microsoft... je ne sais pas comment ca se résoudrait devant un juge.
    – Le compilateur est libre (Roslyn, licence MIT).
    – Xamarin, le cross platform implementation, est privateur
    – je ne parle pas du compilateur indépendant MONO

    Donc on peut vite penser que C# et .NET sont libres, mais en vrai, ils s’adossent à des outils qui ne le sont pas. On peut tomber dans des superpositions de licences qui ne sont pas libres, juste open-sources.

    Et n’oublions pas : L’open-source, c’est la laisse que le maitre a faite tomber au sol, mais qu’il peut reprendre à tout moment.

    #microsoft #.net #csharp #dotnet #opensource

  • « L’ouverture des données ressemble à la tour de Pise » | La Gazette des communes
    https://www.lagazettedescommunes.com/916856/louverture-des-donnees-ressemble-a-la-tour-de-pise

    Auteur des « Données de la démocratie, open data, pouvoirs et contre-pouvoirs », paru en janvier, le sociologue Samuel Goëta dresse un bilan critique de l’émergence de l’open data, entre renouvellement de la transparence en demi-teinte, transformation des administrations inaboutie et promesses de croissance et d’innovation non tenues.

    Défendre l’ouverture des données publiques pour revitaliser la démocratie, c’est la conviction développée par ­Samuel ­Goëta dans son ouvrage paru le mois dernier, « Les Données de la démocratie, open data, pouvoirs et contre-pouvoirs », (C&F éd.). Sociologue, maître de conférences associé à ­Sciences-po Aix, cofondateur de la société coopérative et participative spécialisée dans l’open data ­Datactivist, il a aussi participé à la création de l’association Open ­Knowledge France, en 2012, qui anime « ­madada.fr », visant à faciliter les demandes d’accès aux données et aux documents administratifs.

    Samuel ­Goëta revient sur la naissance et l’émergence de l’open data, ce mouvement encourageant le libre usage des données, et en dresse un bilan critique, entre renouvellement de la transparence en demi-teinte, promesses de croissance et d’innovation non tenues, et transformation des administrations indéniable mais non aboutie. Ainsi, si ce sont bien des collectivités pionnières qui ont impulsé les premières politiques d’ouverture de données, seules 16 % de celles qui sont concernées par la loi « Lemaire » respectent leurs obligations en la matière, et les données ouvertes sont loin d’être les plus sensibles, pointant les fragilités de la transparence administrative.

    Riche sur les plans théorique et pratique, car nourrie d’exemples et de cas d’usage, la réflexion développée dans ce livre croise plusieurs champs : sociologie, histoire, science politique, design de politiques publiques… Il avance aussi des propositions pour concourir à une nouvelle étape de l’ouverture des données au service du renforcement de la démocratie.
    Quelle est la situation en matière d’open data en France ?

    Quand on regarde du côté des classements, la France fait partie des pays les plus avancés en matière d’open data. Pour autant, seules 16 % des collectivités concernées par la loi pour une République numérique ont respecté leurs obligations en la matière et il existe une fracture entre grandes et petites collectivités avec, d’un côté, les grandes métropoles, les régions et une large majorité des départements qui se sont saisis de leurs obligations et, de l’autre, les plus petites communes et intercommunalités. L’ouverture des données demande des moyens et sa mise en œuvre crée de nouvelles fractures entre les territoires.

    Et lorsqu’on s’intéresse aux jeux de données publiés, on s’aperçoit de leur grande disparité puisqu’il peut s’agir de l’agenda des élus, des menus dans les cantines… Mais dès lors que les données sont sensibles, elles manquent à l’appel. En effet, plus on s’approche de ce genre de données, qui peuvent questionner le mandat des élus ou remettre en cause leurs politiques, moins ces jeux sont ouverts.

    L’open data met ainsi en lumière les fragilités de la transparence administrative. Malgré l’ancienneté de la loi « Cada » (du 17 juillet 1978, ndlr), les circuits organisationnels de la transparence sont encore balbutiants et elle reste presque un acte politique alors qu’elle est très largement codifiée par le code des relations entre le public et l’administration. L’ouverture des données en France ressemble donc un peu à la tour de Pise, un édifice penché du fait de ses fondations instables.
    Comment expliquer ces fondations instables ?

    L’ouverture des données charriait avec elle trois grandes promesses : renouveler la transparence, créer de l’innovation et des emplois, et transformer l’administration. C’est cette dernière qui a sans doute été sous-évaluée et qui apporte le plus de bénéfices. Pour la transparence, bien qu’entré dans la loi, le principe d’open data par défaut ne suffit pas à donner aux agents la possibilité de publier des données sans obtenir de validation.

    On voit que l’open data n’a pas agi comme une « machine à révélations ». Concernant l’innovation et l’emploi, les attentes étaient faramineuses. En interne, en revanche, l’open data a participé à une grande transformation des collectivités, en augmentant leur maturité sur ces sujets. Nombreuses sont celles qui, engagées dans l’open data, ont travaillé sur la gouvernance des données, ce qui leur a été bénéfique : les métropoles de Lille, Rennes, Nantes, Lyon ou encore Bordeaux.
    Comment continuer de nourrir ou de réinventer notre rapport aux données ?

    Notre rapport à l’open data a déjà massivement changé du fait du ­Covid-19. Plusieurs outils, comme ­Covidtracker, ont renouvelé le plaidoyer pour l’ouverture des données, en faisant de l’open data un outil essentiel de gestion de la crise sanitaire. La pandémie a vraiment remis l’open data à l’agenda, quand chaque geste de notre vie quotidienne était déterminé par des chiffres, un graphique, une courbe…

    Toutefois, quand j’ai été auditionné par la mission « data et territoires » dans le cadre du rapport remis à Stanislas ­Guerini (ministre de la Transformation et de la fonction publiques, ndlr), en novembre, j’ai défendu l’idée que les politiques d’open data ne se suffisent pas à elles-mêmes : il manque une sensibilisation à grande échelle des citoyens pour qu’ils puissent se saisir du pouvoir des données et renouveler le débat démocratique. C’est comme si le mariage entre les acteurs de la participation citoyenne et de l’open data ne s’était pas fait.
    Que proposez-vous pour que les données ouvertes renforcent la démocratie ?

    On constate une prise de conscience généralisée de l’importance des données dans la conduite des politiques publiques. Comment accompagner toutes ces collectivités qui se sont saisies de la loi « ­Lemaire » ? Comment aider les autres à s’en emparer ? Je propose des pistes d’action via trois chantiers : obtenir les données manquantes, améliorer la fiabilité et la qualité des données ouvertes, et développer la culture des données. En effet, un certain nombre de données ne sont pas encore ouvertes, et un nouvel acte du droit d’accès aux documents administratifs me paraît essentiel. Il faut aussi donner plus de corps à la notion de données d’intérêt général, permettant d’aller jusqu’à la réquisition de données. Ensuite, améliorer la fiabilité et la qualité suppose un travail organisationnel. Il est important de continuer de vulgariser l’open data auprès du grand public et l’intégrer dans les procédures de démocratie participative.

    De plus, trop souvent encore, les administrations considèrent les données personnelles comme une matière radioactive et oublient que l’anonymisation et la pseudonymisation existent. Par ailleurs, l’association Open Data France s’est récemment engagée dans une démarche de redéfinition de son action : doit-elle élargir son champ d’intervention, historiquement centré sur l’open data ? Des questions émergent sur la standardisation, l’acculturation à la donnée, la transparence algorithmique, et il reste beaucoup à faire.

    #Samuel_Goeta #Open_data #Communes

  • L’Open Source INTelligence, une révolution de la preuve

    Le « renseignement de sources ouvertes », plus connu sous l’acronyme anglais #OSINT (#Open_Source_INTelligence), désigne la capacité de collecter et d’exploiter des données ouvertes, disponibles sans avoir besoin de recourir à des moyens légaux ou coercitifs, ni à la ruse ou au piratage.

    https://www.radiofrance.fr/franceculture/podcasts/esprit-de-justice/l-open-source-intelligence-une-revolution-de-la-preuve-8810804
    #preuve #justice #traces_numériques

    #audio #podcast #images #données

  • Open data publique : « On voit les limites dès que les données pourraient remettre en cause le pouvoir établi »
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/open-data-publique-on-voit-les-limites-des-que-les-donnees-pourraient-remett

    Cofondateur de la coopérative Datactivist, spécialisée dans l’ouverture des données notamment dans le secteur public, Samuel Goëta est maître de conférences associé à Sciences Po Aix. Il vient de publier Les Données de la démocratie. Open data, pouvoirs et contre-pouvoirs (C & F éditions, 2024), un ouvrage dans lequel il développe un bilan critique autour des réussites et des limites du mouvement des données ouvertes, près de huit ans après la loi Lemaire, qui a imposé aux administrations d’ouvrir « par défaut » leurs données.

    Malgré cette loi, seules 16 % des collectivités respectaient, fin 2022, leurs obligations en la matière, d’après le dernier état des lieux de l’observatoire open data des territoires.
    Lire l’enquête | Article réservé à nos abonnés Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    Où en est l’ouverture des données publiques aujourd’hui en France ?

    La situation est ambiguë. En apparence, c’est une très belle réussite : l’open data française est en tête des classements internationaux, avec un écosystème public développé et un certain nombre de fleurons d’entreprises et d’associations qui lui sont dédiés, et il y a des usages importants. Mais l’ouverture des données en France est bâtie sur une culture de la transparence assez faible. Celle-ci remonte à l’accès aux documents administratifs, un droit peu connu qui date d’une quarantaine d’années, souvent contourné par les administrations : environ 80 % des demandes ne reçoivent aucune réponse.

    Or, l’open data, c’est mettre à disposition volontairement des jeux de données. Il y a une open data à double vitesse, entre celui qui va intéresser les décideurs pour innover, et celui qui va titiller les élus. On voit ces limites dès qu’on s’intéresse aux subventions, aux données de la commande publique… En clair, dès que ces données pourraient remettre en cause le pouvoir établi. C’est un écosystème fragile qui s’appuie sur une volonté politique, et qui pourrait facilement s’effondrer.
    Comment expliquer la mise en œuvre difficile des obligations nées de la loi Lemaire ?

    A la suite de la loi pour une République numérique de 2016, peu de moyens ont été mis en place. Il y a eu une petite aide à l’association OpenDataFrance. Celle-ci, comme Etalab [un département de la direction interministérielle du numérique, la dinum, chargé de l’ouverture des données publiques], a fait de l’accompagnement – mais pas à l’échelle d’une ouverture des données « par défaut ». Les moyens qu’ont mis les collectivités ont donc beaucoup dépendu de la présence d’une impulsion politique, d’un peu de moyens, d’un intérêt… et, souvent, des bonnes volontés de quelques agents qui ont fait ça sur leur temps libre ou en marge de leurs missions, avec peu de soutien hiérarchique. Cela a accentué les fractures territoriales.

    Par ailleurs, le soutien politique est assez intermittent. Il y a eu une sorte de désintérêt après la loi pour une République numérique. Mais au moment de la pandémie, la question de l’open data est devenue centrale : toutes les décisions étaient prises avec des indicateurs, et il y a aussi eu une vraie demande. Le rapport du député Bothorel, paru fin 2020, a permis de donner une nouvelle impulsion, mais celle-ci n’est plus très claire. Quand on regarde la feuille de route de la Dinum, l’impératif est celui de l’usage des données par l’administration, l’ouverture de celles-ci étant vue comme un acquis du passé. Or c’est encore un chantier important. On manque notamment d’impulsion thématique, comme ce qui s’est passé avec le point d’accès national aux données de transport. Dès lors qu’il y a un usage pensé des données ouvertes qui est proposé, les acteurs vont plus facilement entrer dans la démarche.
    Quels défis identifiez-vous pour favoriser l’usage de l’open data ?

    On a fait de l’open data en pensant qu’en claquant des doigts, des gens allaient s’en servir. Mais il faut aussi aller chercher les usagers potentiels. La moitié du temps de travail d’un responsable d’open data, c’est d’informer.
    Testez votre culture générale avec la rédaction du « Monde »
    Découvrir

    Il y a plusieurs autres sujets. Le premier, c’est de permettre de trouver les bonnes données quand elles existent, ce que j’appelle la « découvrabilité ». Les jeux de données ne sont pas toujours nommés de manière intelligible. Il y a aussi un investissement à faire dans la standardisation des données, en passant par des règles communes pour le nommage et l’organisation des fichiers, comme celles de schema.data.gouv.fr.

    Ensuite, il y a la question de la documentation, c’est-à-dire une description du contenu du jeu de données. Avec Etalab, nous avons calculé que près de six jeux de données sur dix publiés sur data.gouv.fr contenaient une documentation de moins de 1 000 caractères, et un peu moins d’un quart ont une longueur inférieure à celle d’un SMS.

    Enfin, même quand les données existent, l’utilisateur qui cherche à s’en saisir se trouve souvent confronté à un problème de qualité. Je ne parle pas de soucis liés à un usage qui n’avait pas été prévu à l’origine, mais de lacunes dans les données. Par exemple, il y a un nombre encore très important de marchés publics dont le montant renseigné est « zéro » parce que les producteurs estiment qu’il y a secret des affaires. Ces montants sont donc inutilisables. Une solution serait de favoriser les échanges entre les producteurs et les réutilisateurs, ces derniers étant souvent laissés sans réponse.

    Raphaëlle Aubert et Léa Sanchez

    #Open_data #Samuel_Goëta

  • Comment Opendatasoft est devenue l’acteur incontournable de l’ouverture des données publiques
    https://www.lemonde.fr/les-decodeurs/article/2024/03/05/comment-opendatasoft-est-devenue-l-acteur-incontournable-de-l-ouverture-des-

    Malgré un budget doublé cette année, passant d’un à deux millions d’euros, la plate-forme étatique data.gouv.fr a cumulé un retard important face à l’offre privée d’Opendatasoft. « Pendant longtemps, data.gouv.fr s’est positionnée uniquement comme catalogue central de données françaises », analyse Samuel Goëta, maître de conférences à Sciences Po Aix et cofondateur de Datactivist, un cabinet de conseil spécialisé dans l’open data et auteur de l’ouvrage Les Données de la démocratie (2024, C & F Editions).

    « Il n’y a sûrement pas eu les mêmes investissements sur data.gouv.fr que ce qu’Opendatasoft a pu faire sur ses outils », soutient Christian Quest, spécialiste des données, présent à Etalab de 2014 à 2019 et revenu en tant que consultant en 2023. « Porté par deux personnes pendant les premières années (…), data.gouv.fr était très bien fichu mais ça avait un côté plus artisanal », se rappelle-t-il.

    En 2012, Etalab avait même décerné un prix à Opendatasoft. « Au fond, ils s’étaient dit : “en fait c’est ça qu’il faudrait qu’on arrive à faire”… mais avec beaucoup moins d’investissements », ironise Christian Quest. Jean-Marc Lazard préfère mettre en avant la « complémentarité » de sa solution avec celle de l’Etat.

    L’alternative publique compte toutefois plusieurs utilisateurs exclusifs : le ministère de l’intérieur et des outre-mer, celui de la justice, mais aussi des communautés d’agglomération comme le Grand Annecy ou des communes comme Bar-le-Duc.

    L’offre de la Dinum s’est récemment diversifiée en proposant des portails thématiques avec les sites transports.data.gouv.fr, adresse.data.gouv.fr et, plus récemment, meteo.data.gouv.fr. Dans les prochains mois paraîtra ecologie.data.gouv.fr. Dans la feuille de route 2024 de la plate-forme publique, de nombreuses évolutions prévues rappellent d’ailleurs les fonctionnalités d’Opendatasoft.

    Ces améliorations sont suivies de près par les administrations. Le ministère de la culture se dit prêt à faire évoluer ses choix techniques « si le rapport coût/efficience du service rendu s’avérait favorable ». La publication directe grâce aux outils de data.gouv.fr permettrait de réaliser des économies importantes pour les administrations, précise la Dinum. D’autant plus que ses équipes doivent « moissonner » quotidiennement les données des portails externes pour les centraliser sur data.gouv.fr – une opération coûteuse et complexe.

    Et n’oublions pas que le libre n’est pas forcément gratuit. La lberté a un prix.

    Le choix de l’open source intégral reste rare, souvent le fruit de volontés individuelles, d’agents ou d’élus. Il concerne surtout des régions ou des métropoles, comme celle du Grand Lyon. Aidée par l’arrivée d’un « doctorant mouton à cinq pattes », l’équipe technique de l’agglomération est devenue l’un des précurseurs dans la mutualisation d’une solution open source, aujourd’hui utilisée par la Nouvelle-Aquitaine et Provence-Alpes-Côte d’Azur. Si celle-ci est maintenue par un éditeur, Neogeo, l’ouverture du code garantit une indépendance : « L’avantage c’est que cette solution n’est pas une boîte noire (…) et si Neogeo fait faillite on peut récupérer toutes les sources, toute l’infrastructure logicielle », souligne Emmanuel Gastaud, responsables des données métropolitaines.

    Le Grand Lyon débourse 100 000 euros par an pour l’hébergement, la supervision et la maintenance. Il compte aussi sur le travail de 4 ou 5 équivalents temps plein. Un investissement apprécié localement – le portail abrite les données d’une vingtaine de communes du territoire – mais très éloigné des budgets « open data » de nombreuses administrations. Pour celles qui en ont un.

    Le livre de Samuel Goëta explique les raisons, problèmes et solutions de l’open data en France.
    https://cfeditions.com/donnees-ouvertes


    #Open_data #Public_privé #Logiciel_libre

  • #OpenDataDay - les faits d’hiver de l’open data | Datactivist
    https://odoo.datactivist.coop/event/opendataday-les-faits-d-hiver-de-l-open-data-2024-03-07-3/register
    https://odoo.datactivist.coop

    En 2017, un utilisateur de Reddit du doux nom de saladedepdt postait sur r/france un message intitulé "Data.gouv, ou comment perdre des heures à se promener dans des banques de données." Son message, qui est resté dans nos mémoires et en tête du reddit r/france pendant plusieurs jours, part d’un émerveillement pour data.gouv.fr et les trésors de données qu’on y trouve "Data.gouv : ce site est génial. J’y ai appris une quantité astronomique de choses inutiles et donc indispensables à ma vie". Il cite quelques unes de ces trouvailles, voici nos favorites :

    il y a eu 29 278 771€ de dépenses en « produits contre la dysfonction érectile » en Île-de-France en 2013.

    Il y a plus d’agents cynophiles (309) que de chiens (278) dans la police municipale en France.

    La France a produit officiellement 4 785 561 700 de litres de vin en 2015 (quatre milliards sept cent quatre-vingt-cinq millions cinq cent soixante et un mille sept cents ), mais seulement 4800 litres (quatre mille huit cents) ont été produits par les départements du Nord et du Pas-de-Calais réunis. Heureusement on a la bière.

    Chez Datactivist, nous avons adoré cette idée et, depuis quelques années, il nous arrive de repartir avec nos clients et nos partenaires à la recherche de faits improbables, drôles ou intrigants pour leur faire découvrir l’open data. À chaque fois, nous en ressortons avec quelques fous rires et des découvertes saugrenues et les participants voient l’open data sous un jour plus ludique en découvrant des trésors de données.

    A l’occasion de la journée internationale de l’open data, nous vous proposons vous aussi de découvrir les faits les plus improbables ou curieux sur les portails open data. Pendant 2h, sur Twitch animé par Margaux Larre-Perez et Samuel Goëta, nous vous aiderons à découvrir les "faits d’hiver" de l’open data tout en échangeant avec des curateurs de données qui vous partageront leur métier de sélectionner et valoriser les plus belles perles de l’open data. Le programme détaillé sera annoncé très prochainement.

    #Open_data #Datactivist

  • Parution du livre « Les données de la démocratie : open data, pouvoirs et contre-pouvoirs » - Veille - #TeamOpenData
    https://teamopendata.org/t/parution-du-livre-les-donnees-de-la-democratie-open-data-pouvoirs-et-contre-pouvoirs/4432/2

    Enro
    Antoine Blanchard
    6 j

    Bravo et merci pour cet ouvrage @samgoeta ! J’avais peur de m’ennuyer à la lecture de cet ouvrage « grand public » mais sa lecture m’a passionné, il est bien écrit et tu mêles intelligemment les grandes notions avec des exemples concrets. Et même si on connaît bien l’open data ou les communs numériques on peut apprendre des choses sur le droit d’accès, sur la transparence de l’action publique, ou les hackers citoyens… le livre est tellement riche !

    J’ai particulièrement apprécié tes recommandations en fin d’ouvrage, en espérant qu’elles soient suivies d’effet. En ce qui concerne le chapitre sur les stratégies alternatives pour obtenir des données, j’aurais apprécié quelques conseils pratiques pour passer à l’action, par exemple en matière de scraping (une technique prometteuse qui n’est pas forcément à la portée du premier venu, alors qu’il existe forcément des outils incontournables à connaître ?!). A part cette frustration et quelques coquilles (je ne les ai pas notées, désolé), c’est un sans faute (et encore je ne parle pas de l’introspection d’Axelle Lemaire, qui vaut aussi le détour) :slight_smile :

    #Open_data #Samuel_Goeta #Données_démocratie

  • L’Open data : un pilier de la démocratie contemporaine, selon Samuel Goëta | La Netscouade
    https://lanetscouade.com/picks/l-open-data-un-pilier-de-la-democratie-contemporaine-selon-samuel-goet

    Culture digitale

    Dans une interview avec La Netscouade, Samuel Goëta, expert en données et auteur d’un livre sur l’Open data, dévoile les motivations derrière son ouvrage « Les données de la démocratie, Open data, pouvoirs et contre-pouvoirs » et explore le rôle crucial que l’Open data joue dans la gouvernance contemporaine. Convaincu que la transparence des données renforce la démocratie, Samuel expose les défis actuels, les avancées en France et les perspectives pour un usage plus éclairé de l’information.

    

    Dans son livre "Les données de la démocratie", @samgoeta présente les origines du mouvement #opendata et pose un bilan critique de ses réalisations et propose des pistes d’action pour que les données ouvertes renforcent la démocratie https://t.co/GNQTpA04i1 pic.twitter.com/LlTplaS6ZE
    — La Netscouade (@LaNetscouade) February 22, 2024

    Une décennie d’Open data

    Pour clarifier le concept, Samuel simplifie la définition de l’Open data. Il explique, "Ce sont des données librement réutilisables, tant d’un point de vue technique que juridique. Elles sont lisibles par les machines dans des formats ouverts, et on peut les utiliser librement." L’élément clé est la précision des données, allant au-delà des chiffres globaux pour offrir un accès détaillé, tout en respectant la vie privée grâce à l’anonymisation des données.

    L’Open data, selon Samuel, est bien plus qu’une tendance récente. Il explique, "L’open data, c’est un mouvement qui existe depuis à peu près une dizaine d’années et qui a souvent été un peu sous-évalué pour son intérêt pour la démocratie." Dans son livre, Samuel défend l’idée que l’ouverture des données renforce la démocratie en permettant un débat éclairé, la réévaluation des calculs et l’émergence de nouvelles interprétations des données circulant dans le débat public.
    Quelle est l’utilisation aujourd’hui de l’Open data ?

    Samuel souligne que la France n’est pas en retard dans le mouvement actuel. Il affirme, "En France, on est loin d’être en retard sur cette question-là, au contraire." En effet, les politiques d’Open data sont ancrées dans la loi, notamment la loi pour une République numérique, instaurant le principe d’ouverture des données par défaut pour les administrations et les collectivités territoriales. Cependant, il met en lumière des défis démocratiques, soulignant des problèmes liés à la transparence et à l’application du droit d’accès aux documents administratifs.

    Par ailleurs, dans un monde marqué par la pandémie, Samuel observe un appétit croissant de la société pour les données. Il mentionne, "Il y a qu’à regarder l’époque de la pandémie où tout le monde subissait des décisions prises avec des données et où il y a eu un très fort appétit pour utiliser ces données-là." Des initiatives civiles telles que CovidTracker ont émergé, illustrant la demande croissante de données précises. Des médias, tels que Rape Miner, utilisent des données pour analyser les paroles de rap, tandis que des émissions populaires comme DataGueule renforcent la culture de la donnée.
    L’Open data, un pilier de la démocratie ?

    Interrogé sur le potentiel de l’Open data comme pilier de la démocratie, Samuel est convaincu que c’est déjà une réalité. Il affirme, “C’est déjà un peu un pilier de la vie démocratique en fait, dès qu’on est dans une situation de crise, comme la crise énergétique, comme dans la situation de la pandémie, quand on voit même sur la crise en Ukraine, on va se tourner vers les données.” En période de crise, que ce soit face à une pandémie ou à une crise énergétique, les données deviennent essentielles pour alimenter un débat éclairé.

    Samuel souligne l’Open data comme un outil impulsé par le pouvoir, enraciné dans les lois et les politiques, mais également alimentant les contre-pouvoirs. Il déclare, "L’open data, c’est, d’une certaine manière, un outil impulsé par le pouvoir. C’est à dire que c’était une loi qui a été adoptée dans les collectivités territoriales." Cette dualité crée un équilibre essentiel, où les citoyens, la société civile, les chercheurs et les journalistes peuvent débattre de manière éclairée, contester et réévaluer les décisions.

    Concernant la protection des données personnelles, Samuel rassure en soulignant que l’Europe dispose d’une législation robuste, notamment le RGPD. Il explique, "Il se trouve qu’en Europe, on a une législation sur la protection des données qui est une des plus fortes, qui est le RGPD." Il souligne que l’Open data renforce la culture de la vie privée, avec des données généralement dépourvues d’informations personnelles.

    L’interview se conclut par un message d’espoir de la part de Samuel. Il conclut, "Une bonne raison de lire ce livre c’est qu’il se termine par un message d’espoir. Et le message du livre, ce n’est pas juste de se saisir des données, mais c’est aussi comment est-ce qu’on peut approfondir et étendre la démocratie." Son livre ne se limite pas à encourager l’utilisation des données, mais explore également comment approfondir et étendre la démocratie. Un appel à renforcer les contre-pouvoirs et à équilibrer le débat démocratique, dans lequel les données ouvertes jouent un rôle central.

    À travers cette interview, Samuel Goëta offre une perspective éclairante sur l’Open data, un sujet qui se positionne au cœur des enjeux démocratiques contemporains. Ses paroles enrichissent le débat sur la transparence, la participation citoyenne et l’avenir de la gouvernance. Son livre devient ainsi une lecture incontournable pour ceux qui s’intéressent à ces questions cruciales.

    #Open_data #Samuel_Goeta

  • Parution du livre « Les données de la démocratie : open data, pouvoirs et contre-pouvoirs » - Veille - #TeamOpenData
    https://teamopendata.org/t/parution-du-livre-les-donnees-de-la-democratie-open-data-pouvoirs-et-contre-pouvoirs/4432/2?u=samgoeta

    Enro
    Antoine Blanchard
    6 h

    Merci pour cet ouvrage @samgoeta ! J’avais peur de m’ennuyer à la lecture de cet ouvrage « grand public » mais sa lecture m’a passionné, tu écris bien et tu mêles intelligemment les grandes notions avec des exemples concrets. Et même si on connaît bien l’open data ou les communs numériques on peut apprendre des choses sur le droit d’accès, sur la transparence de l’action publique, ou les hackers citoyens… le livre est tellement riche !

    J’ai particulièrement apprécié tes recommandations en fin d’ouvrage, en espérant qu’elles soient suivies d’effet. En ce qui concerne le chapitre sur les stratégies alternatives pour obtenir des données, j’aurais apprécié quelques conseils pratiques pour passer à l’action, par exemple en matière de scraping (une technique prometteuse qui n’est pas forcément à la portée du premier venu, alors qu’il existe forcément des outils incontournables à connaître ?!). A part cette frustration et quelques coquilles (je ne les ai pas notées, désolé), c’est un sans faute (et encore je ne parle pas de l’introspection d’Axelle Lemaire, qui vaut aussi le détour) :slight_smile :


    https://cfeditions.com/donnees-democratie

    #Samuel_Goëta #Open_data #Données_démocratie

  • Lancement de la première usine de recyclage | Plastic Odyssey
    https://plasticodyssey.org/installation-micro-usine-guinee-bgs-recyplast

    L’entreprise BGS Recyplast (Binedou Global Services) est installée à Conakry, en République de Guinée, depuis 2018. Elle produit de façon artisanale une centaine de pavés routiers par jour, à partir de déchets plastiques ramassés dans la ville. Depuis leur rencontre, Plastic Odyssey et Mariam travaillent main dans la main pour développer et faire grandir l’activité de recyclage existante de BGS Recyplast.

    #plastique #recyclage #conakry #Open_source #Low_tech

  • Je découvre #duckdb
    https://duckdb.org/docs/archive/0.9.2

    Quel merveilleux outil pour travailler avec open data.

    Merci @simplicissimus pour ce lien vers la présentation à Toulouse.
    https://seenthis.net/messages/1038730

    Côté pratique c’est mpressionnant

    Data Import & Export

    CSV Import
    CSV Export
    Parquet Import
    Parquet Export
    Query Parquet
    HTTP Parquet Import
    S3 Parquet Import
    S3 Parquet Export
    JSON Import
    JSON Export
    Excel Import
    Excel Export
    SQLite Import
    PostgreSQL Import

    Tout sauf du #PHP

    There are various client APIs for DuckDB:

    C
    C++
    Java
    Julia
    Node.js
    Python
    R
    Rust
    WebAssembly/Wasm
    ADBC API
    ODBC API

    Additionally, there is a standalone Command Line Interface (CLI) client.

    There are also contributed third-party DuckDB wrappers for:

    C# by Giorgi
    Common Lisp by ak-coram
    Crystal by amauryt
    Go by marcboeker
    Ruby by suketa
    Zig by karlseguin

    Les arguments pour
    https://duckdb.org/why_duckdb

    ... what goals DuckDB has and why and how we try to achieve those goals through technical means. To start with, DuckDB is a relational (table-oriented) DBMS that supports the Structured Query Language (SQL)
    ...
    no external dependencies ...
    no DBMS server software to install ...
    support for complex queries in SQL with a large function library ...

    DuckDB is deeply integrated into Python and R for efficient interactive data analysis. DuckDB provides APIs for Java, C, C++, Julia, Swift, and others.
    ...
    DuckDB is released under the very permissive MIT License
    etc.

    don’t

    High-volume transactional use cases (e.g., tracking orders in a webshop)
    Large client/server installations for centralized enterprise data warehousing
    Writing to a single database from multiple concurrent processes
    Multiple concurrent processes reading from a single writable database

    mais

    PHP example to integrate DuckDB using PHP-FFI
    https://github.com/thbley/php-duckdb-integration

    Currently there is no PHP extension available for using DuckDB, so I created a small library using PHP-FFI.

    DuckDB is an embeddable SQL OLAP database management system. It does not require external servers. Databases are stored in single files (similar to SQLite). Compared to SQLite, DuckDB is much faster. E.g. I imported 16M rows from a CSV file in 5s on my notebook (i5-8250U).

    DuckDB can import CSV files with automatic format detection and automatic table creation using:

    CREATE TABLE test1 AS SELECT FROM read_csv_auto(’test1.csv’);
    CREATE TABLE test2 AS SELECT
    FROM read_csv_auto(’test2.csv.gz’);

    Usage:

    php -dffi.enable=1 test.php

    or:

    docker build -t php-ffi .
    docker run -it —rm -v $(pwd):/code php-ffi php /code/test.php

    Requirements:

    PHP 7.4+ with FFI extension enabled

    Question / défi

    Directly running DuckDB queries on data stored in SQLite files | Hacker News
    https://news.ycombinator.com/item?id=30801575

    #SQL #open_data

  • Meetup Eric Mauvière - Avec DuckDB, gavez-vous d’open data ! - YouTube
    https://www.youtube.com/watch?v=ajo0VBXT6ho

    Nouveau venu parmi les moteurs de requêtes, le « canard » bluffe les habitués par sa vélocité et sa simplicité d’usage. Avec un SQL moderne et amical, il écume tous les formats : CSV, Parquet, JSON et bien d’autres, y compris en ligne. Il se joue de vos dataframes R, Pandas ou Polars et se régale aussi avec les données spatiales.

    Pour vous donner envie de « quacker », rejoignez-nous pour cette présentation basée sur des cas d’usage concrets : elle vous ouvrira de nouveaux espaces et de belles envolées.

    00:00 Introduction
    05:49 Comment utiliser DuckDB
    36:45 Quelques points forts de DuckDB
    47:24 DuckDB, D’ou ça sort ?
    49:43 Savoir utiliser les nouveaux formats orientés colonnes..
    1:00:05 Perspectives et limites

  • Une #île_artificielle pour déporter les palestiniens ?

    Ce lundi 22 janvier à Bruxelles, une réunion du Conseil des affaires étrangères de l’Union Européenne était organisée, en présence de Ministres des 27 États membres ainsi que du représentant d’Israël, invité pour parler de la situation au Proche-Orient.

    À cette occasion, le chef de la diplomatie Israélienne, #Israël_Katz, a proposé la construction d’une île artificielle en #Méditerranée, au large de Gaza, pour y “loger” la population palestinienne, selon les mot du journal anglais The Guardian. Le ministre a montré deux vidéos lors de cette réunion, l’une montrant une ligne de train reliant Gaza à la Cisjordanie, et l’autre montrant ce projet d’île artificielle comprenant un port, une zone industrielle et des habitations. Cette modélisation d’île hautement militarisée et comprenant des checkpoints parait toutefois bien trop petite pour y déporter un grand nombre de palestiniens.

    Cette proposition semble aussi dystopique que déplacée, car cette réunion avait pour objectif de discuter de la crise humanitaire qui frappe Gaza et les moyens d’aller vers une désescalade de la violence. Josep Borell, le représentant des affaires étrangères pour l’Union Européenne, a déclaré aux journalistes : « Je pense que le ministre aurait pu mieux utiliser son temps pour s’inquiéter de la situation dans son pays ou du nombre élevé de morts à Gaza ». Plusieurs ministres ont exprimé leur « perplexité ». C’est un euphémisme.

    Ce projet d’île remonterait à l’époque où Katz était ministre israélien des Transports et a été présenté pour la première fois dans une vidéo de 2017 comme « une réponse à une réalité qui est mauvaise pour les Palestiniens et pas bonne pour Israël », selon Reuters.

    La réunion avait lieu après que le Premier ministre israélien Benjamin Netanyahou ait répété son opposition à la création d’un État palestinien. Sachant que la « solution à deux États », palestinien et israélien, est celle proposée par les États européens. Une idée hypocrite, puisque l’extrême droite israélienne est en train de raser Gaza et d’éliminer ses habitants tout en colonisant morceaux par morceaux la Cisjordanie. Tout ceci vise à rendre impossible toute création d’un futur État palestinien viable. La seule option réaliste est celle d’un seul État, multiconfessionnel, avec une égalité des droits, sans murs, sans discrimination, sans colonisation.

    Netanyahou et ses complices n’ont jamais caché leur volonté d’annexer toute la terre palestinienne, au nom de textes religieux vieux de plus de 2000 ans attribuant, selon eux, ce territoire au seul peuple juif. Dans cette logique messianique, il faudrait donc chasser tous les palestiniens.

    Il y a quelques jours, les médias révélaient un autre projet du gouvernement israélien : celui de déporter la population de Gaza vers un pays africain, affirmant même que des négociations avaient lieu avec le Congo. Une proposition finalement démentie face au scandale.

    Au début de la seconde guerre mondiale, les nazis annonçaient leur projet de chasser tous les juifs d’Europe et envisageaient sérieusement de les déporter sur l’île de Madagascar. Un plan appelé « Madagaskar Projekt » a même été élaboré par des cadres du Reich. Face aux contraintes logistiques posées par la guerre, et animé par un antisémitisme exterminateur, Hitler avait opté pour la solution finale et les camps de la mort.

    L’idée d’îles « ghettos » ou d’îles « prison » pour parquer les indésirables n’est pas unique dans l’histoire. Au large de l’Australie, l’île de Nauru et celle de Manus ont été transformées en camps visant à enfermer des personnes sans-papiers pendant des mois voire des années. Ce modèle inspire l’Europe, qui installe des points de contrôles et des camps de réfugiés sur les îles aux portes de l’Europe.

    Cependant, le projet israélien serait d’une ampleur sans commune mesure, et paraît difficilement réalisable s’il fallait y déplacer des centaines de milliers de personnes. Mais le fait même qu’une telle idée soit évoquée témoigne d’une volonté d’épuration ethnique de la part de l’État israélien.

    https://contre-attaque.net/2024/01/22/une-ile-artificielle-pour-deporter-les-palestiniens

    #île #asile #migrations #réfugiés #réfugiés_palestiniens #Palestine #îles #Israël

    voir aussi, signalé par @gonzo :
    Sources, Katz proposes artificial island in front of Gaza.
    https://seenthis.net/messages/1037778

    ajouté à la métaliste autour des #îles qui sont utilisées (ou dont il a été question d’imaginer de le faire) pour y envoyer des #réfugiés :
    https://seenthis.net/messages/881889

  • Le directeur d’#OpenAI : ‘Une percée énergétique s’avère nécessaire pour l’avenir de l’intelligence artificielle’ - Data News
    https://datanews.levif.be/actualite/innovation/le-directeur-dopenai-une-percee-energetique-savere-necessaire-pour-la

    ‘Il n’y a aucun moyen d’y parvenir sans une avancée décisive’, a-t-il déclaré à propos de l’avenir de l’IA. ‘Cela nous motive à investir davantage dans la #fusion nucléaire.’ En 2021 déjà, Altman avait personnellement procuré 375 millions de dollars à la société américaine de #fusion_nucléaire #Helion Energy. Cette dernière avait ensuite signé un accord pour fournir de l’énergie à #Microsoft, le principal bailleur de fonds d’OpenAI.

    Je partageais hier l’info, déjà. Là, on constate que le monsieur participe aussi à une startup de la fusion nucléaire.

    https://seenthis.net/messages/1037047

    La fusion, c’est pour au bas mot dans 15 ans, ce qui finalement, est presque proche... mais d’ici là... pour alimenter nos super-intelligences qui vont nous rendre la vie plus facile, et nous permettre à tous de profiter de la vie (au chômage https://seenthis.net/messages/1037216), pour les alimenter, donc, il va falloir de l’énergie... et cette énergie, c’est dans la fission qu’on va la trouver, pendant encore au moins 15 ans.

    La SF qui imagine que les derniers électrons produits par l’humanité le seront pour faire fonctionner la dernière IA avant extinction finale, elle n’est pas à côté de la plaque ?

  • #OpenAI CEO Sam Altman Says Future Of AI Depends On #Nuclear #Fusion Breakthrough - News18
    https://www.news18.com/tech/openai-ceo-sam-altman-says-future-of-ai-depends-on-nuclear-fusion-breakthrou

    OpenAI’s CEO Sam Altman on Tuesday said an energy breakthrough is necessary for future artificial intelligence, which will consume vastly more power than people have expected.

    Coco, tu vois, on va mettre 40% de la planète au chômage https://seenthis.net/messages/1037216, et en plus, cette fois, on ne va pas pouvoir leur faire faire autre chose à la place de ce qu’ils faisaient.
    Mais en plus, il va falloir être capable de produire encore plus d’énergie, parce que sinon, les promesses annoncées ne seront pas tenables.
    Pire, peut-être que si on est incapable de maintenir le niveau d’énergie requis par les super-intelligences qui doivent nous remplacer, on devra faire travailler des humains alors qu’ils ne seront plus capables de faire mieux que d’acheter des Nike ou des Reebok en édition spéciale Black Friday. Ça sera la fin des haricots et il faudra aller se réarmer chez Macron.