• Node.js : une bibliothèque populaire vérolée vise un portefeuille de crypto-monnaies - Next INpact
    https://www.nextinpact.com/brief/node-js---une-bibliotheque-populaire-verolee-vise-un-portefeuille-de-cry

    Un reproche de plus en plus fréquent à l’endroit des projets libres, dont ceux fondés sur Node.js, est la forêt de dépendances plus ou moins solides sur lesquelles ils reposent. Certaines, pourtant considérées comme essentielles, sont maintenues par des particuliers sur leur temps libre, voire abandonnées.

    C’était le cas d’event-stream pour Node.js, très utilisé. Pourtant, son concepteur Dominic Tarr a cessé son développement depuis longtemps, ouvrant la porte à right9ctrl.

    Il a repris le projet et immédiatement publié even-stream 3.3.6, vérolé avec « flatmap-stream 1.1 ». Problème : la bibliothèque est téléchargée jusqu’à 2,4 millions de fois par semaine, selon NPM Stat.

    « Il m’a envoyé un email et dit qu’il voulait maintenir le module, donc je lui ai donné. Je n’obtiens rien en maintenant ce module, je ne l’utilise même plus, depuis des années », s’est défendu le créateur de l’outil, face à des pairs dubitatifs. Certains lui ont dit d’archiver son projet sur GitHub s’il n’était plus activement développé ; une précaution oubliée.

    Le projet est resté sous le nom de Dominic Tarr sur GitHub. Il ne peut être transféré officiellement à right9ctrl, qui avait déjà ouvert un dérivé (fork). Pourtant, le concepteur a perdu tous droits sur le projet sur npm, le système de distribution de modules de Node.js. Un utilisateur demande à revenir à la version 3.3.4, la dernière mouture sûre connue.

    Le code masqué ne fonctionnerait qu’en présence de bibliothèques liées à Copay de Bitpay sur le même serveur. Copay permet de créer des portefeuilles de crypto-monnaies partagés. Le code malveillant inclus dans event-streamer tenterait donc de voler les bitcoins que contient Copay.

    Selon NPM, la version 3.3.6 d’event-stream a disparu du dépôt, ne laissant que les moutures 3.3.5 et 4.x. Cette nouvelle branche a été publiée il y a deux mois par right9ctrl.

    « La seconde mise à jour (commit) après [la version 3.3.6] retire l’injection et crée une nouvelle version majeure [4.x] pour nettoyer le dépôt GitHub de la présence de flatmap-stream, tout en conservant tous ceux utilisant la branche 3.x affectés », estime FallingSnow, qui a révélé le scandale sur GitHub.

    Bon, faut dire que l’opacité de Node.js, son caractère « magique » n’aide pas, alors même que cela devient indispensable pour tous les développeurs, dont la spécialité n’est pas forcément Node.js. Il faut alors l’installer et « faire confiance », ne serait-ce que pour utiliser Symfony. La maintenance du code n’est pas le seul problème du libre ; celle de la doc et de la création de tutoriels qui apprennent vraiment quelque chose (comprendre et pas seulement cliquez-là et faites-ci) sont aussi importante.

    #Logiciels_libres #Node.js #Cryptomonnaie #Sécurité

    • C’est vrai que l’architecture encourage l’empilement de modules (dont certains ridiculement limités https://www.theregister.co.uk/2016/03/23/npm_left_pad_chaos) mais ce n’est ni limité au libre ni au développement web.
      J’ai plus l’impression que c’est une affaire de culture et peut-être de génération.

      Il y a aussi un autre aspect de cet épisode : le code vérolé n’était présent que dans la version minifiée du module apparemment, donc beaucoup plus difficile à détecter. Ça par contre c’est un problème qui a une solution technologique, par exemple, la minification ne devrait se faire que par une autorité ou par un mécanisme garantissant l’équivalence entre les deux versions.

  • After Years of Abusive E-mails, the Creator of Linux Steps Aside | The New Yorker
    https://www.newyorker.com/science/elements/after-years-of-abusive-e-mails-the-creator-of-linux-steps-aside?mbid=nl_D

    Torvalds’s decision to step aside came after The New Yorker asked him a series of questions about his conduct for a story on complaints about his abusive behavior discouraging women from working as Linux-kernel programmers. In a response to The New Yorker, Torvalds said, “I am very proud of the Linux code that I invented and the impact it has had on the world. I am not, however, always proud of my inability to communicate well with others—this is a lifelong struggle for me. To anyone whose feelings I have hurt, I am deeply sorry.”

    Although it distributes its product for free, the Linux project has grown to resemble a blue-chip tech company. Nominally a volunteer enterprise, like Wikipedia, Linux, in fact, is primarily sustained by funds and programmers from the world’s large technology companies. Intel, Google, IBM, Samsung, and other companies assign programmers to help improve the code. Of the eighty thousand fixes and improvements to Linux made in the past year, more than ninety per cent were produced by paid programmers, the foundation reported in 2017; Intel employees alone were responsible for thirteen per cent of them. These same companies, and hundreds of others, covered the foundation’s roughly fifty-million-dollar annual budget.

    Linux’s élite developers, who are overwhelmingly male, tend to share their leader’s aggressive self-confidence. There are very few women among the most prolific contributors, though the foundation and researchers estimate that roughly ten per cent of all Linux coders are women. “Everyone in tech knows about it, but Linus gets a pass,” Megan Squire, a computer-science professor at Elon University, told me, referring to Torvalds’s abusive behavior. “He’s built up this cult of personality, this cult of importance.”

    Valerie Aurora, a former Linux-kernel contributor, told me that a decade of working in the Linux community convinced her that she could not rise in its hierarchy as a woman. Aurora said that the concept of Torvalds and other powerful tech figures being “equal-opportunity assholes” was false and sexist: when she and Sharp adopted Torvalds’ aggressive communication style, they experienced retaliation. “Basically, Linus has created a model of leadership—which is being an asshole,” Aurora told me. “Sage and I can tell you that being an asshole was not available to us. If we were an asshole, we got smacked for it, got punished, got held back. I tried it.”

    Torvalds, by contrast, long resisted the idea that the Linux programming team needed to become more diverse, just as he resisted calls to tone down his language. In 2015, Sharp advocated for a first-ever code of conduct for Linux developers. At a minimum, they hoped for a code that would ban doxxing—the releasing of personal information online to foment harassment—and threats of violence in the community. Instead, Torvalds accepted a programming fix provocatively titled “Code of Conflict,” which created a mechanism for filing complaints more generally. In the three years since then, no developers have been disciplined for abusive comments. Sharp, who was employed by Intel at the time, said they carefully avoided Linux kernel work thereafter.

    #Linux #Linus_Torvalds #Genre #Développeurs #Logiciels_libres #Machisme

  • The percentage of open source code in proprietary apps is rising - Help Net Security
    https://www.helpnetsecurity.com/2018/05/22/open-source-code-security-risk

    Compiled after examining the findings from the anonymized data of over 1,100 commercial codebases audited in 2017 by the Black Duck On-Demand audit services group, the report revealed that:

    96 percent of the scanned applications contain open source components, with an average 257 components per application, and that
    The average percentage of open source in the codebases of the applications scanned grew from 36% last year to 57%, suggesting that a large number of applications now contain much more open source than proprietary code.

    “Today, open source use is pervasive across every industry and is used by organizations of all sizes. The reasons are straightforward—open source lowers development costs, speeds time to market, and accelerates innovation and developer productivity,” analysts with the Synopsys Center for Open Source Research & Innovation (COSRI) have noted.

    #Logiciels_libres #Open_source #Cybersécurité

  • Modalités d’ouverture des codes sources | Modalités d’ouverture des codes sources
    https://disic.github.io/politique-de-contribution-open-source

    Comment ouvrir ses codes sources ? Quelle licence choisir ? Comment un agent public peut-il contribuer à un logiciel libre existant ?

    Conformément à la Loi pour une République Numérique du 7 octobre 2016, les codes sources sont des documents administratifs communicables et réutilisables.

    La DINSIC a souhaité échanger avec les acteurs de l’État, mais également les communautés du libre, les associations, les sociétés privées et le secteur académique sur les modalités d’ouverture des codes sources.

    Cette politique a été validée par l’ensemble des DSI ministériels le 15 février 2018 et est officiellement en vigueur.
    Contenu du document

    Politique de contribution aux logiciels libres de l’État
    Principes d’ouverture des codes sources
    Bonnes pratiques
    Instanciation des politiques de contribution ministérielles
    Gouvernance de la politique de contribution interministérielle
    Foire aux questions

    Licence

    Ce document est publié sous la Licence Ouverte 2.0.

    #Logiciels_libres

  • Migrating ownCloud to NextCloud – The Mergy Notes
    https://mergy.org/2016/07/migrating-owncloud-to-nextcloud


    Le printemps arrive et il est temps de faire le ménage. Ceci remet à l’ordre du jour la question si on peut continuer avec OC ou s’il faut changer vers NC. On ne peut pas repousser la décision pour toujours car OC risque d’introduire des éléments qui rendent compliquée la migration vers l’outil 100% open source.

    I’ve been a happy user of ownCloud for a few years now to dish shared calendar and contacts personally in addition to some image backup stuff with Android. I have no idea beyond the published reports of the split with the founder that started the Nextcloud variant, but it did seem like that is the future. So, getting over to it now made some sense to me. Here is what I did.

    Conclusion : La migration est possible.

    Question : Ext-ce qu’on y gagne ou est-ce qu’on perd des choses par la mirgration vers NextCoud ?

    ownCloud vs. Nextcloud : Zwei Cloud-Speicher im Vergleich 2018 - 1&1
    https://hosting.1und1.de/digitalguide/server/tools/owncloud-vs-nextcloud-zwei-cloud-speicher-im-test

    Nextcloud vs ownCloud – The Whole Story - CiviHosting
    https://civihosting.com/blog/nextcloud-vs-owncloud

    We will examine four areas:

    History – when and how did these two projects get started
    Who – what people are funding and supporting the software
    License – what is the license for each
    Product – what differences exist in the actual product

    ownCloud oder Nextcloud : Wo liegen die Unterschiede ? › NETWAYS Blog
    https://blog.netways.de/2017/03/08/owncloud-und-nextcloud-wo-liegen-die-unterschiede

    Es ist allerdings so, dass viele der Features, die bei ownCloud nur in der Enterprise Edition verfügbar sind, bei Nextcloud bereits kostenlos dabei sind oder sich durch wenige Klicks über den Nextcloud App Store aktivieren lassen. Eine Gegenüberstellung der Features der Community Edition und der Enterprise Edition von ownCloud kann man übrigens hier finden. Ich habe ein paar der Features, die laut dieser Seite nur in der ownClouds Enterprise Version verfügbar sind herausgepickt und geprüft, ob diese in Nextcloud enthalten sind.

    Pour terminer voici comment les producteurs des logiciels voient les choses :

    ownCloud vs nextcloud - ownCloud
    https://owncloud.com/de/owncloud-vs-nextcloud

    Comparison – The most popular self-hosted file share and collaboration platform
    https://nextcloud.com/compare

    See how Nextcloud compares to these popular closed-source services, and switch to a more open and transparent solution to protect your data!

    Bref : Nextcloud est 100% open source (GNU AGPLv3-Lizenz) alors qu’Owncloud remplace au fur et à mesure des modules #FLOSS par des éléments payants et propriétaires. C’est une raison suffisante pour abandonner l’utilisation d’Owncloud au profit de Nextcloud, à moins d’avoir un modèle d’affaire profitable étroitement lié aux services du prestataire Owncloud GmbH.

    Nextcloud gagne en matière de sécurité et interfaces et son développement est nettement plus dynamique.

    #logiciels #cloud #self-hosting #auto_hébergement #open-source

    • @klaus , merci pour la recension de liens et en particulier celui sur la migration (pas très clair et pas très bien écrit du reste). Je me pose la question de cette migration depuis quelques mois. Le truc qui me rebute est que j’ai quelques gigas de données sur mon cloud perso, et pas la possibilité de les dupliquer sur le même espace... Mais je crois bien que je vais faire le saut dès que j’ai un moment.

  • Open source isn’t the community you think it is | ITworld
    https://www.itworld.com/article/3268001/open-source-tools/open-source-isnt-the-community-you-think-it-is.html

    Name your favorite open source project, and the odds are good—very good—that a small handful of contributors account for the vast majority of significant development thereof. The odds are just as good that most of those contributors work for just one or a few vendors. Such is open source today, and such has been open source for the past 20 years.

    So, does that mean open source is really just commercial software by another name?
    [ Community: Who really contributes to open source. | Celebration: 20 years of open source: Its world-changing history. | Contrarian: 20 years on, open source hasn’t changed the world as promised. ]

    No, it does not. But it means the popular stereotype of a broad community coming together to create software is a myth. The reality of open source is different than the myth, but still a good, positive alternative to commercial software.
    Why only a few vendor-paid developers do almost all the work

    Thirteen years ago, I dug into academic research that showed how Mozilla’s Firefox browser and the Apache HTTP Server were both developed by a small cadre of core contributors. While the population of contributors broadened with things like bug fixes, the central development work for these and virtually all other projects was done by a talented group of core committers.

    Today, an analysis from Redmonk’s Fintan Ryan on projects housed under the Cloud Native Computing Foundation shows nothing has changed. Kubernetes is the most famous CNCF tenant, with Google and Red Hat contributing the lion’s share of code, but the other, lesser-known CNCF projects follow this same pattern. Indeed, perhaps the only real surprise in this fact of concentrated contributions is that the pattern has remained constant for so long.

    Look at any CNCF project, Ryan has shown, and you’ll see that virtually all of its contributions come from fewer than ten people. In fact, if you drill down deeper, you see that most work is done by just two people on any given project.

    As Ryan has written:

    It is fair to say that for almost all of the projects in the CNCF, specific vendors account for most of the development work being done.

    This is not to say that this is a bad thing—it is not; it is just a statement of reality. While the broad community around the projects may be large, the number of significant core contributors is relatively small, and the number of truly independent contributors is smaller still. This pattern is common across many open source projects.

    Not just “many” open source projects—all of them. I can’t think of a significant counterexample. For big, diverse projects like Linux, if you peel away the overall wrapping and count contributors for the subprojects, you see the same phenomenon: A few developers, nearly all of them employed by vendors, generate a huge percentage of core contributions.

    But if you step back, you realize it could only be thus. After all, anysoftware project degrades in efficiency the more bodies you throw at it (as Fred Brooks’s seminal book The Mythical Man Month anticipated).

    As for why most of these developers would be funded by vendors, that’s easy to explain, too: Developers have rent to pay, too, and they can only afford to heavily contribute if they are paid to do so. Companies, pursuing their corporate self-interest, employ developers to work on projects that help their business.

    Smart vendors understand how to use this to their advantage. Red Hat, for example, devoted part of its most recent earnings call to tout its Kubernetes contributions (second only to Google). As CEO Jim Whitehurst argued, those contributions let Red Hat both influence Kubernetes’s roadmap as well as better support its customers. Contributions, in short, give it a competitive advantage in selling Kubernetes.
    What “community” really means for open source

    So, is “community,” that mythical beast that powers all open source, just a chimera?

    The easy answer is “no.” That’s also the hard answer. Open source has always functioned this way.

    The interesting thing is just how strongly the central “rules” of open source engagement have persisted, even as open source has become standard operating procedure for a huge swath of software development, whether done by vendors or enterprises building software to suit their internal needs.

    While it may seem that such an open source contribution model that depends on just a few core contributors for so much of the code wouldn’t be sustainable, the opposite is true. Each vendor can take particular interest in just a few projects, committing code to those, while “free riding” on other projects for which it derives less strategic value. In this way, open source persists, even if it’s not nearly as “open” as proponents sometimes suggest.

    Is open source then any different from a proprietary product? After all, both can be categorized by contributions by very few, or even just one, vendor.

    Yes, open source is different. Indeed, the difference is profound. In a proprietary product, all the engagement is dictated by one vendor. In an open source project, especially as licensed under a permissive license like Apache 2.0, there’s always the option for a new developer or vendor to barge in and upset that balance. Kubernetes is a great example: Google started as the sole contributor but Red Hat (and others) quickly followed.

    No, this doesn’t help the casual corporate contributor that wants influence without making a sacrifice of code, but it does indicate that it’s possible to have an impact on an open source project in ways that proprietary products don’t afford.

    In short, there’s little to fear and much to celebrate in how open source works. Indeed, it is precisely this self-interested seeking of individual corporate (or personal) benefit that should keep open source flowering for decades to come.

    As should be evident 20 years into open source’s rise, the model works at both the community level and at the vendor level. Will it work for another 20? Yes.

    This story, “Open source isn’t the community you think it is” was originally published by InfoWorld.

    #Logiciels_libres #Communs #Communautés

    • @rastapopoulos Je viens de lire tes remarques sur l’excellent livre Roads and Bridges (j’avais envie de le traduire, mais je vois que Framablog l’a déjà fait... c’est bien l’open traduction ;-)

      Si on compare ce que tu dis que logiciel libre et des contraintes de financement, avec ce qui se passe également dans le monde associatif, où la course aux projets et subventions permettant de payer les permanents est devenue une nécessité, on voit bien qu’il y a un élément commun à creuser sur l’activité autonome des multitudes. Pour construire du ou des communs, il faut trouver des partenariats (communs-public ou communs-privé)... sinon, le projet risque d’être très beau, mais la réalisation pêcher par manque de solidité, de rayonnement,... (mon coeur saigne quand j’y pense ;-)

      Cela souligne d’autant plus la nécessité d’une élaboration théorique forte pour trouver des voies à l’émancipation, quel que soit le domaine. Les vieilles recettes (comme les vielles fractures des mondes militants) doivent être interrogées... et depuis trente ans, c’est cela que provoque le numérique.

  • La Cour des comptes valide le recours aux logiciels libres au sein de l’État | April
    https://www.april.org/la-cour-des-comptes-valide-le-recours-aux-logiciels-libres-au-sein-de-l-etat

    La Cour des comptes contrôle et analyse les actions de la DINSIC, dont elle salue le travail qu’elle appelle à amplifier et à relayer dans les autres services interministériels. On peut ainsi rappeler le récent appel à commentaires de la DINSIC sur la politique de contribution aux #logiciels_libres de l’#État clos le 28 janvier 2018.

  • Quels outils pour la #cartographie numérique avec les élèves ? — Géoconfluences

    http://geoconfluences.ens-lyon.fr/actualites/veille/outils-cartographie-numerique

    Il convient tout d’abord de rappeler que la cartographie à la main a encore de beaux jours devant elle : un bon cartographe sait d’abord se servir de ses crayons de couleurs, comme en témoigne chaque année le concours de cartographie pour collégiens et lycéens. En cartographie, le numérique nécessite une prise en main qui peut être longue et difficile, or l’outil ne doit pas prendre le pas sur la réflexion.

    La difficulté de la prise en main conditionne donc en partie le choix de l’outil en fonction des capacités de l’utilisateur. Les pistes suivantes peuvent être explorées ; si les pistes 3 et 4 risquent de s’avérer trop difficiles pour le niveau lycée.

    #logiciels_cartographie

  • Announcing the Initial Release of Mozilla’s Open Source Speech Recognition Model and Voice Dataset - The Mozilla Blog
    https://blog.mozilla.org/blog/2017/11/29/announcing-the-initial-release-of-mozillas-open-source-speech-recognit

    And yet, while this technology is still maturing, we’re seeing significant barriers to innovation that can put people first. These challenges inspired us to launch Project DeepSpeech and Project Common Voice. Today, we have reached two important milestones in these projects for the speech recognition work of our Machine Learning Group at Mozilla.

    I’m excited to announce the initial release of Mozilla’s open source speech recognition model that has an accuracy approaching what humans can perceive when listening to the same recordings. We are also releasing the world’s second largest publicly available voice dataset, which was contributed to by nearly 20,000 people globally.

    #reconnaissance_vocale #logiciels_libres #Mozilla

  • Dieselgate : ce que révèle l’enquête sur Fiat Chrysler
    http://abonnes.lemonde.fr/planete/article/2017/11/27/dieselgate-ce-que-revele-l-enquete-sur-fiat-chrysler_5220746_3244.ht

    A l’instar de Peugeot mais aussi de Renault et Volkswagen – par qui le scandale est arrivé en 2015 –, FCA est soupçonné d’avoir manipulé les moteurs de certains de ses modèles diesel pour satisfaire aux tests d’homologation en dissimulant les vrais niveaux d’émission d’oxyde d’azote (NOx), un groupe de gaz très toxiques.

    Les enquêteurs ont acquis la conviction que la firme a mis au point un logiciel pour déjouer les contrôles. « L’implantation d’un logiciel dans le calculateur visant à ne faire fonctionner les organes de dépollution de manière efficace que lors des tests d’homologation ou principalement lors de ces tests est une stratégie mise en œuvre par FCA Italy SpA [la maison mère] », relève la DGCCRF. Ce « procédé frauduleux », ajoute-t-elle, n’a pu être réalisé « que de manière volontaire » et fait partie de la « stratégie d’entreprise depuis plusieurs années ».

    Une stratégie qui ressemble à celle de Volkswagen qui a fini par reconnaître l’utilisation d’un logiciel truqueur.

    Les enquêteurs se sont particulièrement intéressés aux résultats de la célèbre Fiat 500X. Son moteur diesel est censé se conformer à la dernière norme en vigueur (Euro 6) en matière de pollution, et donc émettre moins de 80 mg/km de NOx lors du test d’homologation. Or, non seulement il ne respecte pas ce seuil dans les conditions exactes du test de l’Union technique de l’automobile, du motocyle et du cycle (UTAC, l’organisme certificateur en France), mais il l’explose dès que l’on se rapproche des conditions de conduite réelles.

    Ainsi, un protocole spécifique a été mis au point par l’Institut français du pétrole énergies nouvelles (Ifpen) pour vérifier ce qu’il se passait en prolongeant le test au-delà des vingt minutes du protocole d’homologation. Les enquêteurs ont découvert que « les émissions de NOx sont multipliées par 3,6 et aboutissent à des taux près de onze fois supérieurs à la limite réglementaire (878 mg/km) », soit « 1097,5 % du seuil réglementaire. »

    #Diesel #Dieselgate #Fiat #Logiciels_embarqués

  • The Pentagon is set to make a big push toward open source software next year - The Verge
    https://www.theverge.com/2017/11/14/16649042/pentagon-department-of-defense-open-source-software

    Besides cost, there are two other compelling explanations for why the military might want to go open source. One is that technology outside the Pentagon simply advances faster than technology within it, and by availing itself to open-source tools, the Pentagon can adopt those advances almost as soon as the new code hits the web, without going through the extra steps of a procurement process.

    Open-source software is also more secure than closed-source software, by its very nature: the code is perpetually scrutinized by countless users across the planet, and any weaknesses are shared immediately.

    “How would the Trojans have reacted if the Horse statue the Greeks gave them was made of glass and they could see right through it? They would have seen the malicious implants and removed them before letting the statue into their enterprise,” says Bob Gourley, co-founder of the security consultancy firm Cognitio and former chief technology officer of the Defense Intelligence Agency. “That is my key thought about open-source software. Everyone can examine the code and look for and remove vulnerabilities before they are brought into the enterprise.”

    #Logiciels_libres #Ministère_Défense #USA

  • Computermuseum München, Wissenswertes
    http://www.computermuseum-muenchen.de/dictionary/history/dospc.html
    Que faire de sa collection de #logiciels #MS-DOS ?

    ... mein DOS-Archivierungs-PC

    Top Vorwort 1 - Software-Archivierung: was kann ich beitragen?

    Ich habe eine große Sammlung an originaler Software für die Plattformen CP/M und MS/PC-DOS (incl. 16-Bit-Windows). Diese liegt größtenteils auf 5,25"- und 3,5"-Installationsdisketten vor. Ich begann 2001, diese Disketten zu archivieren. Zudem alles, was ich für CP/M habe (nur 5,25" Disketten). Zu dieser Zeit gab es noch keine Software-Preservation-Projekte wie z.b. http://www.softpres.org und moderne Hardware ("kryoflux", „Supercard pro“, „DiskFerret“), daher zog ich die Diskettenimages mit „teledisk 2.16“ (Sydex) und zu einem kleinen Teil (vor allem CP/M) mit „imagedisk 1.17“ (Dunfield). Kopiergeschützte Software habe ich mit einem „Option Board“ der Firma "Central Point"kopiert und auch als Image gesichert (dazu weiter unten mehr). Da der genannte Umfang für eine Person riesig genug ist, habe ich mich bisher nicht um die Archivierung der Software für Homecomputer und Apple kümmern können.

    Zu Projekten wie der „Software Preservation Society“ ein paar Sätze: im entsprechenden Foren wird kontrovers diskutiert, was überhaupt eine 100%ige Kopie eines absolut fehlerfreien Originals ist, und das teilweise auf philosophischem Niveau. Ich bezweifle nicht, das in dieser Vereinigung Fachleute sitzen, die wissen, über was sie da reden. Aber trotzdem, aus dieser Diskussion muss ich mich mit meinen „stümperhaften“ Bemühungen und meinem unzureichenden technischen Wissen heraus halten. Ich kann nur hoffen, das die von mir gesicherte Diskette oder der von mir gesicherte Diskettensatz im Falle einer Verwendung oder einer Wiederherstellung unter allen Umständen auch wirklich fehlerfrei funktioniert. Ich habe meistens ja nur das eine mir vorliegende Original und kann nicht ausschliessen, das auf einer so alten Diskette an irgendeiner Stelle in irgendeiner Datei ein „Bit gekippt“ ist. Ich kann eine Diskette lediglich mit Programmen wie dem „Norton Disk Doctor“ oder „Checkit“ überprüfen, bevor ich ein Image ziehe. Aber eines ist unbestreitbar: die Zeit drängt!

    • The software did exactly what it was told to do. In fact it did it perfectly. The reason it failed is that it was told to do the wrong thing. Software failures are failures of understanding, and of imagination.

      […]

      The programmer, the renowned Dutch computer scientist Edsger Dijkstra wrote in 1988, “has to be able to think in terms of conceptual hierarchies that are much deeper than a single mind ever needed to face before.” Dijkstra meant this as a warning. As programmers eagerly poured software into critical systems, they became, more and more, the linchpins of the built world—and Dijkstra thought they had perhaps overestimated themselves.

    • Je n’ai pas encore tout fini mais presque, mais en gros le sens général du papier, c’est que ça part sur un constat plutôt pas mal sur la complexification monstrueuse dû à l’informatisation dans le moindre recoin (exemple des voitures, mécanique vs logiciel). Et au final, à partir du milieu de l’article ça part dans le solutionnisme méga technologique encore plus compliqué, en proposant d’utiliser des méta-logiciels industriels qui génèrent le code à la place des humains à partir de modèles logiques en prise avec la réalité, ce qui en soi est intéressant mais qui concrètement implique d’utiliser des logiciels encore plus compliqués pour ça, issu de l’industrie de l’aviation, de Dassault, etc. Ça ne parle absolument pas d’imaginer des innovations low tech, avec moins d’informatique, de revenir à des choses plus mécaniques et plus facile à réparer, etc, non : toujours plus compliqué.

    • Ça ne parle absolument pas d’imaginer des innovations low tech, avec moins d’informatique, de revenir à des choses plus mécaniques et plus facile à réparer, etc, non : toujours plus compliqué.

      N’oublies pas le contexte, ô @rastapopoulos, l’auteur est lui-même un codeur.. et il tombe dans le piège qu’il décrit.
      Résultat l’article n’a pas de conclusion, c’est une fuite en avant à l’image de la techonologisation forcenée dont on est tous spectateurs.

  • Open Letter - Public Money, Public Code
    https://publiccode.eu/openletter

    Un pétition intéressante pour tous les libristes... et une revendication simple et évidente.

    Publicly funded software has to be Free and Open Source Software. While there are plenty of good reasons for this, many politicians don’t know about them yet.

    Free Software gives everybody the right to use, study, share and improve software. This right helps support other fundamental freedoms like freedom of speech, press and privacy.

    This is where you can help! Sign the open letter to give our message more weight. 5825 people and 36 organisations have already signed. We will hand over the letter and signatures to your representatives and make sure that they understand that: Public Money? Public Code!

    Public Money? Public Code!

    Digital services offered and used by our public administrations are the critical infrastructure of 21st century democratic nations. In order to establish trustworthy systems, public bodies must ensure they have full control over the software and the computer systems at the core of our state digital infrastructure. However, right now, this is rarely the case due to restrictive software licences that:

    Forbid sharing and exchanging publicly funded code. This prevents cooperation between public administrations and hinders further development.
    Support monopolies by hindering competition. As a result, many administrations become dependent on a handful of companies.
    Pose a threat to the security of our digital infrastructure by forbidding access to the source code. This makes fixing backdoors and security holes extremely difficult, if not completely impossible.

    We need software that fosters the sharing of good ideas and solutions. Like this we will be able to improve IT services for people all over Europe. We need software that guarantees freedom of choice, access, and competition. We need software that helps public administrations regain full control of their critical digital infrastructure, allowing them to become and remain independent from a handful of companies. That is why we call our representatives to support Free and Open Source Software in public administrations, because:

    Free and Open Source Software is a modern public good that allows everybody to freely use, study, share and improve applications we use on a daily basis.
    Free and Open Source Software licences provide safeguards against being locked in to services from specific companies that use restrictive licences to hinder competition.
    Free and Open Source Software ensures that the source code is accessible so that backdoors and security holes can be fixed without depending on one service provider.

    Public bodies are financed through taxes. They must make sure they spend funds in the most efficient way possible. If it is public money, it should be public code as well!

    That is why we, the undersigned, call our representatives to:

    “Implement legislation requiring that publicly financed software developed for public sector must be made publicly available under a Free and Open Source Software licence.”

    #Logiciels_libres #Législation #Services_publics

  • https://lapetroleusecaen.com/2017/09/08/dim-1009-atelier-dautodefense-numerique

    Chaque mois, cet atelier permettra à chacun.e d’acquérir les compétences nécessaires pour se défendre, à la fois en ligne et hors-ligne. Au programme : fondamentaux d’informatique, logiciels libres, initiation à Tails, chiffrement, etc.

    Tous niveaux bienvenues. Venez avec votre PC (si possible) et/ou une clef USB (4 Go minimum).

    Dès 18h.

    #Caen #LaPétroleuse #AutodéfenseNumérique #LogicielsLibres #Tails #Chiffrement

  • Loi de Finances 2016, article 88 : La #certification est elle seulement applicable ? – Synpell
    http://www.synpell.fr/2017/08/23/loi-de-finance-2016-article-88-la-certification-est-elle-seulement-applicabl

    Vous êtes nombreux à nous avoir interpellés au sujet de la mise en place de l’article 88 de la loi de finance 2016 (à partir du 1er janvier 2018) et à vous inquiéter des conséquences de cette loi sur les éditeurs de #logiciels libres ou non. Le Synpell a par ailleurs déjà interpellé le Ministère de l’économie en 2016 au sujet de cette loi. Les échanges sont mis en ligne dans une précédente publication du Synpell : http://www.synpell.fr/2016/09/05/loi-de-finances-2016-et-securisation-des-logiciels-de-caisse-et-de-comptabil

    Courant juin 2017, le Ministère de l’économie a publié un communiqué annonçant une « simplification » de la mise en place de cette loi en ne faisant peser la législation que sur les « seuls » logiciels de caisse en excluant les logiciels de #comptabilité et de gestion (hormis ceux gérant des transactions entre assujettis à la TVA et non-assujettis à la TVA, qui sont alors assimilés à des logiciels de caisse).

    Le loup est dans les détails : même si je bosse essentiellement avec des pros, il m’arrive de bosser avec des particuliers. Cette année, j’en ai facturé un : il me faut donc un logiciel de compta certifié!

  • Les Inrocks - Cadences infernales et pressions : à la Poste, « on nous laisse crever »
    http://www.lesinrocks.com/2017/07/23/actualite/cadences-infernales-et-pressions-la-poste-nous-laisse-crever-11967695

    Bien des facteurs sont à bout. Pressés par des cadences infernales et incompréhensibles, un #management “morbide” et un malaise grandissant, nombre d’entre eux craquent physiquement et mentalement.

    Toutes les missions des postiers sont chronométrées et les cadences s’accentuent au gré des restructurations régulières. Des nouveaux services comme la pose de plaques d’opérateurs téléphoniques dans les halls ou la visite aux personnes âgées, jusqu’à leur coeur de métier, la distribution du courrier. “Par exemple, pour un recommandé à livrer en mains propres, on a 1 minute 30, assure-t-il. C’est absurde. Il suffit qu’un ascenseur soit en panne ou que la personne discute et on dépasse.” Aujourd’hui avec ses deux tournées en une, Grégoire a 42 recommandés à livrer.
    (...)
    Pour calculer ces cadences, #La_Poste utilise des #logiciels. Ils s’appuient sur des #données #statistiques pour déterminer le temps passé entre deux boites aux lettres, un nouveau service ou encore la distribution d’un recommandé. Pour l’enseigne la baisse du nombre de lettres permet aux #facteurs d’effectuer plus de tâches. Mais cela ne dit pas comment elle effectue ces calculs.

    “La Poste est dans l’incapacité d’expliquer le pourquoi de telles ou telles #cadences“, prévient-on du côté des syndicats. Contactée par ”Les Inrocks”, l’entreprise assure au contraire que ces équations ne sont “absolument pas des boites noires et répondent à des techniques très claires”. Pour autant, aucun des documents transmis par l’enseigne jaune et bleu ne permet de comprendre ces méthodes. C’était sans doute oublier que ces données, la Poste ne les aurait plus en sa possession.

    Dans un rapport interne, un cabinet d’expertise indépendant pointe du doigt cette absence de transparence. Fin 2016, il assigne l’entreprise en justice afin d’avoir ces données. Dans l’ordonnance de référé, en date du 13 juin 2017, il est écrit noir sur blanc que la Poste admet qu’une partie “des études qui ont permis de constituer ces normes et cadences, de par leur ancienneté ou du fait des évolutions successives des organisations des services(…), ne sont plus disponibles“. Les documents à la base du rythme imposé aux facteurs se seraient donc envolés ? Pour la justice, cela parait “peu crédible que [La Poste-] n’ait pas gardé ces éléments alors même qu’il ne s’agit (…) de protocoles actuels dont elle se sert toujours pour le calcul des tournées“.

    “Donc en fait on ne sait pas, s’insurge Pascal Pannozzo, syndicaliste SUD-PTT. On ne sait pas comment les cadences sont calculées, comment les tournées sont définies. On ne sait rien.”

  • Le libre, et l’universitaire | Freakonometrics
    http://freakonometrics.hypotheses.org/5279

    Le modèle économique est assez incroyable quand on y pense : avec des fonds publics, l’université offre un service avant-vente à des entreprises qui vendent des logiciels commerciaux. Alors qu’il existe du libre qui fait mieux. Et qui continuera à faire mieux si la communauté d’utilisateurs est active. Je pense que les logiciels commerciaux n’ont pas leur place dans les formations universitaires, et qu’il serait temps que les universitaires prennent leur part de responsabilité dans ce qui s’est mis en place Je ne souhaite pas que les universitaires prennent leur part du profit même si ça serait la moindre des choses (il suffit de survoler la page comparison of statistical packages sur wikipedia pour apprendre que rendre accro un étudiant à un logiciel qu’il utilisera pendant 10 ans, c’est assurer entre 10,000 $ et 60,000 $ de licence (pour un utilisateur), sans parler des formations, des livres, etc) . Je pense qu’il y va de notre responsabilité en tant qu’universitaire de promouvoir le logiciel libre. Cela permet déjà de comprendre ce qu’on utilise (je faisais un billet la semaine passée, suite à des soucis rencontrés sur le tableur – commercial – T), mais en plus, comme le notait Scott Wilson, “open source not only promotes creativity but helps make technology more democratic allowing a community to work together to solve common problems.” Et je pense qu’il a raison. Maintenant, je suis nul pour faire des tribunes, et je voulais juste que mes collègues prennent conscience de certains aspects d’un débat qui ne fera que gonfler dans les mois qui viennent…

    #logiciel_libre

  • Quels sont les logiciels libres que l’État conseille en 2017 ? - Tech - Numerama
    http://www.numerama.com/tech/244219-quels-sont-les-logiciels-libres-que-letat-conseille-en-2017.html
    http://www.numerama.com/content/uploads/2017/03/SILL-2017-socle-interminist%C3%A9riel-logiciels-libres_0.pdf

    Le socle interministériel de logiciels libres a été mis à jour. Cette liste, publiée depuis 2012, regroupe les logiciels libres que l’État recommande. Elle inclut des programmes généralistes mais aussi des solutions bien plus pointues.

    #logiciels_libres
    #xyzaeiou

  • Mercenaires de la #surveillance : le marché trouble des #logiciels_espions
    http://www.lemonde.fr/grands-formats/visuel/2017/05/23/mercenaires-de-la-surveillance-le-marche-trouble-des-logiciels-espions_51325

    Depuis moins d’une dizaine d’années, des chercheurs et des ONG révèlent l’existence de logiciels espions perfectionnés, développés par des entreprises privées et vendus dans le monde entier à des services de renseignement étatiques et à des forces de police. A l’heure où les outils de communication numériques prennent de plus en plus d’importance dans les enquêtes criminelles et antiterroristes, ces sociétés leur fournissent des sésames censés ouvrir les portes de n’importe quel ordinateur ou téléphone.
     
    Un marché qui fait, aussi, des victimes collatérales. Des activistes, des chercheurs et des journalistes sont régulièrement la cible de ces logiciels indiscrets sous certains régimes autoritaires.
     
    Qui sont ces fabricants de « mouchards » ? Qui sont leurs clients ? Que font ces « armes » numériques ? Plongée dans l’univers opaque des logiciels espions.

  • #Design graphique & pratiques numériques - Passages en #revue
    http://strabic.fr/Design-graphique-pratiques-numeriques

    On ne peut que saluer la naissance en France d’une revue portant sur les relations entre design graphique et pratiques numériques, tant les acteurs des communautés associées peinent à trouver des lieux d’échange au sein du paysage éditorial francophone. Dans les pages de Strabic, on peut d’ailleurs déceler les prémisses de certaines contributions de ce premier numéro de Back Office : Anthony Masure critiquant les #logiciels Adobe (2011) ou encore Nolwenn Maudet exhumant les travaux de la designer Muriel Cooper (2015). La revue Back Office arrive à point nommé pour célébrer l’invisible mais non moins omniprésente culture technique qui caractérise certaines pratiques du #graphisme et de la #typographie. Il est question des crayons et stylets du graphiste Étienne Robial, d’une critique culturelle des logiciels de PAO (Manon Bruet, Lev Manovich), du contexte technologique pesant sur l’économie typographique (Nicolas Taffin, Frank Adebiaye). Enfin une belle place est donnée à la généalogie des #interfaces graphiques (Eric Schrijver, Nolwenn Maudet). Bien que de factures et de styles inégaux, les articles sont néanmoins courts et efficaces : la revue s’ouvre ainsi à une audience plus large que celles des habituels périodiques “geek” et des journaux de bibliophiles amoureux de reliures et d’empattements.