Mané

Critique de Sciences & doctorant en anthropo-épistémologie

  • Les théories de la complexité : des points de repère
    http://socioargu.hypotheses.org/5004

    Depuis une trentaine d’années, le terme de « complexité » s’est imposé dans les discours des chercheurs et des intellectuels, des instituts de recherche et des journalistes scientifiques. De nombreux chercheurs, quelle que soit leur discipline, s’y intéressent. Multiples, aux contours incertains, les théories de la « complexité » cultivent et nourrissent l’espoir de parvenir à des solutions nouvelles, jugées parfois « miraculeuses », aux problèmes sociaux et environnementaux ; elles peuvent également produire une sorte d’émerveillement, ou pour le moins d’excitation cognitive, en ouvrant sur la compréhension réelle et profonde des systèmes dits complexes.

    #épistémologie #socio-informatique #sociologie_pragmatique

  • Le capitalisme est-il l’état naturel des choses ?
    http://www.france2.fr/emissions/ce-soir-ou-jamais/videos/le_capitalisme_est-il_letat_naturel_des_choses__17-04-2015_769765

    Alors que la crise économique se poursuit, certaines voix s’élèvent pour remettre en cause, non telle ou telle cause conjoncturelle, mais l’ensemble du système économique mondial actuel. Depuis la chute de l’URSS, le capitalisme a-t-il perdu son dernier rival économique ? Et quand on parle de capitalisme, dequoi parle-t-on au juste ? Les invités de Frédéric Taddeï s’interrogent sur les fondements anthropologiques de la pensée capitaliste. Le live du jour est assuré par Blick Bassy, qui publie l’album « Akö ».

    Très intéressant débat entre Thomas Piketty et Frédéric Lordon.

    #Capitalisme #Crise_de_la_dette_dans_la_zone_euro #Euro #France #Frédéric_Lordon #Guy_Sorman #Le_Capital_au_XXIe_siècle #Thomas_Piketty #Union_européenne #Zone_euro

  • Ivre, il demande quelle distribution GNU/Linux choisir...

    La ligne de commande me fait pas peur (sans être expert, j’ai fait mes classes sur deux ou trois serveurs). Si je peux prendre du temps pour installer et configurer, j’aimerai cependant que quand ça marche je puisse compter dessus sans avoir à quotidiennement ajuster telle ou telle chose. Fonctionner en rolling release me séduit pas mal, mais peut-être est-ce trop lourd au quotidien ?

    J’aimerai aussi ne pas avoir de problème en terme multimédia, fut-ce donc en utilisant des codecs non libres. Même chose pour les drivers de base (processeur, etc.) que j’aimerai utiliser dans leur forme optimisée.

    Enfin, si cela à de l’importance, il s’agirait d’un ordinateur portable à disque SSD, d’un petit processeur Intel 64bits, mais qui ne devrait pour autant pas manquer de RAM (8Go). Un point particulièrement important pour moi est de ne pas faire fondre l’autonomie de la batterie (d’où des drivers optimisés).

    D’ailleurs, peut-on considérer qu’une distribution « légère » soit à priori plus économe en batterie ? Car ça semble pas se vérifier. L’argument étant que les distributions les plus lourdes sont aussi celles qui contiennent les drivers non libres les plus optimisés. Mais en même temps, je vois pas d’argument qui m’empêcherait de les installer manuellement.

    Partant de là, je suis assez intéressé par #ArchLinux mais j’aimerai bien quelques retours sur son usage au quotidien. Parce qu’après tout, si c’est le prix du confort, je peux aller jusqu’à #Linux_Mint. Ou bien est-ce finalement plus raisonnable de choisir un intermédiaire tel une « simple » #Debian ?

    Des avis éclairés de #seenthisiens ?

    • Pour tout ce qui est multimédia, et à moins d’être très bricoleur, c’est clair qu’une Ubuntu est ce qui fera le moins d’histoires (et qui videra le plus vite la batterie).

      Pour ArchLinux, j’avais très peur de la rolling release au début mais j’a eu en fait peu de problèmes (même lors du passage à systemd). Mais je ne l’ai utilisé que sur des serveurs.

    • Arch Linux est une très bonne distribution, avec des paquets très à jour, une communauté active d’utilisateurs et développeurs, une documentation (wiki+forum) vraiment super top (un peu comme avec Gentoo). Il est conseillé de mettre à jour régulièrement cette distro, je suppose au minimum une fois par mois, il faudrait regarder du côté du forum d’Arch Linux pour le vérifier. Généralement la mise à jour du système se fait entièrement toute seule, mais parfois il faut intervenir manuellement en lisant bien les recommandations dans le fil d’actualité d’Arch Linux ("Latest news" sur la page d’accueil), et dans ce cas vaut mieux essayer de comprendre ce que l’on fait. Rarement la mise à jour pose problème, mais si il y a problème, au dernier ressort on s’en sort à l’aide du « forum ».

      Une autre question intéressante est le choix du Desktop. J’ai opté pour MATE (fork de Gnome2) et j’hésite à « évoluer » vers des environnements graphiques encore plus légers...

    • Finalement je pense que la disto Arch Linux se rapproche pas mal de Gentoo qu’on dit appartenir à la catégorie des méta-distributions, où à priori c’est l’utilisateur qui choisit les finalités de sa distribution (par ex de décider lui-même si l’installation sera de type serveur ou pc de bureau), en particulier les développeurs ne font aucune supposition sur le choix ou pas par l’utilisateur de tel environnement graphique par rapport à tel autre (IceWM, Fluxbox, KDE, MATE, etc) . Deux autres avantages des méta-distributions, c’est la possibilité d’optimiser les binaires des paquets et de pouvoir configurer les paquets très précisément à l’installation (les USE sous Gentoo).

      The “Gentoo” name comes from the fast-swimming Gentoo penguin. It was chosen to reflect the potential speed improvements of machine-specific optimization. Gentoo package management is designed to be modular, portable, easy to maintain, and flexible. Gentoo is sometimes described as a meta-distribution, “because of its near-unlimited adaptability”, in that the majority of users have configurations and sets of installed programs which are unique to themselves.

      Sachant ça on peut mieux décider si on a besoin d’opter pour Arch Linux ou Gentoo :-) Pour un « pc de bureau » assez commun je pense qu’on peut largement se passer des méta-distributions (je pense qu’on peut ranger Arch Linux dans la catégorie des méta-distribution, même si elle est plus limitée que Gentoo : par exemple avec Arch Linux à priori tous les paquest installés sont précompilés pour une architecture donnée, ce qui est une différence majeure avec Gentoo).

      Récemment j’ai installé sur un pc de bureau la toute nouvelle distribution grand public « ubuntu/mate » et j’en suis satisfait.

      https://ubuntu-mate.org
      https://en.wikipedia.org/wiki/Gentoo_Linux

      Ps : après tout ce blabla pas toujours utile dans la pratique, Manjaro n’est pas une méta-distribution, mais une distribution de type rolling-release orientée grand public, quoique je pense que sur le long terme Manjaro nécessite des connaissances pour être maintenue à jour : à vérifer quand même.

    • Merci beaucoup pour vos avis et commentaires !

      @la_taupe @0gust1 @grommeleur @stephane Ubuntu, oui bien sûr. C’est sûr que c’est un bon choix pour ne pas s’embêter. J’utilise depuis pas mal de temps Xubuntu (Ubuntu sous Xfce en gros) et c’est très satisfaisant. Ubuntu apporte beaucoup à GNU/Linux en le démocratisant et en n’en faisant un système simple et efficace. Mais en même temps je crains aussi les choix parfois un peu seul contre tous de Canonical (avec l’absence de systemd par exemple) ou son « but lucratif » (qui se limite à la version de base à priori je crois). C’est efficace, bien intégré, avec une large communauté francophone... mais manque parfois un peu de réactivité et de souplesse, en tous cas pour un non initié aux arcanes d’Ubuntu. Et puis j’essaierai bien autre chose, c’est un argument de poids ! Et enfin, si comme le dit @stephane la batterie s’en portera d’autant mieux, c’est un argument de plus.

      @0gust1 Ah oui, ElementaryOS ! Il m’avait aussi tapé dans l’œil il y a quelques temps, puis il m’est sorti de la tête. Bon, tu dis que c’est basé sur Ubuntu... mais je vais regarder quand même.

      @la_taupe J’entends régulièrement beaucoup de bien d’ArchLinux. Mais quand je me renseigne, je lis aussi que l’installation est ardue en particulier en terme de drivers. Pourtant, les rolling releases mais surtout AUR et yaourt semblent faire l’unanimité... C’est là que je découvre Manjaro, un ArchLinux avec détection du matériel, codecs, et quelques environnements de bureau pré-intégrés (Xfce entre autre, que j’aime bien. Je connais pas MATE mais ça ressemble à un Xfce sur pas mal de points, et avec de l’avance sur Gtk3. Pourquoi pas !). Il y a d’ailleurs une version pour une installation avancée qui permet de choisir finement tout ça. Est-ce le meilleur des deux mondes comme il s’en réclame (cad souple et dynamique mais user friendly) ou le pire ? Difficile de savoir. Mais ça me tente beaucoup, je vais sans doute tester une version live.
      Gentoo je connais pas du tout. Je vais regarder aussi. Tes explications/arguments à propos des méta-distributions sont intéressants...

      Bon, je vais pouvoir me décider maintenant. Merci une nouvelle fois d’avoir pris le temps de m’éclairer !

    • Pour Debian que je connais un peu, tu as une rolling release assez facilement en utilisant la testing avec des logiciels à jour et suffisamment stable.
      Un coup de « sudo apt-get update && sudo apt-get dist-upgrade » de temps en temps pour se mettre à jour.

      Les drivers non libres (nvidia, firmware, ...) sont aisément accessibles en ajoutant les dépôts contrib et non-free.

      Il faut mettre un peu les mains dans la ligne de commande pour certaines choses mais ça va pas chercher loin pour une utilisation basique.

      Et en plus t’as un bon bouquin pour t’aider :
      http://raphaelhertzog.fr/livre/cahier-admin-debian

      J’ai utilisé Gentoo il y a quelques années et c’est pas franchement simple d’installation, par contre c’est pédagogique. L’installation de nouveaux logiciels peut être longue sur de vieux ordinateurs vu qu’ils sont compilés spécifiquement pour ta machine. Du coup, tu peux optimiser les options de compilation. Sur les autres distributions même si tu as les sources des logiciels disponibles, tu utilises plutôt les binaires directement.

      Je ne connais pas Arch mais voici un lien qui liste les différences par rapport à d’autres distributions :
      https://wiki.archlinux.org/index.php/Arch_compared_to_other_distributions

    • @homlett , la détection du hardware et des pilotes à charger au démarrage, est prise en charge pratiquement complètement par toute distribution GNU/Linux récente. La première fois lors de la nouvelle installation qui va générer le nouveau noyau adapté à ta configuration matérielle, et les fois suivantes chaques fois que tu mettras à jour ton noyau ou que la distribution s’en chargera pour toi quand tu feras une mise à jour. Maintenant à tout moment on peut imposer un pilote particulier pour un matériel donné : par exemple choisir le pilote propriétaire.

      Pour les cartes graphiques, je crois que chaque distribution permet à l’installation (ou même après) de choisir entre pilote propriétaire et pilote libre.

    • Désolé, je me suis rendu compte que ce que j’avais écrit concernant la détection matérielle, d’une part devait être faux, et d’autre part que c’était ma tentative d’expliquer approximativement « ce mécanisme ».

      C’est certainement faux, parce qu’il me semble que les systèmes d’exploitation font une détection matérielle à chaud, à chaque fois qu’un nouveau matériel est détecté. Et c’est à ce moment là que le module du driver est chargé en mémoire (avec la commande modprobe). Donc à mon avis ce n’est même pas du rôle d’une distribution de détecter le matériel, mais plutôt du rôle du noyau.

      Parcontre, à chaque fois qu’un nouveau noyau est généré (à l’installation, lors de la mise à jour dus sytème, etc), un certain nombre de modules du noyau doivent être préchargés dans une image qui est générée en même temps que le noyau (cf. initrd).

      A vérifier, la détection des périphériques à chaud comme à froid est probablement faite par « le mécanisme » fourni par udev.

      Et comme tu le disais @homlett c’est probablement vrai que certaines distributions peuvent écarter les drivers proprio, notamment les distro de type puristes/intégristes.

  • Un artiste pirate les journaux pour défendre le droit à être informé
    http://www.numerama.com/magazine/31686-un-artiste-pirate-les-journaux-pour-defendre-le-droit-a-etre-informe

    Alors qu’un nombre croissant de journaux réservent la lecture de leurs articles aux seuls abonnés, l’artiste et activiste italien Paulo Cirio a décidé de redonner l’accès à l’information à tous les internautes, à travers un site qui pirate et partage gratuitement les articles de trois grands quotidiens américains. Il a même mis en place une version papier, distribuée à New York.

    • « Je crois fermement que l’information doit être gratuite et que la connaissance doit être accessible à tous, particulièrement pour ce qui concerne les économies et les politiques mondiales corrompues, parce que leur accès améliorerait la démocratie », défend l’artiste.

      Mais son oeuvre ne s’arrête pas là.

      Il a également placé des kiosques à journaux dans les rues de New York, par lesquels il propose aux passants d’emporter gratuitement une version papier d’un journal imprimé, sur lequel figure une sélection des articles piratés.

      Mieux encore. Estimant que s’informer est non seulement un droit mais aussi un devoir , Paulo Cirio propose aux lecteurs de gagner de l’argent lorsqu’ils s’informent.

  • « Les universitaires ont intérêt à contribuer à Wikipédia — qui a intérêt à ce qu’ils contribuent… »

    Stephen W. Campbell, un jeune chercheur, vient [de] publier un article-témoignage dont nous vous proposons ci-dessous une traduction. Il y synthétise rapidement l’attitude classique des historiens vis-à-vis de Wikipédia et propose justement de prendre un peu de recul par rapport aux questions épistémologiques de la neutralité et de l’objectivité.

    http://www.framablog.org/index.php/post/2014/05/10/les-universitaires-et-wikipedia
    #wikipédia #épistémologie

  • « Citez vos sources » : archéologie d’une règle au cœur du savoir wikipédien (2002-2008)
    http://edc.revues.org/5721

    L’encyclopédie Wikipédia résulte d’un projet novateur reposant sur l’articulation entre un dispositif socio-technique et une communauté de rédacteurs. Au fil de son histoire, cette communauté a élaboré des règles destinées à évaluer et valider les savoirs produits collectivement. Cet article a pour objectif de décrire les évolutions des règles relatives au référencement au sein de la Wikipédia en langue française et les débats que ces règles ont suscités entre 2002 et 2008. L’approche anthropologique adoptée met en évidence le rôle attribué au référencement pour faire face aux problèmes de confiance épistémique inhérente à ce projet.

    #Wikipédia #Anthropologie #SHS #Épistémologie

  • Pour un accès libre et gratuit aux articles scientifiques
    http://www.lefigaro.fr/sciences/2014/10/24/01008-20141024ARTFIG00297-pour-un-acces-libre-et-gratuit-aux-articles-scien

    L’Académie des sciences propose d’élargir l’accès libre et gratuit aux travaux des chercheurs, tout en préservant la qualité des publications.

    Pour favoriser l’accès libre et gratuit à la connaissance, l’Académie des sciences préconise de modifier en profondeur le monde de l’édition scientifique, dans un rapport rendu public vendredi. Les animateurs de ce groupe de travail, Jean-François Bach, professeur de médecine, et Denis Jérome, physicien au CNRS, constatent que le développement d’Internet a permis l’émergence de solutions alternatives plus séduisantes que le système classique des revues payantes.

    #Science

  • De la métrologie en #démocratie. La nouvelle vague des capteurs citoyens
    http://socioargu.hypotheses.org/4505

    Francis Chateauraynaud et Josquin Debaz
    Le surgissement de nouveaux acteurs, dotés d’expériences, de #savoirs et d’outils inédits, est un des éléments les plus marquants de la dynamique des controverses sanitaires et environnementales. On voit ainsi apparaître de nouvelles formes de #surveillance et de contre-expertise en provenance d’acteurs extérieurs aux institutions et aux #industriels. En même temps, comme on a pu l’observer sur le terrain des faibles doses1, les problématiques parties d…

  • Les chercheurs en psychologie s’écharpent, et nous ne devrions pas nous en laver les mains
    http://www.slate.fr/story/91163/chercheurs-psychologie-replication

    La « crise de la réplication » n’est absolument pas spécifique à la psychologie sociale, aux sciences psychologiques, ni même aux sciences sociales. Selon une formule célèbre de John Ioannidis, épidémiologiste de Stanford et remontant à près de dix ans, « la plupart des résultats de recherche sont faux, dans la plupart des protocoles et dans la plupart des disciplines ».

    Depuis, des échecs de réplication et autres failles majeures ont été détectés à travers toute la science, que ce soit dans des recherches sur le cancer, la génétique de maladies complexes comme l’obésité et les troubles cardiovasculaires, les cellules souches et dans des études sur les origines de l’univers. Au début de l’année, les National Institutes of Health (NIH) publiaient un communiqué dans lequel on pouvait lire :

    « Le système complexe assurant la reproductibilité des recherches biomédicales n’est pas efficace et nécessite une restructuration. »

    Quand on connaît les enjeux en présence, et sa centralité dans la méthode scientifique, on pourrait trouver étrange que la réplication tienne davantage de l’exception que de la règle.

    #Biais_de_publication #Controverse_scientifique #Expérience_scientifique #Protocole_expérimental #Psychologie #Recherche_scientifique #Réplication #Science