• Vers un système modulaire de publication : éditer avec le numérique – Antoine Fauchié

    Le domaine du livre, et plus particulièrement l’édition, connaît des mutations profondes au contact du numérique. Après des phases successives d’informatisation, l’une des manifestations les plus visibles de ces bouleversements est probablement l’ebook. Si le livre numérique est une approche inédite de l’écrit tant dans sa diffusion que dans sa réception, il y a en filigrane des transformations plus essentielles dans la manière de faire des livres. Des structures d’édition imaginent des nouvelles chaînes de publication originales et non conventionnelles pour générer des versions imprimée et numériques d’ouvrages et de documents, remplaçant les traditionnels traitements de texte et logiciels de publication par des méthodes et des technologies issues du développement web. Ainsi un système modulaire de publication peut se substituer à des chaînes linéaires, repositionnant l’humain au cœur des machines ou des programmes. À travers des commentaires de textes et des analyses de cas nous étudions les évolutions du livre avec un regard plus global sur notre rapport à la technique, et nous exposons les principes fondateurs d’un nouveau modèle.

    Mémoire d’Antoine Fauchié dans le cadre du Master Sciences de l’information et des bibliothèques, spécialité Publication numérique, de l’Enssib, sous la direction d’Anthony Masure, maître de conférences en design à l’université Toulouse – Jean-Jaurès et de Marcello Vitali-Rosati, professeur au département des littératures de langue française de l’Université de Montréal et titulaire de la Chaire de recherche du Canada sur les écritures numériques.

    #publications_hybrides #prepostprint #web2print #digital-first_publishing #système_modulaire_de_publication


  • Inclusive Components
    https://inclusive-components.design

    A blog trying to be a pattern library. All about designing inclusive web interfaces, piece by piece.

    Cards
    04/06/18

    Data Tables
    31/03/18

    Notifications
    27/02/18

    A Content Slider
    22/11/17

    Collapsible Sections
    26/10/17

    Tabbed Interfaces
    05/10/17

    A Theme Switcher
    08/09/17

    Tooltips & Toggletips
    25/07/17

    Menus & Menu Buttons
    10/05/17

    A Todo List
    07/04/17

    Toggle Buttons
    31/03/17

    #intégration #web #accessibilité #composants #bonne_pratique #bonnes_pratiques #pattern #UX #ergonomie



  • Lancement aujourd’hui de la nouvelle refonte du site #SPIP de http://pensezsauvage.org #shameless_autopromo donc

    Depuis quelques années, l’association pensezsauvage fait pousser des plantes potagères, des fleurs curieuses et rares pour récolter les graines à redistribuer et à revendre sur les marchés ou sur internet.

    Jusque là, le site disposait du theme_greeny de @marcimat (merci :*) avec un squelette légèrement modifié. Mais l’asso souhaitait quelque chose de plus clair et de responsive, avec une navigation compréhensible à tout·es. C’est finalement Mikou de pensez sauvage lui même qui a dessiné la maquette style Kraft. Pas évident du tout, mais j’estime que c’est bien la technique qui doit se plier aux idées créatives et non l’inverse. J’ai refait l’architecture du site et réalisé les fonctionnalités et l’intégration SPIP html/css/js sur une base zcore. J’ai créé une boutique minimaliste avec trois plugins SPIP : prix, panier et paypal, il n’y a ni compte client ni stockage de coordonnées, bref, rien d’autre qu’un document de l’article avec un champ ’prix’ à remplir.

    L’idée est celle d’un onepage où l’internaute navigue par ancres, un petit JS perso permet de tester si l’ancre existe, sinon de renvoyer vers l’URL demandée pour éviter les impasses de navigation et permettre au site d’évoluer à son rythme. Bon, j’avoue que j’étais pas réjouit de mettre tout le catalogue sur l’accueil, mais j’ai trouvé des astuces pour alléger.
    Il m’aurait été parfaitement impossible de faire cela sans #CSS3 il n’y a que serait-ce 5 ans et je me suis pas mal amusée à vrai dire.

    Le plugin panier a été modifié pour faire apparaitre les sachets de graines au fur et à mesure de leur mise au panier, avec un peu d’ajax perso on reste sur la même page le plus souvent possible. Le plugin lazysizes permet de ne faire apparaitre les images au format définitif que lorsque la vue visiteur est en face.

    Comme l’asso et les visiteurs préfèrent de loin les chèques, qui évitent de laisser des données sur internet, le panier une fois remplit peut être imprimé avec un montant qui déduit les frais de paypal.
    Pour cela j’ai créé une page reprise par le plugin Dompdf qui créé le pdf du panier de session du visiteur à la volée.

    La recherche est en autocompletion sur l’ensemble du catalogue des graines, la page glisse ensuite vers le sachet choisi.

    Merci à @jacotte qui a bien voulu revoir de ses yeux de lynx les défauts restants à corriger. Par exemple la font choisie par Mikou ne disposait pas d’apostrophes et de virgules correctes. Je suis donc passée par FontForge pour corriger cela avant l’intégration en base64 dans la CSS.

    Merci aussi à @james qui m’a poussé à écrire ce billet !


  • Paged.js – Paged Media
    https://www.pagedmedia.org/paged-js

    aged.js is an open-source library to paginate content in the browser. Based on the W3C specifications, it’s a sort of polyfill for Paged Media and Generated Content for Paged Media CSS modules. The development was launch as an open-source community driven initiative of it’s still experimental. The core team behind paged.js includes Adam Hyde, Julie Blanc, Fred Chasen & Julien Taquet.

    #Javascript #CSS #Webdesign



  • #Intégration / #développement : Plugin vs #boiler_plate

    Vous êtes plutôt l’un ou plutôt l’autre vous ?

    Il y a 1 an, j’attaquais mon squelette perso, celui qui me sert aujourd’hui de base pour la structure html et quelques styles css de bases et qui repose sur ZPIP V2. Ce squelette est (plus que) largement inspiré de Intégraal de @rastapopoulos et SPIPr de Cédric et @ben.

    Je commence à avoir quelque chose d’assez adapté à mes besoins. Outre une structure html5, ça permet de gagner beaucoup de temps : une grille à mettre en place ? <INCLURE{fond=inclure/liste/grille,...> + les bons paramètres et le tour est joué.

    La question qui se pose maintenant, c’est le fonctionnement : boilerplate ou plugin.

    Le plugin , c’est un squelette qu’on surcharge avec un squelette/plugin propre à chaque nouveau projet. Le boilerplate , c’est un squelette qu’on modifie directement pour chaque nouveau projet.

    L’avantage du 1er, c’est qu’on partage les évolutions entre tous les sites qui l’utilisent mais l’inconvénient, c’est qu’il faut conserver une compatibilité descendante sous peine, soit de casser le site, soit de ne plus pouvoir profiter des évolutions.
    Le 2nd, ben c’est exactement l’inverse.

    Au début, le fonctionnement plugin m’allait très bien : je développais mon plugin en même temps que les sites et chacun profitait donc des mise à jour de la structure et des styles de bases. Mais à force de bouger des choses, je me rends compte que ça devient galère de garder cette compatibilité descendante.

    Donc voilà, si vous avez des retours d’expérience...

    Liens :
    SPIPr : https://zone.spip.net/trac/spip-zone/browser/spip-zone/_squelettes_/spipr-dist/trunk
    Integraal : https://zone.spip.net/trac/spip-zone/browser/spip-zone/_squelettes_/integraal
    integraal (principe) : https://zone.spip.net/trac/spip-zone/changeset/83559/spip-zone
    Repo de mon plugin : https://gitlab.com/jmoupah/zcm
    Doc de mon plugin : https://notes.cousumain.info/ZCM-Squelette-modulaire-SPIP-ZCore.html

    #SPIP_recette #SPIP

    • Les deux, cela dépend du type de projets sur lesquels tu travailles.

      C’est l’exact raison pour laquelle j’ai conçu Intégraal, parce que Zpip ou SpipR ne convenait pas du tout dans les cas où on avait des clients différents, avec des graphismes dédiés à chaque fois, où il faut intégrer des maquettes précises, qui n’ont rien à voir les unes avec les autres.

      Dans ce cas, l’avantage d’avoir un plugin commun se réduit drastiquement, pour deux raisons :
      1) tu finis par surcharger au moins 50% du truc de base
      2) quand il y a une mise à jour du plugin central, ça peut très souvent te péter ton intégration, puisque tu avais basé du graphisme sur une structure qui peut bouger à tout moment !

      Voilà donc pourquoi cela fait des années que l’on travaille avec Intégraal et désormais sa commande spip-cli qui permet en 2s d’avoir la structure d’intégration, qu’ensuite on modifie directement.

      En revanche, attention, si une partie du travail concerne tout un ensemble de clients qui se ressemblent au moins un peu, et aussi si tu arrives à avoir des bases génériques ET configurables (noisettes ou autre), alors dans ce cas là ça peut de nouveau être intéressant d’avoir un plugin-squelette qui est le même pour tout le monde, et sur lequel tu ne fais que plaquer des styles (et pour ça il faut que tes classes CSS soient génériques aussi, quand je parle de générique, c’est pas juste au niveau des squelettes, <inclure>, etc).

      Actuellement, en plus de continuer à utiliser Intégraal, nous sommes en train de réfléchir à un plugin commun aussi, pour d’autres besoins.

      En simplifiant :

      Intégraal = site à façon, où on conçoit un ensemble de fonctionnalités, une ergonomie et un graphisme propre à ce site, puis on l’intègre tel qu’on l’a conçu.

      Plugin = site où on propose aux gens des fonctionnalités qui sont déjà à moitié intégré, parce que ça rentre vraiment dans le périmètre de leurs besoins, et sur lesquels on change juste quelques petites différences graphiques (palette de couleur, typo, header, etc).

    • Mais du coup, si on change son boiler plate en plugin spécifique au nouveau projet, ça veut dire que chaque nouvelle fonctionnalité ajoutée en cours de développement (donc dans le nouveau projet, tout le monde suit ?) doit être reportée dans le boiler plate source pour profiter au prochain projet.

      Ça veut peut être dire qu’il faut attendre que le boiler plate soit arrivé à maturité avant de fonctionner comme ça...

      bon, work in progress quoi...

    • Bah oui, mais seulement si c’est une fonctionnalité générique. Le principe du boiler plate c’est qu’ensuite tu modifies en fonction de ton projet précis. Mais à tout moment, et surtout au début bien sûr, tu peux détecter que tel ajout va te servir dans d’autres futurs projets, donc tu l’ajoutes à ton projet en cours, tu le testes, tu trouves ça cool, et alors tu le reportes sur le boiler plate. C’est ce qu’on fait dans Intégraal depuis le début (même si on n’est pas forcément très rigoureux, ya sûrement plein de choses encore à reporter).


  • Building Your Color Palette
    https://refactoringui.com/previews/building-your-color-palette

    Ever used one of those fancy color palette generators? You know, the ones where you pick a starting color, tweak some options that probably include some musical jargon like “triad” or “major fourth”, and are then bestowed the five perfect color swatches you should use to build your website?



  • Syncope
    http://nowodzinski.pl/syncope

    Super efficace pour définir des réglages typos de base (taille, interlettrage, longueur de ligne), permet aussi de caler un rythme vertical régulier entre titre, inters et paragraphes. Moins complexe que d’autres outils mais c’est aussi bien.

    Syncope is a WYSIWYG tool that helps web designers and developers chose the optimal vertical rhythm of the typography for their web pages.

    Basically, it’s a set of tools which adjust the rhythm and output the styles in a preferred, production–friendly format. It is also a lot of fun to play with! In fact, if it weren’t for that, this tool wouldn’t have seen the light of day.

    #typographie #webdev




  • Rencontre SPIP dans la Drôme du 27 au 30 septembre 2018
    https://linuxfr.org/news/rencontre-spip-dans-la-drome-du-27-au-30-septembre-2018

    SPIP est un logiciel de publication pour internet francophone, réputé notamment pour sa gestion du multilinguisme et son système de squelettes, permettant, tel Monsieur Jourdain, de faire du MySql sans le savoir.

    La communauté SPIP est autogérée, sans support d’une structure associative ou commerciale.

    Elle organise du 27 au 30 septembre une rencontre (inter)nationale dans la Drôme, dans un gîte au cadre bucolique. Possibilité d’hébergement sur place.

    Le programme sera défini collectivement par les participants et participantes à cette rencontre. Mais nous pouvons d’ores et déjà supposer qu’il n’y aura pas que de la programmation, puisque, par exemple, la cuisine sera faite collectivement.lien n°1 : InscriptionTélécharger ce contenu au format Epub Commentaires : voir le flux atom (...)


  • J’ai besoin d’aide avec des #CSS. J’essaie de reproduire la présentation ultra-alignée d’images carrées telle qu’on la trouve dans Photos sur l’iPhone. L’idée étant d’avoir des vignettes carrées dont la taille n’est pas totalement fixe, et si possible sans s’embêter avec les media queries usuelles selon la taille de l’écran (genre une case de largeur 25% quand on est entre 600 et 720 pixels…).

    L’idée c’est que j’arrive à faire ça très bien avec une flex box :

    Mais le hic, c’est la dernière ligne. Les deux premières lignes, ça fonctionne magnifiquement, les dimensions des vignettes carrées sont très bien gérées quelle que soit la largeur d’affichage, le nombre de vignettes par ligne se calcule tout seul avec « flexibilité », l’alignement est parfait. Bref le bonheur.

    Mes CSS pour l’instant :

    ul.carres_oeuvres {
            list-style-type: none;
            margin: 0;
            padding: 0;
            display: flex;
            flex-wrap:  wrap;
            justify-content: flex-start;
            margin-right: 1px;
    }               
    ul.carres_oeuvres li {
            margin-top: 1px;
            margin-left: 1px;
            flex-grow: 1;
            flex-shrink: 1;
            flex-basis: 150px;
    }

    Sauf comme tu vois, la dernière ligne, qui occupe toute la largeur mais ne s’aligne pas.

    Je voudrais obtenir ceci :

    Et j’ai pas trouvé comment…


  • I Used The Web For A Day With JavaScript Turned Off
    https://www.smashingmagazine.com/2018/05/using-the-web-with-javascript-turned-off

    “The web is a hostile, unpredictable environment, which is why many developers follow the principle of progressive enhancement to build their sites up from a core experience of semantic HTML, layering CSS and unobtrusive JavaScript on top of that.”

    #nojs_JavaScript_progressiveEnhancement_clevermarks


  • Spice-up

    Create Simple and Beautiful #presentations

    Its features include:

    – Exporting to PDF: Share your presentation with anyone, no matter the platform they’re at
    – Presentation Browser: Scroll though the presentations you have made and jump right into them with one click!.
    – Controller Support: If you have a USB or Bluetooth controller, plug it in and control your slides!
    – Templates, so you can whip up a presentation in a blink of an eye.
    – Edit images in your favorite editor, and it will automatically update when saved
    – Web Viewer: Presentations can now be viewed from a web browser if Spice-Up is not installed, even if you’re not using Linux

    https://github.com/Philip-Scott/Spice-up


    • C’est intéressant même si je ne suis pas d’accord avec le démarrage de sa réflexion sur le faire qu’un wireframe c’est forcément un dessin statique (et donc dans son argumentation pas responsive etc).

      Du coup c’est déjà un peu ce qu’on fait, puisqu’on commence par mettre des blocs de contenu (faux ou plus précis suivant ce qu’on connait comme détails à ce moment) dans du HTML. Puis on style ce HTML en bloc que l’on place petit à petit. On pourrait aller plus loin et vraiment commencer par TOUT mettre en détail et faire valider cette liste de choses à placer dans un ordre de priorité, puis le styler une fois que c’est validé seulement.

      Mais du coup ses documents de priorités il continue de les faire en pixels, alors qu’on peut parfaitement les faire en HTML directement (et donc au départ c’est mobile first tant qu’on n’a rien stylé oui mais on PEUT les styler ensuite, ce qui n’est pas possible avec un truc statique).

      Bref, ça va dans le bon sens, mais je pense qu’il faut continuer à améliorer dans la voix de partir directement sur le HTML, jamais depuis un outil statique : aussi puissant qu’ils peuvent être (sketch etc), je trouve que c’est obsolète, des outils du passé, pour la majorité des cas.

      #conception #web #prototype #design #maquette #méthodologie #bonnes_pratiques

    • Alors je suis tout à fait d’accord, je viens encore d’en faire les frais ^^ Les outils comme sketch ou autre enferme dans une reflexion « pixel perfect » qui effectivement viens du print ou tout du moins tendrait a y ressembler.

      Le problème c’est aussi les gens qui utilisent le logiciel. Je retrouve les mêmes erreurs de conception de document, identiques a quand je faisais de la production et que j’executais les doc des directeurs artistique (ex 30 couleurs aucune dans le même format).

      On récolte donc des protos, conçues par des gens qui n’on jamais intégré ou conscience du markup, ni des implications de leurs choix graphiques.

      En exemple le plus courrant, des titres qui change de place suivant le mode mobile, mais change de bloc container : on se retrouve a dupliquer le code, a masquer en aria-hidden pour pas que les lecteurs vocaux double… bref moi j’aime pas et généralement on peut faire sans …

      Ce sont des méthodes ou type de réflexion, qui vont a l’encontre du progressive enhancement, et du mobile first.

      La en tout cas ce concept est intéressant car on pense la page en fonction du contenu réel : ce qui est totalement l’inverse des méthodes les plus couramment employées, encore largement tirés du print, sauf que l’ont à enlevé des étapes comme le calibrage ^^, et que maintenant on nous envoie le contenu quand le travail est fini, on marche à l’envers.

      Il y’a quelques années, j’avais été intéressé, par un projet Project Hub lancé par Brad Frost (Atomic Design methodology) : https://github.com/bradfrost/project-hub. En fait l’idée est de constatent garder le fil avec le client en le poussant a participer (genre Agile) . Je pense que l’implication, le suivi, le déroulement devrait faire partie d’un seul outil ou chaque intervenant à accès aux infos, a la timeline, des notifications rappels, guideline, …

      Dans un outil qui gérerait l’ensemble de la progression, l’exemple cité dans l’article peut effectivement permettre au SEO, marketeux de faire leur sauce en parallèle de l’intégrateur, sans interférer avec la partie purement dev.
      Je pense que réfléchir parallèlement ainsi pourrait éviter pas mal de problème pour ceux qui sont en fin de chaine, et surtout amener à se poser les bonnes questions sans penser QUE cosmétique mais contenu. Certainement un gain de temps aussi quand on travaille a plusieurs intervenants, …


  • healthchecks.io - Monitor Cron Jobs. Get #Notified When Your #Cron Jobs Fail
    https://healthchecks.io

    Make a HTTP GET request to this address from your cron job, daemon, script or long running task. When this address is not requested for a set time period, you will get alerted. Below are snippets that are ready to be copy/pasted into your own scripts.

    sources dispo ici : https://github.com/healthchecks/healthchecks
    une instance ouverte par ici : https://ping.hostux.info


  • Attaque de Toronto : qui sont les Incels, ce groupe de célibataires auquel se réfère le suspect ?
    En savoir plus sur http://www.lemonde.fr/pixels/article/2018/04/24/attaque-de-toronto-qui-sont-les-incels-ce-groupe-de-celibataires-auquel-se-r

    « La rébellion des Incels a déjà commencé. On va renverser tous les “Chads” et “Stacys”. » Ces phrases ont été postées quelques heures avant le drame sur le compte Facebook d’Alek Minassian, l’auteur présumé de l’attaque à la voiture-bélier qui a fait dix morts à Toronto (Canada), lundi 23 avril.

    Les Incels ? Sur Internet, ils sont plusieurs dizaines de milliers à avoir rejoint ces groupes, dont le nom est la contraction de l’expression involuntary celibate (célibataire involontaire). Dans la très grande majorité des cas, il s’agit d’hommes, hétérosexuels, âgés de 18 ans à 35 ans, selon leurs témoignages. Ce qui les rassemble : tenir les femmes pour uniques responsables de leur célibat durable.

    Particulièrement actifs en ligne, ils se retrouvent principalement sur le site Incels.me, interdit aux femmes et qui compte plus de cinq mille membres, mais aussi sur des groupes de la messagerie Discord, et sur le forum 4chan. Sur l’espace de discussion de ce dernier consacré aux Incels, « /r9k/ », des milliers de conversations sont ouvertes chaque jour.
    Haine contre les « Chads » et les « Stacys »

    Si les femmes ne s’engagent pas dans une relation avec eux, c’est uniquement, argumentent les Incels, parce qu’elles sont « diaboliques ». Les posts trouvés sur Internet les qualifient volontiers de « menteuses pathologiques », de « salopes (…) incapables d’aimer ». « [Elles] prennent plaisir à malmener, moquer ou humilier des hommes dès qu’elles le peuvent », résume un internaute.

    Celles qui sont la plupart du temps désignées par l’expression « femoid » (contraction de « femmes » et « humanoïdes », destinée à les déshumaniser) n’accepteraient d’avoir des relations qu’avec un seul type d’hommes : les « Chads ». Il s’agit de jeunes hommes populaires, charmants, à l’aise avec les femmes, et surtout, ayant une vie sexuelle et/ou amoureuse bien remplie. Les Incels les méprisent presque tout autant qu’ils les envient. Les femmes en couple sont, quant à elles, surnommées des « Stacys ».
    Des conseils pour violeurs

    Les discussions sont donc ouvertement misogynes et contiennent même parfois des incitations au harcèlement, ainsi que des glorifications du viol. En novembre 2017, le sous-forum Reddit « Incel », qui comptait quarante mille membres, a été fermé par le site pour « violation des règles d’utilisation ». A l’origine, un banal groupe de support pour les personnes célibataires, il avait commencé à être envahi, expliquait à l’époque au Guardian une porte-parole du site, par des « encouragements, incitations ou appels à la violence (…) contre un individu, ou groupe d’individus » – en l’occurrence les femmes. Le sous-forum « IncelTears », qui dénonce les propos extrêmes des Incels, les avait compilés.

    Sur le site Incels.me, les modérateurs ne semblent, en revanche, pas aussi préoccupés par les abus. Les règles du forum interdisent de parler de ses éventuelles expériences sexuelles passées, d’insulter les autres membres, ou de trop écrire en majuscules. Concernant la violence, il est simplement notifié :

    « Les discussions sur des activités illégales [sont interdites]. Il y a une différence, par exemple, entre “je veux que X meure” et “je vais tuer X”. (…) Les contenus violents ou pornographiques doivent être signalés par le tag NSFW [acronyme utilisé sur Internet pour signaler un contenu qu’on ne montrerait pas à ses collègues]. »

    Ces règles sont floues, et les membres du forum en profitent pour expliquer que, selon eux, « le viol est sûrement cent fois plus plaisant que le sexe classique ». Certains encouragent leurs camarades ayant une vie sexuelle peu satisfaisante d’essayer et postent même des tutoriels détaillant les techniques pour ne pas se faire arrêter par les forces de l’ordre lorsqu’on est un violeur en série.
    Son modèle, le « gentleman suprême »

    Par le passé, des Incels ont déjà franchi d’autres barrières, passant des paroles aux actes. L’un d’entre eux, mentionné dans le post Facebook d’Alek Minassian, s’appelait Elliot Rodger. En mai 2014, à Isla Vista, en Californie, il tuait au couteau, à l’arme à feu et avec une voiture-bélier six personnes et en blessait quatorze autres, hommes et femmes, avant de se suicider.

    Le jour de cette tuerie, Elliot Rodger avait posté sur les réseaux sociaux une vidéo intitulée « Châtiment ». Il y expliquait vouloir se venger des femmes, qui l’avaient toujours « rejeté » et n’avaient « jamais été attirées » par lui. Il qualifiait cela « d’injustice » et de « crime ». « Je suis le mec parfait et pourtant vous préférez vous jeter dans les bras d’hommes odieux plutôt que moi, le gentleman suprême », avait-il alors écrit.

    Sur Incels.me et le forum « /r9k/ » de 4chan, les messages défilent depuis l’attaque à la voiture-bélier de Toronto. Si certains ont estimé que « tuer ne résoudrait rien », et encore moins le célibat, d’autres ont ouvertement soutenu Alek Minassian, évoquant « son sacrifice pour la cause », appelant même à le « vénérer ». « La revanche est douce », a jugé un internaute qui a changé sa photo de profil pour mettre celle d’Alek Minassian à la place. « On se croirait dans un rêve », a soutenu un autre.

    #féminicide #culture_du_viol #male_entitlement #masculinistes #fascisme

    Les medias, police et gouvernement disent que c’est pas un terroriste mais un loup solitaire. Terroriste c’est pour les tueurs machos arabes et/ou musulmans, mais pour les tueurs machos qui n’ont aucun moyen d’etre affilié à l’islam on les valorise en les traitant de loups solitaire.

    • Même sujet sur libé

      Ce n’est en fait pas la première tuerie liée à cette idéologie. En 2014, Elliot Rodger, un étudiant de Santa Barbara avait tué six personnes et blessé 14 autres avant de se donner la mort. On avait retrouvé un long manifeste où il hurlait sa haine des femmes.

      Dans son message Facebook, Alek Minassian fait référence au « supreme gentleman » Elliot Rodger. Derrière le folklore web et les bonnes blagues sur les « chads », il existe bien un terrorisme masculiniste.

      http://an-2000.blogs.liberation.fr/2018/04/25/incels


  • Design Better Forms – UX Collective
    https://uxdesign.cc/design-better-forms-96fadca0f49c

    form. Be conversational. Be funny. Gradually engage. Do the unexpected. It is the role of the designer to express their company’s brand to elicit an emotional reaction. If done correctly, it will increase completion rates. Just make sure you don’t violate the rules listed above.

    Voila une belle liste des erreurs que nous pousse a faire nos clients, et marketeux qui savent mieux que nous organiser une page agréable et raisonné ;-) . Perso on me les as déjà toutes faites quasiement et comme un lache de tâchon j’ai éxécuté … les ordres (appelé recommandations dans le monde du travail …)

    #css#UX#forms#webdesign


  • Open source isn’t the community you think it is | ITworld
    https://www.itworld.com/article/3268001/open-source-tools/open-source-isnt-the-community-you-think-it-is.html

    Name your favorite open source project, and the odds are good—very good—that a small handful of contributors account for the vast majority of significant development thereof. The odds are just as good that most of those contributors work for just one or a few vendors. Such is open source today, and such has been open source for the past 20 years.

    So, does that mean open source is really just commercial software by another name?
    [ Community: Who really contributes to open source. | Celebration: 20 years of open source: Its world-changing history. | Contrarian: 20 years on, open source hasn’t changed the world as promised. ]

    No, it does not. But it means the popular stereotype of a broad community coming together to create software is a myth. The reality of open source is different than the myth, but still a good, positive alternative to commercial software.
    Why only a few vendor-paid developers do almost all the work

    Thirteen years ago, I dug into academic research that showed how Mozilla’s Firefox browser and the Apache HTTP Server were both developed by a small cadre of core contributors. While the population of contributors broadened with things like bug fixes, the central development work for these and virtually all other projects was done by a talented group of core committers.

    Today, an analysis from Redmonk’s Fintan Ryan on projects housed under the Cloud Native Computing Foundation shows nothing has changed. Kubernetes is the most famous CNCF tenant, with Google and Red Hat contributing the lion’s share of code, but the other, lesser-known CNCF projects follow this same pattern. Indeed, perhaps the only real surprise in this fact of concentrated contributions is that the pattern has remained constant for so long.

    Look at any CNCF project, Ryan has shown, and you’ll see that virtually all of its contributions come from fewer than ten people. In fact, if you drill down deeper, you see that most work is done by just two people on any given project.

    As Ryan has written:

    It is fair to say that for almost all of the projects in the CNCF, specific vendors account for most of the development work being done.

    This is not to say that this is a bad thing—it is not; it is just a statement of reality. While the broad community around the projects may be large, the number of significant core contributors is relatively small, and the number of truly independent contributors is smaller still. This pattern is common across many open source projects.

    Not just “many” open source projects—all of them. I can’t think of a significant counterexample. For big, diverse projects like Linux, if you peel away the overall wrapping and count contributors for the subprojects, you see the same phenomenon: A few developers, nearly all of them employed by vendors, generate a huge percentage of core contributions.

    But if you step back, you realize it could only be thus. After all, anysoftware project degrades in efficiency the more bodies you throw at it (as Fred Brooks’s seminal book The Mythical Man Month anticipated).

    As for why most of these developers would be funded by vendors, that’s easy to explain, too: Developers have rent to pay, too, and they can only afford to heavily contribute if they are paid to do so. Companies, pursuing their corporate self-interest, employ developers to work on projects that help their business.

    Smart vendors understand how to use this to their advantage. Red Hat, for example, devoted part of its most recent earnings call to tout its Kubernetes contributions (second only to Google). As CEO Jim Whitehurst argued, those contributions let Red Hat both influence Kubernetes’s roadmap as well as better support its customers. Contributions, in short, give it a competitive advantage in selling Kubernetes.
    What “community” really means for open source

    So, is “community,” that mythical beast that powers all open source, just a chimera?

    The easy answer is “no.” That’s also the hard answer. Open source has always functioned this way.

    The interesting thing is just how strongly the central “rules” of open source engagement have persisted, even as open source has become standard operating procedure for a huge swath of software development, whether done by vendors or enterprises building software to suit their internal needs.

    While it may seem that such an open source contribution model that depends on just a few core contributors for so much of the code wouldn’t be sustainable, the opposite is true. Each vendor can take particular interest in just a few projects, committing code to those, while “free riding” on other projects for which it derives less strategic value. In this way, open source persists, even if it’s not nearly as “open” as proponents sometimes suggest.

    Is open source then any different from a proprietary product? After all, both can be categorized by contributions by very few, or even just one, vendor.

    Yes, open source is different. Indeed, the difference is profound. In a proprietary product, all the engagement is dictated by one vendor. In an open source project, especially as licensed under a permissive license like Apache 2.0, there’s always the option for a new developer or vendor to barge in and upset that balance. Kubernetes is a great example: Google started as the sole contributor but Red Hat (and others) quickly followed.

    No, this doesn’t help the casual corporate contributor that wants influence without making a sacrifice of code, but it does indicate that it’s possible to have an impact on an open source project in ways that proprietary products don’t afford.

    In short, there’s little to fear and much to celebrate in how open source works. Indeed, it is precisely this self-interested seeking of individual corporate (or personal) benefit that should keep open source flowering for decades to come.

    As should be evident 20 years into open source’s rise, the model works at both the community level and at the vendor level. Will it work for another 20? Yes.

    This story, “Open source isn’t the community you think it is” was originally published by InfoWorld.

    #Logiciels_libres #Communs #Communautés

    • @rastapopoulos Je viens de lire tes remarques sur l’excellent livre Roads and Bridges (j’avais envie de le traduire, mais je vois que Framablog l’a déjà fait... c’est bien l’open traduction ;-)

      Si on compare ce que tu dis que logiciel libre et des contraintes de financement, avec ce qui se passe également dans le monde associatif, où la course aux projets et subventions permettant de payer les permanents est devenue une nécessité, on voit bien qu’il y a un élément commun à creuser sur l’activité autonome des multitudes. Pour construire du ou des communs, il faut trouver des partenariats (communs-public ou communs-privé)... sinon, le projet risque d’être très beau, mais la réalisation pêcher par manque de solidité, de rayonnement,... (mon coeur saigne quand j’y pense ;-)

      Cela souligne d’autant plus la nécessité d’une élaboration théorique forte pour trouver des voies à l’émancipation, quel que soit le domaine. Les vieilles recettes (comme les vielles fractures des mondes militants) doivent être interrogées... et depuis trente ans, c’est cela que provoque le numérique.


  • Le plus grand organe du corps humain vient d’être découvert

    https://www.courrierinternational.com/article/le-plus-grand-organe-du-corps-humain-vient-detre-decouvert

    Un réseau de canaux transportant des fluides dans le corps humain vient d’être mis en évidence. Il constituerait le plus grand organe et pourrait aider à comprendre comment les cellules cancéreuses se propagent.

    “La découverte a été faite par hasard, au cours d’une endoscopie de routine, une technique qui implique de faire passer une petite caméra dans le tube digestif d’une personne”, commence New Scientist. La découverte dont il est question, est décrite dans la revue spécialisée Scientific Reports, le 27 mars. Il s’agirait d’un organe du corps humain composé d’un réseau de “canaux” transportant des fluides, et qui n’avait jamais été identifié en tant que tel jusque-là.

    En plus d’être candidat pour devenir le quatre-vingtième organe du corps humain, il s’agirait du plus grand, derrière la peau. “Ce nouvel organe, est une fine couche de tissu conjonctif dense, intercalée juste en dessous de notre peau, et qui enveloppe chacun de nos viscères”, explique au Daily Beast Neil D. Theise, chercheur à l’école de médecine de l’université de New York, qui a mené les travaux.

    Mais comment se fait-il qu’un élément présent dans tout le corps humain ait pu passer inaperçu si longtemps  ? “Les méthodes traditionnelles de traitement et de visualisation du tissu humain assèchent les canaux et font s’effondrer sur elles-mêmes les fibres de collagène qui forment la structure du réseau. Résultat, ces canaux apparaissaient comme une paroi dure de tissu protecteur dense, et non comme un coussin rempli de liquide”, explique New Scientist.

    Appelé interstitium, le plus grand de nos organes serait une couche de tissu remplie de fluide circulant dans l’ensemble du corps, restée invisible jusqu’à aujourd’hui en raison des techniques de microscopie utilisées. Une découverte qui pourrait expliquer la propagation de certains cancers.

    https://www.sciencesetavenir.fr/sante/qu-est-ce-que-l-interstitium-le-potentiel-80e-organe-du-corps-humai

    #interstitium


  • Est-ce qu’il existe des alternatives libres à KRPano, Pano2VR… permettant de créer et afficher des panoramas 360° en ligne ?

    Il y a deux aspects :
    – fabriquer les « tuiles » d’images qui seront affichées (idéalement, un script côté serveur serait trop kikou)
    – afficher la navigation 360° (idéalement : scriptable de l’extérieur pour pouvoir contrôler dynamiquement des hotspots, des zooms/dézooms, des changements de scènes…).

    • Pour l’affichage, je viens de voir Pannellum :
      https://pannellum.org

      @b_b Je vois que tu l’avais référencé en 2015. Tu l’utilises ? Tu as des retours ?

      https://pannellum.org/documentation/overview

      Panoramic images can be provided in either equirectangular, cube map, or multiresolution formats. Equirectangular is the simplest to use as only a single image is needed; Google Photo Sphere XMP metadata is automatically read and used if provided. However, to ensure support among all WebGL-capable devices, the maximum image size should be preferably limited to 4096 px wide; 8192 px is also acceptable for most devices. Cube maps require six images but support somewhat higher resolution panoramas, as the vast majority of devices support cube faces up to 4096 px across. Additionally, cube maps are supported by Pannellum’s fallback CSS 3D transform-based renderer and will therefore work on older mobile devices that don’t support WebGL. Although larger images are supported, download sizes should be taken into consideration. The final input format is Pannellum’s multiresolution format, which is generated from an equirectangular image using Pannellum’s generate.py Python script. This format is a cube map-based format, except each cube face is a tiled image pyramid instead of a single image. Arbitrarily large images are supported, the CSS 3D transform-based fallback renderer is supported, and load times are quick due to the image pyramids. The downside of this format is that extra work is required to convert an image to it and the large number of files that must be hosted.

    • J’ai commencé à jouer avec Pannellum, ça m’a l’air de faire tout ce dont j’ai besoin dans le rendu. Notamment il y a une API pour contrôler l’affichage « après coup », ajouter des hotspots… et surtout ça gère le multirésolution :
      https://pannellum.org/documentation/examples/multiresolution

      Quand on a une image qui fait 4096 pixels (ou moins), c’est très facile à utiliser, on lui balance directement l’image équirectangulaire, et ça fonctionne tout seul (comme la démo de @fil).

      En revanche, si on veut afficher des images plus grandes, il faut passer par les tuiles en multi-résolution, et pour ça il fournit uniquement un script Python, qui est une plaie à faire tourner (ça demande des dépendances, dont une certaine « nona » que je vais jamais réussir à installer sur un serveur normal – et que de toute façon ça marche déjà pas sur mon Mac) :
      https://raw.githubusercontent.com/mpetroff/pannellum/master/utils/multires/generate.py

      Ça serait tout de même bien pratique d’avoir un script PHP (comme maptiler pour les tuiles zoomables « à plat »).

    • Si je comprends bien, nona sert à projeter ton immense image source en 6 faces de cube (front back top bottom left right), des images carrées donc, qui seront ensuite tuilées de façon assez classique. Si tu as la seconde partie, reste à implémenter la première. Mais si tes images sont énormes il faut peut-être faire ce traitement en amont de toute façon ?

    • Oui, c’est ça. J’ai trouvé des scripts Python qui semblent capables de fabriquer les 6 faces sans utiliser nona, et du coup un peu plus faciles à installer, ça serait déjà ça. Mais toujours pas idéal, parce qu’il faut tout de même installer Pillow pour Python.

      Idéalement, j’aimerais au moins trouver un fonction php ::imagick pour faire le job.

      Et comme par ailleurs je n’arrive même pas à faire tourner le script generate.py, je n’ai pas trop d’idée de la structure des fichiers…

      Après, pour le « en amont », le hic c’est :
      – d’abord je n’arrive même pas à faire tourner le script en local, donc y’a même pas d’amont pour l’instant :-))
      – l’idéal tout de même serait que l’usager puisse directement uploader ses images et badaboum ça fabrique le panoramique.

    • J’ai un souci assez similaire avec les tuiles « à plat » : je n’arrive pas à traiter correctement les images de plus de 4096 pixels. (édit : en local ; sur mon serveur, j’arrive à traiter au moins le double)

      Et tout ça est, évidemment, documenté avec une extrême parcimonie, par des gens bloqués dans une zone de l’espace-temps où les plus grandes images sur le Web semblent faire 256 pixels de large en 8 bits.



  • Hydra : Hypermedia-Driven Web APIs
    http://www.markus-lanthaler.com/hydra
    http://www.hydra-cg.com
    http://www.hydra-cg.com/spec/latest/core

    À utiliser avec JSON-LD donc. Je garde pour plus tard… un jour où je devrais refaire une API…

    Hydra is an effort to simplify the development of interoperable, hypermedia-driven Web APIs. The two fundamental building blocks of Hydra are JSON‑LD and the Hydra Core Vocabulary.

    JSON‑LD is the serialization format used in the communication between the server and its clients. The Hydra Core Vocabulary represents the shared vocabulary between them. By specifying a number of concepts which are commonly used in Web APIs it can be used as the foundation to build Web services that share REST’s benefits in terms of loose coupling, maintainability, evolvability, and scalability. Furthermore it enables the creation of generic API clients instead of requiring specialized clients for every single API.

    #hydra #API #json-ld #spécification #développement #web #hyperliens