http://www.transmissionbt.com

    • Site sous SPIP = avoir un hébergement sous la main. Si l’une des personnes ou un collectif ami en a un, c’est alors assez rapide et simple ensuite (et permettra une meilleure collaboration entre les intervenant⋅e⋅s, avec une meilleure répartition des droits, sûrement plus égalitaire). Mais si vous n’avez pas d’hébergement… Demander à @rezo ? Ou @paris @rebellyon @ari ?

      Si vraiment pas d’hébergement, ça me parait quand même beaucoup mieux de créer un compte blog gratuit chez Wordpress.com, plutôt qu’un Facebook. Car au moins
      1) les gens sont proprios du contenu, sans pouvoir le perdre
      2) suivant l’évolution des choses, on peut à tout moment récupérer TOUT le contenu du Wordpress (articles, utilisateurices, etc) : soit pour le transférer sur un autre Wordpress perso ailleurs, soit pour migrer le contenu dans un autre logiciel (SPIP ou autre, si vous trouvez un hébergement plus tard). Enfin bon généralement pour une mobilisation (et non pas mouvement sur le long, ou très long terme), on change rarement d’outil une fois qu’on a démarré (pas comme une association, ou autre groupe politique quelconque, qui est le même sur le long terme). Mais rien que le point 1 est suffisant, si jamais Facebook ferme le compte, etc.

      Par contre, ça peut quand même être bien d’avoir un compte Facebook et Twitter, et de balancer les notifications de nouveaux articles (titre, intro, image), sur ces comptes, depuis le vrai site dont les gens sont propriétaires. Par exemple avec IFTTT ou autre service du même genre (il y a aussi parfois des plugins des logiciels web qui permettent de faire ça directement, sans service intermédiaire).

    • @colporteur @rastapopoulos il manque toujours un service pour lancer facilement un site sous Spip sans avoir d’hébergement.

      Dans l’immédiat, prendre un espace sur lautre.net par ex., uploader et configurer basiquement un Spip ça prend moins d’une heure.

      Par rapport à Facebook ou Wordpress, il me semble que le principal argument pour Spip reste celui de la collaboration / coopération rendue possible par Spip grâce à son interface privée (aspect il me semble trop souvent oublié par ses principaux promoteurs !) Un point je crois plus concret que la propriété de ses données, qui importe peut-être pas tant pendant une période speed comme une mobilisation.

      Concernant Twitter ou Facebook, il me semble que se contenter d’être un pur émetteur via les flux pendant un mouvement social, c’est passer à côté de beaucoup de choses très riches (point à développer, j’avoue !)

    • @ari, ce service existe, c’est très très facile, mais ce n’est pas gratuit. Car ça demande des machines, et du temps humain, pour que ce soit facile (càd sans que les gens gèrent ni l’hébergement adminsys, ni l’installation logiciel CMS, ni les mises à jour).

      Un point je crois plus concret que la propriété de ses données, qui importe peut-être pas tant pendant une période speed comme une mobilisation.

      Si Facebook ferme le compte (à cause de plein de signalements anonymes par ex, cela arrive très vite !) : tu dis plus la même chose. Un vrai site, seule la police/justice peut demander à le fermer, en gros. Donc à mon avis la propriété est importante, dès le début.

      Concernant Twitter ou Facebook, il me semble que se contenter d’être un pur émetteur via les flux pendant un mouvement social, c’est passer à côté de beaucoup de choses très riches (point à développer, j’avoue !)

      Si tu es émetteur, c’est que tu as un compte sur lequel émettre. Donc que les contributeurices du compte peuvent s’y connecter pour répondre aux commentateurices.

      Donc ce n’est pas juste émettre des flux, c’est aussi échanger dans les coms. L’aspect « community management » de la mobilisation quoi. :D
      La grande différence c’est de ne pas publier des contenus sources sur ces réseaux. Les comptes-rendus et les agendas (yora telles actions tel jour, etc) doivent être sur le site perso central, toujours le plus à jour, et avec 100% des infos. Sur les réseaux, on y met des notifs (coupées donc) et/ou des copies (entières), suivant les cas, suivant la longueur…
      Mais cela n’empêche en rien de répondre aux coms, et aussi de partager/liker/RT des contenus externes supplémentaires.

    • Et pour l’hébergement des images il y a https://framapic.org et http://pix.toile-libre.org

      Pour l’hébergement des fichiers il y a https://framadrop.org et Bittorent-Transmission https://www.transmissionbt.com

      Un fil Seenthis n’est pas incompatible avec un fil Facebook - celui-ci peut être utilisé juste pour rediffuser l’info dans le réseau social.

      Et sinon, pour réaliser une base de connaissance collaborative, https://www.dokuwiki.org est très bien (plein de plugins utiles) et il y a des hébergement clefs en main il me semble (pas testé) https://www.dokuwiki.org/hosting

    • @rastapopoulos @monolecte @colporteur je me permets d’insister sur l’aspect collaboratif de Spip (ce qui n’est pas le cas de Seenthis ni d’aucun autre CMS à ma connaissance et le principal intérêt par rapport à un réseau social). Je trouve ça dommage que ça soit très peu mis en avant (et c’est encore le cas dans ce fil) alors que c’est l’une des principales raisons pour les collectifs de se servir de Spip.

      D’autant qu’en période de lutte où il faut être sur la brèche, c’est précieux, ça permet de gérer un outil à plusieurs, de se corriger, de modifier facilement les articles, de discuter d’un texte avant parution, etc. Pour ce qui est du coût, les tarifs du Nursit (si tu parlais de cet hébergement @rastapopoulos) me paraissent tout à fait adaptés pour une mobilisation par rapport au prix de tracts, affiches, etc.

    • Mine de rien c’est super questionnant que la plupart des mouvements / groupes finissent de toute façon par informer, et, pire, s’organiser principalement sur face de bouc au lieu de chercher, pour une poignée d’heures en plus, des moyens d’une autonomisation des infos, diffusées seulement ensuite sur les réseaux sociaux.
      Pour avoir questionné des militant-e-s dans le coin de Nantes, y’a aussi le bruit qui circule comme quoi « facebook aurait refusé de donner les noms des gestionnaires des pages à la justice ». Quand c’est des personnes « charismatiques » qui expliquent ça, tu as beau démontrer que l’argument est fragile, tu passes pour la chieuse de service. Et ce malgré l’exemple local de la zad... #groumph

    • Assez d’accord avec Fil sur le côté déprimant (mainstream partout).
      Mais par ailleurs, je comprends/sais pas grand chose aux question techniques et n’ose m’imaginer ce qu’il peut en être d’étudiants peu versés dans le domaine qui arriveraient sur ce post que je leur ait conseillé...

      Ok bien sûr avec Arno, pour avoir appris à utiliser Spip et en connaitre quelques avantages, mais je l’ai fait a minima, pour publier, actualiser, pas capable de créer un site, je reculerais a priori devant l’effort (archi cybernouille, par ex. pressé, je suis même pas aller chercher ce que peut vouloir dire « logiciel CMS »).

      Oui, en cas de mayonnaise qui prend vite (que l’on veut voir prendre vite) et d’urgence de lutte, les impliqués ont mille choses à faire autres que de bloquer du temps sur la conception d’un site. La rue, la boite/fac/quartier, les autres lieux en lutte, etc. ça compte.
      L’apprentissage collectif, c’est une poignée d’heures, puis des poignées de temps à faire exister chez nombre de gens (cf les expli sur comment publier sur un site collaboratif, démarche qui ne va « vite » qu’à le faire ensemble, à installer des rédacteurs sur un site, progressivement).
      La maîtrise technique est un enjeu encore plus emmerdant. Il existe des sites collaboratifs où des dizaines de rédacteurs ont pu publier et qui se retrouvent avec un seul connaisseur de l’architecture, un seul apte à modifier le site. L’inverse de la démarche. En tout cas un pb dirimant.
      Regress : Il existe des collectifs où le passage à face book est intervenu après la confection d’un site collaboratif spip, avec une logique audimat / image/ désintérêt pour les textes et leur élaboration collective.

      @valk, tu as un compte oiseau bleu, fais une demande publique en ce sens, c’est en tout cas ce que je ferais. Pour ma part, ce n’est pas à la sorbonne que je passe, sauf, peut-être, si elle venait à être occupée.

    • @ari, calomnie !
      Je m’auto-cite : premier paragraphe, première phrase, première chose que je mets en avant :D

      SPIP il faut un hébergement mais ensuite c’est rapide et simple et ça permettra une meilleure collaboration entre les intervenant⋅e⋅s, avec une meilleure répartition des droits, sûrement plus égalitaire

      Sinon oui, je parlais de Nursit (72 € TTC en sous-domaine donc « machin.nursit », et le double avec un domaine dédié et plus de trafic) qui donc s’occupe entièrement de la technique (hébergement, mise à jour, etc). Moi non plus je ne trouve pas spécialement énorme @ari, mais ça reste quand même un gros pas à faire, en ces temps de blogs gratuits partout et de réseaux sociaux (mais bon dans une grosse AG, si chacun donne 2 euros c’est bon pour 1 an voire plus en 5min hein). Ya juste à créer le site, créer les utilisateurices qui vont contribuer, et se mettre à rédiger-publier.

      @val_k et ouais, Facebook c’est à peu près juste un flux. Donc ensuite pour retrouver du contenu après-coup… un tract, un compte-rendu, etc, c’est quasiment impossible. Ça peut aller pour prévenir de choses, et pour discuter (en encore, avec la surveillance et les recoupages que ça permet…), mais pour rédiger + publier + garder en mémoire des contenus, ça n’a aucun sens.

      @colporteur « CMS » ça veut dire « logiciel de gestion de contenus » (web à priori). Donc Wordpress, SPIP, Drupal, etc, toutes ces logiciels (la plupart libres) qui te permettent d’éditer puis publier des contenus.

    • Ok, @rastapopoulos
      pour ce que je sais, un autre souci - si il s’agit de se censurer le moins possible -est de trouver un hébergement hors hexagone afin de mettre un peu de distance avec les flics et la justice de notre beau pays, comme là je fais autre chose, je regarde même pas si les propositions d’hébergement évoquées sont hors France.
      Il existe peut-être des tutos sur monter un site collaboratif sans s’emmerder avec la france et (trop avec) l’argent :)

    • Ce qui me déprime, c’est qu’après des années de travail intensif pour développer des outils permettant d’échapper à toute cette merde, ça ne marche toujours pas assez bien et de façon assez simple pour des gens qui « aimeraient bien » que ça marche, et ne souhaitent/peuvent pas faire l’effort supplémentaire qu’on leur demande. Donc oui pour moi c’est un constat d’échec.

    • Plus facile de commencer quelque chose dont on a déjà incorporé l’habitude individuelle... c’est à dire socialement déterminée. Ce qui se fait hors et contre la sorcellerie capitaliste est magique. Là, la magie qui est tentée, c’est de sortir de l’atomisation dépolitisée, concurrentielle, et tout ne marche pas de front, des temps différents qui s’articuleront, ou pas.

    • @fil ça dépend du moment, mais il y a eu des seuils importants de dépassés. À un moment SPIP (et quelques autres), c’est devenu plus facile à la fois à installer et surtout à éditer et publier, que les autres outils proprios pourris qui existaient. Mais ensuite Facebook a explosé en devenant plus qu’un simple copainsdavant international, mais ensuite Blogspot, mais ensuite Tumblr, mais ensuite Wordpress.com, etc. Tous ces trucs gratuits ET sans aucune installation à gérer ET facile à rédiger-publier ET avec du public et des partages.

      C’est pour ça que plus haut, je conseillais, s’il n’y a ni l’envie ni le temps de gérer un SPIP, d’au moins utiliser Wordpress.com ! Ça prend 5min de créer un compte, c’est gratuit, et au moins c’est un logiciel libre derrière dont on peut récupérer tous les contenus plus tard pour quand on aura le temps d’être ailleurs. Ça me parait pour l’instant vraiment la « moins pire » solution plutôt que de publier uniquement sur Facebook.

    • Tous ces trucs gratuits ET sans aucune installation à gérer ET facile à rédiger-publier ET avec du public et des partages.

      Et pour ça, pour les trucs militants « dans l’urgence », on ne peut absolument pas lutter contre ces autres outils, en tant que devs de SPIP ou d’un autre logiciel.

      Le seul moyen que je vois de lutter contre ça n’est pas technique mais humain. Ça veut dire obligatoirement avoir des collectifs (informels ou vraies associations) qui maintiennent des serveurs et des infrastructures de type Nursit ou du genre mais pour les trucs militants dont on est proche (ou plus large pour celleux qui ont plus de moyen et qui peuvent se permettre d’héberger plus). C’est-à-dire mettre à dispo un SPIP en 1h maxi, et que les gens n’aient plus qu’à cliquer, rédiger, publier (et pouvoir partager facilement sur les réseaux, c’est indispensable).

    • La vraie difficulté, c’est le manque de culture informatique d’une très très grande partie de la population, y compris et surtout les prétendus digital natives qui sont surtout de gros pousse-boutons et considèrent que l’informatique qui marche, c’est celle qui fait tout en 2 clics.

      Ce qu’il y a derrière ces deux clics, ils s’en foutent grave. Ils sont donc très dépendants et ça aussi, ils s’en foutent grave… bon, jusqu’au jour où ils sont coincés, censurés, jetés des plateformes commerciales sans leurs archives, mais en attendant, ils s’en foutent.

      Du coup, les hébergeurs proposent des installations Wordpress en pousse-boutons, avec thèmes et plugins préselectionnés, parce que sinon, y en a trop.

      Pour bien paramétrer un CMS, il te faut facilement une semaine de boulot, parce que l’utilisateur pousse-boutons ne veut rien savoir de ce qui se passe dans l’arrière-boutique, par contre, il sait très bien ce qu’il veut en devanture. Et si c’est le merdier à gérer, il s’en fout.

      Donc SPIP, c’est très bien, mais il faudrait aussi des install pousse-boutons prédéployées chez des hébergeurs à l’étranger. Avec un assortiment de squelettes de base et de plugins et hop, les pousse-boutons seraient contents.

      Pour l’hébergement sûr, si mes souvenirs sont bons, les Islandais ont justement prévu d’être un asile informatique…

    • @fil Je pense que les choses évoluent dans le bon sens. Faire Spip et les autres CMS était une première pierre indispensable.

      Aujourd’hui, les étapes suivantes sont des projets comme https://yunohost.org et https://wiki.debian.org/FreedomBox Yunohost fonctionne déjà, est stable. C’est un progrès immense. Même si le « paquet » Spip n’est pas finalisé https://yunohost.org/#/apps_in_progress_fr il y en a plein d’autres qui permettent de faire un site https://yunohost.org/#/apps_fr

      La conférence Internet Libre ou Minitel 2.0 aura 10 ans l’année prochaine. http://www.fdn.fr/actions/confs/internet-libre-ou-minitel-2-0 Même si tout n’est pas encore en place, le progrès est réel, en plus des projets logiciels énoncés ci-dessus il y a maintenant : https://www.raspberrypi.org et le Pidrive https://www.raspberrypi.org/blog/meet-314gb-pidrive et depuis longtemps (mais plus cher) : https://fitpc.com

      @rastapopoulos Concernant les collectifs humains il y a http://www.lautre.net et la fédération https://www.ffdn.org et surtout Framasoft qui se déploie avec son projet de dégooglisation https://degooglisons-internet.org D’ailleurs, à quelques mois près leur service d’hébergement de site web aurait pu répondre à la demande https://degooglisons-internet.org/liste#2016

      Sinon @colporteur tu pourrais peut-être contacter
      IT Crowd Rebellyon qui a déjà installé les sites de rebellyon, paris-luttes et iaata

      Et pour le futur, le regain d’intérêt pour xmpp est rassurant, notamment sur smartphone avec https://conversations.im & https://www.xabber.com

      Enfin on peut regretter qu’un projet comme https://login.persona.org soit abandonné, c’était une voie particulièrement intéressante il y avait d’ailleurs des volontés de mixer Personna-BrowserID avec Xmpp http://xmpp.org/2012/05/browserid-meet-xmpp et https://github.com/nikhilm/browserid-xmpp

      Actuellement un des points les plus difficile à gérer reste le DNS, il manque des interfaces d’administration simple, pour newbies. Et les problèmes de censures auxquels il reste exposé pourrait être résolus par le Gnu Name System... si un jour il sera possible de le faire fonctionner.

      Mais le point de blocage majeur semble celui de la découvrabilité sociale décentralisée déjà pointé sur http://seenthis.net/messages/452745#message452917 Mais est-ce si difficile à faire avec xmpp ?

    • Je pense qu’il est difficile de comparer une page facebook et un site aujourd’hui, en ce qui concerne la diffusion « virale », les interactions possibles etc. A ce stade, je rejoins le constat d’échec. Ça n’est pas seulement plus rapide etc. c’est surtout que ça marche , les infos circulent, les gens viennent à ce que tu organises etc. #déprimant, oui.

    • @supergeante bah oui mais faut pas tout mélanger : d’un côté ya l’aspect prévenir ou notifier, qu’il se passe telle ou telle chose, ainsi que l’aspect échange, discussion, et aussi le partage en chaîne de ce qui a été notifié ; et d’un autre côté ya les contenus eux-mêmes (événements, càd chose ayant une date prévenue en avance, ou article, tract, compte rendus, pas forcément datés).

      Mais j’ai l’impression qu’on a une génération de gens qui s’en battent les gonades d’archiver les contenus produits, et qui ne fonctionnent QUE par flux, que par « on envoie 4 lignes ou une image qui frappe », et on organise des événements. Donc pour les événements c’est très bien, c’est pas forcément impératif d’archiver ça. Mais pour tout le reste… Le problème c’est : y a-t-il encore de ce « reste » ? Si la réponse est « oui », alors je suis désolé mais Facebook ne marche pas pour ça, on peut envoyer un texte ou un lien vers un texte, mais ensuite impossible de le retrouver après coup, et quand c’est pas un truc daté… le collectif et les gens intéressés perdent leur mémoire. Il n’y a plus que du « en avant toute ! »

      Dire « ça marche », il faudrait quand même préciser ça marche pour quoi. Si c’est juste pour prévenir d’événements ou de news volatiles, oui ça marche, je suis bien d’accord.

    • Oui c’est très dur de retrouver quelque chose sur facebook, par rapport à un site (info) ou un forum (discussion). Et pour avoir eu mon compte supprimé (transformé en page) et avec toutes les discussions j’avais lancées (et donc yc les réponses), j’ai des réserves sur la pérennité de la chose :)

    • Merci pour ces échanges et les bouées pour pousse boutons au bord de la noyade qu’il contiennent.

      Pour ce qui est de déprimer, il existe même des collectifs qui sont foutus de pas voir la nécessité et l’intérêt que leur fb soit public et qui répondent à la question posée sur ce paramètre, « il suffit de s’inscrire pour accéder... »
      Même lorsque l’on est un tant soit peu au courant des enjeux, il n’est pas toujours facile de passer à la pratique (libre, thor, etc.), sauf grand volontarisme individuel ou pli particulier, cela demande de participer à une collectivité plus ou moins lâche dans laquelle ces enjeux sont présents, traités, au moins partiellement. Que, comme Fourrier et son concept d’attraction passionnée invite à le penser, on puisse faire fond sur une division des tâches qui émerge à partir de penchants multiples ; plutôt que de viser l’abolition en tous points de cette division, que cela fasse l’objet d’agencements, modifiables. Là, le regress (dépressif) peut éventuellement reculer.

    • Et ce qui est également déprimant, c’est cette saloperie de non partage, cette névrose sécuritaire autour du libre, cette sorte d’égo démesuré définissait déjà ceux qui œuvraient soit disant pour un réseau des sites alternatifs pour surtout une et une seule stratégie politique, la leur. Des communicants professionnels surtout masculins d’ailleurs qui n’ont pas hésité à faire tomber le serveur. Non, le réseau des développeurs et développeuses SPIP ne s’investit pas pour promouvoir un quelconque accaparement mais pour que des outils d’expressions demeurent un bien pour tous. Alors, oui, j’avoue m’être mal remise de ces années là. Et j’ai beau cherché, les sites de https://mutu.mediaslibres.org ne partagent même pas leur super squelette, et les headers n’indiquent rien. Tiens, parlons de privatisation …
      /me en colère

    • oui @aude_v c’est dingue. Et quand on voit les réactions des consommateurs de facebook à ceux qui soulignent ce problème, c’est absolument pas encourageant.
      Petit comparatif autour du cas Nantes Revoltée à Nantes https://www.facebook.com/Nantes.Revoltee : sur sa page autour d’une « affaire » récente que j’avais « libérée » par là http://seenthis.net/messages/485938 on lit beaucoup de commentaires critiques anticapitalistes sur les medias, mais je n’ai pas vu de commentaires anticapitaliste sur le support facebook qui est leur plateforme principale pour l’instant.
      par contre quand le sujet est repris sur un media libre, là ça se lâche et ça se défend en mordant : https://nantes.indymedia.org/articles/34387
      Mais j’imagine que comme Nuit Debout y’a des personnes en interne qui doivent réfléchir à la manière de sortir de facebook, enfin de pas lui offrir la primeur des luttes et encore moins leur organisation... enfin j’espère !

    • Ha j’avais pas vu ! Bon en même temps j’y passe rarement !
      Pour ma part j’utilisais (et continue de « promouvoir ») l’excellent portail sedna des medias libres : http://mediaslibres.org/spip.php?page=sedna mais comme je trouvais pas facilement les infos les plus locales pour moi (je pige pas trop la méthode de mise à jour du portail) j’ai fini par me faire récemment un flux rss automatique depuis nantes.indymedia et zad.nadir sur mon second compte twitter : bah c’est super pratique ! Et du coup j’ai remarqué que les infos publiées sur la partie « breves » de indymedia nantes passait directement dans le flux : voilà qui va remotiver ma tentative de faire de la publication dessus (parce que pour une photographe c’est pas le site idéal, faut reconnaitre !)
      Sachant qu’en plus sur ce site y’a moyen de faire des groupes (j’en ai fait un pour mon collectif Bon pied bon oeil) et même de la publication collective privée avant mise en ligne, j’avoue ne vraiment pas piger pourquoi les gens ne s’en emparent pas quand on leur en parle. Bon y’a des bugs, certes, mais... c’est une plateforme libre, autogérée et plutôt chouette sur ses bases politiques... Rha la la la mauvaise foi des fois hein !

  • Aujourd’hui, des millions d’utilisateurs innocents sous-traitent leur présence en ligne à des gros industriels du #cloud comme Google ou Facebook. Cela, au détriment de leur vie privée et au prix d’une complète perte de contrôle de leurs propres données. L’alternative libre est évidemment l’auto-hébergement, avoir un jeu d’applications qui mettent en œuvre cette présence en ligne, sur une machine qu’on contrôle. Mais tout le monde n’a pas forcément la compétence, ou tout simplement le temps ou l’envie, pour gérer cette machine et ces applications. N’est-il pas temps de développer un système tout fait pour cela ?

    http://www.bortzmeyer.org/presence-en-ligne.html

    #vie_privée

    • Il n’y a pas que l’alternative « tout chez big brother » ou « tout chez soi » ; une réponse coopérative serait sans doute plus adaptée. Ce n’est pas facile, il faut accepter de s’associer avec d’autres, faire circuler des ressources, prendre le risque de ne pas être d’accord…

      #cccp #portabilité_des_données #alternc #debian

      EDIT : j’ajoute que certains services qui semblent difficiles à gérer sont en fait faciles, et inversement. Le mail par exemple tourne rapidement au cauchemar quand il s’agit de lutte anti-spam (réception), de réputation de son IP (pour l’envoi), de gros volumes (stockage).

    • C’est un sujet sur lequel je me suis un peu penché. J’ai d’ailleurs personnellement commencé à m’extraire du giron de Google/Facebook... Je ne maîtrise pas encore tous les aspects, mais progressivement les plus essentiels migrent : messagerie électronique avec webmail (postfix + roundcube), blog (wordpress), stockage (owncloud).

      Côté sécurité, toutes les données hébergées ne sont pas à vocation purement privée : par exemple, les messages du blog/site, les photos que l’on aurait hébergées sur Flickr, les vidéos de son chat sur Youtube...

      Le chiffrement peut permettre de stocker des données chez un hébergeur tiers qui fournit du Cloud, mais pose problème pour l’échange de données. On aborde d’ailleurs une forme de DRM avec diffusion de clé.

      Le cercle familial/amical est un bon espace de partage au sein duquel on peut imaginer facilement la mise en commun de ressources pour de l’auto-hébergement. J’emploie volontairement le terme de cercle car c’est une approche que je trouve judicieuse dans la définition d’un scope de partage.

      Et si on parle de mutualisation de moyens, il faut être sensible à des technologies de type dé-duplication qui peuvent réduire la volumétrie.

      Bref, je suis du métier et faire la glu entre tous les composants peut s’avérer complexe. Alors, je rejoins pleinement @Stéphane sur l’aspect simplicité pour que Mme. Michu puis s’auto-héberger ;)

    • c’est pourquoi je parle plus volontiers de #coopérative que d’association : si chacun traite indépendamment une partie du problème et que ça bénéficie à l’ensemble des autres, on gagne du #temps — si on passe son temps à se contredire et à se marcher sur les pieds, non…

    • Il manque à mon sens, une ligne « comment sauvegarder son nuage » avec une suggestion de solution > il n’y en a pas de simples hélas...
      J’étudie à l’instant même Kolab. Même s’il ne suffit que d’un « apt-get » pour tout installer (une fois le bon dépôt configuré), euh... ensuite... pour tout configurer par l’interface web... il faut quelques connaissances... peu répandues.
      Et je n’évoque même pas les soucis de sécurité, et de failles de sécurité. Joomla 1.5 a été déployé sur des milliers de sites, par des non-professionnels qui ne pensaient pas que ça pouvait faire l’objet de tant de soucis... et qu’il était impératif de mettre à jour vers une version récente du CMS...
      D’où le côté incontournable des solutions « toutes en un », maintenance y-compris.
      On en arrive alors à des réflexions sur le coopératif.

    • Bonjour, j’ai eu l’occasion de discuter récemment avec le créateur d’une start up française (très récente) qui veut selon ce que je comprend répondre à cette question. Je n’ai pas les compétences techniques pour juger si leurs solutions répondent en partie ou complétement à l’enjeu que vous soulevez, mais... peut-être à suivre ! :
      https://www.cozycloud.cc
      j’aime assez leurs textes de blog : http://blog.cozycloud.cc

    • @geodelc : je trouve aussi le projet intéressant. Par contre, je ne sais pas quels sont les retours sur la sécurité de Node.js sur lequel semble s’appuyer le produit. Ce n’est pas un début de troll, mais les nouvelles technologies n’ont pas toujours eu le temps de subir les assauts des vilains pirates (surface d’attaque trop faible). En même temps, Node.js est quand même pas mal utilisé, donc à tester dans une VM...
      Merci pour le lien.

    • Les sauvegardes « cloud » ne me plaisent pas des masses : perte de contrôle, confidentialité à géométrie variable, incertitude sur pérennité des données.
      En ce moment, je cherche une solution locale type NAS RAID1 pour bétonner au moins mes données contre des défaillances de HDD. Mais je pense qu’il me faudrait ajouter un HDD externe d’ultra-sauvegarde qui aurait pour vocation d’être mis à jour une ou deux fois par mois et serait stocké chez un tiers de confiance, le reste du temps.
      Là, je pense que mes données commenceraient à moins craindre.

    • ya des vm en pre-build version qui font +ou- ça seulement niveau maintenance faut compter seulement sur toi...un truc totalement automatisé est utopiste (1 seul exemple : passer de lenny à squeeze ne se fait pas comme ça). Ou alors faut externaliser les données pour ne mettre à jour que le systeme mais là on en revient à faire du cloud :)

    • @monolecte : Quelle est la volumétrie des données que tu considères comme critique ? Certains pensent que leurs photos de vacances ne doivent pas être sauvegardées (pour bon nombre, ils changent d’avis quand leur disque lâche). Pour les petites volumétries, on peut imaginer une sorte de RAID sur différents fournisseurs de Cloud qui ne stockent que des données préalablement chiffrées. Plus il y a de fournisseurs, plus tu as de volumétrie ou de redondance. C’est un peu ce que fait symform (http://www.symform.com/our-solutions/key-features) sur les NAS de ses utilisateurs. Ensuite, il faut identifier le niveau de sécurité de chaque type de données pour appliquer la politique de sauvegarde idoine : les données qui ne bougent pas (photos déjà post-traitées, par exemple) peuvent être simplement archivées (éventuellement en plusieurs copies) à intervalle régulier et déposée chez un tiers de confiance à l’occasion d’un apéro, comme tu le suggères.

      @tester1 : en fait, je pense qu’il faut garder comme axiome une séparation des données et de l’application/OS. En gros, tes données données doivent résider sur un espace qui n’est pas dépendant de l’application (filesystem dédié local ou distant, voire dans le nuage). Comme ça, lors de ta mise à jour, le risque sur tes données est plus faible : genre tu démontes le FS avant la mise à jour.

    • Le filesystem est secondaire : si tu « merdes » pour x raison et que le l’OS ne reboot pas, tes données sur patoche seront elles-aussi compromises. Pour assurer le coup il faudrait stocker les données/fichiers-de-config sur un second disque (un tiers de confiance revient à faire du cloud chez un autre prestataire...autant rester sur facebook & co) pour ne mettre à jour « que » l’image (mieux vaut dès le départ taper dans des mini distro hein :) ).

      Bref faut investir quoi et s’y connaitre un minimum malgré tout...sans parler du coup inhérent à l’électricité, bande passante, machine dédiée (sinon ta ram et ton cpu en prennent un sacré coup dans la gueule -les gamers risquent de ne pas trop appécier-, etc etc).

    • Ouais enfin sauf que l’objet de la discussion c’était justement d’avoir des outils tout-fait pour le grand public, sans mettre les mains dans le cambouis MAIS pas sous windows uniquement et en libre. Si on part du principe que d’office ce n’est que sous windows et en propriétaire qu’on peut avoir des outils simples à utiliser pour tous, on va pas aller loin...

    • @tester1 : Disons que tu as normalement possibilité de booter en mode rescue (depuis un CD ou une clé USB) pour accéder à ta partition. Je suppose que tu ne réinstalles pas dès que ça « merde » ;) Mais oui, il faut investir du temps et c’est bien là le sujet lancé par @stephane : qui a (dans l’ordre) le #temps, l’ #envie et la #compétence pour créer un produit simple, plein des fonctionnalités qu’attend Mme. Michu et qui fonctionne en auto-hébergement.

      @monolecte : bon, bah ça va alors. Chez un fournisseur du type de hubic (sans publicité de ma part), tu as un stockage pseudo-illimité (maxi 100To) pour 120€/an. Tout dépend de la valeur que tu attribues à tes données... D’ailleurs, hubic est basé sur de l’OpenStack et il est prévu que l’API soit ouverte, donc les fans de cambouis pourront se tâcher.

      @tester1 : quels « trucs tout-fait sous window » ?

    • dans le cahier des charges il est aussi stipulé que l’usine à gaz ne devrait souffrir d’aucun bug...donc demander à madame michu de faire de la récup de données en cas de pépin est d’une part contraire à ce qui est demandé et d’autre part légèrement « risqué » compte tenu du niveau des personnes ciblées.

      Non franchement, gérer des serveurs n’a rien à voir avec du desktop...rien que pour cibler la machine il faut un domaine qui renvoie vers l’ip fixe/dynamique du gus et rien que pour envoyer des mail sur des serveurs comme gmail & co il faut des enregistrements dns spécifiques qui nécessitent des compétences avancées, etc etc.

      non désolé mais c’est foireux ce projet...

    • @tester Comme moi, justement, je fais de l’auto-hébergement à la main, je sais que cettte histoire d’enregistrements DNS spécifiques (lesquels ?) pour envoyer du courrier à Gmail est bidon. Cela n’empêche pas que gérer un serveur soit compliqué (cf. @Fil). Mais, justement, cela peut s’automatiser. L’absence d’argument (à part que Mme Michu est conne et le projet foireux) ne va pas aider à discuter.

    • « Bidon » ça dépend ce dont tu parles : moi je pars du principe que l’emission se fait à partir de son propre serveur mail (CAD sans passer par le smtp du fai) et dans ce cas gmail comme beaucoup d’autre demande d’abord à ce que l’émetteur posséde une ip fixe + des enregistrements dns de nature à identifier le serveur (dkim, spf etc) faute de quoi tes mails attérissent tous, dans le meilleur des cas, dans le dossier spam quand ils sont pas purement et simplement rejeté...

      Pour le reste je me fais + l’avocat du diable qu’autre chose ;)

    • @stephane : merci pour le lien vers l’article d’@Fil. En effet, et c’était le sens d’un morceau d’un de mes commentaires, aujourd’hui l’auto-hébergement va s’orienter vers des solutions pour des cercles familiaux/amicaux/associatifs, bref des gens qui connaissent un ou plusieurs barbus qui fournissent un présence en ligne et gestion de données personnelles.

      Pour ma part, je me suis lancé dans l’idée de fournir à mon cercle familial un système de sauvegarde en ligne sur les serveurs d’une société tierce qui me garantit un taux élevé de disponibilité des données contre quelques euros par mois. C’est d’ailleurs un aspect qu’il ne faut pas négliger : la qualité de service a un prix, mais il est distribué sur l’ensemble de la communauté qui utilise les ressources.

      @tester1 : chez Gmail, ils aiment bien qu’on ait implémenté DMARC (SPF + DKIM). Cela permet de mieux passer le filtrage, mais ce n’est pas obligatoire. D’ailleurs, tant SPF que DKIM sont simples à implémenter. Là où ça se complique c’est si on veut signer ses enregistrements avec DNSSEC...

    • Dans l’article de jbfavre (effectivement très clair), il manque à mon sens une notion : celle d’une portabilité (minimale) des données. Dès lors si un admin troll s’empare du serveur de mon asso pour y installer la version 3.14 de apache-ssl alors que je jure que par la version 3.13, je pourrai sans difficulté (et, dans l’idéal, d’un clic) transférer mes données vers le serveur de l’asso voisine, qui elle a bien compris que la 3.13 était mieux.

    • rsync over ssh suffirait largement à tous les besoins, surtout en considérant SMTP comme mort.

      Et cela permettrait incidemment de se débarrasser des trucs de noubz genre p2p, et d’ambitionnner, enfin, un InternetFS citoyen.

      Maintenant, je l’avoue, pour mon vieux papa qui comprend rien j’ai mis du Synology d’entrée de gamme @home : ça fait tout, bien, et c’est même pas trop propriétaire.

    • @stephane : et le serveur est chez toi (sous-entendu ton fai perso) ou sur un dédié ? Parce qu’ils ont des bases pour identifier/sélectionner les ip...bon après ya une histoire de whitelist mais au départ t’es blacklisté pour répondre à des critères d’exigences...sinon c’est spam à gogo ;)

    • Mince, exactement l’article que je voulais écrire (ce qui est assez rassurant !).

      Plus sérieusement, c’est effectivement exactement ce qui me semble être la bonne solution. C’est important de rendre tout ça simple, donc oui pourquoi pas une image « disque », et comme déjà dit une WebUI qui permette l’administration, la navigation, etc dans l’ensemble.
      Idéalement, je pense que l’on gagnerait même en une interface qui soit la plus KISS possible et qui propose une sorte d’API rudimentaire. Ainsi, nombre de solutions existantes pourraient venir se plugger dessus d’elles-même. Ça permettrait de pouvoir choisir le service que l’on souhaite parmi plusieurs alternatives (ce qui me semble être un gros point faible d’OwnCloud qui finalement réenferme l’utilisateur dans des choix qui n’ont pas été les siens (pas du tout dans les même proportions que Google bien entendu, et surtout pas avec les mêmes intentions)). YunoHost est à ce titre très intéressant comme projet !

      Sinon, à titre personnel j’expérimente l’auto-hébergement sur mon Raspberry Pi (et justement j’ai codé en quelques lignes un genre de portail web rudimentaire (et adapté à mes besoins) pour unifier le tout). Voilà ce qui tourne H24 depuis quelques mois maintenant :
      – Un webmail : Roundcube (mais c’est pas terrible, c’est lourd et ça manque de fonctions essentielles. C’est là qu’on voit que Gmail est très puissant... Je vais essayer SquirrelMailhttp://squirrelmail.org ). Mon serveur mail reste pour le moment chez OVH (novice en linux, j’ai pas encore osé me lancer... j’attends un article de @stephane ;).
      – Un lecteur RSS : Tiny Tiny RSS (excellent et très puissant : filtres automatiques, labels, application mobile, plugins, etc. je conseille vivement !) → http://tt-rss.org
      – Un agenda : AgenDAV pour l’accès web (RAS, très bon → http://agendav.org ) couplé au moteur de calendrier DAViCal (la référence, super, je l’ai oublié ! Il gère aussi les carnets d’adresse, mais pas encore testé → http://www.davical.org ).
      – Un gestionnaire de photos : PhotoShow (très bien, fonctionne sans base de données, uniquement via l’arborescence des répertoires/fichiers ce qui est pratique pour envoyer automatiquement des photos depuis android par exemple) → http://www.photoshow-gallery.com
      – Un blog : PluXML (pas de bdd, uniquement un jeu de fichiers XML) → http://www.pluxml.org
      – Un serveur XMPP : Prosody (RAS jusqu’à maintenant...) → http://prosody.im
      – Un serveur SMB pour les fichiers (pratique...)
      – Bien sûr un serveur web : lighttpd (super ! → http://www.lighttpd.net ) avec PHP évidemment.
      – et avec un analyseur de statistiques via les logs de lighttpd : awstats (dont je me sert pas vraiment mais qui est complet et qui évite d’ennuyer les visiteurs avec du javascript...) → http://awstats.sourceforge.net
      – Un SGBD : PostgreSQL
      – Bittorent avec transmission (avec des applications desktop, mobile ou WebUI pour le gérer à distance : génial → http://www.transmissionbt.com/resources ).
      – Un serveur pour lire ma musique : MPD (extra...) → http://fr.wikipedia.org/wiki/Music_Player_Daemon
      – Un serveur VPN : OpenVPN (je fais pas toujours confiance aux hotspots wifi auxquels je me connecte occasionnellement (ni à la 3G...), ça me rassure un peu) → http://shadowblog.fr/7-vpn-sur-raspberry-pi
      – Un serveur son sur lequel je stream le son de mon PC : PulseAudio/Alsa.
      – Et cron qui me sert de réveil matin en lançant France Culture ;-)
      – J’ai même branché une imprimante thermique (sans encre) pour imprimer des notifications (emails, twitter, etc.) sur des tickets de caisse... → https://www.adafruit.com/products/597

      Le tout est sauvegardé via rsync sur une partition différente (du même disque...) toutes les nuits. Il faut soit que j’ajoute un disque soit que j’envoie sur Hubic (par exemple) après chiffrement.

      Je n’y aurais jamais cru mais tout ça tourne sans difficultés et en simultané, sur un simple Raspberry. Je sais pas si je peux le pousser encore mais pour le moment la seule limite que j’observe est bien entendu ma maigre bande passante sur simple aDSL (et donc surtout en up)...

      Plus généralement, ce que j’observe c’est que c’est effectivement incroyablement chronophage ! Ensuite, c’est une responsabilité parfois un angoissante... Quand ça marche pas, il suffit pas d’attendre. Il faut trouver et corriger. Et si je fais une erreur, j’ai plus de service. Et si j’ai pas le temps de corriger, ben j’ai plus de service pendant une semaine. Enfin, c’est pas encore arrivé...
      Mais c’est aussi incommensurablement formateur (ce qui n’est pas un argument pour tout le monde) ! Et puis c’est agréable de constater qu’il y a des alternatives libres pour tout les usages que j’avais des services « cloud », au moins aussi puissantes (sauf pour le webmail où je cherche encore) et dans tout les cas personnalisables à souhaits. Je ne retournerai pour rien au monde sur Google Music et encore moins sur Google Reader (plus possible de toute manière me direz vous, mais pas plus chez feedly ou autre) !
      Il reste par contre à travailler le design, c’est souvent pas sexy du tout...

      Bref, au vu entre autre des commentaires, il semble y avoir du monde qui bidouille dans son coin et @stephane a raison, il serait effectivement temps de coordonner tout ça...

      Bonjour chez vous.

    • Concernant la partie serveur et gestion autonome des zones, je peux toujours proposer la solution que j’ai rapidement monté -mais pas encore finalisée- : http://greatns.com qui permet au « quidam » de pouvoir utiliser gratuitement un de mes serveurs secondaires gratuitement.

      Effectivement, on peut arguer qu’il y à un objectif commercial derrière un tel système, mais je l’énonce clairement.

    • Qcq précisions sur https://www.CozyCloud.cc, puisque notre site n’explique pas encore tout ça :-)

      1/ Pourquoi ?
      Le web se “cloudifie”, pour le meilleur - ubiquité des services, simplicité, sécurité, interactions avec les terminaux mobiles - et le pire : nos données sont dispersées dans des silos étanches contrôlés par des quasi monopoles qui vivent de leur analyse et revente.

      2/ Solution ?
      Le pouvoir est du côté sur serveur (http://blog.cozycloud.cc/mantra/2013/01/19/server-side-is-where-the-power-lies), il faut auto héberger ses données et web app qui accèdent à nos données

      3/ C’est une utopie
      L’auto hébergement est une utopie de la même façon qu’avoir un Personal Computer l’était il y a 30 ans. Notre objectif est d’être l’iOs des serveur, l’ouverture en plus.

      4/ La confidentialité ne sensibilise pas Mme Michu :
      a) l’intérêt de l’auto hébergement ne réside pas que dans la confidentialité, loin de là : Réunir ses données permet des mashup aujourd’hui impossibles (alors meme que l’intégration est à la source du succès des écosystèmes fermés...).
      b) madame michu évolue, demandez lui plutôt que de présupposer.

      5/ vous n’êtes qu’une distro linux de plus ?
      Pour nous un "serveur" est un chef d’orchestre de services, pas un kernel. Cozy est un PaaS personnel qui à la demande de l’utilisateur, via une chouette ui, peut installer ou supprimer une web app, laquelle peut être en Node.js, mais bientot aussi Python ou Ruby.

      6/ En quoi facilitez vous les mashup de données ?
      La persistance est mutualisée dans une web app, le datasystem, que les web app requêtent en REST (si elles y sont autorisées). Toutes les apps peuvent donc partager des données (mails, contacts, photo, agenda...) tout en laissant l’utilisateur contrôler qui accède à quoi.

      7/ vous en êtes où ?
      On bosse comme des ânes, on vient de démarrer une béta privée avec nos premières applications, suivez nous sur notre blog ou twitter pour avoir des news sur les nouvelles releases.

      8/ Vous avez besoin de quoi ?
      De feed back !
      Donnez nous votre avis, tant sur les plans techniques que fonctionnels qu’ergonomiques etc...
      Contactez nous, par mail ou irc, on sera content de réfléchir avec vous !

    • @evenit : en effet node est jeune, mais sa surface d’exposition est en croissance exponentielle. Et puis ce jeunot s’appuie sur du code de géants (librairies réseaux et moteur js V8 de Chrome...).
      Au niveau de la sécurité on a (comme les autres :-) beaucoup de travail, toute remarque et conseil est bienvenu !

    • ok dak, que celui qui n’a pas déjà regretté un clic trop rapide jette le premier point godwin !

      Ceci dit j’ai faillit répondre avec un « tu sais où tu peux te les carrer, tes excuses ? », que je trouvais très drôle mais j’ai douté sur ma capacité à expliquer que c’était VRAIMENT une blague, alors du coup je me suis abstenu. Couille molle sur ce coup là Ben...

    • @monolecte Les volumétries (surprenantes) que tu donnes sont proches de celles données pour mon cher papa évoqué plus haut. Je persiste à penser que le DSM4.1 de chez Synology, donc, en hébergement matériel à domicile, est ce qu’il y a de mieux dans ce genre de cas même si ça n’est pas réellement libre (ça reste basé sur du libre et maintenu par une PME chinoise qui n’a pas besoin de se faire racheter).

    • @tester : sous « sign in », il y a un lien « démo ».
      Je te laisse deviner vers quoi il mène.
      Malgré les noms d’oiseaux qui ont volés cette nuit, merci pour ce retour, nous rajouterons ce lien à notre mail d’enregistrement à la béta. Les noms d’oiseaux étaient ils nécessaires ?

    • @benjamin1 : je trouve que Node.js apporte une touche de fraicheur dans le monde du web. Je jouais juste au vieux ;) J’ai regardé un peu ce qui se faisait et l’écosystème grossit rapidement...

      Et sinon, en 10/, je verrais bien un lien vers un tutoriel pour l’installer sur sa propre machine. Ou alors j’ai juste mal cherché ;)

    • Bonjour,

      Juste une petite idée comme ça, à propos du DNS secondaire. C’est effectivement bien d’en avoir un sur un deuxième AS (comme mentionné par ZoneCheck), mais si on part sur l’idée d’un paquetage utilisé par plusieurs personnes pour faire de l’auto-hébergement, pourquoi ne pas compter sur les autres ?
      Une petite interface du style : « DNS secondaire hébergé par » avec un identifiant d’auto-hébergement à rentrer, et cette personne tierce (de confiance) devra accepter l’invitation.

      Plus il y a de tiers, plus la résilience sera grande.

    • @glandos> la question de la résilience du serveur dns secondaire est à prendre avec précaution tout de même ... le principe du serveur auto-hébergé sur lequel tu es le seul à te soucier qu’il est up ou pas à ce moment ne s’applique plus si tu acceptes sur ton serveur de prendre la responsabilité d’héberger la zone d’un tiers qui lui s’en fiche éventuellement moins

    • @glandos @b3nj : mais dans le cadre d’un système coopératif/associatif, il est probable que le serveur ait un bon uptime. Et rien n’empêche de multiplier les serveurs secondaires au sein de son réseau : si chacun des participants au sein d’un groupe est secondaire pour l’ensemble des autres membres du groupe, le maillage devient suffisant pour assurer la disponibilité du DNS.

    • @glandos @evenit > il n’empêche la notion de suffisance est toute relative et il convient alors lorsque tu souscris à une telle approche coopérative/associative de bien être conscient de la probabilité de l’indisponibilité et de fait de l’abscence de possibilité d’établir un SLA viable.

    • @b3nj @evenit > En même temps, si tous les enregistrements DNS pointent sur la machine qui fait l’auto-hébergement, alors quand le DNS tombe, c’est que le reste aussi (normalement). Ce ne sera pas forcément le cas (on peut avoir des MX secondaires par exemple), mais ça limite la casse.
      Sinon, la question de la confiance est quand même assez facile à résoudre. Par exemple, mes voisins me donnent leur clés de chez eux en cas de problèmes, ou bien s’ils sont en vacances. Ils me font confiance parce que je les connais. Je pense que les DNS ne devraient pas poser de problème, s’il y a déjà cette confiance…

    • L’auto-hébergement est fondamentalement inadapté aux protocoles comme le DNS, HTTP, XMPP, IRC, car ils sont conçus pour fonctionner avec des serveurs qui tournent en permanence. L’auto-hébergement a besoin de protocoles moins « centralisés », plus résilients, qui répartissent les données et la charge de travail. Bref il a besoin d’Internet, hors aujourd’hui on a beaucoup de Minitel.

    • @evenit : en fait on a 2 tuto, mais il faudrait qu’on rende plus compréhensibles nos liens. Les voici :
      – pour installer un environnement de dev : http://blog.cozycloud.cc/tutorial/2013/02/28/how-to-quickly-start-a-personal-web-app-with-nodejs-and-cozy-cloud
      – un pour installer un cozy complet sur une machine (uniquement partie Getting ready in 5 mn) : https://github.com/mycozycloud/cozy-setup/wiki/Setup-cozy-cloud-development-environment-via-a-virtual-machine

      L’environnement de dev est plus simple à mettre en place car on packagé pas mal de choses dans une vm.

      Pour ce qui est de s’installer un cozy complet pour l’auto héberger, le second tuto sera beaucoup plus facile quand on aura également packagé l’ensemble dans une vm : c’est au programmes des 2 prochains mois.

    • @Changaco : pas du tout d’accord. D’abord, comme indiqué plusieurs fois, on ne parle pas de 100 % de succès. Il ne s’agit pas d’héberger Amazon.com ! Ensuite, l’auto-hébergement, aussi bien à la maison que chez un fournisseur IaaS, atteint des scores d’uptime tout à fait honorables (le record de mon Raspberry Pi à la maison est de 21 jours et encore il a repris le service tout de suite après son débranchement).

    • @benjamin1 : merci pour les liens. Je jetterai un œil quand je trouverai un peu de temps de cerveau libre ;)

      @glandos @stephane : on peut aussi imaginer matérialiser la confiance via des clés PGP puisqu’il est aussi possible d’attribuer un degré de confiance. Et comme la base de PGP est l’échange de clés entre individus qui se rencontrent pour de vrai, cela peut recouper le cercle familial/amical/associatif. Reste à trouver un moyen simple et rigolo de faire l’échange avec des gens non techniciens autour d’un apéro.

    • Cette mode du « tout par moi même », n’en finit pas de m’étonner. Je comprends que le Raspberry, l’Arduino fasse rêver, mais il y a des limites. Je comprends l’enjeu de sécurité et de contrôle de sa vie privé, mais bon on parle d’héberger chez soi des dizaines de service informatique, du FTP, du HTTP, du mail, de la sauvegarde, etc...

      Dans les sociétés, c’est un métier en tant que tel, parce qu’il ne faut pas qu’installer, paramétrer, mais aussi réagir en cas de pépin. Au final, vous comptez mettre madame Michu à faire du Linux ? Perso, je suis développeur, et il y a bien longtemps que je n’installe plus de distro linux pour le fun, donc je pense qu’une personne non informaticienne, sera encore plus réticente.

      Prenez l’administration d’un Synology, et autant c’est clair, autant le nombre de choix peut faire fuir le quidam. Et je ne vous raconte pas en cas de problème. La solution IaaS est pour moi la plus crédible des solutions. Qu’au moins, le physique soit géré par des personnes qualifiées et motivées.

    • @pom421 : à mon avis un développeur mainfraim sur cartes perforées devait dire la même chose il y a 30 ans.

      Attention, je ne suis pas ironique, je veux juste dire que nous sommes loin d’avoir terminé la course aux couches d’abstractions en informatique. Et ce sont ces abstractions qui permettent de mettre toujours plus de complexité à la disposition de tout à chacun (y compris de nous autres techniciens).

      Je pense qu’aujourd’hui tout est réuni pour rendre assez facilement possible cette couche d’abstraction au dessus de linux pour que madame michu l’utilise (ce qui est d’’ailleurs déjà le cas via sa box ADSL, son smart phone ou son cadre photo numérique).

    • @stephane En fait, c’est déjà ce que je fais aujourd’hui, j’ai mon DNS primaire chez moi (nsd3), et j’ai le secondaire hébergé par un ami qui a son DNS sur une machine en location chez OVH.

      Par contre, je dois reconnaître qu’on est très loin de la simplicité. Très très loin. J’essaie parfois d’expliquer ce qu’est le DNS (très grossièrement), mais ce n’est pas évident.

    • Mes fiches de paie papier (comme tout le reste de la paperasse qui me donne une existence de citoyen), je les conserve chez moi. C’est chez moi, c’est privé, c’est moi qui décide ce que j’en fais, c’est garanti par un certain nombre de lois, et cette garantie est au final liée à la souveraineté de l’État sur l’espace physique qu’occupe mon chez-moi (quant à mes scans de fichie de paie, tant qu’ils restent sur mon disque dur chez moi, c’est la même chose).

      Maintenant je voudrais bien virtualiser ces scans et les placer
      dans un chez moi virtualisé (un cloud à moi) et obtenir pour ce chez moi les mêmes garanties que celles que l’État donne à mon chez moi physique.

      Bon il faut tirer les fils pour voir où ça mène, je suis pas juriste
      pour 2 sous, mais au bout il doit y avoir l’affirmation par l’État
      de sa souveraineté sur un espace numérique garantissant aux habitants citoyens les mêmes droits que ceux liés à leur espace physique.

    • @françois1 : Le fait d’être « chez soi » n’est pas suffisant pour établir la valeur de preuve d’un document, numérique ou comme physique.
      Et dans le cas du numérique, c’est meme l’inverse : si le fichier n’existe que chez toi, il n’aura qu’une faible valeur probante.

      Je ne suis pas non plus juriste, mais voici qcq info pour expliquer ça :

      1/ un document n’est jamais une preuve absolue : les juristes parlent de preuves établies sur la base d’un « faisceaux de présomptions ». Un document, celons sa constitution, sera donc un élément plus ou moins probant.

      2/ La falsification est toujours possible, meme pour un papier, c’est pourquoi un document physique, même présenté comme un « original », ne sera pas forcément retenue comme étant une « preuve » absolue. C’est pour ça qu’il faut des éléments rendant la falsification moins probables : signatures, paraphes en bas de pages, tampons, papiers à filigrannes produits celon des techniques maitrisées que par 1 producteur (billets de banque par ex) etc...

      3/ la falsification numérique d’un document numérique étant extrêmement facile, la « valeur de preuve » d’un fichier est moindre, mais pas nulle. Si dans la recherche de preuve il n’y a rien à opposer au fichier, alors il sera pris en compte par la justice.

      4/ c’est pour ça qu’il y a des tiers de confiance qui proposent un « stockage à valeur probant » (le plus connu en fr étant Arkhineo, filiale de la caisse des dépots et consignation). Il s’agit d’un tiers qui conserve un hash d’un document lui permettant de certifier qu’un fichier qu’on lui présente pour authentification qcq années après son émission est bien celui qui lui a été remis à l’origine e par tel ou tel tiers.

      Donc pour posséder une version numérique d’un document ayant une valeur probante significative, il faut que celui ci ait été dès le départ au format numérique et que l’organisme qui l’a produit le transmette à un tiers de confiance proposant un stockage probant, le tout en respectant bien sur une série de normes.

      Une autre solution serait la numérisation à valeur probante pour envoi certifié à un tiers de confiance (un peu comme la photocopie certifiée conforme à la mairie), mais je ne sais pas si un tel service existe.

      Pour info la mise en place d’un stockage à valeur probante est un objectif pour Cozy Cloud et on regarde à faire ça avec la poste (mais honnêtement on est à une phase très prospective sur ce point)

      En tout cas moi aussi je rêve de dématérialiser toute ma paperasse, le mouvement est en cours, mais ça va prendre encore un peu de temps....

    • @benjamin1 : je ne parlais pas tant de l’authenticité des éventuels documents virtualisés que de la protection de l’accès à ces documents, de la garantie que je suis le seul à décider de ce qu’il advient d’eux, ce qui est le cas pour mes documents papier, fussent-ils des faux grossiers. Le problème de l’authentification est un des éléments de l’équation mais ce n’est qu’un des éléments techniques (technique au sens large) à gérer en cas de besoin pour la section administrative de mes documents virtuels.

      Il me semble que l’essentiel des questions préliminaires qu’on veut régler quand on envisage de se « cloudifier », c’est celui du statut et de la propriété de ce qu’on envoie dans le nuage. En tous cas en ce qui me concerne, c’est le principal facteur qui limite pour le moment ma virtualisation à mes supports physiques personnels : c’est carrément nul en terme de disponibilité et d’accessibilité, mais en terme de protection et de confidentialité aucune solution à ma connaissance n’est à l’heure actuelle en mesure de m’assurer une garantie équivalente. Et c’est bien la motivation principale du post initial de Stéphane Bortzmeyer.

      Si je fais héberger dans le cloud une instance numérique de ma feuille de paie*, en louant un espace à un prestataire, je ne veux le faire que si j’ai la garantie absolue de pouvoir tout récupérer quoiqu’il arrive (sauf catastrophe majeure). En gros, j’exige que le propriétaire de l’appartement que je loue ne fouille pas dans mon appartement dans mon dos et me laisse tout récupérer à l’échéance du bail, quelqu’en soit la raison.

      Analogie qui est le point de départ de l’idée de la souveraineté de l’État sur un territoire numérique, parce que c’est elle qui assure l’inviolabilité de mon domicile dans les nuages.

      * (je fais pas une fixette sur la feuille de paie, c’est évidemment valable pour tout le reste, photos, emails, etc..., mais la fiche de paie a besoin de pérennité, de disponibilité, de confidentialité, voire d’authentification, donc c’est un bon résumé des spécifications cloudesques)