• Microsoft Xbox One. Bilan d’une console en 1984
    http://neosting.net/jeu-video/xbox-one-bilan-console-big-brother.html

    Alors que la partie Media Center aura du mal à trouver sa place, il reste à voir si le coté primitif d’une console de jeux, à savoir... le jeu vidéo (oui, bien ça n’a plus l’air d’être évident pour tout le monde apparemment...), convaincra. Et si, on se demandait si la ... #bigbrother #cloudgaming #microsoft #xboxone

    • En fait pas terrible tant au niveau de l’interface que des fonctionnalités... on sent que les gars ne s’occupent pas vraiment de leur truc. C’est juste histoire d’être présent sur le créneau.

      Reste OwnCloud ;-)

  • ownCloud
    http://owncloud.org/features

    une solution tout intégrée open-source pour intranet avancé : stockage de fichiers distant à la dropbox, calendriers, taches et contacts partagés, synchronisation entre machines, galeries photos, stockage de docs à la google drive,
    Versioning des fichiers
    Propose une interface web et un client desktop pour Windows/Mac/Linux
    API pour développement d’applis connexes
    Supporte LDAP et divers systèmes de SSO

    #owncloud #dropbox #google-apps #intranet #web-based #versioning #serveur #travail_collectif #cloud #api

  • Aujourd’hui, des millions d’utilisateurs innocents sous-traitent leur présence en ligne à des gros industriels du #cloud comme Google ou Facebook. Cela, au détriment de leur vie privée et au prix d’une complète perte de contrôle de leurs propres données. L’alternative libre est évidemment l’auto-hébergement, avoir un jeu d’applications qui mettent en œuvre cette présence en ligne, sur une machine qu’on contrôle. Mais tout le monde n’a pas forcément la compétence, ou tout simplement le temps ou l’envie, pour gérer cette machine et ces applications. N’est-il pas temps de développer un système tout fait pour cela ?

    http://www.bortzmeyer.org/presence-en-ligne.html

    #vie_privée

    • Il n’y a pas que l’alternative « tout chez big brother » ou « tout chez soi » ; une réponse coopérative serait sans doute plus adaptée. Ce n’est pas facile, il faut accepter de s’associer avec d’autres, faire circuler des ressources, prendre le risque de ne pas être d’accord…

      #cccp #portabilité_des_données #alternc #debian

      EDIT : j’ajoute que certains services qui semblent difficiles à gérer sont en fait faciles, et inversement. Le mail par exemple tourne rapidement au cauchemar quand il s’agit de lutte anti-spam (réception), de réputation de son IP (pour l’envoi), de gros volumes (stockage).

    • C’est un sujet sur lequel je me suis un peu penché. J’ai d’ailleurs personnellement commencé à m’extraire du giron de Google/Facebook... Je ne maîtrise pas encore tous les aspects, mais progressivement les plus essentiels migrent : messagerie électronique avec webmail (postfix + roundcube), blog (wordpress), stockage (owncloud).

      Côté sécurité, toutes les données hébergées ne sont pas à vocation purement privée : par exemple, les messages du blog/site, les photos que l’on aurait hébergées sur Flickr, les vidéos de son chat sur Youtube...

      Le chiffrement peut permettre de stocker des données chez un hébergeur tiers qui fournit du Cloud, mais pose problème pour l’échange de données. On aborde d’ailleurs une forme de DRM avec diffusion de clé.

      Le cercle familial/amical est un bon espace de partage au sein duquel on peut imaginer facilement la mise en commun de ressources pour de l’auto-hébergement. J’emploie volontairement le terme de cercle car c’est une approche que je trouve judicieuse dans la définition d’un scope de partage.

      Et si on parle de mutualisation de moyens, il faut être sensible à des technologies de type dé-duplication qui peuvent réduire la volumétrie.

      Bref, je suis du métier et faire la glu entre tous les composants peut s’avérer complexe. Alors, je rejoins pleinement @Stéphane sur l’aspect simplicité pour que Mme. Michu puis s’auto-héberger ;)

    • c’est pourquoi je parle plus volontiers de #coopérative que d’association : si chacun traite indépendamment une partie du problème et que ça bénéficie à l’ensemble des autres, on gagne du #temps — si on passe son temps à se contredire et à se marcher sur les pieds, non…

    • Il manque à mon sens, une ligne « comment sauvegarder son nuage » avec une suggestion de solution > il n’y en a pas de simples hélas...
      J’étudie à l’instant même Kolab. Même s’il ne suffit que d’un « apt-get » pour tout installer (une fois le bon dépôt configuré), euh... ensuite... pour tout configurer par l’interface web... il faut quelques connaissances... peu répandues.
      Et je n’évoque même pas les soucis de sécurité, et de failles de sécurité. Joomla 1.5 a été déployé sur des milliers de sites, par des non-professionnels qui ne pensaient pas que ça pouvait faire l’objet de tant de soucis... et qu’il était impératif de mettre à jour vers une version récente du CMS...
      D’où le côté incontournable des solutions « toutes en un », maintenance y-compris.
      On en arrive alors à des réflexions sur le coopératif.

    • Bonjour, j’ai eu l’occasion de discuter récemment avec le créateur d’une start up française (très récente) qui veut selon ce que je comprend répondre à cette question. Je n’ai pas les compétences techniques pour juger si leurs solutions répondent en partie ou complétement à l’enjeu que vous soulevez, mais... peut-être à suivre ! :
      https://www.cozycloud.cc
      j’aime assez leurs textes de blog : http://blog.cozycloud.cc

    • @geodelc : je trouve aussi le projet intéressant. Par contre, je ne sais pas quels sont les retours sur la sécurité de Node.js sur lequel semble s’appuyer le produit. Ce n’est pas un début de troll, mais les nouvelles technologies n’ont pas toujours eu le temps de subir les assauts des vilains pirates (surface d’attaque trop faible). En même temps, Node.js est quand même pas mal utilisé, donc à tester dans une VM...
      Merci pour le lien.

    • Les sauvegardes « cloud » ne me plaisent pas des masses : perte de contrôle, confidentialité à géométrie variable, incertitude sur pérennité des données.
      En ce moment, je cherche une solution locale type NAS RAID1 pour bétonner au moins mes données contre des défaillances de HDD. Mais je pense qu’il me faudrait ajouter un HDD externe d’ultra-sauvegarde qui aurait pour vocation d’être mis à jour une ou deux fois par mois et serait stocké chez un tiers de confiance, le reste du temps.
      Là, je pense que mes données commenceraient à moins craindre.

    • ya des vm en pre-build version qui font +ou- ça seulement niveau maintenance faut compter seulement sur toi...un truc totalement automatisé est utopiste (1 seul exemple : passer de lenny à squeeze ne se fait pas comme ça). Ou alors faut externaliser les données pour ne mettre à jour que le systeme mais là on en revient à faire du cloud :)

    • @monolecte : Quelle est la volumétrie des données que tu considères comme critique ? Certains pensent que leurs photos de vacances ne doivent pas être sauvegardées (pour bon nombre, ils changent d’avis quand leur disque lâche). Pour les petites volumétries, on peut imaginer une sorte de RAID sur différents fournisseurs de Cloud qui ne stockent que des données préalablement chiffrées. Plus il y a de fournisseurs, plus tu as de volumétrie ou de redondance. C’est un peu ce que fait symform (http://www.symform.com/our-solutions/key-features) sur les NAS de ses utilisateurs. Ensuite, il faut identifier le niveau de sécurité de chaque type de données pour appliquer la politique de sauvegarde idoine : les données qui ne bougent pas (photos déjà post-traitées, par exemple) peuvent être simplement archivées (éventuellement en plusieurs copies) à intervalle régulier et déposée chez un tiers de confiance à l’occasion d’un apéro, comme tu le suggères.

      @tester1 : en fait, je pense qu’il faut garder comme axiome une séparation des données et de l’application/OS. En gros, tes données données doivent résider sur un espace qui n’est pas dépendant de l’application (filesystem dédié local ou distant, voire dans le nuage). Comme ça, lors de ta mise à jour, le risque sur tes données est plus faible : genre tu démontes le FS avant la mise à jour.

    • Le filesystem est secondaire : si tu « merdes » pour x raison et que le l’OS ne reboot pas, tes données sur patoche seront elles-aussi compromises. Pour assurer le coup il faudrait stocker les données/fichiers-de-config sur un second disque (un tiers de confiance revient à faire du cloud chez un autre prestataire...autant rester sur facebook & co) pour ne mettre à jour « que » l’image (mieux vaut dès le départ taper dans des mini distro hein :) ).

      Bref faut investir quoi et s’y connaitre un minimum malgré tout...sans parler du coup inhérent à l’électricité, bande passante, machine dédiée (sinon ta ram et ton cpu en prennent un sacré coup dans la gueule -les gamers risquent de ne pas trop appécier-, etc etc).

    • Ouais enfin sauf que l’objet de la discussion c’était justement d’avoir des outils tout-fait pour le grand public, sans mettre les mains dans le cambouis MAIS pas sous windows uniquement et en libre. Si on part du principe que d’office ce n’est que sous windows et en propriétaire qu’on peut avoir des outils simples à utiliser pour tous, on va pas aller loin...

    • @tester1 : Disons que tu as normalement possibilité de booter en mode rescue (depuis un CD ou une clé USB) pour accéder à ta partition. Je suppose que tu ne réinstalles pas dès que ça « merde » ;) Mais oui, il faut investir du temps et c’est bien là le sujet lancé par @stephane : qui a (dans l’ordre) le #temps, l’ #envie et la #compétence pour créer un produit simple, plein des fonctionnalités qu’attend Mme. Michu et qui fonctionne en auto-hébergement.

      @monolecte : bon, bah ça va alors. Chez un fournisseur du type de hubic (sans publicité de ma part), tu as un stockage pseudo-illimité (maxi 100To) pour 120€/an. Tout dépend de la valeur que tu attribues à tes données... D’ailleurs, hubic est basé sur de l’OpenStack et il est prévu que l’API soit ouverte, donc les fans de cambouis pourront se tâcher.

      @tester1 : quels « trucs tout-fait sous window » ?

    • dans le cahier des charges il est aussi stipulé que l’usine à gaz ne devrait souffrir d’aucun bug...donc demander à madame michu de faire de la récup de données en cas de pépin est d’une part contraire à ce qui est demandé et d’autre part légèrement « risqué » compte tenu du niveau des personnes ciblées.

      Non franchement, gérer des serveurs n’a rien à voir avec du desktop...rien que pour cibler la machine il faut un domaine qui renvoie vers l’ip fixe/dynamique du gus et rien que pour envoyer des mail sur des serveurs comme gmail & co il faut des enregistrements dns spécifiques qui nécessitent des compétences avancées, etc etc.

      non désolé mais c’est foireux ce projet...

    • @tester Comme moi, justement, je fais de l’auto-hébergement à la main, je sais que cettte histoire d’enregistrements DNS spécifiques (lesquels ?) pour envoyer du courrier à Gmail est bidon. Cela n’empêche pas que gérer un serveur soit compliqué (cf. @Fil). Mais, justement, cela peut s’automatiser. L’absence d’argument (à part que Mme Michu est conne et le projet foireux) ne va pas aider à discuter.

    • « Bidon » ça dépend ce dont tu parles : moi je pars du principe que l’emission se fait à partir de son propre serveur mail (CAD sans passer par le smtp du fai) et dans ce cas gmail comme beaucoup d’autre demande d’abord à ce que l’émetteur posséde une ip fixe + des enregistrements dns de nature à identifier le serveur (dkim, spf etc) faute de quoi tes mails attérissent tous, dans le meilleur des cas, dans le dossier spam quand ils sont pas purement et simplement rejeté...

      Pour le reste je me fais + l’avocat du diable qu’autre chose ;)

    • @stephane : merci pour le lien vers l’article d’@Fil. En effet, et c’était le sens d’un morceau d’un de mes commentaires, aujourd’hui l’auto-hébergement va s’orienter vers des solutions pour des cercles familiaux/amicaux/associatifs, bref des gens qui connaissent un ou plusieurs barbus qui fournissent un présence en ligne et gestion de données personnelles.

      Pour ma part, je me suis lancé dans l’idée de fournir à mon cercle familial un système de sauvegarde en ligne sur les serveurs d’une société tierce qui me garantit un taux élevé de disponibilité des données contre quelques euros par mois. C’est d’ailleurs un aspect qu’il ne faut pas négliger : la qualité de service a un prix, mais il est distribué sur l’ensemble de la communauté qui utilise les ressources.

      @tester1 : chez Gmail, ils aiment bien qu’on ait implémenté DMARC (SPF + DKIM). Cela permet de mieux passer le filtrage, mais ce n’est pas obligatoire. D’ailleurs, tant SPF que DKIM sont simples à implémenter. Là où ça se complique c’est si on veut signer ses enregistrements avec DNSSEC...

    • Dans l’article de jbfavre (effectivement très clair), il manque à mon sens une notion : celle d’une portabilité (minimale) des données. Dès lors si un admin troll s’empare du serveur de mon asso pour y installer la version 3.14 de apache-ssl alors que je jure que par la version 3.13, je pourrai sans difficulté (et, dans l’idéal, d’un clic) transférer mes données vers le serveur de l’asso voisine, qui elle a bien compris que la 3.13 était mieux.

    • rsync over ssh suffirait largement à tous les besoins, surtout en considérant SMTP comme mort.

      Et cela permettrait incidemment de se débarrasser des trucs de noubz genre p2p, et d’ambitionnner, enfin, un InternetFS citoyen.

      Maintenant, je l’avoue, pour mon vieux papa qui comprend rien j’ai mis du Synology d’entrée de gamme @home : ça fait tout, bien, et c’est même pas trop propriétaire.

    • @stephane : et le serveur est chez toi (sous-entendu ton fai perso) ou sur un dédié ? Parce qu’ils ont des bases pour identifier/sélectionner les ip...bon après ya une histoire de whitelist mais au départ t’es blacklisté pour répondre à des critères d’exigences...sinon c’est spam à gogo ;)

    • Mince, exactement l’article que je voulais écrire (ce qui est assez rassurant !).

      Plus sérieusement, c’est effectivement exactement ce qui me semble être la bonne solution. C’est important de rendre tout ça simple, donc oui pourquoi pas une image « disque », et comme déjà dit une WebUI qui permette l’administration, la navigation, etc dans l’ensemble.
      Idéalement, je pense que l’on gagnerait même en une interface qui soit la plus KISS possible et qui propose une sorte d’API rudimentaire. Ainsi, nombre de solutions existantes pourraient venir se plugger dessus d’elles-même. Ça permettrait de pouvoir choisir le service que l’on souhaite parmi plusieurs alternatives (ce qui me semble être un gros point faible d’OwnCloud qui finalement réenferme l’utilisateur dans des choix qui n’ont pas été les siens (pas du tout dans les même proportions que Google bien entendu, et surtout pas avec les mêmes intentions)). YunoHost est à ce titre très intéressant comme projet !

      Sinon, à titre personnel j’expérimente l’auto-hébergement sur mon Raspberry Pi (et justement j’ai codé en quelques lignes un genre de portail web rudimentaire (et adapté à mes besoins) pour unifier le tout). Voilà ce qui tourne H24 depuis quelques mois maintenant :
      – Un webmail : Roundcube (mais c’est pas terrible, c’est lourd et ça manque de fonctions essentielles. C’est là qu’on voit que Gmail est très puissant... Je vais essayer SquirrelMailhttp://squirrelmail.org ). Mon serveur mail reste pour le moment chez OVH (novice en linux, j’ai pas encore osé me lancer... j’attends un article de @stephane ;).
      – Un lecteur RSS : Tiny Tiny RSS (excellent et très puissant : filtres automatiques, labels, application mobile, plugins, etc. je conseille vivement !) → http://tt-rss.org
      – Un agenda : AgenDAV pour l’accès web (RAS, très bon → http://agendav.org ) couplé au moteur de calendrier DAViCal (la référence, super, je l’ai oublié ! Il gère aussi les carnets d’adresse, mais pas encore testé → http://www.davical.org ).
      – Un gestionnaire de photos : PhotoShow (très bien, fonctionne sans base de données, uniquement via l’arborescence des répertoires/fichiers ce qui est pratique pour envoyer automatiquement des photos depuis android par exemple) → http://www.photoshow-gallery.com
      – Un blog : PluXML (pas de bdd, uniquement un jeu de fichiers XML) → http://www.pluxml.org
      – Un serveur XMPP : Prosody (RAS jusqu’à maintenant...) → http://prosody.im
      – Un serveur SMB pour les fichiers (pratique...)
      – Bien sûr un serveur web : lighttpd (super ! → http://www.lighttpd.net ) avec PHP évidemment.
      – et avec un analyseur de statistiques via les logs de lighttpd : awstats (dont je me sert pas vraiment mais qui est complet et qui évite d’ennuyer les visiteurs avec du javascript...) → http://awstats.sourceforge.net
      – Un SGBD : PostgreSQL
      – Bittorent avec transmission (avec des applications desktop, mobile ou WebUI pour le gérer à distance : génial → http://www.transmissionbt.com/resources ).
      – Un serveur pour lire ma musique : MPD (extra...) → http://fr.wikipedia.org/wiki/Music_Player_Daemon
      – Un serveur VPN : OpenVPN (je fais pas toujours confiance aux hotspots wifi auxquels je me connecte occasionnellement (ni à la 3G...), ça me rassure un peu) → http://shadowblog.fr/7-vpn-sur-raspberry-pi
      – Un serveur son sur lequel je stream le son de mon PC : PulseAudio/Alsa.
      – Et cron qui me sert de réveil matin en lançant France Culture ;-)
      – J’ai même branché une imprimante thermique (sans encre) pour imprimer des notifications (emails, twitter, etc.) sur des tickets de caisse... → https://www.adafruit.com/products/597

      Le tout est sauvegardé via rsync sur une partition différente (du même disque...) toutes les nuits. Il faut soit que j’ajoute un disque soit que j’envoie sur Hubic (par exemple) après chiffrement.

      Je n’y aurais jamais cru mais tout ça tourne sans difficultés et en simultané, sur un simple Raspberry. Je sais pas si je peux le pousser encore mais pour le moment la seule limite que j’observe est bien entendu ma maigre bande passante sur simple aDSL (et donc surtout en up)...

      Plus généralement, ce que j’observe c’est que c’est effectivement incroyablement chronophage ! Ensuite, c’est une responsabilité parfois un angoissante... Quand ça marche pas, il suffit pas d’attendre. Il faut trouver et corriger. Et si je fais une erreur, j’ai plus de service. Et si j’ai pas le temps de corriger, ben j’ai plus de service pendant une semaine. Enfin, c’est pas encore arrivé...
      Mais c’est aussi incommensurablement formateur (ce qui n’est pas un argument pour tout le monde) ! Et puis c’est agréable de constater qu’il y a des alternatives libres pour tout les usages que j’avais des services « cloud », au moins aussi puissantes (sauf pour le webmail où je cherche encore) et dans tout les cas personnalisables à souhaits. Je ne retournerai pour rien au monde sur Google Music et encore moins sur Google Reader (plus possible de toute manière me direz vous, mais pas plus chez feedly ou autre) !
      Il reste par contre à travailler le design, c’est souvent pas sexy du tout...

      Bref, au vu entre autre des commentaires, il semble y avoir du monde qui bidouille dans son coin et @stephane a raison, il serait effectivement temps de coordonner tout ça...

      Bonjour chez vous.

    • Concernant la partie serveur et gestion autonome des zones, je peux toujours proposer la solution que j’ai rapidement monté -mais pas encore finalisée- : http://greatns.com qui permet au « quidam » de pouvoir utiliser gratuitement un de mes serveurs secondaires gratuitement.

      Effectivement, on peut arguer qu’il y à un objectif commercial derrière un tel système, mais je l’énonce clairement.

    • Qcq précisions sur https://www.CozyCloud.cc, puisque notre site n’explique pas encore tout ça :-)

      1/ Pourquoi ?
      Le web se “cloudifie”, pour le meilleur - ubiquité des services, simplicité, sécurité, interactions avec les terminaux mobiles - et le pire : nos données sont dispersées dans des silos étanches contrôlés par des quasi monopoles qui vivent de leur analyse et revente.

      2/ Solution ?
      Le pouvoir est du côté sur serveur (http://blog.cozycloud.cc/mantra/2013/01/19/server-side-is-where-the-power-lies), il faut auto héberger ses données et web app qui accèdent à nos données

      3/ C’est une utopie
      L’auto hébergement est une utopie de la même façon qu’avoir un Personal Computer l’était il y a 30 ans. Notre objectif est d’être l’iOs des serveur, l’ouverture en plus.

      4/ La confidentialité ne sensibilise pas Mme Michu :
      a) l’intérêt de l’auto hébergement ne réside pas que dans la confidentialité, loin de là : Réunir ses données permet des mashup aujourd’hui impossibles (alors meme que l’intégration est à la source du succès des écosystèmes fermés...).
      b) madame michu évolue, demandez lui plutôt que de présupposer.

      5/ vous n’êtes qu’une distro linux de plus ?
      Pour nous un "serveur" est un chef d’orchestre de services, pas un kernel. Cozy est un PaaS personnel qui à la demande de l’utilisateur, via une chouette ui, peut installer ou supprimer une web app, laquelle peut être en Node.js, mais bientot aussi Python ou Ruby.

      6/ En quoi facilitez vous les mashup de données ?
      La persistance est mutualisée dans une web app, le datasystem, que les web app requêtent en REST (si elles y sont autorisées). Toutes les apps peuvent donc partager des données (mails, contacts, photo, agenda...) tout en laissant l’utilisateur contrôler qui accède à quoi.

      7/ vous en êtes où ?
      On bosse comme des ânes, on vient de démarrer une béta privée avec nos premières applications, suivez nous sur notre blog ou twitter pour avoir des news sur les nouvelles releases.

      8/ Vous avez besoin de quoi ?
      De feed back !
      Donnez nous votre avis, tant sur les plans techniques que fonctionnels qu’ergonomiques etc...
      Contactez nous, par mail ou irc, on sera content de réfléchir avec vous !

    • @evenit : en effet node est jeune, mais sa surface d’exposition est en croissance exponentielle. Et puis ce jeunot s’appuie sur du code de géants (librairies réseaux et moteur js V8 de Chrome...).
      Au niveau de la sécurité on a (comme les autres :-) beaucoup de travail, toute remarque et conseil est bienvenu !

    • ok dak, que celui qui n’a pas déjà regretté un clic trop rapide jette le premier point godwin !

      Ceci dit j’ai faillit répondre avec un « tu sais où tu peux te les carrer, tes excuses ? », que je trouvais très drôle mais j’ai douté sur ma capacité à expliquer que c’était VRAIMENT une blague, alors du coup je me suis abstenu. Couille molle sur ce coup là Ben...

    • @monolecte Les volumétries (surprenantes) que tu donnes sont proches de celles données pour mon cher papa évoqué plus haut. Je persiste à penser que le DSM4.1 de chez Synology, donc, en hébergement matériel à domicile, est ce qu’il y a de mieux dans ce genre de cas même si ça n’est pas réellement libre (ça reste basé sur du libre et maintenu par une PME chinoise qui n’a pas besoin de se faire racheter).

    • @tester : sous « sign in », il y a un lien « démo ».
      Je te laisse deviner vers quoi il mène.
      Malgré les noms d’oiseaux qui ont volés cette nuit, merci pour ce retour, nous rajouterons ce lien à notre mail d’enregistrement à la béta. Les noms d’oiseaux étaient ils nécessaires ?

    • @benjamin1 : je trouve que Node.js apporte une touche de fraicheur dans le monde du web. Je jouais juste au vieux ;) J’ai regardé un peu ce qui se faisait et l’écosystème grossit rapidement...

      Et sinon, en 10/, je verrais bien un lien vers un tutoriel pour l’installer sur sa propre machine. Ou alors j’ai juste mal cherché ;)

    • Bonjour,

      Juste une petite idée comme ça, à propos du DNS secondaire. C’est effectivement bien d’en avoir un sur un deuxième AS (comme mentionné par ZoneCheck), mais si on part sur l’idée d’un paquetage utilisé par plusieurs personnes pour faire de l’auto-hébergement, pourquoi ne pas compter sur les autres ?
      Une petite interface du style : « DNS secondaire hébergé par » avec un identifiant d’auto-hébergement à rentrer, et cette personne tierce (de confiance) devra accepter l’invitation.

      Plus il y a de tiers, plus la résilience sera grande.

    • @glandos> la question de la résilience du serveur dns secondaire est à prendre avec précaution tout de même ... le principe du serveur auto-hébergé sur lequel tu es le seul à te soucier qu’il est up ou pas à ce moment ne s’applique plus si tu acceptes sur ton serveur de prendre la responsabilité d’héberger la zone d’un tiers qui lui s’en fiche éventuellement moins

    • @glandos @b3nj : mais dans le cadre d’un système coopératif/associatif, il est probable que le serveur ait un bon uptime. Et rien n’empêche de multiplier les serveurs secondaires au sein de son réseau : si chacun des participants au sein d’un groupe est secondaire pour l’ensemble des autres membres du groupe, le maillage devient suffisant pour assurer la disponibilité du DNS.

    • @glandos @evenit > il n’empêche la notion de suffisance est toute relative et il convient alors lorsque tu souscris à une telle approche coopérative/associative de bien être conscient de la probabilité de l’indisponibilité et de fait de l’abscence de possibilité d’établir un SLA viable.

    • @b3nj @evenit > En même temps, si tous les enregistrements DNS pointent sur la machine qui fait l’auto-hébergement, alors quand le DNS tombe, c’est que le reste aussi (normalement). Ce ne sera pas forcément le cas (on peut avoir des MX secondaires par exemple), mais ça limite la casse.
      Sinon, la question de la confiance est quand même assez facile à résoudre. Par exemple, mes voisins me donnent leur clés de chez eux en cas de problèmes, ou bien s’ils sont en vacances. Ils me font confiance parce que je les connais. Je pense que les DNS ne devraient pas poser de problème, s’il y a déjà cette confiance…

    • L’auto-hébergement est fondamentalement inadapté aux protocoles comme le DNS, HTTP, XMPP, IRC, car ils sont conçus pour fonctionner avec des serveurs qui tournent en permanence. L’auto-hébergement a besoin de protocoles moins « centralisés », plus résilients, qui répartissent les données et la charge de travail. Bref il a besoin d’Internet, hors aujourd’hui on a beaucoup de Minitel.

    • @evenit : en fait on a 2 tuto, mais il faudrait qu’on rende plus compréhensibles nos liens. Les voici :
      – pour installer un environnement de dev : http://blog.cozycloud.cc/tutorial/2013/02/28/how-to-quickly-start-a-personal-web-app-with-nodejs-and-cozy-cloud
      – un pour installer un cozy complet sur une machine (uniquement partie Getting ready in 5 mn) : https://github.com/mycozycloud/cozy-setup/wiki/Setup-cozy-cloud-development-environment-via-a-virtual-machine

      L’environnement de dev est plus simple à mettre en place car on packagé pas mal de choses dans une vm.

      Pour ce qui est de s’installer un cozy complet pour l’auto héberger, le second tuto sera beaucoup plus facile quand on aura également packagé l’ensemble dans une vm : c’est au programmes des 2 prochains mois.

    • @Changaco : pas du tout d’accord. D’abord, comme indiqué plusieurs fois, on ne parle pas de 100 % de succès. Il ne s’agit pas d’héberger Amazon.com ! Ensuite, l’auto-hébergement, aussi bien à la maison que chez un fournisseur IaaS, atteint des scores d’uptime tout à fait honorables (le record de mon Raspberry Pi à la maison est de 21 jours et encore il a repris le service tout de suite après son débranchement).

    • @benjamin1 : merci pour les liens. Je jetterai un œil quand je trouverai un peu de temps de cerveau libre ;)

      @glandos @stephane : on peut aussi imaginer matérialiser la confiance via des clés PGP puisqu’il est aussi possible d’attribuer un degré de confiance. Et comme la base de PGP est l’échange de clés entre individus qui se rencontrent pour de vrai, cela peut recouper le cercle familial/amical/associatif. Reste à trouver un moyen simple et rigolo de faire l’échange avec des gens non techniciens autour d’un apéro.

    • Cette mode du « tout par moi même », n’en finit pas de m’étonner. Je comprends que le Raspberry, l’Arduino fasse rêver, mais il y a des limites. Je comprends l’enjeu de sécurité et de contrôle de sa vie privé, mais bon on parle d’héberger chez soi des dizaines de service informatique, du FTP, du HTTP, du mail, de la sauvegarde, etc...

      Dans les sociétés, c’est un métier en tant que tel, parce qu’il ne faut pas qu’installer, paramétrer, mais aussi réagir en cas de pépin. Au final, vous comptez mettre madame Michu à faire du Linux ? Perso, je suis développeur, et il y a bien longtemps que je n’installe plus de distro linux pour le fun, donc je pense qu’une personne non informaticienne, sera encore plus réticente.

      Prenez l’administration d’un Synology, et autant c’est clair, autant le nombre de choix peut faire fuir le quidam. Et je ne vous raconte pas en cas de problème. La solution IaaS est pour moi la plus crédible des solutions. Qu’au moins, le physique soit géré par des personnes qualifiées et motivées.

    • @pom421 : à mon avis un développeur mainfraim sur cartes perforées devait dire la même chose il y a 30 ans.

      Attention, je ne suis pas ironique, je veux juste dire que nous sommes loin d’avoir terminé la course aux couches d’abstractions en informatique. Et ce sont ces abstractions qui permettent de mettre toujours plus de complexité à la disposition de tout à chacun (y compris de nous autres techniciens).

      Je pense qu’aujourd’hui tout est réuni pour rendre assez facilement possible cette couche d’abstraction au dessus de linux pour que madame michu l’utilise (ce qui est d’’ailleurs déjà le cas via sa box ADSL, son smart phone ou son cadre photo numérique).

    • @stephane En fait, c’est déjà ce que je fais aujourd’hui, j’ai mon DNS primaire chez moi (nsd3), et j’ai le secondaire hébergé par un ami qui a son DNS sur une machine en location chez OVH.

      Par contre, je dois reconnaître qu’on est très loin de la simplicité. Très très loin. J’essaie parfois d’expliquer ce qu’est le DNS (très grossièrement), mais ce n’est pas évident.

    • Mes fiches de paie papier (comme tout le reste de la paperasse qui me donne une existence de citoyen), je les conserve chez moi. C’est chez moi, c’est privé, c’est moi qui décide ce que j’en fais, c’est garanti par un certain nombre de lois, et cette garantie est au final liée à la souveraineté de l’État sur l’espace physique qu’occupe mon chez-moi (quant à mes scans de fichie de paie, tant qu’ils restent sur mon disque dur chez moi, c’est la même chose).

      Maintenant je voudrais bien virtualiser ces scans et les placer
      dans un chez moi virtualisé (un cloud à moi) et obtenir pour ce chez moi les mêmes garanties que celles que l’État donne à mon chez moi physique.

      Bon il faut tirer les fils pour voir où ça mène, je suis pas juriste
      pour 2 sous, mais au bout il doit y avoir l’affirmation par l’État
      de sa souveraineté sur un espace numérique garantissant aux habitants citoyens les mêmes droits que ceux liés à leur espace physique.

    • @françois1 : Le fait d’être « chez soi » n’est pas suffisant pour établir la valeur de preuve d’un document, numérique ou comme physique.
      Et dans le cas du numérique, c’est meme l’inverse : si le fichier n’existe que chez toi, il n’aura qu’une faible valeur probante.

      Je ne suis pas non plus juriste, mais voici qcq info pour expliquer ça :

      1/ un document n’est jamais une preuve absolue : les juristes parlent de preuves établies sur la base d’un « faisceaux de présomptions ». Un document, celons sa constitution, sera donc un élément plus ou moins probant.

      2/ La falsification est toujours possible, meme pour un papier, c’est pourquoi un document physique, même présenté comme un « original », ne sera pas forcément retenue comme étant une « preuve » absolue. C’est pour ça qu’il faut des éléments rendant la falsification moins probables : signatures, paraphes en bas de pages, tampons, papiers à filigrannes produits celon des techniques maitrisées que par 1 producteur (billets de banque par ex) etc...

      3/ la falsification numérique d’un document numérique étant extrêmement facile, la « valeur de preuve » d’un fichier est moindre, mais pas nulle. Si dans la recherche de preuve il n’y a rien à opposer au fichier, alors il sera pris en compte par la justice.

      4/ c’est pour ça qu’il y a des tiers de confiance qui proposent un « stockage à valeur probant » (le plus connu en fr étant Arkhineo, filiale de la caisse des dépots et consignation). Il s’agit d’un tiers qui conserve un hash d’un document lui permettant de certifier qu’un fichier qu’on lui présente pour authentification qcq années après son émission est bien celui qui lui a été remis à l’origine e par tel ou tel tiers.

      Donc pour posséder une version numérique d’un document ayant une valeur probante significative, il faut que celui ci ait été dès le départ au format numérique et que l’organisme qui l’a produit le transmette à un tiers de confiance proposant un stockage probant, le tout en respectant bien sur une série de normes.

      Une autre solution serait la numérisation à valeur probante pour envoi certifié à un tiers de confiance (un peu comme la photocopie certifiée conforme à la mairie), mais je ne sais pas si un tel service existe.

      Pour info la mise en place d’un stockage à valeur probante est un objectif pour Cozy Cloud et on regarde à faire ça avec la poste (mais honnêtement on est à une phase très prospective sur ce point)

      En tout cas moi aussi je rêve de dématérialiser toute ma paperasse, le mouvement est en cours, mais ça va prendre encore un peu de temps....

    • @benjamin1 : je ne parlais pas tant de l’authenticité des éventuels documents virtualisés que de la protection de l’accès à ces documents, de la garantie que je suis le seul à décider de ce qu’il advient d’eux, ce qui est le cas pour mes documents papier, fussent-ils des faux grossiers. Le problème de l’authentification est un des éléments de l’équation mais ce n’est qu’un des éléments techniques (technique au sens large) à gérer en cas de besoin pour la section administrative de mes documents virtuels.

      Il me semble que l’essentiel des questions préliminaires qu’on veut régler quand on envisage de se « cloudifier », c’est celui du statut et de la propriété de ce qu’on envoie dans le nuage. En tous cas en ce qui me concerne, c’est le principal facteur qui limite pour le moment ma virtualisation à mes supports physiques personnels : c’est carrément nul en terme de disponibilité et d’accessibilité, mais en terme de protection et de confidentialité aucune solution à ma connaissance n’est à l’heure actuelle en mesure de m’assurer une garantie équivalente. Et c’est bien la motivation principale du post initial de Stéphane Bortzmeyer.

      Si je fais héberger dans le cloud une instance numérique de ma feuille de paie*, en louant un espace à un prestataire, je ne veux le faire que si j’ai la garantie absolue de pouvoir tout récupérer quoiqu’il arrive (sauf catastrophe majeure). En gros, j’exige que le propriétaire de l’appartement que je loue ne fouille pas dans mon appartement dans mon dos et me laisse tout récupérer à l’échéance du bail, quelqu’en soit la raison.

      Analogie qui est le point de départ de l’idée de la souveraineté de l’État sur un territoire numérique, parce que c’est elle qui assure l’inviolabilité de mon domicile dans les nuages.

      * (je fais pas une fixette sur la feuille de paie, c’est évidemment valable pour tout le reste, photos, emails, etc..., mais la fiche de paie a besoin de pérennité, de disponibilité, de confidentialité, voire d’authentification, donc c’est un bon résumé des spécifications cloudesques)

  • Contre le dogme du « cloud »

    Le projet Dead Drops milite pour décentraliser le partage des informations.

    A l’âge de la mondialisation et de la centralisation des données — notamment à travers le cloud, ce « nuage » qui réunit tous les fichiers sous un même hébergeur —, un internaute réfractaire, l’artiste berlinois Aram Bartholl, a lancé, il y a trois ans, son projet Dead Drops comme un cri de rébellion contre la régulation du partage de l’information.

    Le projet, que l’on peut traduire par « boîte aux lettres morte », s’inspirant d’un procédé utilisé par des espions pour s’échanger des informations sans se rencontrer, consiste à installer une clé USB dans un lieu public — coffrée dans un mur ou des marches d’escalier, l’aspect le plus important étant sa facilité d’accès, l’utilisateur devant être mis en condition de l’atteindre sans difficulté.

    Ensuite, il n’y a plus de règles : il incombe à ceux qui accèdent au périphérique d’ajouter et de prendre ce qu’ils désirent, que ce soit des images, des films ou de la musique ; peu importe, car le concept du projet est de créer un réseau inaccessible via le web, et donc anonyme et sans restrictions.

    Alors qu’aucun site internet n’est à l’abri du piratage et donc du vol de données, les clés Dead Drops, auxquelles il est possible d’accéder uniquement en y connectant un ordinateur portable, font preuve d’une sécurité digne du nom que le projet emprunte : il est littéralement impossible de savoir ce qu’elles contiennent sans se rendre sur place et télécharger les données.

    TROIS EMPLACEMENTS A GENEVE

    Il existe désormais plus de mille clés disséminées à travers le monde, dans des pays aussi peu reliés à l’internet que le Ghana (4,2% de la population) et le Sénégal (17,5%), dont les périphériques installés renferment des secrets peut-être modestes, mais certainement très bien gardés.

    Ce succès planétaire est rendu possible par l’extrême simplicité du processus ; il n’existe en effet aucune organisation propre au projet, chacun étant invité à installer sa propre clé puis à indiquer son emplacement et sa capacité de stockage sur le site conçu à cet effet par Aram Bartholl : www.deadrops.com.

    Grâce à l’aide de nombreux sympathisants bénévoles, Dead Drops a fait ses humbles débuts avec deux clés USB installées à New York en octobre 2010. Il a ensuite rallié à sa cause de nombreux adhérents.

    Il étend aujourd’hui ses ramifications jusqu’en Suisse, où l’on peut trouver quelque trente clés plantées dans des endroits divers, dont trois ayant élu domicile à Genève, l’une à la rue des Maraîchers 11, l’autre à la rue des Savoises 12, la troisième au numéro 1 du chemin du Château de Bellerive.

    On y trouve les fichiers que les internautes rebelles souhaitent partager : des films piratés, des fonds d’écran, etc. Certains y déposent aussi des documents moins « conventionnels », comme des plans de circuits imprimés ou des pièces de théâtre.

    Le contenu est régi par l’utilisateur, et bien qu’il ne soit pas exclu qu’un « vandale » décide d’effacer toutes les données d’une clé, ou d’y injecter un virus, c’est la première fois que le dogme du cloud est attaqué frontalement pour son caractère centralisateur.

    Et ce, au nom de l’idéal de la libre circulation des informations.

    Fred Tassin

    http://www.lacite.info/contre-le-dogme-du-cloud

    #cloud #information #dead_drops #LaCité #partage

  • Excellent article officiel sur la spectaculaire panne de #CloudFlare (voir notamment leur beau graphique au début de l’article) qui a coupé l’accès à tant de sites Web aujourd’hui.

    http://blog.cloudflare.com/todays-outage-post-mortem-82515

    J’en tire plusieurs leçons :

    1) La dépendance de tant de sites vis-à-vis d’un seul fournisseur n’est pas une bonne chose. Point déjà signalé en http://www.sebsauvage.net/rhaa/index.php?2012/01/23/13/42/15-cloudflare-le-syndrome-akismet

    2) Les outils permettant de gérer simplement N machines sont à la fois indispensables et dangereux. (L’équivalent de #Flowspec que cite l’article, pour une machine Unix, serait #Chef, #Puppet ou #Ansible, avec lesquels des catastrophes équivalentes sont possibles) Lorsque ces outils déconnent, ils transforment une panne locale en un problème mondial. Gérer à la main 1 000 routeurs n’est évidemment pas réaliste. Les gérer tous « comme un seul routeur » expose à des pannes comme celle d’aujourd’hui. Sur la liste FRnog, Frédéric Dhieux a formulé une idée intéressante : avoir N (avec N >= 2) groupes de routeurs gérés de manière différente par des équipes différentes.

    Un article moins technique : http://techcrunch.com/2013/03/03/cloudflare-is-down-due-to-dns-outage-taking-down-785000-websites-includi

    Et un exposé sur l’utilisation de Flowspec à CloudFlare. Il doit être très lu aujourd’hui :-) http://www.slideshare.net/junipernetworks/flowspec-bay-area-juniper-user-group-bajug

    Une présentation de FlowSpec en français : http://media.frnog.org/FRnOG_18/FRnOG_18-6.pdf

    #résilience #Internet #maya2012 #transparence

    • je trouve ça intéressant, il faudrait argumenter plus si tu crois que c’est une fausse bonne idée … car au moins en hiver, on chauffe…

    • Imaginons un instant l’impact lié à l’installation des dits systèmes : impact financier mais aussi environnemental pour produire ces installations. Sans oublier les réseaux pour acheminer les calories produites à l’endroit voulu. Pour moi, c’est une usine à gaz et le bénéfice obtenu (la chaleur récupérée donc le carbone émis en moins) est plombé par l’énergie dépensée à produire et installer les systèmes de récupération et d’acheminement qui vont également nécessiter une maintenance. On ne risque rien en testant le système mais de là à dire qu’on va sauver la planète ...

    • l’idée de #recycler la chaleur produite par l’#informatique n’est pas plus idiote que celle de recycler le plastique — entendu que, pour sauver la planète, mieux vaudrait éviter de produire du plastique

      mais bien sûr si l’objectif est de sauver la planète c’est de toute façon mal barré, et on sait que l’#effet_rebond jouera toujours contre les (vraies ou fausses) bonnes idées en matière d’économies d’énergie

      #radiateur #chauffage #cloud

    • Oui, c’est vraiment une goutte pour éviter le gaspillage d’énergie des Data center (leur refroidissement c’est aussi des tuyaux et toute une installation). Après on peut se questionner sur Disney (#greenwashing ?) et l’essence destructrice de la production industrielle, ou de la pensée productiviste en général.

      Enfin, personne ne bouge non plus sur des absurdités comme la production calorifère électrique, je pense aussi au refroidissement des centrales nucléaires qui part réchauffer l’eau et l’air en étant sciemment non récupéré.

    • @touti
      Le chauffage électrique : brûler des combustibles fossiles ou casser des atomes pour faire bouillir de l’eau dont la vapeur ira mettre un mouvement une turbine couplée à un alternateur qui produira l’électricité laquelle en bout de course sera transformée en ... chaleur ! Euh ! Est-ce bien rentable ? Sans parler des déperditions occasionnées par le transport par câbles de ladite électricité.

    • @touti
      Ah, non ! Pas de problème. C’était juste pour illustrer ton propos. :-). Et tout converge pour nous montrer que EDF exerce toujours un lobbying assidu auprès des gouvernements.
      Juste une petite anecdote :
      En 1987, je louais un appartement dans une ancienne école. 80 m2, des pièces de 3 m de haut, pas d’isolation ni de doubles vitrages. Pour se chauffer ... des convecteurs électriques (type « grille-pain » du genre je pousse le thermostat à fond pour me cailler les sangs).
      Un abonnement EDF de folie : 25 ampères triphasées genre ça te coûte un bras rien qu’en abonnement. Venant d’aménager, j’étudie la consommation pendant une semaine : une horreur, mon salaire n’aurait pas suffi pour payer la facture. J’ai donc rebranché sur une cheminée existante après quelques travaux de maçonnerie mon poêle à bois que j’avais emmené dans mes valises et j’ai acheté à un ferrailleur local une vieille cuisinière à bois car l’hiver en Bourgogne, il faut ce qu’il faut. Et bien sûr, j’ai fait baisser l’ampérage à 15 A par phase au compteur électrique, ce qui n’a pas été sans poser quelques problèmes car sur chaque phase, on était limité en puissance disponible.

    • Oui @sombre, j’aimerais d’ailleurs trouver une carte (cartographes de seenthis à la rescousse ?) de france avec la consommation d’électricité sur l’ensemble du territoire.
      Je suis quasi certaine qu’elle sera homogène car la pensée domine que « dans le sud on ne se chauffe pas l’hiver » et fait qu’il n’y a pas d’isolation correcte des habitations !

      Résultats : je paye une fortune à Toulouse pour faire tourner à plein régime des radiateurs électriques et avoir très froid, comble de la connerie, mon proprio a fait passer les fils électriques dans la cheminée !!

    • Ah merci @simplicissimus, je ne t’avais pas vu !
      ça se corse, car effectivement il faudrait extraire ce qui est de la consommation des ménages, avec un chauffage à 23% de leur consommation contre 34,5% pour les consommations audiovisuelle et informatique réunies (!!) puis pondérer cette consommation par le nombre d’habitants…

      http://www.developpement-durable.gouv.fr/La-maitrise-des-pointes-de.html

    • Extrait du Bilan prévisionnel 2012 de l’équilibre offre-demande d’électricité en France
      http://www.rte-france.com/uploads/Mediatheque_docs/vie_systeme/annuelles/bilan_previsionnel/bilan_complet_2012.pdf

      Zoom sur le secteur résidentiel
      À l’inverse, le poids du secteur résidentiel dans la consommation électrique ne cesse de progresser, porté par :
      • Un nombre de ménages, et donc de logements, qui croît régulièrement avec des taux de croissance supérieurs à ceux de la population, signe d’une baisse du nombre d’habitants par logement (2,3 personnes par ménage en 2008 contre 2,6 en 1990). Cette baisse traduit notamment le vieillissement de la population et un changement dans les modes de cohabitation avec une proportion plus importante de personnes vivant seules et une augmentation du taux de familles monoparentales.
      • Une forte croissance de la consommation résidentielle d’électricité spécifique9 liée notamment au développement important de nouveaux usages ainsi qu’à une évolution des comportements entraînée par le développement des technologies de l’information et de la communication (TIC).
      • Le développement soutenu du chauffage électrique dans la construction résidentielle, catalysé par la forte hausse du prix des énergies fossiles, avec des parts de marché qui ont atteint 73 % en 200810, dans une période où, en sus, le marché de la construction neuve a été particulièrement dynamique.
      Une tendance à la baisse a toutefois été largement amorcée du fait de l’anticipation de la RT 201211, stimulée par les dispositifs fiscaux de la loi Scellier, qui a orienté les choix des promoteurs vers d’autres options, faisant baisser la part de marché de l’électricité dans la construction neuve à 43 % en 201112.
      • Les transferts entre énergies ont également pesé sur les évolutions de la demande électrique : de façon concomitante avec l’envolée des parts de marché de l’électricité dans la construction neuve, les substitutions du mode de chauffage vers l’électricité ont crû fortement sur le parc de logements existants, au travers notamment de l’essor des pompes à chaleur, dont les ventes annuelles se sont envolées entre 2005 et 2008 (graphique ci-dessous). Cette expansion rapide a été catalysée par la mise en place de crédits d’impôts et par la hausse continue du prix du baril de pétrole entre 2004 et l’été 2008. À partir de 2009, les effets conjugués de la crise économique et de la réduction progressive du crédit d’impôt se sont traduits par une contraction du volume des ventes. De même, des transferts d’usage sont également constatés sur la production d’eau chaude sanitaire (souvent corrélée au système de chauffage) et sur la cuisson.

      Note : La Réglementation Thermique 2012 (RT 2012) limite les consommations du chauffage, de la production d’eau chaude sanitaire, de l’éclairage, de la climatisation et de la ventilation à 50 kWh d’énergie primaire par m² et par an en moyenne (selon les logements).
      Le facteur de conversion d’un kWh électrique en kWh primaire étant de 2,58, ce seuil de consommation équivaut à 19,3 kWh/m²/an d’énergie finale pour l’électricité. Cette réglementation s’applique aux logements résidentiels à partir du 1er janvier 2013.

  • Débat : 9 points (ou tabous ?) jamais (ou rarement) discutés dans le #logiciel_libre - Framablog
    http://www.framablog.org/index.php/post/2013/02/08/9-tabous-open-source

    1. #Ubuntu n’est plus le dernier grand espoir de l’#open_source
    2. Le « #cloud computing » sape les licences libres
    3. Richard Stallman est devenu un atout contestable
    4. L’open source n’est pas une méritocratie
    5. L’open source est gangrené par un #sexisme systémique
    6. #Microsoft n’est plus l’ennemi irréductible du logiciel libre
    7. L’innovation des interfaces stagne
    8. L’open source est en train de devenir une monoculture
    9. Le logiciel libre est bloqué si près de ses objectifs

  • Pétition demandant le dégroupage du « cloud souverain », c’est-à-dire concrètement, que des acteurs efficaces et motivés puissent se servir des machines du défunt projet Andromède pour enfin en faire quelque chose.

    http://www.avaaz.org/fr/petition/Degroupage_du_Cloud_souverain_francais_1

    Personnellement, je suis entièrement d’accord avec les prémices (le cloud souverain est un gaspillage d’argent public, qui n’a servi qu’à arroser quelques gros dinosaures bien placés dans les allées du pouvoir, et qui se sont montrés d’une inefficacité totale, c’est le Quaero moderne).

    Mais j’hésite encore sur la solution proposée (le dégroupage). Faudrait-il plutôt une nationalisation (sans indemnités, vu l’argent public déjà dépensé) ? Ou simplement arrêter les frais ?

    À noter que la pétition est proposée par des acteurs du logiciel libre (AFUL, SlapOS) et des entreprises (Gandi).

    Une bonne synthèse sur le cloud souverain : http://fluxetfixe.wordpress.com/2012/10/27/cloud-national SeenThis en avait déjà causé : http://seenthis.net/messages/92311 et http://seenthis.net/messages/66582

    #cloud #Andromède #Numergy #Cloudwatt

  • International data transfers: EU urged to scrap use of binding corporate rules and model contract clauses in cloud computing amidst concerns over US surveillance of data
    http://www.out-law.com/en/articles/2013/january/eu-urged-to-scrap-use-of-personal-data-measures-for-cloud-computing-amid-us

    The report, ordered by the European Parliament’s Committee on Civil Liberties, Justice and Home Affairs (LIBE), said that the EU had created “derogations” from traditional rules governing international transfers of #personal_data that, in a #cloud_computing context, could not adequately protect the #privacy of that information. It said BCRs and model contract clauses were examples of the ’derogations’ created and that both are were “equally unsuitable to prevent the use of #cloud #data for #surveillance purposes”.
    http://www.europarl.europa.eu/committees/en/libe/studiesdownload.html?languageDocument=EN&file=79050

    “Both the [Article 29 Working Party] and the Commission place great faith in ’audit’ procedures to ensure Cloud services are compliant, but no commercial audit methodology can seek to uncover secret surveillance which is ’lawful’ under the national security rubric of a third country (especially if that audit is conducted by a company from that country). There is no way that an EU DPA can know whether this is happening or not, if the Cloud software fabric is designed and controlled from outside EU jurisdiction.”

  • Les Etats-Unis, en route pour cybersurveiller toute la planète
    http://www.01net.com/editorial/583941/les-etats-unis-en-route-pour-telesurveiller-toute-la-planete
    via twitter@noirdefi #surveillance #big-brother #cloud #google

    Le Parlement européen révèle que les services gouvernementaux américains ont le droit de surveiller toutes données accessibles en ligne, notamment celles stockées dans les services cloud américain, comme ceux de Google ou d’Apple.

  • Une puce GPS moins énergivore grâce au cloud computing
    http://www.futura-sciences.com/fr/news/t/technologie-1/d/une-puce-gps-moins-energivore-grace-au-cloud-computing_43848/#xtor=RSS-8

    Des chercheurs de Microsoft affirment réduire d’un facteur 2.000 l’énergie consommée par une puce GPS en diminuant drastiquement la quête et le traitement des informations émises par les satellites. Le reste des données nécessaires est collecté et traité sur des serveurs …

    Source : Futura-Sciences

    #GPS #cloud_computing #Microsoft #satellite #géolocalisation #smartphone #batterie #Cloud-Offloaded_GPS #CO-GPS #Nasa #Windows_Azure #NGS #National_Geodetic_Survey #National_Oceanic_and_Atmospheric_Administration #National_Geospatial-Intelligence_Agency #NGA #éphéméride #CLEO #Cultivating_the_Long_tail_in_Environmental_Observations #Maxim_MAX2769 #microcontrôleur #Texas_Instruments #WWVB

  • FISA renewal: Report suggests spy law allows mass #surveillance of European citizens.
    http://www.slate.com/blogs/future_tense/2013/01/08/fisa_renewal_report_suggests_spy_law_allows_mass_surveillance_of_european.htm

    [the report author is] Caspar Bowden, who was formerly chief privacy adviser to Microsoft Europe.

    According to Bowden, the 2008 FISA amendment created a power of “mass surveillance” specifically targeted at the data of non-U.S. persons located outside America, which applies to cloud computing. This means that U.S. companies with a presence in the EU can be compelled under a secret surveillance order, issued by a secret court, to hand over data on Europeans. Because non-American citizens outside the United States have been deemed by the court not to fall under the search and seizure protections of the Fourth Amendment, it opens the door to an unprecedented kind of snooping. “It’s like putting a mind control drug in the water supply, which only affects non-Americans,” says Bowden. The lack of attention European data protection authorities have paid to this provision has been “shocking,” Bowden adds.

    #etats-unis #europe #cloud_computing

  • Ben Pring : Construire une entreprise « Social » : la clé du succès au 21ème siècle
    http://www.huffingtonpost.fr/ben-pring/avenir-entreprise-social_b_2237549.html

    Tout comme le numérique, le travail peut être dématérialisé, mobile, effectué partout, à tout moment et avec des outils à l’image des normes, styles et valeurs du monde moderne. Cela ne concerne d’ailleurs pas simplement le travail, mais tout ce qu’il est possible de numériser. Barnes & Noble, Blockbuster, Newsweek, American Airlines, et Kodak, pour ne citer qu’eux, sont des exemples de marques célèbres qui n’ont pas su interpréter les premiers signaux d’alarme annonçant la transposition de la valeur vers le numérique.

    #numérique #entreprise #économie #cloud

  • When It Comes to Security, We’re Back to Feudalism | Wired.com
    http://www.wired.com/opinion/2012/11/feudal-security

    In this new world of computing, we give up a certain amount of control, and in exchange we trust that our lords will both treat us well and protect us from harm. Not only will our software be continually updated with the newest and coolest functionality, but we trust it will happen without our being overtaxed by fees and required upgrades. We trust that our data and devices won’t be exposed to hackers, criminals, and malware. We trust that governments won’t be allowed to illegally spy on us.

    Trust is our only option. In this system, we have no control over the security provided by our feudal lords. We don’t know what sort of security methods they’re using, or how they’re configured. We mostly can’t install our own security products on iPhones or Android phones; we certainly can’t install them on Facebook, Gmail, or Twitter. Sometimes we have control over whether or not to accept the automatically flagged updates – iPhone, for example – but we rarely know what they’re about or whether they’ll break anything else. (On the Kindle, we don’t even have that freedom.)
    The Good, the Bad, and the Ugly

    I’m not saying that feudal security is all bad. For the average user, giving up control is largely a good thing. These software vendors and cloud providers do a lot better job of security than the average computer user would. Automatic cloud backup saves a lot of data; automatic updates prevent a lot of malware. The network security at any of these providers is better than that of most home users.

    • Pour moi c’est surtout un texte qu’il faudrait donner à lire à tous les membres des assemblées nationales afin qu’ils comprennent comment encore une partie de leur pouvoir passe entre les mains d’institutions qui échappent à tout contrôle démocratique.
      #féodalisme

    • The network security at any of these providers is better than that of most home users.

      (…)

      C’est faux, l’idée de sécurité est un leurre, 2020 : macron donne a microsoft nos données médicales à stocker dans son Health Data Hub.

      C’est faux, l’idée de sécurité est un leurre, 2024 : france travail laisse filer 20 ans de données de plus de 43 millions de personnes.

      (…)

      Le concept de sécurité est si facile à agiter devant nos peurs ancestrales, celle de l’inconnu d’abord. Toutes les politiques sécuritaires sont les chevaux de troie d’un monde d’extrême droite mortifère, permettent la diminution de nos capacités communes d’autonomie, rendent nos cerveaux incapables de s’organiser en intelligence collective, ruinent toute idée de société d’entraide et empêchent toute opposition. Et nous continuerons à en devenir les instruments béats et impuissants à croire que nos données sont en sécurité dans les grands coffres-forts des châteaux de nos saigneurs.

  • Quand le gouvernement US s’arroge le droit de lire nos données personnelles - Framablog
    http://www.framablog.org/index.php/post/2012/11/05/megaupload-gouvernement-americain

    Megaupload était une système de partage de fichiers techniquement neutre. Oui, il contenait beaucoup de contenus enfreignant les lois sur le copyright. Mais il y avait également des utilisateurs qui y plaçaient leurs propres ressources dans la plus stricte légalité et qui se sont retrouvés du jour au lendemain dans l’incapacité d’y accéder lorsque le gouvernement américain a fait fermer Megaupload.

    C’était le cas de Kyle Goodwin qui a déposé un recours pour tenter de les récupérer.

    Mais le gouvernement américain ne l’entend pas de cette oreille en choisissant volontairement de mettre des bâtons dans les roues de la procédure. Pire encore il se permettrait d’aller fouiller sans autorisation dans le feu compte Megaupload de Kyle Goodwin afin d’y trouver d’éventuelles preuves d’une quelconque culpabilité (comme par exemple y puiser un fichier illégal).

    • ce n’est plus le seul problème de Kyle Goodwin avec Megaupload qui est en jeu ici, c’est le devenir de toutes les données personnelles que nous mettons dans le cloud computing, puisque rien ne semble empêcher demain le même gouvernement d’aller fouiller sans vous prévenir dans votre compte Google, Apple ou Amazon !

      #surveillance #répression #internet #cloud

  • Scandaleux dossier du Monde daté 23 octobre (rubrique "éco & entreprise") à propos du cloud. Éditorial chauvin et mensonger (reprenant la légende d’un Internet qui n’avait pas de lois avant que la civilisation n’arrive), suivi de deux pages de publi-reportage (mais non marqué comme tel) pour les dinosaures du cloud gaulois, #Numergy et #Cloudwatt (qui sont au cloud ce que le défunt Quaero était aux moteurs de recherche).

    Des entreprises françaises qui font effectivement du cloud (au lieu de faire du lobbying et du public relations), seule OVH est citée, et sans mentionner qu’ils ont une offre cloud ! Beau travail d’enquête.

    (Page suivante, l’article sur Yammer est également un pur publi-reportage, qui reprend le dossier de presse de l’entreprise, et ses prévisions - « la fin du mail est proche » - sans aucune nuance.)

    Bref, Laurent Joffrin a tort, la presse française est vraiment pourrie jusqu’à la moëlle et mérite que Google la déréference.

  • hubiC et Apple
    http://forum.ovh.net/showthread.php?p=516915

    Bonjour,
    Depuis environ 3 mois, on n’arrive plus à valider
    la nouvelle Apps Hubic au près d’Apple. Cette
    nouvelle Apps comporte les bugs fixes et les
    nouvelles fonctionnalités (sync).

    Le problème qu’Apple évoque est que comme hubiC
    est une offre stockage Cloud et qu’on commerciale
    les offres payantes, ces offres payantes doivent
    obligatoirement être proposées via iTunes !!
    C’est extrement surprenant puisqu’aucun de nos
    concurrents autre que Apple n’est pas obligé de
    le faire. Visiblement Apple cherche à vendre leur
    iCloud ou sinon avoir 30%" de chiffre d’affaire
    de tous les autres stockage dans le Cloud qui
    ne sont pas amercains !

    #ovh #cloud #apple #vie_privée

  • L’État, on le sait, a un projet de #cloud souverain, franco-français, notamment pour éviter d’héberger des données sensibles chez des prestataires états-uniens.

    Dans la plus pure tradition française, la méthode choisie pour créer ce cloud souverain a été d’ignorer les entreprises françaises qui faisaient du cloud depuis des années (comme OVH ou Gandi) et d’arroser de subventions des vieux dinosaures incompétents dans ce domaine (mais ayant de bonnes connexions au gouvernement).

    http://www.zdnet.fr/actualites/cloud-andromede-un-projet-sans-avenir-qui-deshabille-les-acteurs-en-place-3977

    http://www.usinenouvelle.com/article/interxion-doute-du-succes-de-numergy-et-cloudwatt-dans-le-cloud.N1841

    http://pro.clubic.com/it-business/cloud-computing/actualite-517019-numergy-cloudwatt-inventent-brique-56-tribune-pierre-fo

    #Numergy #Cloudwatt