company:ibm

  • Révolution quantique (3/5) : l’arme fatale de l’informatique future
    https://www.mediapart.fr/journal/culture-idees/030816/revolution-quantique-35-l-arme-fatale-de-l-informatique-future

    Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite, et IBM, Google et Microsoft sont lancées dans une « course aux armements » de l’intelligence artificielle. Mais le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle.

    #Culture-Idées #Informatique_quantique #ordinateurs #physique_quantique #sciences

  • Loi sur la biodiversité + nouvelle offre d’accès aux contenus TV + Open Innovation Initiative | Freezone
    https://asso.libre-a-toi.org/emission/09-freezone

    Avancées : le parlement est en train de terminer cette semaine l’examen de la loi sur la biodiversité. Comment est-ce que la propriété intellectuelle a pu en arriver à se saisir ainsi du vivant et en quoi cette loi pourrait contribuer à en limiter les dérives ?

    Offre légale : Une nouvelle offre d’accès aux contenus de la télévision a été lancée cette semaine avec Molotov.tv. En quoi est-ce représentatif d’une certaine errance des politiques culturelles et des impasses de la réforme du droit d’auteur ?

    Pépite libre : On a appris cette semaine que Toyota avait choisi de rejoindre l’Open Innovation Initiative (OIN), qui regroupe des firmes comme Google, Phillips, Sony ou IBM pour contribuer au développement de logiciels libres. Durée : 24 min. Source : (...)

    https://asso.libre-a-toi.org/wp-content/airtime/imported/1/FRE/09-FRE-freezone_16-07-16.mp3

  • A IBM, les licenciements continuent : les assistantes interrompent le CCE
    https://paris-luttes.info/a-ibm-les-licenciements-continuent-6313

    Avec pas moins de 4 articles en 2016 consacrés aux licenciements à IBM vous êtes un peu au courant de la situation sociale chez le géant de l’informatique. Voici les dernières nouvelles de la lutte des 102 assistantes contre leur transfert (projet Gallium) vers Manpower Group Solutions (filiale de (...) — Salariat - précariat, grèves, région parisienne

  • Le Pentagone utilise toujours des disquettes pour gérer son arsenal nucléaire
    http://www.latribune.fr/economie/international/le-pentagone-utilise-toujours-des-disquettes-pour-gerer-son-arsenal-nuclea


    (note : l’illustration de La Tribune représente des disquettes 3,5 pouces (1984) au lieu des 8 pouces (1967))

    Un rapport du GAO (l’équivalent de la Cour des Comptes) américain, a analysé les dépenses en informatique des différents ministères américains. La conclusion est surprenante car la plupart des systèmes informatiques sont archaïques et coûtent très chers à l’administration américaine.
    Au sein du ministère de la Défense américain, la disquette, lancée par IBM en 1967, ne semble pas avoir subi la concurrence des nouveaux modes de stockage comme le CD, la carte mémoire ou la clé USB. Un rapport publié le 25 mai par le Government Accountability Office (GAO), révèle que le ministère de la Défense des Etats-Unis utilise des technologies obsolètes comme les disquettes pour coordonner l’arsenal de missiles balistiques et les bombardiers nucléaires.

    L’ancêtre du CD continue d’être utilisé car les ordinateurs sur lesquels il est utilisé "fonctionnent toujours", rapportent les agences fédérales. L’outil est adapté au système informatique : des ordinateurs IBM Série 1 qui datent des années 1970.

  • Les Etats-Unis en sont encore aux disquettes pour gérer leur arsenal nucléaire

    http://www.lemonde.fr/big-browser/article/2016/05/26/les-etats-unis-en-sont-encore-aux-disquettes-pour-gerer-leur-arsenal-nucleai

    Pour coordonner leur arsenal de missiles balistiques situés un peu partout sur la planète et leurs bombardiers nucléaires, les Etats-Unis utilisent encore des ordinateurs datant du début des années 1970, un système obsolète qui fonctionne avec des disquettes de 8 pouces.

    Ces révélations un peu embarrassantes sont apparues dans un rapport du Government Accountability Office, l’équivalent de la Cour des comptes, qui faisait le bilan du parc informatique vieillot du gouvernement fédéral.

    Plusieurs départements et agences ne sont pas vraiment entrés dans le XXIe siècle, mais aucun comme le département de la défense, dont le Strategic Automated Command and Control System (SACCS), qui coordonne l’utilisation des armes nucléaires, tourne avec « un ordinateur IBM Series-1, qui utilise des disquettes de 8 pouces », un objet qui était déjà obsolète quand la disco était encore populaire.

    Le GAO appelle ça des « legacy systems », littéralement des systèmes hérités d’une autre époque que personne n’a jamais réussi à remplacer.

    Une porte-parole du Pentagone a expliqué la raison pour laquelle des ordinateurs préhistoriques sont toujours en utilisation dans les bâtiment fédéraux les plus sécurisés :
    « Le système est toujours opérationnel parce que, pour résumer, il fonctionne encore ».

    Elle a ajouté que pour « prendre en compte les inquiétudes sur le risque d’obsolescence [sic] les disquettes doivent être remplacées avec un système digital d’ici la fin 2017 ».

  • L’#intelligence_artificielle et ses applications sont le nouveau Graal poursuivi par Google, Apple et consorts (Sarah Belouezzane et Sandrine Cassini, Le Monde, 23/05/2016) http://www.lemonde.fr/pixels/article/2016/05/21/les-nouveaux-terrains-de-jeu-des-geants-du-net_4923766_4408996.html

    Dans la #Silicon_Valley, on appelle ça « The Next Big Thing ». L’expression désigne la prochaine révolution à ne pas rater pour les géants du high-tech. Cette semaine, Google a annoncé à l’occasion de I/O, sa conférence annuelle consacrée aux développeurs, une série d’innovations dépassant largement ses terrains de jeu habituels que sont le PC et le smartphone. Nouveau terminal pour la maison, masque de réalité virtuelle, nouvelle messagerie, le moteur de recherche fait feu de tout bois. En toile de fond de ces innovations, l’intelligence artificielle qui promet une amélioration substantielle du fonctionnement des logiciels. Google n’est pas le seul à chercher le Saint-Graal. Facebook, Amazon, Microsoft sont aussi sur ses traces.

    La maison Google va rapidement commercialiser Home. Cet appareil, sorte de mini-enceinte, sera capable de répondre aux questions des utilisateurs, voire d’accomplir certaines tâches comme envoyer un e-mail, prendre un rendez-vous ou lancer un morceau de musique. « Google assure que la combinaison de son expérience en matière de traitement du langage, associée à de l’intelligence artificielle et à sa connaissance de l’utilisateur, lui permettra de devancer le marché. En tout cas, cela montre que Google veut trouver sa place entre l’utilisateur et ses marques préférées », pointe Julie Ask, analyste chez Forrester Research.

    En revanche, on ne connaît pas encore la date de sortie, ni le prix de l’appareil. Mais Google tente ainsi de rattraper Amazon, qui a une longueur d’avance avec Echo. Le petit appareil du géant de l’e-commerce répond également à la voix, et permet de commander ses courses ou de réserver une voiture, type Uber ou Lyft.

    Les succès de WhatsApp et de Snapchat ont ravivé les appétits pour les outils de communication. Cette semaine, Google a présenté Allo, messagerie intelligente capable de faire des réponses toutes prêtes. Si l’on reçoit la photo d’un chien, par exemple, l’outil pourra proposer de demander de quelle race il s’agit. L’outil, conçu pour s’améliorer au fur et à mesure qu’il est utilisé (sur la base du « #machine_learning »), pourra aussi être connecté à d’autres applications, comme OpenTable par exemple, site de réservation de restaurant. Google tente ainsi de rattraper Facebook, qui a lancé dans Messenger ses « chatbots », des outils de conversation intelligents. Les chatbots de Messenger ont attiré une kyrielle de marques qui proposent leurs services (bancaires, réservations de train, d’avion, etc.). Ces messageries d’un nouveau genre permettent aux deux géants du Web de renouveler leur relation avec les entreprises, et de faire évoluer leur modèle économique. Ces outils restent encore expérimentaux. « Même si les démos sont impressionnantes, nous n’avons pas encore vu d’expériences suffisamment convaincantes qui pousseraient les internautes à abandonner les applications classiques au profit de ces services », dit Julie Ask de Forrester.

    La réalité virtuelle éveille de nombreux appétits. Google a annoncé mercredi 18 mai le lancement à l’automne de Daydream, une nouvelle plate-forme mobile consacrée à la réalité virtuelle dont pourront s’emparer les fabricants de casques. Le moteur de recherche promet une meilleure qualité d’image et la possibilité d’accéder à ses applications phares telles que YouTube. Il pourra ainsi concurrencer Facebook. Le moteur de recherche souhaite ainsi décliner le succès d’Android, son système d’exploitation qui équipe 80 % des smartphones dans le monde.

    Facebook, très avancé sur le sujet, a fait sensation lors du Mobile World Congress en février, lorsque Mark Zuckerberg a traversé une salle remplie d’une centaine de personnes équipées au préalable de son casque Oculus. Tellement absorbé par cette expérience, le public n’a pas remarqué l’arrivée de l’emblématique président du réseau social. De son côté, le champion coréen de l’électronique grand public Samsung dispose aussi d’un casque dénommé Gear. Une manière selon Ian Fogg, analyste chez IHS, de faire la promotion de ses smartphones haut de gamme : « La réalité virtuelle nécessite de fortes capacités graphiques et des processeurs puissants, c’est donc un moyen utile pour les fabricants de smartphones de pousser les consommateurs à passer aux nouvelles générations de smartphones », souligne l’analyste.

    Microsoft s’est lui, aussi, jeté dans la bataille mais sur un créneau plus particulier : celui de la réalité augmentée. En 2016, la firme de Redmond a ainsi lancé Hololens, un casque qui permet d’ajouter du contenu (hologrammes, textes, vidéos) sur le champ de vision de l’utilisateur.

    Google ne l’a jamais caché : pour lui, l’intelligence artificielle est l’avenir de l’informatique. Et risque d’être le coeur de développement des technologies à venir. C’est donc tout naturellement que le sujet s’est retrouvé au coeur de toutes les annonces du groupe. De la domotique à la messagerie, en passant par l’assistant personnel. Deep Mind, le programme d’intelligence artificielle de Google, repose sur une technique appelée le « deep learning », capacité donnée à la machine d’apprendre grâce à un « réseau de neurones artificiel ».

    Cette méthode, le moteur de recherche n’est pas le seul à s’en servir. Tous les géants du Web s’en sont emparés, conscients qu’il s’agit là du terrain sur lequel les batailles technologiques se livreront dans un avenir pas si éloigné que cela. Facebook, par exemple, consacre à la question une équipe de 45 personnes travaillant pour le Facebook Artificial Intelligence Research. Plus discret, Apple a, lui, fait l’acquisition de trois entreprises spécialisées dans le domaine fin 2015. Enfin IBM n’est pas en reste : l’ancienne star des PC reconvertie dans les services a conçu Watson, l’un des ordinateurs les plus puissants du monde.

  • L’imprimante d’IBM saura détecter les infractions au droit d’auteur
    https://www.actualitte.com/article/lecture-numerique/l-imprimante-d-ibm-saura-detecter-les-infractions-au-droit-d-auteur/65016

    Soucieux de la protection du droit d’auteur, IBM a déposé une demande de brevet qui permet d’empêcher l’impression d’un contenu sous copyright. Une technologie assez intéressante, puisqu’elle parviendrait à identifier texte ou image soumis au droit d’auteur : une fois le contenu vérifié, impossible même de le copier.

    #censure #flicage #copyright

  • IBM : résumé de la dernière AG et nouveau rassemblement jeudi 12 mai
    https://paris-luttes.info/ibm-resume-de-la-derniere-ag-et-5640

    La lutte continue à IBM suite à la dernière AG du 2 mai : encore 200 salarié-es présent-es et des menaces qui se précisent comme l’indique le résumé d’un compte rendu syndical de la dernière AG... D’où le rassemblement jeudi 12 mai à 12h30 au siège à Bois-Colombes (17 avenue de (...) — Gestion Prévisionnelle des Emplois et des Compétences, 1, 2, 3, enquête CGT

  • Linky : lettre à ERDF
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=823

    Samedi 2 avril 2016, à 14 heures, un rassemblement aura lieu devant la mairie de Pont-de-Claix, dont le maire est président de la Métropole grenobloise. Celle-ci étant propriétaire du réseau électrique et des compteurs individuels, il s’agit d’exiger une délibération refusant l’installation des nouveaux mouchards « intelligents » Linky. Depuis 2010, nous avons alerté à maintes reprises contre les compteurs communicants, un des composants de la smart city et de la « planète intelligente » (cf « IBM et la société de contrainte »). Il existe toutes sortes de raisons de s’opposer à Linky ; toutes ne se valent pas, même si toutes valent d’être énoncées. Quant à nous, voici la lettre de refus que nous avons expédiée en recommandé avec accusé de réception au responsable du "service (...)

    #Nécrotechnologies
    http://www.piecesetmaindoeuvre.com/IMG/pdf/linky_-_lettre_a_erdf.pdf

    • Aucun de ces arguments de communication n’est un avantage à nos yeux. Nous considérons nos congénères comme des interlocuteurs préférables aux machines. Nous pensons qu’un monde avec contact est plus vivable, intéressant, réconfortant, humain en un mot, que le monde « à distance » que vous tentez de nous imposer.

      Nous sommes dotés d’un cerveau, équipé des fonctions pour régler les détails pratiques de notre vie sans assistance électronique. Nous ne sommes pas inscrits à la « solution numérique » d’EDF, car nous savons comment réduire notre consommation d’électricité : il suffit de réduire notre consommation d’électricité. Celle-ci est d’ailleurs modeste, et a tendance à diminuer grâce aux mesures que nous avons nous-même décidées, sans votre compteur prétendu « intelligent ».

      Nous ne souhaitons pas que vos services mettent leur nez électronique dans notre intimité. Vous n’avez pas à savoir si nous sommes là et quand, si nous sommes plus nombreux que d’ordinaire, si quoi que ce soit change dans nos habitudes. Nous ne voulons pas que les données liées à notre vie privée soient collectées, ni par vous, ni par quiconque. Afin de prévenir les rituelles objections à cette minime exigence de respect des libertés, nous vous informons que nous n’avons pas de téléphone portable, que nous ne sommes inscrits sur aucun réseau social, que nous ne possédons aucune carte de fidélité. Dès qu’on nous en laisse le choix – tant que ce choix est encore possible – nous préfèrons ne pas.

      #Linky #EDF #ERDF #compteur_intelligent #ville_intelligente #smart_city

  • L’ordinateur est-il en train de devenir quantique ?
    http://www.franceculture.fr/emissions/science-publique/l-ordinateur-est-il-en-train-de-devenir-quantique

    Fantasme des physiciens depuis des décennies, l’ordinateur quantique laisse encore certains spécialistes dubitatifs. Il apparaît pourtant chez IBM ou le canadien D-Wave. Google l’étudie. Le quantique multiplierait par plusieurs millions la puissance informatique. Rêve ou révolution en marche ?

    #Calculateur_quantique #D-Wave #Google #Informatique #Informatique_quantique #International_Business_Machines #Mécanique_quantique #Physique_quantique #Qubit #Recherche_scientifique

  • À l’heure des data center détenus par la NSA ou les GAFAM, bref de la (re)concentration informatique, de l’hyper-concentration, l’argument des #bitcoin et #blockchain comme « #pair_à_pair » ou outils de désintermédiation laisse rêveur. On peut déjà noter que le bitcoin est une régression puisqu’il cherche à contourner la gestion politique de la #monnaie (alors que cela a toujours été le cas et qu’on en est de plus en plus conscient) en revalorisant d’une manière (néo)classique, ou plutôt capitaliste, la « preuve de travail » jugée sur le temps-énergie (#Proof_of_work).

    Ne faudrait-il pas plutôt parler de ré-intermédiation ? Une transformation du système d’intermédiaires, très certainement au bénéfice des propriétaires (de machines, d’énergie, de compétences logicielles, des terrains nécessaires à la production de machines mais aussi des capitaux nécessaires à enrôler-salarialiser les travailleurs indispensables).

    #Bitcoin_Mining Farm Build Out in Iceland - Genesis #Mining
    https://www.youtube.com/watch?v=7A-mcSOGolM

    Je me mets de coté toute une série de critiques qui pointent la consommation énergétique (la production d’ #énergie, encore une industrie connu pour son caractère #décentralisé et #désintermédié) et autres problèmes générés par ces technologies :

    Consommation d’énergie (et de matière) :

    http://seenthis.net/messages/131228

    http://seenthis.net/messages/424376#message424451

    http://seenthis.net/messages/355322#message355337

    http://seenthis.net/messages/137297

    http://seenthis.net/messages/137297#message137543

    éventuelles « solutions » à ce problème (ce sont plus des contournements) :

    http://seenthis.net/messages/280500

    http://seenthis.net/messages/312332

    Des critiques plus globales :

    http://seenthis.net/messages/279395#message279408

    http://seenthis.net/messages/135202

    http://seenthis.net/messages/218268

    http://seenthis.net/messages/468936

    Pour se rendre compte de la désintermédiation et dé-concentration du Bitcoin ces vidéo sont sympas :

    A LOOK INSIDE AMERICA’S LARGEST #BITCOIN_MINING_FARM
    https://www.youtube.com/watch?v=-ihMqEDs4B8

    Life Inside a Secret Chinese #Bitcoin_Mine
    https://www.youtube.com/watch?v=K8kua5B5K3I

    Et ces articles écrits à un moment où moins d’un millième des internautes utilisent le bitcoin ou une technologie similaire

    http://www.e-ducat.fr/cop21-et-blockchain

    Les participants à la Cop21 sont peut être majoritairement persuadés par le discours du lobby bancaire que le minage des bitcoins est un gaspillage énergétique.

    Quand est il vraiment ?
    La puissance de calcul totale du réseau est de 500 milliards de Mhash/sec (à la date d’aujourd’hui, 28 novembre 2015).
    L’efficacité du matériel de minage peut être estimée autour de 2000 Mhash/J.
    La #consommation_électrique totale du réseau bitcoin, disponible dans le monde entier, se situe donc autour de 250 MJ/sec = 250 MWatt, c’est à dire l’équivalent de 100 000 maisons aux Etats-Unis.

    A titre de comparaison, il existe environ deux millions de distributeurs de billets de banque dans le monde, chacun consommant en moyenne 200 Watts, même si les modèles les plus récents affichent une consommation théorique de 70 Watts (source : diebold.com).
    Au final, les seuls ATMs (sans compter les réseaux et data centers auxquels ils sont connectés) consomment donc 400 Mwatts.
    Si l’ impression des billets de banque sur papier de haute qualité et leur transport en camions blindés sont pris en compte, l’adoption de masse de Bitcoin comme cash électronique permettrait de diviser l’empreinte carbone des systèmes de paiement par trois ou quatre.

    Avec un coût moyen de l’ #électricité aux US de 10 cents par Kilowattheure en 2015, on obtient un coût de 25 000 US dollars pour 150 bitcoins générés par heure, soit un coût de “production” de 167 dollars par bitcoin (environ 157 €), environ la moitié du prix de marché des bitcoins à la même date. La différence correspond à la prime d’utilité, présente et future, attribuée aux bitcoins.

    http://www.latribune.fr/technos-medias/20131203trib000799051/bitcoins-une-vraie-planche-a-bruler-de-l-electricite.html

    L’économiste nord-américain Alex Tabarrok signale sur le site Marginal Revolution qu’avec la flambée du cours du bitcoin, ces opérations coûtent en conséquence de plus en plus cher. Il rappelle ainsi :

    « En avril, quand les bitcoins s’échangeaient environ 100 dollars, la consommation d’électricité des ’mineurs’ de bitcoins atteignait le niveau stupéfiant de 1000 mégawatts/heure par jour, assez pour fournir de assez pour fournir de l’énergie à 31.000 foyers américains. »

    Cela représentait également 150.000 dollars par jour, en prenant en compte le tarif moyen de 15 cents par #kilowatt-heure et sur la base de 650 watts consommés par opération de minage.

    Huit mois plus tard, suivant ces estimations, ce coût a été multiplié par… 100 ! Au 3 décembre 2013, le coût en électricité estimé par la plateforme précédemment citée Blockchain pour le minage est en effet de 15,3 millions de dollars au cours des 24 heures précédentes. Un coût global supporté par chaque internaute qui participe aux opérations de minage. Entre temps, le cours du Bitcoin a lui aussi explosé, dépassant la barre des 1.000 dollars fin novembre.

    #capitalisme #travail #preuve_de_travail #PoW #cryptocurrency
    #namecoin #Ethereum #économie #p2p #Proof_of_stake

    • Un autre élément intéressant, la taille de la blockchaine (ce qui conditionne la possibilité de participer à sa surveillance et à sa conservation, puisque plus elle est grosse plus elle demande des capacités de calcul et de stockage importantes. Donc si on ne peut pas faire ces opérations on est obligé de passer par un #intermédiaire) :

      Cette page enregistre son évolution, on voit qu’en 2013 elle pesait environ 9Go et qu’aujourd’hui, en 2016, elle pèse environ 62Go, son évolution semble suivre une croissance exponentielle :

      https://blockchain.info/charts/blocks-size?showDataPoints=false&show_header=true&daysAverageString=1&t

      Discussions sur le sujet :

      http://linuxfr.org/users/gof/journaux/comment-fonctionne-bitcoin#comment-1469644

      https://bitcointalk.org/index.php?topic=146830.msg1558859#msg1558859

      Salut anemol,

      Pour l’instant, la blockchain augmente avec un maximum de 1Mo par block toutes les ~10min c.a.d. maximum 52Go par an (hors indexages, c.a.d uniquement les fichiers block{NNN}.dat. Avec l’index il faut au moins multiplier par 2).
      Des discussions sont en cours pour augmenter cette taille, car cela limite le nombre de transactions possible par block.

      Il y a dans le document initial de satoshi, une méthode pour effacer toutes les adresses déja dépensées mais elle n’est pas encore implementée (merkle pruning). Cette methode pourrait réduire de beaucoup la taille de la blockchain, mais dans tous les cas ne concernera pas non plus les utilisateurs normaux.

      A long terme les utilisateurs n’auront plus de client sauvegardant la blockchain.
      Les noeuds ayant une blockchain seront des super-noeuds gérés de manière décentralisés, un peu comme les exit-nodes sous Tor, ou les tracker bittorrent.
      Seules des personnes avec un bon serveur pourront faire tourner un noeud.

      Il y a quelques calculs sur cette page pour plus de détails : https://en.bitcoin.it/wiki/Scalability

    • Sur un autre point il y a aussi les critiques de Christian Grothoff

      http://seenthis.net/messages/358071
      https://gnunet.org/diss-wachs

      6.9 Related Work and Comparison
      6.9.2 Namecoin

      With #Namecoin it is possible to square #Zooko ’s triangle and achieve all three properties of #Zooko_s_triangle at the same time: memorable, global and secure names. Names are globally unique since with the blockchain a consensus in the network about the current state of the system and therefore all registered names exist. #Names are memorable since they are explicitly chosen that way when registering these names. But with initial cheap cost when bootstrapping the system, the problem of name squatting exists. Initially the registration cost of names are low and therefore early adopters register names with the expectation to sell these names when the system is popular. So with Namecoin, names are an #economic object possessed by an owner and are object of trade and economic behavior. The system is said to be #secure, since with a majority of benign nodes in the network, the consensus of the block chain cannot be attacked. This assumption is only valid with an adversary model weaker than the adversary model used for this work. Note that our adversary model is not a far-fetched assumption in this context: as we saw with recent revelations about a single mining pool in the #Bitcoin network possessing more than 51% of the computational power in the network [Far14a], it is conceivable that a nation-state can muster more resources than the small number of other entities that participate in the system, especially for systems used as an alternative in places where censorship is encountered or during the bootstrapping of the network, when only a small number of users participate.
      #Security can also be lowered by the concept of the Namecoin resolution process: a client resolving a name has to be in possession of the complete block chain to validate a name. The complete block chain can be large in size and therefore not be available on devices with restricted resources. These devices would then have to rely on third party resolvers and so creating a trusted third party, which may not be trustworthy or may be manipulated, just like in #DNS.

      #GNS #gnunet #GnuNameSystem #désintermédiation

    • Deux autres éléments concernant les Bitcoin et la blockchain.

      D’une part les plus gros et les plus puissants des intermédiaires, de l’informatique ou du #système_bancaire, s’y mettent :

      http://seenthis.net/messages/462720
      http://seenthis.net/messages/441752

      IBM, Intel, and Cisco as well as the London Stock Exchange Group and big-name banks JP Morgan, Wells Fargo, and State Street [...]
      Marley Gray, who oversees blockchain work at Microsoft. People like Gray and Overstock CEO Patrick Byrne believe the blockchain can also close loopholes in the market that allow #traders to game the current system on Wall Street

      ou encore

      http://www.itespresso.fr/blobkchain-banques-bitcoin-loin-107942.html

      La question se pose à propos de ces neuf banques d’investissement qui se sont associées à l’entreprise FinTech new-yorkaise R3CEV pour explorer les usages de la blockchain dans l’industrie des services financiers.

      Barclays, #Goldman_Sachs, BBVA, UBS, Credit Suisse, #JP_Morgan, Royal Bank of Scotland, Commonwealth Bank of Australia, State Street…

      et

      http://r3cev.com/about

      R3 is a financial innovation firm that leads the Distributed Ledger Group (DLG), a consortium partnership with 42 of the world’s leading banks, to design and deliver advanced distributed ledger technologies to global financial markets.

      L’autre aspect, c’est que, pour le moment, ce n’est pas très efficace (malgré toute l’électricité et la puissance de calcule consommés) :

      La blockchain tuera-t-elle vraiment les banques ? - 10 novembre 2015
      http://blockchainfrance.net/2015/11/10/la-blockchain-tuera-t-elle-vraiment-les-banques
      En réalité, la menace que représente la blockchain pour les #banques reste très limitée à court terme pour une raison simple : le bitcoin n’est pas capable de traiter plus 7 #transactions par seconde, là où un système comme #Visa peut en traiter jusqu’à 20 000 par seconde . Cette restriction inhérente au protocole actuel du bitcoin constitue un réel blocage.

      Ce n’est toutefois pas une fatalité : il existe des pistes pour augmenter cette limite des 7 transactions/seconde : par exemple, celle proposée par le développeur bitcoin Gavin Andresen qui propose de basculer sur une nouvelle version du bitcoin en augmentant la taille des blocs. https://actualite.housseniawriting.com/technologie/2015/08/29/le-probleme-qui-menace-le-bitcoin/7756 D’autres développeurs estiment plus judicieux de développer des side chains, c’est à dire des chaines fonctionnant en parallèle à la principale, afin d’augmenter le volume de transactions pouvant être traité.

  • Deus ordinator
    Michel Serres ou les minuscules réécritures de l’Histoire

    http://www.laviemoderne.net/detox/39-deus-ordinator

    1955
    En 1955 François Girard, responsable en France de la promotion d’IBM, est chargé par sa direction de trouver un nom français pour ces toutes nouvelles machines américaines, les computers. Il adresse une lettre en ce sens, avec explications et brochures descriptives, à son ancien professeur Jacques Perret, un philologue agrégé de grammaire et docteur ès lettres.

    Le professeur à la Sorbonne fait la réponse suivante à la direction d’IBM (dont on peut consulter en ligne la reproduction manuscrite intégrale)

    – Que diriez-vous d’« ordinateur » ? C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde. Un mot de ce genre a l’avantage de donner aisément un verbe « ordiner », un nom d’action « ordination ».

    [...]

    2013
    Parallèlement à cette conférence, de façon plus radicale et saisissante, l’histoire du mot « ordinateur » connaît enfin une dernière évolution – plus radicale encore – à l’occasion d’un entretien récent accordé par Michel Serres à « L’Express » :

    – Où étiez-vous en 1953 ?

    – J’étais à l’École normale supérieure et je garde de cette année-là un souvenir très concret. La scène se passe au réfectoire de l’école, où nous sommes regroupés par tables de huit ou dix, scientifiques et littéraires mélangés. Les scientifiques discutent avec beaucoup d’animation de la machine qu’ils viennent de recevoir des États-Unis et qui s’appelle un « computer ». Ils se demandent comment ils pourraient l’appeler en français. Ils se tournent alors vers moi : « Et toi, tu es spécialiste de quoi ? » Je réponds : « Je suis spécialiste du latin tardif de la théologie du Moyen Âge. – Ce n’est pas toi qui vas nous aider à trouver un nom pour cette machine-là.

  • La donnée, nouveau carburant de l’économie
    http://www.lenouveleconomiste.fr/la-donnee-nouveau-carburant-de-leconomie-30065
    Carburant, non..
    Le carburant produit de l’énergie, la data ne fait qu’optimiser la consommation, doper le commerce. Elle peut nous donner l’impression de fluidifier les échanges, de nous faire gagner du temps..
    Mais quand on voit l’effervescence sur ce sujet, ça ressemble simplement ça une énième bulle spéculative, une nouvelle fuite en avant, un nouveau seuil de la guerre économique, un avatar de l’hyper-concurrence. Et surtout une nouvelle ruée vers l’or dont sont friandes les foules capitalistes, et durant laquelle beaucoup d’entre eux se feront piétiner..

    Les marchands en ont rêvé, Jeff Bezos l’a fait. Sur son site, Amazon optimise les prix en fonction des acheteurs. C’est ce qui s’appelle vendre ses produits à la tête du client. En toute légalité, le numéro 1 mondial du e-commerce fait évoluer en temps réel et plusieurs milliers de fois par jour, les tarifs de son catalogue en ligne. Une consommatrice urbaine, pressée et à fort pouvoir d’achat ne se verra pas proposer les dernières sneakers à la mode au même prix qu’une jeune étudiante branchée mais fauchée.

    Amazon réserve ses “low prices” au client les plus sensibles au prix, et donc susceptible d’aller consommer ailleurs. Cette technique de fixation dynamique des tarifs, également appelée ‘pricing’ n’est pas nouvelle. Le transport aérien l’a popularisé dans les années 90, vendant les titres de voyages à des montants différents en fonction des taux de remplissage ou de la période de l’année. Amazon va plus loin en généralisant un pricing à la fois individualisé et dynamique. Cette innovation est le fruit de la stratégie déployée depuis maintenant 20 ans autour de l’exploitation et de la valorisation de la donnée.
    La donnée au coeur de la création de valeur

    “La data est partout. Elle est le carburant de l’économie, le nouvel or noir. L’utilisation des données est déjà au cœur des stratégies des géants du numérique. Elle se déploie aussi dans nombre de secteurs traditionnels. C’est une opportunité de développement pour les organisations, mais aussi un sujet d’inquiétude pour les individus qui voient leurs vies mises en données”, constatent Simon Chignard et Louis-David Benyayer, co-auteur de ‘Datanomics, les nouveaux business models des données’*. Quelques chiffres pour caractériser ce monde de données baptisé par certains “big data” ou “mégadonnée” : selon IBM, nous produisons chaque jour 2,5 trillions d’octets de données, et près de 90 % des données dans le monde ont été créés au cours des deux dernières années. Cette production massive est également exponentielle, et les milliards d’objets connectés attendus ces prochaines années nous promettent un véritable déluge de data.

  • Q: “what is truly the weakness of #alphago?”
    A: “I guess I lost the game because I was unable to find out what the weakness is. AHAHA”

    (Lee Sedol, champion du monde de #Go, lors de la conférence de presse après sa deuxième défaite face à l’#IA de Google)

  • #Silicon_army : le président de #Google devient (officiellement) conseiller pour le Pentagone
    http://www.lefigaro.fr/secteur/high-tech/2016/03/03/32001-20160303ARTFIG00203-le-president-de-google-devient-conseiller-pour-le

    Le ministère américain de la Défense embauche chez Google. Eric Schmidt, président de la holding Alphabet, qui englobe le moteur de recherche, va en effet prendre la direction d’un nouveau comité de conseil du Pentagone en matière d’innovation technologique. Il sera à la tête d’une douzaine de personnes et conseillera l’armée sur des domaines « très connus de la Silicon Valley » (…)

    Le département de la Défense a aussi annoncé mercredi le concours « Piratez le Pentagone », qui offre une récompense pécuniaire à ceux qui parviendront à trouver des failles sur les pages Internet de l’entité.

    Le communiqué : http://www.defense.gov/News-Article-View/Article/684366/pentagon-to-establish-defense-innovation-advisory-board

    L’an dernier, le « Wall Street Journal » révélait qu’Eric Schmidt et Larry Page, co-fondateur de Google, s’étaient rendus à la Maison Blanche plus de 200 fois depuis que Barack Obama avait été élu.

    http://www.lesechos.fr/tech-medias/hightech/021739515432-google-se-rapproche-encore-un-peu-plus-du-gouvernement-america

    Résumé en deux tweets :

    • A propos du concours de hackers : bug bounty et pentesting
      http://www.atlantico.fr/decryptage/quand-pentagone-recrute-directeur-google-et-offre-services-hackers-pour-pi

      Le Pentagone organise ce que l’on appelle un “Bug Bounty” : cela consiste à inviter des hackers à identifier des failles de sécurité dans ses technologies, et à les récompenser quand ils en découvrent. Plus la faille trouvée est critique, plus la récompense est élevée. C’est une pratique assez courante chez les géants des technologies aux Etats-Unis, initiée par Netscape dès 1995.

      Aujourd’hui, la plupart des grands de la Silicon Valley pratiquent le Bug Bounty afin de sécuriser leurs technologies : Yahoo, Microsoft, Google, Facebook, Paypal, IBM, eBay… Mais des entreprises hors du cadre strict des technologies s’y mettent également, tel United Airlines ou General Motors.

      Cette approche de la détection de faille de sécurité connait un boom aux Etats-Unis depuis quelques années, car elle se révèle être un complément indispensable à l’approche traditionnelle, le pentesting, qui consiste à mobiliser un ou deux experts durant quelques semaines en leur confiant la mission de découvrir ces même failles. Avec un Bug Bounty, on peut attirer bien plus de monde, et par là même des compétences et des approches bien plus variées, reflétant la diversité que l’on peut trouver du coté des attaquants. Qui plus est, un Bug Bounty peut être ouvert de façon indéfinie, offrant une attention permanente, là où elle n’était que ponctuelle auparavant avec la précédente approche, le pentesting. Enfin, c’est une approche bien plus rationnelle en termes de ROI : plutôt que d’acheter du temps de recherche d’un ou deux experts, on achète directement auprès des experts le résultat de cette recherche.

      Le fait que le Pentagone organise son propre Bug Bounty est en quelque sorte la validation ultime de cette approche de la sécurité informatique, qui fait appel à la foule sur le mode du crowdsourcing et de l’“économie collaborative”. 

      Aux Etats-Unis, c’est une pratique courante, et l’arrivée du Pentagone n’est que l’aboutissement d’un mouvement entammé depuis des années par tous les géants des technologies, alors qu’en Europe, cette approche de la sécurité informatique est apparue plus récemment. Deux plateformes de Bug Bounty on été lancées cette année en France : Yogosha et BountyFactory.

      Cf. http://seenthis.net/messages/433852
      http://seenthis.net/messages/442383
      http://seenthis.net/messages/447649

    • Increasingly eclectic Pentagon innovation board adds Neil deGrasse Tyson, Jeff Bezos
      https://www.washingtonpost.com/news/checkpoint/wp/2016/07/26/increasingly-eclectic-pentagon-innovation-board-adds-neil-degrasse-t

      The board now includes 15 members and is at full size. Other members named Tuesday include Jennifer Pahlka, the founder and executive director of Code for America; Milo Medin, Google’s vice president for access services, broadband and fiber network; Instagram chief executive Marne Levine; J. Michael McQuade, United Technologies’s senior vice president for science and technology. Adam Grant, an organizational psychology professor at the University of Pennsylvania’s Wharton School; Richard Murray, a bioengineering professor at the California Institute of Technology; Cass Sunstein, a legal scholar at Harvard; Danny Hillis, co-founder of Applied Inventions; and Eric Lander, the founding director of the Broad Institute of MIT and Harvard, whose focus includes biomedical and genomic research.

      Carter announced in June that he had named retired Navy Adm. William McRaven, LinkedIn co-founder Reid Hoffman and Aspen Institute chief executive Walter Isaacson to the board.

  • Leaseweb veut nous expliquer comment sauvegarder nos données dans l’ère de la cyber-guerre et des fausses promesses du genre save-harbor.

    Hosting-Gipfel in Berlin - Diplomatic Council
    http://www.diplomatic-council.org/de/portal/hosting-gipfel-in-berlin

    Das Diplomatic Council lädt zum Hosting-Gipfel nach Berlin. Ausrichter der Tagesveranstaltung am 17. Februar im renommierten SOHO House ist das DC Corporate Member LeaseWeb, eines der weltweit größten Hosting-Netzwerke.

    Keynotesprecher sind RA Ralf Schulten, Chairman des Global Small and Medium-sized Enterprises Forum („Mittelstandsforum“) im Diplomatic Council, und Beststellerautor („Schwarmdumm“) Prof. Dr. Gunter Dueck, Fellow des amerikanischen Ingenieursverbandes IEEE und Mitglied der IBM Academy of Technology.

    DC Chairman RA Ralf Schulten informiert über ein Thema, das derzeit vielen vor allem mittelständischen Firmen in Deutschland auf den Nägeln brennt: Was bedeutet die Einigung zwischen der EU und den USA über neue Regeln zum Datenaustausch und Datenschutz, kurz „EU-US Privacy Shield“, genannt? Die Nationale Initiative für Internet-Sicherheit (NIFIS) nennt den „EU-US Privacy Shield“ bereits eine „Mogelpackung“. Auf dem Hosting-Gipfel gibt DC Chairman RA Ralf Schulten Auskunft, welche Regeln Unternehmen in dieser rechtsunsicheren Situation für das Hosting ihrer Daten beachten sollten, um sich vor Ungemach zu schützen. Das Thema hat unter anderem deshalb so hohe Brisanz, weil bei Nichtbeachtung des Datenschutzes eine unmittelbare Haftung durch Vorstand oder Geschäftsführung eintreten kann.

    Venez nombreux pour une fois qu’il y a un repas gratuit dans le Soho House, club autrement cher et exclusif ;-) (Il faut s’inscrire à l’URL plus haut en indiquant les coordonnés de son entreprise.)

    About Leaseweb
    https://www.leaseweb.com/about

    The LeaseWeb platform resides on one of the largest, most reliable networks in the world, boasting 5.0 Tbps bandwidth capacity and 99.9999% core uptime. Thanks also to state-of-the-art data centers, and a broad choice of technologies, we are able to deliver an industry-leading portfolio of solutions – from bare metal to public and private clouds.

    With such ingredients to hand, we can help you find the perfect combination of IaaS options to maximize the performance of every workload – in the most efficient way for your business now – and as your requirements change.

    All LeaseWeb solutions are easy to configure and manage too. Our intuitive customer portal and API allows you to set up your infrastructure exactly as you want it, deploy new services on-demand and keep on top of your costs.

    #sécurité #internet #business #Berlin #cloud #hosting #safe_harbor #privacy_shield

    • The Business Implications of the EU-U.S. “Privacy Shield”
      https://hbr.org/2016/02/the-business-implications-of-the-eu-u-s-privacy-shield

      the Court of Justice’s rejection of the old Safe Harbor was based entirely on potential U.S. government practices, for which there is little indication of changed policy or procedure.

      Final approval for the Privacy Shield deal, reflecting the complex bureaucracy that plagues the EU, will include review by a dizzying array of governmental and quasi-governmental privacy bodies, the Commission itself, and its member states. Further legal challenges are all but guaranteed. Uncertainty will cloud internet-based companies doing business abroad for months, if not years, to come.

      Meanwhile, the Privacy Shield, even if it survives its trial by fire, will likely do nothing to add even a modicum of new protection to the personal information of European citizens.
      ...
      To the extent that the privacy concerns in Europe are genuine, they are a reflection of a profoundly different approach to privacy in two giant economies. U.S. privacy law, inspired by our revolutionary founding, focuses more on restrictions, such as the Fourth Amendment, that protect citizens from information collection and use by government rather than private actors. In fact, private actors are often protected from such restrictions by the First Amendment.

      But in Europe, scarred by catastrophic abuses of personal information that include the Inquisition, centuries of religious wars, the Holocaust, and the surveillance states of the former Soviet bloc countries, citizens enjoy broad privacy protections from companies and each other. In Europe, the government is seen as the principal protector of personal information from abuse by non-governmental institutions — the opposite of the U.S. model.

      L’article ne dit pas grand chose à propos du sujet évoqué par son titre, mais il constate quelques idées des base citées ici.

    • EU-US Privacy Shield offers flimsy protection | InfoWorld
      http://www.infoworld.com/article/3029969/privacy/eu-us-privacy-shield-offers-flimsy-protection.html

      While U.S. companies — especially tech giants like Google, Microsoft, and Facebook, which rely heavily on the easy flow of data — are primarily concerned with reestablishing a legal framework for data transfers, the real issue for Europeans is mass surveillance by government.
      ...
      Several privacy groups have called on the United States to improve its privacy laws to match those in Europe. “The problem is that the U.S. remains unchanged,” said Marc Rotenberg, president of the Electronic Privacy Information Center.
      ...
      Ultimately, EU-US Privacy Shield is what Computerworld calls a win-win in diplomatic terms: “The EU gets a solemn promise of privacy protections, which its voters want. And the U.S. gets no delays in data transfers, which U.S. companies want.”

    • Commission européenne - Communiqué de presse
      http://europa.eu/rapid/press-release_IP-16-216_fr.htm

      La Commission européenne et les États-Unis s’accordent sur un nouveau cadre pour les transferts transatlantiques de données, le « bouclier vie privée UE-États-Unis »

      Strasbourg, le 2 février 2016

      La Commission européenne et les États-Unis se sont accordés sur un nouveau cadre pour les transferts transatlantiques de données, le « bouclier vie privée UE-États-Unis »

      Le collège des commissaires a approuvé aujourd’hui l’accord politique et a chargé M. Andrus Ansip, vice-président de la Commission, et la commissaire européenne, Mme Věra Jourová, de préparer les étapes nécessaires à la mise en place du nouveau dispositif. Ce nouveau cadre vise à protéger les droits fondamentaux des citoyens de l’Union lorsque leurs données sont transférées vers les États-Unis et à apporter une sécurité juridique aux entreprises.

      Le « bouclier vie privée UE-États-Unis » (EU-US Privacy Shield) tient compte des exigences énoncées par la Cour de justice de l’Union européenne dans son arrêt du 6 octobre 2015, qui a déclaré invalide l’ancien régime de la sphère de sécurité (Safe Harbour). Le nouveau dispositif oblige les entreprises américaines à mieux protéger les données à caractère personnel des citoyens européens et prévoit un renforcement du contrôle exercé par le ministère américain du commerce et la Federal Trade Commission (FTC), notamment par une coopération accrue avec les autorités européennes chargées de la protection des données. Dans le cadre de ce nouveau dispositif, les États-Unis s’engagent à ce qu’en vertu du droit américain, l’accès des autorités publiques aux données à caractère personnel transmises soit subordonné à des conditions, des limites et une supervision bien définies, empêchant un accès généralisé. Les Européens auront la possibilité d’adresser des demandes d’information à un médiateur spécialement désigné à cette fin et de lui soumettre des plaintes.

      M. Andrus Ansip, vice-président de la Commission européenne, a déclaré : « Nous nous sommes accordés sur un nouveau cadre solide pour les flux de données vers les États-Unis. Nos concitoyens peuvent avoir la certitude que leurs données à caractère personnel seront bien protégées. Nos entreprises, notamment les plus petites, bénéficieront de la sécurité juridique dont elles ont besoin pour développer leurs activités de l’autre côté de l’Atlantique. Nous avons le devoir de nous assurer du bon fonctionnement du nouveau dispositif et de veiller à ce qu’il tienne ses promesses sur la durée. La décision prise aujourd’hui nous aidera à créer un marché unique du numérique dans l’Union, un environnement en ligne fiable et dynamique ; elle renforce encore notre partenariat privilégié avec les États-Unis. Nous allons maintenant œuvrer pour mettre ce cadre en place dès que possible. »

      La commissaire Věra Jourová a déclaré : « Le nouveau dispositif protégera les droits fondamentaux des citoyens européens lorsque leurs données à caractère personnel seront transférées vers des entreprises américaines. Pour la toute première fois, les États-Unis ont formellement garanti à l’Union que l’accès des autorités publiques à des fins de sécurité nationale sera subordonné à des conditions, des garanties et des mécanismes de supervision bien définis. Pour la première fois également, les citoyens de l’Union disposeront de voies de recours dans ce domaine.Dans le contexte des négociations sur cet accord, les États-Unis ont donné l’assurance qu’ils ne se livraient à aucune surveillance de masse à l’égard des Européens. Enfin, l’accord prévoit un réexamen annuel conjoint afin de suivre de près la mise en œuvre de ces engagements ».

      Le nouveau dispositif comportera les éléments suivants :

      des obligations strictes pour les entreprises qui traitent des données à caractère personnel européennes, et un contrôle rigoureux : les entreprises américaines qui souhaitent importer des données à caractère personnel provenant d’Europe devront s’engager à respecter des conditions strictes quant au traitement de ces données et garantir les droits des individus. Le ministère américain du commerce veillera à ce que les entreprises publient leurs engagements, ce qui les rendra opposables au regard de la loi américaine et permettra à la FTC de contraindre les entreprises à les respecter. Par ailleurs, toute entreprise traitant des données provenant d’Europe relatives aux ressources humaines devra s’engager à se conformer aux décisions des autorités européennes chargées de la protection des données ;

      un accès par les autorités américaines étroitement encadré et transparent : pour la première fois, les États-Unis ont garanti par écrit à l’Union européenne que l’accès par les autorités publiques américaines à des fins d’ordre public et de sécurité nationale sera soumis à une supervision, des limites et des garanties bien définies. De telles exceptions devront être appliquées de manière proportionnée, et uniquement dans la mesure où elles sont nécessaires. Les États-Unis ont exclu qu’une surveillance de masse soit exercée sur les données à caractère personnel transférées vers les États-Unis dans le cadre du nouveau dispositif. Pour contrôler régulièrement le fonctionnement de l’accord, un réexamen conjoint aura lieu tous les ans, qui portera également sur la question de l’accès à des fins de sécurité nationale. Ce réexamen sera mené par la Commission européenne et le ministère américain du commerce, lesquels inviteront des experts nationaux du renseignement travaillant au sein des autorités américaines et européennes de protection des données à y participer ;

      une protection effective des droits des citoyens de l’Union et plusieurs voies de recours : tout citoyen qui estime que les données le concernant ont fait l’objet d’une utilisation abusive dans le cadre du nouveau dispositif aura plusieurs possibilités de recours. Les entreprises devront répondre aux plaintes dans des délais définis. Les autorités européennes chargées de la protection des données pourront transmettre des plaintes au ministère américain du commerce et à la FTC. Le recours aux mécanismes de règlement extrajudiciaire des litiges sera gratuit. Pour les plaintes concernant un éventuel accès par des services de renseignement nationaux, un nouveau médiateur sera institué.

      Prochaines étapes

      Le Collège a chargé M. Ansip et Mme Jourová d’élaborer un projet de « décision sur le caractère adéquat » dans les semaines à venir, que le Collège pourrait adopter après avoir obtenu l’avis du groupe de travail « Article 29 » et consulté un comité composé de représentants des États membres. Dans l’intervalle, les États-Unis prendront les dispositions nécessaires à la mise en place du nouveau cadre, des mécanismes de contrôle et du nouveau médiateur.

      Contexte

      Le 6 octobre dernier, la Cour de justice a déclaré, dans l’affaire Schrems, que la décision de la Commission relative à l’accord sur la sphère de sécurité n’était pas valide. L’arrêt a ainsi confirmé l’approche adoptée par la Commission depuis novembre 2013 en vue d’une révision de l’accord sur la sphère de sécurité, afin de garantir concrètement un niveau suffisant de protection des données, équivalent à celui exigé par le droit de l’Union.

      Le 15 octobre, M. Andrus Ansip, vice-président de la Commission européenne, et les commissaires européens Günther Oettinger et Věra Jourová ont rencontré des représentants d’entreprises et de secteurs concernés qui ont demandé une interprétation claire et uniforme de l’arrêt, ainsi que des précisions sur les instruments qu’ils ont le droit d’utiliser pour transmettre des données.

      Le 16 octobre, les 28 autorités nationales chargées de la protection des données (réunies au sein du groupe de travail « Article 29 ») ont publié une déclaration sur les conséquences de l’arrêt.

      Le 6 novembre, la Commission a publié des orientations à l’intention des entreprises sur les possibilités de transferts transatlantiques de données à la suite de l’arrêt, dans l’attente de la mise en place d’un nouveau cadre.

      Le 2 décembre, le collège des commissaires a examiné l’état d’avancement des négociations. Mme Věra Jourová a été chargée de poursuivre les négociations avec les États-Unis en vue de définir un cadre renouvelé et sûr pour les transferts de données à caractère personnel.

    • Europe And US Seal ‘Privacy Shield’ Data Transfer Deal To Replace Safe Harbor | TechCrunch
      http://techcrunch.com/2016/02/02/europe-and-us-seal-privacy-shield-data-transfer-deal-to-replace-safe-har

      Making an initial statement on the Privacy Shield deal, European privacy campaigner #Max_Schrems, whose legal action against Facebook ultimately brought down the original Safe Harbor, expressed scepticism the deal goes far enough to stand the test of another legal challenge at the ECJ.

      “The Court has explicitly held, that any generalized access to such data violates the fundamental rights of EU citizens. The Commissioner herself has said this form of surveillance continues to take place in the US yesterday. Today there should be some agreement, in whatever form, that ensures that EU data is not used anymore. This will be the sticking point for a new challenge before the Court in respect to national surveillance,” he noted.

  • Le « Deep Learning », ou l’apprentissage profond des machines
    http://www.franceculture.fr/emissions/la-grande-table-2eme-partie/le-deep-learning-ou-lapprentissage-profond-des-machines


    http://media.radiofrance-podcast.net/podcast09/12360-05.02.2016-ITEMA_20906114-1.mp3

    Le « #deep_learning » ou « apprentissage profond », va-t-il entraîner une quatrième révolution industrielle ? Rencontre avec « le Français qui apprend l’#intelligence_artificielle à #Facebook », Yann Le Cun, directeur du laboratoire d’Intelligence Artificielle de Facebook, professeur d’#informatique et de #neurosciences à l’université de New York et titulaire de la chaire annuelle « Informatique et sciences numériques » au Collège de France.

    Sa leçon inaugurale : L’apprentissage profond : une révolution en intelligence artificielle
    http://www.college-de-france.fr/site/yann-lecun/inaugural-lecture-2016-02-04-18h00.htm
    http://www.college-de-france.fr//audio/yann-lecun/li-lecun-20160204.mp3

  • Western Digital s’offre un lot de brevets IBM
    http://www.comptoir-hardware.com/actus/business/30722-western-digital-soffre-un-lot-de-brevets-ibm.html

    Western Digital semblait avoir trop de brouzoufs à dépenser et IBM est toujours la société détenant le plus de brevets aux USA. Deux bonnes raisons pour que les deux compères trouvent des accords, Western Digital venant de s’offrir plus d’une centaine de brevets appartenant à IBM, tout en ayant signé un contrat d’accord de licences entre les deux... [Tout lire]

    #Business_&_internet

  • En ligne, avons-nous tous la même personnalité ? - Quartz
    http://alireailleurs.tumblr.com/post/137337190982

    Alors que nos systèmes techniques s’apprêtent de plus en plus à caractériser et prendre en compte nos personnalités (via notamment les fameux Big Five et des systèmes techniques comme Personality insights d’IBM), cette différenciation ne risque-t-elle pas de devenir de plus en plus difficile ? C’est ce que nous explique Olivia Goldhill sur Quartz. Pour le psychologue Tim Blumer de l’université de technologie de Ilmenau en Allemagne, en ligne, nos différences expressives se réduisent (voir son étude). La raison en serait qu’en ligne, les interactions sont bien moins riches qu’en présentielles, notamment du fait que les expressions faciales ou le langage du corps ne puissent pas y être lus. Pour John Suler, professeur de #psychologie à l’université Rider et auteur de Psychologie à l’âge digital : quand les (...)

    #big_data #cognition #économie_comportementale

    • Hum hum, qu’est-ce que ça a à voir avec le féminin @rastapopoulos ? …

      –-----
      C’est bien parce qu’il n’y a aucune #éducation critique et politique à l’école que l’on se retrouve à former de #nouveaux_barbares. Cette idiote n’a rien inventé, elle est un pur produit qui découle de ce qui a été mis en place et sur lequel, comme avec la Vidéosiurveillance ou le FNAEG il n’y aura aucun recul, ça ne fera que s’étendre malgré les gardes fous soit-disants mis en place :
      Rien que pour l’éducatif, la FCPE a signé pour le fichage base_élèves, les directeurs qui ont refusé ont été licenciés, les parents (tiens, des parents de Toulouse d’ailleurs, aaah c’est beau la prairie on s’y sent tellement protégés) ont acceptés sans broncher que leur enfant soit fiché, que des logiciels s’occupent de leur notes (une prof m’a dit un jour "pas besoin de rdv, il y a pronotes) qu’un système de gestion automatique des rappels aux parents qui s’assimile à du harcèlement soit mis en place.
      Il faut quand même montrer du doigt les véritables responsables adultes, tout ce petit monde confortable qui accepte de jouer de façon soit disant contrainte, jour après jour et un à un, égrenant le climat sécuritaire et la logique policière, carte RFID, carte d’achat, porte monnaie électronqiue, sms automatique, Fichage, Flicage. Il faut le dire, même un robot est chargé de trier le bon grain de livraie à la sortie du collège.
      Les dés sont pipés d’avance, mais hé ho, les petits barbares, cherchez pas, c’est de là qu’ils arrivent, d’un lieu où les personnes humaines passent après les logiciels. Où la machine qui dirige ressemble au contrôle IBM informatisé des camps nazis, #obéir sans réfléchir, toi tu montes là, toi tu sombres là. Ah, c’est beau la compétition, un qui gagne, pour 90 qui perdent, et c’est en sortie de 3em que la moulinette informatique te marque à vie. Donc, taper sur un mineur et qui plus est sur une fillette, c’est bien, mais il serait sérieux de savoir pourquoi elle n’a pu sortir que ça de sa caboche.

      Merci à elle de nous mettre le nez dans notre caca d’informatisation global.

    • Vraiment ? C’eut été un garçon aurais-tu dit « révélation masculine entrepreneuriale » Est-ce si dur de voir que tu as ripé @rastapopoulos ?

      D’autant qu’il n’y a jamais eu de prix différenciant les sexes aux BBAs …

    • Bien, je respecte donc tes certitudes non sexistes.
      Pour ma part, je ne trouve pas drôle du tout de croire qu’il puisse exister une catégorie féminine pour l’entreprenariat. La difficulté à monter quoique ce soit, qui plus est son entreprise en france quand on est une femme est suffisante pour qu’on ne rajoute pas une couche à cette exception.

    • @touti je ne sais pas si c’est dans le sujet, mais la conversation m’a rappelé un prix que j’ai vu il y a quelques années et je ne savais pas si ça existait encore :

      ix des Femmes Formidables 2011 : « on met les femmes de l’ombre sous la lumière »

      http://www.femmeactuelle.fr/actu/dossiers-d-actualite/femmes-formidables/les-laureates/prix-des-femmes-formidables-2010

      http://www.parisweb.tv/Prix-des-Femmes-Formidables-2011-on-met-les-femmes-de-l-ombre-sous-la-lumie

      Il y en a un autre, pour récompenser l’entreprenariat économique féminin, mais je ne me souviens plus du nom, je recherche.

    • @touti

      ah voilà ! ça s’appelle « Femmes en Or »

      http://www.aufeminin.com/portraits-de-femmes/femmes-en-or-2009-trophees-d5571c126827.html

      J’ai Connu Geneviève Ferone parce que j’ai fait un boulot pour Veolia avec @odilon il y a quelques années (oui, oui, on sait, c’est mal :) et elle y était directrice d’une unité.

      Le site officiel

      http://www.aufeminin.com/societe/femmes-en-or-ssc191.html

      Je ne sais pas trop quoi en penser, personnellement, je n’aime pas les prix et les couronnement :) Mais bon.

    • Bon, ce sont les détails on va dire qui sont importants, et je ne vais pas me fâcher plus que ça, bien que …
      Je ne dis pas qu’il n’existe pas de prix spécifiques pour les femmes @reka De la femme la plus xxx du monde, à la femme pilote de l’année aux prix de la meilleure actrice/auditrice/ et je ne sais quoi, qu’illes se débrouillent avec leurs compétitions à la con.
      Je pense seulement qu’on a déjà assez à faire à dépatouiller les raisons pour lesquelles une gamine de 16 ans qui se croit intelligente à monter son entreprise pour fliquer ses petits camarades avec du RFID pour ne pas en plus instiguer que le fait d’être une femme a pu jouer.
      Mais je dois manquer d’humour, il faut que je fasse une pause.

  • Wikipédia, la connaissance en mutation

    http://www.lemonde.fr/sciences/article/2016/01/11/wikipedia-la-connaissance-en-mutation_4845347_1650684.html

    Quel succès  ! Quin­ze ans après son lancement, le 15 janvier 2001, par les Américains Jimmy Wales et Larry Sanger, l’encyclopédie en ligne Wikipédia reste le premier site non commercial du Web mondial, toujours dans le top 10 des sites les plus fréquentés avec près de 500 millions de visiteurs uniques par mois pour plus de 250 éditions linguistiques. 36,9 millions d’articles sont rédigés, corrigés, améliorés par quelque 2 millions de contributeurs. 800 nouvelles entrées en anglais sont ajoutées chaque jour, 300 en français. La version française tenant la troisième position, avec plus de 1,7 million d’articles, derrière l’anglophone (plus de 5 millions) et la germanique (1,8 million).

    Mais Wikipédia, c’est moins connu, est bien plus qu’une encyclopédie qu’on consulte pour se documenter ou faire ses devoirs scolaires. Elle est devenue aussi un objet de recherche en tant que tel, à l’instar d’une tribu d’Amazonie, d’un programme informatique ou d’un patient. La base de données Scopus, l’une des trois plus importantes du monde, recense ainsi plus de 5 400 articles ayant pour sujet ou pour objet Wikipédia publiés dans des revues, des actes de colloques ou des livres. Quatorze brevets mentionnent même le célèbre site, selon la même Scopus.

    Autre preuve de l’intérêt académique pour le sujet, en juin 2013, à Paris, se tenait un colloque, coorganisé par le CNRS et le CNAM et intitulé «  Wikipédia, objet scientifique non identifié  », avec sociologues, spécialistes de sciences de la communication, informaticiens…(...)

    Mais que font tous les autres chercheurs en tripatouillant Wikipédia ? De récentes publications témoignent du large spectre couvert. Depuis novembre, une équipe japonaise s’est servie des articles de l’encyclopédie pour analyser les suicides de personnalités dans son pays. Des Britanniques ont construit automatiquement un glossaire technique. Des Turcs ont utilisé le site pour repérer à grande échelle des entités dans des corpus de leur langue. Des Français ont proposé un classement des universités reposant sur les citations des établissements au sein de plusieurs versions linguistiques de Wikipédia. Citons encore un article paru en mai, qui prévoit les pics d’apparition de la grippe grâce aux statistiques de visites des pages de l’encyclopédie.

    Les raisons d’un tel engouement sont simples à comprendre. L’objet est vaste, une quinzaine de gigaoctets de textes (pour la version anglaise). D’utilisation gratuite, contrairement aux données de Facebook, Google ou Twitter, pourtant gigantesques et fournies gracieusement par leurs utilisateurs. Même les données de fréquentation sont disponibles pour chaque article ! Les archives sur quinze ans permettent d’avoir du recul historique, tout en ayant un objet toujours rafraîchi. Des versions en plus de 200 langues ouvrent des perspectives pour des comparaisons ou des analyses culturelles. L’ouverture et la transparence offrent aussi ce que les chercheurs adorent : la vérifiabilité et la reproductibilité. Pour parfaire leur bonheur, l’encyclopédie, tel un iceberg, recèle plus de trésors que sa seule vitrine d’articles. Si la version française contient 1,7 million de pages d’articles, elle contient 4,5 fois plus de pages pour les historiques, les discussions et autres coulisses qui font le dynamisme et la réputation du site. Du coup, presque tous les domaines sont couverts. La sociologie, bien sûr, fascinée par cette démocratie d’un nouveau genre, car auto-organisée et reposant sur quelques règles et le consensus. Les chercheurs, profitant de la transparence du site, y ont également étudié le rôle des « vandales » et autres « trolls » qui mettent leurs pattes malveillantes dans les articles. Les inégalités hommes-femmes particulièrement criantes, avec moins de 10 % de contributrices à l’encyclopédie, ont également donné lieu à beaucoup de littérature et de controverses.

    Wikipédia est devenu une sorte de bac à sable dans lequel s’ébrouent les spécialistes du traitement automatique du langage qui disposent là d’un corpus immense pour tester leurs logiciels de reconnaissance de texte, de traduction, d’extraction de sens... C’est aussi le jouet de physiciens, statisticiens, informaticiens... prompts à dégainer leurs outils d’analyse pour en extraire de nouvelles informations ou aider à les visualiser.

    « Après quinze ans, l’intérêt des chercheurs est toujours là. La première phase était très active car l’objet était nouveau. Cela a contribué à l’émergence de nouveaux domaines comme la sociologie quantitative ou l’informatique sociale, rappelle Dario Taraborelli. Puis, à partir de 2007, l’apparition de nouveaux médias sociaux a détourné un peu les recherches, avant un renouveau depuis 2010. Notamment parce que nous sommes le seul site important à publier nos données quotidiennes de trafic. »

    Ce renouveau est aussi tiré par une révolution à venir. Wikipédia est devenu l’un des maillons indispensables à un projet particulièrement ambitieux : rassembler toute la connaissance mondiale et la rendre intelligible par des machines. « Notre ambition est de rendre encore plus intelligents les ordinateurs afin qu’ils soient toujours plus utiles à l’humanité », s’enthousiasme Fabian Suchanek, enseignant-chercheur à Télécom ParisTech et artisan de cette évolution qui vise à transformer Wikipédia et d’autres riches corpus en une source accessible aux ordinateurs.

    De tels changements sont en fait déjà à l’œuvre, discrètement. Dans les moteurs de recherche par exemple, lorsque l’utilisateur tape un nom de célébrité, apparaissent toujours une liste de liens mais aussi un encadré résumant la biographie de la personne cherchée. Et cela automatiquement : le programme a compris où, dans la page Wikipédia, se trouve l’information souhaitée. Mieux. On peut désormais poser des questions explicites, en langage naturel, à ces moteurs : quand Elvis Presley est-il mort ? Où ? Quel est l’âge de François Hollande ?... et recevoir des réponses directes, sans avoir à lire la page contenant l’information.

    Derrière ces prouesses qui n’ont l’air de rien se cachent de nouveaux
    objets : les bases de connaissance. Les plus célèbres sont Yago, DBpedia, Freebase ou Wikidata. Toutes se sont construites en triturant Wikipédia. Et, preuve des enjeux économiques, les plus grands du Web actuel investissent dans ces constructions. En 2010, Google a ainsi racheté Freebase, qui lui sert pour son Knowledge Graph, l’encadré qui fournit des réponses directes aux requêtes. L’entreprise soutient également financièrement Wikidata, une initiative de la fondation Wikimédia. Amazon a racheté EVI en 2012, anciennement connue sous le nom de True Knowledge, une base de connaissances.

    En outre, derrière les assistants personnels vocaux des mobiles, Siri, Cortana ou Google Now, se cachent aussi ces fameuses bases de connaissances. Pour gagner au jeu Jeopardy en 2011, l’ordinateur Watson d’IBM a bien sûr assimilé bon nombre de données, en particulier de Wikipédia, mais dans une forme prédigérée fournie par la base de connaissances Yago.

    Le sujet de ces bases ou graphes de connaissances est très actif. Le chercheur le plus prolixe sur Wikipédia, toutes activités confondues selon Scopus, est par exemple l’Allemand Gerhard Weikum de l’Institut Max-Planck de Sarrebruck, à l’origine de la première base de connaissances, Yago, en 2007. Le second est un Hollandais, Maarten de Rijke, professeur d’informatique à l’université d’Amsterdam, dont les récents travaux utilisent ces graphes. Il est capable de savoir de quoi parle un tweet en repérant les noms et les faits à l’intérieur et en les confrontant à Yago ou DBpedia. Il enrichit aussi les émissions de télévision automatiquement en fournissant des liens sur les tablettes ou téléphones, choisis en fonction du thème de l’émission, déterminé grâce aux bases de connaissances. « Avec ces bases de connaissances, on peut faire des choses qui étaient impossibles auparavant », estime Fabian Suchanek, cofondateur de Yago. Par exemple ? « Extraire de l’information du quotidien Le Monde : combien de femmes en politique au cours du temps ? Quel est l’âge moyen des politiciens ou des chanteurs cités ? Quelles compagnies étrangères sont mentionnées ? », énumère ce chercheur en citant un travail publié en 2013 avec la collaboration du journal. Le New York Times construit sa propre base de connaissances tirées des informations de ses articles. Autre exemple, il devient possible de poser des questions aussi complexes que :

    qui sont les politiciens également scientifiques nés près de Paris depuis 1900 ? Ou, plus simplement, quelle est la part des femmes scientifiques dans Wikipédia ?

    Mais quelle différence entre ces objets et une base de données ou même une page Wikipédia ? Si un humain comprend que dans la phrase « Elvis Presley est un chanteur né le 8 janvier 1935 à Tupelo, Mississippi », il y a plusieurs informations sur son métier, sa date et son lieu de naissance, une machine ne le comprend pas, et ne peut donc répondre à la question simple, pour un humain, « Quand Elvis est-il né ? ». « C’est un peu paradoxal, mais pour un informaticien, notre langage n’est pas structuré et donc un ordinateur ne peut le comprendre ! », souligne ironiquement Fabian Suchanek. Il faut donc transformer les pages en les structurant différemment, en commençant par repérer les entités, les faits et les relations entre eux. Presley est une entité. Sa date de naissance ou son métier sont des faits. « Né le » et « a pour métier » sont les relations. Tout cela peut être codifié en langage informatique.

    Une autre particularité de ces objets est qu’ils ne répertorient pas ces faits et entités dans des tableaux, comme la plupart des bases de données, mais en les organisant en arborescences ou en graphes. Les branches correspondent aux liens entre les entités et les faits. Les informaticiens et mathématiciens ont bien sûr développé les techniques pour interroger ces graphes et y faire des calculs comme dans un vulgaire tableur. Aujourd’hui, Yago « sait » plus de 120 millions de choses sur 10 millions d’entités (personnalités, organisations, villes...). L’avantage-clé est que le rapprochement devient plus simple entre plusieurs bases de connaissances, celles construites sur Wikipédia mais aussi d’autres concernant les musiciens, les coordonnées GPS, les gènes, les auteurs... Le site Linkeddata.org recense ces nouvelles bases et leurs liens entre elles. Petit à petit se tisse un réseau reliant des faits et des entités, alors que, jusqu’à présent, la Toile connecte des pages ou des documents entre eux. Cela contribue au rêve de ce que Tim Berners-Lee, le physicien à l’origine du Web, a baptisé « Web sémantique » en 2001. « Les défis ne manquent pas. La troisième version de Yago est sortie en
    mars 2015. Nous avons déjà traité la question du temps. Nous traitons aussi plusieurs langues. Il faut maintenant s’attaquer aux “faits mous”, c’est-à-dire moins évidents que les dates et lieux de naissance, les métiers, le genre..., estime Fabian Suchanek. En outre, tout ne peut pas se mettre dans un graphe ! »

    Bien entendu, faire reposer la connaissance future de l’humanité sur Wikipédia n’a de sens que si ce premier maillon est solide. La crédibilité de l’encyclopédie a donc été parmi les premiers sujets d’études. Dès 2005, Nature publiait un comparatif entre l’encyclopédie en ligne et sa « concurrente » Britannica, qui ne montrait pas d’énormes défauts pour la première. D’autres études ont été conduites depuis pour estimer l’exactitude, en médecine par exemple, Wikipédia étant l’un des premiers sites consultés sur ces questions. Les résultats sont bien souvent satisfaisants.

    « C’est finalement un peu une question vaine scientifiquement, car les comparaisons sont souvent impossibles. On confronte les articles tantôt à des encyclopédies, tantôt à des articles de revues scientifiques... », estime Gilles Sahut, professeur à l’Ecole supérieure du professorat et de l’éducation, de l’université Toulouse - Jean-Jaurès. « La question a un peu changé de nature. Il faut passer d’une appréciation globale à une appréciation au cas par cas, et donc éduquer afin d’être capable de dire si un article semble biaisé ou complet », précise ce chercheur, qui a soutenu une thèse en novembre 2015 sur la crédibilité de Wikipédia. Il adosse ce constat à une étude menée sur plus de 800 jeunes entre 11 et 25 ans, pour tester la confiance accordée à l’encyclopédie. Celle-ci s’érode avec l’âge et le niveau de scolarité, mais elle remonte dès lors que les élèves participent. « Ils découvrent d’ail leurs, comme leur enseignant, qu’il n’est pas si facile d’écrire dans Wikipédia ! », sourit le chercheur en faisant allusion aux difficultés à entrer dans la communauté. « Certes les wikipédiens sont des maîtres ignorants sur les savoirs, comme le dit le sociologue Dominique Cardon, mais ils sont très savants sur les règles et les procédures ! »

  • Jean-Pierre Laffont’s photograph of the Apple... — the track east

    http://furtho.tumblr.com/post/136102498282/jean-pierre-laffonts-photograph-of-the-apple

    Vu sur twitter sur le compte de « brutal architecture », et grosse grosse nostalgie quand je repense à cette période et ce que j’ai pu faire avec cette machine...

    (soupir)

    Jean-Pierre Laffont’s photograph of the Apple Macintosh assembly line, Cupertino, California, 1984 (via zphotojournal.com)