• Quelles sont ces nouvelles technologies qui se cachent derrière la 5G ? (Et demain, la 6G) La Tribune, Serge Abiteboul et Gérard Berry
    https://www.latribune.fr/opinions/tribunes/quelles-sont-ces-nouvelles-technologies-qui-se-cachent-derriere-la-5g-8949

    La 5G est en cours de déploiement, revenons sur ce qui la différencie des générations de télécommunications précédentes.

    On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.

    Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.

    Tous les 10 ans environ, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages ; récemment, c’était la 5G.

    On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc). C’est permis par les avancées scientifiques et technologiques qui ont amélioré les « tuyaux » où circulent les données. De fait, les usages absorbent tout ce que la technologie propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.

    Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications globale, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.

    La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose sur toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde de normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordinateur d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G, mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.

    Les fonctionnalités de la 5G
    La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.

    Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps : le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que « le débit de pic » soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.

    Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.

    La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visionner un film, peu importe. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.

    La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets). Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.

    Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des "cœurs de réseaux".

    L’efficacité énergétique a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.

    Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux aussi inclure de l’IA.

    Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.

    Les innovations techniques logicielles
    La virtualisation
    Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plates-formes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser, car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.

    Edge Computing
    Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.

    Network slicing
    Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une tranche de fréquences pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.

    Les innovations techniques radios
    Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe, mais qui permettra des économies d’énergie une fois bien maitrisée. Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation.

    L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes. L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en wifi (voix sur wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un "trou" lors du passage de l’une à l’autre.

    Le mode TDD (Time Division Duplexing)
    On partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.

    Les « petites cellules » (small cells)
    La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.

    Les communications de terminal à terminal
    Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.

    La radio cognitive
    L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
    Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.

    Et demain, la 6G
    S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le "plus fin" : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous "humains", probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.

    En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.

    Bien sûr, l’intelligence artificielle sera hyperprésente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.

    La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café... Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.

    Par Serge Abiteboul https://theconversation.com/profiles/serge-abiteboul-212213 , Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry https://theconversation.com/profiles/gerard-berry-1281347 , Professeur émérite en informatique, Collège de France

    Pour aller plus loin : « La 5G et les réseaux de communications mobiles » https://www.academie-sciences.fr/fr/Rapports-ouvrages-avis-et-recommandations-de-l-Academie/5g-reseaux-communications-mobiles.html , rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

    #5g #technologisme #internet_des_objets #objets_connectés #domotique #écologie #santé #surveillance #technologie #smartphone #domination #critique_techno #algorithme #nécrotechnologies #données #sciences #actualités_scientifiques

  • Les employés de Facebook ne peuvent pas entrer dans les bureaux – les badges ne fonctionnent pas non plus Sénégal direct - Moussa Gaye
    https://senegaldirect.com/les-employes-de-facebook-ne-peuvent-pas-entrer-dans-les-bureaux-les-b

    Certains des employés qui se sont précipités dans les bureaux pour évaluer personnellement l’étendue des dégâts n’ont pas pu accéder aux bâtiments car leurs badges numériques ont cessé de fonctionner, ce qui les a empêchés d’accéder aux zones de serveurs et d’agir personnellement sur les machines des bâtiments.


    Il n’y a pas que les réseaux sociaux qui ne fonctionnent pas : toute l’entreprise de Mark Zuckerberg est hors ligne. Le pépin qui empêche des millions d’utilisateurs dans le monde d’accéder à Facebook, Instagram et WhatsApp empêche également les travailleurs du géant de Menlo Park de résoudre la situation et même d’entrer dans leurs bureaux. Le New York Times rapporte cela, citant des sources internes de Facebook selon lesquelles l’ampleur de l’accroc technique serait si grande qu’elle impliquait également des systèmes internes. Y compris les lecteurs de badges qui, ne reconnaissant pas les employés, n’ouvrent pas les portes. Ainsi, les premiers ingénieurs qui se sont précipités sur le site n’ont pas pu entrer car les systèmes physiques ne fonctionnaient pas.

    La plupart des systèmes internes ont cessé de fonctionner, y compris les services de messagerie et de partage d’informations. Les calendriers, les outils de liste de tâches et d’autres services utilisés par les employés ont cessé de répondre, tout comme certains appareils liés aux systèmes informatiques de l’entreprise, notamment les lecteurs de badges. Les travailleurs ont expliqué qu’ils avaient des difficultés à passer des appels depuis les téléphones de l’entreprise et à recevoir des courriels de personnes extérieures à l’entreprise. La plateforme de collaboration interne, Workplace, a également cessé de fonctionner. Beaucoup se sont donc tournés vers la concurrence, utilisant LinkedIn, Zoom et Discord pour continuer à travailler.

    Certains des employés qui se sont précipités dans les bureaux pour évaluer personnellement l’étendue des dégâts n’ont pas pu accéder aux bâtiments car leurs badges numériques ont cessé de fonctionner, ce qui les a empêchés d’accéder aux zones de serveurs et d’agir personnellement sur les machines des bâtiments. Selon le responsable des opérations de sécurité de Facebook, le problème actuel est un risque élevé pour les personnes, un risque modéré pour les actifs de l’entreprise et un risque élevé pour la réputation de Facebook. Une petite équipe d’employés a été envoyée au centre de données de Santa Clara pour réinitialiser manuellement les serveurs de l’entreprise.

     #facebook #Messenger #Instagram #WhatsApp #data_centers #algorithme #surveillance #bigdata #publicité #données #instagram #marketing #gafam #sécurité #serveurs

    • Vidéo : voici ce qui a provoqué la panne de Facebook (et Instagram, et WhatsApp) zdnet.fr
      https://www.zdnet.fr/actualites/voici-ce-qui-a-provoque-la-panne-de-facebook-et-instagram-et-whatsapp-39930251

      Technologie : Ne vous attendez pas à une solution immédiatement, ça risque de durer un bon moment. On vous explique, tout ceci est lié à un mystérieux protocole nommé BGP.

      Maj 05/10/2021 à 06h38  : Les différents services de Facebook touché par la panne sont désormais rétablis, la panne aura duré 6 heures. L’entreprise a commencé à communiquer sur la panne. Il s’agit d’un changement de configuration des routeurs principaux" qui a provoqué un effet en cascade de paralysie des datacenters de l’entreprise.

      Le vieux dicton du dépannage de réseau dit que si quelque chose ne va pas, "c’est le DNS". Et bien cette fois, le serveur de noms de domaine (DNS) semble être un simple symptôme de la cause fondamentale de la panne globale de Facebook. La véritable cause est qu’il n’y a pas de routes Border Gateway Protocol (BGP) fonctionnelles vers les sites de Facebook.
      https://www.youtube.com/watch?v=rnlGuMtGEtQ


      BGP est le protocole de passerelle extérieure standardisé utilisé pour échanger des informations de routage et d’accessibilité entre les systèmes autonomes (SA) de premier niveau d’Internet. La plupart des gens, et même la plupart des administrateurs réseau, n’ont jamais besoin d’utiliser BGP.

      Beaucoup de gens ont remarqué que Facebook n’était plus répertorié dans le DNS. En effet, il y a même eu des messages humoristiques proposant de vous vendre le domaine Facebook.com.

      Le vice-président de Cloudflare, Dane Knecht, a été le premier à signaler le problème BGP qui est sous-jacent à cette panne géante. Cela signifie, comme l’a tweeté Kevin Beaumont, responsable du centre des opérations de sécurité de Microsoft, qu’en l’absence d’annonces BGP pour vos serveurs de noms DNS, le DNS s’effondre. Et donc personne ne peut vous trouver sur Internet. Même chose pour WhatsApp. Facebook s’est en quelque sorte déplateformisé de sa propre plateforme."

      Oups.

      Aussi ennuyeux que cela puisse l’être pour vous, cela peut être encore plus ennuyeux pour les employés de Facebook. Selon certaines informations, les employés de Facebook ne peuvent pas entrer dans leurs bâtiments parce que leurs badges et portes "intelligentes" ( ahah, peut-être est il temps de remplacer enfin intelligent par connecté ) ont également été désactivés par cette panne de réseau. Si cela est vrai, les employés de Facebook ne peuvent littéralement pas entrer dans le bâtiment pour tenter de réparer la ou les pannes.

      Facebook a depuis précisé que ces difficultés techniques ont également affecté ses outils internes, rendant d’autant plus difficile son travail pour résoudre la situation.

      Plus tard dans la nuit, Facebook a communiqué sur les origines de panne. “Nos équipes d’ingénierie ont appris qu’un changement de configuration des routeurs principaux qui coordonnent le trafic entre nos centres de données a entraîné des difficultés techniques aboutissant à l’arrêt de toute communication. Cette interruption des échanges du réseau a eu des effets en cascade sur la façon dont nos centres de données communiquent, provoquant la panne de nos services” expliquait l’entreprise.

      Quelques heures avant, l’utilisateur de Reddit u/ramenporn, qui prétendait être un employé de Facebook travaillant à ramener le réseau social d’entre les morts, avait signalé, avant de supprimer son compte et ses messages, que "le DNS pour les services de FB a été affecté et c’est probablement un symptôme du problème réel, à savoir que l’échange de trafic BGP avec les #routeurs d’échange de trafic de Facebook a été interrompu, très probablement en raison d’un changement de #configuration entré en vigueur peu de temps avant que les pannes ne surviennent)". 


      Un changement de configuration erroné effectué via une interface web
      Il poursuit : "Des personnes essaient maintenant d’accéder aux routeurs d’échange de trafic pour mettre en œuvre des correctifs, mais les personnes ayant un accès physique sont distinctes de celles qui savent comment s’authentifier auprès des systèmes et de celles qui savent ce qu’il faut faire, de sorte qu’il y a maintenant un défi logistique pour unifier toutes ces connaissances. Une partie de cette situation est également due à la diminution des effectifs dans les centres de données en raison des mesures de lutte contre la pandémie."

      Ramenporn a également déclaré qu’il ne s’agissait pas d’une attaque, mais d’un changement de configuration erroné effectué via une interface web. Ce qui est vraiment dégoûtant — et pourquoi Facebook est toujours hors service quelques heures plus tard — c’est que, puisque BGP et DNS sont hors service, "la connexion au monde extérieur est hors service, l’accès à distance à ces outils n’existe plus, donc la procédure d’urgence est d’obtenir un accès physique aux routeurs d’échange de trafic et de faire toute la configuration localement". Bien sûr, les techniciens sur place ne savent pas comment faire et les administrateurs réseau principaux ne sont pas sur place. En bref, c’est un grand gâchis.

      Conséquence de cette panne, le cours de Facebook a perdu plus de 6 % à la bourse de New York. Selon l’entreprise, il n’y a aucun signe montrant que les données des utilisateurs aient pu être compromises.
      Pour rappel, le réseau social le plus populaire du monde s’est effondré lundi 4 octobre 2021 vers 8h45, heure californienne (soit 17h45, heure française). Mais il n’y a pas que Facebook : Instagram, WhatsApp et Facebook Messenger ont également été touchés par la panne.

      Les services de statut de sites web comme DownForEveryoneOrJustMe et DownDetector signalaient alors que Facebook était hors service. Le problème touchait l’intégralité des services de l’entreprise dans le monde entier. En France également, les différents sites avaient cessé de fonctionner, tout comme les applications du groupe.

      #BGP #DNS

  • Black Friday" : le numérique, un colossal gouffre énergétique Nina SCHRETR -23 Novembre 2018 - Sciences et Avenir
    https://www.sciencesetavenir.fr/high-tech/reseaux-et-telecoms/black-friday-le-numerique-un-gouffre-energetique_129653

    Le numérique compte désormais pour 3,5 % des émissions de gaz à effet de serre (contre 2,5 % en 2013), alerte l’association française The Shift Project. Dans un nouveau rapport, ce think tank de la transition carbone estime que l’inflation énergétique s’élève de 9 % chaque année. Si rien ne change, la consommation en énergie doublera d’ici à 2025. Les responsables ? Les pays développés, qui multiplient les appareils numériques et recourent massivement à la vidéo, qui compte pour 81 % des données échangées en 2017. Ainsi un Américain possède-t-il en moyenne 10 périphériques connectés (téléphone, tablette, montres…), contre un seul pour un Indien. La production d’ordinateurs, l’utilisation des data centers et celle des terminaux informatiques représentent plus de la moitié de la facture énergétique du numérique.


    © Bruno Bourgeois pour Sciences et Avenir

    Par ailleurs, des scientifiques de l’université d’Hawaii (États-Unis) ont établi que si le bitcoin, cette monnaie virtuelle, venait à être aussi vite adopté que d’autres innovations telles que les ordinateurs ou les cartes de crédit, il engendrerait à lui seul une hausse de 2 °C de la température du globe en seulement vingt ans.

    #énergie #climat #électricité #environnement #changement_climatique #économie #black_friday #bitcoin #data_centers #numérique

  • Microsoft Plumbs Ocean’s Depths to Test Underwater Data Center
    http://www.nytimes.com/2016/02/01/technology/microsoft-plumbs-oceans-depths-to-test-underwater-data-center.html


    Putting the gear under cold ocean water could fix the [heat] problem. It may also answer the exponentially growing energy demands of the computing world because #Microsoft is considering pairing the system either with a turbine or a tidal energy system to generate electricity.

    The effort, code-named Project #Natick, might lead to strands of giant steel tubes linked by fiber optic cables placed on the seafloor. Another possibility would suspend containers shaped like jelly beans beneath the surface to capture the ocean current with turbines that generate electricity.

    [...]

    The underwater server containers could also help make web services work faster. Much of the world’s population now lives in urban centers close to oceans but far away from #data_centers usually built in out-of-the-way places with lots of room. The ability to place computing power near users lowers the delay, or latency, people experience, which is a big issue for web users.

    [...]

    The research group has started designing an underwater system that will be three times as large [as the first trial]. It will be built in collaboration with a yet-to-be-chosen developer of an ocean-based alternative-energy system. The Microsoft engineers said they expected a new trial to begin next year, possibly near Florida or in Northern Europe, where there are extensive ocean energy projects underway.

  • En Californie, la « soif » inextinguible des « data centers » - Hebdo - RFI
    http://www.rfi.fr/hebdo/20150814-californie-data-centers-secheresse-climatisation-eau-silicon-valley-ser

    En un an, les 800 et quelques #data_centers de #Californie « boivent » l’équivalent de 158 000 piscines olympiques pour se « rafraîchir ». Pour maintenir les machines qui stockent les informations numériques à une température inférieure à 40°C, les climatisations consomment des centaines de milliards de litres d’#eau par an. Si leur « soif » commence à poser problème, c’est que, dans le berceau de la Silicon Valley, sévit depuis quatre ans une #sécheresse endémique.

  • A Peephole for the N.S.A - NYT 26/11/13
    By NICOLE PERLROTH and JOHN MARKOFF
    http://www.nytimes.com/2013/11/26/technology/a-peephole-for-the-nsa.html?pagewanted=all

    People knowledgeable about Google and Yahoo’s #infrastructure say they believe that government spies bypassed the big Internet companies and hit them at a weak spot — the fiber-optic cables that connect data centers around the world that are owned by companies like #Verizon Communications, the BT Group, the Vodafone Group and #Level_3 Communications. In particular, fingers have been pointed at Level 3, the world’s largest so-called Internet backbone provider, whose cables are used by #Google and #Yahoo. [cf. http://seenthis.net/sites/342088]

    The Internet companies’ #data_centers are locked down with full-time security and state-of-the-art surveillance, including heat sensors and iris scanners. But between the data centers — on Level 3’s fiber-optic cables that connected those massive computer farms — information was unencrypted and an easier target for government intercept efforts, according to three people with knowledge of Google’s and Yahoo’s systems who spoke on the condition of anonymity.

    #surveillance #câbles

  • #NSA Report Outlined Goals for More Power - NYTimes.com
    By JAMES RISEN and LAURA POITRAS, November 22, 2013
    http://www.nytimes.com/2013/11/23/us/politics/nsa-report-outlined-goals-for-more-power.html?pagewanted=all

    (U) SIGINT Strategy 2012-2016 (23 février 2012)
    http://www.nytimes.com/interactive/2013/11/23/us/politics/23nsa-sigint-strategy-document.html

    In response to the controversy about its activities after Mr. #Snowden’s disclosures, agency officials claimed that the N.S.A.’s sweeping domestic surveillance programs had helped in 54 “terrorist-related activities.” But under growing scrutiny, congressional staff members and other critics say that the use of such figures by defenders of the agency has drastically overstated the value of the domestic surveillance programs in counterterrorism.

    #terrorisme

    Relying on Internet routing data, commercial and Sigint information, Treasure Map (...) collects Wi-Fi network and geolocation data, and between 30 million and 50 million unique Internet provider addresses (...) It boasts that the program can map “any device, anywhere, all the time.”

    (...) The program is not used for surveillance, they said, but to understand computer networks.

    The program takes advantage of the capabilities of other secret N.S.A. programs. To support Treasure Map, for example, the document states that another program, called Packaged Goods, tracks the “traceroutes” through which data flows around the Internet. Through Packaged Goods, the N.S.A. has gained access to “13 covered servers in unwitting data centers around the globe,” according to the PowerPoint. The document identifies a list of countries where the data centers are located, including Germany, Poland, Denmark, South Africa and Taiwan as well as Russia, China and Singapore.

    Despite the document’s reference to “unwitting #data_centers,” government officials said that the agency does not hack into those centers. Instead, the officials said, the intelligence community secretly uses front companies to lease space on the servers.

    #infrastructure

    Au passage je découvre la page SIGINT sur Wikipedia, où il est question d’interception sur #câbles_sous-marins :
    https://fr.wikipedia.org/wiki/Renseignement_d'origine_%C3%A9lectromagn%C3%A9tique#Interception_des_c

  • Power, Pollution and the Internet - NYTimes.com
    http://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html?pagew

    Enquête très complète

    To guard against a power failure, they further rely on banks of generators that emit diesel exhaust. The pollution from #data centers has increasingly been cited by the authorities for violating clean air regulations, documents show. In Silicon Valley, many #data_centers appear on the state government’s Toxic Air Contaminant Inventory, a roster of the area’s top stationary diesel polluters. Worldwide, the digital warehouses use about 30 billion watts of electricity, roughly equivalent to the output of 30 nuclear power plants, according to estimates industry experts compiled for The Times. Data centers in the United States account for one-quarter to one-third of that load, the estimates show.

    #pollution #énergie #internet #data #data-centers

    Un petit aperçu des serveurs de #stockage du #cloud d’#Amazon évoqué ici http://seenthis.net/messages/87879

    In Manassas, Va., the retailing colossus Amazon runs servers for its cloud amid a truck depot, a defunct grain elevator, a lumberyard and junk-strewn lots where machines compress loads of trash for recycling.

    The servers are contained in two Amazon data centers run out of three buildings shaped like bulky warehouses with green, corrugated sides. Air ducts big enough to accommodate industrial cooling systems sprout along the rooftops; huge diesel generators sit in rows around the outside.

  • Can #Facebook Show How to Reduce the Growing Energy Use of the Internet? | Scientific American
    http://www.scientificamerican.com/article.cfm?id=facebook-leadership-reduces-internet-growing-phys

    There are now more than 500,000 #data_centers worldwide, hosting the bulk of the more than 32 million individual servers. Server farms, according to data center expert Jonathan Koomey of Stanford University, now account for roughly 1.5 percent of global electricity use, or about 300 billion kilowatt-hours of electricity per year. #Google's data centers, for example, dwarf Facebook’s, using two billion kilowatt-hours per year as the world searches for the latest article on server energy use.

    That makes the #Internet a larger emitter of greenhouse gases—230 million metric tons—than all the countries of Scandinavia put together.

    (...) small server rooms, or even closets, employed by smaller companies the world over, typically do not have computers with the most efficient cooling and use up to twice as much electricity per computation as the more effective computers

    #environnement #électricité

  • #Google : 900.000 serveurs, 0,01% de l’électricité mondiale
    http://www.clubic.com/internet/google/actualite-438498-google-900-000-serveurs-01-electricite-mondiale.html

    Jonathan Koomey, un professeur de l’université de Stanford, s’est penché sur l’électricité utilisée par les #data_centers à travers le monde. Son étude, résumée par un article du New York Times, souligne que les serveurs des grandes entreprises sont moins gourmands que prévu, notamment en raison d’efforts réalisés pour économiser de l’#énergie.

    Jonathan Koomey explique ainsi que « l’électricité utilisée par l’ensemble des data centers en 2010 se situe entre 1,1 et 1 ,5% de la consommation globale d’électricité ». Pour les USA uniquement, le pourcentage se situe entre 1,7 et 2,2%, une fourchette bien plus basse que les estimations réalisées en 2007 par l’Environmental Protection Agency qui considérait que, l’évolution du parc informatique aidant, la consommation aurait dû doubler entre 2005 et 2010. Or, au final, elle n’a augmenté « que » de 56% au niveau mondial, et « que » de 36% aux Etats-Unis.