tbn

récoltes et semailles

    • Shannon recalled how he was giving a talk at the institute when suddenly the legendary Einstein entered a door at the rear of the room. Einstein looked at Shannon, whispered something to another scientist, and departed. After his talk, Shannon rushed over to the scientist and asked him what Einstein had said. The scientist gravely told him that the great physicist had “wanted to know where the tea was,” Shannon said, and burst into laughter.

    • Il est passé (enfin..) sur France Culture il y a peu dans Continent Sciences

      Claude Shannon et l’avènement du numérique

      http://www.franceculture.fr/emissions/continent-sciences/claude-shannon-et-l-avenement-du-numerique

      http://media.radiofrance-podcast.net/podcast09/16256-11.04.2016-ITEMA_20958287-0.mp3

      Nous fêtons, cette année, le centenaire de la naissance d’un extraordinaire excentrique. Celle du mathématicien et ingénieur Claude Shannon. Né dans le Michigan en 1916, Shannon est l’un des fondateurs essentiels de la révolution numérique, et de la naissance de l’informatique, avec ses alter ego ; Alan Turing et John von Neumann. Shannon est le premier qui emploie l’expression « théorie de l’information ». Cela en 1948, dans un article intitulé : « A Mathematical Theory of Communication ». La curiosité du mathématicien américain la porte vers des domaines, ou des objets, aussi divers que la science du codage des messages, la cryptographie. La construction de machines intelligentes. Comme cette souris mécanique, capable de retrouver son chemin dans un labyrinthe. Mais aussi le jonglage, voire la maîtrise de la moto. Monocycle qu’il utilise quand il se promène dans les couloirs du Massachusetts Institute of Technology.

      Avec une définition de l’information réduite au choix entre deux options (oui/non, ouvert/fermé, pile/face, 0/1), Shannon invente son unité de mesure, le « bit », chiffre binaire aujourd’hui universellement utilisé. Mais aussi la formule destinée à calculer la quantité d’information. Elle repose sur la notion de probabilité (réduite à une sur deux), donc d’incertitude, de surprise, d’aléatoire. Le contenu ou le sens n’a pas grande place dans l’affaire : « ce qui est significatif, c’est la difficulté à transmettre le message d’un point à un autre », écrit Shannon. Bref, il a montré les limites ultimes de capacité de communication. Ces limites étant liées au « bruit », présent dans les canaux de transmission, en rapport avec les imperfections inéluctables de ces derniers.

      Josselin Garnier, professeur attaché au Laboratoire de Probabilités et Modèles Aléatoires et au Laboratoire Jacques-Louis Lions de l’Université Paris-Diderot, nous explique en quoi Claude Shannon a introduit le concept moderne de l’information.

      Martin Andler, professeur au laboratoire de mathématique de Versailles, nous présente l’ensemble des conférences organisées par la Bibliothèque nationale de France et la Société Mathématique de France sous le titre : Leçons de science : un texte, un mathématicien.