city:orsay

  • Jean-Marie Hullot, informaticien visionnaire, technologiste exceptionnel | binaire
    http://binaire.blog.lemonde.fr/2019/06/20/jean-marie-hullot-informaticien-visionnaire-technologiste-excep

    Jean-Marie Hullot fut un très grand professionnel de l’informatique. Outre les apports scientifiques du début de sa carrière de chercheur IRIA détaillés plus loin, peu de personnes ont eu des impacts aussi forts et permanents sur l’informatique de Monsieur Tout-le-monde. On lui doit directement les interfaces et interactions graphiques et tactiles modernes, développés d’abord à L’IRIA, puis chez NeXT computers, dont la superbe machine est restée dans les mémoires et a servi en particulier à Tim Berners-Lee pour créer le World Wide Web, et enfin chez Apple à travers le Macintosh et son système MacOSX puis l’iPhone, véritables révolutions dans le domaine qui ont largement engendré le développement de l’informatique conviviale à grande échelle que nous connaissons maintenant, avec en particulier la révolution des smartphones.

    Ces interfaces particulièrement élégantes et intuitives ont marqué une nette rupture avec tout ce qui s’était fait avant, et qu’on a d’ailleurs largement oublié. Il faut bien comprendre qu’elles résultent de la conjonction d’un goût esthétique très sûr et de la création et de la maîtrise de nouvelles architectures de programmation subtiles et éminemment scientifiques, que Jean-Marie Hullot avait commencé à développer lorsqu’il était chercheur à l’IRIA. Un autre apport majeur a été celui des mécanismes de synchronisations d’appareils divers, ici Macs, iPhones et iPads, pour que les calendriers, listes de choses à faire ou autres soient automatiquement à jour dès qu’on les modifie sur un des appareils, sans besoin de la moindre transformation et quels que soient les réseaux utilisés. Cette transparence maintenant habituelle était difficile à réaliser et inconnue ailleurs. Il faut rappeler que le domaine concerné de l’IHM locale et synchronisée est profond et difficile, et les réussites de ce niveau y sont fort rares. Celle de Jean-Marie Hullot chez NeXT puis Apple, particulièrement brillante, a aussi demandé de très nombreuses interactions avec des designers et surtout directement avec Steve Jobs, dont l’exigence de qualité était légendaire.

    Mais, avant sa carrière industrielle, Jean-Marie Hullot a fait bien d’autres apports scientifiques de premier plan. Après l’École normale supérieure de Saint-Cloud, il s’est vite passionné pour la programmation, particulièrement en LISP. Cela s’est passé à l’IRCAM où se trouvait alors le seul ordinateur en France vraiment adapté à la recherche en informatique, le PDP-10 exigé par Pierre Boulez pour monter cet institut. S’y trouvaient en particulier Patrick Greussay, auteur de VLISP et fondateur de l’école française de LISP, et Jérôme Chailloux, auteur principal du système Le_Lisp qui a longtemps dominé la scène française de l’Intelligence Artificielle et auquel Hullot a beaucoup participé et apporté.

    Avec sa rencontre avec Gérard Huet, dont il suivait le cours de DEA à Orsay, il rejoint l’IRIA à Rocquencourt pour son travail doctoral. Il débuta sa recherche en réécriture de termes, problématique issue de la logique mathématique et de l’algèbre universelle, et par suite essentielle aux fondements mathématiques de l’informatique. Parti de l’algorithme de complétion décrit dans l’article séminal de Knuth et Bendix, il réalisa un système complet de complétion de théories algébriques, incluant les dernières avancées en traitement des opérateurs commutatifs et associatifs, permettant la transition avec le calcul des bases polynomiales de Gröbner. Le logiciel KB issu de son travail de thèse avait une algorithmique particulièrement soignée, permettant d’expérimenter avec des axiomatisations non triviales, comme par exemple la modélisation canonique des déplacements du robot de l’Université d’Edimbourg. La renommée de ce logiciel lui valut une invitation d’un an comme chercheur invité au Stanford Research Institute en 1980-1981. Là, en tandem avec Gérard Huet, il développa les fondements de la théorie de la réécriture algébrique, alors en balbutiement. Son article Canonical forms and unification, présenté à l’International Conference on Automated Deduction en 1980, présente un résultat fondamental sur la surréduction qui permit d’établir le théorème de complétude de la procédure de narrowing (Term Rewriting Systems, Cambridge University Press 2003, p. 297.)

    Sa thèse de Doctorat à l’Université Paris XI-Orsay Compilation de formes canoniques dans les théories équationnelles fut soutenue le 14 novembre 1980. Point d’orgue de son travail en algèbre effective, elle devint la bible des chercheurs en réécriture, désormais domaine essentiel de l’informatique fondamentale. Elle fut le premier document technique français composé avec le système de composition TeX, alors en développement par Don Knuth à Stanford, où Jean-Marie Hullot s’y était initié. Il était frappé par l’étonnante qualité graphique des documents traités par TeX, mais aussi des écrans bitmap alors développés au laboratoire PARC de Xerox.

    En 1981 il retrouve l’INRIA à Rocquencourt où démarrait le Projet National Sycomore dirigé par Jean Vuillemin, et que venait de rejoindre Jérôme Chailloux, concepteur du langage Le_Lisp. Il y découvrit le premier Macintosh, ordinateur commercial pionnier profitant des avancées de PARC (bitmap display, interface de fenêtres, ethernet) et du SRI (souris). Mais il a vite trouvé la façon dont ses interfaces étaient programmées assez infernale. Comme c’était l’époque de la naissance des langages objets, il a d’abord décidé de développer le sien au-dessus de Le_Lisp, nommé Ceyx, en privilégiant les aspects dynamiques non présents dans les autres langages de l’époque (il est ensuite passé à Objective C, langage du même type mais bien plus efficace.) Ce langage remarquable, dont l’implémentation était un bijou de simplicité et d’intelligence, a servi notamment à Gérard Berry pour écrire son premier compilateur Esterel.

    Ce travail a débouché sur la création du premier générateur d’interfaces mêlant conception graphique directe et programmation simple, SOS Interfaces. C’est en présentant ce système aux idées très originales dans un séminaire à l’université Stanford qu’il a rencontré Steve Jobs, alors chassé d’Apple, et qui a immédiatement souhaité l’embaucher pour créer sa nouvelle machine NeXT. Même si cette machine n’a pas été un succès commercial, elle reste connue comme probablement la plus élégante jamais fabriquée, et a eu le rôle de précurseur de tout ce qui s’est passé ensuite.

    Jean-Marie Hullot a ensuite pris le leadership des interfaces et interactions du nouveau Macintosh en tant que directeur technique du service des applications d’Apple. Ses créations et celles de son équipe marquent toujours l’informatique moderne. Il a ensuite quitté un moment Apple et la Californie pour s’installer à Paris. Là, Steve Jobs l’a rappelé pour régénérer l’esprit créatif d’Apple, mais il a refusé de revenir en Californie, et proposé plutôt de créer un téléphone, ou plutôt un smartphone comme on dit maintenant. Après quelques difficultés pour convaincre Steve Jobs qui n’y croyait pas trop, il a créé l’iPhone dans un laboratoire secret d’une vingtaine de personnes à Paris. La suite est connue, et assez différente de ce que disait Steve Ballmer lors de la première démonstration par Steve Jobs : « Cet objet n’a aucun avenir industriel » ! Avec plus d’un milliard d’exemplaires vendus, il s’agit probablement d’un des plus grands succès esthétiques et industriels de l’histoire.

    En outre, il mena plusieurs entreprises technologiques en France. La société RealNames qu’il a créé en 1996 avait pour objet de doter le réseau Internet alors en plein essor, mais anarchique au niveau du nommage, d’un espace de nommage standardisé. Plus tard, il chercha à créer une infrastructure ouverte pour le partage de photographies, en suivant le modèle de l’encyclopédie libre Wikipedia , et créa la société Photopedia à cet effet. Ces entreprises n’ont pas été pérennes, mais elles ont permis à de nombreux jeunes professionnels de se former aux technologies de pointe, et d’essaimer à leur tour de nouvelles entreprises technologiques.

    Mathématicien créatif, informaticien visionnaire, programmeur élégant, ingénieur rigoureux, technologiste hors-pair, esthète raffiné, Jean-Marie Hullot aura marqué son époque. Les résultats de son travail ont tout simplement changé le monde à tout jamais. La Fondation Iris, qu’il a créé avec sa compagne Françoise et dont l’objectif est de sauvegarder la fragile beauté du monde, continue de porter son message humaniste : http://fondationiris.org.

    Gérard Berry et Gérard Huet

    #Histoire_numérique #IHM #iPhone #Interface #Synchronisation

  • http://www.desordre.net/bloc/vie/reprise/2018/201812.htm

    Un extrait de Ja de Thomas Bernhard, un extrait de Barbe bleue de Georges Mélies, Shoot de Chris Burden, le Rosebud d’Orson Welles, les grands boulevards à Paris filmés depuis un bus en 1913, L’Etreinte d’Adrien Genoudet, Hard Eight de Paul Thomas Anderson, Le Temps des arbres de François-Xavier Drouet, Perdre le Nord avec Hamsih Fulton, un piano qui prend cher, L’Insoutenable Effervescence du fantôme de JLG, Premières Solitudes de Claire Simon, les vingt ans de l’Atelier du Tampon, le fameux mouvement de zoom dans l’Armée des ombres de Jean-Pierre Melville tel qu’il est décrit et décortiqué par Grégoire Bouillier dans Le Dossier M., L’Esprit de la ruche de Victor Erice, Les Chatouilles d’Andréa Bescond et Éric Métayer, Théo Girard et Les Pensées rotatives, Nina dans le Désordre, Eve Risser et Naïny Diabeté, Orsay contre le PUC, Sarah Murcia joue My Favorite Things, la visite des expositions d’Egon Schiele, Jean-Michel Basquiat et Tomas Saraceno, de la musique, Leto de Kirill Serebrennikov, dont je ne pense pas grand-chose, Shimmer Lake d’Oren Uziel dont je pense le plus grand bien, Une Affaire de famille de Hirokazu Kore-eda qui m’a fait pleurer de bonheur, une collaboration avec B., céramiste, Pupille de Jeanne Herry dont je pense le plus grand mal et un banquet végétarien, préparé par Zoé et moi, avant qu’il ne soit dévoré par personnes qui mangent de la viande.

    Un mois de décembre 2018, bien rempli. La Vie, quoi.

  • http://www.orsay-rugby.org/lauteur-philippe-de-jonckheere-a-la-peupleraie

    Pour amateurs et amatrices de la chose ovale, demain, dimanche 16 décembre, à l’occasion de la rencontre entre Orsay et le PUC, à l’occasion de la fête traditionnelle de fin d’année du club, je présente et dédicace Raffut que l’on s’échange dans tous les vestiaires de l’ovalie, nul doute.

    Les autres animations (dont la paella monstre) sur cette autre page : http://www.orsay-rugby.org/animations-orsay-puc-16-decembre-2018

    #shameless_autopromo

    • Je n’ai jamais bien compris les règles du jeu au rugby, enfin j’ai pas vraiment cherché à comprendre non plus. J’ai rien contre le sport malgré que je n’en pratique aucun depuis bien longtemps mais dès qu’il y a compétition, ça m’emmerde.

      A l’occasion du match contre le PUC le 16 décembre 2018, le CA Orsay Rugby Club invite Philippe de JONCKHEERE à venir rencontrer les supporters et dédicacer son dernier roman autobiographique, Raffut. Il sera installé à côté du bar tenu par les joueurs, au bord de la pelouse.

      Par contre les règles de comptoir, je connais bien !
      Les brèves de Jean-Marie Gourio aussi :

      « La viande la plus chère, c’est le footballeur. »

    • @ericw Tu sais je crois que je ferai un peu moins le malin à la fin de la foire quand on compte les bouses et que mon éditeur me dira combien de mes livres il a vendu.

      @vanderling Les règles de notre très beau jeu sont incompréhensibles et souvent illogiques, et il y a des raisons historiques à cela. En revanche l’évolution de ces règles et surtout l’évolution du jeu sont à pleurer, le rugby a vendu son âme au diable en 1995 en passant sport professionnel et il semble que le diable commence à exiger son dû. J’ai encore beaucoup de plaisir derrière la main courante à encourager des copains quand ils affrontent des types comme eux, patauds et pas toujours très rapides, et dans un tel fouillis il arrive encore que l’on voit de beaux gestes, en revanche le rugby qui passe à la télévision a perdu toute grâce à mes yeux depuis sept ou huit ans. Et les échos que j’en perçois désormais ne risquent pas de me faire changer d’avis, tout le contraire, cela risque de m’en détourner définitivement. En ce qui me concerne les mouches ont changé d’âne .

    • Bon ben c’était chouette, j’ai été très bien accueilli par toute une équipe de personnes, toutes bénévoles, qui se sont pliées en quatre pour m’être agréable et j’ai vu deux matchs de rugby, du vrai, avec des gars qui ne courent pas de façon supersonique quand bien même ils font plus de cent kilos, des passes ratées, des en-avants, des gros qui suent, des mêlées qui fument et une fanfare avec soubassophone derrière la main courante qui a joué, d’ailleurs, un très beau Hey Jude . Et un match qui s’est terminé dans la pénombre ce qui permet de faire des petites économies d’électricité. Du vrai rugby. Rien à voir avec la téloche.

      Je suis reparti en ayant un peu mal au genou dans cette froidure humide, mais avec le sourire, cela oui (et j’ai vendu plus d’exemplaires du livre qu’à certaines rencontres en librairie).

      Et j’ai mangé une crêpe en bord de terrain et on m’a donné une belle portion de paella pour « Émile », le personnage principal de Raffut qui adore ça (c’est son plat préféré que je ne sais pas bien préparer, je me suis, entre autre, fait expliquer en bord de terrain, que c’était obligatoire de la faire avec du riz rond et surtout pas du riz basmati, ce qui expliquerait bien de choses dans mes ratages précédents).

  • La traduction dopée par l’intelligence artificielle

    http://www.lemonde.fr/sciences/article/2017/11/27/la-traduction-dopee-par-l-intelligence-artificielle_5221041_1650684.html

    Graal de l’informatique depuis sa création, la traduction automatique a fait des progrès impressionnants. Les algorithmes vont-ils supplanter les traducteurs humains ?

    « En à peine six mois, nous avons dû réinventer notre technologie. C’était une question de survie pour l’entreprise », explique Jean Senellart, le directeur technique de Systran, un des leaders de la traduction par ordinateur depuis sa création, en 1968. « Début 2016, une compétition interne, très stimulante, a été organisée pour battre notre meilleur système grâce à une nouvelle technique en vogue », précise le spécialiste, qui a lui-même participé à l’épreuve.

    Et ils ont battu leur « vieux » champion. Au printemps 2016, près de cinquante ans de savoir-faire étaient ainsi jetés aux oubliettes. En novembre, le nouveau produit, qui traduit 30 langues, était prêt, en même temps que Google lançait son nouveau site de traduction reposant sur la même technique, suivi par Microsoft, Baidu, Facebook…

    « Tout le monde s’est rué sur ces technologies. C’était complètement fou ! », raconte Philipp Koehn, de l’université Johns-Hopkins (Maryland), pionnier d’une technique précédente, balayée par la nouvelle venue. « Avant ces inventions, on estimait qu’il fallait un an pour progresser d’un point sur une certaine échelle de qualité. Après, en un an, les bonds, pour certaines paires de langues, ont été de près de huit points », constate François Yvon, ­directeur du Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi-CNRS) à Orsay (Essonne). Et en août, un nouveau venu, DeepL, aussi à l’origine du dictionnaire Linguee, se targuait d’un gain de trois points supplémentaires sur la même échelle de qualité par rapport à ses concurrents.

    L’une des premières applications de l’informatique

    Que s’est-il passé ? L’histoire remonte aux années 1950. Traduire est l’une des premières applications de l’informatique, après le chiffrement des communications et les calculs balistiques. En 1954, IBM et l’université de Georgetown, à Washington, font la « une » des journaux en traduisant des phrases du russe vers l’anglais. La méthode utilisée est ­« naturelle ». On fournit à la machine un dictionnaire et les règles grammaticales et syntaxiques de la langue visée (ordre des mots, accords, genres…). Par exemple, si the, en anglais, précède un mot ­féminin, traduire par « la », sinon par « le », etc.

    Les linguistes sont évidemment requis pour élaborer ce modèle de langue, limité par la puissance des machines d’alors et par le nombre quasi infini de règles à transformer en lignes ­informatiques. La technique fera néanmoins les beaux jours d’IBM ou de Systran. Un système ­canadien de prévision météo, Taum-Météo, fonctionnera de 1977 jusqu’au début des années 2000 sur ce principe de règles.

    En 1966, la publication d’un rapport, dit « Alpac », jette cependant un froid. Le problème est plus ­difficile que prévu et loin d’être résolu, contrairement à ce que clamaient ses pionniers. Les financements, qui abondaient, fondent… Le domaine de l’intelligence artificielle connaît là l’un de ses ­premiers « hivers ».

    Ce refroidissement ne signifie cependant pas un arrêt complet. Chez IBM, dans les années 1980, des ingénieurs et chercheurs ressuscitent des idées plus anciennes, qui constitueront une ­seconde révolution dans le domaine. Au lieu de travailler comme un linguiste ou un traducteur, la machine fonctionnera désormais de façon probabiliste, en fournissant une traduction correspondant à la plus grande chance de voir cette proposition apparaître dans un corpus dit bilingue, contenant des paires de phrases traduites en deux langues. Si nice, en anglais, apparaît plus souvent comme « joli » que comme « beau », alors la machine choisira « joli » comme proposition. Idem pour des bouts de phrase.

    Vastes corpus bilingues

    Simple, à condition d’avoir de tels corpus. Les premiers utilisés proviennent des archives bilingues du gouvernement canadien ou de la Commission et du Parlement européens, pour plusieurs langues. Puis le Web se transforme en source abondante, plusieurs robots moissonnant ses pages en quête de traductions. Google devient alors un acteur majeur et abandonne, en 2007, le moteur de traduction à base de règles fourni par Systran, pour proposer sa « machine statistique de traduction », nourrie par près de cent millions de séquences de mots.

    Le monde académique réagit en amassant aussi son propre corpus. Les bases de données Gigaword ou ParaCrawl de Philipp Koehn en sont des exemples. Ce dernier, soutenu par l’Union européenne, est également l’auteur du programme Moses, dont la dernière version, qui date du mois d’octobre, est toujours utilisée par la Commission européenne.

    Puis nouvel hiver dans le domaine, avec des évolutions assez lentes. Jusqu’aux secousses de l’année 2014. Trois articles, quasi simultanés, l’un de chercheurs de Google, les deux autres de l’équipe de l’université de Montréal menée par Yoshua Bengio, expliquent comment de nouveaux algorithmes promettent de tout changer. Les mots-clés ne sont plus « linguistique » ou « statistique » mais « apprentissage » et « réseaux de neurones ». Ces derniers ont été inventés dans les années 1950 et remis au goût du jour, notamment par Yoshua Bengio, pour la reconnaissance de caractères manuscrits ou l’identification ­d’objets ou d’animaux dans les images.

    Ce sont des fonctions mathématiques simples (addition, multiplication) contenant des millions de paramètres ajustables, permettant de trouver la meilleure combinaison possible pour réponse à une question. Comme un peintre ­mélangeant plusieurs couleurs jusqu’à trouver la bonne. Pour la traduction, il s’agit d’ajuster les paramètres afin d’exhiber la fonction permettant de passer d’une phrase d’une langue à sa traduction, piochée toujours dans les vastes corpus bilingues. « Le petit chat tigré est mort » est présenté au système, et s’il répond « the big cat striped is dead », on le corrige, jusqu’à ce qu’il trouve la bonne version : « the little tabby cat is dead ». Et cela sur des millions de paires de phrases. « Formellement, apprendre, pour ces réseaux, c’est évaluer les paramètres de cette fonction qui associe une phrase source à une phrase cible », ­résume François Yvon.

    Bête et astucieux

    L’appellation réseau de neurones vient du fait que, dans le cerveau, les connexions entre neurones se renforcent ou disparaissent sans cesse. Une de leurs caractéristiques est qu’il leur faut ingurgiter beaucoup de données avant de pouvoir s’appliquer à des problèmes inconnus d’identification, de labellisation, de jeu…

    Les succès sont tels depuis 2012, année de la première victoire de tels systèmes en reconnaissance d’images, qu’ils se confondent désormais avec l’expression « intelligence artificielle ». Pourtant, en traduction, ils semblent plus ­« bêtes » que leurs prédécesseurs, puisqu’ils ne savent rien des langues et de leurs règles, et qu’ils cherchent juste la meilleure manière d’apparier des phrases (traduites par des humains).

    Mais on peut être bête et astucieux. L’idée-clé est qu’on peut abandonner le monde des mots pour celui des chiffres, évidemment plus familier pour les machines. L’astuce consiste à représenter la totalité des mots (d’un texte, de Wikipédia ou encore de directives européennes) dans un vaste espace, dans lequel deux mots de sens proche seraient géographiquement voisins. « Roi » serait proche de « reine », « chat » de « chien », « chats » de « chat »… Cette transformation assez abstraite, voire absconse, est possible… par apprentissage neuronal, comme l’a montré Yoshua Bengio en 2003.

    Puis, en 2007, Holger Schwenk – alors au Limsi et, depuis 2015, chez Facebook – l’applique pour la première fois à la traduction, avant qu’en 2012 le Limsi l’utilise à grande échelle dans un cadre de traduction statistique et que d’autres la perfectionnent. Le système est conçu pour apprendre à bien parler une langue, mot à mot, c’est-à-dire qu’il prédit le meilleur terme pour compléter le début d’une phrase. C’est en quelque sorte le ­fameux modèle de langue des linguistes des ­années 1950, mais qui se dispense de règles grammaticales écrites par des experts. Puis ce modèle est couplé aux statistiques pour faire le bon choix de traduction dans les énormes corpus.

    Plongements lexicaux

    Ces hybrides n’ont eu qu’un temps car, en 2014, les trois articles déjà cités arrivent à passer d’une langue à l’autre sans les statistiques à l’ancienne, grâce à ces représentations numériques appelées « plongement lexical », « sac de mots », ­« représentations continues » (word embedding en anglais)…. Les mots d’une phrase source dans une langue sont d’abord « encodés » dans un plongement lexical qui tient compte des mots l’entourant dans la séquence, avant d’être « décodés » dans la langue cible, selon un processus ­inverse. L’apprentissage des deux réseaux se fait en même temps, de manière que la sortie soit ajustée à l’entrée.

    Et ça fonctionne, comme l’ont successivement démontré l’université de Montréal, Google, Systran, Facebook, DeepL… en quelques semaines d’apprentissage. « C’est fascinant de voir que cette technique, qui reste encore opaque et mal comprise, fonctionne aussi bien », constate François Yvon. Il est vrai que les linguistes y perdent un peu leur latin ; l’énorme réseau de neurones à plusieurs dizaines de millions de paramètres reste assez mystérieux quant aux transformations qu’il fait subir aux mots…

    C’est même si fort que d’aucuns pensent qu’il y a peut-être du sens à chercher dans ces plongements lexicaux. En octobre, une équipe de Facebook a ainsi construit un dictionnaire de mots dans deux langues… sans avoir aucune information bilingue ! Les chercheurs ont « simplement » rapproché les deux représentations géométriques et numériques de chaque langue, grâce à des réseaux de neurones.

    Puis ils ont regardé quels mots étaient proches, et considéré qu’il s’agissait de leur traduction. « C’est bluffant car n’oublions pas qu’il n’y a aucune donnée bilingue dans le système. Certes il y a des erreurs, mais cela reste un exploit », estime Jean Senellart, qui a vérifié la validité de la ­méthode de ces collègues en cent lignes de code et un week-end. Car, ce qui est bluffant aussi avec ces réseaux de neurones, c’est que bien des algorithmes des Google, Facebook et autres sont ­libres et partagés, accélérant la diffusion des ­connaissances. Systran a lui aussi « ouvert » ses entrailles pour espérer attirer une communauté autour de ses systèmes.

    Idiomatismes

    Magiques ou pas, les résultats sont désormais là. « Il y a plus de fluidité dans les traductions depuis 2016 », constate Pierre Isabelle, tout juste retraité du Centre national de recherches du Canada. Son équipe a également testé le meilleur système ­actuel, DeepL, sur des phrases pièges. « 50 % ­d’erreurs en moins que les autres », écrivent les chercheurs dans un résumé de leur étude paru sur le site Medium. La plus grande faille concerne les idiomatismes. « Pédaler dans la choucroute » est littéralement traduit par « pedaling in sauerkraut ». « To be out to lunch » aurait été mieux.

    Mais ce ne sont pas les seuls problèmes. « Parfois le système dérape complètement ! », constate Pierre Isabelle. La qualité des données compte. Si un réseau n’apprend qu’à partir de la législation européenne, il ne saura pas ce que signifie le ­tutoiement, totalement absent du corpus… Idem pour un réseau spécialisé en finance, qui prendra un bank pour une banque, alors qu’il pourrait s’agir d’un banc de poissons.

    La qualité grimpe, certes, mais des sommets restent inaccessibles aujourd’hui. « Traduire non plus phrase à phrase, mais prendre en compte la totalité d’un document afin de préserver la cohérence stylistique ou lexicale est un défi. Les systèmes actuels y arrivent sur quelques dizaines de mots ; c’est déjà remarquable », note François Yvon. Mais pas toujours. Ainsi, DeepL a une ­mémoire de poisson rouge car il traduit « The car is red. It has four wheels » par « La voiture est rouge. Il a quatre roues. »

    Autre point faible, selon Yoshua Bengio, « malgré les quantités délirantes de données utilisées pour les entraîner, plus que ce qu’un humain pourrait voir en plusieurs vies, les erreurs faites par ces systèmes montrent qu’ils ne captent pas vraiment le sens commun, c’est-à-dire la compréhension générale du monde qui nous entoure. Pour cela il faudra aller au-delà des corpus de textes et de traductions, et s’attacher à associer les mots et les phrases à des réalités auxquelles ils font référence, et que l’ordinateur comprenne la nature de cette réalité, les relations de cause à ­effet… » L’absence de bon sens se pose d’ailleurs pour d’autres tâches cognitives « attaquées » par l’intelligence artificielle.

    La traduction orale en ligne de mire

    Les ingénieurs ont aussi leurs problèmes très terre à terre. Google reconnaît : « Les réseaux de neurones sont plus lents que les modèles ­statistiques et même si des progrès ont été faits, nous cherchons des améliorations. » En outre, « un modèle est long à entraîner [plusieurs ­semaines] et comme Google traduit plus de 100 langues, nous cherchons à mettre au point des modèles multilingues », indique un de ses porte-parole.

    Ce dernier point est relié à une autre question, à la fois technique et conceptuelle : que faire avec les langues peu courantes ou n’étant même pas écrites ? Le côté « bluffant » de l’encapsulation numérique pourrait être utile. « Une partie de ma recherche vise à trouver une représentation universellequi serait donc commune à toutes ces langues et qui serait en quelque sorte une représentation du sens », indique Holger Schwenk. Accessoirement, cela rendrait peut-être plus explicable le comportement de ces bêtes à traduire.

    Et la traduction orale ? Elle est aussi en ligne de mire, bien sûr, mais cumule deux difficultés. La première, la traduction, dont on vient d’exposer les limites. La seconde, la reconnaissance de la parole et sa transcription en texte, qui n’a rien d’évident non plus. « Les systèmes ont du mal avec les intonations, les ponctuations, les hésitations dans un dialogue… Bref, tout ce qui est spontané dans le langage », rappelle Laurent Besacier, professeur de l’université Grenoble-Alpes, qui vient de proposer une méthode évitant l’étape de transcription.

    Malgré les difficultés, des prototypes existent, comme dans Skype pour les systèmes d’exploitation Windows, ou chez la start-up Waverly Labs, dont on peut tester l’application sur smartphone, Pilot, en attendant que des oreillettes fassent aussi le travail, ou bien ­encore dans les cours d’Alex Waibel, de l’Institut technologique de Karlsruhe, en Allemagne, qui traduit ses conférences à la volée. Mais ils sont loin de la perfection.

  • La matière noire résiste au génie des chercheurs

    http://www.lemonde.fr/sciences/article/2017/05/21/la-matiere-noire-resiste-au-genie-des-chercheurs_5131344_1650684.html

    Les premiers résultats de la collaboration internationale Xenon 1 Tonne viennent d’être publiés : le détecteur le plus sensible au monde n’a pas saisi la mystérieuse particule. A moins que…

    Encore raté ! Pour percer le mystère de la matière noire, les chercheurs devront encore attendre. La collaboration Xenon 1 tonne (Xenon1T), qui rassemble 135 chercheurs issus de 22 laboratoires à travers le monde, a annoncé ses premiers résultats. Et ils sont négatifs. Le détecteur sous-terrain installé dans le Laboratoire national du Gran Sasso, en Italie, n’est pas parvenu à attraper la capricieuse particule. Dans un article déposé, jeudi 18 mai, sur le site arXiv, avant une publication prochaine dans la revue Physical Review Letters, l’équipe détaille le dispositif qui ouvre, selon sa porte-parole Elena Aprile, « une nouvelle ère » dans cette quête fondamentale.

    Une des énigmes les plus profondes de la physique. Depuis quatre décennies, les astrophysiciens ont mis en évidence un décalage fondamental entre leurs observations et la théorie. Les fameuses équations de Newton et Einstein ne permettent pas d’expliquer comment les étoiles tiennent dans les galaxies, ni comment ces dernières demeurent liées dans leurs amas. Rien que ça ! Pour remettre tout en place, les théoriciens ont conclu qu’il devait exister une matière invisible dont la force de gravitation servirait de ciment aux structures. Mais de quoi est-elle composée ? Comment agit-elle ? Comment prouver son existence ? Les scientifiques ont écarté la matière « baryonique », autrement dit celle qui compose tout ce que nous voyons, sentons, mesurons, du plus petit atome à la plus grande étoile. La particule cherchée serait d’une autre nature et n’interagirait pas avec la matière ordinaire – d’où sa « couleur » –, ce qui rendrait sa détection particulièrement délicate.

    C’est à cette lourde tâche que de nombreuses équipes se sont attelées à travers le monde. Elles ont construit des détecteurs de plus en plus sensibles, de plus en plus gros. Et de plus en plus chers. Si bien qu’aujourd’hui, trois collaborations sont encore en lice. Les Américains de LUX et les Chinois de PandaX ont livré les derniers résultats de la précédente génération de machines, négatifs. Xenon1T ouvre donc le bal de la nouvelle génération.


    Au Laboratoire nationale du Gran Sasso, le bâtiment de trois étages dévolu au système auxiliaires et derrière, le château d’eau avec, à l’intérieur, le détecteur.

    La « satisfaction » affichée par la collaboration Xenon s’explique ainsi : certes, la pêche est restée infructueuse mais jamais le filet n’a été aussi profond et aussi fin. Autrement dit par Dominique Thers, du laboratoire nantais Subatech (école des mines, CNRS, université de Nantes), dans l’équipe depuis 2009 : « Nous n’avons rien entendu mais nous disposons de l’endroit le plus silencieux au monde pour y parvenir. »

    Car c’est bien une histoire de signal et de bruit qui se joue ici. Le signal, c’est la trace laissée par l’interaction entre une particule de matière noire et un atome de xénon. Le minuscule recul atomique s’accompagne de l’émission d’un simple photon. Une réaction rarissime et fugace, selon la théorie, susceptible d’être masquée par la moindre perturbation extérieure. Pour le protéger des rayons cosmiques, le détecteur a été placé sous 1 km de roche. Mais certains rayons passent encore. Le détecteur est donc plongé dans un château d’eau (10 m x 10 m) qui sert de « blindage actif ». Quand un rayon est détecté dans l’eau, l’analyse écarte tout signal enregistré par le détecteur. Sauf que tous les éléments émettent une radioactivité naturelle susceptible elle aussi de perturber les mesures. Ils sont donc soigneusement purifiés et une protection en chaîne a été mise en place (roche, béton, eau, acier et enfin une couche extérieure de 2 tonnes de xénon) afin d’isoler les 1 034 kg de charge utile de xénon sur lesquels est opérée la mesure.

    Des chercheurs lors de l’assemblage du détecteur de Xenon 1 tonne.
    Aucun filtre n’étant tout à fait parfait, les scientifiques ont quantifié le bruit résiduel : il devrait entraîner une interaction imprévue chaque année. Xenon a justement enregistré un recul au cours des trente-quatre jours d’observation. « Si c’est le seul de l’année, c’est du bruit. S’il y en a un tous les trente-quatre jours, ça ressemblera à de la matière noire… », savoure Dominique Thers. Les chercheurs auraient aimé attendre plus longtemps. Mais le tremblement de terre du 18 janvier, dans les Abruzzes, a déréglé la machine et imposé cette publication temporaire.

    Depuis, les mesures ont repris. Elena Aprile voudrait les poursuivre pendant dix-huit mois avant de passer à l’étape suivante : Xenon nT. Car il n’y a pas de temps à perdre. Aux Etats-Unis, LUX s’est mué en LZ avec une charge de 7 à 10 tonnes prévue pour 2020. Les Chinois de PandaX suivent la même épure. A Gran Sasso, on vise donc une mise en service en 2019. Avec une équipe étoffée. La Suède vient d’entrer dans la collaboration. Deux laboratoires du CNRS (le LPNHE à Paris et le LAL à Orsay) rejoindront Subatech côté français. Une trentaine de Japonais de l’ancien projet XMas, récemment abandonné, devraient en faire autant.

    La dernière chance pour le « Wimp ». C’est sur cette particule massive (10 à 10 000 fois plus lourde qu’un proton), prévue par la théorie mais encore hypothétique, que les physiciens ont réglé leurs détecteurs. « Si dans cinq ans nous ne l’avons pas trouvée, il faudra songer à autre chose », admet Elena Aprile. A d’autres particules, beaucoup plus légères, ou beaucoup plus lourdes. Ou encore à modifier les équations de Newton, comme le suggèrent de plus en plus de physiciens. Des expérimentateurs au pied du mur, des théoriciens l’arme au pied : la quête de la matière noire promet quelques années tendues.

  • Mettez un chat dans votre ordinateur

    http://www.lemonde.fr/sciences/article/2016/05/30/mettez-un-chat-dans-votre-ordinateur_4929176_1650684.html

    Coup double pour une équipe de physiciens de l’université Yale (Etats-Unis) en collaboration avec l’Institut national de recherche en informatique et automatique (Inria) en France, comme elle l’expose dans Science du 27 mai. Pour la première fois, un mariage a été réussi entre deux effets spectaculaires de la mécanique quantique, cette théorie qui décrit le monde des particules au comportement contre-intuitif : le paradoxe du chat de Schrödinger et l’interaction à distance.

    Superposition de deux états

    Le premier effet tire son nom d’une expérience de pensée, proposée dans les années 1930 par l’un des pères de la mécanique quantique, Erwin Schrödinger. Il imaginait un chat enfermé dans une boîte dans laquelle un marteau peut casser une fiole contenant un poison mortel pour l’animal. Le déclenchement a lieu lorsqu’un atome se ­désintègre. Le sort du chat est couplé à celui de l’atome.

    Question : tant que la boîte n’est pas ouverte, le chat est-il mort ou vivant ? ­Réponse quantique : les deux ! Aussi surprenant que cela puisse paraître, cette superposition de deux états discernables existe bel et bien. En 1996, deux équipes l’ont réalisée, en France et aux Etats-Unis, ce qui, ajouté à leurs réussites antérieures, vaudra à leurs auteurs, Serge Haroche et David Wineland, le prix Nobel de physique, en 2012.

    Le second effet, baptisé également « intrication », est aussi le fruit d’une expérience de pensée remontant à 1935. Cette année-là, Albert Einstein et deux de ses collègues se demandent ce qu’il se passe si l’on sépare à très grande distance deux photons (des particules de lumière) préparés ensemble. Comment leur comportement est-il corrélé ? Réponse quantique : instantanément ! Mesurer une propriété d’un membre de la paire transforme aussitôt l’autre membre. « Aussitôt » signifiant même… plus vite que la ­lumière. Là aussi, des expériences ont confirmé cette interaction à distance, comme celles réalisées par Alain Aspect en 1982 à Orsay.

    Désormais, une nouvelle expérience, réalisée à Yale, vient de ­marier les deux effets. « Nous avons fabriqué un gros chat mort et vivant et dans deux boîtes à la fois », explique Mazyar Mirrahimi, directeur de recherche à l’Inria. « Ou, ce qui est équivalent, nous avons intriqué deux chats chacun dans une boîte. »

    Finalement, caresser un chat dans le salon suscite un ronronnement chez un félin voisin dans la cuisine. Et, plus cruel, si on tue le chat du ­salon, alors celui de la cuisine meurt instantanément.

    En réalité, les bestioles des chercheurs sont des champs électromagnétiques micro-ondes, ou photons, qui font des millions d’allers-retours dans une cavité aux parois réfléchissantes. Plus précisément, un « chat » est une superposition entre une onde et sa jumelle décalée de telle sorte que, dans le monde classique, la somme des deux ­devrait s’annuler. Mais pas dans le monde quantique : il y a à la fois des photons et pas de photons… Une ­dizaine de photons sont concernés, et l’équipe a déjà fabriqué des « chats » dix fois plus gros.

    Pour créer cet état si étrange, un second objet est nécessaire. C’est une sorte d’atome artificiel, baptisé « transmon », qui possède lui aussi deux états distincts. Il ressemble à une lamelle dont une extrémité, telle une antenne, communique avec la boîte. Il joue le rôle de l’atome se désintégrant dans l’expérience de Schrödinger. En l’excitant, les physiciens influencent les ­micro-ondes jusqu’à réaliser la ­superposition paradoxale.

    En prenant un transmon en forme de Y, chaque branche pointant vers une boîte, l’intrication est réalisée entre les états des deux boîtes. « C’est une expérience originale et très bien faite. Elle constitue une étape remarquable car, pour la première fois, nous sondons cette notion de non-localité sur une plus grande échelle », salue Michel Brune (CNRS) du laboratoire Kastler Brossel de l’ENS, à Paris, et qui était dans l’équipe du premier chat de Schrödinger en 1996.

    De nouveaux transistors, les qubits

    Pour savoir que le monstre mi-mort, mi-vivant délocalisé dans deux pièces est bien là, les chercheurs ont mis au point une technique qui photographie patiemment leur créature, sans ouvrir les boîtes.

    A quoi bon torturer ces chatons ? Pour compter plus vite ! Depuis plusieurs années, les chercheurs ont réalisé que ces drôles de « bêtes » peuvent accélérer les ordinateurs. Jusqu’à présent, ces derniers utilisent des circuits à base de transistors à deux états, ou bits, soit 0, soit 1. Si au lieu d’un composant classique, on dispose d’un équivalent quantique, valant à la fois 0 et 1, alors, en théorie, on peut écrire un algorithme qui résout plus vite certains problèmes. Seul gros bémol, ces nouveaux transistors, ou qubits, ne durent pas longtemps, quelques dizaines de microsondes.

    « C’est insuffisant pour faire toutes les opérations nécessaires. D’où l’idée de corriger les erreurs… grâce à d’autres qubits », explique M. Mirrahimi, dont les collègues ont déjà conservé la superposition quantique pendant une milliseconde. Il faut plusieurs dizaines de qubits pour en corriger un… « L’intérêt de cette expérience est d’ouvrir la voie à une nouvelle architecture de correction d’erreurs », estime ­Daniel Esteve, chercheur au CEA en information quantique. En fait, les qubits américains sont plus gros que les ordinaires, ce qui permettrait de faire des corrections sans recourir à des composants supplémentaires. Dans un article à paraître, la même équipe estime avoir démontré son idée.

    « L’intérêt est également fondamental : on espère toujours prendre en défaut la mécanique quantique et tomber sur des situations où elle ne marche plus, indique Michel Brune. Mais jusqu’à présent, elle résiste ! »

  • Petite visite au musée d’Orsay cet aprèm. Les enfants ont trouvé que les femmes des tableaux de Lautrec étaient « un peu » vulgaires et ont aussi trouvé rigolo que tous les messieurs de la salle de rédaction du « Journal des Débats » soient habillés en noir « sans aucune couleur » signe que les temps devaient être très chiants (dixit les mômes)

    Ce tableau est l’œuvre de Jean Béraud et semble avoir été peint en 1889.
    En regardant bien, on a l’impression que les femmes ne débattaient pas beaucoup à l’époque...

  • C’est surréaliste : il est interdit de dessiner au musée Magritte de Bruxelles ! - Arts et scènes - Télérama.fr
    http://www.telerama.fr/scenes/c-est-surrealiste-il-est-interdit-de-dessiner-au-musee-magritte-de-bruxelle

    "Ça ressemble à une blague : à Bruxelles, au musée Magritte, mais aussi à celui de la Fin de Siècle ou au Palais des beaux-arts, sortir un crayon est motif d’expulsion."

    Idem au BAM de Mons : https://liens.effingo.be/?7CyCnw(Permalink)

    • C’est pas le seul musee a faire ca. Au jardin des plantes de Paris en ce moment il n’y a plus besoin d’autorisation. Mais il y a quelques années c’etait obligatoire en anatomie comparée et paléontologie. aujourd’hui la seule interdiction la bas conçerne l’encre de Chine.
      Édit -
      J’avais pas lu l’article. Arg Ca me rappel qu’à la révolution francaise on avait réserver la moitier des jours d’ouverture pour que les artistes pour qu’ils puissent étudier les oeuvres au calme. La moitié du temps etait ouverte à tout publique et gratuite et une journée de fermeture etait dévolue au menage. Aujourd’hui ils veulent imposer l’ouverture tous les jours (cf grève actuel a Orsay ) et les gardiens de salles sont des employés de boîtes privées qui peuvent garder n’importe quel truc, l’information qu’illes pouvaient transmettre est maintenant t remplacé par ces affreux audio guide en location et il faut surtout qu’on marche au pas et en passant par la boutique cadeau....
      Je parle de la France mais le problème a l’air assez semblable a Bruxelles.
      Et sinon je tique sur le nom de l’asso dont il est question sur l’article : consoloisir

  • Et la femme créa... - Culture / Next
    http://next.liberation.fr/culture-next/2015/09/18/et-la-femme-crea_1385691

    Germaine Tailleferre, le silence de l’oubli pour la compositrice

    Dans le Paris de l’entre-deux-guerres, aux soupers du cabaret Le bœuf sur le toit, près de la Madeleine, on pouvait croiser l’avant-garde artistique des années 20, de Satie à Picasso, de Cendrars à Coco Chanel, de Radiguet à Picabia. Mais on y trouvait également la musicienne Germaine Tailleferre (1892-1983), l’une des rares femmes compositrices. Eminente membre du « groupe des six », aux côtés de Poulenc, Milhaud, Auric, Durey et Honegger, Germaine Tailleferre, entrée au conservatoire de Paris contre l’avis de son père, fut une figure familière mais oubliée de cette époque fertile.

    Elle nous a pourtant laissé des dizaines d’œuvres, des concertos aux menuets en passant par les opéras bouffes, et même une comédie musicale. On peut évoquer ses Six Chansons françaises (1929), à la tonalité discrètement féministe, où elle met en musique des chants anonymes des XVe et XVIIe siècle qui font notamment l’éloge de l’infidélité. Rappelons enfin que les critiques d’art adoraient insister sur l’aspect jugé « féminin » de son œuvre, tout comme ils le faisaient avec celle de l’aquarelliste Marie Laurencin, dont Germaine Tailleferre était très proche.
    Aphra Behn, l’auteure « punk »

    Insensé qu’une femme de lettres prolifique, traitée de « punk » au XVIIe siècle, n’ait pas aujourd’hui les honneurs des bibliothèques. C’est le drame d’Aphra Behn (1640-1689). Aphra qui ? Une Anglaise qui rêva qu’on « accorde à ses vers l’immortalité ». Elle émerge de trois siècles d’éclipse alors qu’elle fut la première auteure à vivre intégralement de sa plume. Vingt pièces, moult novels, ces courts récits en prose et un best-seller de son vivant : Oroonoko l’esclave royal, histoire d’un prince esclave au Surinam qui se révolte, ouvrage qui inspira les abolitionnistes. Femme libre, s’exprimant sur la place publique, elle fut traitée de punk, qui signifiait « pute » à l’époque, joua les espionnes à Anvers sous le nom de code Astrea, pour Charles II, et - ô outrage - compara le mariage forcé à la prostitution. Si Virginia Woolf la mentionne (« Toutes les femmes en chœur devraient déposer des fleurs sur la tombe d’Aphra Behn […] car c’est elle qui obtint, pour elles toutes, le droit d’exprimer leurs idées »), il faut attendre les féministes américaines des années 60-70 pour qu’Aphra Behn sorte de l’ombre. En France, une poignée d’admirateurs s’échine à la faire connaître, dont le traducteur Bernard Dhuicq (disparu en 2013), la chercheuse Edith Girval (dont la thèse doit bientôt être publiée), et Aline César (présidente de HF Ile-de-France).
    Marie Bashkirtseff, la ruse plutôt que la muse

    Que fait-on lorsqu’on est une femme à la fin du XIXe siècle et que l’on désire se consacrer à la peinture ? On ruse. Jusqu’en 1897 en effet, pour des raisons purement sexistes, les Beaux-Arts étaient interdits à la gent féminine. Et de toute façon, que peindre ? Les sujets étaient limités puisqu’il aurait été parfaitement inconvenant de peindre ou de sculpter un homme nu sans passer pour une femme de mauvaise vie (et comme le dit le Dictionnaire des idées reçues de Flaubert, « Femme artiste ne peut être qu’une catin »). Seule solution, donc : passer par une académie privée ouverte ou réservée aux femmes. C’est ce que fit la riche Ukrainienne Marie Bashkirtseff (1858-1884), arrivée à Paris et passée par la progressiste Académie Julian. Sa carrière fut courte - elle mourut de tuberculose à 25 ans - mais l’artiste et diariste nous laissa quelques œuvres injustement dédaignées, notamment une scène de rue naturaliste avec des enfants mendiants (la Réunion, 1884, exposé à Orsay) ainsi qu’un portrait époustouflant de naturel d’une jeune élégante, la Parisienne (1882, à voir au Petit-Palais).
    Sarah Bernhardt, la divine sculptrice

    Sur un tableau de Georges Clairin, exposé au Petit-Palais, elle pose nonchalante dans une robe de satin blanc. Le tableau réalisé en 1876 est célèbre. La femme qu’il dépeint, encore plus : Sarah Bernhardt (1844-1923), tragédienne couverte de fleurs et de gloire de son vivant, passée à la postérité avec une flopée d’éloges : « la Divine » « l’Impératrice du théâtre », « la Voix d’or »… Bref, Sarah Bernhardt n’a rien d’une inconnue méprisée. Mais tout un pan de sa vie d’artiste a longtemps été gommé. « L’Impératrice » fut aussi sculptrice. Un choix audacieux à une époque où l’on considérait l’affaire réservée à des musclés. « Elle a commencé à sculpter vers 1870, très inspirée par son environnement maritime à Belle-Ile », explique Bénédicte Gattere, historienne de l’art, désignant une œuvre fascinante de la tragédienne, experte en lignes sinueuses : une dague en bronze sur laquelle s’enroulent algues et coquillages. Présentée à l’Exposition universelle de Paris en 1900 dans la vitrine « Algues-poissons » (regroupant les créations de l’artiste éprise, selon ses propres termes, de « formes étranges et tourmentées »), elle est enfin visible par tous au Petit Palais, qui l’a acquise en 2014 (seulement) pour 37 500 euros (quand même). Dans ce musée, la sculptrice a enfin sa place aux côtés de la femme modèle de Clairin.

  • #Philae: reflections and hopes
    http://blogs.esa.int/rosetta/2015/03/13/philae-reflections-and-hopes

    Lead #lander scientist Jean-Pierre Bibring (IAS, Orsay, France) reflects on the events surrounding comet #Landing four months ago, and shares his hopes for #philae’s reactivation. For years we dreamt of visiting a comet, to perform in situ analyses of a pristine Solar System object. For Philae, the first giant challenge was to land. We always knew that achieving our scientific goals would require us to face extreme conditions, so cold and unpredictable would be the comet environment at such distances from the Sun – nearly 450 million kilometres around #landing day. Our mission was expected to present enormous risks: the reality was even tougher. All scientific #Operations planned for the descent up to 10 hours after touchdown had been preloaded, ready to be run in an automated fashion. They (...)

    #Comet_67P #Instruments ##CometLanding #instruments #landing_day #science

  • Là où il n’y a rien
    http://le-tigre.net/La-ou-il-n-y-a-rien.html

    Nous sommes cinq à descendre du train. Il est 10h47. Le ciel est gris et le quai parfaitement rectiligne, la température extérieure avoisine les 2°C ; il ne pleut pas. Derrière moi PLAN 28, mon RER, sonne puis s’éloigne vers les dernières gares de la ligne : c’est ici, à Orsay-Ville dans l’Essonne, que commence mon voyage. À Orsay-Ville, François Maspero était presque au bout du sien. C’était il y a plus de vingt ans, en 1989. Lui était parti de Roissy-Charles-de-Gaulle, à l’autre bout de la ligne B du RER. Chaque jour il prend le train et avance d’une station. Puis il visite, regarde, décrit ce qu’il y a autour, et il lui faut trois semaines pour franchir la petite cinquantaine de kilomètres qui le sépare d’Orsay-Ville ; un #voyage comme une croisière, autant de ports que de gares. Il en fait un livre, un très beau livre : Les Passagers du Roissy-Express. Un livre qui donne envie de voyager, de regarder et d’écrire ce qui est juste autour de soi, de Paris. Alors je ferai le tour de la Francilienne. La Francilienne, c’est une #auto­route : A104, N104 ou N184 suivant ses tronçons. Autour de Paris, il y a d’abord le boulevard périphérique, puis l’A86 et, plus loin, la Francilienne, le troisième contournement de la capitale, long de 160 km. À l’origine, dans les années 70, elle était rocade interdépartementale des villes nouvelles. Le tour, je le ferai à #vélo. Trois ou quatre jours de voyage, on verra bien, le long de l’autoroute, autour de cette boucle inachevée - il n’y a qu’un C à l’envers - dont le quart ouest, toujours en projet, manque encore. Qu’y a-t-il aux marges de la ville ? Et que voit-on en ralentissant ? Car là, si l’on y passe, c’est en voiture. Les trains mènent vers Paris, le long des rayons du cercle, et les voitures, les camions longent sa périphérie. Mais sur cette autoroute comme sur les autres, on ne pédale pas. Je la suivrai donc au plus près, la carte en main (IGN no 190, Paris - Chan­tilly - Fontainebleau, série Top 100 « Tou­risme et Découverte », échelle 1/100 000).

  • Orsay choisit un accident photographique | L’Atelier des icônes
    http://culturevisuelle.org/icones/2957

    Le musée d’Orsay vient d’acquérir, pour une somme que L’Express évalue à 50.000 Euros, non pas une #photographie, mais une hypothèse érudite, une belle histoire. L’#histoire, c’est celle imaginée par Serge Plantureux, l’un des grands collectionneurs spécialiste de photographie ancienne, à propos d’une épreuve albuminée dénichée dans un album anonyme, acquis en 2013.

  • Mais quels efforts pour écrire ces dépêches d’une façon totalement incompréhensible ! AP News : Italian reporter abducted in Syria is freed
    http://m.apnews.com/ap/db_268743/contentdetail.htm?contentguid=9junY59v

    On t’apprend d’abord la libération de deux journalistes enlevés en Syrie :

    An Italian war reporter and a Belgian writer who were kidnapped in Syria in April were freed on Sunday, the Italian government said.

    Et on glisse en passant qu’il s’agit d’un mystère très mystérieux : on ne saurait pas qui les avait enlevés (ce qui est tout de même totalement invraisemblable, et c’est un coup que le Quai d’Orsay nous a déjà fait) :

    Letta’s office said “hope had never faded” for Quirico’s safe return but gave no details on how he became free, nor said who had held him.

    Seule indication assez transparente :

    “I had tried to tell the story of the Syrian revolution but... the revolution turned into something else,” Quirico said.

    Bon, ça va, c’est comme la dernière fois :
    – on a des dizaines de cas d’enlèvements de journalistes par les rebelles ;
    – je ne vois pas pourquoi le régime syrien, s’il enlevait des journalistes européens pendant des mois, prendrait le risque de les libérer ;
    – si c’était le régime, tu te doutes bien que les Occidentaux le feraient largement savoir.

    Malgré l’évidence, la dépêche se termine en évoquant un autre cas, celui de Paolo Dall’Oglio, et met en avant deux faits qui suggèrent qu’il a été enlevé par le régime (alors que toutes les infos le concernant depuis son enlèvement disent le contraire) :

    Dall’Oglio is a critic of the regime of President Bashar Assad, which the rebels are fighting to overthrow. The government a year ago expelled him from Syria, where he had lived for 30 years.

    Donc :
    – on ne sait qui a fait le coup,
    – l’un des détenus est déçu par ce en quoi s’est transformée la révolution syrienne,
    – et malgré l’évidence, on rappelle qu’un troisième détenu (dont il circule très largement qu’il a été enlevé par le front Al Nusra) était opposé au régime.

    Sérieusement…

  • #Dtaleur, j’entends le scénariste de la BD Orsay vanter B. Le Maire (ils étaient tous les deux plumes de Villepin)
    http://www.la-croix.com/Culture/Livres/Livres/Quai-d-Orsay-la-diplomatie-croquee-par-Christophe-Blain-_NG_-2013-02-04-74
    Il se trouve que ce dernier était en tournée promotionnelle la semaine dernière contre les #privilèges la #technocratie l’#aristocratie l’#ena l’#entre_soi tout ce qui n’est pas #démocratie, parce que ce qu’il faut promouvoir c’est l’#éducation et la #culture.
    http://soundcloud.com/thibnton/bruno-le-maire-pr
    #droite #élections #marketing

  • Finissons donc le mois en beauté avec la crème de la crème anglaise :
    « Morale pour moral : beauté et volupté au musée d’Orsay »

    "Il y a des moments où la beauté se fait essentielle, où il est vital de s’en entourer. Cette semaine j’ai (encore) trouvé de quoi m’éloigner des laideurs du monde, au Musée d’Orsay. L’exposition Beauté, morale et volupté dans l’Angleterre d’Oscar Wilde est consacrée à « l’art pour l’art » britannique, autrement dit l’Aesthetic Movement des années 1860 à 1890. Autour des aphorismes…"

    http://mademoiselledupetitbois.wordpress.com/2011/10/30/morale-pour-moral-beaute-et-volupte-au-musee-dors
    #expo #peinture #artsdéco #Orsay

  • Pourquoi ne peut-on pas prendre de photos au musée d’Orsay ? | Rue89
    http://www.rue89.com/explicateur/2011/02/05/pourquoi-ne-peut-on-plus-prendre-de-photos-au-musee-dorsay-188944

    Privatisation des collections publiques en vu d’une privatisation complète des musées ? La France qui a inventée les droits d’auteurs est plus restrictive que les USA, pays du copyright…

    http://www.flickr.com/photos/tags/orsaycommons

    #commons #privatisation #contrôle