• Can This New Map Fix Our Distorted Views of the World?

    Most of the world maps you’ve seen in your life are past their prime. The Mercator was devised by a Flemish cartographer in 1569. The Winkel Tripel, the map style favored by National Geographic, dates to 1921. And the Dymaxion map, hyped by the architect Buckminster Fuller, debuted in a 1943 issue of Life.

    Enter a brash new world map vying for global domination. Like sports, the mapmaking game can sometimes grow stale when top competitors are stuck on the same old strategy, said J. Richard Gott, an astrophysicist at Princeton who had previously mapped the entire universe. But then along comes an innovator: Think Stephen Curry of the Golden State Warriors, splashing 3-pointers from areas of the court the rest of basketball hadn’t thought were worth guarding.

    “We were sort of reaching the limit of what you could do,” Dr. Gott said. “If you wanted any significant breakthrough, you had to use a new idea.”

    Dr. Gott’s version of Steph Curry’s wait-you-could-shoot-from-there 3? Use the back of the page, too. Make the world map a double-sided circle, like a vinyl record. You could put the Northern Hemisphere on the top side, and the Southern Hemisphere on the bottom, or vice versa. Or to put it differently: You could deflate the 3-D Earth into two dimensions. And if you did, you could blow the accuracy of previous maps out of the water.

    No flat map of our round world can be perfect, of course. First you need to peel off Earth’s skin, then pin it down. This mathematical taxidermy introduces distortions. If you have a Mercator projection on your classroom walls, for example, you may grow up thinking Greenland is the size of Africa (not even close) or Alaska looms larger than Mexico (also nope). This warped worldview might even bias you, subconsciously, to under-appraise most of the developing world.

    Shapes also change in map projections. Distances vary. Straight lines curve. Some projections, such as Mercator, aim to excel at one of these concerns, which aggravates other errors. Other maps compromise, like the Winkel Tripel, so named because it tries to strike a balance between three kinds of distortion.

    Starting in 2006, Dr. Gott and David Goldberg, a cosmologist at Drexel University in Philadelphia, developed a scoring system that could sum up these different kinds of error. The Winkel Tripel beat out other major contenders. But one big source of distortion persisted: a mathematical incision, often running from pole to pole down the Pacific. The resulting shape can never again be stretched and pulled back into the unbroken surface of a sphere. “This does violence to the globe,” Dr. Gott said.

    His new kind of double-sided map, crafted with Dr. Goldberg and Robert Vanderbei, a mathematician at Princeton, skips the topological violence entirely. The map simply continues over the edge. You could stretch a string over the side; an ant could walk there. Without any cut, the map’s Goldberg-Gott distortion score blows all other maps currently in use out of the water, the team reports in a draft study.

    Cartographers who regularly study world maps — perhaps fewer than 10 people — will now have time to react. “It never came up to me that it could be done in this way,” said Krisztián Kerkovits, a Hungarian cartographer working to develop his own projections.

    But while the new map excels at addressing distortion, Dr. Kerkovits said it also introduced a new weakness. You can see only half of the planet at once, unlike the Winkel Tripel and Mercator. That undermines the basic premise of flaying out the whole world for inspection on a single page or screen.

    To Dr. Gott, this is no different than the 3-D globe itself. But Dr. Kerkovits isn’t quite sure: After all, you can always rotate a globe slightly to see the neighbors of any chosen point. But in the double-sided map, you might have to flip the entire thing.

    Ultimately a map’s success depends on which applications it’s used for, and how its popularity grows over time. Dr. Gott, whose paper also presents double-sided projections of Jupiter and other worlds, envisions the new map style as a physical object to turn over in your hands.

    You could cut one out of a magazine, or you could store a whole stack of them in a thin sleeve, showing different planets or different data layers. And he hopes you may be tempted to try to print out and make your own using the appendix of his paper.

    “Glue it back to back with double-stick tape — I think that’s better than Elmer’s Glue, but you can use glue,” Dr. Gott said. Then cut it out. “Maybe use card stock paper,” he added.


    #projection #visualisation #monde #cartographie #distorsion
    via @reka

  • School closures cut Covid-19 infections, says study

    The closure of Swiss schools in the spring of 2020 was one of the most effective measures to reduce travel and so the transmission of Covid-19, says a new study.

    Researchers at the Federal Institute of Technology ETH Zurich found that the closure of schools reduced mobility by around a fifth, report Sunday newspapers Le Matin Dimanche and Sonntagszeitung.

    “The closure of the schools reduced mobility by 21.6%,” ETH professor of computer science and management Stefan Feuerriegel, who led the study, told French news agency AFP.

    The Swiss research team analysed 1.5 billion movements between February 10 and April 26, 2020, using data from Swiss mobile operators to assess the impact of measures against Covid-19 on mobility. All changes in postcode areas were taken into account.

    According to the study, the ban on gatherings of more than five people reduced mobility by 24.9%, while the closure of bars, restaurants and other non-essential shops brought a drop of 22.3%, while school closures came just behind.

    “If the schools are closed, we can hope for a big change in behaviour,” says Feuerriegel. “Not only do children stay at home, but sometimes it also means a change for the parents.”

    Le Matin Dimanche says the study is likely to rekindle controversy over whether schools should be closed to combat the spread of Covid-19. While governments in Switzerland and elsewhere closed schools during the first wave of the pandemic, they have since sought to keep them open if possible.

    Studies have suggested that school closures are harmful to the education particularly of younger children and increase inequalities between them. And while children are unlikely to develop serious forms of Covid-19, their role in spreading it remains unclear.

    #écoles #école #contamination #fermeture #covid-19 #coronavirus #pandémie #enfants #ETHZ

    ping @simplicissimus

    • Schweizer Studie: Schulschließungen zählen zu effektivsten Maßnahmen

      Eine Studie der ETH Zürich zeigt, dass Schulschließungen wirken. Noch mehr Effekt haben allerdings Kontaktreduzierungen und Beschränkungen in der Gastronomie.

      Im Kampf gegen die Corona-Pandemie haben sich in der Schweiz Schulschließungen als eine der effektivsten Maßnahmen erwiesen. Das geht aus einer Studie hervor, die am Sonntag von der ETH Zürich veröffentlicht wurde. Demnach wurde die Mobilität um 21,6 Prozent reduziert, als die Schweizer Behörden im März 2020 die Schließung der Schulen anordneten.

      Schulschließungen verminderten die Mobilität und führten damit zu einer Verringerung der Covid-19-Erkrankungen, meinte der ETH-Forscher Stefan Feuerriegel. Für die Studie wurden mit Hilfe von Telekommunikationsdaten 1,5 Milliarden Bewegungen ausgewertet. Die Schulen waren im Frühjahr wegen der Pandemie rund zwei Monate geschlossen.

      Aus der ETH-Studie ergibt sich, dass zwei Faktoren die Mobilität noch stärker verringerten als Schulschließungen. Auf dem Spitzenplatz rangiert mit 24,9 Prozent das Verbot von Treffen mit mehr als fünf Menschen, knapp dahinter liegt mit 22,3 Prozent die Schließung von Restaurants, Bars und Geschäften, die für den täglichen Lebensunterhalt nicht notwendig sind.
      Weltweite Debatte über Schulschließungen

      Über Schulschließungen als Mittel zur Eindämmung der Covid-19-Pandemie wird weltweit heftig gestritten. Die Gefahr, dass Kinder eine Erkrankung mit dem Covid-Erreger erleiden, ist vergleichsweise gering, aber es ist nicht klar, in welchem Maße sie Covid-Viren übertragen. Zu dieser Frage nahmen die ETH-Autoren nicht Stellung. Sie zeigten jedoch auf, dass Schulschließungen dazu beitragen, das Risiko eine Übertragung des Virus deutlich zu verringern. „Unsere Analyse belegt, dass Schulschließungen ein Mittel sind, die Verbreitung zu verlangsamen, indem sie die Mobilität verringern“, sagte Feuerriegel.


    • Et voilà l’étude, enfin trouvée...
      Monitoring the COVID-19 epidemic with nationwide telecommunication data

      n response to the novel coronavirus disease (COVID-19), governments have introduced severepolicy measures with substantial effects on human behavior. Here, we perform a large-scale,spatio-temporal analysis of human mobility during the COVID-19 epidemic. We derive hu-man mobility from anonymized, aggregated telecommunication data in a nationwide setting(Switzerland; February 10–April 26, 2020), consisting of∼1.5 billion trips. In comparison tothe same time period from 2019, human movement in Switzerland dropped by 49.1 %. Thestrongest reduction is linked to bans on gatherings of more than 5 people, which is estimated tohave decreased mobility by 24.9 %, followed by venue closures (stores, restaurants, and bars)and school closures. As such, human mobility at a given day predicts reported cases 7–13 daysahead. A 1 % reduction in human mobility predicts a 0.88–1.11 % reduction in daily reportedCOVID-19 cases. When managing epidemics, monitoring human mobility via telecommuni-cation data can support public decision-makers in two ways. First, it helps in assessing policyimpact; second, it provides a scalable tool for near real-time epidemic surveillance, therebyenabling evidence-based policies.


    • Les écoles à la source de contaminations : « Nous devons repenser le rôle des enfants dans la transmission » dit Vandenbroucke

      Les écoles peuvent également devenir des sources de contamination, a averti dimanche le ministre fédéral de la Santé, Frank Vandenbroucke, sur le plateau de l’émission « De Zevende Dag » (VRT). Un nombre croissant de cas y sont constatés.

      « Nous devons bien réfléchir à la façon dont nous appréhendons les contaminations chez les enfants car, à un certain moment de l’épidémie, la vie à l’école peut elle-même devenir une source de contamination », a-t-il expliqué.

      Les annonces de nouvelles contaminations ne doivent pas décourager la population, demande-t-il. « Ce que nous voyons, c’est une épidémie qui progresse sous la surface en plus de l’épidémie. On voit la croissance de variants, comme le variant sud-africain, face auxquels on ne sait pas avec certitude si les vaccins sont bien efficaces. Mais nous savons ce que nous devons faire : tester, tester, tester, isoler, et vacciner, vacciner, vacciner ».

      « D’une part, grâce à la campagne de vaccination, nous pouvons entrevoir la fin mais, de l’autre côté, avec les mutations, nous voyons resurgir le danger. Nous devons être rapidement sur la balle et continuer à appliquer les mesures : masques, lavage des mains, limitation des contacts et être très, très prudent », a-t-il ajouté.

      Un important foyer a été détecté à Bekkevoort, en Brabant flamand, au départ d’une école primaire. 45 infections y ont été comptabilisées, soit un élève et un enseignant sur trois, explique le bourgmestre Benny Reviers à la VRT, et 52 au total dans la commune. Les contaminations auraient aussi d’autres écoles de l’entité, suite aux contacts que les enfants ont entre eux. C’est pourquoi Bekkevoort a décidé de fermer les trois écoles primaires de la commune et de mettre tous les élèves, enseignants et parents à la maison pendant au moins trois jours.

      Le bourgmestre d’Anvers, Bart De Wever, a évoqué deux foyers de contamination dans sa ville : l’un dans le quartier juif, l’autre dans deux écoles. Les mesures à prendre dans ces établissements scolaires sont actuellement en discussion.

      A Etterbeek (région de Bruxelles-Capitale), le Collège Saint-Michel, qui accueille plus de 1000 personnes, a décidé ce dimanche la suspension de tous les cours en présentiel de la première à la sixième secondaire, après la découverte d’au moins 4 contaminations au variant parmi les professeurs.


  • The Future of Work Is Here

    Abstract This commentary traces contemporary discourses on the relationship betweenartificial intelligence and labour and explains why these principles must becomprehensive in their approach to labour and AI. First, thecommentaryasserts that ethical frameworks in AI alone are not enough toguarantee work-ers’ rights since they lack enforcement mechanisms and the representation ofdifferent stakeholders. Secondly, it argues that current discussions on AI andlabour focus on the deployment of (...)

    #algorithme #technologisme #travail

  • Berlin - The Things Network Community

    Auch Fr. Merkel nutzt jetzt bereits unser Berliner TTN Gateway (DB) für die SenseBox im Bundeskanzleramt (kein Fake)

    Our Team - The Things Network

    The current team consists of Internet of Things enthusiasts who believe in an open and free internet. Besides the global team listed below, there are many local heroes in teams all around the world.
    Wienke Giezeman, Initiator

    The Things Network

    Das The Things Network (TTN) ist eine communitybasierte Initiative zur Errichtung eines energiesparenden Weitbereichs-Netzwerks für das Internet der Dinge. Die Initiative wurde 2015 durch die beiden Niederländer Wienke Giezeman und Johan Stokking gestartet und deckte im Juni 2019 mit rund 12.000 installierten LoRaWAN-Gateways in etwa 135 Ländern große Flächen ab. Freiwillige übernehmen die Bereitstellung, die Errichtung und die Betreuung von Gateways. Diese leiten Funksignale hoher Reichweite, die von energiesparenden Sensoren stammen, über das Internet in eine Zentrale weiter. Dort werden die Signale (z. B. Messdaten, wie beispielsweise von Strom- oder Wasserzählern) weiter verarbeitet und an definierte Empfänger weitergeleitet.

    The Things Network | OpenIoT

    The Network makes use of LoRaWAN technology. LoRaWAN, is a Low Power Wide Area Network (LPWAN), is used to transport telemetry data over an extended range of up to several kilometres. A node, named a “Thing” in the network connects to a gateway to publish telemetry data to a server on the internet, which can then exchange data between multiple internet services.

    The Things Network Launches World’s First Crowdfunded Internet of Things Data Network in Amsterdam and The World is Next (2015)

    A Closer Look at LoRaWAN and The Things Network

    In this post we first take a look at just how it is that LoRaWAN is able to cover far greater distances than traditional wireless systems, before exploring the network architecture, looking at some of the hardware options and finally, support via the crowdsourced IoT data network, The Things Network.

    Understanding the Limits of LoRaWAN

    Transportation and logistics are seen as two major pillarsof the expected IoT growth over the next few years thanksto their impact on the global economy. Most applications aretargeting efficiency in areas such as public transportation ortransport of goods. However, some applications are tolerant todelay, jitter or unreliability and some others are not.Different standards have been developed in the 5.9 GHzband for Intelligent Transportation Systems (ITS) based on theIEEE 802.11p standard. The constraints on delay are diversefor different applications, but LoRaWAN, being a LPWANsolution, is not suitable for these applications. On the contrary,solutions such as fleet control and management can be sup-ported by LoRaWAN.

    LoRaWAN 04: Data rate | Libelium

    / ------ LoRaWAN Code Example --------
    Explanation : This example shows how to configure the data rate.
    The possibilities are :
    LoRaWAN EU or IN or ASIA-PAC / LATAM :
    0 : SF = 12, BW = 125 kHz, BitRate = 250 bps
    1 : SF = 11, BW = 125 kHz, BitRate = 440 bps
    2 : SF = 10, BW = 125 kHz, BitRate = 980 bps
    3 : SF = 9, BW = 125 kHz, BitRate = 1760 bps
    4 : SF = 8, BW = 125 kHz, BitRate = 3125 bps
    5 : SF = 7, BW = 125 kHz, BitRate = 5470 bps

    LoRaWAN US or AU :
    0 : SF = 10, BW = 125 kHz, BitRate = 980 bps
    1 : SF = 9, BW = 125 kHz, BitRate = 1760 bps
    2 : SF = 8, BW = 125 kHz, BitRate = 3125 bps
    3 : SF = 7, BW = 125 kHz, BitRate = 5470 bps
    Copyright (C) 2018 Libelium Comunicaciones Distribuidas S.L. * http://www.libelium.com

    Was ist LoRa und LoRaWAN? Vorteile, Nachteile, Hintergründe.

    LoRaWAN ist ein Media Access Control (MAC), also ein Schicht-Protokoll. Konzipiert für große öffentliche Netze mit einem einzigen Betreiber und basiert auf dem Modulationsschema LoRa von Semtech.


    LORIOT | LoRaWAN Services and Software

    LORIOT.io services and software enable you to operate large scale Internet of Things (IoT) networks based on the LoRaWAN technology.

    Our geographically distributed LoRaWAN cloud is providing low-latency access to your gateways, back-ends and users world-wide.
    Since 2015, it has been delivering convincing, responsive IoT proof-of-concept (PoC) projects for our customers in more than 70 countries
    It has significantly reduced their development effort and shortened time to market.
    For IoT network deployment, our software is available as a managed or unmanaged service on our infrastructure,
    or can be licensed for your private cloud or bare metal servers.

  • Spectral Ranking

    We sketch the history of #spectral_ranking—a general umbrella name for techniques that apply the theory of linear maps (in particular, eigenvalues and eigenvectors) to matrices that do not represent geometric transformations, but rather some kind of #relationship between entities. Albeit recently made famous by the ample press coverage of #Google’s #PageRank algorithm, spectral ranking was devised more thana century ago, and has been studied in tournament ranking, psychology, social sciences, bibliometrics, economy and choice theory. …


    (en gros le brevet sur lequel Google a construit sa fortune ne valait pas tripette)

  • Facial Recognition Tech Is Growing Stronger, Thanks to Your Face

    Dozens of databases of people’s faces are being compiled without their knowledge by companies and researchers, with many of the images then being shared around the world, in what has become a vast ecosystem fueling the spread of facial recognition technology.


    Documents released last Sunday revealed that Immigration and Customs Enforcement officials employed facial recognition technology to scan motorists’ photos to identify undocumented immigrants. The F.B.I. also spent more than a decade using such systems to compare driver’s license and visa photos against the faces of suspected criminals, according to a Government Accountability Office report last month. On Wednesday, a congressional hearing tackled the government’s use of the technology.


    One database, which dates to 2014, was put together by researchers at Stanford. It was called Brainwash, after a San Francisco cafe of the same name, where the researchers tapped into a camera. Over three days, the camera took more than 10,000 images, which went into the database, the researchers wrote in a 2015 paper. The paper did not address whether cafe patrons knew their images were being taken and used for research. (The cafe has closed.)

    The Stanford researchers then shared "Brainwash. According to research papers, it was used in China by academics associated with the National University of Defense Technology and Megvii, an artificial intelligence company that The New York Times previously reported has provided surveillance technology for monitoring Uighurs.

    #face_recognition #databases #bases_de_données #reconnaissance_faciale #msceleb #dataset

    Dataset created “in the wild”


    End-to-end people detection in crowded scenes

  • L’art rupestre préhistorique suggère l’utilisation ancienne d’une astronomie complexe Là... Je demande à voir...

    Selon le résumé de sciences Daily « Certaines des peintures rupestres les plus anciennes du monde ont révélé à quel point les peuples anciens possédaient des connaissances relativement avancées en astronomie ».

    Avant de lire le résumé ET l’article original, je me permets de fournir le lien vers le compte rendu de lecture sur... "L’Homme de Lascaux et l’énigme du Puits" de Jean-Loïc Le Quellec : https://clio-cr.clionautes.org/lhomme-de-lascaux-et-lenigme-du-puits.html

    L’article sous pdf : https://arxiv.org/pdf/1806.00046.pdf

    Le résumé :

    Les œuvres d’art, sur des sites à travers l’Europe, ne sont pas simplement des représentations d’animaux sauvages, comme on le pensait auparavant. Au lieu de cela, les symboles des animaux représentent les constellations d’étoiles dans le ciel nocturne et sont utilisés pour représenter les dates et marquer des événements tels que les impacts de comètes(...).

    Ils révèlent que, il y a peut-être 40 000 ans, les humains suivaient l’évolution du temps en utilisant la connaissance de la lente évolution de la position des étoiles au cours de milliers d’années.

    Les résultats suggèrent que les peuples anciens ont compris un effet causé par le déplacement progressif de l’axe de rotation de la Terre. La découverte de ce phénomène, appelée la précession des équinoxes, était auparavant attribuée à des Grecs anciens.

    Selon l’étude, à peu près à l’époque de la disparition des Néandertaliens, et peut-être avant que l’humanité ne s’installe en Europe occidentale, les gens pouvaient définir des dates à moins de 250 ans.

    Les résultats indiquent que les connaissances astronomiques des peuples anciens étaient bien plus importantes qu’on ne le pensait auparavant. Leurs connaissances ont peut-être facilité la navigation en haute mer, avec des implications pour notre compréhension de la migration humaine préhistorique.

    Des chercheurs des universités d’Édimbourg et du Kent ont étudié des détails de l’art paléolithique et néolithique présentant des symboles d’animaux sur des sites en Turquie, en Espagne, en France et en Allemagne.

    Ils ont découvert que tous les sites utilisaient la même méthode de datation basée sur une astronomie sophistiquée, même si l’art était séparé dans le temps par des dizaines de milliers d’années.

    Les chercheurs ont clarifié les résultats d’une étude sur les gravures sur pierre de l’un de ces sites - Gobekli Tepe dans la Turquie d’aujourd’hui [https://fr.wikipedia.org/wiki/G%C3%B6bekli_Tepe] - interprétée comme un mémorial d’une chute dévastatrice de comètes aux environs de 11 000 ans av. On pensait que cette chute avait initié un mini âge glaciaire connu sous le nom de période de Dryas récent.

    Ils ont également décodé ce qui est probablement l’œuvre d’art antique la plus connue - la scène du puits de Lascaux en France

    Les chercheurs suggèrent que l’œuvre, qui met en scène un mourant et plusieurs animaux, pourrait commémorer une autre chute de comètes vers 15 200 av.

    L’équipe a confirmé ses conclusions en comparant l’âge de nombreux exemples d’art rupestre - connu par la datation chimique des peintures utilisées - avec la position des étoiles dans l’antiquité, comme le prédisaient des logiciels sophistiqués.

    La sculpture la plus ancienne du monde, l’homme du lion de Hohlenstein-Stadel [https://fr.wikipedia.org/wiki/Homme-lion], datant de 38 000 ans avant notre ère, s’est également avérée conforme à cet ancien système de chronométrage.

    Cette étude a été publiée dans le Athens Journal of History.

    Martin Sweatman, directeur de l’étude, de l’école d’ingénierie de l’université d’Edimbourg, a déclaré : "Les premières œuvres d’art rupestre montrent que les gens avaient une connaissance avancée du ciel nocturne au cours de la dernière période glaciaire. Intellectuellement, ils ne sont guère différents de nous aujourd’hui. .

    « Ces résultats appuient une théorie des impacts multiples sur les comètes au cours du développement humain et vont probablement révolutionner la manière dont les populations préhistoriques sont perçues. »

    Quelques extraits de l’étude à propos de la scène du Puits de Lascaux et mes modestes remarques :

    La clé du décodage de Lascaux, et donc d’un autre art paléolithique, est l’interprétation de la scène de puits.


    Ah ? Et pourquoi cette scène et non une autre ?

    Peut-être parce que

    cette scène bien connue est assez distincte de toutes les autres œuvres d’art de Lascaux, étant située au fond d’un puits profond, ce qui suggère un statut particulier. Il est également unique parmi les œuvres d’art du Paléolithique en ce qu’il représente un homme apparemment en train de tomber d’une manière suggérant une blessure ou une mort.

    Et d’ajouter qu’

    un autre indice sur la signification de la scène de puits est fourni par le fait que seuls quatre symboles d’animaux différents sont affichés ici ; un bison / aurochs, un canard / oie et un rhinocéros (à gauche du mourant / mourant) sur le mur principal avec un cheval sur le mur arrière.

    Oui mais le fait qu’il y ait un « homme » (nous dirions pour notre part anthropomorphe) soit une clé est une affirmation sans preuve : de quelle clé s’agit-il ??

    La réponse est juste après :

    Les similitudes avec la pierre de vautour de Göbekli Tepe sont frappantes. Les deux affichent un homme, éventuellement mort ou mourant, et affichent quatre symboles d’animaux bien en vue.

    Il est donc judicieux de rechercher si la scène de puits à Lascaux est équivalente à la pierre de vautour de Göbekli Tepe et peut donc être décodée selon la même méthode.

    ok, pourquoi pas.

    Notez les symboles bison / aurochs et canard / oie dans la scène du Puits, et utilisez le tableau 1 et Stellarium pour trouver immédiatement ce qui suit :
    • Bison / Aurochs = Capricorne = Solstice d’été entre 15 350 et 13 000 av.
    • canard / oie = Balance = équinoxe de printemps entre 15 700 et 14 100 av.

    Oui mais bon... je crois avoir lu que la correspondance entre les dessins de Göbekli Tepe et les constellations était subjective (je n’ai pas encore tout bien lu et bien compris...).

    Par conséquent, cette scène pourrait représenter une date située entre 15 350 et 14 100 av. Pour réduire cette plage, nous faut considérer les deux autres symboles animaux. Malheureusement, aucun de ces symboles n’a encore été décodé. Mais logiquement, il est peu probable qu’elles correspondent à des constellations déjà décodées.

    (pas de bol ;-) ).

    Il s’en suit immédiatement cette phrase :

    Lorsque nous considérons cette plage de dates, nous voyons les possibilités suivantes :

    •Équinoxe d’automne : Taureau entre 1550 et 14950 av. J.-C. ou Bélier entre 14950 et 14.100 av.
    •Solstice d’hiver : Lion 15 350 à 14 800 av. J.-C. ou Cancer 14 800 à 14 100 av. J.-C.


    Etant donné que, dans les tableaux 1 et 2, Aries est représenté par le bélier et que Cancer est représenté par un grand félin, et que les béliers et les félins sont répertoriés dans l’art paléolithique, il est probable que la plage de dates se situe entre 15 350 et 14 950 av. donc le rhinocéros et le cheval représentent probablement Taureau et Lion.

    Lorsque nous considérons ces constellations au coucher du soleil (voir tableau 3), qui est la convention de ce système (1), nous constatons que rhinocéros et cheval correspondent bien à leurs constellations respectives (Taurus et Lion), ce qui renforce encore la confiance en eux pour cette interprétation. Nous suggérons donc que la scène du Puits code la date de 15 150 ± 200 av. J.-C. et nous avons maintenant terminé notre ancien zodiaque.

    Houlà... Bon, en ce qui concerne les béliers... il y en a très très peu à ma connaissance au paléolithique voire... pas du tout. Mais pourquoi pas, je n’ai pas tout vu. Sauf que, sauf que... si le cheval sur le mur en face de « la scène » a bien était fait avec les même matériaux et la même technique, ce n’est pas du tout, mais pas du tout le cas pour le rhinocéros qui lui, le fait donc pas du tout partie de la scène. par ce simple fait, la théorie s’effondre (il n’y a plus que trois animaux ou lieu de quatre...).

    Quant aux autres animaux présents en plus ou moins grand nombre, ils sont relégués au rang de

    variations régionales et temporelles de ce zodiaque qui restent à décoder, mais elles ne sont pas étudiées plus avant ici.

    La suite est aussi intéressante :

    Maintenant que nous avons une date, nous pouvons essayer d’interpréter la scène. Que devrions-nous faire de l’homme qui tombe / qui meurt et du bison à la lance / qui meurt ?

    Bon, la lance n’en est pas forcément une... (Voir l’analyse de Le Quellec). Quant au bison qui meurt... les progrès en éthologie ne permettent plus de dire que ce sont ces viscères qui pendent puisqu’il ne pourrait avoir cette posture avec cette blessure.

    Étant donné que la pierre du vautour de Göbekli Tepe fait très probablement allusion à l’événement de Dryas récent et que, selon la théorie de Napier et Clube sur le catastrophisme cohérent, il est peu probable que ce soit un incident isolé, la scène du Puits pourrait-elle représenter une autre rencontre avec le flux de météores taurides ?

    À Göbekli Tepe, le renard figure sur les plus grands piliers centraux de la plus grande enceinte encore non découverte, indiquant l’événement daté par la pierre de vautour se réfère à un événement cosmique de la direction du nord du Verseau. Au lieu de cela, la scène du Puits affiche un auroch blessé, représentant le Capricorne, pas un renard. Les aurochs sont-ils ici équivalents au renard de Göbekli Tepe ? Pour répondre à cette question, nous devons examiner la précession du flux de météores Taurid.

    Comme décrit précédemment [dans l’article], la longitude du nœud ascendant du flux de météores taurides devrait précéder au rythme d’un signe zodiacal tous les 6000 ans ans. Aujourd’hui, le flux de météores taurides est centré (et donc maximal) sur le Bélier. Par conséquent, au moment de l’événement Younger récent, il y a environ 13 000 ans, il aurait été centré sur le Verseau, décrit à Göbekli Tepe en termes de renard.

    À la date indiquée par la scène du Puits, il y a environ 17 000 ans, son centre se serait situé au-dessus de Capricornus. Par conséquent, l’aurochs blessé dans la scène du Puits est compatibles avec son interprétation en tant que météore tauride venant de la direction de Capricornus. Ainsi, le blessé ou le mourant pourrait indiquer une rencontre catastrophique avec les Taurides, comme pour la pierre de vautour de Göbekli Tepe.

    Oui... mais quid de la « blessure » de l’auroch ? (qui n’en est peut-être pas une). Les hommes de cette époque, on le sait, représentaient avec une très fine précision les animaux de leur environnement. Que veut donc dire cette « blessure » dans cette théorie astronomique ?

    Par la suite, les auteurs précisent quand même que

    bien sûr, il reste la possibilité que cette interprétation de la scène Shaft soit fausse, et toute similitude avec les symboles de Göbekli Tepe et Çatalhöyük est une coïncidence.

    Ouf .

    Par la suite, les auteurs cherchent les correspondances entre les animaux et les dates au carbone 14 et

    finalement, [n’incluent] aucune donnée de Cosquer Cave, un grotte côtière partiellement en dessous du niveau de la mer, pour les peintures situées au-dessous de la ligne de marée haute, ces peintures étant probablement contaminées et leurs dates au radiocarbone
    non fiable.

    Je n’ai pas lu de communication scientifique sur Cosquer et donc, je ne peux dire si ces dates sont fiables mais il me semble que la grotte est bien isolée de la mer et que, par ce fait, il ne devrait pas y avoir de « contamination ». Mais je ne suis pas un spécialiste de cette grotte...

    La suite de l’article, la figure 7, aurait été plus intéressante si elle montrait la corrélation entre la datation des peintures et les événements des Taurides. Hélas, elle montre une corrélation entre les dates des constellations solstice / équinoxe et les dates radiocarbone des animaux symboliques correspondants.

    Ce qui me pose problème c’est quand même la première étape : la correspondance entre les animaux gravés ou peints et les constellations.
    A suivre donc... en espérant une réponse et/ou une étude contradictoire.

    #Préhistoire #Paléolithique #Astonomie #Art_pariétal #Scène_du_Puits_Lascaux #36000BP
    #Martin_B._Sweatman, Alistair Coombs. Decoding European Palaeolithic art : Extremely ancient knowledge of precession of the equinoxes. Athens Journal of History, 2018

  • Urban Morphology Meets Deep Learning | cityastext

    Urban morphology is the study of “urban forms” and their underlying formation processes and forces over time. Here, by urban or city form, we mean the combination of street networks, building patterns and their overall layout. Classically, urban morphologist study cities based on few features (usually learned from few famous cities) such as medieval cities (with concentric patterns), industrial cities with grids or highways, ecological cities with polycentric patterns and so on.

    #cartographie #urban_matter #machine_learning


  • Quantifying Biases in Online Information Exposure | Center for Complex Networks and Systems Research, Indiana University

    Our consumption of online #information is mediated by filtering, ranking, and recommendation algorithms that introduce unintentional biases as they attempt to deliver relevant and engaging content. It has been suggested that our reliance on online technologies such as search engines and social media may limit exposure to diverse points of view and make us vulnerable to manipulation by disinformation. In this paper, we mine a massive dataset of Web traffic to quantify two kinds of bias: (i) homogeneity bias, which is the tendency to consume content from a narrow set of information sources, and (ii) popularity bias, which is the selective exposure to content from top sites. Our analysis reveals different bias levels across several widely used Web platforms. Search exposes users to a diverse set of sources, while social media traffic tends to exhibit high popularity and homogeneity #bias. When we focus our analysis on traffic to news sites, we find higher levels of popularity bias, with smaller differences across applications. Overall, our results quantify the extent to which our choices of online systems confine us inside “social bubbles.”

    #personnalisation #médias_sociaux #algorithme via @pomeranian99

  • This is the Longest Sailable Straight Line Path on Earth – gCaptain

    kepleronlyknows’ original straight line path.
    Credit: kepleronlyknows

    In 2012, reddit user kepleronlyknows posted a map claiming to show the longest straight line a vessel could theoretically sail on earth without hitting land.

    The map showed a route from Pakistan, through the Mozambique Channel, around the Cape of Good Hope and Cape Horn, and north through the Pacific to eastern Russia.The user provided no details about how he came to his conclusion, writing only “The Longest straight line: you can sail almost 20,000 miles in a straight line from Pakistan to Kamchatka Peninsula, Russia.

    The post generated a lot of interest and led to subsequent attempts to prove and disprove kepleronlyknows’ route, while some others chimed in with their own theories about the longest sailable straight line earth.

    Now, some six years later, a pair of researchers have developed an algorithm claiming to solve the problem once and for all. Interestingly, what their models showed looked nearly identical to kepleronlyknows’ original route.

    According to the authors, Rohan Chabukswar and Kushal Mukherjee, the longest straight line path on earth can be found using “branch-and-bound” algorithm, which the authors say uses great circles. 

    Although it does not look like a straight line on the map, the algorithm using great circles ensures that it is,” Chabukswar and Mukherjee noted.

    The line originates in Sonmiani, Las Bela, Balochistan, Pakistan, threads the needle between Africa and Madagascar, between Antarctica and Tiera del Fuego in South America, and ending in Karaginsky District, Kamchatka Krai, Russia. The line also covers an astounding distance of 32,089.7 kilometers (19939.62 miles), further corroborating kepleronlyknows findings.

    In their conclusion, researchers Rohan Chabukswar and Kushal Mukherjee write:
    We proposed an innovative approach for relaxation of an optimisation problem for utilising the branch- and-bound algorithm. On the way, we managed to prove that kepleronlyknows was right about the longest sailable straight line path on the Earth.

  • HoloClean - A Machine Learning System for Data Enrichment

    HoloClean is a statistical inference engine to impute, clean, and enrich data. As a weakly supervised machine learning system, HoloClean leverages available quality rules, value correlations, reference data, and multiple other signals to build a probabilistic model that accurately captures the data generation process, and uses the model in a variety of data curation tasks.

    l’installation a l’air bien compliquée, j’essaierai si j’en ai besoin mais pas avant

    • #imputation #nettoyage #déverminage

      articles en bibliographie intéressants

      A Formal Framework for Probabilistic Unclean Databases

      Most theoretical frameworks that focus on data errors and inconsistencies follow logic-based reasoning. Yet, practical data cleaning tools need to incorporate statistical reasoning to be effective in real-world data cleaning tasks. Motivated by these empirical successes, we propose a formal framework for unclean databases, where two types of statistical knowledge are incorporated:
      – the first represents a belief of how intended (clean) data is generated, and
      – the second represents a belief of how noise is introduced in the actual observed database instance.

      To capture this noisy channel model, we introduce the concept of a Probabilistic Unclean Database (PUD), a triple that consists of a probabilistic database that we call the intention, a probabilistic data transformator that we call the realization and captures how noise is introduced, and a dirty observed database instance that we call the observation.

      We define three computational problems in the PUD framework: cleaning (infer the most probable clean instance given a PUD), probabilistic query answering (compute the probability of an answer tuple over the unclean observed instance), and learning (estimate the most likely intention and realization models of a PUD given a collection of training data). We illustrate the PUD framework on concrete representations of the intention and realization, show that they generalize traditional concepts of repairs such as cardinality and value repairs, draw connection to consistent query answering, and prove tractability results. We further show that parameters can be learned in practical instantiations, and in fact, prove that under certain conditions we can learn a PUD directly from a single dirty database instance without any need for clean examples.

    • HoloClean: Holistic Data Repairs with Probabilistic Inference

      We introduce HoloClean, a framework for holistic data repairing driven by probabilistic inference. HoloClean unifies existing quali- tative data repairing approaches, which rely on integrity constraints or external data sources, with quantitative data repairing methods, which leverage statistical properties of the input data. Given an inconsistent dataset as input, HoloClean automatically generates a probabilistic program that performs data repairing. Inspired by re- cent theoretical advances in probabilistic inference, we introduce a series of optimizations which ensure that inference over HoloClean’s probabilistic model scales to instances with millions of tuples. We show that HoloClean scales to instances with millions of tuples and find data repairs with an average precision of ∼ 90% and an average recall of above ∼ 76% across a diverse array of datasets exhibiting different types of errors. This yields an average F1 improvement of more than 2× against state-of-the-art methods.

  • Women’s visibility in academic seminars: women ask fewer questions than men
    Alecia Carter, Alyssa Croft, Dieter Lukas, Gillian Sandstrom
    Physics and Society, arXiv:1711.10985, le 29 novembre 2017

    The attrition of women in academic careers is a major concern, particularly in Science, Technology, Engineering, and Mathematics subjects. One factor that can contribute to the attrition is the lack of visible role models for women in academia. At early career stages, the behaviour of the local community may play a formative role in identifying in-group role models, shaping women’s impressions of whether or not they can be successful in academia. One common and formative setting to observe role models is the local departmental academic seminar, talk, or presentation. We thus quantified women’s visibility through the question-asking behaviour of academics at seminars using observations and an online survey. From the survey responses of over 600 academics in 20 countries, we found that women reported asking fewer questions after seminars compared to men. This impression was supported by observational data from almost 250 seminars in 10 countries: women audience members asked absolutely and proportionally fewer questions than male audience members. Men and women differed in the importance they attributed to different factors preventing them from asking questions, with women rating internal factors (e.g., not working up the nerve) as more important than men. Furthermore, our observations indicated that the gender of the first person to ask a question predicted the gender imbalance in subsequent questions, with proportionally fewer questions asked by women when a man was the first to ask a question. A longer time for questions was associated with less of an imbalance, but attempts to manipulate the time for questions in two departments were unsuccessful. We propose alternative recommendations for increasing women’s visibility at these events and suggest that our results are best explained by internalized gender role stereotypes about assertiveness.

    #Femmes #Science #Sexisme

  • [1705.08039] Poincaré Embeddings for Learning Hierarchical Representations

    Representation learning has become an invaluable approach for learning from symbolic data such as text and graphs. However, while complex symbolic datasets often exhibit a latent hierarchical structure, state-of-the-art methods typically learn embeddings in Euclidean vector spaces, which do not account for this property. For this purpose, we introduce a new approach for learning hierarchical representations of symbolic data by embedding them into hyperbolic space — or more precisely into an n-dimensional Poincar\’e ball.

    #maths #hiérarchie #machine-learning

  • Une intelligence artificielle pour griller les menteurs au tribunal

    L’analyse des micro-expressions du visage permet d’identifier les menteurs avec 90% de précision. Les tribunaux sont les lieux du doute perpétuel. Si les procédures qui encadrent l’activité des magistrats et des jurés sont très rigides, un procès reste, à de nombreux égards, une affaire de subjectivité. Aux États-Unis, on parle de reasonable doubt : pour décider de la culpabilité d’un accusé, un juge ou un jury doit se forger une opinion qui dépasse le « doute raisonnable » en s’appuyant sur des preuves (...)

    #biométrie #émotions

    • Le système est parvenu à identifier les menteurs avec 90% de précision, un score bien supérieur aux performances humaines en la matière.

      bien supérieur, #mouais
      Extrait de l’abstract de l’article original :

      Using various classifiers, our automated system obtains an AUC of 0.877 (10-fold cross-validation) when evaluated on subjects which were not part of the training set. Even though state-of-the-art methods use human annotations of micro-expressions for deception detection, our fully automated approach outperforms them by 5%. When combined with human annotations of micro-expressions, our AUC improves to 0.922.

      D’ailleurs, le véritable lien vers l’article commenté est celui-ci
      • pour le résumé
      Deception Detection in Videos

      • pour l’article en pdf

      Le lien, erroné donc, dans le texte est cependant fort intéressant : il pointe vers un article montrant l’extrême facilité pour un « attaquant » de perturber les résultats des algorithmes de #deep_learning en polluant, même légèrement, la base d’apprentissage sans intervenir sur l’algorithme. Ce type d’attaque est difficilement détectable.

      [1712.05526] Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning

      We conduct evaluation to demonstrate that a backdoor adversary can inject only around 50 poisoning samples, while achieving an attack success rate of above 90%. We are also the first work to show that a data poisoning attack can create physically implementable backdoors without touching the training process. Our work demonstrates that backdoor poisoning attacks pose real threats to a learning system, and thus highlights the importance of further investigation and proposing defense strategies against them.

      variante malveillante du célèbre principe #GIGO #garbage_in_garbage_out

    • Par ailleurs, un risque d’erreur de 1 sur 8 (pour 0,877 sous la courbe, sans intervention humaine) est très largement supérieur à l’estimation du taux d’erreur judiciaire dans les condamnations à mort états-uniennes (4,1%) …

      Il est vrai que l’étude sur le sujet mentionne que les cours sont plus exigeantes sur les critères de preuve lorsque la peine encourue est plus élevée, a fortiori capitale.

      États-Unis : plus de 4% des condamnés à mort seraient innocents (avril 2014)
      et l’étude référencée
      Rate of false conviction of criminal defendants who are sentenced to death

      The rate of erroneous conviction of innocent criminal defendants is often described as not merely unknown but unknowable. We use survival analysis to model this effect, and estimate that if all death-sentenced defendants remained under sentence of death indefinitely at least 4.1% would be exonerated. We conclude that this is a conservative estimate of the proportion of false conviction among death sentences in the United States.

  • When the cookie meets the blockchain:
    Privacy risks of web payments via cryptocurrencies

    (Princeton researchers Dillon Rewsman, Steven Goldfeder, Harry Kalender and Arvind Narayanan)


    We show how third-party web trackers can deanonymize users of cryptocurrencies. We present two distinct but complementary attacks. On most shopping websites, third party trackers receive information about user purchases for purposes of advertising and analytics. We show that, if the user pays using a cryptocurrency, trackers typically possess enough information about the purchase to uniquely identify the transaction on the blockchain, link it to the user’s cookie, and
    further to the user’s real identity. Our second attack shows that if the tracker is able to link two purchases of the same user to the blockchain in this manner, it can identify the user’s entire cluster of addresses and transactions on the blockchain, even if the user employs blockchain anonymity techniques such as CoinJoin. The attacks are passive and hence can be retroactively applied to past purchases. We discuss several mitigations, but none are perfect.


    Of 130 online merchants that accept Bitcoin, the researchers say, 53 leak payment information to 40 third parties, “most frequently from shopping cart pages,” and most of these on purpose (for advertising, analytics and the like).


    Of the 130 sites the researchers checked:

    In total, 107 sites leaked some kind of transaction information;
    31 allowed third-party scripts to access users’ Bitcoin addresses;
    104 shared the non-BTC denominated price of a transaction; and
    30 shared the transaction price in Bitcoin.

    A total of 49 merchants shared users’ identifying information, and 38 shared that even if the user tries to stop them with tracking protection.

    Blog of one of the researchers talking about it:



  • Will self-driving cars be able to prove they are not a robot?
    It might be necessary:

    self-driving cars can be hacked by just putting stickers on street signs


    According to the researchers, image recognition system used by most autonomous cars fails to read road sign boards if they are altered by placing stickers or posters over part or the whole road sign board.

    The paper:

    Robust Physical-World Attacks on Machine Learning Models
    (Ivan Evtimov, Kevin Eykholt, Parlance Fernandes, Tadayoshi Kohno, Bo Li, Atul Prakash, Amir Ramait, Dawn Song)

    We physically realized and evaluated two attacks, one that causes a Stop sign to be misclassified as a Speed Limit sign in 100% of the testing conditions, and one that causes a Right Turn sign to be misclassified as either a Stop or Added Lane sign in 100% of the testing conditions.


  • Quarante-cinq ans avant d’être dépassés par les machines

    L’étude : https://arxiv.org/pdf/1705.08807.pdf

    Le spectre du remplacement des humains par des machines fait souvent l’objet de déclarations fracassantes. Une récente étude, dirigée par Katja Grace du Future of Humanity Institute à Oxford, n’est pas de nature à rassurer. Près 350 experts de l’intelligence artificielle (IA) ont été interrogés sur le temps qu’il faudrait, selon eux, aux machines pour maîtriser des postes et des tâches actuellement attribués à des humains. Selon leurs estimations, les intelligences artificielles pourront surpasser les humains dans certains domaines dès la prochaine décennie.

    Les traducteurs de langues doivent ainsi se tenir prêts pour 2024, les conducteurs de camion pour 2027. Les journalistes et chercheurs peuvent aussi enclencher le compte à rebours : la pleine capacité artificielle à écrire un essai de qualité est prévue pour 2026. Les vendeurs tiendront pour leur part jusqu’à 2030. Tous domaines confondus, il faudra selon les chercheurs se préparer pour 2061, où les intelligences artificielles ont une chance sur deux de pouvoir surpasser les humains pour à peu près n’importe quelle tâche.

    La discussion autour de « l’automatisation intelligente » (l’utilisation conjointe de machines plus performantes et de l’intelligence artificielle pour remplacer le travail humain) passionne les grands cabinets d’audit comme les instituts de recherche reconnus. Aucun n’est totalement neutre dans ce débat : certains peuvent chercher à obtenir ou maintenir des subventions pour leurs départements de recherche, d’autres à sensibiliser de nouveaux clients à un enjeu présenté tantôt comme une menace, tantôt comme une opportunité. Cette récente étude d’Oxford sélectionne les experts en fonction de leur participation au NIPS et ICML - deux conférences très prisées des experts en « machine learning » qui se déroulent respectivement à Los Angeles et Sydney. Seuls 21% des 1634 scientifiques contactés ont répondu, mais les chercheurs montrent que le groupe de répondants est comparable, en termes de genres et d’origines des participants. L’étude ne précise pas si ces deux conférences, où l’on compte 84% d’hommes contre 10% de femmes, 34% de chercheurs asiatiques contre 6% du Moyen-Orient, sont représentatives de la communauté mondiale de chercheurs en intelligence artificielle.

    D’une étude à l’autre, on peut souvent passer d’un chiffre alarmiste à un phénomène marginal. Le cabinet de conseil en stratégie Roland Berger avait publié en octobre 2014 que d’ici à 2025, 20% des tâches pourraient être automatisées, menaçant 3 millions de salariés français dans les secteurs de l’agriculture, du bâtiment, des services aux entreprises et aux particuliers… Ce chiffre correspondait à l’hypothèse la plus haute du rapport. Sa méthodologie avait été vivement critiquée, car elle ne tenait pas compte des emplois créés par la robotisation et considérait qu’au sein d’une même profession, chaque emploi était identique. Cette méthodologie était elle-même tirée du travail de deux chercheurs d’Oxford en 2013, selon lesquels l’automatisation menaçait 47% des emplois aux États-Unis. La méthodologie a été par la suite déclinée dans d’autres pays, notamment par l’institut McKinsey. Résultats : 43% d’emplois en péril pour la France, 48% en Allemagne et 56% au Japon, un des pays les plus automatisables selon cette étude.

    En mai 2016, des experts de l’OCDE ont pour leur part tenté d’évaluer les tâches potentiellement automatisables. Cette adaptation a fait reculer les chiffres de la robotisation : seulement 9 % des travailleurs français présenteraient « un risque élevé de substitution », soit tout de même 2,4 millions d’emplois. Début 2017, les conclusions du rapport du Conseil d’orientation pour l’emploi allaient dans la même direction : « moins de 10% des emplois cumulent des vulnérabilités qui pourraient en menacer l’existence dans un contexte d’automatisation », soit une menace réelle pour 1,49 million de salariés.

    #singularité #selon_une_étude_récente #robots #IA #travail #automatisation

    • On pourrait discuter des avantages et des inconvénients d’une telle #prédiction, si elle s’accompagnait d’une recherche du bonheur pour tou.te.s et pas seulement pour les propriétaires de ces #machines.

      Mais c’est à un autre scénario que ça m’a fait penser. Puisque, par ailleurs, la #fin_du_monde est prévue pour #2030, par conséquence d’une guerre nucléaire généralisée dont les radiations auront eu raison de nos cellules ; et puisque les machines sont dépourvues de cellules... cela veut donc dire qu’après 2030, le monde sera vidé de ses humains, mais peuplé de machines qui se traduiront entre elles, et qui conduiront des camions d’un endroit à un autre, sans aucun but, mais sans aucune raison de s’arrêter puisqu’elles sont programmées pour le faire...

      C’est con, j’aurais aimé être là pour le voir...

    • « sans aucun but », je sens un argument moral là-dessous. est-ce grave ? ne peut-on en dire autant des actions des humains de chair et d’os ? la société robotisée existera pour exister et se développer — elle représente l’avenir et réalisera le rêve d’une expansion de la #vie dans l’espace !

    • @fil : oui, c’est tout à fait cela. La prochaine civilisation, qui ira conquérir l’espace, ce sera celle des machines ! Et juste c’est Darwin qui une fois de plus ne nous contredira pas (il est plus là).

      Dans la BD « Carmen McCallum », le développement des IA est supposé cesser du fait de l’incompréhension des résultats émis par les machines, et aussi du fait que la conquête spatiale est devenue prioritaire. La série commence par la fusion IA/cerveau humain d’ailleurs, pour se terminer par son suicide, en quelque sorte... Avec pleins de thématiques actuelles sur la gestion de l’eau, les transnationales, l’ONU, la déshérence des états, le nucléaire...
      En fait, le scénariste est juste très bon. Même si ce n’est qu’une BD, et qu’il n’est évidemment pas possible d’aller au fond de chaque sujet.

    • L’IA, c’est un peu comme Trump au final, tout ce qu’ille veut c’est qu’on parle d’ellui. En bien, ou en mal, jusqu’à ce que le pour et le contre ne fassent qu’un. Jusqu’à ce que l’opinion populaire n’ait plus d’autre choix que d’y croire, et de s’y conformer.

      Dans l’idée des dystopies qui nous rongent l’imaginaire :
      The Regrettable Decline of Space Utopias, CurrentAffairs, par Brianna Rennix, le 14 juin 2017

    • j’aime bien ce passage :

      Aspirational fiction seems especially important at this moment in our national history, when a significant number of Americans cast a ballot for a candidate they disliked, or were even disturbed by, simply because they wanted something different. There’s always been a gambling madness in the human spirit, a kind of perverse, instinctive itchiness that suddenly makes us willing to court disaster, simply on the off-chance of altering the mundane or miserable parameters of our daily lives. If we could transform some of that madness into a madness of optimism and creativity, rather than boredom, rage, and despair, that could only be a good thing.

      Sauf qu’il traduit l’apolitisme de ce genre de commentatrices américaines : « madness of optimism and creativity » ? Ca s’appelle la transformation sociale, et il y a des milliers de militants et des dizaines de groupes et de partis qui réfléchissent à ça depuis des centaines d’années, au lieu de regarder Star Trek !

      Et, en revanche, je n’aime pas beaucoup ce passage, parce que je me sens visé :

      I say faux-cynicism because I don’t believe that most people who profess to be pessimists truly believe that humanity is doomed, at least not in their lifetimes, or in their particular geographic purviews: if they did, then watching a film that features the drawn-out annihilation of a familiar American landscape would probably make them crap their pants. But telling yourself that everything is awful, and nothing can be fixed, is a marvelously expedient way to absolve yourself of personal responsibility. There is, happily, nothing about an apocalyptic worldview that obligates you to give up any of the comforts and conveniences that have accrued to you as a consequence of global injustice; and you get to feel superior to all those tender fools who still believe that a kinder world is possible! It’s a very satisfying form of moral escapism. No wonder our corporate tastemakers have been churning this stuff out.

      C’est vrai que le pessimisme pourrait conduire à l’inaction, mais à ce que je vois autour de moi, les moins actifs ne sont pas les plus pessimistes et vice versa...