• DIVE | Turn Data into Stories Without Writing Code
    https://dive.media.mit.edu

    Recommendation-driven
    data exploration

    Turn your data into stories without writing code. Our system integrates semi-automated visualization and statistical analysis features into a unified workflow.

    DIVE is a publicly available (free as in beer) and open source research project from the MIT Media Lab.

    #visualisation_de_données




  • #Reconcile-csv - join dirty data - Open Knowledge Foundation Labs
    http://okfnlabs.org/reconcile-csv

    you got two datasets containing data about the same thing - all you need to do is #join them up to produce your result. Sometimes this is easier said then done: If unique #identifiers are missing and names are commonly spelled different, #joining data becomes a nightmare. Reconcile-csv aims to reduce this nightmare.

    #openrefine #csv #data #outils (pas testé), via @francoisbriatte



    • Unfiltered.News

      L’une des plus grandes menaces à l’encontre de la liberté d’expression est la censure invisible. Unfiltered News relève les actualités importantes qui sont susceptibles de ne pas avoir été traitées dans votre pays, à l’aide du corpus de Google News, afin de dévoiler aux utilisateurs les faits qui sont passés sous silence dans certains pays, de révéler la façon dont certains pays traitent l’actualité et comment la couverture médiatique d’un événement évolue dans le temps.

      https://jigsaw.google.com/projects/#unfiltered-news

      #google #jigsaw

      Par contre, ça rappelle un autre site dont parlait @reka récemment, non ?





  • La traduction dopée par l’intelligence artificielle

    http://www.lemonde.fr/sciences/article/2017/11/27/la-traduction-dopee-par-l-intelligence-artificielle_5221041_1650684.html

    Graal de l’informatique depuis sa création, la traduction automatique a fait des progrès impressionnants. Les algorithmes vont-ils supplanter les traducteurs humains ?

    « En à peine six mois, nous avons dû réinventer notre technologie. C’était une question de survie pour l’entreprise », explique Jean Senellart, le directeur technique de Systran, un des leaders de la traduction par ordinateur depuis sa création, en 1968. « Début 2016, une compétition interne, très stimulante, a été organisée pour battre notre meilleur système grâce à une nouvelle technique en vogue », précise le spécialiste, qui a lui-même participé à l’épreuve.

    Et ils ont battu leur « vieux » champion. Au printemps 2016, près de cinquante ans de savoir-faire étaient ainsi jetés aux oubliettes. En novembre, le nouveau produit, qui traduit 30 langues, était prêt, en même temps que Google lançait son nouveau site de traduction reposant sur la même technique, suivi par Microsoft, Baidu, Facebook…

    « Tout le monde s’est rué sur ces technologies. C’était complètement fou ! », raconte Philipp Koehn, de l’université Johns-Hopkins (Maryland), pionnier d’une technique précédente, balayée par la nouvelle venue. « Avant ces inventions, on estimait qu’il fallait un an pour progresser d’un point sur une certaine échelle de qualité. Après, en un an, les bonds, pour certaines paires de langues, ont été de près de huit points », constate François Yvon, ­directeur du Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi-CNRS) à Orsay (Essonne). Et en août, un nouveau venu, DeepL, aussi à l’origine du dictionnaire Linguee, se targuait d’un gain de trois points supplémentaires sur la même échelle de qualité par rapport à ses concurrents.

    L’une des premières applications de l’informatique

    Que s’est-il passé ? L’histoire remonte aux années 1950. Traduire est l’une des premières applications de l’informatique, après le chiffrement des communications et les calculs balistiques. En 1954, IBM et l’université de Georgetown, à Washington, font la « une » des journaux en traduisant des phrases du russe vers l’anglais. La méthode utilisée est ­« naturelle ». On fournit à la machine un dictionnaire et les règles grammaticales et syntaxiques de la langue visée (ordre des mots, accords, genres…). Par exemple, si the, en anglais, précède un mot ­féminin, traduire par « la », sinon par « le », etc.

    Les linguistes sont évidemment requis pour élaborer ce modèle de langue, limité par la puissance des machines d’alors et par le nombre quasi infini de règles à transformer en lignes ­informatiques. La technique fera néanmoins les beaux jours d’IBM ou de Systran. Un système ­canadien de prévision météo, Taum-Météo, fonctionnera de 1977 jusqu’au début des années 2000 sur ce principe de règles.

    En 1966, la publication d’un rapport, dit « Alpac », jette cependant un froid. Le problème est plus ­difficile que prévu et loin d’être résolu, contrairement à ce que clamaient ses pionniers. Les financements, qui abondaient, fondent… Le domaine de l’intelligence artificielle connaît là l’un de ses ­premiers « hivers ».

    Ce refroidissement ne signifie cependant pas un arrêt complet. Chez IBM, dans les années 1980, des ingénieurs et chercheurs ressuscitent des idées plus anciennes, qui constitueront une ­seconde révolution dans le domaine. Au lieu de travailler comme un linguiste ou un traducteur, la machine fonctionnera désormais de façon probabiliste, en fournissant une traduction correspondant à la plus grande chance de voir cette proposition apparaître dans un corpus dit bilingue, contenant des paires de phrases traduites en deux langues. Si nice, en anglais, apparaît plus souvent comme « joli » que comme « beau », alors la machine choisira « joli » comme proposition. Idem pour des bouts de phrase.

    Vastes corpus bilingues

    Simple, à condition d’avoir de tels corpus. Les premiers utilisés proviennent des archives bilingues du gouvernement canadien ou de la Commission et du Parlement européens, pour plusieurs langues. Puis le Web se transforme en source abondante, plusieurs robots moissonnant ses pages en quête de traductions. Google devient alors un acteur majeur et abandonne, en 2007, le moteur de traduction à base de règles fourni par Systran, pour proposer sa « machine statistique de traduction », nourrie par près de cent millions de séquences de mots.

    Le monde académique réagit en amassant aussi son propre corpus. Les bases de données Gigaword ou ParaCrawl de Philipp Koehn en sont des exemples. Ce dernier, soutenu par l’Union européenne, est également l’auteur du programme Moses, dont la dernière version, qui date du mois d’octobre, est toujours utilisée par la Commission européenne.

    Puis nouvel hiver dans le domaine, avec des évolutions assez lentes. Jusqu’aux secousses de l’année 2014. Trois articles, quasi simultanés, l’un de chercheurs de Google, les deux autres de l’équipe de l’université de Montréal menée par Yoshua Bengio, expliquent comment de nouveaux algorithmes promettent de tout changer. Les mots-clés ne sont plus « linguistique » ou « statistique » mais « apprentissage » et « réseaux de neurones ». Ces derniers ont été inventés dans les années 1950 et remis au goût du jour, notamment par Yoshua Bengio, pour la reconnaissance de caractères manuscrits ou l’identification ­d’objets ou d’animaux dans les images.

    Ce sont des fonctions mathématiques simples (addition, multiplication) contenant des millions de paramètres ajustables, permettant de trouver la meilleure combinaison possible pour réponse à une question. Comme un peintre ­mélangeant plusieurs couleurs jusqu’à trouver la bonne. Pour la traduction, il s’agit d’ajuster les paramètres afin d’exhiber la fonction permettant de passer d’une phrase d’une langue à sa traduction, piochée toujours dans les vastes corpus bilingues. « Le petit chat tigré est mort » est présenté au système, et s’il répond « the big cat striped is dead », on le corrige, jusqu’à ce qu’il trouve la bonne version : « the little tabby cat is dead ». Et cela sur des millions de paires de phrases. « Formellement, apprendre, pour ces réseaux, c’est évaluer les paramètres de cette fonction qui associe une phrase source à une phrase cible », ­résume François Yvon.

    Bête et astucieux

    L’appellation réseau de neurones vient du fait que, dans le cerveau, les connexions entre neurones se renforcent ou disparaissent sans cesse. Une de leurs caractéristiques est qu’il leur faut ingurgiter beaucoup de données avant de pouvoir s’appliquer à des problèmes inconnus d’identification, de labellisation, de jeu…

    Les succès sont tels depuis 2012, année de la première victoire de tels systèmes en reconnaissance d’images, qu’ils se confondent désormais avec l’expression « intelligence artificielle ». Pourtant, en traduction, ils semblent plus ­« bêtes » que leurs prédécesseurs, puisqu’ils ne savent rien des langues et de leurs règles, et qu’ils cherchent juste la meilleure manière d’apparier des phrases (traduites par des humains).

    Mais on peut être bête et astucieux. L’idée-clé est qu’on peut abandonner le monde des mots pour celui des chiffres, évidemment plus familier pour les machines. L’astuce consiste à représenter la totalité des mots (d’un texte, de Wikipédia ou encore de directives européennes) dans un vaste espace, dans lequel deux mots de sens proche seraient géographiquement voisins. « Roi » serait proche de « reine », « chat » de « chien », « chats » de « chat »… Cette transformation assez abstraite, voire absconse, est possible… par apprentissage neuronal, comme l’a montré Yoshua Bengio en 2003.

    Puis, en 2007, Holger Schwenk – alors au Limsi et, depuis 2015, chez Facebook – l’applique pour la première fois à la traduction, avant qu’en 2012 le Limsi l’utilise à grande échelle dans un cadre de traduction statistique et que d’autres la perfectionnent. Le système est conçu pour apprendre à bien parler une langue, mot à mot, c’est-à-dire qu’il prédit le meilleur terme pour compléter le début d’une phrase. C’est en quelque sorte le ­fameux modèle de langue des linguistes des ­années 1950, mais qui se dispense de règles grammaticales écrites par des experts. Puis ce modèle est couplé aux statistiques pour faire le bon choix de traduction dans les énormes corpus.

    Plongements lexicaux

    Ces hybrides n’ont eu qu’un temps car, en 2014, les trois articles déjà cités arrivent à passer d’une langue à l’autre sans les statistiques à l’ancienne, grâce à ces représentations numériques appelées « plongement lexical », « sac de mots », ­« représentations continues » (word embedding en anglais)…. Les mots d’une phrase source dans une langue sont d’abord « encodés » dans un plongement lexical qui tient compte des mots l’entourant dans la séquence, avant d’être « décodés » dans la langue cible, selon un processus ­inverse. L’apprentissage des deux réseaux se fait en même temps, de manière que la sortie soit ajustée à l’entrée.

    Et ça fonctionne, comme l’ont successivement démontré l’université de Montréal, Google, Systran, Facebook, DeepL… en quelques semaines d’apprentissage. « C’est fascinant de voir que cette technique, qui reste encore opaque et mal comprise, fonctionne aussi bien », constate François Yvon. Il est vrai que les linguistes y perdent un peu leur latin ; l’énorme réseau de neurones à plusieurs dizaines de millions de paramètres reste assez mystérieux quant aux transformations qu’il fait subir aux mots…

    C’est même si fort que d’aucuns pensent qu’il y a peut-être du sens à chercher dans ces plongements lexicaux. En octobre, une équipe de Facebook a ainsi construit un dictionnaire de mots dans deux langues… sans avoir aucune information bilingue ! Les chercheurs ont « simplement » rapproché les deux représentations géométriques et numériques de chaque langue, grâce à des réseaux de neurones.

    Puis ils ont regardé quels mots étaient proches, et considéré qu’il s’agissait de leur traduction. « C’est bluffant car n’oublions pas qu’il n’y a aucune donnée bilingue dans le système. Certes il y a des erreurs, mais cela reste un exploit », estime Jean Senellart, qui a vérifié la validité de la ­méthode de ces collègues en cent lignes de code et un week-end. Car, ce qui est bluffant aussi avec ces réseaux de neurones, c’est que bien des algorithmes des Google, Facebook et autres sont ­libres et partagés, accélérant la diffusion des ­connaissances. Systran a lui aussi « ouvert » ses entrailles pour espérer attirer une communauté autour de ses systèmes.

    Idiomatismes

    Magiques ou pas, les résultats sont désormais là. « Il y a plus de fluidité dans les traductions depuis 2016 », constate Pierre Isabelle, tout juste retraité du Centre national de recherches du Canada. Son équipe a également testé le meilleur système ­actuel, DeepL, sur des phrases pièges. « 50 % ­d’erreurs en moins que les autres », écrivent les chercheurs dans un résumé de leur étude paru sur le site Medium. La plus grande faille concerne les idiomatismes. « Pédaler dans la choucroute » est littéralement traduit par « pedaling in sauerkraut ». « To be out to lunch » aurait été mieux.

    Mais ce ne sont pas les seuls problèmes. « Parfois le système dérape complètement ! », constate Pierre Isabelle. La qualité des données compte. Si un réseau n’apprend qu’à partir de la législation européenne, il ne saura pas ce que signifie le ­tutoiement, totalement absent du corpus… Idem pour un réseau spécialisé en finance, qui prendra un bank pour une banque, alors qu’il pourrait s’agir d’un banc de poissons.

    La qualité grimpe, certes, mais des sommets restent inaccessibles aujourd’hui. « Traduire non plus phrase à phrase, mais prendre en compte la totalité d’un document afin de préserver la cohérence stylistique ou lexicale est un défi. Les systèmes actuels y arrivent sur quelques dizaines de mots ; c’est déjà remarquable », note François Yvon. Mais pas toujours. Ainsi, DeepL a une ­mémoire de poisson rouge car il traduit « The car is red. It has four wheels » par « La voiture est rouge. Il a quatre roues. »

    Autre point faible, selon Yoshua Bengio, « malgré les quantités délirantes de données utilisées pour les entraîner, plus que ce qu’un humain pourrait voir en plusieurs vies, les erreurs faites par ces systèmes montrent qu’ils ne captent pas vraiment le sens commun, c’est-à-dire la compréhension générale du monde qui nous entoure. Pour cela il faudra aller au-delà des corpus de textes et de traductions, et s’attacher à associer les mots et les phrases à des réalités auxquelles ils font référence, et que l’ordinateur comprenne la nature de cette réalité, les relations de cause à ­effet… » L’absence de bon sens se pose d’ailleurs pour d’autres tâches cognitives « attaquées » par l’intelligence artificielle.

    La traduction orale en ligne de mire

    Les ingénieurs ont aussi leurs problèmes très terre à terre. Google reconnaît : « Les réseaux de neurones sont plus lents que les modèles ­statistiques et même si des progrès ont été faits, nous cherchons des améliorations. » En outre, « un modèle est long à entraîner [plusieurs ­semaines] et comme Google traduit plus de 100 langues, nous cherchons à mettre au point des modèles multilingues », indique un de ses porte-parole.

    Ce dernier point est relié à une autre question, à la fois technique et conceptuelle : que faire avec les langues peu courantes ou n’étant même pas écrites ? Le côté « bluffant » de l’encapsulation numérique pourrait être utile. « Une partie de ma recherche vise à trouver une représentation universellequi serait donc commune à toutes ces langues et qui serait en quelque sorte une représentation du sens », indique Holger Schwenk. Accessoirement, cela rendrait peut-être plus explicable le comportement de ces bêtes à traduire.

    Et la traduction orale ? Elle est aussi en ligne de mire, bien sûr, mais cumule deux difficultés. La première, la traduction, dont on vient d’exposer les limites. La seconde, la reconnaissance de la parole et sa transcription en texte, qui n’a rien d’évident non plus. « Les systèmes ont du mal avec les intonations, les ponctuations, les hésitations dans un dialogue… Bref, tout ce qui est spontané dans le langage », rappelle Laurent Besacier, professeur de l’université Grenoble-Alpes, qui vient de proposer une méthode évitant l’étape de transcription.

    Malgré les difficultés, des prototypes existent, comme dans Skype pour les systèmes d’exploitation Windows, ou chez la start-up Waverly Labs, dont on peut tester l’application sur smartphone, Pilot, en attendant que des oreillettes fassent aussi le travail, ou bien ­encore dans les cours d’Alex Waibel, de l’Institut technologique de Karlsruhe, en Allemagne, qui traduit ses conférences à la volée. Mais ils sont loin de la perfection.


  • OEC - France (FRA) Exports, Imports, and Trade Partners
    https://atlas.media.mit.edu/en/profile/country/fra

    Balance commerciale de la France.

    On exporte en fait des hélicos, et plus de sang animal que de parfums.

    France is the 6th largest export economy in the world and the 14th most complex economy according to the Economic Complexity Index (ECI). In 2016, France exported $485B and imported $540B, resulting in a negative trade balance of $54.9B. In 2016 the GDP of France was $2.47T and its GDP per capita was $41.5k.

    #visualisation_de_données #d3


  • Pourquoi les riches s’autorisent-ils à frauder ? | Slate.fr
    http://www.slate.fr/story/153600/pourquoi-les-riches-autorisent-frauder

    L’évasion fiscale ne s’explique pas seulement par un taux d’imposition trop élevé. La délinquance des cols blancs est aussi le résultat d’un désintérêt croissant pour le bien de la collectivité.

    Autrement dit, l’évitement fiscal est juste parce que l’impôt est inique et inefficace. L’argumentaire est organisé et étayé. Dès 1974, l’économiste libéral Arthur Laffer avait théorisé cette confiscation fiscale à travers sa célèbre courbe. Il avait montré –tout du moins supposé– que lorsque le taux d’imposition venait à être trop élevé, les contribuables étaient incités à contourner l’impôt et à pratiquer abondement l’optimisation et l’évasion fiscale. C’est précisément cet argument qui est utilisé aujourd’hui par les personnes incriminées pour justifier leur acte.

    La délinquance des cols blancs

    Mais cela va dans le sens de la justification des classes supérieures, « nous évitons l’impôt parce que les montants sont confiscatoires ». Un autre raisonnement, plus sociologique, part du principe que les contribuables aisés refusent l’impôt parce qu’ils ont intériorisé leur sentiment de toute puissance et s’estiment ne pas être redevables « pour les assistés ».

    Pour le co-auteur du livre C’est vraiment moi qui décide, « les personnes qui approuvent le plus les moyens illégitimes de tricher sont celles qui auraient précisément les moyens de ne pas le faire ». D’après lui, c’est parce qu’elles se sentent supérieures qu’elles légitiment, inconsciemment ou consciemment, le droit d’agir de manière déviante et immorale.

    « La délinquance des cols blancs s’explique par le sentiment d’impunité qu’auraient les fautifs. Ils ont l’impression de pouvoir faire ce qu’ils veulent, du moment qu’ils ont payé pour. »

    De plus, sociologiquement, la plupart d’entre eux considèrent que « jamais personne ne pourra leur reprocher leur comportement déviant ».

    Lascoumes et Nagels vont plus loin, « les cols blancs auraient intériorisé leur statut de classe dominante et ne se rendraient plus compte des comportements qui devraient pourtant être considérés comme déviants voire délinquants ».

    #Impôts #Classes_dominantes #Sociologie #Riches



  • GitHub - PHPOffice/PHPExcel : A pure PHP library for reading and writing spreadsheet files
    https://github.com/PHPOffice/PHPExcel

    PHPExcel is a library written in pure PHP and providing a set of classes that allow you to write to and read from different spreadsheet file formats, like Excel (BIFF) .xls, Excel 2007 (OfficeOpenXML) .xlsx, CSV, Libre/OpenOffice Calc .ods, Gnumeric, PDF, HTML, ...

    et pour un exemple en écriture : http://blog.websourcing.fr/phpexcel-manipuler-excel-php

    #php #excel #open-source




  • Le système de #retraites américain menacerait de s’effondrer - Amériques - RFI
    http://www.rfi.fr/ameriques/20170519-le-systeme-retraites-americain-menacerait-s-effondrer?ref=fb

    Après la crise de subprimes immobilières, les Etats-Unis vont-ils connaitre une crise des retraites des fonctionnaires ? Les fonds de pension des collectivités locales états-uniens seraient sous financées de plusieurs milliers de milliards de dollars. Une situation explosive qui pourrait provoquer une nouvelle crise économique.


  • L’Allemagne a engrangé plus d’un milliard de profits sur la Grèce
    https://www.lesechos.fr/finance-marches/marches-financiers/030443643863-lallemagne-a-engrange-plus-dun-milliard-de-profits-sur-la-grec

    C’est un sujet qui sème la zizanie en Allemagne. En effet, la posture du gouvernement d’Angela Merkel sur le dossier grec soulève des critiques. Notamment de la part des Verts, qui regrettent un manque de solidarité avec Athènes. C’est à leur demande que le ministère des Finances a dû dévoiler les profits réalisés sur les prêts accordés à la Grèce. Selon le quotidien Süddeutsche Zeitung, les bénéfices s’élèvent à 1,34 milliard d’euros au total.

    (Vous ne pouvez pas accéder à cet article car un bloqueur de publicités est activé)


  • Bâle 3 : les grandes banques françaises en pointe du #Lobbying contre la régulation financière internationale
    http://multinationales.org/Bale-3-les-grandes-banques-francaises-en-pointe-du-lobbying-contre-

    Les grandes banques françaises et leurs lobbys sont vent debout contre les projets du Comité de Bâle de renforcer les exigences de solvabilité des banques internationales. De nouvelles règles pourraient les obliger à augmenter considérablement leurs fonds propres, alors qu’elles avaient jusqu’ici réussi à passer entre les mailles de la vague de régulation qui avait suivi la crise financière de 2008. Elles en appellent désormais à Emmanuel Macron, lequel avait repris leurs arguments durant la campagne (...)

    Actualités

    / #France, #Finances_et_banques, #BNP_Paribas, #Société_générale, #BPCE, #Crédit_agricole, Lobbying, #influence, normes et (...)

    #normes_et_régulations
    « https://www.bloomberg.com/news/articles/2017-06-12/france-holds-out-as-bank-regulators-drive-for-basel-capital-deal »
    « https://www.mediapart.fr/journal/economie/070317/emmanuel-macron-veut-reecrire-la-regulation-financiere?onglet=full »


  • Une catastrophe se profile à Gaza
    Par Charlotte Silver le 12 juin 2017 | The Electronic Intifada | Traduction : J. Ch. pour l’Agence Média Palestine
    http://www.agencemediapalestine.fr/blog/2017/06/14/une-catastrophe-se-profile-a-gaza

    Israël va réduire de 40 % sa fourniture d’électricité dans la Bande de Gaza occupée, transformant une situation déjà désastreuse en catastrophe.

    Israël dit que la prochaine réduction, approuvée dimanche par le ministère israélien, se fonde sur une requête de l’Autorité Palestinienne.

    Avant la réduction, la population de deux millions de Gazaouis n’a reçu que quatre heures d’électricité par jour, les hôpitaux, la désalinisation et les usines de traitement des eaux usées étant gravement mis en péril ou rendus inopérants.

    Déjà, les services médicaux, y compris les graves interventions chirurgicales, ont été sévèrement réduits à cause de la constante crise énergétique.

    Les groupes électrogènes de l’hôpital sont au bord de la panne, a déclaré lundi Gisha, association israélienne de droits de l’Homme qui surveille le blocus de Gaza.

    Gisha a écrit dimanche une lettre urgente au ministre israélien de la Défense Avigdor Lieberman, l’avertissant qu’une réduction supplémentaire d’électricité « est la ligne rouge à ne pas dépasser ».

    On dit maintenant aux Palestiniens de Gaza de se préparer au pire. On dit que la coupure réduira la moyenne quotidienne d’électricité de 45 minutes supplémentaires.(...)

    #Gaza



  • Plongée dans la tête des kamikazes
    http://abonnes.lemonde.fr/societe/article/2017/06/07/dans-la-tete-des-kamikazes_5139774_3224.html?h=11

    Le Califat, promesse de réparation historique

    Ce sentiment d’impuissance face aux souffrances des musulmans a atteint son acmé avec le déclenchement de la guerre civile syrienne. Il trouvera concomitamment une issue avec la proclamation du « califat », le 29 juin 2014, perçu comme une promesse de réparation des humiliations passées.

    Dans son message à sa mère, Ibrahim El Bakraoui présente ainsi l’EI comme un espoir de revanche historique : « Maintenant, nous, gloire à Dieu, depuis des centaines d’années, on a perdu l’Andalousie, on a perdu la Palestine, on a perdu, euh, tous les pays musulmans en fait, l’Afghanistan, l’lrak, la Syrie, le Maroc, il est gouverné par un tyran, la Tunisie, l’Algérie tous les pays, gloire à Dieu, il y a un Etat islamique qui a été créé. »

    Cette fierté retrouvée de l’oumma (la communauté des musulmans), près d’un siècle après l’abolition du dernier califat ottoman, en 1924, Khalid El Bakraoui tente de l’expliquer à son épouse dans une lettre d’adieu manuscrite : « Sache Nawal qu’il y a toujours eu des Etat islamique. Le dernier a été detruit début des annes 1920, mais ensuite les gens ont abandonner le djihad et Allah depuis n’a cesser de nous humilier (…) Mais aujourd’hui nous avons un Etat islamique qui a remporter beaucoup de victoir. »

    « Pourquoi nous vous haïssons »

    Cette exportation du « djihad défensif » vers l’Occident sert aujourd’hui d’alibi à un « djihad offensif » qui ne dit pas son nom, l’objectif affiché de protection de l’islam devant, à terme, mener à sa propagation. Ce glissement a été formalisé par l’EI dans un article intitulé « Pourquoi nous vous haïssons, pourquoi nous vous combattons », publié par l’organe de propagande Dabiq, en juillet 2016.

    L’article développe son titre en six points. Les trois premiers ont trait à la nature de l’Occident : « Nous vous haïssons, d’abord et avant tout parce que vous êtes des mécréants » ; « Nous vous haïssons parce que vous vivez dans des sociétés libérales et sécularisées qui autorisent ce qu’Allah a interdit » ; « Pour ce qui concerne la frange athée, nous vous haïssons et vous faisons la guerre parce que vous ne croyez pas en l’existence de notre Seigneur ». Les trois points suivants font référence aux actions prêtées à l’Occident : les « crimes contre l’islam », les « crimes contre les musulmans » et « l’invasion » des terres musulmanes.

    La liste se conclut sur cette clarification : « Ce qu’il est important de comprendre ici, c’est que même si certains assurent que votre politique extérieure est à l’origine de notre haine, cette cause est secondaire, raison pour laquelle nous ne l’exposons qu’en fin de liste. En réalité, même si vous cessez de nous bombarder, de nous emprisonner, de nous torturer, de nous diffamer, de prendre nos terres, nous continuerons à vous détester parce que la cause principale de cette haine ne cessera pas tant que vous n’aurez pas embrassé l’islam. »
    Le ressort psychologique : impuissance et culpabilité

    Ainsi la propagande de l’EI fait-elle insensiblement dériver ses soldats d’un combat humanitaire vers sa finalité totalitaire : l’annihilation de toute altérité. La seule paix envisagée est la pax islamica. Ce basculement ne séduit cependant qu’une minorité de candidats, mettant en lumière les ressorts psychologiques propres au processus de radicalisation. Une dimension intime évidemment rejetée par les intéressés.

    « Quel était l’état d’esprit des EI Bakraoui ?, demande à Osama Krayem la juge belge chargée de l’enquête sur les attentats de Bruxelles.

    – Ce sont des gens ordinaires. D’ailleurs lbrahim me disait que sans cette coalition, ces musulmans qui se font opprimer là-bas, il aurait eu une vie ordinaire avec des enfants. Je crois qu’à un certain moment il a changé de comportement. (…) Khalid El Bakraoui, sa femme était enceinte. (…) Le terrorisme n’est pas une personnalité, en fait. Vous pouvez lire l’histoire des musulmans, à aucun moment ce sont les musulmans qui ont pris l’initiative d’attaquer ou de faire du mal. »

    Osama Krayem affirme que le terrorisme n’est pas « une personnalité ». Mais qu’est-ce qui a finalement convaincu Ibrahim El Bakraoui de renoncer à sa « vie ordinaire » et son frère Khalid d’abandonner sa femme enceinte pour se faire exploser ? Comme nombre de candidats au djihad, les frères El Bakraoui étaient des délinquants, très éloignés de la religion, avant leur conversion à l’islam radical.

    « Beaucoup de délinquants se sentent en réalité coupables, explique le psychanalyste Fethi Benslama, auteur d’Un furieux désir de sacrifice. Le surmusulman (2016, Seuil). Or, les religions monothéistes jouent sur la culpabilité. En arabe, religion se dit din, qui signifie “dette”. Leur entrée dans le djihad peut atténuer ce sentiment en leur offrant une cause. Il s’opère ensuite ce qu’on pourrait appeler un renversement moral de culpabilité : l’hostilité intérieure se transforme en hostilité extérieure et autorise l’agression d’autrui dans un sentiment de toute- puissance. »

    #djihadisme #EI #Al-Queda #psychologie #impérialisme

    http://zinc.mondediplo.net/messages/68962 via BoOz


  • Les Pinçon-Charlot analysent le cas #emmanuel_macron #vidéo #partagez #retweetez !
    https://www.initiative-communiste.fr/articles/luttes/pincon-charlot-analysent-cas-emmanuel-macron-video-partagez-re

    Le couple de sociologues de la grande bourgeoisie analyse pour Politis la trajectoire d’Emmanuel Macron, « mandaté par la #classe dominante pour donner un grand coup de balai sur les divisions politiques, qui paralysent les intérêts de l’oligarchie ». Il dénonce également la « corruption de classe » que révèlent les « affaires » récentes. […]

    #2-lutte_des_classes_et_renaissance_communiste #articles #5-FRANCE #dictature_du_capital #Lutte_des_classes #monique_et_michel_pinçon_charlot #politique

    http://zinc.mondediplo.net/messages/68925 via PRCF


    • C’est Myriam El Khomeri (20,23 %) qui est passée devant malgré cette explication, elle même derrière un candidat LR (31,76 %).

      A gauche se jouait un autre duel, celui qui opposait Paul Vannier pour La France insoumise à Caroline De Haas pour Europe Ecologie-Les Verts.

      Cette dernière venait avant tout défier l’ancienne ministre du travail sur ces terres, alors qu’elle avait été parmi les opposants emblématiques à la loi travail en 2016.

      Mme De Haas a été éliminée dès le premier tour (13,57 % des voix). M. Vannier a réuni un peu plus de voix (16,60 %), mais pas suffisamment pour prétendre à un second tour.

      #LOL


  • #ngrok - secure introspectable #tunnels to #localhost
    https://ngrok.com

    encore plus simple que #pagekite :

    “I want to securely expose a local web server to the internet and capture all traffic for detailed inspection and replay.”

    ngrok 80

    et zou…

    si tu t’enregistres tu peux aussi faire :
    ngrok -subdomain=pouet 80

    et si tu paies (à #prix_libre), tu peux réserver pouet.ngrok.com à ton seul usage perso

    et donc pour partager un répertoire quelconque de ton ordi :

    cd mon/répertoire/
    python -m SimpleHTTPServer 8000 &
    ngrok 8000