• Comment survivre à l’intelligence artificielle
    https://lundi.am/Comment-survivre-a-l-intelligence-artificielle

    Un long texte de Giorgio Griziotti, qui fait le lien entre son livre précédent (Neurocapitalisme, C&F éditions - https://cfeditions.com/neurocapitalisme) et son ouvrage de politique-fiction Le Boomernaute (à paraître, C&F éditions, 2026)

    L’IA est une relation, pas un objet extérieur àla société et ses rapports de force. La résistance au capitalisme IA est un nouveau terrain de la lutte de classe, une dialectique de la révolution. Il convient, comme pour toute révolution, de prendre en compte la situation du présent, et le subvertir.

    Cependant, l’IA contemporaine reste liée à un dispositif technico-industriel bien précis, fondé sur des régimes d’entraînement et sur des infrastructures de contrôle et de surveillance aux coûts écologiques prohibitifs pour la dépense de calcul et d’énergie, aujourd’hui concentrés dans les oligopoles technico-financiers. Quelle que soit l’étendue des datasets et la sophistication des corrélations statistiques produites, son fonctionnement reste confiné à l’intérieur d’un périmètre défini. Sa versatilité apparente ne doit pas tromper : l’IA ne possède pas d’agentivité réelle. Elle ne peut pas redéfinir ses propres objectifs, introduire des valeurs autonomes ou générer des contextes véritablement nouveaux. Sa « méta-compétence » – l’habileté à générer de nouvelles solutions et procédures – reste donc un phénomène interne à la grille des données, tandis que la métatechnique humaine transforme activement les frontières du possible, en y introduisant des éléments radicalement nouveaux et non confinés dans ce système.

    Un système d’intelligence artificielle peut analyser des milliers de films et produire des narrations et des scénarios, mais pas la révolution opérée par la Nouvelle Vague française à la fin des années cinquante. Quand Godard, Truffaut et d’autres ont brisé la continuité narrative, ont fait parler les personnages au spectateur et ont transformé le film en réflexion critique sur le médium lui-même, ils n’optimisaient pas le cinéma hollywoodien mais refondaient ce que signifie « faire du cinéma » en introduisant des interrogations existentielles sur la qualité d’auteur, sur l’authenticité et sur le rapport entre fiction et réalité.

    L’IA peut calculer à l’intérieur de la physique newtonienne, mais n’aurait jamais conçu la relativité ou la mécanique quantique, des ruptures qui nécessitaient l’abandon des catégories mêmes à travers lesquelles on comprenait la réalité. Cette capacité de refondation émerge de la relation entre singularité et multitude : des gestes qui deviennent transformateurs quand ils entrent en résonance avec des pratiques collectives, des conflits matériels, des transformations de ce qui devient possible de faire quand changent technologies, institutions et relations sociales.

    Si, comme cela se produit déjà sur les réseaux sociaux, ces oligopoles peuvent tirer des informations encore plus pertinentes sur nous, ce n’est pas pour autant que les IA apprennent vraiment de nous. Leur apprentissage reste confiné aux limites du dataset et des logiques d’optimisation qui les gouvernent. Les grandes entreprises utilisent nos prompts [20]

    [20] Voir...
    pour perfectionner des modèles futurs, mais les systèmes avec lesquels nous interagissons n’apprennent pas réellement de la conversation : ils ne peuvent pas modifier leur propre structure ou redéfinir les critères interprétatifs.

    Il faut donc démystifier un lieu commun, souvent relancé même par des observateurs critiques : l’idée que l’IA générative apprend dynamiquement et de manière autonome de nos questions. En réalité, les modèles ne sont pas capables de sédimenter la connaissance à partir des interactions avec les humains. Au contraire, ces derniers sont capables d’apprendre des réponses de l’IA, tout en subissant inévitablement son influence. L’apprentissage des modèles est toujours médiatisé par des données préexistantes et des supervisions humaines, et leur fonctionnement est fortement contraint par des limites techniques et structurelles. Actuellement, il n’existe pas de modèles capables de dépasser ces limites, ni d’indices que cela puisse arriver dans un avenir proche.

    #IA #Neurocapitalisme #Giorgio_Griziotti

    • Genetics became the “800-pound gorilla,” as one scientist put it. “All the research dollars went toward genetics.”
      Over the summer of 1982, Langston found five more “frozen addicts” across the Bay Area. Through gumshoe detective work, he discovered they had all injected a batch of what they believed to be a designer drug called MPPP, cooked in a Morgan Hill basement. But the chemistry had gone awry. Instead of 1-methyl-4-phenyl-4-propionoxypiperidine, a potent opioid with morphine-like effects, the dime-bag chemist had accidentally made 1-methyl-4-phenyl-1,2,3,6-tetrahydropyridine, or MPTP, a pharmacological slipup that would rewrite neurology textbooks.
      When Langston and colleagues secured a batch of MPTP and tested it on primates, they knew they had uncorked a revolution. “Any neurologist could see these monkeys and immediately know that’s Parkinson’s,” Langston says—which was especially compelling, since monkeys do not get Parkinson’s in the wild. In a first, Langston showed that MPTP killed the dopamine-producing neurons in monkeys’ substantia nigra. The discovery made him the most famous Parkinson’s researcher in the country and, Langston wrote at the time, promised to “turn the entire field of Parkinson’s disease upside down.” Parkinson’s, it appeared, could be caused by a chemical.

      AMY LINDBERG SETTLED quickly into life at Lejeune. She played tennis and ran on her lunch breaks, flitting through sprinklers in the turgid Carolina summers. But something dark was lurking beneath her feet.
      Sometime before 1953, a massive plume of trichlorethylene, or TCE, had entered the groundwater beneath Camp Lejeune. TCE is a highly effective solvent—one of those midcentury wonder chemicals—that vaporizes quickly and dissolves whatever grease it touches. The spill’s source is debated, but grunts on base used TCE to maintain machinery, and the dry cleaner sprayed it on dress blues. It was ubiquitous at Lejeune and all over America.
      And TCE appeared benign, too—you could rub it on your hands or huff its fumes and feel no immediate effects. It plays a longer game. For approximately 35 years, Marines and sailors who lived at Lejeune unknowingly breathed in vaporized TCE whenever they turned on their tap. The Navy, which oversees the Marine Corps, first denied the toxic plume’s existence, then refused to admit it could affect Marines’ health. But as Lejeune’s vets aged, cancers and unexplained illness began stalking them at staggering rates. Marines stationed on base had a 35 percent higher risk of developing kidney cancer, a 47 percent higher risk of Hodgkin’s lymphoma, a 68 percent higher risk of multiple myeloma. At the local cemetery, the section reserved for infants had to be expanded.
      Meanwhile, Langston had spent the remainder of the 1980s setting up the California Parkinson’s Foundation (later renamed the Parkinson’s Institute), a lab and treatment facility equipped with everything needed to finally reveal the cause of the disease. “We thought we were going to solve it,” Langston told me. Researchers affiliated with the institute created the first animal model for Parkinson’s, identified a pesticide called Paraquat as a near chemical match to MPTP, and proved that farm workers who sprayed Paraquat developed Parkinson’s at exceedingly high rates. Then they showed that identical twins developed Parkinson’s at the same rate as fraternal twins—something that wouldn’t make sense if the disease were purely genetic, since identical twins share DNA and fraternal twins do not. They even noted TCE as a potential cause of the disease, Langston says. Each revelation, the team thought, represented another nail in the coffin of the genetic theory of Parkinson’s.

      When Goldman compared both populations, the results were shocking: Marines exposed to TCE at Lejeune were 70 percent more likely to have Parkinson’s than those stationed at Pendleton.
      But there was a problem. The Human Genome Project had launched in 1990, promising to usher in a new era of personalized medicine. The project’s goal, to identify all of the genes in man, was radical, and by the time it was completed in 2000, frothy comparisons to the moon landing were frequent. Unraveling our genome would “revolutionize the diagnosis, prevention, and treatment of most, if not all, human diseases,” then president Bill Clinton said.
      But for Langston and his colleagues, the Human Genome Project sucked the air out of the environmental health space. Genetics became the “800-pound gorilla,” as one scientist put it. “All the research dollars went toward genetics,” says Sam Goldman, who worked with Langston on the twin study. “It’s just a lot sexier than epidemiology. It’s the latest gadget, the bigger rocket.” A generation of young scientists were being trained to think of genetics and genomics as the default place to look for answers. “I characterize science as a bunch of 5-year-olds playing soccer,” says another researcher. “They all go where the ball is, running around the field in a herd.” And the ball was decidedly not environmental health. “Donors want a cure,” Langston says. “And they want it now.”

      In 1997, researchers found a family in Italy that had passed along Parkinson’s disease for generations. Although the gene in question would later be shown to cause just a fraction of Parkinson’s cases, the damage was done. The Parkinson’s Institute faced stronger economic headwinds and difficulties with administration, and Langston eventually chose to shut it down. The environmental theory of Parkinson’s went back on the shelf.
      NO ONE KNOWS exactly how much of the world’s drinking water is laced with TCE. The US Centers for Disease Control and Prevention reckons that the water supply of between 4 and 18 percent of Americans is contaminated, although not always at dangerous concentrations; the Environmental Working Group figures 17 million Americans drink the stuff. In Silicon Valley, where TCE was integral to the manufacturing of early transistors, a necklace of underground plumes have been identified along Highway 101 from Palo Alto to San Jose. Santa Clara County has more toxic Superfund sites, at 23, than any other county in the country. (Several tech giants have offices near or on top of these sites; in 2013, workers at a Google office were subjected to unhealthy levels of TCE for months after a ventilation system failed.)
      And while TCE’s connection to cancer is well studied, what it does to our brain is more mysterious. That’s because good data on exposure is devilishly hard to come by. The US, with its fractious health care system, has few national databases, and chemical exposures are rarely tracked.
      Sam Goldman at home
      Sam Goldman at his home in San Francisco. His research compared Camp Pendleton in California with Lejeune.
      PHOTOGRAPH: SKYE BATTLES

      In 2017, Sam Goldman realized that Camp Lejeune offered the perfect opportunity to change this. Goldman—an epidemiologist and a doctor—has made a career out of teasing apart data: finding unusual case reports, looking for patterns, interviewing patients in the clinic about what chemicals they handled at old jobs and what exposures they faced in their childhood. In the case of Lejeune, Goldman could examine VA medical records to find Parkinson’s diagnoses and compare them to service records. But Goldman’s genius wasn’t finding this Lejeune cohort—it was realizing he had a control group, too.
      Camp Pendleton, in Southern California, is the Marine Corps’ West Coast equivalent to Lejeune. Thousands of young, healthy Marines shuffle through its barbed-wired gates each year. But Pendleton has one thing Lejeune does not: uncontaminated drinking water.
      When Goldman compared both populations, the results were shocking: Marines exposed to TCE at Lejeune were 70 percent more likely to have Parkinson’s than those stationed at Pendleton. And in a follow-up study last year, he showed that disease progression in Lejeune vets with the highest exposure to TCE was faster than those with low or no exposure, too. In the world of Parkinson’s research, Goldman’s study was a blockbuster.
      But to really prove a link, you need more than just correlation. So, on the third floor of a drab university building in Birmingham, Alabama, Briana De Miranda has re-created Camp Lejeune in her lab, but for mice.

      Building Citivan International Research Center
      University of Alabama at Birmingham, a research center.
      PHOTOGRAPH: LYNSEY WEATHERSPOON
      De Miranda is a toxicologist, not a neurologist, which is an unusual CV for a cutting-edge Parkinson’s researcher. When I visit her in October 2024, she shows me the plexiglass chamber where a few dozen mice doze in a pile. They’ve been spending their days in this chamber for months, inhaling a small amount of TCE almost every day. This experiment is the first to re-create the exposure someone like Lindberg experienced over years at Camp Lejeune.
      De Miranda walks into a dark annex of her lab and asks a tech to pull up some imagery. “These are dopamine neurons in the brain,” De Miranda says, pointing to a scan of the control mice. In unexposed mice the substantia nigra looks like a nighttime satellite image of Manhattan—thousands of neurons sending dopamine across the mice’s brains to orchestrate fluid scurrying and sniffing and munching. Then the tech pulls up the brain scans of mice who have been exposed to TCE. Suddenly we’re in West Virginia. It’s not pitch black, but most of the lights are off and the ones that remain have been dimmed. The dopamine neurons have died, De Miranda explains. And she’s seeing the physical effects in the mice too. “We see minor motion defects; we see it in their gait, and we are seeing cognitive effects,” De Miranda says.

      De Miranda’s studies, the first ever on inhaled TCE toxicity and Parkinson’s, are compelling, her colleagues agree, and well designed. And although there is more work to be done, the results wrap a bow on Goldman’s epidemiological work and the Parkinson’s Institute’s years of research. TCE is a neurotoxin, and generations of Americans have been exposed. In December 2024, the Environmental Protection Agency finally moved to ban TCE in the United States.

      There is a sense of empowerment in knowing that our health is not predetermined.
      “I think TCE is the most important cause of Parkinson’s in the US,” says Ray Dorsey, the Parkinson’s expert at the University of Rochester. In 2021, Dorsey, who frequently collaborates with De Miranda, Goldman, and a core group of like-minded scientists, published Ending Parkinson’s Disease. The book’s central thesis: Parkinson’s is a growing pandemic, and up to 90 percent of cases are caused by chemicals in our environment. Cut exposures like TCE and pesticides, and we can “end Parkinson’s” as we know it. “The full effect of the Parkinson’s pandemic,” Dorsey writes, “is not inevitable but, to a large extent, preventable.”
      SINCE THE 1990S, the number of Americans with chronic disease has ballooned to more than 75 percent of adults, per the CDC. Autism, insulin resistance, and autoimmune diagnoses have reached epidemic proportions. The incidence of cancer in people under the age of 50 has hit an all-time high. If Parkinson’s disease is—as Ray Dorsey believes—a pandemic that’s being caused by our environment, it’s probably not the only one.
      After a century of putting genetics on a pedestal, the geneticists have some surprising news for us: The vast majority of chronic disease isn’t caused by our genes. “The Human Genome Project was a $3 billion investment, and what did we find out?” says Thomas Hartung, a toxicologist at Johns Hopkins. “Five percent of all disease is purely genetic. Less than 40 percent of diseases even have a genetic component.”

      Most of the conditions we worry about, instead, stem from a complex interaction between our genes and our environment. Genetics loads the gun, as former National Institutes of Health head Francis Collins put it, but the environment pulls the trigger. Rather than revealing the genetic origins of disease, genomics has done the opposite. Only 10 percent of breast cancer cases are purely genetic. Chronic obstructive pulmonary disease? Rheumatoid arthritis? Coronary heart disease? All hover around 20 percent. The primary driver of disease is considerably more terrestrial: It’s the environment, stupid.
      Yet only 1 percent of the roughly 350,000 chemicals in use in the United States have ever been tested for safety. In its 55-year history, the EPA has banned or restricted about a dozen (by contrast, the EU has banned more than 2,000). Paraquat, the pesticide that appears to cause Parkinson’s in farmworkers, has been banned in Europe and China but remains available in the US. And in January, a month after the EPA’s ban on TCE was finalized, the Trump administration moved to undo it, even as new evidence emerged of Parkinson’s clusters in the rust belt, where exposure to trichloroethylene is high.
      It’s easy to mock the MAHAs and the TikTok trad moms making their own food coloring, but the chemical regulatory system in America does not inspire confidence. No one really knows what the chemicals we’re interacting with every day are doing to our bodies.

      Water from the New River laps at a rocky shore
      The New River laps at a rocky shore in North Carolina. According to Coastal Carolina Riverwatch, the New River has been plagued with some form of solid waste pollution and agricultural runoff for nearly four decades.
      PHOTOGRAPH: RACHEL JESSEN
      THAT’S WHY, EARLIER this year, slices of brain from Briana De Miranda’s TCE-addled mice ended up with Gary Miller, a professor at Columbia University. Miller is the country’s leading proponent of a brand-new field called exposomics. Your “exposome” is the sum of your own personal environmental exposures, from the womb to the casket. Many exposures, like TCE, disappear from the bloodstream quickly; people who came into contact with a chemical in the past will never be able to prove it. The exposome is a way to potentially answer the question, “Just what the hell have I been exposed to?”
      Miller began his career in the ’90s as a Parkinson’s researcher studying environmental exposures. But he grew tired of the “whack-a-mole approach” of modern toxicology: identifying one of the 350,000 chemicals on the market as a potential toxicant, looking for the exposure in the environment, looking for correlations, looking for toxicity in mice’s brains, rinse, repeat.

      He wanted a shotgun approach, an answer to the way genome sequencing identifies all the genes in the body. What Miller wants is a Human Exposome Project. “We realized that this wasn’t just about Parkinson’s,” he says. “There were so many disease states we could look at.” Quantify our exposomes, Miller hopes, and we can know what ails us.
      “We have the tools to put the big puzzle together,” says Rima Habre, an environmental health and exposomics expert at the University of Southern California. Through blood draws and metabolomic studies, the exposomics advocates want to measure the vast mixture of chemicals and pollutants in the body and figure out how they impact health. Take air pollution, Habre’s specialty. An ever-changing mélange of small molecules, from tailpipe emissions to tire bits to dust, it has been linked to obesity, endocrine disruption, heart attacks, and more. But if we can figure out what specifically in this toxic cloud is doing the damage, Habre says, we can work to quickly reduce it in our environment, the way we removed lead from gasoline.
      Or autism. Autism diagnoses have exploded from 1 in 10,000 in the ’70s to 1 in 36 today, a rate that genetics and screening can’t explain, says Johns Hopkins’ Thomas Hartung. Hartung, another Human Exposome Project proponent, is growing clusters of neurons in the lab and subjecting them to flame-retardant chemicals—which are applied to couches and car seats across America—to see what happens. Already, the associations trouble him. The goal of all this, Hartung says, is a world where toxicologists like Briana De Miranda don’t have to spend money creating a mouse gas chamber, expose mice for three months, then wait several more months for results.
      Miller’s goal with mice brains is to figure out what exactly about TCE is killing dopamine-producing neurons and leading to Parkinson’s—to unravel and define the interaction between our environment and our genetics in a way never before possible.

      The parallels to the Human Genome Project—in both promise and froth—are clear. But there is a sense of empowerment in knowing that our health is not predetermined. Nearly every scientist interviewed for this story does a few simple things. They filter their water, they run an air purifier, they don’t microwave plastic. They don’t freak out about their daily exposures, but they do things like opt for fragrance-free products, avoid eating out of plastic when they can, and buy organic produce. Our exposures, while not always in our control, can be limited.
      About two hours south of Lejeune in Wilmington, North Carolina, Amy Lindberg is having lunch with her husband, Brad, on a pier overlooking the Atlantic. Although Goldman, De Miranda, and Dorsey have unveiled the likely origins of her Parkinson’s, the random nature of it gnaws at her. “When I was diagnosed, it was just like, where’s everyone else?” Lindberg says. “I felt like, if I have it, what about my coworkers?” She nods to Brad, who also spent years drinking Lejeune’s water. “He suffered no ill consequences,” she says. She worries about her kids, one of whom was born on base.

      je colle ça là par fainéantise (disposer du bouton de traduction automate juste au dessous de ces lignes, après la citation)
      Over my head - PèreUbu
      https://www.youtube.com/watch?v=-4vyCsdnCoQ

      #neurologie #neurotoxiques #pesticides #pollution #environnement #air #eau #alimentation #épidémiologie #dopamine #récepteurs_dopaminergique #neurodégénérescence #maladie_chronique

  • AI-driven discovery of dual antiaging and anti-AD therapeutics via PROTAC target deconvolution of a super-enhancer–regulated axis | Science Advances
    https://www.science.org/doi/10.1126/sciadv.adz9283
    https://www.science.org/cms/asset/60f8b3e6-4fcc-43db-b030-4c7fd1987f91/sciadv.adz9283-keyimage.gif

    The lack of safe, durable therapeutics that act against both biological aging and #Alzheimer’s disease is an unmet clinical need. To bridge this gap, we devised an artificial intelligence (AI)–enabled approach that pairs rapid compound triage with mechanistic target deconvolution. Our AI-driven screening highlighted melatonin (MLT) as a promising candidate. Serum profiling of 161 human individuals confirmed an age-related fall in circulating MLT level, while subsequent in vivo and in vitro experiments showed that MLT rescues cognition, suppresses neuroinflammation, and alleviates senescence phenotypes. Proteolysis targeting chimera (PROTAC)–guided chemoproteomic deconvolution next pinpointed the histone acetyltransferase p300 as MLT’s target. Integrated Cleavage Under Targets and Tagmentation, single-cell RNA sequencing, and spatial transcriptomics revealed that MLT-bound p300 cooperates with specificity protein 1 (SP1) at a brain and muscle ARNT-like protein 1 super-enhancer, elevating histone H3 lysine-27 acetylation and reengaging a circadian-epigenetic program that links redox resilience to neuroprotection. By combining AI-driven discovery with PROTAC-based target mapping and super-enhancer–centric mechanistic resolution, our study identifies MLT as a dual-action candidate and sets out a reproducible “AI-to-clinic” paradigm for multitarget drug innovation in aging-related neurodegeneration.

    #mélatonine #maladies_neurodégénératives #neuro-inflammation #neurodégénérescence #vieillissement

  • Reports | Neurorights | Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies
    https://www.neurorightsfoundation.org/research/reports

    April 1, 2024
    Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies

    The 100-page report is the first ever report analyzing the data practices and user rights of consumer neurotechnology products. Neurotechnology refers to devices capable of recording or altering the activity of the nervous system, including the brain, spinal cord, and the peripheral nerves. Traditionally used within medical and research settings, neurotechnology devices are increasingly marketed to consumers. The report presents an initial assessment of privacy practices in the consumer neurotechnology space, analyzing the privacy policies and user agreements of 30 neurotechnology companies with products that can be purchased online. It benchmarks data practices against half a dozen global data protection standards to compare the handling of neural data with established global standards for handling other types of sensitive and personally identifiable data.

    #Neurotechnologies #BCI #Marché_grand-public

  • European Charter for the Responsible Development of Neurotechnologies – European Brain Council (EBC)
    https://www.braincouncil.eu/european-charter-for-the-responsible-development-of-neurotechnologies

    Over the last decades, advances in technology and in the understanding of the human nervous system have expanded the possibilities of using such knowledge under the form of devices and procedures, collectively referred to as neurotechnologies. Neurotechnologies are designed to interact with the brain and nervous system, providing support for the diagnosis, monitoring, and treatment of neurological and mental health conditions, thereby addressing unmet medical needs and promoting brain health globally. Beyond their clinical utility, neurotechnologies are being mobilised in a growing number of settings beyond health and research, including education, the workplace, and the direct­-to-consumer market for entertainment and personal use.

    Neurotechnologies have great potential to foster brain health. Clinical tools range from Magnetic Resonance Imaging (MRI) and Electroencephalography (EEG) to Deep Brain Stimulation (DBS), each holding transformative power for both diagnosis and management of neurological and mental health conditions. Furthermore, the growing accessibility and portability of neurotechnologies, along with their potential applications in everyday life, have expanded their use beyond the medical field and into the general consumer market (for example in work, education, entertainment, and marketing). Consequently, over the past decade, the field of neurotechnology applications has grown exponentially, with the neurotechnology market projected to reach more than $24 billion by 2027. However, the uses of neurotechnologies both in the medical field and the general consumer market raise crucial ethical and societal issues—notably in terms of human enhancement, regulation and marketing of direct-to-consumer devices, protection of personal neural data and vulnerability of cognitive patterns for commercial or political manipulation.

    The European Charter for the Responsible Development of Neurotechnologies is a policy-driven project complementing EU consumer protection and general product safety standards. Acknowledging the unique role of the brain in governing cognitive processes and personal identity, the Charter refreshes the European policy debate on technology governance by promoting a culture of stewardship and trust in neurotechnologies, supporting greater wellbeing and sustainable economic growth, and guiding public policy, activities of companies and investments.

    #Neurotechnologies #Ethique #Europe

  • Charte de développement responsable des neurotechnologies - Agence de la biomédecine
    https://www.agence-biomedecine.fr/fr/neurosciences/charte-de-developpement-responsable-des-neurotechnologies

    L’Agence de la biomédecine pilote, depuis janvier 2025, la Charte de développement responsable des neurotechnologies initiée par la Direction Générale de la Recherche et de l’Innovation (DGRI) du Ministère de l’Enseignement Supérieur et de la Recherche (MESR). Ce dispositif vise à accompagner le développement maîtrisé et éthique des neurotechnologies pour l’ensemble de leurs applications, tout en protégeant les citoyens face aux enjeux nouveaux liés à ces innovations.
    Un développement éthique des neurotechnologies

    Les neurotechnologies consistent en l’étude du cerveau et de son fonctionnement grâce à des innovations technologiques, ouvrant des perspectives inédites. Initiée par le Ministère chargé de l’Enseignement supérieur et de la Recherche, cette charte permet à la France d’appliquer la recommandation de l’Organisation de Coopération et de Développement Économique (OCDE) de 2019 sur le développement responsable des neurotechnologies, première norme internationale dans ce domaine. Elle vise à favoriser le développement responsable des neurotechnologies pour des applications médicales et non médicales, en renforçant la confiance entre tous les acteurs. Elle vise aussi à protéger patients et consommateurs contre des utilisations potentiellement abusives et malveillantes conduisant à une perte de liberté cognitive ou au non-respect de la confidentialité des données cérébrales personnelles collectées.
    Pilotage et suivi par l’Agence de la biomédecine

    Pour assurer l’efficacité et la bonne application des principes énoncés dans cette charte, un comité de suivi a été mis en place. Cette instance réunit régulièrement 8 personnalités aux expertises complémentaires afin d’évaluer la mise en œuvre des engagements de la charte, d’identifier les ajustements éventuels et d’accompagner les acteurs dans une démarche commune de progrès éthique et technique.
    La Charte européenne pour le développement responsable des neurotechnologies

    Adoptée en avril 2025, la Charte européenne pour le développement responsable des neurotechnologies vise à encadrer l’essor rapide de ces technologies en promouvant une gouvernance éthique, inclusive et centrée sur l’humain.
    Son ambition : instaurer une culture de confiance autour des neurotechnologies, favoriser le bien-être collectif, encourager une croissance économique durable, et guider les politiques publiques, les pratiques commerciales et les investissements responsables.
    S’appuyant sur les cadres de gouvernance et les législations existants, la Charte vient les compléter en mettant en lumière les zones d’ombre, en comblant les lacunes réglementaires et en proposant une évaluation des risques centrée sur les personnes.
    Elle a été conçue comme un document vivant, susceptible d’évoluer régulièrement pour suivre les avancées scientifiques, technologiques et sociétales.

    Porté par l’European Brain Council et fruit d’un travail collaboratif entre acteurs publics et privés, la Charte reflète une approche ascendante et co-créative. Elle a mobilisé une diversité de parties prenantes de l’écosystème cérébral européen :

    • Organisations de patients vivant avec des troubles mentaux, neurologiques ou sensoriels,
    • Professionnels de la santé, de la recherche et de l’éthique,
    • Décideurs politiques,
    • Petites et moyennes entreprises.

    Une consultation publique à l’échelle européenne a également permis d’enrichir son contenu avec les contributions de citoyennes et citoyens de tous âges

    #Neurotechnologies #Ethique

  • EBRAINS 2.0 - EBRAINS
    https://www.ebrains.eu/projects/ebrains-2-0

    Within the EC-co-funded EBRAINS 2.0 project the EBRAINS data, tools and services are being further developed.

    The overarching goal of EBRAINS 2.0 is to foster a deeper understanding of brain structure and function with dedicated and mature software tools, to facilitate the development of more effective treatments, new drugs, diagnostics and preventive measures for neuro-psychiatric disorders.

    The project will further the development and provision of the infrastructure’s research technologies to the scientific community. It aims to establish a new standard for brain atlases, gather and connect multimodal neuroscientific and clinical data and push forward the development of digital twin approaches.
    EBRAINS 2.0 Project Photo
    Leaders of the EBRAINS 2.0 project in Brussels

    The project will further the development and provision of the infrastructure’s research technologies to the scientific community. It aims to establish a new standard for brain atlases, gather and connect multimodal neuroscientific and clinical data, and push forward the development of digital twin approaches.

    #neurotechnologies #cerveau #europe

  • Neurotechnologies : vivrons-nous tous dans la matrice ? Conversation avec Hervé Chneiweiss
    https://theconversation.com/neurotechnologies-vivrons-nous-tous-dans-la-matrice-conversation-av

    Les neurotechnologies progressent à grands pas, d’abord motivées par des applications médicales, par exemple pour améliorer le quotidien de personnes paralysées ou souffrant de maladies dégénératives. Elles sont suivies de près par le développement d’applications récréatives qui vont de la relaxation au jeu vidéo. Des recherches récentes montrent notamment qu’il est possible de détecter des mots pensés par les participants.

    Hervé Chneiweiss est neurologue et neuroscientifique, président du comité d’éthique de l’Institut national de la santé et de la recherche médicale. Il a coprésidé le comité d’experts qui a rédigé une recommandation sur les neurotechnologies qui doit être adoptée le 7 novembre, lors de la 43e session de la Conférence générale de l’Unesco qui se tiendra à Samarcande (Ouzbékistan). Le chercheur a reçu Elsa Couderc, cheffe de rubrique Science et Technologie à « The Conversation France », pour parler des risques d’addiction, de la détection de nos émotions et de nos pensées, de la vie privée mentale… et de comment la protéger.

    #BCI #Neurotechnologies #Vie_privée

  • 02/10/25 | mobilitazione negli studios
    https://radioblackout.org/podcast/02-10-25-mobilitazione-negli-studios

    Just as music is born from the contrast of notes, so Arsider reveals Himself in the play of opposites. The foolish is overwhelmed; the devout one dances within it” Ramakrishna, XIX Sec ———————– —————————————

    #buchiamo_tutto #carella #le_persone_anziane #neurodivergenza #renato #talofen
    https://radioblackout.org/wp-content/uploads/2025/10/Arsider-2025_10_02-mobilitazione-negli-studios.mp3

  • Hexane : « Les produits végétariens sont particulièrement touchés » - Basta !
    https://basta.media/Un-carburant-l-hexane-cache-dans-nos-aliments-Les-produits-vegetariens-sont

    Nombre de consommateurs n’en savent rien – sa présence n’est pas mentionnée sur les étiquettes –, mais un solvant pétrochimique intervient dans la fabrication de leurs aliments. Son nom : l’hexane, un sous-produit pétrolier. L’industrie agroalimentaire utilise l’hexane pour extraire l’huile des graines oléagineuses (tournesol, colza, soja). Alors que les méthodes traditionnelles laissaient jusqu’à 20 % d’huile dans les graines, l’hexane permet d’en extraire jusqu’à 99 %. « L’agroalimentaire a adopté cet hydrocarbure pour augmenter le rendement de l’extraction d’huile et maximiser ses produits », relate Guillaume Coudray dans son nouveau livre, De l’essence dans nos assiettes. Enquête sur un secret bien huilé (La Découverte, 2025). « Dans les usines modernes, des colonnes d’extraction gigantesques brassent les oléagineux dans des piscines d’hexane », décrit-il.

    Guillaume Coudray est journaliste d’investigation et spécialiste des pratiques de l’industrie agroalimentaire. Il est notamment l’auteur de Cochonnerie. Comment la charcuterie est devenue un poison (La Découverte, 2017).
    Concrètement, les oléagineux (colza, tournesol, sésame...) sont broyés et aplatis en flocons. Ils sont généralement soumis à une première pression qui permet d’extraire une partie de l’huile. Puis, ils sont plongés dans un bain d’hexane chauffé autour de 60°C. Presque instantanément, l’hexane commence à dissoudre l’huile contenue dans les flocons. À la sortie du bain d’hexane, on obtient un mélange de solvant et d’huile appelé « miscella ». Ce mélange, composé à plus de 70 % d’hexane, est chauffé à plus de 100°C pour permettre l’évaporation de l’hexane et le séparer ainsi de l’huile. « En théorie, tout l’hexane est récupéré pour être réutilisé. En réalité la récupération totale de l’hexane est impossible. Les produits obtenus contiennent souvent de minuscules traces d’hexane », explique Guillaume Coudray.

    #agro-industrie #alimentation

    • Inquiétudes sur la contamination de l’alimentation par l’hexane, un solvant d’extraction des huiles végétales
      https://www.lemonde.fr/planete/article/2025/09/22/inquietudes-sur-la-contamination-de-l-alimentation-par-l-hexane-un-solvant-d

      Des analyses commanditées par Greenpeace révèlent la présence d’hexane, un solvant issu du raffinage du pétrole, dans de nombreux produits alimentaires de consommation courante.
      Par Stéphane Foucart

      L’industrialisation de la production alimentaire est une source inépuisable de surprises. Dans un rapport rendu public lundi 22 septembre, Greenpeace attire l’attention sur une pratique méconnue des firmes agro-industrielles : l’extraction des huiles végétales d’oléoprotéagineux (colza, tournesol, soja…) grâce à un solvant issu du raffinage du pétrole, l’#hexane, #neurotoxique reconnu et suspecté de toxicité pour la reproduction.

      L’utilisation de ce solvant, généralisée depuis l’après-guerre, permet d’optimiser le processus de trituration des graines et de gagner ainsi quelques points de rendement, non seulement dans la production des huiles, mais aussi et surtout dans celle de leurs coproduits – les tourteaux utilisés pour l’alimentation animale. Ces méthodes d’extraction chimique sont quasi généralisées, à l’exception des huiles labellisées « bio », le cahier des charges de l’agriculture biologique proscrivant l’utilisation de ces substances.

      Les analyses commanditées par l’ONG sur une cinquantaine de produits achetés dans des supermarchés français (huiles, volaille, produits laitiers, laits infantiles) relèvent des concentrations d’hexane pouvant aller jusqu’à 80 microgrammes par kilogramme (µg/kg). Les #huiles testées sont les plus contaminées (de 50 à 80 µg/kg selon les références), suivies du beurre (de 20 à 60 µg/kg), des laits infantiles (de 20 à 50 µg/kg) et du lait de vache (jusqu’à 10 µg/kg).

      Sur les quatre références de volaille testées, trois ne contiennent aucun résidu d’hexane détectable, tandis que la dernière affiche 40 µg/kg. Ces résultats doivent toutefois être pris avec prudence : l’échantillonnage réalisé par l’association n’obéit pas aux critères appliqués par les autorités sanitaires dans leurs études d’alimentation, en termes de représentativité des produits choisis ou encore de répétition des mesures sur chacun.

      Une nouvelle évaluation du risque prévue

      Ces résultats attestent néanmoins, selon Greenpeace, de la présence fréquente d’hexane dans ces produits de consommation courante et offrent un ordre de grandeur de la contamination. Contactée par Le Monde, la Fédération nationale des industries de corps gras (FNCG) conteste néanmoins ces chiffres. Elle met en doute la validité de ces mesures, interrogeant les capacités d’analyse du laboratoire universitaire retenu par Greenpeace, qui n’est pas accrédité par des organismes officiels. « Un biais de mesure ne peut donc être exclu, précise la FNCG dans une déclaration transmise au Monde. Un “faux positif” est une hypothèse possible, liée à la méthode de mesure elle-même. »

      Les éléments de comparaison publiés dans la littérature scientifique sont rares. En 2008 toutefois, deux chimistes polonais ont publié des analyses de résidus d’hexane dans 16 échantillons de diverses huiles végétales, grâce à deux méthodes différentes. Leurs résultats sont comparables à ceux présentés par Greenpeace.

      La FNCG ajoute que l’ensemble des résultats présentés par l’association sont, de toute façon, inférieurs de plus d’un facteur 10 à la limite maximale de résidus (LMR) d’hexane, fixée en Europe à 1 milligramme par kilogramme (mg/kg) pour les produits analysés. C’est tout le nœud du problème. Dans son rapport, l’organisation écologiste estime qu’« on peut très largement s’interroger sur la méthode selon laquelle ces LMR ont été établies ». Greenpeace rappelle que la LMR en vigueur actuellement a été établie en 1996 par le Scientific Committee on Food (SCF), l’ancêtre de l’Autorité européenne de sécurité des aliments (EFSA), en se fondant sur une unique étude de quatre-vingt-dix jours sur des rats de laboratoire. De son propre aveu, souligne Greenpeace, le SCF avait fondé son appréciation sur une simple présentation de l’étude en question par les industriels du secteur qui l’avaient commanditée.

      Neurotoxique avéré

      Effectivement, l’EFSA a reconnu dans un rapport technique de septembre 2024 qu’il était nécessaire de « réévaluer la sûreté d’usage de l’hexane comme solvant d’extraction », les données de toxicité utilisées en 1996 n’étant « plus considérées comme suffisantes pour conclure de manière adéquate ». Une nouvelle évaluation du risque doit être lancée, prévue pour publication en 2027.

      Greenpeace rappelle néanmoins que l’hexane est un neurotoxique avéré, dont les effets par inhalation sur le système nerveux périphérique chez les travailleurs exposés dans certains environnements industriels sont documentés par de nombreuses études depuis un demi-siècle. Quant aux effets de l’exposition chronique à de faibles doses, par la voie alimentaire, ils demeurent incertains. Greenpeace souligne, dans sa bibliographie, plusieurs études suggérant des risques pour le système nerveux central ou des troubles du développement lorsque les expositions sont marquées pendant la période périnatale.

      En 2022, dans un article publié par la revue Foods, des chercheurs de l’Institut national pour la recherche en agriculture, alimentation et environnement (Inrae) et de l’université de Turin ont passé en revue l’ensemble des connaissances sur les effets délétères suspectés chez l’humain : maladie de Parkinson, troubles de la fertilité, troubles de l’immunité, etc., et plaident pour sa substitution. En février, la Slovénie a proposé d’inscrire le solvant sur la liste des « substances extrêmement préoccupantes » de l’Agence européenne des produits chimiques ; un mois plus tard, le député du Loiret (Les Démocrates) Richard Ramos déposait une proposition de loi pour bannir l’hexane de la chaîne alimentaire en France.

      Un pilier de l’écosystème agro-industriel

      La séquence actuelle autour de l’hexane doit surtout à la récente publication d’un livre enquête fouillé de l’essayiste et documentariste Guillaume Coudray (De l’essence dans nos assiettes. Enquête sur un secret bien huilé, La Découverte, coll. « Cahiers libres », 304 p., 20,90 euros). « Le rapport de Greenpeace est crucial en ce qu’il apporte des nouvelles données qui confirment la présence alarmante de résidus d’hexane dans de nombreux produits alimentaires consommés au quotidien par les Français, dit-il au Monde. En dépit des connaissances accumulées sur la toxicité de l’hexane, les autorités n’ont jamais fait d’investigation avec un niveau de détection approprié. » Sur les humains aussi, les données sont rares. Interrogée sur l’existence de données d’imprégnation de la population européenne par l’hexane, l’EFSA dit qu’elle n’est « pas au courant d’étude de biosurveillance en cours ».

      Inconnu du public, point aveugle de l’évaluation du risque sanitaire, l’hexane est pourtant le pilier d’un écosystème agro-industriel immense allant de la culture des oléoprotéagineux à l’alimentation animale, en passant par la transformation industrielle des graines. Cet écosystème est dominé en France par le groupe Avri l, un géant lui aussi méconnu, qui pèse pourtant 7,7 milliards d’euros de chiffre d’affaires et que Greenpeace met particulièrement en cause dans son rapport.
      Selon l’association, plus de la moitié des graines triturées en France pour en extraire l’huile le sont dans les usines d’Avril, 93 % de celles-ci étant triturées avec des procédés utilisant l’hexane. Interrogée, Avril ne commente pas ce chiffre, mais précise que 3 millions de tonnes de graines sont triturées chaque année dans cinq sites industriels utilisant de l’hexane, produisant de l’huile destinée à l’alimentation, « sans trace d’hexane au-dessus des limites de quantification des laboratoires accrédités ».

  • L’homme, un hystérique comme un autre (Le Monde diplomatique, octobre 2025)
    https://www.monde-diplomatique.fr/mav/203/A/68764

    Sans doute lassé de la monotonie des affections classiques du système nerveux, Jean- Martin Charcot (1825-1893) se lance dans l’étude de l’#hystérie (du mot grec « utérus ») à partir des années 1870. Si ses observations finissent par le mener dans une impasse, elles lui permettront d’affirmer que ce trouble n’est pas l’apanage des femmes, contrairement à ce qui était proclamé depuis Hippocrate. Elles contribuent aussi à dissiper le soupçon de simulation qui pèse sur les malades en crise. Sommité médicale et personnage mondain, ce précurseur de la neurologie moderne dont Sigmund Freud fut le stagiaire donne chaque mardi à la Salpêtrière des cours cliniques mettant en scène des malades devant un auditoire mêlant médecins, artistes, journalistes ou magistrats. Le texte ci-dessous est un extrait de sa leçon du 13 décembre 1887. MM. Blin, Charcot et Colin, Leçons du mardi à la Salpêtrière. Notes de cours, 1887-1888, Librairie Delahaye et Lecrosnier, Paris, 1889..

    "J’ai cultivé mon hystérie avec jouissance et terreur"
    Charles Baudelaire, Mon coeur mis à nu.

    L’étymologie est trompeuse : l’hystérie n’est pas une question d’organe, elle est psychique. Il faut donc aller cherche ailleurs le sexisme de la psychanalyse.

    #hystérie_masculine #psychiatrie #psychanalyse #histoire

    • Oui, c’est très malheureusement payant, comme tout le dossier psychiatrie (qui ne doit pas contenir que des âneries) publié par le MD, et je le trouve pas. Dommage.

      De ce fait, j’ai cherché ailleurs pour me rafraîchir la mémoire quant à l’accusation erronée faite à la psychanalyse à ce propos.

      On trouve par exemple, dans la Revue française de psychanalyse, L’hystérie masculine entre mythes et réalités, par Jean-François Rabain
      https://gallica.bnf.fr/ark:/12148/bpt6k5452294q.image.r=revue+française+de+psychanalyse.f47.pagination.lan

      L’hystérie masculine (féminine), Gérard Pommier
      https://shs.cairn.info/revue-figures-de-la-psy-2014-1-page-81

      L’hystérie est le régime de croisière de la névrose, celle des hommes comme celle des femmes, et son importance égale du côté masculin n’est reconnue que depuis peu.

      Socrate, Hamlet, Hegel, Dostoïevski, hystériques :

      L’Hystérie masculine (non signé, sur un site qui parait ... jungien)
      https://www.psychaanalyse.com/pdf/freud_L_Hysterie_masculine.pdf

      Pour clore une liste qui pourrait être bien plus longue, un type sérieux
      L’hystérique invente la psychanalyse, Jacques Sédat
      https://shs.cairn.info/revue-figures-de-la-psy-2014-1-page-113

      Mais bien sur on pourra aller répétant au nom d’un scientisme hors de propos (et dont Freud fut lui aussi le jouet à force de vouloir assurer le droit à l’existence de la psychanalyse) que la psychanalyse est un charlatanisme, voire que ce dernier est plus réactionnaire encore que d’autres, en toute ignorance de sa diversité, de ses critiques internes, de ses transformations.

      J’ai publié ce seen car je trouvait rigolo de voir comment la mention d’une étymologie (d’ailleurs mal établie dans ce cas, voir https://fr.wikipedia.org/wiki/Hystérie) pouvait passer pour le fin du fin, comme cela peut être le cas dans divers milieux à propos du travail, sempiternellement ramené au tripalium.

      #névrose #identification_hystérique

    • Ah mais ça reste aussi une insulte, une manière de discréditer des femmes, potentiellement disponible contre toutes les femmes (qu’elles se tiennent à carreau).

      Quant à la psychiatrie du XIXeme, elle concernait nombre de femmes, y compris pauvres (la souffrance psychique comme l’anormalité ne sont pas des luxes de bourgeois).

      Celles qui sortent et celles qui restent. « Carrières asilaires » des femmes internées dans les asiles en France au xixe siècle, Le paradoxe des sureffectifs féminins au xixe siècle
      https://journals.openedition.org/clio/18399#tocfrom1n1

      Le fait notoire est que les #femmes sont dans ces colonnes en proportions plus importantes que les hommes. Je propose d’appeler « paradoxe des sureffectifs féminins » le double fait que les femmes entrent chaque année à l’asile en moins grand nombre que les hommes, avec 46 % à 49 % des effectifs à l’admission, alors qu’elles constituent la majorité des effectifs en traitement, de 51 % à 55 % selon les années. Les sureffectifs se fabriquent à l’asile, et chez les femmes de façon plus particulière.

      Pour ce qui est du fric et de la psychanalyse, il a existé diverses tentatives de tarification variable des séances d’analyse, jusqu’à la gratuité, dès les débuts de celle-ci (en finançant les séances à bas prix par les séances coûteuses). On est bien sûr très loin de ça aujourd’hui, même si de micro réseau de psys ont tenté jusqu’à il y a peu de maintenir de telles pratiques.

    • Le fait que la psychanalyse défende encore l’usage de cette injure misogyne est révélateur du sexisme qui perdure dans la discipline. Dans les branches moins réactionnaires de la psychologie on a abandonné ce diagnostique vague et injurieux pour un vocabulaire plus précis et moins sexiste.

      En psychiatrie américaine (APA) et au niveau international, la notion d’hystérie ne fait plus partie des classifications médicales modernes comme celles du DSM (DSM-V-TR) et de la classification internationale des maladies (CIM-11). Elle y est dispersée dans les catégories trouble de conversion , trouble de la personnalité histrionique et trouble somatoforme . De nombreuses controverses existent quant à l’existence même de l’hystérie en tant que réalité scientifique.

      https://fr.wikipedia.org/wiki/Hyst%C3%A9rie

      #misogynie #sexisme #hystérie #backlash #déni

    • Sauf que la psychanalyse est précisément un progrès par rapport à la superficialité de la psychologie. Ce que bien évidement l’APA (utilitarisme, orthopédie mentale, une psychanalyse médicalisée, réservée aux médecins ! ) a toujours refusé, faisant régresser aux USA et ailleurs la psychanalyse vers une psychologie comportementaliste (ben oui, Mr Jones, something is happening here and you don’t know what it is).
      On s’en tient aux symptômes, sans analyse des causes, donc y compris des causes sociales, puisqu’il faut contre les visons uniformisantes de « la » psychanalyse insister sur des critiques internes aux catégories dominantes de la psychanalyse, dont le complexe d’Oedipe, cf la sortie du familialisme proposée par Guattari, l’empreinte occidentale, voir les tentatives de psychanalyse décoloniale, hétéronormée, etc.)

      L’orientation prétendument « athéorique » du DSM juge sa classification. Celle-ci relève d’une nomenclature fondamentalement pharmacologique (industrie pharma et santé comme industrie) largement dépendante de son articulation avec le fonctionnement des assurances privées de santé.

      E. Zarifian : « Le symptôme est apparemment univoque pour celui qui ne le considère que d’une manière comptable ; et c’est à cette dimension comptable que conduit l’usage du DSM. La situation devient caricaturale : on réduit la souffrance d’un être unique à un symptôme, décrit dans un catalogue et on ignore son contexte social ou personnel »[41].

      https://fr.wikipedia.org/wiki/Manuel_diagnostique_et_statistique_des_troubles_mentaux

      Quant à l’étymologie du terme hystérie, quel que soit par ailleurs son usage injurieux, ne désigne pas nécessairement un élément féminin de l’anatomie, mais une puissance qui agit indépendamment de la conscience.

      sur wiki, à nouveau
      https://fr.wikipedia.org/wiki/Hystérie

      Peut-être [le terme hystérie se] rattache-t-il à une racine indoeuropéenne concernant « ce qui est en arrière » (→ hysterisis), ce qui se retrouverait en anglais dans out « dehors » ; le sens fait difficulté comme pour le sanskrit úttara « ce qui est au-dessus ». Quant au rapport avec le nom du ventre (uderos en grec, udaram en sanskrit) , il n’est pas éclairci[2].

      Rien n’oblige à adopter une vision organiciste et fonctionnaliste de la psyché, fut il "neuro-scientifique. Tel est l’apport de la psychanalyse avec lequel notre société tente d’en finir.

    • Lire l’inconscient machinique avec Jean_Claude Polack : schizoanalyse et inconscient machinique
      https://chaire-philo.fr/lire-linconscient-machinique-avec-jean-claude-polack-schizoanalyse-et-i

      “La thèse de la schizo-analyse est simple : le désir est machine, synthèse de machine, agencement machinique, — machine désirante. Le désir est de l’ordre de la production, toute production est à la fois désirante et sociale. Nous reprochons donc à la psychanalyse d’avoir écrasé cet ordre de la production, de l’avoir reversé dans la représentation” (L’anti_Oedipe, p. 356).

      #vidéo #schizoanalyse #inconscient_machinique #Félix_Guattari

    • Un inédit du grand méchant Freud : Freud, critique de la raison neurologique (1885-1896)
      https://www.editions-eres.com/ouvrage/5472/freud-critique-de-la-raison-neurologique-1885-1896

      Un ouvrage qui retrace les prémices, le développement et la poursuite de la démarche engagée par Freud dans « Introduction critique à la neuropathologie », traduite et commentée ici.

      En quoi la formation scientifique de Freud le préparait-elle à ouvrir le champ d’une science nouvelle et à quels moyens eut-il recours pour cela ?

      À Paris, Freud engage en 1885, dans l’enthousiasme de sa rencontre avec Charcot, l’écriture d’un texte théorique d’envergure dont le titre envisagé reflète l’audace et l’ambition : « Critique de la raison neurologique ». Il ne put mener le projet à son terme et en offrit une ébauche en 1887 à Wilhelm Fließ qui s‘en fit le conservateur. Ce premier jalon d’un geste théoricien, qui ne devait plus cesser, restera inédit jusqu’à sa publication en 2012, accompagnée d’un texte de Katja Guenther dévoilant son importance et le contexte de de son écriture, dans la revue d’histoire de la psychanalyse Luzifer-Amor.

      Thierry Longé permet au lecteur français de prendre connaissance de ces documents resitués dans l’esprit du temps, les connaissances accumulées et les théories élaborées à l’époque du défrichement freudien d’un champ nouveau de connaissances.
      Il lui offre ainsi la possibilité d’approcher la dimension critique dont Freud use pour penser avec et contre les deux géants de la neurologie de son époque, Theodor Meynert, père de l’anatomie cérébrale viennoise, Jean-Martin Charcot, premier titulaire d’une chaire de neurologie dans le monde.

      L’ « Introduction critique » trouve son prolongement dans le texte, également traduit, de la partie anatomique de l’article sur le cerveau que Freud rédige anonymement pour l’Encyclopédie médicale de Villaret en 1888.

      #neurologie #ontogénèse

  • Troubles dans les apprentissages : neurosciences cognitives et difficultés scolaires | #Stanislas_Morel, Revue européenne des sciences sociales, 2016
    http://journals.openedition.org/ress/3526

    Deux caractéristiques de la construction scientifique des NC [#neurosciences_cognitives] conditionnent largement ses usages potentiels dans le domaine des #apprentissages scolaires. La première est que les NC sont résolument orientées vers l’action à travers un matérialisme scientifique présenté comme libéré des a priori idéologiques et politiques. Contrairement à certaines idées reçues, elles tendent, au moins aujourd’hui, à reléguer au second plan les questionnements ontologiques (quelle est la cause première des difficultés d’apprentissage ?) et à privilégier, d’une part, une approche descriptive des processus cognitifs engagés dans les apprentissages – et de leurs « corrélats anatomiques » – et, d’autre part, l’élaboration d’« interventions », qui ont pour objectif de maximiser les performances cognitives des individus et dont l’efficacité est expérimentalement démontrée. Ainsi, outre la fascination associée à la découverte des mystères du cerveau, une partie de l’attrait actuellement exercé par les NC est étroitement liée à l’espoir, entretenu à la fois par les chercheurs et par leurs auditoires, de résolution totale ou partielle de certains « problèmes » qui perturbent le fonctionnement de nos sociétés. La seconde caractéristique tient à la capacité des NC à étudier à la fois le « normal » et le « pathologique », voire à brouiller les frontières entre ces deux « registres ». Ce large empan de la recherche est à l’origine d’une multiplication des applications possibles et permet aux chercheurs NC de disposer de plusieurs leviers pour diffuser leurs recommandations. Dans le domaine de l’apprentissage de la lecture par exemple, la mise en évidence des processus cognitifs et des « neurones de la lecture » (Dehaene, 2007) conduit à des préconisations dans le domaine de la pédagogie générale (Dehaene, 2011), tandis que la découverte de pathologies largement répandues comme la #dyslexie débouche sur la construction de problèmes de santé publique. Ces deux types de problématisations des difficultés d’apprentissage actionnent des leviers et mobilisent des acteurs différents et complémentaires.

    [...]

    L’approche des difficultés d’apprentissage par les NC s’est d’abord trouvée, à partir des années 1990, en phase avec le travail de redéfinition du problème de l’#échec_scolaire entrepris par certains experts (universitaires, spécialistes de l’éducation exerçant dans les organisations internationales), hauts fonctionnaires ou hommes politiques (Morel, 2014). Les constats alarmistes sur les performances du système éducatif français (augmentation des inégalités, niveau très bas et en baisse des élèves les plus faibles – OCDE, 2014) ont conduit à redéfinir les modalités de la démocratisation scolaire et de la lutte contre l’échec scolaire. À l’ambition prioritaire de faire accéder l’ensemble d’une classe d’âge à des études de plus en plus longues et à des titres scolaires de plus en plus élevés (80 % d’élèves titulaires d’un bac, 50 % titulaires d’un diplôme du supérieur), s’est substituée celle d’assurer à l’ensemble des élèves une meilleure maîtrise des savoirs fondamentaux au cours de la scolarité obligatoire et, plus particulièrement, à l’#école primaire. Apprendre aux élèves à être plus performants dans certaines compétences de bases (lire, écrire, compter) qui conditionnent toute la scolarité est devenu la priorité affichée des gouvernements successifs, quelle que soit leur couleur politique. Outre le déplacement du centre de gravité du problème de l’échec scolaire vers le premier degré et le recentrement sur les savoirs fondamentaux, la différenciation des apprentissages a été le second mot d’ordre de la réforme pédagogique. Depuis le début des années 2000, l’idée que le #collège unique français n’individualise pas suffisamment les enseignements s’est largement imposée, tout comme le fait que l’échec scolaire résulte avant tout de la somme des défaillances individuelles d’élèves à besoins éducatifs particuliers. Ces deux grandes orientations de la réforme pédagogique sont en phase, selon des modalités qu’il convient de définir, avec l’approche des difficultés d’apprentissage par les NC.

    [...]

    Enfin, parce qu’elles adhèrent, du fait de leur ancrage dans les biosciences, à l’« évidence » d’une différenciation des capacités cognitives en fonction de l’appareillage #génétique et biologique des individus – tout en relativisant tout déterminisme en la matière –, les NC sont en phase avec la remise en cause actuelle, sous une forme euphémisée, de l’égalitarisme qui aurait prévalu dans la première phase de démocratisation scolaire. Elles contribuent ainsi à renforcer la logique actuellement dominante selon laquelle l’efficacité de l’École devrait désormais être évaluée en fonction de sa capacité à maximiser le potentiel d’élèves aux capacités cognitives biologiquement et socialement différenciées.

    Pour toutes les raisons qui viennent d’être évoquées, on peut dire que le succès de l’importation des NC dans le domaine des apprentissages scolaires tient, au moins pour une part, au fait que s’y réfractent, plus que dans d’autres disciplines, les représentations dominantes, produites dans l’univers politique et scolaire, de ce que veut actuellement dire « lutter contre l’échec scolaire ». Cette réfraction n’est pas seulement le produit d’une convergence asymptotique à un instant t, elle est aussi la conséquence de l’appropriation des recherches en NC dans les milieux politiques et pédagogiques.

    #TSA

    • Les inégalités sociales d’apprentissage : perspectives interdisciplinaires de recherche entre sociologie de l’éducation et sciences cognitives | Stanislas Morel, Raisons éducatives, 2021.
      https://shs.cairn.info/revue-raisons-educatives-2021-1-page-19

      Les travaux sociologiques sur les inégalités d’apprentissage, ayant en commun d’analyser sous un angle cognitif la plus ou moins grande distance des élèves aux attendus scolaires et partageant souvent les mêmes références bibliographiques (sociologiques principalement, mais aussi psychologiques ou didactiques), apparaissent aux sociologues de l’éducation comme constituant un domaine, voire une communauté, de recherche en soi, ayant progressivement acquis des contours identifiables ainsi qu’une légitimité au sein de la #sociologie_de_l’éducation et, plus généralement, des sciences de l’éducation. Cependant, cette construction sociocognitive des inégalités scolaires ne fait pas immédiatement sens en elle-même pour les sciences cognitives. Alors que, pour les sociologues, les différents phénomènes cognitifs qu’ils étudient constituent la déclinaison d’un ensemble de malentendus entre les attendus cognitifs scolaires et les schèmes cognitifs que les élèves acquièrent lors de leur socialisation (notamment via leur rapport au langage), pour les sciences cognitives, ces différents phénomènes perdent cette unité et renvoient à un ensemble très hétérogène de questionnements perçus comme relevant de multiples domaines de recherche (le langage oral, la lecture, les connaissances métalinguistiques, les fonctions exécutives, la construction d’une pensée abstraite ou conceptuelle, le transfert des connaissances, etc. ). Autrement dit, bien que les sociologues de l’éducation aient l’impression d’avoir, depuis les années 1990, contribué à une analyse approfondie des aspects cognitifs des apprentissages, le grain de leurs travaux est encore souvent beaucoup trop gros pour des sciences cognitives engagées dans un processus de spécialisation avancée visant à étudier de manière de plus en plus approfondie un nombre croissant d’habiletés cognitives. En outre, la problématisation des inégalités cognitives et les catégories utilisées pour décrire l’activité cognitive par les sociologues s’appuient principalement sur la sociolinguistique (et notamment les travaux de Bernstein) ou l’anthropologie de l’écrit (à commencer par celle de Goody), surtout en ce qui concerne les aspects langagiers (ou littératiés), et ce type de problématisation tend à être relativement méconnu par les chercheurs en sciences cognitives.

      Il en résulte que la collaboration entre sociologie de l’éducation et sciences cognitives suppose que ces dernières prennent au sérieux et s’approprient, fût-ce de manière critique, du fait notamment de leur relative imprécision et de leur caractère difficilement objectivable par la mesure (critère pourtant déterminant pour les sciences expérimentales), des notions comme « secondarisation », ou « décontextualisation » [Pour rappel, il s’agit principalement de la capacité des élèves à comprendre les enjeux cognitifs des tâches scolaires et à transférer judicieusement leurs connaissances d’un domaine à l’autre.]. L’enjeu est pour les sciences cognitives de traduire dans leur propre langage ces « construits cognitifs », qui ne font pas immédiatement sens pour elles, en les décomposant en une série d’habiletés cognitives étudiables soit isolément, soit, et cela est sans doute plus intéressant, en tant qu’elles produisent conjointement, selon des modalités relationnelles à définir, cet effet important sur les apprentissages scolaires mis en évidence par les travaux sociologiques (i.e. des capacités à « secondariser » ou à « décontextualiser » exigées à l’école). Car si les sciences cognitives peuvent amener la sociologie à préciser et à clarifier les différentes habiletés et processus cognitifs en jeu dans les phénomènes qu’elle observe, à l’inverse, la sociologie pourrait permettre aux sciences cognitives de mieux comprendre comment ces habiletés s’actualisent, isolément ou conjointement, dans le contexte de l’école, en fonction des tâches, des normes et des attentes spécifiques à la « forme scolaire » (Vincent, 1980).

  • Causes biologiques du Covid long : le virus persiste des mois dans le cerveau

    https://www.sciencesetavenir.fr/sante/decouverte-des-causes-biologiques-du-covid-long-le-virus-persiste-d
    https://www.sciencesetavenir.fr/assets/img/2025/07/31/cover-r4x3w1200-688b336a2f62d-covid-long-cause-virus-cerveau.jpg

    cette infection discrète dérègle l’expression (niveau d’activation) de plusieurs centaines de gènes à la hausse ou à la baisse. Pour une centaine d’entre eux, la différence est de plus du double (ou, pour une minorité, de la moitié) du niveau normal. « La dérégulation de ces gènes indique un problème de communication des neurones », interprète Guilherme Dias de Melo.

    Ces gènes sont en effet impliqués dans la production de deux neurotransmetteurs et récepteurs associés permettant la communication entre neurones, le glutamate et la dopamine, mais aussi dans la production d’énergie nécessaire au bon fonctionnement de ces neurones. Neurotransmetteur le plus abondant dans le cerveau, le glutamate lorsqu’il est déréglé est un signe de mauvaise santé cérébrale. Quant à la dopamine, elle est liée aux émotions, la mémoire et l’apprentissage, justement perturbés chez les malades atteints de Covid long.
    Des points communs avec les maladies neurodégénératives

    Lire aussLe Covid-19 pourrait accélérer le développement de la maladie de Parkinson

    « Ce qui est encore plus intéressant, c’est que les neurones qui produisent la dopamine sont peu nombreux et localisés dans une zone très spécifique du tronc cérébral. Ce sont précisément ceux qui sont détruits dans la maladie de Parkinson », explique Guilherme Dias de Melo. Ces travaux révèlent donc d’importants points communs entre le Covid long et la grande famille des maladies neurodégénératives. « Les neurones des animaux infectés ont une production d’énergie déficitaire, avec une inflammation et réponse immune innée très présente, et une dérégulation du métabolisme des neurotransmetteurs », énumère Guilherme Dias de Melo. « Energie, communication et inflammation sont trois points qui sont aussi à la base des maladies neurodégénératives. »

    Bien sûr, cela ne signifie pas que le Covid long donne la maladie de Parkinson ni aucune maladie neurodégénérative, mais que ces deux pathologies sont liées à des mécanismes similaires. Partant de ce constat, d’autres liens pourraient exister. « L’infection virale pourrait-elle être un élément déclencheur d’un processus dans le cerveau qui peut aboutir à ces maladies ? Ou persister et de façon cumulative favoriser l’apparition d’une maladie neurodégénérative ? », s’interroge Guilherme Dias de Melo.

    • On est loin d’en avoir fini avec SARS-CoV-2 ...
      https://www.nature.com/articles/s41586-025-09332-0

      Abstract

      Breast cancer is the second most common cancer globally, with most deaths caused by metastatic disease, often following long periods of clinical dormancy1. Understanding the mechanisms that disrupt the quiescence of dormant disseminated cancer cells (DCCs) is crucial for addressing metastatic progression. Infections caused by respiratory viruses such as influenza and SARS-CoV-2 trigger both local and systemic inflammation2,3. Here we demonstrate, in mice, that influenza and SARS-CoV-2 infections lead to loss of the pro-dormancy phenotype in breast DCCs in the lung, causing DCC proliferation within days of infection and a massive expansion of carcinoma cells into metastatic lesions within two weeks. These phenotypic transitions and expansions are interleukin-6 dependent. We show that DCCs impair lung T cell activation and that CD4+ T cells sustain the pulmonary metastatic burden after the influenza infection by inhibiting CD8+ T cell activation and cytotoxicity. Crucially, these experimental findings align with human observational data. Analyses of cancer survivors from the UK Biobank (all cancers) and Flatiron Health (breast cancer) databases reveal that SARS-CoV-2 infection substantially increases the risk of cancer-related mortality and lung metastasis compared with uninfected cancer survivors. These discoveries underscore the huge impact of respiratory viral infections on metastatic cancer resurgence, offering new insights into the connection between infectious diseases and cancer metastasis.

  • Vous avez dit folie ? | Claire Touzard
    https://lmsi.net/Vous-avez-dit-folie

    Claire Touzard nous rappelle le lien structurel – et tout à fait logique – qui existe entre antiwokisme et psychophobie : l’aspiration à l’éveil éthique et politique, dans un monde social où la « raison » se résume à acter le fait accompli, s’y résigner et s’y soumettre, ne saurait être qu’une « folie ». Des Palestiniens aux sans-papiers, en passant par toutes les minorités de race, de genre ou de sexualité, la contestation de l’ordre dominant apparaît, dans son principe comme dans ses formes, comme un « désordre » relevant de la pathologie, et réciproquement, toute maladie psychique (voire physique) apparait comme une subversion socio-politique : une faiblesse suspecte, une « désertion » du monde enchanté de la norme et des normaux, une vulnérabilité ouvrant la porte à la « victimisation », à « (...)

    • https://www.youtube.com/watch?v=5gJTSCGi10E

      Alors que l’on entend de plus en plus parler de santé mentale, des voix s’élèvent pour pointer le risque de la dépolitiser en en faisant un sujet individuel, en “responsabilisant” les individus pour détourner l’attention des véritables causes de leur mal-être.
      Dans son nouveau livre, Folie et résistance, Claire Touzard démontre notamment que l’on présente aujourd’hui des troubles tels que l’anxiété, la dépression, le burn-out comme des dysfonctionnements personnels plutôt que des symptômes d’un système qui oppresse et discrimine. Pour l’autrice, c’est bien le néolibéralisme qui plonge la société dans une angoisse insondable et détériore les corps. En clair, on nous demande d’être heureux, heureuses dans un monde qui n’est pas organisé pour qu’on le soit. Claire Touzard s’interroge “Chaque période crée et identifie ses fous et folles. Qui sont les fous et les folles d’aujourd’hui ? Qui sont les êtres subversifs qui ennuient l’ordre du monde ? Que met-on derrière la notion de folie, dans une ère où nous sommes de plus en plus aliénés par le système et gouvernés par des tyrans sanguinaires dont la santé mentale est plus que douteuse ? Est-ce que cette “santé mentale” n’est pas elle-même un outil d’oppression et de hiérarchie ?”
      Selon l’autrice, pour lutter contre la folie du monde, il faut revenir aux origines de la santé mentale et comprendre que la folie peut être un outil de résistance et de libération. car “Il faut sûrement être un peu fous et folles pour oser rêver mieux, pour sortir de ce schéma brutal, et imposé, qui nous semble indestructible.”
      Alors qui sont les vrais raisonnables d’aujourd’hui ? Pourquoi a-t-on toujours traité de fous ou de folles celles et ceux qui dérangent la norme ? Comment politiser la santé mentale et repenser le soin ? Notre réparation passera-t-elle par une révolution individuelle et collective ? Réponses dans cet entretien de Paloma Moritz avec Claire Touzard.