• F.T.C. Bans Noncompete Clauses - The New York Times
    https://www.nytimes.com/2024/04/23/business/noncompete-clause-ban.html

    The rule would prohibit companies from limiting their employees’ ability to work for rivals, a change that could increase competition and boost wages.
    Listen to this article · 0:49 min Learn more

    J. Edward Moreno

    By J. Edward Moreno
    April 23, 2024, 3:42 p.m. ET

    The Federal Trade Commission on Tuesday banned employers from limiting their workers’ abilities to work for rivals, a sweeping change that the agency says could help raise wages and increase competition among businesses.

    The move bars contracts known as noncompetes, which prevent workers from leaving for a competitor for a certain amount of time, in most circumstances. The agency has said the proposal would raise wages and increase competition.

    The proposal was approved by the agency in a 3-2 vote. Commissioners Melissa Holyoak and Andrew N. Ferguson, two Republicans, voted against the measure.

    This is a developing story. Please check back for updates.

    #Droit_travail #FTC #Lina_Khan #Action

  • U.S. Moves to Bar Noncompete Agreements in Labor Contracts - The New York Times
    https://www.nytimes.com/2023/01/05/business/economy/ftc-noncompete.html

    A sweeping proposal by the Federal Trade Commission would block companies from limiting their employees’ ability to work for a rival.

    The exterior of the Federal Trade Commission’s headquarters in Washington, D.C.
    The F.T.C. said a ban on noncompete clauses could increase wages by nearly $300 billion a year across the economy.Credit...Stefani Reynolds for The New York Times
    Noam Scheiber

    By Noam Scheiber
    Jan. 5, 2023

    In a far-reaching move that could raise wages and increase competition among businesses, the Federal Trade Commission on Thursday unveiled a rule that would block companies from limiting their employees’ ability to work for a rival.

    The proposed rule would ban provisions of labor contracts known as noncompete agreements, which prevent workers from leaving for a competitor or starting a competing business for months or years after their employment, often within a certain geographic area. The agreements have applied to workers as varied as sandwich makers, hairstylists, doctors and software engineers.

    Studies show that noncompetes, which appear to directly affect roughly 20 percent to 45 percent of U.S. workers in the private sector, hold down pay because job switching is one of the more reliable ways of securing a raise. Many economists believe they help explain why pay for middle-income workers has stagnated in recent decades.

    Other studies show that noncompetes protect established companies from start-ups, reducing competition within industries. The arrangements may also harm productivity by making it hard for companies to hire workers who best fit their needs.

    The F.T.C. proposal is the latest in a series of aggressive and sometimes unorthodox moves to rein in the power of large companies under the agency’s chair, Lina Khan.

    President Biden hailed the proposal on Thursday, saying that noncompete clauses “are designed simply to lower people’s wages.”

    “These agreements block millions of retail workers, construction workers and other working folks from taking a better job, getting better pay and benefits, in the same field,” he said at a cabinet meeting.

    #Droit_travail #FTC #Lina_Khan #Projet

  • Presenti mai assenti. Camminata sonora e opera d’immersione sulle rotte migranti
    https://onborders.altervista.org/presenti-mai-assenti-camminata-sonora-e-opera-dimmersione-sull

    di Simona Sala e Valentina Bosio Installazione sonora e field recordings BANDITE. Sound editor Giuseppe Giordano. Canti: Marjan Vahdat, Selda Özturk. Poesie: Rahma Nur da Il grido e il sussurro, Capovolte editrice. Con SENTIERI SOLIDALI e ONBORDERS È un’opera pensata per la commemorazione del 6 febbraio dei morti nel deserto, in mare, sulle nostre montagne […] L’articolo Presenti mai assenti. Camminata sonora e opera d’immersione sulle rotte migranti proviene da ON BORDERS.

    #LINGUAGGI_VISUALI

  • Consumers will finally see FCC-mandated ‘nutrition labels’ for most broadband plans - The Verge
    https://www.theverge.com/2024/4/10/24125572/fcc-broadband-nutrition-labels-isp-deadline-today

    Viva Lina Khan

    It appears that a nearly eight-year-long battle by the FCC to require internet companies to display information on the costs, fees, and speeds of their broadband services is finally over. Starting on Wednesday, all but the smallest ISPs will be required to publish broadband “nutrition labels” on all of their plans, the regulator announced. The FCC’s intention behind the labels is that they’ll allow consumers to more easily comparison shop between plans and avoid any hidden fees.

    The next time you shop for either a standalone home or fixed internet plan, or a new mobile broadband plan, you should notice such a label. Each label will include monthly broadband prices, introductory rate details, data allowances, broadband speeds, and links to find out about any available discounts or service bundles. Links to network management practices and privacy policies should be listed as well. The labels should appear both online and at physical stores.
    Sample fixed internet nutrition label
    Sample fixed internet nutrition label Image: FCC
    Sample mobile internet nutrition label.
    Sample mobile internet nutrition label. Image: FCC

    Most of the information in the labels is publicly available but would require some time and research for the average consumer to sleuth out. In the past, the broadband industry has published advertised speeds for broadband plans that misrepresent the actual connection speeds available for most customers. The new labels should cut down on this practice; ISPs must now publish “typical” download and upload speeds with each plan.

    Major broadband providers have fought vigorously over the years to kill the rule, arguing that such labels would be too costly and complicated to implement. Some consumer advocates also criticize the FCC for not addressing the more serious problem of regional broadband monopolies. Many Americans, especially in rural or less economically prosperous areas, only have one or two options for their broadband provider. Adding to the sense of urgency is that a program that gives low-income Americans additional money to purchase broadband internet plans is set to expire at the end of the month.

    Regional ISPs with only one or zero competitors have little incentive to lower their prices or improve their speeds. Dozens of cities have tried to address the problem on their own by building out their own municipal broadband networks, though, of course, the telecom industry is trying its best to fight this.

    So far, Verizon, Google Fiber, and T-Mobile have released labels ahead of the deadline. Although the FCC’s official deadline for compliance (if you’re a major ISP) is April 10th, small ISPs (with fewer than 100,000 lines) have until October 10th to implement the nutritional labels.

    #Lina_Khan #Concurrence #Fournisseurs_accès #Monopoles_numériques

  • Consumers will finally see FCC-mandated ‘nutrition labels’ for most broadband plans - The Verge
    https://www.theverge.com/2024/4/10/24125572/fcc-broadband-nutrition-labels-isp-deadline-today

    Viva Lina Khan

    It appears that a nearly eight-year-long battle by the FCC to require internet companies to display information on the costs, fees, and speeds of their broadband services is finally over. Starting on Wednesday, all but the smallest ISPs will be required to publish broadband “nutrition labels” on all of their plans, the regulator announced. The FCC’s intention behind the labels is that they’ll allow consumers to more easily comparison shop between plans and avoid any hidden fees.

    The next time you shop for either a standalone home or fixed internet plan, or a new mobile broadband plan, you should notice such a label. Each label will include monthly broadband prices, introductory rate details, data allowances, broadband speeds, and links to find out about any available discounts or service bundles. Links to network management practices and privacy policies should be listed as well. The labels should appear both online and at physical stores.
    Sample fixed internet nutrition label
    Sample fixed internet nutrition label Image: FCC
    Sample mobile internet nutrition label.
    Sample mobile internet nutrition label. Image: FCC

    Most of the information in the labels is publicly available but would require some time and research for the average consumer to sleuth out. In the past, the broadband industry has published advertised speeds for broadband plans that misrepresent the actual connection speeds available for most customers. The new labels should cut down on this practice; ISPs must now publish “typical” download and upload speeds with each plan.

    Major broadband providers have fought vigorously over the years to kill the rule, arguing that such labels would be too costly and complicated to implement. Some consumer advocates also criticize the FCC for not addressing the more serious problem of regional broadband monopolies. Many Americans, especially in rural or less economically prosperous areas, only have one or two options for their broadband provider. Adding to the sense of urgency is that a program that gives low-income Americans additional money to purchase broadband internet plans is set to expire at the end of the month.

    Regional ISPs with only one or zero competitors have little incentive to lower their prices or improve their speeds. Dozens of cities have tried to address the problem on their own by building out their own municipal broadband networks, though, of course, the telecom industry is trying its best to fight this.

    So far, Verizon, Google Fiber, and T-Mobile have released labels ahead of the deadline. Although the FCC’s official deadline for compliance (if you’re a major ISP) is April 10th, small ISPs (with fewer than 100,000 lines) have until October 10th to implement the nutritional labels.

    #Lina_Khan #Concurrence #Fournisseurs_accès #Monopoles_numériques

  • #Linux_Mint 22 Adopts PipeWire, New Linux Kernel Cadence
    https://www.omgubuntu.co.uk/2024/04/linux-mint-22-adopts-pipewire-hwe-kernels

    A slew of modernisation are set to ship in next version of Linux Mint, which will be based on Ubuntu 24.04 LTS. First up, Linux Mint 22 will switch to using Pipewire as its default sound server. Most major Linux distros now use Pipewire. The tech modernises and standardises multimedia processing, is more resource efficient, improves integration between app and hardware, and works with software made for other audio sound systems, e.g., PulseAudio, ALSA, etc. Another significant change on the way involves more timely Linux kernel updates. The current Linux Mint 21.x series is based on Ubuntu 22.04 LTS and […] You’re reading Linux Mint 22 Adopts PipeWire, New Linux Kernel Cadence, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News

  • Ô mon #français !

    J’ai passé ma jeunesse à suer sur des dictées à quatre points la faute, j’ai même fini par aimer ça. Suffisamment pour m’en infliger en dehors de l’école. J’ai le souvenir d’une dictée de Pivot, retransmise en direct à la télé, que j’avais tenu mordicus à faire. Télé vieillotte, en noir et blanc avec un écran qui crépitait et un son qui grésillait, dont il fallait ajuster la fréquence de la chaine à la main à l’aide d’un bouton-potentiomètre. Évidemment, je n’étais pas très fort, et j’enfilais les fautes comme les perles. Mais j’étais fier de faire mon maximum pour faire honneur à ma langue maternelle. Paternelle aussi, d’ailleurs. Et puis j’ai appris l’anglais, avec difficulté, tant bien que mal. Ça me paraissait au moins autant abscons et complexe que le français, mais c’était ainsi. Plus tard, j’étais en Italie, alors j’ai appris l’#italien. Également avec des efforts (je ne suis pas particulièrement doué pour les langues étrangères), mais le quotidien aidant, au bout de quelques mois (enfin, environ douze !) je fus capable de tenir une conversation. J’ai compris que l’italien était bien plus simple (et cela n’empêche pas les Italiens d’avoir une culture très riche !) que le français, ne serait-ce que parce qu’il se prononce quasiment comme il s’écrit (et inversement). Contrairement au français (et à l’anglais). De quoi avoir 20/20 à une dictée d’italien. Mais pour la peine, ça ne serait pas drôle. Donc il n’y a pas de dictée en italien.

    Plus tard je suis tombé sur la vidéo d’une courte conférence intitulée « la faute de l’orthographe » par deux profs belges (inventez un mot, puis calculez combien il y aurait – théoriquement – de manières de l’écrire en français). Cette vidéo m’a ouvert l’esprit. J’ai compris que l’orthographe n’était qu’un #outil. Que la langue n’était qu’un outil ; pour communiquer, transmettre des idées, en l’occurrence. Et que si l’outil était moins complexe à utiliser qu’il ne l’est, le temps incommensurable que l’on passe à l’étudier, à tenter d’essayer de l’apprivoiser, à éventuellement vouloir le maitriser, pourrait être dédié à faire des choses plus constructives. Des maths, de la physique, écrire, lire, réfléchir, jouer de la musique, ou avec son chat, faire du ski de rando ou grimper, bref, d’autres trucs. L’orthographe devait redescendre du piédestal sur lequel mes études l’avaient placé.

    Dans le même temps (ou avant, même, plutôt), cette histoire d’#écriture_inclusive commençait à infuser. Franchement, ajouter des points au milieu des mots dans une langue aussi complexe, ça n’allait pas aider. N’était-ce pas barbare ? En plus l’#Académie_française avait pris position contre cette incongruité. Alors…

    Et puis j’ai commencé à faire pas mal de vélo, je me suis acheté un casque à conduction osseuse pour pouvoir écouter des podcasts assis sur ma selle. J’en écoute à la pelle. Je suis tombé sur les émissions de Binge Audio, je ne sais plus trop comment, et surtout sur le podcast de #Laélia_Véron, « Parler comme jamais » (https://www.binge.audio/podcast/parler-comme-jamais). Notamment un épisode intitulé « Écriture inclusive : pourquoi tant de haine ? » que j’ai écouté par curiosité (https://www.binge.audio/podcast/parler-comme-jamais/ecriture-inclusive-pourquoi-tant-de-haine). J’ai compris alors que l’écriture inclusive ne se limitait pas au point médian, loin s’en faut. Il y a beaucoup d’autres choses à côté. Mais alors pourquoi autant d’efforts à vouloir peser sur l’usage ? Simplement parce que les linguistes ont montré qu’une #langue_genrée avait un effet pas du tout négligeable sur les #inégalités_de_genre dans la société. Le linguiste #Pascal_Gygax, auteur de telles études, conclut un article de vulgarisation ainsi : « L’histoire nous enseigne que la société patriarcale a eu un effet sur la #masculinisation de la langue et les données disent que la #masculinisation_de_la_langue a une influence sur notre manière de percevoir le monde. À partir de là, ce qu’il faut se demander, c’est : veut-on changer cela ? Si oui, alors le langage inclusif est un outil pour y parvenir » (https://www.revue-horizons.ch/2021/09/02/comment-le-masculin-forge-la-pensee-de-lenfant). Quand il a commencé à vulgariser son travail, il a reçu une flopée d’insultes. Décidément, touchez pas au français… Et pourtant, y toucher, volontairement, c’est changer potentiellement les rapports au monde de la moitié de l’humanité (tout au moins des francophones).

    L’oppression de la femme par l’homme ne date pas d’hier, et le langage a été modelé par l’homme en ce sens au cours de l’histoire (comme pour leur interdire l’accès à certaines professions, par exemple). Le #patriarcat a ainsi fait son œuvre notamment via ce moyen de communication entre les humains et les humaines. Il semble n’y avoir que peu de langues, dans le monde, tout au moins celui qui vit dans les sociétés dites occidentales (même si elles sont aussi à l’orient suite aux colonisations), qui ne sont pas genrées, et ainsi, masculinisées.

    Le patriarcat est une forme de #capitalisme. Ce dernier est l’#exploitation des ressources naturelles (ce que l’on nomme pudiquement externalités !) ad nauseam, qui génère des pollutions (autres externalités) ad nauseam, mais c’est aussi l’exploitation des humains (ressources « humaines »). Dans ce cadre, le patriarcat se fait un malin plaisir à exploiter un peu plus les femmes. Dès qu’il s’agit d’augmenter les profits et de trouver des marchés, le capitalisme n’a aucune limite, même si l’Histoire a tout de même réussi à mettre fin au marché de l’esclavagisme. Enfin, pas partout ; et les femmes y sont probablement les plus mal loties.

    Pour mettre fin à ce capitalisme destructeur (de la planète, des sociétés humaines, de l’humanité), et à ses avatars que sont les nombreuses inégalités, dont les inégalités de #genre sous la forme du patriarcat qui perdurent y compris en France, il n’y a pas qu’une façon de faire, une méthode idéale, tracée, parfaite, avec un protocole qui resterait à appliquer. Ce qui est sûr, c’est que sans aplanir ces inégalités, c’est voué à l’échec, comme en témoigne le mouvement des Gilets Jaunes. La « solution » est nébulaire et diffuse, c’est pourquoi il faut faire feu de tout bois et utiliser tous les leviers disponibles. La langue, qui est l’outil avec lequel nous communiquons, est dans cette lutte d’une capitale importance : elle fabrique et façonne notre société ainsi que les rapports que nous avons entre nous.

    La langue française actuelle (re)construite historiquement petit à petit par la classe bourgeoise masculine dominante comme un outil d’accès réservé à l’#élite (masculine) n’est pas immuable : l’outil peut très bien être retourné pour servir la cause. Et donc évoluer dans une direction souhaitable. Inclusive. En somme, un effort minuscule (changer à la marge notre façon d’écrire et de parler) pour un résultat immense : une diminution des inégalités de genre ! Le jeu en vaut certainement la chandelle d’autant qu’il est appuyé par les résultats de la #linguistique. Les enjeux écologiques de frontières planétaires que nous sommes en train de dépasser sont très liés à la question des #inégalités : toute l’humanité n’est pas responsable des pollutions diverses et variées, seulement une minorité, la plus riche. Inégalités de richesse donc, mais aussi, et c’est lié, de genre, de race, de handicap, de classe, de religion, nord-sud, et j’en passe. Dans le jeu de celui qui est le plus fort, ce dernier trouve toujours un moyen d’enfoncer les plus faibles ; et tous les coups sont permis.

    Quand on identifie un nouvel outil dont il est démontré [1] qu’il pourrait permettre de diminuer une partie de ces inégalités pourquoi s’enfoncer dans un #conservatisme mortifère ? Allons-y ! Qu’avons-nous à perdre ? Le #français_inclusif, même si les études scientifiques se trompaient sur sa propension à diminuer les inégalités de genre, n’en serait pas moins toujours le moyen de communication au sein des sociétés francophones. Quant au #point_médian, ce n’est jamais qu’un raccourci à l’écrit, il n’est pas obligatoire [2], alors pourquoi tant de haine ? Je vous conseille la lecture de « Eutopia » de Camille Leboulanger, un roman qui raconte une société où la notion de propriété privée est abolie (non seulement des habitations, mais aussi de la nature, et même la notion de famille est revisitée !), seule perdure la propriété d’usage. Le roman est écrit au féminin générique. Vous verrez, ça rafraichit !

    Mais la langue française n’attise pas les passions que sur les questions de genre. Je vous invite à lire le tract Gallimard « Le français va très bien, merci » par le collectif des Linguistes atterrés (https://tracts.gallimard.fr/fr/products/le-francais-va-tres-bien-merci). Quelques citations glanées çà et là pour un panorama de ce que j’en retiens : « Le français n’a jamais été homogène. Le #standard unique est un mythe. » 300 millions de personnes parlent français dans le monde, il fait partie des cinq langues les plus parlées sur la planète. « Le français n’est pas envahi par l’anglais. […] Le contact entre les langues ressemble davantage à un jeu à somme positive qu’à une guerre : ce que « gagne » l’une, l’autre ne le perd pas. […] Le #mélange, l’impur sont signe de vitalité pour une langue. Le séparé, le pur, une vue de l’esprit, un idéal, une langue statufiée. La langue se renouvèle d’abord parce que le monde change et qu’il faut le nommer, pour le meilleur et pour le pire (« covid » est-il un mot anglais ou français ?), mais aussi par besoin expressif, par jeu, pour faire place aux jeunes, aux autres, à l’altérité. » Autre idée reçue : « le français n’est pas règlementé par l’Académie française. » Elle n’a aucun pouvoir sur la langue, et ne renferme aucun (ni aucune d’ailleurs) spécialiste de la langue puisqu’aucun (ni aucune) linguiste n’y siège. Son dictionnaire est obsolète et sa grammaire encore plus. Dans leur ouvrage « Le français est à nous ! », les linguistes Laélia Véron et Maria Candea posent la question « Au XXIe siècle, à quoi sert l’Académie française ? » Elles répondent : « À rien. Rigoureusement à rien. C’est une institution d’opérette. […] qui sert encore à recycler confortablement des personnalités, grâce à un patrimoine exorbitant et à des finances opaques. » L’orthographe est compliquée : « Il est devenu pratiquement impossible d’écrire sans faire aucune faute. » Cela parce que l’orthographe n’a pas été réformée depuis quasiment deux siècles : la dernière réforme en date, celle de 1990 « peine à s’imposer dans les pratiques. […] Et si notre orthographe ne parvient pas à faire peau neuve, c’est parce qu’elle est devenue un #marqueur_social extrêmement puissant qui donne l’illusion de pouvoir juger des facultés linguistiques de quelqu’un sans entrer dans la complexité de la syntaxe, du vocabulaire ou de tout ce qui constitue la véritable qualité d’un texte écrit. » Bref. Convaincu que réformer l’orthographe est un nivèlement par le haut, j’ai décidé, depuis la lecture de cet opus, d’appliquer la réforme de 1990 au mieux. Pour cela, je m’aide du logiciel Antidote (https://www.antidote.info/fr/blogue/enquetes/redaction-inclusive), qui est également utilisé par les étudiantes et les étudiants à l’université au Québec, tout comme elles (et les nôtres aussi) utilisent la calculatrice. Il y a beaucoup d’autres choses dans ce petit livre, que je vous laisse découvrir. Car vous allez le lire, maintenant, n’est-ce pas ?

    [1] « Le langage inclusif […] a bien l’effet pour lequel il est préconisé : réduire les stéréotypes de genre et augmenter la visibilité des femmes. »

    [2] Même si : « L’usage du point médian permet de supprimer le biais de représentation vers le masculin. » selon le psycholinguiste Léo Varnet.

    http://gblanc.fr/spip.php?article780
    #langue #langue_française #orthographe 

    • La faute de l’orthographe | #Arnaud_Hoedt et #Jérôme_Piron

      Nous avons été profs de français. Sommés de nous offusquer des #fautes_d'orthographe, nous avons été pris pour les curés de la langue. Nous avons écrit pour dédramatiser, pour réfléchir ensemble et puis aussi parce que nous avons toujours pensé que l’#Académie_Française avait un vrai potentiel comique. « Les deux belges qui veulent simplifier la langue française » : tout est faux dans cette phrase. Pas « simplifier » mais bien faire preuve d’esprit critique, se demander si tout se vaut dans notre orthographe. Pas deux Belges, mais bien deux curieux qui veulent transmettre le travail des linguistes de toute la francophonie, pas même la « langue française », seulement son orthographe. Car l’orthographe, c’est pas la langue, c’est juste le code graphique qui permet de la retranscrire. Passion pour les uns, chemin de croix pour les autres, elle est sacrée pour tous. Et pourtant, il ne s’agit peut-être que d’un énorme #malentendu. Arnaud Hoedt et Jérôme Piron sont linguistes de formation. Ils ont vécu 25 ans sans se connaître, mais c’était moins bien. Ils ont ensuite enseigné pendant 15 ans dans la même école. Quand Arnaud participe à la rédaction des programmes de français en Belgique, Jérôme se spécialise en médiation culturelle. En 2016, ils écrivent et mettent en scène le spectacle « La Convivialité », au Théâtre National de Bruxelles. Ce spectacle conférence qui traite de la question du rapport dogmatique à l’orthographe tourne depuis 3 ans dans toute la francophonie. Dans la foulée, ils publient l’ouvrage « La faute de l’orthographe », aux éditions Textuel. Ils se définissent comme suit : « Linguistes dilet(t)antes. Pédagogues en (robe de) chambre. Tentent de corriger le participe passé. Écrivent des trucs. Vrais-Faux Comédiens. Bouffeurs d’Académicien ». A la question « est-ce que ça se dit ? » , Arnaud et Jérôme répondent invariablement « oui, tu viens de le faire ».

      https://www.ted.com/talks/arnaud_hoedt_jerome_piron_la_faute_de_l_orthographe
      #tedx

    • Comment le masculin forge la pensée de l’#enfant

      Les données disent que la langue masculinisée influence nos pensées. C’est du moins la conclusion du nouveau livre du psycholinguiste fribourgeois Pascal Gygax.

      Le cerveau pense-t-il au masculin ? C’est la question que pose Pascal Gygax, psycholinguiste à l’Université de Fribourg, en titre d’un livre* publié récemment avec la linguiste Sandrine Zufferey et la psychologue sociale Ute Gabriel. Pas de suspense inutile : la réponse est oui. L’ouvrage le montre à travers une multitude d’études suisses et internationales qui ont analysé l’influence du langage genré sur les représentations sexistes. « Sur ce sujet, il y a cinquante ans de recherches et quelque 200 études, explique Pascal Gygax, premier auteur. Il était temps d’écrire un livre grand public pour recadrer le débat, qui est devenu très passionnel. » Les réactions à l’ouvrage en attestent. « Depuis dix-sept ans que je travaille sur cette thématique, je n’ai jamais reçu autant d’insultes, confie le Biennois. Il s’agit surtout d’hommes blancs quinquagénaires ou sexagénaires dans des positions dominantes qui m’écrivent pour m’expliquer leur point de vue, souvent très peu documenté. C’est dommage, car le but était justement de prendre de la hauteur de manière scientifique. »

      Le livre se penche en particulier sur l’interprétation de la forme grammaticale dite « générique ». En français, en allemand, en anglais et dans d’autres langues, le genre masculin est également utilisé pour le genre « neutre », au singulier ou au pluriel (en plus de son sens « spécifique »). Exemple tiré du livre : « When a kid goes to school, he often feels excited on the first day » (« Quand un enfant va à l’école, il se sent souvent excité le premier jour »). Le « he » a ici fonction de générique. En français, on peut l’expliquer de la manière suivante : dans « Il y a beaucoup d’excellents chercheurs en Suisse », le mot « chercheur » devrait également inclure tous les genres. Problème : ce sens générique n’est pas perçu comme tel.
      Le générique n’est pas neutre

      En 1984, Janet Hyde, une chercheuse étatsunienne, a demandé à des personnes en formation d’âges différents d’écrire une histoire commençant par la phrase avec l’enfant citée au paragraphe précédent. Chez les universitaires, 21% des récits portaient sur un personnage féminin contre 7% chez les 5-12 ans. Pour l’immense majorité, le masculin a donc induit une représentation masculine.

      En 2008, une étude de Pascal Gygax et de ses collègues a montré qu’en français et en allemand, il était difficile d’appréhender des suites de phrases présentant des femmes après des amorces avec un métier ou une activité au masculin pluriel (« les musiciens », par exemple), donc pouvant agir comme générique. En clair : il est naïf de penser que le générique puisse être complètement détaché du masculin.

      L’ouvrage regorge aussi d’exemples qui témoignent à quel point la langue a été construite autour du masculin. Il n’est pas innocent que l’on dise « Adam et Eve » et « mari et femme ». Selon une méta-analyse réalisée en 2016 par Peter Hegarty et ses collègues, l’ordre de mention est souvent lié à l’importance perçue des entités mentionnées. Et cette masculinisation est au moins en partie intentionnelle, expose le livre. On apprend par exemple qu’aux Etats-Unis et en Angleterre, le pronom pluriel neutre « they » était utilisé jusqu’au XIXe siècle comme singulier lorsque l’on ne connaissait pas le genre d’une personne. Mais que des grammairiens ont imposé le pronom « he » (« il ») comme générique, le jugeant plus « digne ». Le « they » revient en force aujourd’hui.

      Ce langage activement androcentré « nous force à voir le monde au travers d’un prisme masculin », participant aux inégalités entre les genres, soutient l’ouvrage. C’est là qu’intervient le langage inclusif, boîte à outils permettant de « démasculiniser » l’expression orale et écrite. En français ou en allemand, les doublets (« écrivaines et écrivains ») ou les formes contractées des doublets (« écrivain·es ») peuvent par exemple être utiles pour réduire les stéréotypes associés aux métiers. Sabine Sczesny le confirme. Professeure de psychologie sociale à l’Université de Berne, elle a notamment réalisé des travaux mettant au jour un lien entre attitude sexiste et opposition au langage inclusif : « Les filles sont plus intéressées par les professions typiquement masculines lorsqu’elles leur sont présentées sous forme de conomination par rapport à la forme masculine. »
      Le chat des voisins

      Anne Dister, professeure de linguistique à l’Université Saint-Louis de Bruxelles, pense également qu’il est judicieux de mentionner les professions avec un double nom si elles sont stéréotypées masculines, et de mentionner les titres de postes masculins et féminins dans les offres d’emploi. Toutefois, elle juge inutile de vouloir systématiquement tout féminiser et plaide pour « l’économie du langage ». « Dans certains contextes, ce n’est simplement pas pertinent. Si je raconte que mes voisins ont adopté un chat, quel est l’intérêt de préciser leur genre ? »

      Anne Dister juge par ailleurs que le générique, dans les interactions langagières au quotidien, est très bien compris comme tel : « Qui pense sérieusement que les femmes ne peuvent pas traverser sur un passage pour piétons ? » Elle conteste aussi les affirmations selon lesquelles la langue aurait été entièrement masculinisée par les grammairiens : « Le lexique pour certains noms, assurément. Mais pas la grammaire. On prend d’ailleurs toujours les mêmes exemples. » Et de poursuivre : « Ce qui invisibilise, ce n’est pas tant le masculin que notre connaissance du monde. Aujourd’hui, le terme « ministre » qui est épicène n’active pas les mêmes représentations qu’il y a cinquante ans. » La linguiste sait de quoi elle parle. Avec Marie-Louise Moreau, elle a analysé l’évolution des termes utilisés par les candidates aux élections européennes en France et en Belgique pour se décrire depuis 1989 (« sénatrice » ou « sénateur », typiquement). Résultat : la féminisation est massive.

      Accordons-nous trop d’importance au langage ? N’est-il pas uniquement le reflet de la société et appelé à évoluer avec elle ? « Il ne sert presque à rien de se poser cette question, répond Pascal Gygax. L’histoire nous enseigne que la société patriarcale a eu un effet sur la masculinisation de la langue et les données disent que la masculinisation de la langue a une influence sur notre manière de percevoir le monde. A partir de là, ce qu’il faut se demander, c’est : veut-on changer cela ? Si oui, alors le langage inclusif est un outil pour y parvenir. »

      Les attaques personnelles subies après la publication du livre n’entament d’ailleurs en rien l’engagement du chercheur, très présent dans les médias : « J’ai toujours eu envie de sortir de la bulle académique. »

      *« Le cerveau pense-t-il au masculin ? », Pascal Gygax, Sandrine Zufferey, Ute Gabriel, Le Robert, 2021, 176 pages

      https://www.revue-horizons.ch/2021/09/02/comment-le-masculin-forge-la-pensee-de-lenfant

    • Le français va très bien, merci

      « Nous, linguistes de France, de Belgique, de Suisse, du Canada, sommes proprement atterrées par l’ampleur de la diffusion d’idées fausses sur la langue française. » Les Linguistes atterrées
      Les discours sur les "fautes" saturent quasiment l’espace éditorial et médiatique contemporain. Mais la différence entre une faute et une évolution, c’est la place qu’elle occupera à long terme dans l’usage. Et l’usage, ça s’étudie avec minutie. C’est le travail des linguistes. Face aux rengaines déclinistes, il devient indispensable de rétablir la rigueur des faits. Non, l’orthographe n’est pas immuable en français. Non, les jeunes, les provinciaux ou les Belges ne "déforment" pas la langue. Oui, le participe passé tend à devenir invariable. Non, le français n’appartient pas à la France. Oui, tout le monde a un accent, voire plusieurs. Dix idées reçues sur la langue, et surtout trente propositions pour en sortir.

      https://tracts.gallimard.fr/fr/products/le-francais-va-tres-bien-merci
      #Linguistes_atterrées

    • J’ai écrit : il meure. Tranquilou. Au bout de deux jours je me suis dit mmm il y a quelque chose qui ne va pas. J’ai cherché et trouvé : il meurt ! Me suis dit ,mais pourquoi écrire il meure comme ça ? Quelle raison logique ? Pas trouvé de réponses satisfaisantes . Il y a toujours moyen de faire des fautes, TOUJOURS ! C’est pénible.

  • #linux_kernel 6.8 Released, This is What’s New
    https://www.omgubuntu.co.uk/2024/03/linux-kernel-6-8-new-features

    After several solid months of development the Linux 6.8 kernel has been officially released. This kernel is of particular note to Ubuntu users as it’s the version chosen to ship in Ubuntu 24.04 LTS – i.e., as the GA kernel and thereby supported for the duration of the release. Announcing the release of Linux kernel 6.8 on the official Linux Kernel Mailing List (LKML) Linux founder Linus Torvalds says: “This is not the historically big release that 6.7 was – we seem to be back to a fairly average release size for the last few year.” Adding: “You can see […] You’re reading Linux Kernel 6.8 Released, This is What’s New, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News

  • #Linux_Mint is Building a New Desktop Chat App
    https://www.omgubuntu.co.uk/2024/03/linux-mint-new-jargonaut-irc-chat-app

    A new #IRC client (but don’t call it an IRC client) is being developed by Linux Mint. The Ubuntu-based distro currently includes Hexchat in its default software set. IRC isn’t as trendy as Discord or Telegram but it is a free, open standard that no single entity controls, is relatively low-bandwidth, interoperable, and efficient. But as I reported in February: Hexchat is no more. Hexchat quitting the chat leaves —I so badly want to type leafs there— Linux Mint with a dilemma and an opportunity. The dilemma being: “should we continue shipping an IRC client, and what role does it […] You’re reading Linux Mint is Building a New Desktop Chat App, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News

  • « #Bye_Bye_Tibériade » : #Lina_Soualem convoquée #Au_Poste

    https://www.auposte.fr/bye-bye-tiberiade-lina-soualem-convoquee-au-poste

    #dav_duf #palestine #cinéma

    Brel avait un mot. Aller voir. Il faut aller voir. Cette maxime, Hiam Abbass aurait pu la faire sienne. Il y a 30 ans, l’immense actrice a quitté son village #palestinien pour l’Europe, et son cinéma, puis les Etats-Unis, et leur folie. Avec sa fille Lina Soualem, #réalisatrice (son « #Leur_Algérie », il y a trois ans, fut un bijou d’humanité et de drôlerie), #Hiam_Abbass retourne sur les traces des lieux disparus et des #mémoires dispersées de quatre #générations de femmes #palestiniennes.

  • #Lina_Soualem et #Hiam_Abbass : « Faire exister l’humanité du peuple palestinien »

    Après Leur Algérie, explorant la branche familiale paternelle, la réalisatrice Lina Soualem poursuit l’introspection du double exil qu’elle porte : l’Algérie mais aussi la Palestine. Bye bye Tibériade, son second documentaire, sort en salles mercredi 21 février. Bouleversant de tristesse mais aussi de joie, il raconte comment la lignée de femmes de sa famille maternelle, dont sa mère l’actrice Hiam Abbass, a été percutée par les violences de l’histoire.

    À travers elles, c’est l’histoire du peuple palestinien qui se déploie sur plusieurs décennies, un peuple qui subit une injustice historique et qui est revenu au cœur de l’actualité de la plus sanglante des manières. La sortie de Bye Bye Tibériade survient en pleine guerre à Gaza, où Israël mène, depuis le 7 octobre 2023 et les massacres du Hamas qui ont fait 1 160 morts, une riposte militaire. Celle-ci a tué plus de 29 000 personnes, dont 70 % sont des femmes et des enfants, dans l’enclave palestinienne.

    En explorant les douleurs de la mémoire familiale et collective à travers le prisme des femmes, Lina Soualem questionne aussi admirablement l’universel qui nous percute et nous rassemble : l’amour, l’exil, la famille, la terre, les racines.

    https://www.youtube.com/watch?v=9vsnwCDc1Ww

    #film #Palestine #cinéma #documentaire #film_documentaire #dépossession #héroïsme #arrachement #exil #identité #droit_à_la_complexité #culture #nakba #intimité #négation #histoire_familiale #parcours_de_vie #silence #art #récits_de_vie #mémoire_collective #peur_de_la_perte #maison #douleurs_du_passé #transmission #force_féminine #vie #humour #liberté #rupture #exil_forcé #patriarcat #poésie

  • How To Install Firefox As A DEB Package On Ubuntu And Debian
    https://fosspost.org/how-to-install-firefox-as-a-deb-package-on-ubuntu-22-04

    The most notable change you’ll notice in Ubuntu 22.04+ is that the Firefox browser is no longer installed on the system as a traditional DEB package. Instead, it is now being installed as a Snap package.

    From developers point of view, this eases the update process and ensures that all Ubuntu users are using the latest Firefox version for their security. But on the ground, users can sometimes observe issues or performance bugs in the Snap version.

    Overall, it is too much of a headache for the user and for what? Just for turning it into a Snap for continuous updates? Sounds excessive.

    In this very quick tutorial, you’ll see how you can turn Firefox from a Snap package to a DEB package in Ubuntu 22.04, 22.10 and 23.10, so that whatever issues you face from the Snap packaging are fixed and you enjoy using Firefox in the normal way.

    The Firefox version we will install on Ubuntu is the one officially packaged by Mozilla. So this is an authentic and recommended method to follow.

    #Linux_Ubuntu #Firefox

  • Suspension du plan #Écophyto : « On ne s’attendait pas à un tel recul » | #Mediapart
    https://www.mediapart.fr/journal/ecologie/090224/suspension-du-plan-ecophyto-ne-s-attendait-pas-un-tel-recul?userid=ef6c592

    Le souci est-il généralisé ?

    On en vient à se demander s’il y a des endroits sur Terre qui ne sont pas contaminés. J’ai comparé des sols cultivés avec des sols de prairies. Ce sont des prairies qui le sont depuis toujours de mémoire d’agriculteur, donc sans beaucoup d’activité agricole, et dans lesquelles on retrouve tout de même des résidus de produits phytosanitaires.

    On entend beaucoup parler de l’impact des pesticides sur la santé humaine. Mais quel est-il sur la biodiversité ?

    On sait que ces produits sont toxiques quand on les applique sur des organismes ou qu’on donne à manger des produits contaminés à des organismes en laboratoire. Sur le terrain, c’est plus compliqué. Je n’ai jamais observé d’impact létal direct sur les espèces. Mais ce sont des impacts dits sublétaux, plus insidieux.

    Par exemple, dans un travail récent, j’ai étudié deux populations de vers de terre de la même espèce et de la même lignée génétique. En comparant une population qui a été dans des sols gérés en agriculture biologique et l’autre en conventionnel, durant plus de vingt ans.

    On se rend compte que l’expression de leur génome s’est différenciée. En imageant, on peut expliquer que le système métabolique des espèces exposées aux produits phytosanitaires est en surchauffe. Cela laisse entendre que le ver de terre dépense beaucoup d’énergie à faire face, à se décontaminer.

    Concernant les oiseaux dont le régime alimentaire est principalement composé de graines, il y a aussi un déclin, car ils mangent des graines de semences qui sont enrobées de néonicotinoïdes. On sait que cela agit. Mais ce qu’on ne peut pas déterminer, c’est quelle proportion exacte de la baisse du nombre d’oiseaux est directement liée aux produits, puisque d’autres causes entrent en jeu, comme la destruction d’habitats, le manque de haies.

    Mais on découvre encore énormément de conséquences de l’usage des #phytosanitaires

    On cumule quand même pas mal de données sur les concentrations qui existent dans le milieu naturel. Il y a beaucoup de réseaux d’analyses dédiés à l’eau par exemple. En revanche, pour ce qui est des sols, c’est un peu plus récent. Pour moi, cette étude des sols a été délaissée parce qu’on considérait peut-être comme normal de trouver des pesticides, parce que c’était le réceptacle normal des produits en question.

    Maintenant qu’on y prête attention, on a des surprises. Au niveau européen, il y a une étude très récente qui indique que trois quarts des sols sont pollués et contiennent des #pesticides. Et ce n’est pas pollué qu’avec une molécule, c’est un cocktail de #molécules

    Est-ce possible de prévenir les conséquences phytosanitaires sur la biodiversité autrement qu’en réduisant leur usage global ?

    Depuis des années, l’idée est de tendre vers des molécules moins toxiques. Mais cela rend le travail encore plus complexe. Avant, à la sortie de la guerre, les molécules étaient tellement toxiques qu’on voyait des organismes qui pouvaient mourir par intoxication directe. Maintenant, c’est une atteinte à bas bruit qui touche aussi la dynamique des populations. Chez le ver de terre, par exemple, un modèle que je connais bien, cela favorise un retard de croissance, qui implique un retard dans la maturité sexuelle. 

    Par extension, sur une vie de ver de terre, il va moins se reproduire qu’en temps normal. Il y a un déclin des populations parce qu’il y a des effets qui entravent la reproduction de l’espèce.

    On trouve des traces de contamination dans la terre, dans les plantes, dans l’eau, mais aussi dans l’air ?

    Quand l’agriculteur pulvérise son champ, on estime qu’il n’y a que 25 % du produit qui atteint directement la plante. Une partie pénètre dans le sol et atteint la biodiversité et l’eau, et puis le reste part avec le vent. Cette dispersion par le vent est d’ailleurs une des pistes qui expliquerait que l’on retrouve des traces de ces produits y compris dans des parcelles qui n’ont jamais été pulvérisées.

    Puisque beaucoup de travail reste à faire, quelles sont les questions encore en suspens dans l’analyse des produits phytosanitaires ?

    C’est vraiment d’évaluer la #toxicité réelle, en conditions réelles et sur le long terme. C’est le point critique, d’aller vers ce que l’on ne voit pas. On s’intéresse toujours à ce qu’on voit, mais ce qu’on ne voit pas, ce sont les effets sublétaux. Parce qu’en fait, on ne peut pas se contenter de tests. Tout est basé sur des tests qui n’ont aucune réalité et aucune pertinence écologique. 

    Le problème, c’est que maintenant, on veut tout, tout de suite, et on veut le résultat alors que l’expérimentation n’a pas commencé. On fait du court terme. Il nous faut davantage de données sur les conséquences à long terme des produits phytosanitaires sur la biodiversité. Par exemple sur les effets multigénérationnels de ces produits sur les organismes. On doit pouvoir étudier ces effets sur au moins trois générations pour être complets.

    #plan_ecophyto

    • Comme dit #linguisticae :

      Si on vient de baisser les normes phytosanitaires à celles de la Bulgarie. Qu’est ce qui nous empêche d’acheter bulgare ?

      Je trouve ca tellement juste.

      Leurs demandes portaient maladroitement (merci FNSEA) sur les salaires et sur les normes environnementales. Ils ont obtenu le point environnement. Mais ca les met d’autant plus en concurrence avec leurs concurrents, de ce fait. Tout perdu, meme pour eux.

  • Toutes les langues du monde
    https://laviedesidees.fr/Everett-A-Myriade-of-Tongues

    Une synthèse des travaux actuels sur le #langage montre l’extraordinaire diversité des langues à travers le monde et en explore les implications cognitives. À propos de : Caleb Everett, A Myriade of Tongues. How Languages Reveal Differences in How we Think, Harvard University Press

    #diversité #linguistique #Sciences #Double_Une
    https://laviedesidees.fr/IMG/docx/202401_langues.docx
    https://laviedesidees.fr/IMG/docx/20240208_langues.docx
    https://laviedesidees.fr/IMG/pdf/20240208_langues.pdf

  • #Linux_Mint 22 : Codename & New Cinnamon Feature Revealed
    https://www.omgubuntu.co.uk/2024/01/linux-mint-22-codename-revealed

    Linux Mint developers have shared a couple of tidbits about the next major release, which is expected to debut in early summer. First up, the codename: Linux Mint 22 will be called ‘Wilma’. Not a huge surprise; all of the Linux Mint 21.x series codenames began with the letter ‘V’ so a progression to ‘W’ was expected. There are plenty of women’s names beginning with W for Mint to use in point releases, including Wendy, Winona, Wanda, Winnie, and Winifred. Linux Mint 22 is based on Ubuntu 24.04 (as expected). Although that foundation is inn’t dialled in (not due for […] You’re reading Linux Mint 22: Codename & New Cinnamon Feature Revealed, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #nemo

  • #Linux_Mint 21.3 Edge ISO Offers Newer Hardware Support
    https://www.omgubuntu.co.uk/2024/01/linux-mint-21-3-edge-iso-newer-linux-kernel

    Linux Mint developers have announced the release of the Linux Mint 21.3 Edge ISO, which is powered by Linux kernel 6.5. The standard Linux Mint 21.3 release that arrived a few weeks back uses the Linux 5.15 LTS kernel by default. That kernel version is solid, stable, and actively supported. But it might not boot on newer hardware (i.e. released after November 2021, when Linux 5.15 was released). While the Linux 5.15 LTS kernel is still actively supported with critical bug fixes and security patches new hardware support is not back-ported to it. For such situations, the Linux Mint Edge ISO is […] You’re reading Linux Mint 21.3 Edge ISO Offers Newer Hardware Support, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News

  • « Amandjine mange à la cantchine » : l’affrication, nouveau tchic de langage des adolescents – Libération
    https://www.liberation.fr/lifestyle/amandjine-mange-a-la-cantchine-laffrication-nouveau-tchic-de-langage-des-ados-20240111_APTI4UMQLFBMFHR3DVLOTACFWU/?redirected=1
    https://www.liberation.fr/resizer/uVI-L1-EeuKAVx5CROxx3o3ZFQU=/1200x630/filters:format(jpg):quality(70):focal(1765x2865:1775x2875)/cloudfront-eu-central-1.images.arcpublishing.com/liberation/5IDAUHMOBNAKFNV4V6YOP36KZY.jpg

    On trouve des ados qui affriquent leurs « t » et « d » dans toutes les régions de France, selon Maria Candea. (Emmanuel Pierrot/Libération)
    par Marie-Eve Lacasse et photo Emmanuel Pierrot
    publié le 11 janvier 2024 à 18h02

    Un soir à table, votre enfant chéri fraîchement entré en 6e se met à vous raconter sa journée : « Du coup, genre, Amandjine, sans mentchir elle me djit, genre en mode : t’as pris tes protège-tibias pour vendredji ouuuu ? » Silence. Vous reposez délicatement vos couverts sur votre assiette. Ça y est, votre enfant est devenu un ado. Allez-vous, dans un sursaut de snobisme bien accroché, lui demander gentiment de répéter après vous : « AmanDine », avec le « d » bien pointu ? Ou au contraire, vous attendrir de ce poignant désir d’intégration dans son nouvel établissement ? Après tout, votre esprit d’ouverture vous invite à croire que les accents participent à la vitalité de la langue. Vous êtes bien placé pour le savoir : vous-même avez longtemps caché le vôtre lorsque vous êtes arrivé dans la capitâââââle avec tous ses théââââtres.

    Pourtant, quand votre adorable progénitchure conclut le récit de sa journée par le fait qu’elle adore son coach « Didjier » et qu’elle pense arrêter les « chocolatchines » pour leur préférer les « tartchines », c’est plus fort que vous : l’envie de la corriger vous sort par les narines. Ces nouvelles prononciations de « ti, di, tu, du » sont pourtant devenues une norme : elles parcourent tout le territoire et sont étudiées de près par les linguistes, dont Maria Candea, professeure en linguistique française au département Littérature et linguistique françaises et latines de l’université Sorbonne Nouvelle.

    Longtemps militante féministe au sein de l’association Mix-Cité, cette linguiste progressiste n’hésite pas à s’attaquer aux grands mythes de la langue française. Elle s’est exprimée de nombreuses fois dans les médias pour remettre en cause l’Académie française qui, selon elle, diffuse des messages sexistes, conservateurs et réactionnaires. Elle soutient par exemple que l’accent dit « de banlieue » est une fable, comme elle l’expliquait dans un passionnant entretien à la revue Ballast : « Ce qu’on appelle l’accent de banlieue n’est pas lié à l’immigration, à un territoire, à une religion, comme le dit Finkielkraut, ni même à un profil social, mais à une affiliation de groupe. […] Ça contribue à propager des clichés qui n’ont rien à voir avec les dynamiques linguistiques. » La langue est un objet mouvant dont chacun se saisit. Avec sa consœur Laélia Véron, Maria Candea a déployé ses réflexions dans un livre salutaire, Le français est à nous ! Petit manuel d’émancipation linguistique (2019, La Découverte ; 2021 en poche), où l’étude de la langue se mêle à la politique.

    Qu’est-ce donc que ces sonorités, « tch » et « dj », qui apparaissent soudainement chez les enfants, le plus souvent à partir de l’entrée au collège ? D’où viennent-elles ?

    En linguistique, on parle d’affrication lorsqu’on prononce une consonne comme « tch » et « dj » avec un bruit de friction plutôt qu’avec une brève explosion. Ce mouvement est générationnel. Il y a deux hypothèses à cette évolution. Soit elle dure et dans ce cas, il n’y a rien à faire : la langue évolue tout le temps. Pensez au r roulé qui est devenu rural, ou dans le nord de la France, la quatrième nasale de « brun » qui a disparu : on ne distingue plus le « brin » ou le « brun ». Il est donc possible que le « tchi » s’installe et perdure. Autre hypothèse, c’est un stéréotype émergent : il est raccroché à un groupe social, comme l’accent populaire urbain, plus qu’à un groupe d’âge. Mais ce n’est pas ce que l’on observe. Pour l’instant il est en grande expansion et n’est pas en train de devenir un stéréotype. On observe l’affrication à Rouen, Marseille, Grenoble, toujours dans des groupes urbains, car ce sont eux qui lancent les modes. Si, en fin de compte, la deuxième hypothèse se réalise, le « tchi » va acquérir un sens social, tout comme le « r » roulé : des gens vont l’adopter et d’autres le fuir. Pensez aux gens qui disaient « bonjourheeeeeeiiin » : aujourd’hui, c’est considéré comme précieux et ridicule, et cette pratique a été freinée. C’est devenu un stéréotype de parole affectée.

    Y a-t-il des différences entre régions sur l’affrication ?

    La tendance globale est à l’homogénéisation. On trouve des ados qui affriquent leurs « t » et « d » dans toutes les régions de France ; cela ne veut pas dire que les différences régionales disparaissent ! Certaines résistent parce que les gens veulent être identifiables, mais ils peuvent naviguer entre les accents : se standardiser dans certains contextes, et reprendre un accent régional lorsqu’ils discutent avec leur grand-mère par exemple.

    Donc l’affrication ne vient pas de la région de Marseille, par exemple ?

    Son implantation semble plus avancée à Marseille, qui est une grande ville, et pas dans tout le Sud. Mais rien ne prouve que le phénomène vient de Marseille. C’est ­apparu dans plusieurs grandes villes en même temps. On ne sait pas bien retracer son origine. On a le phénomène équivalent au Québec, avec une affrication en « dzi » et « tsi » (« lundzi », « petsit ») plutôt qu’en « dji » et « tchi » (« lundji », « petchit ») et ce depuis très longtemps, sans que cela ne soit marqué socialement ou géographiquement.

    Pourquoi les enfants se mettent-ils à modifier leur langue à ce moment précis de leur scolarité ?

    Les jeunes s’alignent sur leurs groupes de pairs plutôt que sur leurs parents. C’est pareil pour le lexique, pour les constructions syntaxiques, et pas que pour les prononciations. Quand les jeunes arrivent au collège, ils deviennent des grands, et veulent donc aligner leurs pratiques sur les habitudes des grands. Cela fait partie de la culture ado. C’est gênant quand les répétitions sont très fréquentes, comme « genre », mais « effectivement » tous les trois mots, c’est pénible aussi…

    Comment ces modes se diffusent-elles ?

    Les ados ont envie d’imiter car ils s’affilient par le langage comme ils le font avec les vêtements et les coiffures. Ils s’identifient à un groupe, l’imitent, peuvent y rester fidèles ou s’en dégager plus tard. Le langage est une pratique sociale ; on se met à imiter de façon plus ou moins consciente mais on copie toujours la prononciation des gens qu’on aime bien. Il y a les proches, mais il y a aussi les influenceurs, humoristes, chanteurs, acteurs qu’on admire, en plus de ses amis. Quand plusieurs personnes partagent des pratiques similaires, cela se diffuse.

    Faut-il donner des conseils linguistiques aux ados ?

    S’il s’agit de changements linguistiques, ceux-ci sont inarrêtables et ce n’est pas utile, d’autant plus que leur première réaction sera d’être à contre-courant. Non seulement ça ne les aidera pas, mais ça ne changera rien ! Si ce sont des stéréotypes en émergence ou des petits points de pratique langagière clivés, c’est intéressant car ce sera aux parents, et à l’école, d’être à même de les repérer pour comprendre les codes sociaux.

    Donc d’après vous, les prononciations de type « tchi » ou « dji » ne sont pas stigmatisantes ?

    Aucune étude ne le montre. J’ai préparé des lycéens pour la convention ZEP-Sciences-Po et plusieurs avaient ce style de prononciation et ont été admis. Si le registre de langue est là, si le contenu académique est là, il n’y aura aucun jury qui dira : « Tu as vu comment il a prononcé le “t” devant le “i” ? » On leur suggérait d’employer des marqueurs emphatiques : le « ne » de négation, dans « je ne crois pas », est tout de suite plus soutenu. C’est comme si on mettait une cravate ! Maîtriser les tournures syntaxiques et les marqueurs discursifs a plus d’impact dans un concours oral que de contrôler sa prononciation. Sans compter que cela a un coût cognitif exorbitant.

    Pourtant, le français standard, dit « parisien », pèse encore lourdement dans les codes de la distinction bourgeoise…

    En France, « parisien », c’est l’accent du pouvoir : c’est une classe sociale. En matière de prononciation, ceux qui donnent la norme sont les médias et en particulier les grands médias nationaux qui sont en effet parisiano-centrés ; les classes populaires parisiennes ne pèsent pas lourd dans la norme bourgeoise…

    Quid des mots qui ponctuent les phrases comme « genre », ou dans un autre style, « quoicoubeh » ?

    Quoicoubeh est un phénomène issu des réseaux sociaux qui est apparu et disparaîtra probablement rapidement. Quant aux mots comme « genre » ou « en mode », ce sont des marqueurs discursifs, des ponctuants qui sont très générationnels, tout comme les intensifieurs : très, trop, vachement, hypra, méga… Les vieux qui entendaient « vachement », quand ce mot est apparu, disaient que ça n’avait aucun sens ! Et c’est vrai, quand on y pense. Qu’est-ce que les vaches ont à faire là-dedans ? Aujourd’hui, les jeunes utilisent « trop » ou « de ouf » à la place de « vachement ». Les profs les corrigent beaucoup là-dessus, mais le plus important, c’est que les jeunes soient conscients des répétitions. En tant qu’adulte, quand on leur donne des codes sociaux, on leur donne d’autres ressources. Par exemple, qu’est-ce qu’on peut dire à la place de donc, alors, du coup, genre, et pis ? Ce sont des ponctuants basiques, bien pratiques pour rattacher les morceaux d’un discours au moment où les ados forgent leurs outils argumentatifs.

    Ouiichhhhhh…

    Voilà, vous venez de dire « ouichhhhhhh » : c’est un peu comme la mode du « bonjourheeiiiin ». Ces habitudes sont considérées comme affectées, comme le fait de dire « entenduchhh ».

    Le plus important est donc d’inviter les enfants à devenir conscients de ce nouveau registre qu’ils ont ajouté à leur pratique langagière ?

    Oui, et les professeurs ont aussi le devoir de le faire. La mission de l’école, c’est de donner des billes en plus. Quand on fait un exposé en classe, on apprend à ne pas parler comme à ses copains : ce n’est pas une correction, mais un autre registre. Une des solutions serait de leur donner des synonymes, ou de les aider à distinguer les mots familiers des mots soutenus. En linguistique, on dit que certains mots installent de la distance entre les gens, d’autres de la proximité, et on doit savoir qu’on ne peut pas se permettre des mots de la proximité si on n’est pas proches. Apprendre les codes sociaux, ce n’est pas seulement enrichir son vocabulaire, c’est aussi l’organiser en répertoires. Il y a donc la langue de l’école et la langue de la maison.

    Merciiiiihhhh !

    Pour en savoir plus : « Existe-t-il une signification sociale stable et univoque de la palatalisation/affrication (PalAff) en français ? Etude sur la perception de variantes non standard », Cyril Trimaille, Maria Candea, Iryna Lehka-Lemarchand (2012).

    #Langue #Linguistique #Français

  • #Linux_Mint 21.3 Officially Released, This is What’s New
    https://www.omgubuntu.co.uk/2024/01/linux-mint-21-3-official-released-download-now

    Linux Mint 21.3 is now available to download — the first version to offer Wayland support in the Cinnamon desktop. Following a successful bout of bug-busting in last month’s beta release, Mint devs have gone ahead and rubber-stamped a stable release. Thus, you can reasonably expect to not encounter any major issues when installing or using it. This is 3rd major stable release in the Linux Mint 21.x series, following on from the Linux Mint 21.2 release back in the summer. Like those, it’s based on Ubuntu 22.04 LTS and continues to use the Linux 5.15 kernel by default, but […] You’re reading Linux Mint 21.3 Officially Released, This is What’s New, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #Distro_Release

  • Ubuntu 22.04 Users Can Now Upgrade to #linux_kernel 6.5
    https://www.omgubuntu.co.uk/2024/01/ubuntu-2204-linux-6-5-kernel-update

    You can now upgrade to Linux kernel 6.5 in #Ubuntu_22.04_LTS — no PPAs, additional repos, or edge packages required. Ubuntu routinely back-ports newer Linux kernels from “interim” releases to its latest long-term support release. The Linux 6.5 kernel from Ubuntu 23.10, released back in October, is the latest version to get the treatment. Now, this major kernel update affects the standard hardware-enablement (HWE) kernel only. It will not replace the standard GA kernel Ubuntu 22.04 LTS originally came with. If you’ve chosen to stick with Linux 5.15 because it works best then don’t fret: it ain’t going away. […] You’re reading Ubuntu 22.04 Users Can Now Upgrade to Linux Kernel 6.5, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #hwe

  • À la frontière italo-slovène, les migrants oubliés de la route balkanique

    L’extrême nord-est de l’Italie est la porte d’entrée dans le pays des migrants qui ont traversé l’Europe par la route des Balkans. Des centaines d’entre eux se retrouvent à survivre dans la rue. Les associations dénoncent un abandon de l’État.

    La Piazza della Libertà s’illumine des halos jaunes des réverbères. À mesure que les heures s’égrènent dans la nuit, de petits groupes d’hommes s’installent près des bancs verts. Ils sont presque tous afghans ou pakistanais, emmitouflés avec les moyens du bord, contraints de vivre à la rue depuis quelques jours pour les plus chanceux, quelques mois pour les autres. Juste en face, c’est la gare et ses promesses de poursuivre la route à bord d’un wagon chaud plutôt qu’à pied.

    S’y croisent ceux qui sont montés à bord à Ljubljana ou à Zagreb, les capitales slovène et croate, direction Trieste, et ceux qui poursuivent leur voyage vers l’Europe du Nord, avec Milan ou Venise comme étapes suivantes.

    Ce soir-là, une quinzaine d’Afghans arrivent tout juste de la frontière slovène, à moins de dix kilomètres du centre-ville de Trieste. Ils sont venus à pied. L’un d’eux, visiblement heureux d’être arrivé, demande à son ami de le prendre en photo, pouces vers le haut, dans l’air gelé des températures à peine positives. Demain ou après-demain, promet-il, il continuera sa route. En attendant, les autres lui indiquent le Silos, un ensemble de grands entrepôts de l’époque austro-hongroise s’étendant derrière la gare et devenus le refuge insalubre et précaire d’environ quatre cents migrants.

    Aziz Akhman est l’un d’eux. Ce Pakistanais de 32 ans a fui les attentats aux voitures piégées, l’insécurité et les rackets qui gangrènent sa région d’origine, à la frontière avec l’Afghanistan. Quand son magasin a été incendié, il est parti. « J’ai mis quatre mois à arriver en Italie, explique-t-il. J’ai déposé une demande d’asile. » Chaque nuit, seule une fine toile de tente le sépare de la nuit glacée qui enveloppe le Silos. Les heures de sommeil sont rares, grignotées par le froid de l’hiver.

    « La vie ici est un désastre », commente Hanif, un Afghan de 25 ans qui passe, lui aussi, ses nuits au Silos. Son rêve, c’est Montbéliard (Doubs), en France. « Tous mes amis et certains membres de ma famille vivent là-bas. J’y ai passé six mois avant d’être renvoyé en Croatie », raconte le jeune homme, qui avait donné ses empreintes dans le pays et y a donc été expulsé en vertu des accords de Dublin. À peine renvoyé en Croatie, vingt jours plus tôt, il a refait le chemin en sens inverse pour revenir en France. Trieste est juste une étape.

    « Ici convergent aussi bien ceux qui sont en transit que ceux qui restent », explique Gian Andrea Franchi. Ce retraité a créé l’association Linea d’Ombra avec sa femme Lorena Fornasir à l’hiver 2019. « On s’est rendu compte que de nombreuses personnes gravitaient autour de la gare et qu’une bonne partie dormait dans les ruines du vieux port autrichien, se remémore-t-il en pointant la direction du Silos. Ils ne recevaient aucune aide et vivaient dans des conditions très difficiles. » Depuis, l’association distribue des vêtements, des couvertures, des tentes, offre des repas et prodigue des soins médicaux.

    Sur l’un des bancs, Lorena Fornasir a déployé une couverture de survie dont les reflets dorés scintillent dans la pénombre. « Quand ces hommes arrivent, ils ont souvent les pieds dans un tel état qu’on dirait qu’ils reviennent des tranchées », explique cette psychothérapeute à la retraite qui panse, soigne, écoute chaque soir ceux qui en ont besoin.

    « Ceux qui dorment au Silos sont tous tombés malades à cause des conditions dans lesquelles ils vivent, c’est une horreur là-bas : ils ont attrapé des bronchites, des pneumonies, des problèmes intestinaux, et beaucoup ont d’énormes abcès dus aux piqûres d’insectes et aux morsures de rats qui s’infectent », poursuit Lorena Fornasir, avant d’aller chercher dans sa voiture quelques poulets rôtis pour les derniers arrivés de la frontière slovène, affamés et engourdis par le froid. Les soirs d’été, lorsque le temps permet de traverser les bois plus facilement, ce sont parfois près de cinq cents personnes qui se retrouvent sur celle que le couple de retraités a rebaptisée « La Place du Monde ».
    Une crise de l’accueil

    Dans les bureaux de l’ICS, Consortium italien de solidarité, Gianfranco Schiavone a ces chiffres parfaitement en tête et ne décolère pas. Derrière l’écran de son ordinateur, il remonte le fil de ses courriels. Devant lui s’ouvre une longue liste de noms. « On a environ 420 demandeurs d’asile qui attendent une place d’hébergement ! », commente le président de l’ICS, fin connaisseur des questions migratoires dans la région. « Depuis un an et demi, ces personnes sont abandonnées à la rue et ce n’est pas à cause de leur nombre, particulièrement élevé… Au contraire, les arrivées sont modestes », explique-t-il en pointant les chiffres publiés dans le rapport « Vies abandonnées ».

    En moyenne, environ quarante-cinq migrants arrivent chaque jour à Trieste. Le chiffre est plutôt stable et pourrait décroître dans les semaines à venir. La neige a souvent ralenti les départs en amont, le long des passages boisés et plus sauvages de la route balkanique.

    Selon les estimations de l’ICS, entre 65 et 75 % des migrants qui arrivent à Trieste repartent. Le quart restant dépose une demande d’asile. Selon les règles en vigueur en Italie, les demandeurs d’asile sont hébergés dans des centres de premier accueil, le temps que les commissions territoriales examinent leur demande. L’ICS gère deux de ces centres, installés à quelques centaines de mètres de la frontière slovène. Les migrants devraient y rester quelques jours puis être redispatchés dans d’autres régions au sein de centres de plus long accueil.

    Faute de redistribution rapide, les centres d’accueil temporaire sont pleins et les nouveaux arrivants se retrouvent à la rue, dépendant uniquement du système d’hébergement d’urgence, déjà sursollicité par les SDF de la ville. À Trieste même, les près de 1 200 places d’hébergement à long terme disponibles pour les demandeurs d’asile sont toutes occupées.

    « On ne se retrouve pas avec quatre cents personnes arrivées en une journée qui ont mis en difficulté le système d’accueil, regrette Gianfranco Schiavone, mais avec de petits groupes volontairement laissés à la rue dont l’accumulation, jour après jour, a fini par donner ce résultat. » Il livre l’analyse suivante : « Ces conditions de vie poussent ces personnes vers la sortie. Le premier objectif est de réduire au maximum le nombre de demandeurs d’asile que l’État doit prendre en charge. Le deuxième, plus politique, est de créer une situation de tension dans l’opinion publique, de donner l’image de centaines de migrants à la rue et d’entretenir l’idée que les migrants sont vraiment trop nombreux et que l’Italie a été abandonnée par l’Europe. »

    Interrogée, la préfecture n’a pas souhaité répondre à nos sollicitations, renvoyant vers le ministère de l’intérieur. Le cabinet du maire, lui, renvoie aux prises de position déjà exprimées dans la presse locale. La position de l’édile de la ville est sans appel : il ne fera rien.
    L’accord Albanie-Italie suspendu

    Récemment, un important dispositif policier a été déployé dans la région. Le 18 octobre, après l’attentat contre des supporteurs suédois à Bruxelles, le gouvernement de Giorgia Meloni a décidé de fermer sa frontière avec la Slovénie. Le traité de Schengen a été provisoirement suspendu pour prévenir d’éventuelles « infiltrations terroristes » via la route balkanique.

    « C’est nécessaire, en raison de l’aggravation de la situation au Moyen-Orient, l’augmentation des flux migratoires le long de la route balkanique et surtout pour des questions de sécurité nationale », a justifié la cheffe du gouvernement. 350 agents ont été déployés dans le Frioul-Vénétie Julienne, le long des 230 kilomètres de la frontière italo-slovène. Initialement prévus pour dix jours, les contrôles aux frontières ont déjà été prolongés deux fois et sont actuellement en vigueur jusqu’au 18 janvier 2024.

    Avec ce tour de vis sur sa frontière orientale, l’Italie tente de maintenir une promesse qu’elle ne parvient pas à tenir sur son front méditerranéen : verrouiller le pays. Car après l’échec de sa stratégie migratoire à Lampedusa en septembre, Giorgia Meloni a redistribué ses cartes vers les Balkans. À la mi-novembre, la cheffe du gouvernement s’est rendue en visite officielle à Zagreb pour discuter, notamment, du dossier migratoire. Mais son dernier coup de poker, c’est l’annonce d’un accord avec l’Albanie pour y délocaliser deux centres d’accueil pour demandeurs d’asile.

    L’idée est d’y emmener jusqu’à 3 000 personnes, immédiatement après leur sauvetage en mer par des navires italiens. Sur place, la police albanaise n’interviendra que pour la sécurité à l’extérieur du centre. Le reste de la gestion reste entièrement de compétence italienne. La mise en service de ces deux structures a été annoncée au printemps. Le dossier semblait clos. À la mi-décembre, la Cour constitutionnelle albanaise a finalement décidé de suspendre la ratification de l’accord. Deux recours ont été déposés au Parlement pour s’assurer que cet accord ne viole pas les conventions internationales dont est signataire l’Albanie. Les discussions devraient reprendre à la mi-janvier.

    https://www.mediapart.fr/journal/international/080124/la-frontiere-italo-slovene-les-migrants-oublies-de-la-route-balkanique
    #Slovénie #Italie #frontières #frontière_sud-alpine #asile #migrations #réfugiés #route_des_Balkans #Balkans #Trieste #sans-abrisme #SDF #hébergement #réfugiés_pakistanais #réfugiés_afghans #Silos #Linea_d’Ombra #solidarité #ICS

  • #linux_kernel 6.7 Officially Released — And It’s a Big One!
    https://www.omgubuntu.co.uk/2024/01/linux-kernel-6-7-new-features

    A new year, and an all-new Linux kernel to help power it along! Yes, the Linux 6.7 kernel is now officially release — and it’s hefty one packed with an assortment of new features, new hardware enablement, and more. By commit size alone Linux 6.7 is one of the largest in recent history, an indicator of just how much effort has been poured into honing the latest release. Linus Torvalds touches on this in his release announcement, writing: “We had a little bit more going on last week compared to the holiday week before that, but certainly not enough to make […] You’re reading Linux Kernel 6.7 Officially Released — And It’s a Big One!, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News

  • Linux: Kernel-Entwickler drücken freie Grafiktreiber durch
    https://www.heise.de/news/Linux-Kernel-Entwickler-druecken-freie-Grafiktreiber-durch-9582895.html

    27.12.2023 von von Thorsten Leemhuis - Selbst Schwergewichte der Grafikchip-Branche sind eingeknickt und bieten mittlerweile quelloffene Kernel-Treiber an. Anwendern verschafft das Freiraum.

    – Nvidia beugt sich dem Druck
    – Nvidias 3D-Treiber bleiben proprietär
    - Unabhängig einwickelte Vulkan- und Video-Wiedergabe-Treiber
    - Warum Nvidia einen Kernel-Treiber offengelegt hat
    – Kernel-Entwickler machen ihre Intention deutlich
    Datenfluss-Optimierung scheitert an Barriere
    – Nvidia kann Linux jetzt besser für die eigenen Belange anpassen
    - Kehrtwende in der Embedded-Welt
    – Sich ständig veränderte Kommunikationswege
    – Motivation zur Mitarbeit am Kernel
    – Problemkind hat ein Einsehen
    - Andere hatten früher ein Einsehen
    – Rosige Zeiten voraus
    Upgrade-Probleme durch extern gewartete Treiber
    – Mehr und mehr Firmen haben ein Einsehen
    Summa sumarum

    Die Vorwürfe sind so alt wie Linux: Die Kernel-Entwickler erschweren die unabhängige Entwicklung von Grafiktreibern für Linux. Damit würden sie der Linux-Welt einen Bärendienst erweisen; sie sollen lieber Lizenz-Barrikaden einreißen und stabile Programmierschnittstellen für Treiber schaffen. Forderungen dieser Art finden sich zehntausendfach im Internet, einige davon aus der Frühzeit von Linux. Ein Blick auf jüngste Entwicklungen zeigt jedoch: Für die Kernel-Entwickler hat es sich ausgezahlt, hart zu bleiben. Gerade weil sie es externen Treibern seit jeher schwer machen, gibt es mittlerweile für alle gängigen Grafikkerne quelloffene Kernel-Treiber; in fast allen Fällen stammen die sogar von den Herstellern selbst und sind Teil von Linux, genau wie es Linus Torvalds und seine Mitstreiter wünschen. Dennoch bleibt die Lage bei Grafiktreibern vertrackt.
    Nvidia beugt sich dem Druck

    GeForce-GPUs sind das bekannteste Beispiel für Grafikkerne, deren Hersteller lang und erfolgreich voll auf proprietäre Linux-Treiber gesetzt hat. Das änderte sich erst im Mai 2022, als Nvidia überraschend einen Kernel-Treiber unter Open-Source-Lizenz veröffentlicht hat.

    Dieser als nachladbares Kernel-Modul übersetzbare Treiber wird aber allem Anschein nach nie in den Linux genannten Betriebssystemkern einfließen, der von jeher Kernel-Basisinfrastruktur und Treibercode verquickt. Linux profitiert dennoch: Red-Hat-Entwickler verbessern mit Code und Informationen aus Nvidias Modul gerade den im Kernel enthaltenen Nouveau-Treiber.

    Durch die Umbauten lernt Nouveau mit dem jüngst freigegebenen Linux 6.6 und der Anfang Januar erwarteten Version 6.7, „Ada Lovelace“-GPUs von GeForce-40xx-Grafikkarten anzusprechen. Mittelfristig soll das Ganze auch den bislang eher rudimentären Support für die Vorgänger „Ampere“ (u.a. 30xx-Serie) und „Turing“ (u.a. 20xx-Serie) signifikant verbessern und die 3D-Performance deutlich steigern; der Code dazu steckt schon im Kernel, liegt standardmäßig aber vorerst brach. Weitere Verbesserungen, die indirekt Nvidias offenem Treiber zu verdanken sind, reifen derweil bereits und sollen in die nächsten Linux-Versionen einfließen.
    Nvidias 3D-Treiber bleiben proprietär

    Wohlgemerkt hat Nvidia lediglich Code eines Kernel-Moduls offengelegt, der beim Grafiktreiberstack nur das Fundament bildet. Denn die darauf aufsetzenden Treiber bleiben proprietär – etwa jene für 3D (OpenGL und Vulkan), Videowiedergabe (NVDEC), Videoencoding (NVENC) oder allgemeine Berechnungen (CUDA) mittels GPU. Offene Treiber für Nvidias Modul gibt es nicht. Darum nehmen die Linux-Entwickler es auch nicht auf, denn proprietäre Treiber machen eine ordentliche Qualitätskontrolle unmöglich und erschweren die Validierung späterer Änderungen. Ohnehin sperren sich Torvalds & Co. in der Regel gegen die Aufnahme von Treibercode für Hardware für die der Kernel schon einen Treiber mitbringt.

    Diese nicht im Kernel-, sondern im Userspace laufenden Treiber arbeiten nicht mit Nouveau zusammen – wer sie einsetzen will, braucht eines der beiden Kernel-Module von Nvidia. Bis auf weiteres zumeist das altbekannte proprietäre Modul, denn dem quelloffenen fehlen noch mehrere Funktionen, die für Desktop- und Notebook-GPUs wichtig sind. Die rüstet Nvidia langsam nach.

    Irgendwann kann das Modul so vielleicht die Handhabung von Nvidias Treiberstack erleichtern, der bei der Installation gerne mal zickt und bei Kernel-Updates schnell in Schieflage gerät. Dazu müssen Distributionen das Modul aber vorkompiliert mitliefern. Manche scheuen derlei, weil sie dann erst auf eine neue Kernel-Version wechseln können, wenn Nvidia oder jemand anders das Modul zu dieser kompatibel gemacht hat. Andere Distributionen scheuen diese Abhängigkeit nicht und haben teilweise sogar schon das proprietäre Modul vorkompiliert beigelegt, obwohl Teile der Open-Source-Community darin einen Verstoß gegen die Lizenz von Linux sehen: der GPLv2.
    Unabhängig einwickelte Vulkan- und Video-Wiedergabe-Treiber

    Dank engagierten Open-Source-Entwicklern brauchen manche Anwender die proprietären GeForce-Treiber aber vielleicht bald nicht mehr. Denn unter Federführung einer Mitarbeiterin von Collabora ist mit „NVK“ ein auf Nouveau aufbauender Userspace-3D-Treiber entstanden, der bereits Vulkan 1.0 meistert. Er floss kürzlich in Mesa ein, das auch die offenen 3D-Treiber für AMD- und Intel-GPUs beherbergt, die Debian, Fedora, Ubuntu & Co. standardmäßig einrichten.

    Dank Informationen aus Nvidia freiem Treiber unterstützt Linux seit kurzem Nvidias neueste Grafikkartengeneration wie die GeForce-40-Serie von Haus aus. (Bild: c’t)

    Noch im Experimentierstadium steckt derweil ein neuer Userspace-Treiber zur beschleunigten Video-Wiedergabe via Nouveau, an dem ein Red-Hat-Mitarbeiter arbeitet. Für Büroarbeitsplätze mit modernen Desktops von Gnome- und KDE-Projekt reichen diese Treiber vermutlich mittelfristig vollkommen aus. Für High-End-Gaming, Grafik-Workstations oder Berechnungen auf dem Grafikchip bleiben Nvidias proprietäre Userspace-Treiber aber sicher noch lange die bessere Wahl.

    Ohne das offene Kernel-Modul des GeForce-Machers wären die beiden neuen Open-Source-Treiber wohl nie entstanden. Ein großes Hindernis waren fehlende Informationen, um das nötige Fundament in Nouveau zu schaffen. Das noch viel größere Problem war jedoch die beschnittene Firmware, die Nvidia viele Jahre für Linux bereitstellte. Sie konnte GPUs der letzten Jahre weder in ihre sparsamsten noch ihre leistungsfähigsten Betriebsmodi schalten – der ebenfalls Nouveau genannte OpenGL-Treiber von Mesa liefert in Folge vielfach nur eine miserable 3D-Performance.
    Warum Nvidia einen Kernel-Treiber offengelegt hat

    Durch die Fortschritte werden für PCs gedachte Linux-Distributionen die neuesten GeForce-Chip-Generationen bald besser von Haus aus unterstützen. Auch Linux-Livesysteme wie Desinfec’t, für die proprietäre Treiber vielfach keine Option darstellen, laufen dadurch besser.

    Das war aber offensichtlich nicht der Grund für Nvidias Kehrtwende. Das zeigt das Open-Source-Modul, das derzeit primär für KI-Beschleuniger gedacht ist – und damit ein starkes Indiz liefert, dass der explodierende Markt für KI-Supercomputer und High Performance Computing (HPC) zum Sinneswandel führte. Dort dominiert Nvidia mit Rechenbeschleunigern, die früher eng mit Gaming-GPUs verwandt waren. Für das Unternehmen wurde es im HPC-Markt aber absehbar immer schwerer, Bestandteile, die für bestmögliche Performance nötig wären, mit einem proprietären Linux-Treiber zu realisieren.
    Kernel-Entwickler machen ihre Intention deutlich

    Teilschuld daran trägt eine Lizenz-Barriere, denn schon seit zwei Jahrzehnten exportieren die Linux-Entwickler gewisse Methoden nur via „EXPORT_SYMBOL_GPL“ an Kernel-Module. Die Autoren des dahinter steckenden Codes wollen damit klarstellen: Diese Funktionen dürfen nur Treiber nutzen, die wie Linux selbst unter der GPLv2 oder einer dazu kompatiblen Lizenz stehen. Checks beim Laden von Modulen versuchen das durchzusetzen, haben aber Schwächen.

    Entwickler exportieren Methoden per EXPORT_SYMBOL_GPL an Module, um klarzustellen: Nur für Code gedacht, deren Lizenz kompatibel zu der von Linux ist. (Bild: Screenshot Linux-Kerneldokumentation, heise.de)

    Nvidias proprietäres Kernel-Modul hat so gekennzeichnete Methoden meiden können, ohne dass es Funktionsumfang und Geschwindigkeit spürbar limitierte – Indizien zufolge hat der nicht einsehbare Code dabei aber wohl manchmal unsaubere Tricks genutzt, die die Systemstabilität gefährden.
    Datenfluss-Optimierung scheitert an Barriere

    Der Spielraum wurde mit den Jahren aber immer kleiner, weil die Zahl der GPLv2-Exporte zunahm. Ferner stopften die Linux-Macher einige Schlupflöcher des Lizenz-Lade-Checks. So etwa vor drei Jahren, nachdem Facebook-Entwickler einen Satz von Kernel-Änderungen einreichten. Diese sollten Netzwerk-Treibern des Kernels ermöglichen, die eingehenden Daten mithilfe von Nvidias proprietärem Treiber direkt in den Speicher der GPU zu transferieren. Das steigerte die Performance beim Machine Learning mit Nvidias Beschleunigern, wo riesige Datenmengen fließen.

    Vorkommnisse wie diese zeigen Nvidias zweite Motivation für den Sinneswandel: Damit Beschleuniger-Chips bestmögliche Performance liefern, müssen sie immer enger mit dem Rest des Systems zusammenarbeiten. Diesen Aspekt verstärkt sich derzeit abermals durch die zunehmende Verbreitung von Compute Express Link (CXL), eine noch junge Hardware-Verbindungstechnik, die den Aufbau von Systemen in großen Rechenzentren revolutioniert.

    Eine möglichst enge Zusammenarbeit gelingt mit einem externen proprietären Treiber schlicht nicht. Die Lizenz-Barrikade ist da ein Problem – aber nicht das einzige, denn auch dem in Linux enthaltenem Treibercode sind Grenzen gesetzt, um Risiken zu reduzieren, die die Systemstabilität gefährden.
    Nvidia kann Linux jetzt besser für die eigenen Belange anpassen

    Unter einer Bedingung sind die Linux-Entwickler allerdings offen für Anpassungen an der Basisinfrastruktur des Kernels: Wenn sie die Performance des in Linux enthaltenen Treibercodes steigern. Solche Änderungen kann Nvidia jetzt einbringen — etwa um das Memory Management für seine KI-Beschleuniger zu optimieren oder dort neue Einhakpunkte für Nouveau zu schaffen, damit der Treiber die Daten schneller erhält oder Ergebnisse zurückliefern kann. Diese Verbesserungen könnte Nvidia dann auch in seinem externen Open-Source-Modul nutzen, damit die hauseigenen Produkte besser am Markt dastehen. Genau solche Aspekte sind ein Grund, warum sich hunderte andere Unternehmen schon lange an der Linux-Entwicklung beteiligen – und den Kernel so nicht nur besser machen, sondern auch mit einem Strom an Entwicklern versorgen.

    Nvidia hat wohl erkannt, dass ein proprietärer Treiber mittel- bis langfristig zu Wettbewerbsnachteilen geführt hätte, schließlich hat die Firma die Offenlegung eines Kernel-Moduls von langer Hand vorbereitet. Denn schon vor Jahren hat die Firma begonnen, einen GSP (GPU System Processor) genannten RISC-V-Kern in ihre GPUs zu integrieren. Der führt eine proprietäre Firmware aus, die das Kernel-Modul bei der Initialisierung an die GPU schickt – und allerlei Aufgaben erledigt, die zuvor Betriebssystemtreiber erledigen mussten. Dadurch kann Nvidias quelloffenes Modul schlanker ausfallen und es braucht keine Interna enthalten, die die Firma vor neugierigen Augen verbergen will; auch für DRM-Techniken kann das nötig sein, beispielsweise wenn Hersteller ein Abgreifen hochauflösender Videos unterbinden wollen.

    Linux ist ein eher monolithischer Kernel. Vereinfacht gesagt ist es damit eine große ausführbare Datei, die alle von ihm unterstützten Funktionen enthält. Code zur Ansteuerung von Grafikkerne ist daher ebenso Kernel wie alles andere und keinerlei Beschränkungen unterworfen. Das unterscheidet Linux von Microkerneln oder dem Hybridkernel von Windows: Dort kann man sich den Kernel eher wie das Grundgerüst mit Abstraktionsschicht vorgestellten, an dem bis zu einem gewissen Grad abgeschottet arbeitende Treiber andocken.

    Weil die „ausführbare Datei“ immer größer wurde, haben die Entwickler bei Version 2.0 die Möglichkeit nachgerüstet, Teile in Module auszulagern. Dazu haben sie Kommunikationswege geschaffen, die die Linux-Entwickler als Kernel-interne Schnittstellen ansehen. Diese passen sie immer mal wieder an, wodurch extern gewartet Treiber wie die von Nvidia gelegentlich auf die Nase fallen, denn die klinken sich über das Modul-Interface ein.

    Nvidias Ansatz ist nichts Ungewöhnliches, denn Ähnliches findet sich auch bei dem Grafiktreibercode, den AMD und Intel schon lange im Rahmen des Linux-Kernels entwickeln. Allerdings ist die GSP Firmware von Nvidia deutlich größer und offensichtlich für mehr Aufgaben zuständig.

    Übrigens: Nvidias Engagement für quelloffenen, im Rahmen des Kernels entwickelten Treibercode ist nur neu, wenn es um Grafik- und Beschleunigerchips für PCs und Server geht. Denn die Firma arbeitet schon lange am Kernel mit, damit Linux seine hauseigenen Tegra-Prozessoren möglichst gut unterstützt. 2014 hat sie sogar erstmals direkt zum Nouveau-Code des Kernels beigetragen, damit er zumindest die Grundfunktionen der GPUs unterstützt, die in diesen Embedded-Prozessoren mit ARM-Kern stecken.
    Kehrtwende in der Embedded-Welt

    Neben Nvidia engagieren sich neuerdings zwei weitere Branchgrößen für quelloffene Linux-Grafiktreiber. Eine davon ist für die Computer-Welt ähnlich bedeutsam: ARM.

    Das Unternehmen hatte ein ambivalentes Verhältnis zu quelloffenen Treibern, denn auch ARM arbeitet schon lange intensiv am Linux-Kernel mit. Damit macht sie ihre CPU-Designs am Markt attraktiver, schließlich verkauft sie die meist an Firmen, die damit für den Linux-Einsatz gedachte Prozessoren bauen. Bei seinen GPU-Designs der Mali-Serie gab sich ARM aber von jeher zugeknöpft und setzte auf proprietäre Treiber, die sich über ein eigenes quelloffenes Kernel-Modul bei Linux einklinken. Prozessoren mit solchen GPUs finden sich in allen möglichen Produkten, besonders häufig in Smartphones, Tablets, Chromebooks und Einplatinencomputern.

    Vor drei Jahren leitete ARM dezent eine Kehrtwende ein: Über Aufträge an die Firma Collabora begann das Unternehmen, die Entwicklung quelloffener Kernel- und OpenGL-Treiber für die neuesten Mali-Designs zu fördern. Diese in Linux und Mesa enthalten Treiber waren zuvor unabhängig von ARM unter dem Namen „Panfrost“ entstanden, wobei Collabora dort schon stark angeschoben hat. Im Juli 2023 hat sich ARM dann voll hinter die Treiber gestellt und eine Kooperation mit Collabora verkündet. Panfrost soll fortan der „Treiber für die Linux-Community“ sein. Damit Kernel- und OpenGL-Treiber die Mali-GPUs zukünftig erstklassig unterstützen, wollen die beiden Firmen die Performance verbessern und für Support zukünftiger Mali-Generationen sorgen.

    Ähnlich wie Nvidia pflegt ARM sein Kernel-Modul und seine proprietären Userspace-Treiber weiter. ARM ist allerdings nicht ganz so gut darin, den Code zum Bau des eigenen Kernel-Modules zeitnah kompatibel zu neuen Linux-Versionen zu machen. Das ist meist alle paar Monate nötig, weil die Kernel-Entwickler immer mal wieder Methoden verändern, über die verschiedene Teile von Linux (und damit auch sein Treibercode) miteinander interagieren. Dadurch ändern sich auch die an Module exportierten Symbole, um Kernel-Methoden zu nutzen.
    Sich ständig veränderte Kommunikationswege

    Diese Umbauten nehmen sie vor, um die Performance zu optimieren oder den Code zu vereinfachen; zumeist schaffen sie aber Infrastruktur zur Unterstützung neuer Einsatzgebiete, Geräteklassen oder Hardware-Features. Durch die Verquickung von Kernel-Basisinfrastruktur und Treibercode brauchen Torvalds & Co. dabei keinerlei Rücksicht auf Abwärtskompatibilität nehmen: Entwickler, die eine Methode verändern wollen, welche an Module exportiert wird, müssen zugleich alle Stellen im Kernelcode anpassen, die diese Methode nutzen – auch dann, wenn sich niemand mehr aktiv um die betroffenen Codestellen kümmert. Letzteres ist bei Treibercode keine Seltenheit, denn der fliegt normalerweise erst raus, wenn ihn allem Anschein nach niemand mehr produktiv mit Linux nutzt. Genau deshalb unterstützen aktuelle Kernel viel Hardware, die zuletzt vor weit über einem Jahrzehnt über die Ladentische ging und nicht mit aktuellen Windows-Versionen spielt.

    Linux kann sich so Kompatibilitätscode zur Unterstützung alter Treiber sparen und das Ruder herumreißen, wenn technische Umwälzungen oder krasse Fehlentscheidungen beim Codedesign dies erfordern. Das war etwa beim USB-Stack mehrfach nötig. Auch der Schutz vor Prozessor-Sicherheitslücken wie Spectre konnten die Kernel-Entwickler effizienter realisieren als Windows, eben weil sie den Code aller gängigen Treiber zur Hand hatten, um den gleich mit anzupassen.

    Der Verzicht auf stabile Modulschnittstellen verkompliziert aber die externe Entwicklung und Pflege von Kernel-Treibern: Ihre Programmierer müssen den Code flexibel auslegen und immer mal wieder aktualisieren, damit er zu den Modul-Exporten von älteren Linux-Versionen ebenso passt wie zu brandneuen.
    Motivation zur Mitarbeit am Kernel

    Der Grund, dass die Linux-Entwickler darauf noch nie Rücksicht genommen haben: Das Fehlen stabiler Schnittstellen hat indirekt zum Erfolg des Kernels beigetragen. Und das sogar erheblich. Denn durch diesen Aspekt haben schon tausende Firmen erst ihre Treiber in Linux integriert, aber später dann auch andere Verbesserungen zum Kernel beigesteuert.

    Davon profitieren Anwender, weil die Linux-Entwickler die Beitragenden nötigen, bei der Basisinfrastruktur für alle Treiber einer Geräteklasse zusammenzuarbeiten. Dadurch trägt dann vielleicht Nvidia eine Optimierung am Fundament für Grafiktreiber bei, durch die auch GPUs von AMD schneller laufen – und umgekehrt.

    Die Linux-Entwickler unterbinden durch ihre Spielregeln zudem Hersteller-spezifische Schnittstellen rund zur Nutzung und Konfiguration von Hardware. Bei Linux-Distributionen beziehungsweise -Desktops kann man so mit einem Bildschirmkonfigurations-Werkzeug die Grafikchips verschiedenster Hersteller auf die immer gleiche Weise einstellen; das macht Hersteller-spezifische Tools unnötig, die einen womöglich ausspionieren oder gar die Systemsicherheit gefährden.

    Und noch ein eher versteckter Vorteil von im Kernel enthaltenen Treibern will erwähnt werden: Hersteller haben keine Kontrolle über den Code. Sie können Kunden durch Einstellen der Pflege eines Treibers nicht nötigen, Geld in neue Produkte zu stecken. Gewiefte Entwickler rüsten zudem Features nach, die der Hersteller vielleicht lieber späteren Produktgeneration vorbehalten hätten. Oder sie machen den Treiber und damit die Hardware für Einsatzgebiete fit, die den Hersteller nicht jucken – etwa Support für Prozessor-Architekturen jenseits von ARM und x86.
    Problemkind hat ein Einsehen

    Neben ARM versorgt eine weitere Partei im Embedded-Markt seine Grafikkern-Designs neuerdings mit quelloffenen Treibern: Imagination Technologies. Die PowerVR-Kerne sind im Markt seltener anzutreffen als ARMs hauseignes Grafikkerndesign, finden sich aber in allerlei Mobilgeräten und Einplatinencomputern.

    (Bild: In günstigen Atom-Tablets und Netbooks steckte die PowerVR-Grafik, die unter Linux für Ärger sorgte.)

    Imagination hat in der Open-Source-Szene einen miserablen Ruf. Das liegt an den proprietären Treibern, die die Firma viele Jahre bereitgestellt hat. Anders als jene von ARM oder Nvidia eigneten die sich oft nur für veraltete Linux-Versionen oder nur für den auf dem Gerät vorinstallierten Kernel. In Folge dessen kann man bei vielen Produkten mit PowerVR-Grafik nur schwerlich oder gar nicht auf neue Linux- oder Betriebssystemversionen wechseln.

    Ähnliche Probleme gab es vor fünfzehn Jahren auch in der PC-Welt mit den ersten Generationen von Intels Atom-Prozessoren, denn auch in denen steckten PowerVR-Kerne von Imagination. Solche CPUs fanden sich häufiger in Netbooks oder Tablets mit Linux-basierten Betriebssystemen. Allerwelts-Distributionen liefen auf diesen Geräten aber vielfach mehr schlecht als recht: Imaginations Treiber arbeiteten oft nicht oder nur unter Einschränkungen mit den Kerneln von Fedora, Ubuntu & Co. zusammen, selbst wenn die nur ein bisschen neuer waren. Diese Situation verschlimmerte sich innerhalb weniger Monate und bereitete Anwendern damals sehr viel Kopfzerbrechen.

    Im Frühjahr 2022 hat das Unternehmen angekündigt, in Zukunft auf Open-Source-Treiber zu setzen. Das ging mit einem Vulkan-Treiber los, der in Mesa eingeflossen ist. Später folgte einen Kernel-Grafiktreiber für die neueste Generation der PowerVR-Grafikkerne, den die Linux-Entwickler kürzlich zur Aufnahme in Kernel 6.8 akzeptiert haben.
    Andere hatten früher ein Einsehen

    Damit gibt es dann quelloffene Kernel-Treiber von allen großen Unternehmen, die Grafikkerndesign für Prozessoren anbieten, die in für Linux gedachten Embedded-Systemen stecken.

    Broadcom hat beispielsweise selbst Treiber zu Linux beigesteuert, die VideoCore-Grafikkerne ansprechen, die unter anderem in den Prozessoren der Raspberry-Pi-Serie stecken. Für Qualcomms Adreno-GPUs der in zahllosen Android-Geräten und Chromebooks verbauten Snapdragon-Prozessoren bringt der Kernel ebenfalls einen Treiber mit; er war in der Community entstanden, aber mittlerweile trägt Qualcomm immens zum Treiber bei. Beide Unternehmen arbeiten darüber hinaus an quelloffenen Mesa-Treibern für OpenGL mit.

    Auch VeriSilicon, das Unternehmen hinter den Vivante-Grafikkernen, entwickelt schon lange quelloffene Kernel-Treiber – allerdings extern. Diese Treiber dienten Open-Source-Entwicklern als Quelle für einen alternativen Treiber, den Linux mittlerweile seit vielen Jahren mitbringt. Bei OpenGL setzt VeriSilicon auf proprietäre Treiber, aber auch hier haben Programmierer eine Alternative geschaffen.

    Nur eine Größe der GPU-Branche stellt keine quelloffenen Linux-Treiber: Apple. Aber warum sollte die Firma das auch, denn im Unterschied zu allen anderen erwähnten sieht Apple seine Prozessoren nicht für den Linux-Einsatz vor. Die Open-Source-Community füllt diese Lücke. So arbeitet das Asahi-Projekt an Kernel- und Userspace-Treibern für die GPUs, die in den ARM-basierten CPUs von MacBook, Mac Mini & Co. stecken.
    Rosige Zeiten voraus

    Das klingt aus Open-Source- und Linux-Sicht recht rosig. In der Praxis lässt dennoch vieles zu Wünschen übrig: Die Dinge sind im Einzelfall häufig komplizierter, als es dieser Text beschreiben kann, ohne enorm auszuufern. So unterstützen die in Linux enthaltenen Treiber manchmal einige Grafikkerne gar nicht oder beherrschen nur einen Teil der Hardware-Features; das kommt insbesondere bei älteren oder besonders neuen GPUs vor.

    Support dafür findet sich dann oft in Treibern direkt vom Hersteller. Egal, ob diese nun quelloffen oder proprietär sind: Viele von ihnen eignen sich nur für ausgewählte, häufig veraltete Kernel-Versionen. Und selbst wenn sich ein Unternehmen engagiert und die Treiber halbwegs zeitnah zu neuen Linux-Versionen kompatibel macht: Während die Linux-Entwickler ihren Treibercode oft ein Jahrzehnt oder länger pflegen, ist bei den Herstellertreibern oft nach wenigen Jahren Schluss.
    Upgrade-Probleme durch extern gewartete Treiber

    Externe Treiber können Wechsel von Betriebssystem- und Kernel verkomplizieren oder komplett blockieren. Die erwähnten Probleme mit den proprietären Treibern von Imagination zeigen das – sind letztlich aber nur ein Beispiel, denn ähnliche Schwierigkeiten gab und gibt es auch bei extern gewarteten Kernel-Modulen anderer Unternehmen.

    Eben solche Einschränkungen sind ein Hauptgrund für die Update-Misere bei Android – und warum selbst Entwickler von LineageOS und anderen von Android abgeleiteten Betriebssystemen manchmal den Support für Geräte aufgeben müssen. Die Problematik hat sogar schon den Machern des ersten Fairphones und anderen Firmen ein Bein gestellt, die ihr Smartphones eigentlich mehrere Jahre mit neuen Android-Versionen versorgen wollten.Allerdings stellt auch Android nur die Spitze des Eisbergs dar, denn ähnliche Schwierigkeiten gibt es auch bei vielen anderen Produkten, die Embedded-Prozessoren oder damit gebaute Boards einsetzen; also bei IoT-Geräten, Robotern, Waschmaschinen, Fernsehern, Autos und vielen weiteren Geräteklassen.

    Den Grafikkern-Designern, Prozessor-Herstellern und Firmen, die solche CPUs einsetzen, war das lange egal: Im Embedded-Markt war es lange Usus, Hardware mit einem maßgeschneiderten Betriebssystem auszuliefern. Dessen Software war oft schon bei der Produktvorstellung veraltet und blieb fast immer auf dem gleichen Stand; Sicherheitskorrekturen gab es oft gar nicht oder nur für kurze Zeit. Mit den Jahren haben immer mehr Kunden diese missliche Lage erkannt und Druck auf Firmen ausgeübt, sich für quelloffene und im Rahmen von Linux gewartete Treiber zu engagieren. Wohlgemerkt sind hier weniger die Endkunden gemeint, sondern vor allem die Firmen, die Prozessoren mit den Grafikdesigns verbauen: Autohersteller und deren Zulieferer, Industrie-IT-Anbieter und zahllose andere Unternehmen aus den verschiedensten Branchen.
    Mehr und mehr Firmen haben ein Einsehen

    Doch auch bei Android-Geräten werden diese Aspekte wichtiger. Daher engagiert sich Google mehr und mehr dafür, auch dort weniger von proprietären Linux-Treibern abzuhängen, die Kernel-Sicherheitskorrekturen und -Versionswechsel erschweren oder gar unmöglich machen.

    Außer Google haben auch allerlei andere Firmen die Probleme externer und womöglich gar proprietärer Treiber erkannt. Auch sie haben daher begonnen, beim Produktdesign darauf zu achten, ob passende Treiber für die angedachten Komponenten in Linux stecken. Das ist nicht nur Einsicht zu verdanken, sondern auch neuen Richtlinien der Gesetzgeber. Allen voran die im Herbst 2022 beschlossene EU-Ökodesign-Verordnung für Smartphones und Tablets oder dem jüngst gefundenen Kompromiss zum EU Cyber Resilience Act: Beide verpflichten Hersteller, ihre Geräte für mehrere Jahre mit Security-Updates zu versorgen.

    In Linux enthaltener Treibercode macht Firmen das leicht. Sie können ihre Pflicht so zudem autark erfüllen. Sprich: Sie müssen im Fall der Fälle keinen sonst wo sitzenden Grafikkern-Designer um angepasste Kernel-Module anbetteln, der sich das womöglich teuer bezahlen lässt, irgendwann aufgibt oder gar pleitegeht. Mit Treibercode im Kernel können die Produktanbieter zudem heute noch unbekannte oder weit entfernte Probleme lösen – wie das heranrückende Jahr-2038-Problem von 32-Bit-Prozessoren, das Linux-Systeme einiger heute verkaufter Autos durcheinander zu bringen droht.
    Summa sumarum

    Genau diese Flexibilität ist einer der unscheinbaren Vorteile, die der Verquickung von Kernel-Basisinfrastruktur mit unzähligen Treibern bei gleichzeitigem Verzicht auf stabile Treiberschnittstellen zu verdanken ist. Denn durch eben diesen Spielraum konnte Linux immer wieder neue und unvorhergesehene Einsatzgebiete und Märkte erobern. Es hat zudem immer wieder überraschende Performance-Optimierungen ermöglicht. Vor allem aber befreit sie Nutzer aus der Abhängigkeit von den Herstellern. Anwender können ihre Hardware dadurch oft viel länger nutzen als etwa unter Windows – und müssen kein Geld in neue Geräte stecken, weil der Hersteller bei Qualität und Ausdauer seiner Treiber geizt. Mit stabilen Treiberschnittstellen hätte Linux viel von dem verloren, wofür Anwender den Kernel schätzen.

    #Linux #politique