• Microsoft will let people buy games in Xbox Android app in November
    https://www.cnbc.com/2024/10/10/microsoft-will-let-people-buy-games-in-xbox-android-app-in-november.html

    Microsoft will allow people to buy and play video games through its Xbox app for Android starting in November, the company said on Thursday.

    The move is an immediate consequence of a U.S. judge ruling on Monday that Google will have to present alternatives to its Google Play app store on Android devices.

    #jeux_vidéo #jeu_vidéo #business #boutique #google_play #epic_games #microsoft #google #android #mobile

  • Google must crack open Android for third-party stores, rules Epic judge - The Verge
    https://www.theverge.com/policy/2024/10/7/24243316/epic-google-permanent-injunction-ruling-third-party-stores

    / Google must give rival third-party app stores access to the full catalog of Google Play apps — and distribute third-party stores.

    Google’s Android app store is an illegal monopoly — and now it will have to change.

    #jeux_vidéo #jeu_vidéo #business #google #epic_games #amazon #boutique #android #mobile #google_play #epic_store #justice

  • Filing Suit Against Google and Samsung for Illegally Colluding to Block Competition in App Distribution and Undermining the Epic v Google Jury Verdict - Epic Games
    https://www.epicgames.com/site/en-US/news/filing-suit-against-google-and-samsung-for-illegally-colluding-to-block-c

    Filing Suit Against Google and Samsung for Illegally Colluding to Block Competition in App Distribution and Undermining the Epic v Google Jury Verdict

    […]

    Auto Blocker defaulting to “on” requires an exceptionally onerous 21 step process to download an app outside of the Google Play Store or the Samsung Galaxy Store, mirroring Google’s “Unknown Sources” process with multiple steps and scare screens. Auto Blocker is the first time that Samsung has imposed additional friction on consumers who try to get apps outside of the Google Play Store or the Samsung Galaxy Store.

    #jeu_vidéo #jeux_vidéo #business #justice #epic_games #google #samsung

  • Google mächtiger als die EU

    via https://diasp.eu/p/17142107

    22.09.2024

    Google trickst EU Kommission aus

    Der „Wert“ der #BIG5 oder #GAFAM (#Google, #Amazon, #Facebook, #Apple, #Microsoft) ist größer als die Haushalte von vielen Staaten. Auch die EU mit 350 Millionen Einwohnern ist nicht mehr in der Lage die Konzerne in die Schranken zu weisen.

    Seit Jahren geht die Wettbewerbsbehörde der EU mit Milliarden #Bußgelder|n gegen Google vor - auch gegen Meta (Facebook). Nun hat aktuell der EuG, das Gericht der #EU [#UE], die von der EU-Kommission gegen ­Google verhängte Geldstrafe in Höhe von 1,49 Milliarden Euro kassiert. Die EU hatte festgestellt, dass der Onlinekonzern, bei seinem Dienst „Adsense for Search“ die eigene marktbeherrschende Stellung missbraucht hatte.

    Bei diesem Google-Dienst können die Betreiber anderer Internetseiten für einen (...)

  • #Data_center emissions probably 662% higher than big tech claims. Can it keep up the ruse?

    Emissions from in-house data centers of #Google, #Microsoft, #Meta and #Apple may be 7.62 times higher than official tally.

    Big tech has made some big claims about greenhouse gas emissions in recent years. But as the rise of artificial intelligence creates ever bigger energy demands, it’s getting hard for the industry to hide the true costs of the data centers powering the tech revolution.

    According to a Guardian analysis, from 2020 to 2022 the real emissions from the “in-house” or company-owned data centers of Google, Microsoft, Meta and Apple are probably about 662% – or 7.62 times – higher than officially reported.

    Amazon is the largest emitter of the big five tech companies by a mile – the emissions of the second-largest emitter, Apple, were less than half of Amazon’s in 2022. However, Amazon has been kept out of the calculation above because its differing business model makes it difficult to isolate data center-specific emissions figures for the company.

    As energy demands for these data centers grow, many are worried that carbon emissions will, too. The International Energy Agency stated that data centers already accounted for 1% to 1.5% of global electricity consumption in 2022 – and that was before the AI boom began with ChatGPT’s launch at the end of that year.

    AI is far more energy-intensive on data centers than typical cloud-based applications. According to Goldman Sachs, a ChatGPT query needs nearly 10 times as much electricity to process as a Google search, and data center power demand will grow 160% by 2030. Goldman competitor Morgan Stanley’s research has made similar findings, projecting data center emissions globally to accumulate to 2.5bn metric tons of CO2 equivalent by 2030.

    In the meantime, all five tech companies have claimed carbon neutrality, though Google dropped the label last year as it stepped up its carbon accounting standards. Amazon is the most recent company to do so, claiming in July that it met its goal seven years early, and that it had implemented a gross emissions cut of 3%.

    “It’s down to creative accounting,” explained a representative from Amazon Employees for Climate Justice, an advocacy group composed of current Amazon employees who are dissatisfied with their employer’s action on climate. “Amazon – despite all the PR and propaganda that you’re seeing about their solar farms, about their electric vans – is expanding its fossil fuel use, whether it’s in data centers or whether it’s in diesel trucks.”
    A misguided metric

    The most important tools in this “creative accounting” when it comes to data centers are renewable energy certificates, or Recs. These are certificates that a company purchases to show it is buying renewable energy-generated electricity to match a portion of its electricity consumption – the catch, though, is that the renewable energy in question doesn’t need to be consumed by a company’s facilities. Rather, the site of production can be anywhere from one town over to an ocean away.

    Recs are used to calculate “market-based” emissions, or the official emissions figures used by the firms. When Recs and offsets are left out of the equation, we get “location-based emissions” – the actual emissions generated from the area where the data is being processed.

    The trend in those emissions is worrying. If these five companies were one country, the sum of their “location-based” emissions in 2022 would rank them as the 33rd highest-emitting country, behind the Philippines and above Algeria.

    Many data center industry experts also recognize that location-based metrics are more honest than the official, market-based numbers reported.

    “Location-based [accounting] gives an accurate picture of the emissions associated with the energy that’s actually being consumed to run the data center. And Uptime’s view is that it’s the right metric,” said Jay Dietrich, the research director of sustainability at Uptime Institute, a leading data center advisory and research organization.

    Nevertheless, Greenhouse Gas (GHG) Protocol, a carbon accounting oversight body, allows Recs to be used in official reporting, though the extent to which they should be allowed remains controversial between tech companies and has led to a lobbying battle over GHG Protocol’s rule-making process between two factions.

    On one side there is the Emissions First Partnership, spearheaded by Amazon and Meta. It aims to keep Recs in the accounting process regardless of their geographic origins. In practice, this is only a slightly looser interpretation of what GHG Protocol already permits.

    The opposing faction, headed by Google and Microsoft, argues that there needs to be time-based and location-based matching of renewable production and energy consumption for data centers. Google calls this its 24/7 goal, or its goal to have all of its facilities run on renewable energy 24 hours a day, seven days a week by 2030. Microsoft calls it its 100/100/0 goal, or its goal to have all its facilities running on 100% carbon-free energy 100% of the time, making zero carbon-based energy purchases by 2030.

    Google has already phased out its Rec use and Microsoft aims to do the same with low-quality “unbundled” (non location-specific) Recs by 2030.

    Academics and carbon management industry leaders alike are also against the GHG Protocol’s permissiveness on Recs. In an open letter from 2015, more than 50 such individuals argued that “it should be a bedrock principle of GHG accounting that no company be allowed to report a reduction in its GHG footprint for an action that results in no change in overall GHG emissions. Yet this is precisely what can happen under the guidance given the contractual/Rec-based reporting method.”

    To GHG Protocol’s credit, the organization does ask companies to report location-based figures alongside their Rec-based figures. Despite that, no company includes both location-based and market-based metrics for all three subcategories of emissions in the bodies of their annual environmental reports.

    In fact, location-based numbers are only directly reported (that is, not hidden in third-party assurance statements or in footnotes) by two companies – Google and Meta. And those two firms only include those figures for one subtype of emissions: scope 2, or the indirect emissions companies cause by purchasing energy from utilities and large-scale generators.
    In-house data centers

    Scope 2 is the category that includes the majority of the emissions that come from in-house data center operations, as it concerns the emissions associated with purchased energy – mainly, electricity.

    Data centers should also make up a majority of overall scope 2 emissions for each company except Amazon, given that the other sources of scope 2 emissions for these companies stem from the electricity consumed by firms’ offices and retail spaces – operations that are relatively small and not carbon-intensive. Amazon has one other carbon-intensive business vertical to account for in its scope 2 emissions: its warehouses and e-commerce logistics.

    For the firms that give data center-specific data – Meta and Microsoft – this holds true: data centers made up 100% of Meta’s market-based (official) scope 2 emissions and 97.4% of its location-based emissions. For Microsoft, those numbers were 97.4% and 95.6%, respectively.

    The huge differences in location-based and official scope 2 emissions numbers showcase just how carbon intensive data centers really are, and how deceptive firms’ official emissions numbers can be. Meta, for example, reports its official scope 2 emissions for 2022 as 273 metric tons CO2 equivalent – all of that attributable to data centers. Under the location-based accounting system, that number jumps to more than 3.8m metric tons of CO2 equivalent for data centers alone – a more than 19,000 times increase.

    A similar result can be seen with Microsoft. The firm reported its official data center-related emissions for 2022 as 280,782 metric tons CO2 equivalent. Under a location-based accounting method, that number jumps to 6.1m metric tons CO2 equivalent. That’s a nearly 22 times increase.

    While Meta’s reporting gap is more egregious, both firms’ location-based emissions are higher because they undercount their data center emissions specifically, with 97.4% of the gap between Meta’s location-based and official scope 2 number in 2022 being unreported data center-related emissions, and 95.55% of Microsoft’s.

    Specific data center-related emissions numbers aren’t available for the rest of the firms. However, given that Google and Apple have similar scope 2 business models to Meta and Microsoft, it is likely that the multiple on how much higher their location-based data center emissions are would be similar to the multiple on how much higher their overall location-based scope 2 emissions are.

    In total, the sum of location-based emissions in this category between 2020 and 2022 was at least 275% higher (or 3.75 times) than the sum of their official figures. Amazon did not provide the Guardian with location-based scope 2 figures for 2020 and 2021, so its official (and probably much lower) numbers were used for this calculation for those years.
    Third-party data centers

    Big tech companies also rent a large portion of their data center capacity from third-party data center operators (or “colocation” data centers). According to the Synergy Research Group, large tech companies (or “hyperscalers”) represented 37% of worldwide data center capacity in 2022, with half of that capacity coming through third-party contracts. While this group includes companies other than Google, Amazon, Meta, Microsoft and Apple, it gives an idea of the extent of these firms’ activities with third-party data centers.

    Those emissions should theoretically fall under scope 3, all emissions a firm is responsible for that can’t be attributed to the fuel or electricity it consumes.

    When it comes to a big tech firm’s operations, this would encapsulate everything from the manufacturing processes of the hardware it sells (like the iPhone or Kindle) to the emissions from employees’ cars during their commutes to the office.

    When it comes to data centers, scope 3 emissions include the carbon emitted from the construction of in-house data centers, as well as the carbon emitted during the manufacturing process of the equipment used inside those in-house data centers. It may also include those emissions as well as the electricity-related emissions of third-party data centers that are partnered with.

    However, whether or not these emissions are fully included in reports is almost impossible to prove. “Scope 3 emissions are hugely uncertain,” said Dietrich. “This area is a mess just in terms of accounting.”

    According to Dietrich, some third-party data center operators put their energy-related emissions in their own scope 2 reporting, so those who rent from them can put those emissions into their scope 3. Other third-party data center operators put energy-related emissions into their scope 3 emissions, expecting their tenants to report those emissions in their own scope 2 reporting.

    Additionally, all firms use market-based metrics for these scope 3 numbers, which means third-party data center emissions are also undercounted in official figures.

    Of the firms that report their location-based scope 3 emissions in the footnotes, only Apple has a large gap between its official scope 3 figure and its location-based scope 3 figure.

    This is the only sizable reporting gap for a firm that is not data center-related – the majority of Apple’s scope 3 gap is due to Recs being applied towards emissions associated with the manufacturing of hardware (such as the iPhone).

    Apple does not include transmission and distribution losses or third-party cloud contracts in its location-based scope 3. It only includes those figures in its market-based numbers, under which its third party cloud contracts report zero emissions (offset by Recs). Therefore in both of Apple’s total emissions figures – location-based and market-based – the actual emissions associated with their third party data center contracts are nowhere to be found.”

    .
    2025 and beyond

    Even though big tech hides these emissions, they are due to keep rising. Data centers’ electricity demand is projected to double by 2030 due to the additional load that artificial intelligence poses, according to the Electric Power Research Institute.

    Google and Microsoft both blamed AI for their recent upticks in market-based emissions.

    “The relative contribution of AI computing loads to Google’s data centers, as I understood it when I left [in 2022], was relatively modest,” said Chris Taylor, current CEO of utility storage firm Gridstor and former site lead for Google’s data center energy strategy unit. “Two years ago, [AI] was not the main thing that we were worried about, at least on the energy team.”

    Taylor explained that most of the growth that he saw in data centers while at Google was attributable to growth in Google Cloud, as most enterprises were moving their IT tasks to the firm’s cloud servers.

    Whether today’s power grids can withstand the growing energy demands of AI is uncertain. One industry leader – Marc Ganzi, the CEO of DigitalBridge, a private equity firm that owns two of the world’s largest third-party data center operators – has gone as far as to say that the data center sector may run out of power within the next two years.

    And as grid interconnection backlogs continue to pile up worldwide, it may be nearly impossible for even the most well intentioned of companies to get new renewable energy production capacity online in time to meet that demand.

    https://www.theguardian.com/technology/2024/sep/15/data-center-gas-emissions-tech
    #données #émissions #mensonge #ChatGPT #AI #IA #intelligence_artificielle #CO2 #émissions_de_CO2

  • Google’s deal to avoid ‘journalism usage fee’ puts taxpayers on hook - Los Angeles Times
    https://www.latimes.com/california/newsletter/2024-08-30/california-struck-a-deal-with-google-to-fund-local-journalism-journalists-a

    Good morning. It’s Friday, Aug. 30. Here’s what you need to know to start your day.

    Why journalists aren’t fans of the deal California struck with Google.
    Michigan surpassed California as the largest cannabis market in the country.
    How to choose the best Hollywood studio tour for you.
    And here’s today’s e-newspaper

    Google and California reach agreement on funding newsrooms. Is it enough?

    A state bill with bipartisan support that aimed to throw a lifeline to California’s struggling news industry is no more.

    In place of the proposed “journalism usage fee” levied on Google and Meta annually to help fund local newsrooms, state officials announced a nearly $250-million public-private partnership wherein Google would pay a fraction of what they might have owed under the proposed law.

    The agreement would also put state taxpayers on the hook for tens of millions. Meta, which owns Facebook and Instagram, is not part of the deal and state lawmakers are not currently pursuing one with them.

    The proposed deal has torn wider the rift between lawmakers, legacy publishers, smaller digital outlets and the labor groups that represent the state’s journalists, which called the outcome a “shakedown,”
    A man looks at a newspaper
    A pressman looks over a paper for possible print corrections at the Los Angeles Times Olympic Printing Plant on February 15, 2024. The plant closed in March.
    (Genaro Molina / Los Angeles Times)

    What happened?

    The California Journalism Preservation Act, introduced last year by Assemblymember Buffy Wicks (D-Oakland), received wide support in the state legislature and was modeled off similar fee structures developed in Australia and Canada.

    Supporters pointed to the “vise grip” the tech giants have on digital advertising, arguing that Google and Meta swallowed up billions in ad revenue many publications rely on to fund their journalism.

    State Sen. Steve Glazer introduced a related proposal this year, seeking to charge Big Tech a “data extraction mitigation fee” that would fund tax credits for news organizations to hire more reporters.

    Full transparency: Clearly I and fellow L.A. Times journalists have a stake in these efforts. Our unit is part of the Media Guild of the West, which represents hundreds of state news workers and endorsed both bills.

    Meta and Google opposed the bills, funding a major ad campaign (you may have seen it during the Olympics) and threatening to pull news content from their platforms. Meta actually did that in Canada rather than pay news organizations.

    Wicks told me uncertainty had grown in recent weeks about whether Gov. Gavin Newsom would sign her bill. She also worried it could face years of legal challenges. She said her options were: “this or nothing.”

    “From my perspective, this deal that we landed is the largest deal that we were going to get for today,” she said.

    What’s in the deal?

    The state would establish a nonprofit News Transformation Fund, to be administered by UC Berkeley’s School of Journalism.

    Google would pitch in nearly $173 million over five years, according to a framework document shared by Wicks’ office. But the majority of the company’s contributions would not go directly to fund local newsrooms.

    Under the five-year framework, Google would pay:

    $55 million into the journalism fund, $15 million of that in the first year
    A separate $50 million to boost funding for the company’s existing journalism programs
    Google would also funnel nearly $68 million into a separate fund for artificial intelligence research, including a “National AI Accelerator.”

    Details of that AI research are vague and were not part of Wicks’ initial bill. She said the goal would be to “create tools that actually help and augment [but] not replace or replicate journalism.”

    California (aka taxpayers) would pay $70 million into the journalism fund — $30 million in 2025 and $10 million each of the following four years — into the journalism fund. No public dollars will go toward AI development, Wicks emphasized. The framework states that investments could increase based on available state and private funds.

    The agreement is not a tax on Google, has no enforcement mechanism and only outlines funding for five years. And it appears Google’s contributions to the journalism fund would be tax deductible, according to Wick’s office.

    In contrast, Canada’s government passed a law last year under which Google agreed to pay news organizations there $74 million U.S. dollars every year, with no term limit.

    Sen. Glazer released a statement calling Google’s contributions “completely inadequate” and said the agreement “seriously undercuts our work toward a long term solution to rescue independent journalism.”

    ‘A huge missed opportunity’

    While Wicks, Newsom, Google executives and the state’s publishing lobby lauded the agreement, many organizations that represent California journalists are not happy.

    Media Guild of the West blasted the agreement, saying worker groups were cut out of an “undemocratic and secretive deal.”

    “The future of journalism should not be decided in backroom deals,” media labor leaders wrote in a joint letter to state lawmakers. “The Legislature embarked on an effort to regulate monopolies and failed terribly. Now we question whether the state has done more harm than good.”

    Wicks did not address why news workers unions were not involved in the final deal, but contended the California News Publishers Association is the key player in state policy related to publishing issues and was best positioned to negotiate with Google.

    For tech writer Brian Merchant, the deal “represents a huge missed opportunity to meaningfully claw back some of the power that tech monopolies like Google and Facebook have solidified over our information ecosystem.”

    Merchant is a former columnist for The Times and author of “Blood in the Machine,” which chronicles the 19th century Luddite movement and traces it to the growing pushback on Big Tech today (he also writes a newsletter by the same name).

    He pinned the fate of Wicks’ bill on Newsom’s “cold political calculus.”

    “Google is a major power broker in Silicon Valley and in California, and Gavin Newsom did not want to pick a fight with them at this point in time,” Merchant said. “He would rather not alienate … Silicon Valley and its prospective donor base than come out swinging to try to save California’s news industry.”
    A protester holds a picket sign
    Members of the community fill De La Guerra Plaza in front of the Santa Barbara News-Press newspaper’s office during a rally on July 18, 2006. The Pulitzer Prize-winning Santa Barbara News-Press, one of California’s oldest newspapers, ceased publishing after its owner declared the 150-year-old publication bankrupt.
    (Michael A. Mariant / Associated Press)

    What will this mean for the state’s struggling newsrooms?

    The deal still needs to be approved by the state legislature and there are a lot of unknowns — including how much money each news publication would receive through the distribution formula outlined in the deal.

    Wicks called the agreement “a down payment” and expressed hope that it represents “the floor, not the ceiling” in an ongoing effort to get Big Tech to pay news publishers their fair share.

    But Merchant believes the “toothless deal” won’t achieve anything meaningful, other than “continuing the race to the bottom that these tech companies set in motion.”

    “Google is going to continue to capture an outsized share of the ad market, buffeted by the work that human creators produce,” he said. “It will put more AI in play that could potentially serve as a direct competitor to some of the remaining journalists out there, lowering the quality of actual human-collected news.”

    This all comes as the industry continues a decades-long decline, with fewer reporters in hollowed-out newsrooms as subscriptions and web traffic dip. When communities don’t have rigorous news media keeping tabs on people with power, corruption and misinformation can flourish. Residents — often marginalized to begin with — are the ones who pay the price.

    The best way to support the local journalism that you value is with a paid subscription or donation. Maybe that’s The Times or maybe it’s one of the hundreds of other print and digital publications across the state that help you understand the challenges and triumphs of your community and the forces that shape it.

    #Journalisme #Californie #Google #Financement #Publicité

  • #Typst

    Typst est un #logiciel d’#écriture et d’#édition_scientifique créé par Martin Haug et Laurenz Mädje. Il existe sous la forme d’un éditeur collaboratif en ligne avec un accès gratuit et des fonctionnalités payantes (un peu comme #Authorea), ainsi que sous la forme d’un programme en ligne de commande, pour un usage local. On peut trouver en ligne le code et une documentation détaillée.

    Je suis frappé par la vitesse avec laquelle les deux créateurs ont transformé leur projet de fin d’études en entreprise. Le marketing est plutôt malin, on situe tout de suite Typst par rapport à #Word, #Google_Docs et #LaTeX. À noter que Pandoc a très vite développé une compatibilité avec ce nouvel outil. Typst suscite clairement de l’enthousiasme dans une communauté fatiguée par des outils mal adaptés à ses besoins. Un sentiment d’efficacité se dégage de l’ensemble du projet, et on sait combien c’est important quand il s’agit de convaincre les gens de transformer leurs pratiques. Mais il reste à tenir certaines promesses, en premier lieu sur l’accessibilité des PDF : Typst a été présenté comme une amélioration possible à TeX sur ce point, or deux ans après ce n’est toujours pas le cas.

    Je n’ai pas encore essayé l’outil. Mais pour les curieux, le mémoire de Laurenz Mädje décrit la genèse de Typst, et j’y ai relevé plusieurs éléments que je partage ci-dessous.

    Pour justifier d’investir des efforts dans la création d’un nouvel outil d’écriture et d’édition scientifique, Mädje analyse les défauts de #TeX avec des mots qui frappent juste :

    « La conception datée de TeX entrave fondamentalement l’expérience utilisateur » (p. 7) […] « la compilation est lente, l’accessibilité est mauvaise, et les possibilités de mise en page sont limitées » (p. 13).

    Les deux logiciels appelés Typst – l’éditeur en ligne et le compilateur en ligne de commande – reposent sur un langage de programmation du même nom, qui s’écrit en partie comme un langage de balisage léger, proche de #Markdown :

    « Typst, c’est à la fois un langage de balisage léger et un langage de programmation complet, réunis en une seule syntaxe, au format texte » (p. 7) […] « Intégrer stylage et programmation rend la mise en forme plus simple et plus souple » (p. 68).

    C’est donc un vrai système de #programmation_éditoriale, ce qui me rappelle #Pollen, sur lequel j’avais publié une note de veille. L’intégration entre balisage et programmation existait déjà dans l’écosystème TeX avec #LuaTeX mais l’avantage de Typst est d’avoir repris la conception du système à zéro : en théorie, cela devrait permettre de développer rapidement un catalogue de fonctionnalités modulaires, comme les paquets de TeX, sur une base plus saine.

    J’ai aussi relevé quelques concepts utiles, comme le couple balisage procédural – qui indique à l’ordinateur comment procéder – et balisage descriptif – qui décrit à l’ordinateur la structure du document. Mädje souligne que le #balisage_descriptif convient particulièrement à l’édition multiformats car il permet de changer de styles sans modifier le contenu. Il distingue trois catégories de langages de balisage descriptif, suivant qu’ils sont basés sur des tags, des macros ou des caractères. La phrase “The line between data and markup is fuzzy” (p. 16) a particulièrement retenu mon attention : elle suggère que le texte, c’est de la donnée  ; et surtout, que le balisage, c’est déjà un peu de la sérialisation.

    Enfin, j’ai relevé cet argument pro-balisage (ou #anti-WYSIWYG, comme on veut) dans la conclusion :

    « Les langages de balisage ont un avantage concret sur les systèmes de composition #WYSIWYG : ils permettent aux auteurs de définir la structure du document indépendamment de son apparence et de passer automatiquement de l’une à l’autre  ; cela donne une meilleure expérience d’écriture, avec moins de travail répétitif » (p. 71).

    https://www.arthurperret.fr/veille/2024-08-29-typst.html

    #alternative

    • l’exemple de maths me fait demander pourquoi avoir redéfini tout un langage de description de formules, celui de TeX/LaTeX étant assez complet, surtout en conservant les marques ’$’ pour délimiter les formules mathématiques ! Là on se retrouve avec un truc qui ressemble mais n’est pas pareil, je pige pas l’intérêt.

      Pour le reste ça a l’air propre et bien pensé. (ah merdre, pas de paquets debian ça ça fait chier…).

      En même temps après presque 30 ans de LaTeX, quand t’as ton jeu de macros toutes prêtes pour composer à peu près n’importe quoi, des maths aux figures Tikz, se lancer dans un nouveau truc comme ça, pfffff, ça me fatigue d’avance !

    • Rédiger la thèse avec #Zettlr

      Depuis janvier, ça y est, je suis passée en mode rédaction de la #thèse. Grande étape tout court, moment crucial aussi par rapport à l’organisation de mon travail — et notamment par rapport à la question de mon outil de travail. Je travaille avec Ubuntu (plutôt qu’avec Windows ou Mac)  ; au début de la thèse, j’ai fait ce choix sans trop savoir ce qu’il allait impliquer exactement — est-ce que j’aurais les fichiers au bon format  ? est-ce que les relectures et renvois de fichiers, d’un·e collègue à un·e autre, allaient se faire sans encombre  ? est-ce que les formats disponibles sous Ubuntu étaient appropriés pour un travail aussi long et lourd que la thèse  ?

      Comme je le disais à la fin de l’article où j’explique ces hésitations, j’ai eu quelques déconvenues  : d’un côté, je me suis vraiment attachée au fonctionnement sous Ubuntu et je n’ai plus du tout envie de repasser à Windows, de l’autre je suis forcée de constater que LibreOffice Writer, que j’utilisais pour remplacer Word, a des défaillances vraiment rédhibitoires pour la rédaction de gros fichiers de thèse. Les feuilles de style créent des bugs, les révisions de texte sont mal traduites d’un ordinateur à l’autre, bref  : pour un article ça passe, pour une thèse non. J’ai eu peur de devoir laisser tomber Ubuntu  ; et puis, finalement, non  ! Je me suis enfin penchée sur ce logiciel libre dont j’entendais parler sur Twitter depuis à peu près un an, Zettlr, et il est devenu mon outil de rédaction principal  : quelques explications donc.

      [Update février 2023] Ça, c’est ma problématique perso. Mais plus j’avance dans l’usage de Zettlr, plus je pense qu’il est vraiment une option à considérer pour tout le monde, rien à voir en fait avec utilisation ou pas d’Ubuntu. Dans l’absolu, Zettlr a des vrais avantages pour la rédaction : fluidité de l’écriture, structuration argumentative du texte, stylages, gestion des bibliographies, indexations… Il faut partir de l’idée qu’il y aura quelques bidouilles informatiques à prévoir, mais elles restent de l’ordre du raisonnable, ça vaut le coup.

      https://engagees.hypotheses.org/2948

    • Je dois déjà en avoir parlé.
      On rédige tous nos compte-rendus et documents d’analyse en markdown avec Zettlr, sur Linux et Windows. On exporte en PDF avec notre propre modèle pandoc intégré dans Zettlr. On ne connaissait pas Latex, et on s’y est mis. On est tombé sur un certain nombre de limites liées à la chaîne zettlr>pandoc>latex, mais on a un résultat qui nous permet de limiter l’usage de Word à quelques derniers bidules que markdown ne peut pas gérer, parce que c’est pas fait pour.

  • Voir la France en train

    Les cartes de la France et de ses régions invisibilisent le train. C’est pourtant le moyen de transport longue distance le plus important des prochaines décennies.

    Observez les deux cartes suivantes : les deux représentent l’hexagone, mais saurez-vous trouver la différence principale ?

    La première, nous la connaissons bien : c’est Google Maps, la reine de la cartographie depuis 15 ans.

    Google a fait le choix, comme Apple, Mappy, Viamichelin ou encore OpenStreetMap.org, de montrer une vision cartographique du monde où le train n’existe pas... en tout cas pas au niveau de zoom des pays, qui met donc en valeur la voiture et seulement la voiture.

    La France autoroutière

    C’est un choix politique conservateur.

    Motivé par l’absence du train dans les modes de déplacements des États-Unis (pour rappel, Elon Musk a contribué à tuer le projet de LGV californienne en proposant volontairement son projet fantasque hyperloop), où sont développés #Google et #Apple_Maps.

    Mais un choix qui aussi le reflet d’une volonté de ne pas brusquer l’automobiliste, car même dans les pays européens, l’autoroute domine le rail d’un facteur 10 à 20 en 2023.

    Google et Apple n’ont en fait rien changé à la #vision_cartographique du monde depuis 1990 (35 ans !), l’époque de la voiture reine, l’époque de l’insouciance climatique, energétique, géopolitique.

    #Michelin est un vendeur de pneus. Qu’ils vendent des cartes routières est tout à fait logique.

    On ne peut pas en dire autant de l’#IGN, agence publique ayant pour mission d’assurer la production, l’entretien et la diffusion de l’information géographique de référence en France.

    Qu’il s’agisse de la carte en ligne ou les fameuses cartes papier de randonnée, la voiture et les autoroutes cadrent le paysage français.

    Mettre le train au #premier_plan

    Pourtant, le TGV explose régulièrement ses records de trafic. Et surtout : le respect de l’engagement climatique et énergétique nous impose de faire du rail l’infrastructure prioritaire, dès maintenant.

    Sur #Cartes, nous vous présentons donc le premier plan vectoriel de l’hexagone intégré sur une carte généraliste en ligne. Où les autoroutes sont remplacées par le magnifique réseau ferré de notre hexagone et des pays voisins.

    Les deux captures suivantes montrent qu’à l’échelle régionale, la carte d’Apple cette fois-ci, adopte également une vision 100 % auto-centrée : le rail n’existe toujours pas !

    Sur Cartes, les routes nationales apparaissent au côté du rail : plus l’échelle du déplacement est petite, plus il faut mettre en avant les infrastructures adaptées aux dernières dizaines de kilomètres.

    Une nouvelle ère pour l’information voyageur

    Cette 1ère version des cartes vectorielles auto-hebergées sur le serveur du projet Cartes est imparfaite : les LGV ne sont pas encore mises en avant ; c’est une carte du rail, pas de l’offre voyageur, or on sait bien que contrairement à la liberté de la voiture l’offre voyageur contraint fortement le train ; certaines portions sont actuellement représentées de façon trop complexe avec un dédoublement des voies (exemple : la vallée du Rhône), ce qui produit des cartes plus lourdes et moins lisibles.

    À terme, il y a de fortes chances qu’à haut niveau de zoom, c’est l’offre voyageur qui sera mise en avant, basée sur les horaires et trajets effectif du moment, pas les méandres du réseau ferré français.

    Sans aucun doute, Cartes sera rejointe par d’autres acteurs avec l’ambition d’informer les voyageurs sur le mode de transport à la fois le plus écologique et le plus économique dès qu’une liaison sans trop de détour existe. Rappelons-le : 60 % des Français vivent à moins de 20 minutes à vélo d’une gare principale.

    L’IGN, par exemple, a montré récemment de nouvelles ambitions : cartes de l’anthropocène qui actent les bouleversements en cours, nouvelle application mobile pour concurrencer les GAFAMs. Gageons que le voyage en train sera l’une de ces nouvelles priorités pour le XXIème siècle.

    Montrer les défauts pour les corriger

    Par le passé, l’ensemble de la France était maillé. En explorant la carte, vous verrez les nombreuses indirections entre les grandes villes de France, qui provoquent des trajets lents, détournés par Paris et donc souvent irréalistes.

    Montrer le rail au premier plan, c’est aussi montrer les défauts du réseau ferré national, pour les corriger. D’urgence.

    https://cartes.app/blog/plan-sncf
    #voiture #train #cartographie #visualisation #France #choix #invisibilisation #transports_publics #choix_cartographique #représentation #réseau_ferroviaire #réseau_routier
    #ressources_pédagogiques #transport
    ping @reka @visionscarto

  • Extinction Rebellion Ireland warns new #Google data centre will be met with ’massive pushback’

    Extinction Rebellion Ireland (ERI) has warned that if a planned new Google Ireland #data_centre gets the planning go-ahead for south Dublin “it will be met with massive local and national pushback and action”.

    In an objection against the planned new data centre expansion by Google Ireland for Grange Castle Business Park in south Dublin, Emer Connolly of Extinction Rebellion Ireland has told the Council: “This expansion is a disaster for local communities, water shortages, transition to a more sustainable economy, and reaching our climate targets.

    Ms Connolly states that “if this planning goes through, it will be met with massive local and national pushback and action”.

    She said: “Environmental groups are watching closely and won’t let this go through easily.”

    In a separate submission, An Taisce has warned that planning for the data centre "would further compromise our ability to achieve compliance with our carbon budget limits and would put additional pressure on renewables capacity to deal with the significant additional power demand”.

    The scheme is the third phase of the Google Ireland data centre campus at Grange Castle Business Park and will involve the creation of 800 construction jobs and 50 jobs when operational.

    The new 72,400 square-metre data storage facility data centre will involve the construction of eight data halls on a 50 acre greenfield/brownfield site.

    However, in the eight-page submission, An Taisce’s Planning Officer, Sean O’Callaghan states that the proliferation of data infrastructure has largely gone unchecked, and data centres now consume 21 per cent of Ireland’s total metred electricity.

    He said that this is up from 5% in 2015 and represents more electricity use than all urban households in Ireland combined.

    Mr O’Callaghan has stated that the planned data centre will put great pressure on an already strained electricity grid in the Dublin region, particularly in light of the large number of existing and proposed data centres already in the area.

    Mr O’Callaghan stated that a projected increase of 0.44 per cent in national emissions from the project "is entirely incompatible with our obligations to reduce emissions”.

    Mr O’Callaghan states: "Also, we consider an increase in national emissions of almost half a percentage point as a result of one singular development to be very significant.”

    He said that granting development consent for the data centre, on its own terms and when considered cumulatively with the high concentration of other data centres, “would greatly risk Ireland’s ability to meet carbon budget and sectoral emissions ceiling obligations for the electricity sector”.

    Head of Policy at Friends of the Earth, Jerry MacEvilly has called on the Council to reject the planning application.

    Mr Mac Evilly states “our concern is that the proposed development would actively undermine the achievement of the state’s carbon budget programme”.

    Dr Colin Doyle has told the council that claims of commitment by Google and Google Ireland Ltd “to decarbonisation amount to greenwashing”.

    He said: “The claims are all based on purchase of renewable electricity. While these purchases can be reported in corporate Green House Gas (GHG) accounting systems, they do not mitigate or offset in any way the physical additional GHG emissions caused by Google’s activities in Ireland.”

    In a separate submission, Gino Kenny TD (People Before Profit Solidarity) along with party colleagues, Cllr Madeleine Johansson and Cllr Darragh Adelaide have told the council that the development “would have an adverse impact on the local community, the electricity grid and on Ireland’s carbon emissions”.

    Raising concerns about possible black-outs in the area from data centre development, the three state that “Grange Castle has seen a significant number of data storage developments, some of which have not yet started operating, and we would be extremely concerned about the capacity of the electricity grid at this time to cope with any further developments”.

    A decision is due on the application later this month.

    https://www.breakingnews.ie/ireland/extinction-rebellion-ireland-warns-google-data-centre-will-be-met-with-
    #Irlande #data_center #résistance #environnement #Grange_Castle_Business_Park

  • 3 New AI Features Rolling out to Chrome Users on Linux
    https://www.omgubuntu.co.uk/2024/08/google-chrome-new-ai-features

    Google has announced a clutch of new AI-powered features have begun rolling out to users of Chrome on Windows, macOS, and —for once!— Linux. Chrome’s Vice President Parisa Tabriz unveiled the trio of AI features, which are all powered by the latest Google #Gemini AI models, on The Keyword blog today, saying: – We’re making it even easier to search what you see with the power of Google Lens, compare products across multiple tabs and rediscover sites from your browser history, whether you’re at home or at work. Google’s Parisa Tabriz As of writing only one of these features (Google Lens) is […] You’re reading 3 New AI Features Rolling out to Chrome Users on Linux, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #AI/ML #Google_Chrome

  • Looking to drop Google? Here are the best #Google_Maps alternatives for finding your way.

    With a number of community driven, open source mapping projects picking a navigation app without ads or tracking has never been easier.

    It has never been easier to visit a bustling unknown city or finding a hidden restaurant with the rise of Google Maps. This ease of navigation has not come without a price, that being the erosion of our privacy.

    https://tuta.com/blog/google-maps-alternatives-foss
    #alternatives #alternative #cartographie #app #smartphone #OsmAnd #Organic_Maps #Locus_Maps #OSM #Open_street_map #navigation #offline

    • Je découvre que pour l’Allemagne FALK est une solution intéressante aussi.
      https://www.falk.de

      Pour le monde entier il n’y a que des cartes qu’on trouve aussi ailleurs, mais pour les grande villes allemandes on peut choisir la version en ligne des excellentes cartes Falk qui ont fait la fortune du fondateur des éditions.

      Les informations sur Paris sont drôles :

      Neben bekannten Sehenswürdigkeiten hat Paris auch für Genussfreunde einiges zu bieten. So wird das La Coupole (Boulevard du Montparnasse 102, 75014 Paris) von Einheimischen gerne für eine leckere Mahlzeit ausgewählt. Aber auch viele weitere Lokale werden gerne empfohlen.

      Ah, mon pote, 15 heures à la Coupole, comme tous les jours après la boulot ?

      Leben wie Gott in Frankreich !

      Falk (Verlag)
      https://de.wikipedia.org/wiki/Falk_(Verlag)


      Wikipedia raconte la fascinant histoire des cartes et de la maison d’édition Falk qui depuis le 30.8.2012 fait partie de l’empire MairDumont.

  • Big Tech Consolidation Amplified the CrowdStrike Outage
    https://jacobin.com/2024/07/crowdstrike-microsoft-big-tech-consolidation

    21.7.2024 by Freddy Brewster, Lucy Dean Stockton , Katya Schwenk, Helen Santoro - On Friday, an update to a cybersecurity program took down Microsoft systems across the globe. Microsoft has resisted efforts to regulate a root cause of this chaos: the concentration of digital infrastructure in the hands of a few tech giants.

    A little more than a year before Microsoft’s systems crashed on Friday, creating global chaos in the banking, airline, and emergency service industries, the company pushed back against regulators investigating the risks of a handful of cloud services companies controlling the world’s technological infrastructure, according to documents we reviewed.

    “Regulators should carefully avoid any intervention that might disturb the competitive offerings that have promoted the explosive innovation and growth attributable to the cloud,” the company wrote in response to the Federal Trade Commission’s 2023 review of cloud computing companies’ security practices and interoperability protocols.

    The agency questioned whether these companies “invest sufficient resources in research and development” of systems upon which the economy and government rely.

    Microsoft is blaming this week’s global cloud outages on an update from CrowdStrike, a cybersecurity firm whose software protects against hacks. The debacle comes two days after federal agencies released new guidance sounding additional alarms that Big Tech’s consolidation of cloud services could put consumers at serious risk. It also comes one day after Microsoft’s cloud services experienced a separate outage in certain parts of the United States.

    “This is a CrowdStrike-caused outage. It would be inaccurate to report this as a Microsoft outage,” the company said in a statement. “A CrowdStrike update was responsible for bringing down a number of IT systems globally. We are actively supporting customers to assist in their recovery.”

    CrowdStrike did not respond to a request for comment.

    “All too often these days, a single glitch results in a system-wide outage, affecting industries from healthcare and airlines to banks and auto-dealers,” posted Lina Khan, Federal Trade Commission chairwoman, whose agency spearheaded the probe of the cloud computing industry. “Millions of people and businesses pay the price. These incidents reveal how concentration can create fragile systems.”

    At the root of the problem, regulators and researchers say, is Big Tech’s consolidation of cloud services, a technology that allows consumers to store computer information in massive data centers rather than storing it on-site. Just three companies — Amazon, Microsoft, and Google — control 65 percent of the cloud market, according to a report released on July 18 by CloudZero, a cost management platform.

    Microsoft and CrowdStrike also dominate the end point security market, which ensures cybersecurity for devices like desktops, laptops, and mobile devices. As of 2022, the two companies controlled more than 30 percent of the market.

    This consolidation helped allow a simple error to spiral on Friday.

    “We had this cascading failure of all of these businesses, banks, the London Stock Exchange, all of these airlines had to be grounded, because of this one mistake,” said Zane Griffin Talley Cooper, a researcher at the University of Pennsylvania studying digital infrastructure. “And it’s because the internet has become so centralized in the hands of four or five big companies.”

    “With that model, catastrophic failures like this are going to be increasingly common,” he added.
    Regulatory Scrutiny Intensifies

    In March 2023, the Federal Trade Commission announced a wide-ranging survey of the business practices of cloud providers. The agency looked at “market power, business practices affecting competition, and potential security risks,” soliciting comments from companies and the public.

    In its response to the Federal Trade Commission’s probe, Microsoft claimed the marketplace for cloud services remains robust, and warned that regulations may affect “billions of dollars” in investments.

    The company also suggested that the Federal Trade Commission’s intervention would “run the risk of impacting the quality of these solutions and the pace of innovation, and ultimately disadvantaging American companies on the global stage,” Microsoft wrote.

    Public Citizen, a consumer advocacy nonprofit, warned the Federal Trade Commission in 2023 that the market dominance of Amazon, Microsoft, and Google over the cloud services sector is a threat to the economy.

    “Single point dependency on a cloud provider is a structural weakness for the entire economy with the potential to cause more consumer harm in the future,” the group wrote in June 2023.

    On Wednesday — just two days before the global outage — the Department of the Treasury, along with the Consumer Financial Protection Bureau and other federal agencies, cautioned that the industry’s deep reliance on a small handful of cloud service providers left it vulnerable to widespread outages and disruptions.

    The Treasury also released a suite of guidance for banks and financial institutions, following its report from last February that raised an alarm about the potential risks of the highly consolidated market. The report advised that a failure like the one on Friday “could impact multiple financial institutions or U.S. consumers,” and recommended additional oversight, like inspecting third-party service providers.

    The Consumer Financial Protection Bureau’s chief, Rohit Chopra, said on Friday that the failures are just a glimpse of the havoc that could be wreaked by this kind of outage in the financial sector. His agency has warned that in the future, such events could further “freeze parts of the payments infrastructure or grind other critical services to a halt.”

    “There are just a handful of big cloud companies where so much of the economy is now resting on,” Chopra said on CNBC. “We’re getting a taste of some of the potential effects of a real reliance of sectors across the economy relying on a handful of cloud companies and other key systems.”

    Friday’s outage was just a preview, he said, of what could go wrong in extreme cases of corporate consolidation and deregulation.

    “Break Up This Cloud Consortium”

    First reports of the outage surfaced early Friday morning, as computers running on Microsoft’s Windows operating system went down all at once. The issue traced back to a system update that was pushed by a company called CrowdStrike, a cybersecurity provider that is used to protect against hackers in a wide range of sectors, from airlines to banking — and was previously known for its involvement in the 2016 investigation into Russia’s hack of the Democratic National Committee.

    CrowdStrike quickly said it had identified the problem with the update and began pushing a solution, but added that the fixes could take hours.

    “We are aware of this issue and are working closely with CrowdStrike and across the industry to provide customers technical guidance and support to safely bring their systems back online,” Satya Nadella, Microsoft’s CEO, posted on X.

    Microsoft, which was one of the early pioneers of cloud computing software, controls a staggering 85 percent of federal productivity software, and even more of its operating system.

    Yet the Big Tech giant has a history of pushing back against cybersecurity measures. In 2016, the Federal Reserve, the Office of the Comptroller of the Currency, and the Federal Deposit Insurance Corporation released a joint rulemaking notice regarding the need for increased regulations on “enhanced cyber risk management standards for large and interconnected entities.”

    The proposed rule would have “significant consequences not only for the financial services industry but also for third-parties like Microsoft,” the company wrote in a comment letter. It also raised concerns about the new rules, and added that cloud service providers offer better service and cybersecurity than traditional on-site storage centers.

    The rule was withdrawn in March 2019.

    Agencies and Congress have repeatedly tried and failed to strengthen cybersecurity regulations. Within the past three years, lawmakers have introduced at least four legislative initiatives to address these concerns, though none have been adopted so far.

    This February, the federal Cybersecurity and Infrastructure Security Agency also announced it was renewing a task force charged with managing risks to the global information and communications technology supply chain, crucial for protecting computer hardware, software, and applications.

    The companies themselves were seemingly aware of the potential threat caused by an overreliance on cloud-based systems.

    In a 2023 comment letter to the Consumer Financial Protection Bureau about a proposed rulemaking to tighten personal data restrictions, CrowdStrike — the cybersecurity company responsible for Friday’s data breach — argued that the biggest risk to cybersecurity was not software supply chain issues, but hackers.

    “It is our view that perhaps the most significant threat to data comes from bad actors operating unlawfully, leading to data breaches, cyberattacks, exploits, ransomware attacks and other exposure of consumer data,” CrowdStrike wrote.

    CrowdStrike echoed their concerns about the dangers of hackers and resulting system failures in their most recent annual 10-K report. The company told investors that the “consolidation of siloed products” was a concern because “integrating and maintaining numerous products, data and infrastructures across highly distributed enterprise environments” created “blind spots that hackers can exploit.”

    Microsoft, in its 2023 annual report to shareholders, also expressed that “providing [their] customers with more services and solutions in the cloud puts a premium on the resilience of [their] systems.”

    But the companies have worked hard to keep regulators from taking steps to address these risks.

    Microsoft is one of the country’s top spenders on lobbying, ranking in the top one hundred of corporations. So far this year, the company spent more than $5 million on campaign donations and lobbying lawmakers and regulators. Microsoft lobbied Congress, the Federal Trade Commission, the Treasury Department, the Executive Office of the White House, and other regulators on “policy issues in cloud computing,” among other issues, disclosures show.

    “What we really need,” said Cooper, the University of Pennsylvania researcher, “is regulators to break up this cloud consortium of four or five companies and help distribute management of the internet backbone through a host of different companies.”

    Contributors

    Freddy Brewster is a freelance reporter and has been published in the Los Angeles Times, NBC News, CalMatters, the Lost Coast Outpost, and other outlets across California.

    Lucy Dean Stockton is the news editor at the Lever.

    Katya Schwenk is a journalist based in Phoenix, Arizona.

    Helen Santoro is a journalist based in Colorado.

    #capitalisme #informatique #internet #nuage #sécutité #GAFAM #cloud_computimg #monopoles #Microsoft #Amazon #Google

  • Radio Canada Des entrepreneurs dénoncent une mise à jour « catastrophique » de google Philippe de Montigny - Marjorie April

    Des entrepreneurs et des créateurs web constatent une chute vertigineuse de l’achalandage de leurs sites et de la découvrabilité de leurs contenus depuis de récentes mises à jour des algorithmes de google.

    Depuis ces mises à jour, Béatrice Bernard-Poulin dit avoir perdu environ 75 % du trafic organique sur son blogue. La majorité de l’achalandage sur son site web provenait de google, qui est de loin le moteur de recherche le plus populaire du monde. “Je n’avais pas réalisé que j’étais autant dépendante de google”, dit-elle.


    Son blogue Béatrice comprend une panoplie d’articles sur les finances personnelles et la consommation, ainsi qu’une boutique où elle vend des outils budgétaires numériques.

    Pour les revenus, ça a été pas mal catastrophique.
    Une citation de Béatrice Bernard-Poulin, entrepreneure, auteure et conférencière

    L’algorithme “contenu utile” (ou Helpful Content, en anglais), qui existe depuis deux ans, a été modifié en septembre dernier afin de privilégier les publications “qui apportent une réelle valeur ajoutée” aux internautes. À l’inverse, les contenus rédigés pour bien se classer dans les moteurs de recherche sont pénalisés.

    Béatrice Bernard-Poulin remet en question l’argument du contenu utile. Elle a remarqué, par exemple, que ses articles informatifs ont été relégués au bas des résultats de recherche — au profit de sites de voyagistes et de contenus commandités.

    Les réseaux sociaux lui ont servi à bâtir une communauté de lecteurs, mais l’entrepreneure s’est distanciée de certaines plateformes qui ont récemment ajouté des fonctionnalités payantes pour qu’elle puisse interagir avec ses abonnés.

    “Même si j’avais vécu des changements d’algorithme sur les médias sociaux avant, on dirait que je ne pensais pas nécessairement que c’était possible que google fasse un changement qui ait un impact de ce niveau-là”, dit-elle.

    “J’avais un peu mis tous mes œufs dans le même panier.”
    Béatrice Bernard-Poulin est conceptrice d’un blogue spécialisé en finances personnelles et d’une boutique en ligne où elle vend des outils budgétaires.

    La Montréalaise dit maintenant chercher un travail d’appoint pour lui permettre d’arrondir ses fins de mois. “Je vais continuer d’essayer de trouver une solution parce que je tiens à mon site web. Je crois qu’il est pertinent. Il aide les gens. Je reçois ces commentaires-là tous les jours”, affirme Béatrice Bernard-Poulin.

    “Mais je ne peux plus le faire à temps plein. Je dois aller me chercher un salaire ailleurs malheureusement”, dit-elle.

    Déjouer les algorithmes ?
    google a aussi complété le mois dernier une mise à jour majeure de ses algorithmes, qui lui permet de déceler plus efficacement des publications générées par l’intelligence artificielle et lutter contre le pollupostage, soit des contenus jugés de faible valeur.

    Résultat : de nombreux sites signalent une dégringolade massive dans le classement, alors que d’autres n’apparaissent plus du tout dans les résultats de recherche.

    Selon Stéphane Hamel, spécialiste en marketing numérique et chargé d’enseignement à l’Université Laval, le moteur de recherche lance un message clair : “Créez du contenu pour des humains, n’essayez pas de déjouer l’algorithme.”

    Ironiquement, google a annoncé mardi que les résultats de recherche apparaîtront dorénavant sous forme de réponses concoctées par son nouvel outil d’intelligence artificielle (IA) générative. Ces réponses automatisées paraîtront au-dessus des liens vers des sites web et des articles de nouvelles.

    Ce qui peut être frustrant, c’est que google décide unilatéralement de changer les règles du jeu.
    Une citation de Stéphane Hamel, spécialiste en marketing numérique et chargé d’enseignement, Université Laval

    google n’a pas donné suite à nos demandes répétées d’entrevue et de commentaires.

    Dans un article publié sur son blogue google Search Central (Nouvelle fenêtre), l’entreprise explique que l’objectif de sa mise à jour au début du printemps était “d’améliorer la qualité de la recherche en affichant moins de contenu qui semble avoir été conçu pour générer des clics, et plus de contenu que les internautes trouvent utile.”

    Son classement s’appuie dorénavant sur “divers signaux et systèmes”, précise google. “Aucun système unique n’est utilisé pour identifier les contenus utiles”, peut-on lire dans l’article.

    “Les entreprises qui se sont retrouvées à perdre du trafic organique peut-être vont être portées à augmenter leur budget au niveau de la publicité google, donc ça sert bien google”, affirme Stéphane Hamel.

    Il explique que l’entreprise donne des conseils vagues – sur l’utilisation d’hyperliens et de mots clés, par exemple – sans préciser concrètement ce qui influence le classement. “Ça, c’est leur recette secrète”, dit-il.
    L’expert dénonce le manque de transparence du géant américain. “Je pense que c’est malheureusement l’état de l’écosystème numérique dans lequel on est”, dit-il.

    “Tout ce que google conseille, je l’ai pratiquement fait. J’ai consulté des spécialistes qui n’arrivent pas non plus à mettre le doigt sur le problème exact”, affirme Jennifer Doré Dallas, qui a vu une baisse de plus de 60 % de l’achalandage sur son blogue de voyage depuis les changements d’algorithme.

    La créatrice de contenu dit avoir perdu “des milliers de dollars” par mois en commissions d’affiliation et en revenus publicitaires. Ses revenus de la plateforme de publicité Mediavine ont chuté d’au moins 40 %, souligne-t-elle.
    “C’est tout simplement comme si des années et des années de travail se sont effondrées”, affirme la conceptrice du blogue Moi, mes souliers.

    Comment s’adapter aux nouvelles règles ?
    Une entrepreneure torontoise dit avoir réussi à éviter la chute de trafic rapportée par d’autres créateurs de contenu.

    Karima-Catherine Goundiam, la fondatrice de la plateforme de réseautage pour entrepreneurs B2BeeMatch, affirme que l’achalandage de son site est demeuré relativement stable depuis ces récentes mises à jour. “En fait, on a eu une légère hausse de notre côté parce que, justement, nous avons refusé la pression de créer du contenu en masse”, explique-t-elle.

    Karima-Catherine Goundiam, fondatrice et PDG de B2BeeMatch, dit avoir travaillé fort pour optimiser son site afin qu’il demeure pertinent aux yeux du nouvel algorithme de google.

    En plus de favoriser des échanges entre chefs d’entreprise, investisseurs et jeunes pousses, le site propose des publications rédigées par son équipe, ainsi que du contenu créé par ses abonnés et révisé à l’interne.

    Karima-Catherine Goundiam dit avoir consulté des spécialistes en référencement afin d’optimiser sa découvrabilité dans les moteurs de recherche, sans toutefois suivre tous leurs conseils à la lettre. “C’est probablement ce qui nous a sauvés”, affirme la PDG de B2BeeMatch, qui souhaite assurer la pérennité de sa plateforme.

    Tout ce qui est référencement, ce ne sera jamais une science qui va vous être donnée et ce ne sera jamais final.
    Une citation de Karima-Catherine Goundiam, fondatrice et PDG de B2BeeMatch

    Pour aiguiller les créateurs de contenu, google les renvoie à une liste de questions (Nouvelle fenêtre) leur permettant d’évaluer la qualité de leurs publications, leur niveau d’expertise et l’expérience du lecteur sur leur page web.

    “Les systèmes de classement automatisé de google sont conçus pour inclure dans les meilleurs résultats de recherche des informations utiles et fiables, qui ont été créées pour aider les internautes et non pour améliorer le classement d’un site”, peut-on lire sur le blogue de l’entreprise.

    google, qui détient plus de 90 % du marché mondial des moteurs de recherche, fait d’ailleurs l’objet de poursuites aux États-Unis.

    Le géant américain est notamment accusé d’avoir abusé de sa position dominante, en signant des contrats illégaux avec Apple et Samsung pour que son application soit installée par défaut sur leurs téléphones intelligents. Un jugement est attendu au cours des prochaines semaines, ce qui pourrait forcer l’entreprise à se départir de certaines de ses activités ou à changer ses pratiques.

    Reste à voir si la question des algorithmes sera abordée dans la décision du tribunal. “Peut-être que ça va changer, mais ça risque de prendre beaucoup de temps”, estime Stéphane Hamel, de l’Université Laval.

    #créateurs_web #algorithmes #google #trafic #IA #hyperliens #référencement #internet #bigdata #domination #gafam

    Source : https://ici.radio-canada.ca/nouvelle/2072674/google-algorithme-mise-a-jour-trafic-web

  • google cloud supprime par erreur le compte du fonds UniSuper et prive 600.000 Australiens de l’accès à leurs pensions de retraite  Klara Durand - Le figaro

    Cette situation serait due à un « bug logiciel inconnu » entraînant la suppression de l’abonnement d’UniSuper au cloud de google.

    Imaginez que du jour au lendemain vous n’avez plus accès à votre compte épargne ou à votre pension de retraite. La situation serait un brin stressante les premières heures. Mais passé une semaine, il y aurait de quoi franchement s’inquiéter. Pourtant, c’est ce qu’ont vécu plus de 620.000 membres du fonds australien UniSuper dont les services ont soudainement été supprimés de la plateforme de stockage google cloud. Le résultat, d’après le GAFAM, d’« une mauvaise configuration sans précédent » et « unique en son genre » . Un demi-million de membres du fonds s’est donc retrouvé sans aucun moyen d’accéder à leur pension de retraite pendant le temps qu’a duré cet incident.

    Le PDG d’UniSuper, Peter Chun, a écrit mercredi soir aux adhérents, expliquant que la panne n’était le résultat d’aucune cyberattaque. L’homme d’affaires s’est voulu rassurant et a assuré qu’aucune donnée personnelle n’avait été volée à la suite de cette panne. En revanche, Peter Chun n’a pas manqué de pointer du doigt la responsabilité du service cloud de google. « C’est un événement sans précédent » , a reconnu, de son côté, le PDG de google cloud Thomas Kurian. « Cela n’aurait jamais dû arriver. »

    Un bug logiciel « inconnu »
    Plus précisément, cette situation aurait été provoquée par un « bug logiciel inconnu » entraînant la suppression de l’abonnement d’UniSuper au cloud privé de google et donc, à la disparition automatique de son compte et de ses services sur l’espace de stockage en ligne de google. « Cela n’aurait pas dû se produire. google a identifié les événements qui ont conduit à cette perturbation et pris des mesures pour s’assurer que cela ne se reproduise pas », ont assuré Peter Chun et Thomas Kurian dans une déclaration conjointe.

    En outre, le fonds de pension a joué de malchance. Alors qu’UniSuper a normalement mis en place une duplication de son compte dans deux zones géographiques, afin d’avoir un service de secours en cas de panne, la suppression de son abonnement à google cloud a aussi entraîné la suppression de ses services dans la zone géographique de secours.

    De quoi provoquer des sueurs froides à Peter Chun car UniSuper gère environ 125 milliards de fonds. L’Autorité australienne de régulation prudentielle (APRA) a également surveillé la situation lorsqu’elle a appris la suppression du fonds par inadvertance. « Un assureur n’est peut-être pas directement responsable de la mise hors ligne de son site web en cas de défaillance d’une passerelle réseau mais il sera responsable du résultat », a d’ailleurs rappelé l’entité auprès du Financial Standard. « C’est-à-dire, l’incapacité pour ses clients de déposer des demandes d’indemnisation ou à accéder à d’autres services. »

    Une collaboration depuis un an seulement
    Restaurer les fonds en question n’a d’ailleurs pas été une mince affaire. C’est grâce à des sauvegardes en place avec un autre fournisseur qu’UniSuper est finalement parvenu à relancer ses services sur google cloud. « La restauration de l’instance de cloud privé d’UniSuper a nécessité une quantité incroyable de concentration, d’efforts et de partenariat entre nos équipes pour permettre une restauration complète de tous les systèmes centraux » , confirme les deux PDG dans leur déclaration commune. Jeudi 9 mai, les fonds affichaient encore les soldes de la semaine dernière et devaient se mettre à jour progressivement.

    Reste que la situation demeure embarrassante pour google. Comme le rappelle le média britannique, The Register, UniSuper a transféré ses services en ligne sur google cloud en 2023, après les avoir pendant longtemps hébergés entre la plateforme Azure de Microsoft et ses propres datacenters. « Moins d’un an plus tard, le fonds subit une longue panne de la part de google », souligne le journal.

    Source : https://www.lefigaro.fr/secteur/high-tech/google-cloud-supprime-par-erreur-le-compte-du-fonds-unisuper-et-prive-600-0

    #bug #google #cloud #gafam #UniSuper #google_cloud #panne #service #retraite #panne

  • La visionneuse de #Panoramax passe en version 3.0 !

    Pourquoi contribuer à la base de #photographies de Panoramax ?

    Contribuer à Panoramax, c’est participer au développement d’un #géo-commun, une ressource numérique souveraine, libre et réutilisable. Chaque photo géolocalisée publiée sur Panoramax est utilisable par tous et pour des usages variés, par exemple par une collectivité territoriale qui a besoin d’observer l’état de la voirie ou par un opérateur de télécommunications pour préparer une intervention.

    Chaque contributeur peut envoyer ses séquences d’images, les modifier et les consulter tout comme l’ensemble des vues - 360° ou non - versées par la communauté. Le floutage obligatoire des visages et plaques d’immatriculation est automatisé sur la plateforme.

    https://panoramax.openstreetmap.fr
    #alternative #google_street_map #streetmap #street_map #OSM #3D #crowdsource

  • Access #Gemini AI in Ubuntu with this GNOME Extension
    https://www.omgubuntu.co.uk/2024/05/gemini-ai-gnome-shell-extension

    If you use Ubuntu 22.04 LTS or later and want to access the #Google Gemini AI chatbot straight from your desktop outside of a web browser, you’re in luck! The Gemini AI ChatBot GNOME Shell extension (unaffiliated with Google; it’s not an official thing) gives you immediate access to Gemini at any time from the applet it adds to the top panel — no need to open a web browser tab or fire up a standalone app. Gemini, formerly known as Bard, is an AI language model developed by Google. Like ChatGPT, CoPilot et al it will generate human-like replies […] You’re reading Access Gemini AI in Ubuntu with this GNOME Extension, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #AI/ML #GNOME_Extensions

  • #Google’s #flutter Team Layoffs Leave Ubuntu Devs in a Flap
    https://www.omgubuntu.co.uk/2024/05/googles-flutter-team-layoffs-leave-ubuntu-devs-in-a-flap

    Google’s recent ‘structural simplification’ led to 200 people across many of its core development teams, including Python, Dart, and Flutter, losing their roles. With Canonical committed to using Flutter for its own desktop apps the #News of layoffs in the team responsible for building the framework has left some in the wider Ubuntu community worried about its future viability. The new Ubuntu Installer, Firmware Updater, App Center, and the (currently MIA) Desktop Security Center are all built using Flutter, which is Google’s cross-platform Web-based UI framework underpinned by the Dart programming language. And within the Ubuntu Flutter community a number […] You’re reading Google’s Flutter Team Layoffs Leave Ubuntu Devs in a Flap, a blog post from OMG! Ubuntu. Do not reproduce elsewhere (...)

  • Google Paid Apple $20 Billion in 2022 to Be Default Safari Search Engine - MacRumors
    https://www.macrumors.com/2024/05/01/google-default-search-engine-safari-20-billion

    Les béhémots s’arrangent entre eux...

    Google paid Apple $20 billion in 2022 to be the default search engine for Safari on iPhone, iPad, and Mac, reports Bloomberg. The information was revealed in court documents Google provided in its antitrust dispute with the United States Department of Justice.

    safari google search
    The DoJ has accused Google of having a monopoly on search, and in the lawsuit against Google, the search engine deal with Apple has been a major focus. In November, lawsuit documents indicated that Google was paying 36 percent of the total revenue that it earns from searches conducted on Safari, and now it turns out that equates to $20 billion.

    Google has been the default search engine on Apple devices since 2002, though the deal has been renegotiated several times. Apple and Google have worked to keep the terms of the search engine agreement under wraps during the trial and before, but it has been well known that Google is paying Apple billions per year.

    Last October, Microsoft CEO Satya Nadella testified that the agreement between Apple and Google has made it impossible for search engines like Bing to compete. Microsoft at one point wanted Apple to buy Bing, but Apple was not interested. Microsoft blamed Google, but Apple’s Eddy Cue said that Apple was concerned that Bing could not compete in “quality and capabilities.” Cue claimed that Apple uses Google as the ‌iPhone‌’s default search engine because Apple has “always thought it was the best.”

    Google is the default search engine on Apple devices in most countries, but users can opt to swap to Yahoo, Bing, DuckDuckGo, and Ecosia as alternatives. Changing browser engines requires opening up the Safari settings.

    In Europe, the Digital Markets Act has required Apple to make changes to how browsers work. Users are able to choose a default browser when setting up their ‌iPhone‌, and there are more options than the handful of providers that Apple allows in the United States.

    If Google loses the antitrust lawsuit against it, the deal between Apple and Google could be dissolved. Closing arguments are expected on Thursday and Friday, with the judge’s ruling set to come later in 2024.

    #Apple #Google #Antitrust

  • Droits voisins : « Mediapart » annonce refuser l’argent de #Google
    https://www.lemonde.fr/economie/article/2024/04/28/droits-voisins-mediapart-annonce-refuser-l-argent-de-google_6230449_3234.htm

    « #Mediapart considère que le principe de cette compensation financière (…) est juste », mais « une condition incontournable pour notre journal n’a pu être arrachée : la transparence sur le contrat signé et ses modalités d’application », relève Carine Fouteau dans un article publié sur le site.

    #droits_voisins

  • The Man Who Killed Google Search
    https://www.wheresyoured.at/the-men-who-killed-google

    La charge est sévère...
    Emmerdification de Google par le menu.

    These emails are a stark example of the monstrous growth-at-all-costs mindset that dominates the tech ecosystem, and if you take one thing away from this newsletter, I want it to be the name Prabhakar Raghavan, and an understanding that there are people responsible for the current state of technology.

    These emails — which I encourage you to look up — tell a dramatic story about how Google’s finance and advertising teams, led by Raghavan with the blessing of CEO Sundar Pichai, actively worked to make Google worse to make the company more money. This is what I mean when I talk about the Rot Economy — the illogical, product-destroying mindset that turns the products you love into torturous, frustrating quasi-tools that require you to fight the company’s intentions to get the service you want.
    Heroes and Villains

    Ben Gomes is a hero. He was instrumental in making search work, both as a product and a business, joining the company in 1999 — a time long before Google established dominance in the field, and the same year when Larry Page and Sergey Brin tried to sell the company to Excite for $1m, only to walk away after Vinod Khosla (an Excite investor and the co-founder of Sun Microsystems) lowballed the pair with a $750,000 offer.

    In an interview with FastCompany’s Harry McCracken from 2018, Gomes framed Google’s challenge as “taking [the PageRank algorithm] from one machine to a whole bunch of machines, and they weren’t very good machines at the time.” Despite his impact and tenure, Gomes had only been made Head of Search in the middle of 2018 after John Giannandrea moved to Apple to work on its machine learning and AI strategy. Gomes had been described as Google’s “search czar,” beloved for his ability to communicate across departments.

    Every single article I’ve read about Gomes’ tenure at Google spoke of a man deeply ingrained in the foundation of one of the most important technologies ever made, who had dedicated decades to maintaining a product with a — to quote Gomes himself — “guiding light of serving the user and using technology to do that.” And when finally given the keys to the kingdom — the ability to elevate Google Search even further — he was ratfucked by a series of rotten careerists trying to please Wall Street, led by Prabhakar Raghavan.

    #Google #Search_engine #Histoire_numérique

  • #Organic_Maps, une alternative à #google_maps :

    Organic Maps est un #logiciel_libre de #cartographie et de navigation utilisable #hors-ligne et basé les données cartographiques d’#OpenStreetMap. Il se base uniquement sur des données vectorielles pour le rendu des objets et permet un rendu 2D ou 3D temps réel. Il s’adapte au logiciel de synthèse vocale disponible du système d’exploitation sur lequel il tourne. Il est disponible pour Android et GNU/Linux et iOS. Il s’agît à l’origine d’un fork de #Maps.me, fait par ses propres développeurs.

    https://fr.wikipedia.org/wiki/Organic_Maps

    #offline #off-line #OSM #marche #vélo #app

  • « No Tech For #Apartheid » : chez #Google et #Amazon, la fronde grandit contre un partenariat avec Israël
    https://www.rfi.fr/fr/technologies/20240417-no-tech-for-apartheid-chez-google-et-amazon-la-fronde-grandit-contre-un

    En 2021, le ministre des Finances israélien annonce la signature avec Amazon et Google d’un contrat faramineux de 1,2 milliard de dollars en échange de l’installation de centres de données régionaux en Israël, assortie de l’utilisation de ses services d’intelligence d’artificielle et de sauvegarde dans le cloud.

    À l’époque déjà, de nombreux employés émettent de vives inquiétudes quant à ce contrat. Une première tribune signée par des employés de Google et Amazon avait été publiée par le Guardian en octobre 2021 pour dénoncer le « projet Nimbus » et la « vente d’une technologie dangereuse à l’armée et au gouvernement israélien » qui pourrait permettre « une surveillance massive des Palestiniens et une collecte de données illégale », notamment en matière de reconnaissance faciale.

    Mais la pression est encore montée d’un cran le 4 mars dernier. Un jeune ingénieur de Google, portant un tee-shirt siglé du slogan « No Tech for Apartheid » a interrompu une conférence sur la tech israélienne se tenant à New York et sponsorisée par le moteur de recherche en criant devant le public : « Je suis ingénieur logiciel chez Google et je refuse de créer une technologie qui alimente un génocide, l’apartheid ou la surveillance ». Le jeune homme de 23 ans est alors évacué manu militari de la salle. Trois jours plus tard, il est convoqué par ses supérieurs et licencié par Google.

  • Sur Google, les résultats de recherche sont-ils vraiment de plus en plus mauvais ?
    https://www.lemonde.fr/pixels/article/2024/03/11/sur-google-les-resultats-de-recherche-sont-ils-vraiment-de-plus-en-plus-mauv

    DécryptageDepuis plusieurs années, des internautes se plaignent de la qualité des réponses apportées par le moteur de recherche le plus utilisé du monde. Si la société se défend d’une dégradation de ses services, elle fait néanmoins face à de nombreuses tentatives de manipulation de ses résultats, accélérées par l’arrivée de l’intelligence artificielle.

    Ce n’est pas tous les jours que Google fait une telle annonce. Le géant du Web a présenté, mardi 5 mars, plusieurs modifications faites à son algorithme qui organise les résultats de son moteur de recherche. L’objectif : « Nous aider à réduire la quantité de contenus qui ne sont d’aucune aide et qui sont de mauvaise qualité, et à augmenter le nombre de résultats utiles », explique au Monde Elizabeth Tucker, directrice produit du moteur de recherche.

    Sans les mentionner, la firme de Mountain View semble tenter d’apporter des réponses aux critiques, qui, depuis des mois, voire des années, se demandent pourquoi les résultats proposés sont de moins en moins bons. A l’image de ce journaliste de NBC qui se demandait, le 24 février, si « quelqu’un en a eu enfin assez et a abandonné Google ».

    #Google #SEO #Contenu_Web