• Google’s deal to avoid ‘journalism usage fee’ puts taxpayers on hook - Los Angeles Times
    https://www.latimes.com/california/newsletter/2024-08-30/california-struck-a-deal-with-google-to-fund-local-journalism-journalists-a

    Good morning. It’s Friday, Aug. 30. Here’s what you need to know to start your day.

    Why journalists aren’t fans of the deal California struck with Google.
    Michigan surpassed California as the largest cannabis market in the country.
    How to choose the best Hollywood studio tour for you.
    And here’s today’s e-newspaper

    Google and California reach agreement on funding newsrooms. Is it enough?

    A state bill with bipartisan support that aimed to throw a lifeline to California’s struggling news industry is no more.

    In place of the proposed “journalism usage fee” levied on Google and Meta annually to help fund local newsrooms, state officials announced a nearly $250-million public-private partnership wherein Google would pay a fraction of what they might have owed under the proposed law.

    The agreement would also put state taxpayers on the hook for tens of millions. Meta, which owns Facebook and Instagram, is not part of the deal and state lawmakers are not currently pursuing one with them.

    The proposed deal has torn wider the rift between lawmakers, legacy publishers, smaller digital outlets and the labor groups that represent the state’s journalists, which called the outcome a “shakedown,”
    A man looks at a newspaper
    A pressman looks over a paper for possible print corrections at the Los Angeles Times Olympic Printing Plant on February 15, 2024. The plant closed in March.
    (Genaro Molina / Los Angeles Times)

    What happened?

    The California Journalism Preservation Act, introduced last year by Assemblymember Buffy Wicks (D-Oakland), received wide support in the state legislature and was modeled off similar fee structures developed in Australia and Canada.

    Supporters pointed to the “vise grip” the tech giants have on digital advertising, arguing that Google and Meta swallowed up billions in ad revenue many publications rely on to fund their journalism.

    State Sen. Steve Glazer introduced a related proposal this year, seeking to charge Big Tech a “data extraction mitigation fee” that would fund tax credits for news organizations to hire more reporters.

    Full transparency: Clearly I and fellow L.A. Times journalists have a stake in these efforts. Our unit is part of the Media Guild of the West, which represents hundreds of state news workers and endorsed both bills.

    Meta and Google opposed the bills, funding a major ad campaign (you may have seen it during the Olympics) and threatening to pull news content from their platforms. Meta actually did that in Canada rather than pay news organizations.

    Wicks told me uncertainty had grown in recent weeks about whether Gov. Gavin Newsom would sign her bill. She also worried it could face years of legal challenges. She said her options were: “this or nothing.”

    “From my perspective, this deal that we landed is the largest deal that we were going to get for today,” she said.

    What’s in the deal?

    The state would establish a nonprofit News Transformation Fund, to be administered by UC Berkeley’s School of Journalism.

    Google would pitch in nearly $173 million over five years, according to a framework document shared by Wicks’ office. But the majority of the company’s contributions would not go directly to fund local newsrooms.

    Under the five-year framework, Google would pay:

    $55 million into the journalism fund, $15 million of that in the first year
    A separate $50 million to boost funding for the company’s existing journalism programs
    Google would also funnel nearly $68 million into a separate fund for artificial intelligence research, including a “National AI Accelerator.”

    Details of that AI research are vague and were not part of Wicks’ initial bill. She said the goal would be to “create tools that actually help and augment [but] not replace or replicate journalism.”

    California (aka taxpayers) would pay $70 million into the journalism fund — $30 million in 2025 and $10 million each of the following four years — into the journalism fund. No public dollars will go toward AI development, Wicks emphasized. The framework states that investments could increase based on available state and private funds.

    The agreement is not a tax on Google, has no enforcement mechanism and only outlines funding for five years. And it appears Google’s contributions to the journalism fund would be tax deductible, according to Wick’s office.

    In contrast, Canada’s government passed a law last year under which Google agreed to pay news organizations there $74 million U.S. dollars every year, with no term limit.

    Sen. Glazer released a statement calling Google’s contributions “completely inadequate” and said the agreement “seriously undercuts our work toward a long term solution to rescue independent journalism.”

    ‘A huge missed opportunity’

    While Wicks, Newsom, Google executives and the state’s publishing lobby lauded the agreement, many organizations that represent California journalists are not happy.

    Media Guild of the West blasted the agreement, saying worker groups were cut out of an “undemocratic and secretive deal.”

    “The future of journalism should not be decided in backroom deals,” media labor leaders wrote in a joint letter to state lawmakers. “The Legislature embarked on an effort to regulate monopolies and failed terribly. Now we question whether the state has done more harm than good.”

    Wicks did not address why news workers unions were not involved in the final deal, but contended the California News Publishers Association is the key player in state policy related to publishing issues and was best positioned to negotiate with Google.

    For tech writer Brian Merchant, the deal “represents a huge missed opportunity to meaningfully claw back some of the power that tech monopolies like Google and Facebook have solidified over our information ecosystem.”

    Merchant is a former columnist for The Times and author of “Blood in the Machine,” which chronicles the 19th century Luddite movement and traces it to the growing pushback on Big Tech today (he also writes a newsletter by the same name).

    He pinned the fate of Wicks’ bill on Newsom’s “cold political calculus.”

    “Google is a major power broker in Silicon Valley and in California, and Gavin Newsom did not want to pick a fight with them at this point in time,” Merchant said. “He would rather not alienate … Silicon Valley and its prospective donor base than come out swinging to try to save California’s news industry.”
    A protester holds a picket sign
    Members of the community fill De La Guerra Plaza in front of the Santa Barbara News-Press newspaper’s office during a rally on July 18, 2006. The Pulitzer Prize-winning Santa Barbara News-Press, one of California’s oldest newspapers, ceased publishing after its owner declared the 150-year-old publication bankrupt.
    (Michael A. Mariant / Associated Press)

    What will this mean for the state’s struggling newsrooms?

    The deal still needs to be approved by the state legislature and there are a lot of unknowns — including how much money each news publication would receive through the distribution formula outlined in the deal.

    Wicks called the agreement “a down payment” and expressed hope that it represents “the floor, not the ceiling” in an ongoing effort to get Big Tech to pay news publishers their fair share.

    But Merchant believes the “toothless deal” won’t achieve anything meaningful, other than “continuing the race to the bottom that these tech companies set in motion.”

    “Google is going to continue to capture an outsized share of the ad market, buffeted by the work that human creators produce,” he said. “It will put more AI in play that could potentially serve as a direct competitor to some of the remaining journalists out there, lowering the quality of actual human-collected news.”

    This all comes as the industry continues a decades-long decline, with fewer reporters in hollowed-out newsrooms as subscriptions and web traffic dip. When communities don’t have rigorous news media keeping tabs on people with power, corruption and misinformation can flourish. Residents — often marginalized to begin with — are the ones who pay the price.

    The best way to support the local journalism that you value is with a paid subscription or donation. Maybe that’s The Times or maybe it’s one of the hundreds of other print and digital publications across the state that help you understand the challenges and triumphs of your community and the forces that shape it.

    #Journalisme #Californie #Google #Financement #Publicité

  • #Typst

    Typst est un #logiciel d’#écriture et d’#édition_scientifique créé par Martin Haug et Laurenz Mädje. Il existe sous la forme d’un éditeur collaboratif en ligne avec un accès gratuit et des fonctionnalités payantes (un peu comme #Authorea), ainsi que sous la forme d’un programme en ligne de commande, pour un usage local. On peut trouver en ligne le code et une documentation détaillée.

    Je suis frappé par la vitesse avec laquelle les deux créateurs ont transformé leur projet de fin d’études en entreprise. Le marketing est plutôt malin, on situe tout de suite Typst par rapport à #Word, #Google_Docs et #LaTeX. À noter que Pandoc a très vite développé une compatibilité avec ce nouvel outil. Typst suscite clairement de l’enthousiasme dans une communauté fatiguée par des outils mal adaptés à ses besoins. Un sentiment d’efficacité se dégage de l’ensemble du projet, et on sait combien c’est important quand il s’agit de convaincre les gens de transformer leurs pratiques. Mais il reste à tenir certaines promesses, en premier lieu sur l’accessibilité des PDF : Typst a été présenté comme une amélioration possible à TeX sur ce point, or deux ans après ce n’est toujours pas le cas.

    Je n’ai pas encore essayé l’outil. Mais pour les curieux, le mémoire de Laurenz Mädje décrit la genèse de Typst, et j’y ai relevé plusieurs éléments que je partage ci-dessous.

    Pour justifier d’investir des efforts dans la création d’un nouvel outil d’écriture et d’édition scientifique, Mädje analyse les défauts de #TeX avec des mots qui frappent juste :

    « La conception datée de TeX entrave fondamentalement l’expérience utilisateur » (p. 7) […] « la compilation est lente, l’accessibilité est mauvaise, et les possibilités de mise en page sont limitées » (p. 13).

    Les deux logiciels appelés Typst – l’éditeur en ligne et le compilateur en ligne de commande – reposent sur un langage de programmation du même nom, qui s’écrit en partie comme un langage de balisage léger, proche de #Markdown :

    « Typst, c’est à la fois un langage de balisage léger et un langage de programmation complet, réunis en une seule syntaxe, au format texte » (p. 7) […] « Intégrer stylage et programmation rend la mise en forme plus simple et plus souple » (p. 68).

    C’est donc un vrai système de #programmation_éditoriale, ce qui me rappelle #Pollen, sur lequel j’avais publié une note de veille. L’intégration entre balisage et programmation existait déjà dans l’écosystème TeX avec #LuaTeX mais l’avantage de Typst est d’avoir repris la conception du système à zéro : en théorie, cela devrait permettre de développer rapidement un catalogue de fonctionnalités modulaires, comme les paquets de TeX, sur une base plus saine.

    J’ai aussi relevé quelques concepts utiles, comme le couple balisage procédural – qui indique à l’ordinateur comment procéder – et balisage descriptif – qui décrit à l’ordinateur la structure du document. Mädje souligne que le #balisage_descriptif convient particulièrement à l’édition multiformats car il permet de changer de styles sans modifier le contenu. Il distingue trois catégories de langages de balisage descriptif, suivant qu’ils sont basés sur des tags, des macros ou des caractères. La phrase “The line between data and markup is fuzzy” (p. 16) a particulièrement retenu mon attention : elle suggère que le texte, c’est de la donnée  ; et surtout, que le balisage, c’est déjà un peu de la sérialisation.

    Enfin, j’ai relevé cet argument pro-balisage (ou #anti-WYSIWYG, comme on veut) dans la conclusion :

    « Les langages de balisage ont un avantage concret sur les systèmes de composition #WYSIWYG : ils permettent aux auteurs de définir la structure du document indépendamment de son apparence et de passer automatiquement de l’une à l’autre  ; cela donne une meilleure expérience d’écriture, avec moins de travail répétitif » (p. 71).

    https://www.arthurperret.fr/veille/2024-08-29-typst.html

    #alternative

    • C’est le faute à ce que je viens de voir Late Night With the Devil (2024), dans lequel le personnage de Carmichael Hunt est une référence assez transparente à James Randi.
      https://www.youtube.com/watch?v=cvt-mauboTc

      Et puisque tout le monde me demande mon avis : c’est un sympathique film d’horreur d’ambiance, censé se dérouler en 1977, dont j’ai bien apprécié la tension croissante jusqu’au dénouement final.

  • Voir la France en train

    Les cartes de la France et de ses régions invisibilisent le train. C’est pourtant le moyen de transport longue distance le plus important des prochaines décennies.

    Observez les deux cartes suivantes : les deux représentent l’hexagone, mais saurez-vous trouver la différence principale ?

    La première, nous la connaissons bien : c’est Google Maps, la reine de la cartographie depuis 15 ans.

    Google a fait le choix, comme Apple, Mappy, Viamichelin ou encore OpenStreetMap.org, de montrer une vision cartographique du monde où le train n’existe pas... en tout cas pas au niveau de zoom des pays, qui met donc en valeur la voiture et seulement la voiture.

    La France autoroutière

    C’est un choix politique conservateur.

    Motivé par l’absence du train dans les modes de déplacements des États-Unis (pour rappel, Elon Musk a contribué à tuer le projet de LGV californienne en proposant volontairement son projet fantasque hyperloop), où sont développés #Google et #Apple_Maps.

    Mais un choix qui aussi le reflet d’une volonté de ne pas brusquer l’automobiliste, car même dans les pays européens, l’autoroute domine le rail d’un facteur 10 à 20 en 2023.

    Google et Apple n’ont en fait rien changé à la #vision_cartographique du monde depuis 1990 (35 ans !), l’époque de la voiture reine, l’époque de l’insouciance climatique, energétique, géopolitique.

    #Michelin est un vendeur de pneus. Qu’ils vendent des cartes routières est tout à fait logique.

    On ne peut pas en dire autant de l’#IGN, agence publique ayant pour mission d’assurer la production, l’entretien et la diffusion de l’information géographique de référence en France.

    Qu’il s’agisse de la carte en ligne ou les fameuses cartes papier de randonnée, la voiture et les autoroutes cadrent le paysage français.

    Mettre le train au #premier_plan

    Pourtant, le TGV explose régulièrement ses records de trafic. Et surtout : le respect de l’engagement climatique et énergétique nous impose de faire du rail l’infrastructure prioritaire, dès maintenant.

    Sur #Cartes, nous vous présentons donc le premier plan vectoriel de l’hexagone intégré sur une carte généraliste en ligne. Où les autoroutes sont remplacées par le magnifique réseau ferré de notre hexagone et des pays voisins.

    Les deux captures suivantes montrent qu’à l’échelle régionale, la carte d’Apple cette fois-ci, adopte également une vision 100 % auto-centrée : le rail n’existe toujours pas !

    Sur Cartes, les routes nationales apparaissent au côté du rail : plus l’échelle du déplacement est petite, plus il faut mettre en avant les infrastructures adaptées aux dernières dizaines de kilomètres.

    Une nouvelle ère pour l’information voyageur

    Cette 1ère version des cartes vectorielles auto-hebergées sur le serveur du projet Cartes est imparfaite : les LGV ne sont pas encore mises en avant ; c’est une carte du rail, pas de l’offre voyageur, or on sait bien que contrairement à la liberté de la voiture l’offre voyageur contraint fortement le train ; certaines portions sont actuellement représentées de façon trop complexe avec un dédoublement des voies (exemple : la vallée du Rhône), ce qui produit des cartes plus lourdes et moins lisibles.

    À terme, il y a de fortes chances qu’à haut niveau de zoom, c’est l’offre voyageur qui sera mise en avant, basée sur les horaires et trajets effectif du moment, pas les méandres du réseau ferré français.

    Sans aucun doute, Cartes sera rejointe par d’autres acteurs avec l’ambition d’informer les voyageurs sur le mode de transport à la fois le plus écologique et le plus économique dès qu’une liaison sans trop de détour existe. Rappelons-le : 60 % des Français vivent à moins de 20 minutes à vélo d’une gare principale.

    L’IGN, par exemple, a montré récemment de nouvelles ambitions : cartes de l’anthropocène qui actent les bouleversements en cours, nouvelle application mobile pour concurrencer les GAFAMs. Gageons que le voyage en train sera l’une de ces nouvelles priorités pour le XXIème siècle.

    Montrer les défauts pour les corriger

    Par le passé, l’ensemble de la France était maillé. En explorant la carte, vous verrez les nombreuses indirections entre les grandes villes de France, qui provoquent des trajets lents, détournés par Paris et donc souvent irréalistes.

    Montrer le rail au premier plan, c’est aussi montrer les défauts du réseau ferré national, pour les corriger. D’urgence.

    https://cartes.app/blog/plan-sncf
    #voiture #train #cartographie #visualisation #France #choix #invisibilisation #transports_publics #choix_cartographique #représentation #réseau_ferroviaire #réseau_routier
    #ressources_pédagogiques #transport
    ping @reka @visionscarto

  • Extinction Rebellion Ireland warns new #Google data centre will be met with ’massive pushback’

    Extinction Rebellion Ireland (ERI) has warned that if a planned new Google Ireland #data_centre gets the planning go-ahead for south Dublin “it will be met with massive local and national pushback and action”.

    In an objection against the planned new data centre expansion by Google Ireland for Grange Castle Business Park in south Dublin, Emer Connolly of Extinction Rebellion Ireland has told the Council: “This expansion is a disaster for local communities, water shortages, transition to a more sustainable economy, and reaching our climate targets.

    Ms Connolly states that “if this planning goes through, it will be met with massive local and national pushback and action”.

    She said: “Environmental groups are watching closely and won’t let this go through easily.”

    In a separate submission, An Taisce has warned that planning for the data centre "would further compromise our ability to achieve compliance with our carbon budget limits and would put additional pressure on renewables capacity to deal with the significant additional power demand”.

    The scheme is the third phase of the Google Ireland data centre campus at Grange Castle Business Park and will involve the creation of 800 construction jobs and 50 jobs when operational.

    The new 72,400 square-metre data storage facility data centre will involve the construction of eight data halls on a 50 acre greenfield/brownfield site.

    However, in the eight-page submission, An Taisce’s Planning Officer, Sean O’Callaghan states that the proliferation of data infrastructure has largely gone unchecked, and data centres now consume 21 per cent of Ireland’s total metred electricity.

    He said that this is up from 5% in 2015 and represents more electricity use than all urban households in Ireland combined.

    Mr O’Callaghan has stated that the planned data centre will put great pressure on an already strained electricity grid in the Dublin region, particularly in light of the large number of existing and proposed data centres already in the area.

    Mr O’Callaghan stated that a projected increase of 0.44 per cent in national emissions from the project "is entirely incompatible with our obligations to reduce emissions”.

    Mr O’Callaghan states: "Also, we consider an increase in national emissions of almost half a percentage point as a result of one singular development to be very significant.”

    He said that granting development consent for the data centre, on its own terms and when considered cumulatively with the high concentration of other data centres, “would greatly risk Ireland’s ability to meet carbon budget and sectoral emissions ceiling obligations for the electricity sector”.

    Head of Policy at Friends of the Earth, Jerry MacEvilly has called on the Council to reject the planning application.

    Mr Mac Evilly states “our concern is that the proposed development would actively undermine the achievement of the state’s carbon budget programme”.

    Dr Colin Doyle has told the council that claims of commitment by Google and Google Ireland Ltd “to decarbonisation amount to greenwashing”.

    He said: “The claims are all based on purchase of renewable electricity. While these purchases can be reported in corporate Green House Gas (GHG) accounting systems, they do not mitigate or offset in any way the physical additional GHG emissions caused by Google’s activities in Ireland.”

    In a separate submission, Gino Kenny TD (People Before Profit Solidarity) along with party colleagues, Cllr Madeleine Johansson and Cllr Darragh Adelaide have told the council that the development “would have an adverse impact on the local community, the electricity grid and on Ireland’s carbon emissions”.

    Raising concerns about possible black-outs in the area from data centre development, the three state that “Grange Castle has seen a significant number of data storage developments, some of which have not yet started operating, and we would be extremely concerned about the capacity of the electricity grid at this time to cope with any further developments”.

    A decision is due on the application later this month.

    https://www.breakingnews.ie/ireland/extinction-rebellion-ireland-warns-google-data-centre-will-be-met-with-
    #Irlande #data_center #résistance #environnement #Grange_Castle_Business_Park

  • 3 New AI Features Rolling out to Chrome Users on Linux
    https://www.omgubuntu.co.uk/2024/08/google-chrome-new-ai-features

    Google has announced a clutch of new AI-powered features have begun rolling out to users of Chrome on Windows, macOS, and —for once!— Linux. Chrome’s Vice President Parisa Tabriz unveiled the trio of AI features, which are all powered by the latest Google #Gemini AI models, on The Keyword blog today, saying: – We’re making it even easier to search what you see with the power of Google Lens, compare products across multiple tabs and rediscover sites from your browser history, whether you’re at home or at work. Google’s Parisa Tabriz As of writing only one of these features (Google Lens) is […] You’re reading 3 New AI Features Rolling out to Chrome Users on Linux, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #AI/ML #Google_Chrome

  • Looking to drop Google? Here are the best #Google_Maps alternatives for finding your way.

    With a number of community driven, open source mapping projects picking a navigation app without ads or tracking has never been easier.

    It has never been easier to visit a bustling unknown city or finding a hidden restaurant with the rise of Google Maps. This ease of navigation has not come without a price, that being the erosion of our privacy.

    https://tuta.com/blog/google-maps-alternatives-foss
    #alternatives #alternative #cartographie #app #smartphone #OsmAnd #Organic_Maps #Locus_Maps #OSM #Open_street_map #navigation #offline

    • Je découvre que pour l’Allemagne FALK est une solution intéressante aussi.
      https://www.falk.de

      Pour le monde entier il n’y a que des cartes qu’on trouve aussi ailleurs, mais pour les grande villes allemandes on peut choisir la version en ligne des excellentes cartes Falk qui ont fait la fortune du fondateur des éditions.

      Les informations sur Paris sont drôles :

      Neben bekannten Sehenswürdigkeiten hat Paris auch für Genussfreunde einiges zu bieten. So wird das La Coupole (Boulevard du Montparnasse 102, 75014 Paris) von Einheimischen gerne für eine leckere Mahlzeit ausgewählt. Aber auch viele weitere Lokale werden gerne empfohlen.

      Ah, mon pote, 15 heures à la Coupole, comme tous les jours après la boulot ?

      Leben wie Gott in Frankreich !

      Falk (Verlag)
      https://de.wikipedia.org/wiki/Falk_(Verlag)


      Wikipedia raconte la fascinant histoire des cartes et de la maison d’édition Falk qui depuis le 30.8.2012 fait partie de l’empire MairDumont.

  • Big Tech Consolidation Amplified the CrowdStrike Outage
    https://jacobin.com/2024/07/crowdstrike-microsoft-big-tech-consolidation

    21.7.2024 by Freddy Brewster, Lucy Dean Stockton , Katya Schwenk, Helen Santoro - On Friday, an update to a cybersecurity program took down Microsoft systems across the globe. Microsoft has resisted efforts to regulate a root cause of this chaos: the concentration of digital infrastructure in the hands of a few tech giants.

    A little more than a year before Microsoft’s systems crashed on Friday, creating global chaos in the banking, airline, and emergency service industries, the company pushed back against regulators investigating the risks of a handful of cloud services companies controlling the world’s technological infrastructure, according to documents we reviewed.

    “Regulators should carefully avoid any intervention that might disturb the competitive offerings that have promoted the explosive innovation and growth attributable to the cloud,” the company wrote in response to the Federal Trade Commission’s 2023 review of cloud computing companies’ security practices and interoperability protocols.

    The agency questioned whether these companies “invest sufficient resources in research and development” of systems upon which the economy and government rely.

    Microsoft is blaming this week’s global cloud outages on an update from CrowdStrike, a cybersecurity firm whose software protects against hacks. The debacle comes two days after federal agencies released new guidance sounding additional alarms that Big Tech’s consolidation of cloud services could put consumers at serious risk. It also comes one day after Microsoft’s cloud services experienced a separate outage in certain parts of the United States.

    “This is a CrowdStrike-caused outage. It would be inaccurate to report this as a Microsoft outage,” the company said in a statement. “A CrowdStrike update was responsible for bringing down a number of IT systems globally. We are actively supporting customers to assist in their recovery.”

    CrowdStrike did not respond to a request for comment.

    “All too often these days, a single glitch results in a system-wide outage, affecting industries from healthcare and airlines to banks and auto-dealers,” posted Lina Khan, Federal Trade Commission chairwoman, whose agency spearheaded the probe of the cloud computing industry. “Millions of people and businesses pay the price. These incidents reveal how concentration can create fragile systems.”

    At the root of the problem, regulators and researchers say, is Big Tech’s consolidation of cloud services, a technology that allows consumers to store computer information in massive data centers rather than storing it on-site. Just three companies — Amazon, Microsoft, and Google — control 65 percent of the cloud market, according to a report released on July 18 by CloudZero, a cost management platform.

    Microsoft and CrowdStrike also dominate the end point security market, which ensures cybersecurity for devices like desktops, laptops, and mobile devices. As of 2022, the two companies controlled more than 30 percent of the market.

    This consolidation helped allow a simple error to spiral on Friday.

    “We had this cascading failure of all of these businesses, banks, the London Stock Exchange, all of these airlines had to be grounded, because of this one mistake,” said Zane Griffin Talley Cooper, a researcher at the University of Pennsylvania studying digital infrastructure. “And it’s because the internet has become so centralized in the hands of four or five big companies.”

    “With that model, catastrophic failures like this are going to be increasingly common,” he added.
    Regulatory Scrutiny Intensifies

    In March 2023, the Federal Trade Commission announced a wide-ranging survey of the business practices of cloud providers. The agency looked at “market power, business practices affecting competition, and potential security risks,” soliciting comments from companies and the public.

    In its response to the Federal Trade Commission’s probe, Microsoft claimed the marketplace for cloud services remains robust, and warned that regulations may affect “billions of dollars” in investments.

    The company also suggested that the Federal Trade Commission’s intervention would “run the risk of impacting the quality of these solutions and the pace of innovation, and ultimately disadvantaging American companies on the global stage,” Microsoft wrote.

    Public Citizen, a consumer advocacy nonprofit, warned the Federal Trade Commission in 2023 that the market dominance of Amazon, Microsoft, and Google over the cloud services sector is a threat to the economy.

    “Single point dependency on a cloud provider is a structural weakness for the entire economy with the potential to cause more consumer harm in the future,” the group wrote in June 2023.

    On Wednesday — just two days before the global outage — the Department of the Treasury, along with the Consumer Financial Protection Bureau and other federal agencies, cautioned that the industry’s deep reliance on a small handful of cloud service providers left it vulnerable to widespread outages and disruptions.

    The Treasury also released a suite of guidance for banks and financial institutions, following its report from last February that raised an alarm about the potential risks of the highly consolidated market. The report advised that a failure like the one on Friday “could impact multiple financial institutions or U.S. consumers,” and recommended additional oversight, like inspecting third-party service providers.

    The Consumer Financial Protection Bureau’s chief, Rohit Chopra, said on Friday that the failures are just a glimpse of the havoc that could be wreaked by this kind of outage in the financial sector. His agency has warned that in the future, such events could further “freeze parts of the payments infrastructure or grind other critical services to a halt.”

    “There are just a handful of big cloud companies where so much of the economy is now resting on,” Chopra said on CNBC. “We’re getting a taste of some of the potential effects of a real reliance of sectors across the economy relying on a handful of cloud companies and other key systems.”

    Friday’s outage was just a preview, he said, of what could go wrong in extreme cases of corporate consolidation and deregulation.

    “Break Up This Cloud Consortium”

    First reports of the outage surfaced early Friday morning, as computers running on Microsoft’s Windows operating system went down all at once. The issue traced back to a system update that was pushed by a company called CrowdStrike, a cybersecurity provider that is used to protect against hackers in a wide range of sectors, from airlines to banking — and was previously known for its involvement in the 2016 investigation into Russia’s hack of the Democratic National Committee.

    CrowdStrike quickly said it had identified the problem with the update and began pushing a solution, but added that the fixes could take hours.

    “We are aware of this issue and are working closely with CrowdStrike and across the industry to provide customers technical guidance and support to safely bring their systems back online,” Satya Nadella, Microsoft’s CEO, posted on X.

    Microsoft, which was one of the early pioneers of cloud computing software, controls a staggering 85 percent of federal productivity software, and even more of its operating system.

    Yet the Big Tech giant has a history of pushing back against cybersecurity measures. In 2016, the Federal Reserve, the Office of the Comptroller of the Currency, and the Federal Deposit Insurance Corporation released a joint rulemaking notice regarding the need for increased regulations on “enhanced cyber risk management standards for large and interconnected entities.”

    The proposed rule would have “significant consequences not only for the financial services industry but also for third-parties like Microsoft,” the company wrote in a comment letter. It also raised concerns about the new rules, and added that cloud service providers offer better service and cybersecurity than traditional on-site storage centers.

    The rule was withdrawn in March 2019.

    Agencies and Congress have repeatedly tried and failed to strengthen cybersecurity regulations. Within the past three years, lawmakers have introduced at least four legislative initiatives to address these concerns, though none have been adopted so far.

    This February, the federal Cybersecurity and Infrastructure Security Agency also announced it was renewing a task force charged with managing risks to the global information and communications technology supply chain, crucial for protecting computer hardware, software, and applications.

    The companies themselves were seemingly aware of the potential threat caused by an overreliance on cloud-based systems.

    In a 2023 comment letter to the Consumer Financial Protection Bureau about a proposed rulemaking to tighten personal data restrictions, CrowdStrike — the cybersecurity company responsible for Friday’s data breach — argued that the biggest risk to cybersecurity was not software supply chain issues, but hackers.

    “It is our view that perhaps the most significant threat to data comes from bad actors operating unlawfully, leading to data breaches, cyberattacks, exploits, ransomware attacks and other exposure of consumer data,” CrowdStrike wrote.

    CrowdStrike echoed their concerns about the dangers of hackers and resulting system failures in their most recent annual 10-K report. The company told investors that the “consolidation of siloed products” was a concern because “integrating and maintaining numerous products, data and infrastructures across highly distributed enterprise environments” created “blind spots that hackers can exploit.”

    Microsoft, in its 2023 annual report to shareholders, also expressed that “providing [their] customers with more services and solutions in the cloud puts a premium on the resilience of [their] systems.”

    But the companies have worked hard to keep regulators from taking steps to address these risks.

    Microsoft is one of the country’s top spenders on lobbying, ranking in the top one hundred of corporations. So far this year, the company spent more than $5 million on campaign donations and lobbying lawmakers and regulators. Microsoft lobbied Congress, the Federal Trade Commission, the Treasury Department, the Executive Office of the White House, and other regulators on “policy issues in cloud computing,” among other issues, disclosures show.

    “What we really need,” said Cooper, the University of Pennsylvania researcher, “is regulators to break up this cloud consortium of four or five companies and help distribute management of the internet backbone through a host of different companies.”

    Contributors

    Freddy Brewster is a freelance reporter and has been published in the Los Angeles Times, NBC News, CalMatters, the Lost Coast Outpost, and other outlets across California.

    Lucy Dean Stockton is the news editor at the Lever.

    Katya Schwenk is a journalist based in Phoenix, Arizona.

    Helen Santoro is a journalist based in Colorado.

    #capitalisme #informatique #internet #nuage #sécutité #GAFAM #cloud_computimg #monopoles #Microsoft #Amazon #Google

  • Radio Canada Des entrepreneurs dénoncent une mise à jour « catastrophique » de google Philippe de Montigny - Marjorie April

    Des entrepreneurs et des créateurs web constatent une chute vertigineuse de l’achalandage de leurs sites et de la découvrabilité de leurs contenus depuis de récentes mises à jour des algorithmes de google.

    Depuis ces mises à jour, Béatrice Bernard-Poulin dit avoir perdu environ 75 % du trafic organique sur son blogue. La majorité de l’achalandage sur son site web provenait de google, qui est de loin le moteur de recherche le plus populaire du monde. “Je n’avais pas réalisé que j’étais autant dépendante de google”, dit-elle.


    Son blogue Béatrice comprend une panoplie d’articles sur les finances personnelles et la consommation, ainsi qu’une boutique où elle vend des outils budgétaires numériques.

    Pour les revenus, ça a été pas mal catastrophique.
    Une citation de Béatrice Bernard-Poulin, entrepreneure, auteure et conférencière

    L’algorithme “contenu utile” (ou Helpful Content, en anglais), qui existe depuis deux ans, a été modifié en septembre dernier afin de privilégier les publications “qui apportent une réelle valeur ajoutée” aux internautes. À l’inverse, les contenus rédigés pour bien se classer dans les moteurs de recherche sont pénalisés.

    Béatrice Bernard-Poulin remet en question l’argument du contenu utile. Elle a remarqué, par exemple, que ses articles informatifs ont été relégués au bas des résultats de recherche — au profit de sites de voyagistes et de contenus commandités.

    Les réseaux sociaux lui ont servi à bâtir une communauté de lecteurs, mais l’entrepreneure s’est distanciée de certaines plateformes qui ont récemment ajouté des fonctionnalités payantes pour qu’elle puisse interagir avec ses abonnés.

    “Même si j’avais vécu des changements d’algorithme sur les médias sociaux avant, on dirait que je ne pensais pas nécessairement que c’était possible que google fasse un changement qui ait un impact de ce niveau-là”, dit-elle.

    “J’avais un peu mis tous mes œufs dans le même panier.”
    Béatrice Bernard-Poulin est conceptrice d’un blogue spécialisé en finances personnelles et d’une boutique en ligne où elle vend des outils budgétaires.

    La Montréalaise dit maintenant chercher un travail d’appoint pour lui permettre d’arrondir ses fins de mois. “Je vais continuer d’essayer de trouver une solution parce que je tiens à mon site web. Je crois qu’il est pertinent. Il aide les gens. Je reçois ces commentaires-là tous les jours”, affirme Béatrice Bernard-Poulin.

    “Mais je ne peux plus le faire à temps plein. Je dois aller me chercher un salaire ailleurs malheureusement”, dit-elle.

    Déjouer les algorithmes ?
    google a aussi complété le mois dernier une mise à jour majeure de ses algorithmes, qui lui permet de déceler plus efficacement des publications générées par l’intelligence artificielle et lutter contre le pollupostage, soit des contenus jugés de faible valeur.

    Résultat : de nombreux sites signalent une dégringolade massive dans le classement, alors que d’autres n’apparaissent plus du tout dans les résultats de recherche.

    Selon Stéphane Hamel, spécialiste en marketing numérique et chargé d’enseignement à l’Université Laval, le moteur de recherche lance un message clair : “Créez du contenu pour des humains, n’essayez pas de déjouer l’algorithme.”

    Ironiquement, google a annoncé mardi que les résultats de recherche apparaîtront dorénavant sous forme de réponses concoctées par son nouvel outil d’intelligence artificielle (IA) générative. Ces réponses automatisées paraîtront au-dessus des liens vers des sites web et des articles de nouvelles.

    Ce qui peut être frustrant, c’est que google décide unilatéralement de changer les règles du jeu.
    Une citation de Stéphane Hamel, spécialiste en marketing numérique et chargé d’enseignement, Université Laval

    google n’a pas donné suite à nos demandes répétées d’entrevue et de commentaires.

    Dans un article publié sur son blogue google Search Central (Nouvelle fenêtre), l’entreprise explique que l’objectif de sa mise à jour au début du printemps était “d’améliorer la qualité de la recherche en affichant moins de contenu qui semble avoir été conçu pour générer des clics, et plus de contenu que les internautes trouvent utile.”

    Son classement s’appuie dorénavant sur “divers signaux et systèmes”, précise google. “Aucun système unique n’est utilisé pour identifier les contenus utiles”, peut-on lire dans l’article.

    “Les entreprises qui se sont retrouvées à perdre du trafic organique peut-être vont être portées à augmenter leur budget au niveau de la publicité google, donc ça sert bien google”, affirme Stéphane Hamel.

    Il explique que l’entreprise donne des conseils vagues – sur l’utilisation d’hyperliens et de mots clés, par exemple – sans préciser concrètement ce qui influence le classement. “Ça, c’est leur recette secrète”, dit-il.
    L’expert dénonce le manque de transparence du géant américain. “Je pense que c’est malheureusement l’état de l’écosystème numérique dans lequel on est”, dit-il.

    “Tout ce que google conseille, je l’ai pratiquement fait. J’ai consulté des spécialistes qui n’arrivent pas non plus à mettre le doigt sur le problème exact”, affirme Jennifer Doré Dallas, qui a vu une baisse de plus de 60 % de l’achalandage sur son blogue de voyage depuis les changements d’algorithme.

    La créatrice de contenu dit avoir perdu “des milliers de dollars” par mois en commissions d’affiliation et en revenus publicitaires. Ses revenus de la plateforme de publicité Mediavine ont chuté d’au moins 40 %, souligne-t-elle.
    “C’est tout simplement comme si des années et des années de travail se sont effondrées”, affirme la conceptrice du blogue Moi, mes souliers.

    Comment s’adapter aux nouvelles règles ?
    Une entrepreneure torontoise dit avoir réussi à éviter la chute de trafic rapportée par d’autres créateurs de contenu.

    Karima-Catherine Goundiam, la fondatrice de la plateforme de réseautage pour entrepreneurs B2BeeMatch, affirme que l’achalandage de son site est demeuré relativement stable depuis ces récentes mises à jour. “En fait, on a eu une légère hausse de notre côté parce que, justement, nous avons refusé la pression de créer du contenu en masse”, explique-t-elle.

    Karima-Catherine Goundiam, fondatrice et PDG de B2BeeMatch, dit avoir travaillé fort pour optimiser son site afin qu’il demeure pertinent aux yeux du nouvel algorithme de google.

    En plus de favoriser des échanges entre chefs d’entreprise, investisseurs et jeunes pousses, le site propose des publications rédigées par son équipe, ainsi que du contenu créé par ses abonnés et révisé à l’interne.

    Karima-Catherine Goundiam dit avoir consulté des spécialistes en référencement afin d’optimiser sa découvrabilité dans les moteurs de recherche, sans toutefois suivre tous leurs conseils à la lettre. “C’est probablement ce qui nous a sauvés”, affirme la PDG de B2BeeMatch, qui souhaite assurer la pérennité de sa plateforme.

    Tout ce qui est référencement, ce ne sera jamais une science qui va vous être donnée et ce ne sera jamais final.
    Une citation de Karima-Catherine Goundiam, fondatrice et PDG de B2BeeMatch

    Pour aiguiller les créateurs de contenu, google les renvoie à une liste de questions (Nouvelle fenêtre) leur permettant d’évaluer la qualité de leurs publications, leur niveau d’expertise et l’expérience du lecteur sur leur page web.

    “Les systèmes de classement automatisé de google sont conçus pour inclure dans les meilleurs résultats de recherche des informations utiles et fiables, qui ont été créées pour aider les internautes et non pour améliorer le classement d’un site”, peut-on lire sur le blogue de l’entreprise.

    google, qui détient plus de 90 % du marché mondial des moteurs de recherche, fait d’ailleurs l’objet de poursuites aux États-Unis.

    Le géant américain est notamment accusé d’avoir abusé de sa position dominante, en signant des contrats illégaux avec Apple et Samsung pour que son application soit installée par défaut sur leurs téléphones intelligents. Un jugement est attendu au cours des prochaines semaines, ce qui pourrait forcer l’entreprise à se départir de certaines de ses activités ou à changer ses pratiques.

    Reste à voir si la question des algorithmes sera abordée dans la décision du tribunal. “Peut-être que ça va changer, mais ça risque de prendre beaucoup de temps”, estime Stéphane Hamel, de l’Université Laval.

    #créateurs_web #algorithmes #google #trafic #IA #hyperliens #référencement #internet #bigdata #domination #gafam

    Source : https://ici.radio-canada.ca/nouvelle/2072674/google-algorithme-mise-a-jour-trafic-web

  • google cloud supprime par erreur le compte du fonds UniSuper et prive 600.000 Australiens de l’accès à leurs pensions de retraite  Klara Durand - Le figaro

    Cette situation serait due à un « bug logiciel inconnu » entraînant la suppression de l’abonnement d’UniSuper au cloud de google.

    Imaginez que du jour au lendemain vous n’avez plus accès à votre compte épargne ou à votre pension de retraite. La situation serait un brin stressante les premières heures. Mais passé une semaine, il y aurait de quoi franchement s’inquiéter. Pourtant, c’est ce qu’ont vécu plus de 620.000 membres du fonds australien UniSuper dont les services ont soudainement été supprimés de la plateforme de stockage google cloud. Le résultat, d’après le GAFAM, d’« une mauvaise configuration sans précédent » et « unique en son genre » . Un demi-million de membres du fonds s’est donc retrouvé sans aucun moyen d’accéder à leur pension de retraite pendant le temps qu’a duré cet incident.

    Le PDG d’UniSuper, Peter Chun, a écrit mercredi soir aux adhérents, expliquant que la panne n’était le résultat d’aucune cyberattaque. L’homme d’affaires s’est voulu rassurant et a assuré qu’aucune donnée personnelle n’avait été volée à la suite de cette panne. En revanche, Peter Chun n’a pas manqué de pointer du doigt la responsabilité du service cloud de google. « C’est un événement sans précédent » , a reconnu, de son côté, le PDG de google cloud Thomas Kurian. « Cela n’aurait jamais dû arriver. »

    Un bug logiciel « inconnu »
    Plus précisément, cette situation aurait été provoquée par un « bug logiciel inconnu » entraînant la suppression de l’abonnement d’UniSuper au cloud privé de google et donc, à la disparition automatique de son compte et de ses services sur l’espace de stockage en ligne de google. « Cela n’aurait pas dû se produire. google a identifié les événements qui ont conduit à cette perturbation et pris des mesures pour s’assurer que cela ne se reproduise pas », ont assuré Peter Chun et Thomas Kurian dans une déclaration conjointe.

    En outre, le fonds de pension a joué de malchance. Alors qu’UniSuper a normalement mis en place une duplication de son compte dans deux zones géographiques, afin d’avoir un service de secours en cas de panne, la suppression de son abonnement à google cloud a aussi entraîné la suppression de ses services dans la zone géographique de secours.

    De quoi provoquer des sueurs froides à Peter Chun car UniSuper gère environ 125 milliards de fonds. L’Autorité australienne de régulation prudentielle (APRA) a également surveillé la situation lorsqu’elle a appris la suppression du fonds par inadvertance. « Un assureur n’est peut-être pas directement responsable de la mise hors ligne de son site web en cas de défaillance d’une passerelle réseau mais il sera responsable du résultat », a d’ailleurs rappelé l’entité auprès du Financial Standard. « C’est-à-dire, l’incapacité pour ses clients de déposer des demandes d’indemnisation ou à accéder à d’autres services. »

    Une collaboration depuis un an seulement
    Restaurer les fonds en question n’a d’ailleurs pas été une mince affaire. C’est grâce à des sauvegardes en place avec un autre fournisseur qu’UniSuper est finalement parvenu à relancer ses services sur google cloud. « La restauration de l’instance de cloud privé d’UniSuper a nécessité une quantité incroyable de concentration, d’efforts et de partenariat entre nos équipes pour permettre une restauration complète de tous les systèmes centraux » , confirme les deux PDG dans leur déclaration commune. Jeudi 9 mai, les fonds affichaient encore les soldes de la semaine dernière et devaient se mettre à jour progressivement.

    Reste que la situation demeure embarrassante pour google. Comme le rappelle le média britannique, The Register, UniSuper a transféré ses services en ligne sur google cloud en 2023, après les avoir pendant longtemps hébergés entre la plateforme Azure de Microsoft et ses propres datacenters. « Moins d’un an plus tard, le fonds subit une longue panne de la part de google », souligne le journal.

    Source : https://www.lefigaro.fr/secteur/high-tech/google-cloud-supprime-par-erreur-le-compte-du-fonds-unisuper-et-prive-600-0

    #bug #google #cloud #gafam #UniSuper #google_cloud #panne #service #retraite #panne

  • La visionneuse de #Panoramax passe en version 3.0 !

    Pourquoi contribuer à la base de #photographies de Panoramax ?

    Contribuer à Panoramax, c’est participer au développement d’un #géo-commun, une ressource numérique souveraine, libre et réutilisable. Chaque photo géolocalisée publiée sur Panoramax est utilisable par tous et pour des usages variés, par exemple par une collectivité territoriale qui a besoin d’observer l’état de la voirie ou par un opérateur de télécommunications pour préparer une intervention.

    Chaque contributeur peut envoyer ses séquences d’images, les modifier et les consulter tout comme l’ensemble des vues - 360° ou non - versées par la communauté. Le floutage obligatoire des visages et plaques d’immatriculation est automatisé sur la plateforme.

    https://panoramax.openstreetmap.fr
    #alternative #google_street_map #streetmap #street_map #OSM #3D #crowdsource

  • Access #Gemini AI in Ubuntu with this GNOME Extension
    https://www.omgubuntu.co.uk/2024/05/gemini-ai-gnome-shell-extension

    If you use Ubuntu 22.04 LTS or later and want to access the #Google Gemini AI chatbot straight from your desktop outside of a web browser, you’re in luck! The Gemini AI ChatBot GNOME Shell extension (unaffiliated with Google; it’s not an official thing) gives you immediate access to Gemini at any time from the applet it adds to the top panel — no need to open a web browser tab or fire up a standalone app. Gemini, formerly known as Bard, is an AI language model developed by Google. Like ChatGPT, CoPilot et al it will generate human-like replies […] You’re reading Access Gemini AI in Ubuntu with this GNOME Extension, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #AI/ML #GNOME_Extensions

  • #Google’s #flutter Team Layoffs Leave Ubuntu Devs in a Flap
    https://www.omgubuntu.co.uk/2024/05/googles-flutter-team-layoffs-leave-ubuntu-devs-in-a-flap

    Google’s recent ‘structural simplification’ led to 200 people across many of its core development teams, including Python, Dart, and Flutter, losing their roles. With Canonical committed to using Flutter for its own desktop apps the #News of layoffs in the team responsible for building the framework has left some in the wider Ubuntu community worried about its future viability. The new Ubuntu Installer, Firmware Updater, App Center, and the (currently MIA) Desktop Security Center are all built using Flutter, which is Google’s cross-platform Web-based UI framework underpinned by the Dart programming language. And within the Ubuntu Flutter community a number […] You’re reading Google’s Flutter Team Layoffs Leave Ubuntu Devs in a Flap, a blog post from OMG! Ubuntu. Do not reproduce elsewhere (...)

  • Google Paid Apple $20 Billion in 2022 to Be Default Safari Search Engine - MacRumors
    https://www.macrumors.com/2024/05/01/google-default-search-engine-safari-20-billion

    Les béhémots s’arrangent entre eux...

    Google paid Apple $20 billion in 2022 to be the default search engine for Safari on iPhone, iPad, and Mac, reports Bloomberg. The information was revealed in court documents Google provided in its antitrust dispute with the United States Department of Justice.

    safari google search
    The DoJ has accused Google of having a monopoly on search, and in the lawsuit against Google, the search engine deal with Apple has been a major focus. In November, lawsuit documents indicated that Google was paying 36 percent of the total revenue that it earns from searches conducted on Safari, and now it turns out that equates to $20 billion.

    Google has been the default search engine on Apple devices since 2002, though the deal has been renegotiated several times. Apple and Google have worked to keep the terms of the search engine agreement under wraps during the trial and before, but it has been well known that Google is paying Apple billions per year.

    Last October, Microsoft CEO Satya Nadella testified that the agreement between Apple and Google has made it impossible for search engines like Bing to compete. Microsoft at one point wanted Apple to buy Bing, but Apple was not interested. Microsoft blamed Google, but Apple’s Eddy Cue said that Apple was concerned that Bing could not compete in “quality and capabilities.” Cue claimed that Apple uses Google as the ‌iPhone‌’s default search engine because Apple has “always thought it was the best.”

    Google is the default search engine on Apple devices in most countries, but users can opt to swap to Yahoo, Bing, DuckDuckGo, and Ecosia as alternatives. Changing browser engines requires opening up the Safari settings.

    In Europe, the Digital Markets Act has required Apple to make changes to how browsers work. Users are able to choose a default browser when setting up their ‌iPhone‌, and there are more options than the handful of providers that Apple allows in the United States.

    If Google loses the antitrust lawsuit against it, the deal between Apple and Google could be dissolved. Closing arguments are expected on Thursday and Friday, with the judge’s ruling set to come later in 2024.

    #Apple #Google #Antitrust

  • Droits voisins : « Mediapart » annonce refuser l’argent de #Google
    https://www.lemonde.fr/economie/article/2024/04/28/droits-voisins-mediapart-annonce-refuser-l-argent-de-google_6230449_3234.htm

    « #Mediapart considère que le principe de cette compensation financière (…) est juste », mais « une condition incontournable pour notre journal n’a pu être arrachée : la transparence sur le contrat signé et ses modalités d’application », relève Carine Fouteau dans un article publié sur le site.

    #droits_voisins

  • The Man Who Killed Google Search
    https://www.wheresyoured.at/the-men-who-killed-google

    La charge est sévère...
    Emmerdification de Google par le menu.

    These emails are a stark example of the monstrous growth-at-all-costs mindset that dominates the tech ecosystem, and if you take one thing away from this newsletter, I want it to be the name Prabhakar Raghavan, and an understanding that there are people responsible for the current state of technology.

    These emails — which I encourage you to look up — tell a dramatic story about how Google’s finance and advertising teams, led by Raghavan with the blessing of CEO Sundar Pichai, actively worked to make Google worse to make the company more money. This is what I mean when I talk about the Rot Economy — the illogical, product-destroying mindset that turns the products you love into torturous, frustrating quasi-tools that require you to fight the company’s intentions to get the service you want.
    Heroes and Villains

    Ben Gomes is a hero. He was instrumental in making search work, both as a product and a business, joining the company in 1999 — a time long before Google established dominance in the field, and the same year when Larry Page and Sergey Brin tried to sell the company to Excite for $1m, only to walk away after Vinod Khosla (an Excite investor and the co-founder of Sun Microsystems) lowballed the pair with a $750,000 offer.

    In an interview with FastCompany’s Harry McCracken from 2018, Gomes framed Google’s challenge as “taking [the PageRank algorithm] from one machine to a whole bunch of machines, and they weren’t very good machines at the time.” Despite his impact and tenure, Gomes had only been made Head of Search in the middle of 2018 after John Giannandrea moved to Apple to work on its machine learning and AI strategy. Gomes had been described as Google’s “search czar,” beloved for his ability to communicate across departments.

    Every single article I’ve read about Gomes’ tenure at Google spoke of a man deeply ingrained in the foundation of one of the most important technologies ever made, who had dedicated decades to maintaining a product with a — to quote Gomes himself — “guiding light of serving the user and using technology to do that.” And when finally given the keys to the kingdom — the ability to elevate Google Search even further — he was ratfucked by a series of rotten careerists trying to please Wall Street, led by Prabhakar Raghavan.

    #Google #Search_engine #Histoire_numérique

  • #Organic_Maps, une alternative à #google_maps :

    Organic Maps est un #logiciel_libre de #cartographie et de navigation utilisable #hors-ligne et basé les données cartographiques d’#OpenStreetMap. Il se base uniquement sur des données vectorielles pour le rendu des objets et permet un rendu 2D ou 3D temps réel. Il s’adapte au logiciel de synthèse vocale disponible du système d’exploitation sur lequel il tourne. Il est disponible pour Android et GNU/Linux et iOS. Il s’agît à l’origine d’un fork de #Maps.me, fait par ses propres développeurs.

    https://fr.wikipedia.org/wiki/Organic_Maps

    #offline #off-line #OSM #marche #vélo #app

  • « No Tech For #Apartheid » : chez #Google et #Amazon, la fronde grandit contre un partenariat avec Israël
    https://www.rfi.fr/fr/technologies/20240417-no-tech-for-apartheid-chez-google-et-amazon-la-fronde-grandit-contre-un

    En 2021, le ministre des Finances israélien annonce la signature avec Amazon et Google d’un contrat faramineux de 1,2 milliard de dollars en échange de l’installation de centres de données régionaux en Israël, assortie de l’utilisation de ses services d’intelligence d’artificielle et de sauvegarde dans le cloud.

    À l’époque déjà, de nombreux employés émettent de vives inquiétudes quant à ce contrat. Une première tribune signée par des employés de Google et Amazon avait été publiée par le Guardian en octobre 2021 pour dénoncer le « projet Nimbus » et la « vente d’une technologie dangereuse à l’armée et au gouvernement israélien » qui pourrait permettre « une surveillance massive des Palestiniens et une collecte de données illégale », notamment en matière de reconnaissance faciale.

    Mais la pression est encore montée d’un cran le 4 mars dernier. Un jeune ingénieur de Google, portant un tee-shirt siglé du slogan « No Tech for Apartheid » a interrompu une conférence sur la tech israélienne se tenant à New York et sponsorisée par le moteur de recherche en criant devant le public : « Je suis ingénieur logiciel chez Google et je refuse de créer une technologie qui alimente un génocide, l’apartheid ou la surveillance ». Le jeune homme de 23 ans est alors évacué manu militari de la salle. Trois jours plus tard, il est convoqué par ses supérieurs et licencié par Google.

  • Sur Google, les résultats de recherche sont-ils vraiment de plus en plus mauvais ?
    https://www.lemonde.fr/pixels/article/2024/03/11/sur-google-les-resultats-de-recherche-sont-ils-vraiment-de-plus-en-plus-mauv

    DécryptageDepuis plusieurs années, des internautes se plaignent de la qualité des réponses apportées par le moteur de recherche le plus utilisé du monde. Si la société se défend d’une dégradation de ses services, elle fait néanmoins face à de nombreuses tentatives de manipulation de ses résultats, accélérées par l’arrivée de l’intelligence artificielle.

    Ce n’est pas tous les jours que Google fait une telle annonce. Le géant du Web a présenté, mardi 5 mars, plusieurs modifications faites à son algorithme qui organise les résultats de son moteur de recherche. L’objectif : « Nous aider à réduire la quantité de contenus qui ne sont d’aucune aide et qui sont de mauvaise qualité, et à augmenter le nombre de résultats utiles », explique au Monde Elizabeth Tucker, directrice produit du moteur de recherche.

    Sans les mentionner, la firme de Mountain View semble tenter d’apporter des réponses aux critiques, qui, depuis des mois, voire des années, se demandent pourquoi les résultats proposés sont de moins en moins bons. A l’image de ce journaliste de NBC qui se demandait, le 24 février, si « quelqu’un en a eu enfin assez et a abandonné Google ».

    #Google #SEO #Contenu_Web

  • Retro #Google_Chrome Theme for Mozilla #Firefox ESR
    https://www.omgubuntu.co.uk/2024/03/silverfox-classic-google-chrome-firefox-theme

    A new open-source nostalgia project allows you turn back time — though sadly only in web browser aesthetics. Silverfox is a custom theme for Mozilla Firefox ESR that recreates the classic look of Google Chrome. We’re talking trapezoid tabs, parallelogram new tab button, pared back speed dial, a bottom-based downloads bar, and a custom-made hamburger menu (wrench icon optional) that puts all the important features at-hand. “Browsers age, good design doesn’t”, say the creators of this effort. This theme is a real labour of love and, speaking as someone who blogged obsessively about the early days of Google Chrome/ium on […] You’re reading Retro Google Chrome Theme for Mozilla Firefox ESR, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #Eye_Candy

  • Ah merde, je crois que je viens de tuer la maman de Sylvester Stallone (décédée en 2020). C’est parce que je voulais vérifier cette information signalée il y a 11 ans sur Seenthis, comme quoi elle pratiquait la rumpologie – « qui consiste à lire l’avenir d’une personne par l’étude des caractéristiques de ses fesses et de son sillon interfessier » :
    https://seenthis.net/messages/144764

    https://fr.wikipedia.org/wiki/Rumpologie

    L’astrologue américaine Jackie Stallone affirme que la rumpologie est connue pour avoir été pratiquée dès l’Antiquité par les Babyloniens, les Indiens, les Grecs et les Romains. Sur son blog, elle explique les bienfaits de cette discipline dans les civilisations antiques : « Les anciens Grecs pensaient que les fesses était la clef de la santé et de la fidélité, et les Romains utilisaient des empreintes de grand fessier comme certaines personnes utilisent aujourd’hui la chiromancie pour déterminer les talents potentiels et les succès futurs. » Elle produit une empreinte sur papyrus à l’appui de ses dires, mais sans aucune autre preuve.

    #googlage_fatal

  • Radio Canada La « merdification » du web

    « Je ne veux pas rétablir le "bon vieux" web. Je veux que nous ayons un "bon nouveau" web. »
    Cory Doctorow lors d’une conférence.

    Pourquoi le web semble-t-il brisé ces temps-ci ? L’auteur canadien Cory Doctorow croit avoir la réponse : un concept qu’il a popularisé et qui porte le nom de « enshittification », ou « merdification », du web. Entrevue avec les Décrypteurs.

    De plus en plus d’internautes se plaignent que les services web auxquels ils s’étaient habitués dépérissent. "Je n’arrive à rien trouver sur google." "facebook me suggère des groupes qui n’ont aucun rapport avec mes intérêts." "amazon me suggère des produits qui ne m’intéressent pas."

    Peu d’observateurs ont analysé cette réalité aussi scrupuleusement que Cory Doctorow. Ce penseur et blogueur canadien a trouvé le mot juste pour nommer ce côté moins vertueux d’Internet : « enshittification », que nous avons traduit par « merdification ».
    . . . . . .
    La « merdification », c’est quand des plateformes se dégradent parce qu’elles font partie de monopoles ou de quasi-monopoles.
    De nombreuses entreprises échouent très rapidement lorsqu’elles ne disposent pas d’une part de marché démesurée : elles font tout simplement faillite.
    Mais celles qui deviennent vraiment dominantes peuvent vivoter très longtemps et outrepasser le moment où elles auraient dû mourir.

    La « merdification » se produit en trois étapes.

    La première étape, c’est lorsqu’une entreprise a un excédent.
    C’est le capital des premiers investisseurs qui ne s’attendent pas encore à toucher de rendement sur leur investissement.
    Donc, l’entreprise utilise cet excédent pour offrir un bon service aux utilisateurs dans le but de les attirer.

    "facebook ne vous espionnera jamais !" C’était leur argument en 2006.

    "Tout ce que vous avez à faire, c’est de venir sur facebook. Dévoilez-nous tout ce qui est important dans votre vie. Dites-nous quels utilisateurs facebook vous sont chers. Nous vous montrerons leurs publications."

    Les utilisateurs deviennent donc prisonniers de la plateforme. Ils y restent parce que leurs amis sont là et parce qu’ils les aiment plus qu’ils ne détestent Facebook.

    Donc, une fois que facebook commence à sentir que ses utilisateurs sont prisonniers de la plateforme, la deuxième phase se produit.
    J’appelle cela le modèle d’affaires Dark Vador.
    Vous savez, Dark Vador a dit : "J’ai modifié l’accord. Priez pour que je ne le modifie pas davantage…"

    Alors, ils vont vers les annonceurs et disent : "Vous vous souvenez quand nous avons dit à ces idiots que nous ne les espionnerions pas ?
    C’était un mensonge !
    Nous les espionnons totalement !
    Si vous nous donnez de petites sommes d’argent, nous allons utiliser ces données de surveillance pour leur montrer des publicités ciblées."

    "Nous allons vous vendre ces annonces à très bas prix.
    Et parce que nous sommes des gens très bien intentionnés, nous allons vous les vendre à perte pour nous permettre d’investir dans la prévention de la fraude publicitaire.
    Donc, si vous achetez une annonce, des tonnes de gens la verront !"

    En même temps, ils sont allés vers les médias et leur ont dit : "Hé, vous vous souvenez quand nous avons dit à ces idiots que nous allions seulement leur montrer le contenu qu’ils voulaient voir ?
    C’était aussi un mensonge !"

    "Si vous mettez des extraits de votre contenu et un lien vers votre article sur Facebook, nous allons l’enfoncer dans la gorge de personnes qui n’ont jamais demandé à le voir et vous obtiendrez une tonne de clics gratuits."

    Et là, à un certain moment, ces annonceurs et ces médias deviennent à leur tour prisonniers de la plateforme et nous passons à la troisième étape.

    C’est la dernière étape de la « merdification », quand il ne reste plus d’excédents de capital pour offrir un bon service aux médias, aux annonceurs et aux utilisateurs.
    Les seuls qui sont bien servis sont les actionnaires, à qui on envoie cet excédent de capital.

    Pour les utilisateurs, la proportion de contenus d’intérêt – par exemple les publications de gens qu’ils suivent – devient tellement petite qu’on pourrait la qualifier d’« homéopathique ».
    Tout le reste, ce sont des publications qui apparaissent parce que quelqu’un a payé afin de les promouvoir.
    Pour les annonceurs, les publicités coûtent plus cher, alors que la modération des annonces dépérit.

    Or, les plateformes investissent juste assez de ressources pour inciter les utilisateurs à rester. Et c’est un équilibre très fragile. Il suffit d’un scandale de fuite de données personnelles, d’une fusillade de masse diffusée en direct, d’un lanceur d’alerte, et les gens se précipitent vers les sorties.

    Puis la plateforme technologique annonce qu’elle pivote. Dans la Silicon Valley, « pivoter », ça veut dire « paniquer ».

    Et le « pivot » chez facebook, c’est Mark Zuckerberg qui se réveille un jour et qui dit  : "Voici votre avenir. Je vais créer un monde virtuel dans lequel tous les êtres humains de la Terre vivront. Ils seront transformés en dessins animés pixélisés, sans vie, sans sexe et fortement surveillés. Nous appelons ça "le métavers". C’est une idée que nous avons volée à un roman cyberpunk vieux de 25 ans."

    Et ça, c’est la dernière étape de la « merdification », quand tout se transforme en tas de merde. Et c’est là que nous en sommes maintenant.

    Et amazon a suivi le même processus, n’est-ce pas ?

    Oui. amazon facturait autrefois de très petites sommes aux commerçants et dépensait beaucoup d’argent pour modérer la fraude publicitaire.
    Quand on cherchait quelque chose, le moteur de recherche montrait le résultat le plus pertinent.

    amazon bénéficie d’un marché de 39 milliards de dollars qu’on appelle un « marché publicitaire ».
    En vérité, ce « marché publicitaire », ce sont des pots-de-vin que versent des marchands à amazon.
    En échange, lorsqu’un utilisateur cherche un produit, amazon lui montre les produits de ces marchands, peu importe si c’est pertinent pour la recherche.
    Les vrais produits que cherche l’utilisateur se retrouvent plus bas dans les résultats.

    Donc, si tu es un vendeur sur amazon, soit tu investis de l’argent pour créer un meilleur produit, soit tu donnes de l’argent à amazon pour promouvoir ton produit et reléguer un produit meilleur que le tien à la 11e page des résultats de recherche.
    Et c’est ce que les vendeurs font. Pour l’utilisateur, le premier produit dans les résultats de recherche est en moyenne 30 % plus cher (Nouvelle fenêtre) que le meilleur, qui se retrouve en moyenne à la 17e place.

    En fin de compte, amazon facture davantage et le client en reçoit moins.

    Et sa « clause de la nation la plus favorisée » fait en sorte que les marchands sur amazon ne peuvent pas vendre leurs produits moins cher ailleurs, même pas sur leurs propres sites. Et puisque amazon prélève 51 cents sur chaque dollar de vente, les marchands doivent augmenter leurs prix. Et quand le prix augmente sur amazon, il doit obligatoirement augmenter ailleurs.

    Cela fait en sorte qu’amazon semble encore avoir des prix avantageux. Et tout ce que vous achetez coûte de 20 % à 50 % plus cher pour que le patron d’amazon, jeff bezos, puisse se permettre d’aller dans l’espace à bord d’une fusée en forme de phallus.

    On est vraiment loin de l’Internet du « bon vieux temps », la vision originale d’Internet. Vous étiez là, au tout début. Êtes-vous nostalgique ?

    La nostalgie est une pulsion toxique.

    Beaucoup de choses clochaient avec le « bon vieux » web. Je ne veux pas rétablir le « bon vieux » web. Je veux que nous ayons un « bon nouveau » web, un web qui incarne la promesse du « bon vieux » web, celle de pouvoir connecter la planète sans passer par des intermédiaires. Je veux que ce soit un web inclusif. Le « bon vieux » web était génial pour des gens comme moi, et je pense que le nouveau web devrait être génial pour tout le monde.
    Un homme parle à la caméra.

    Comment peut-on enrayer la« merdification » ?

    Il y a des choses qui mènent immanquablement à la « merdification ». La principale est une tendance vers la convergence et vers la consolidation. Cette tendance n’est pas un résultat inévitable. L’émergence des monopoles n’est pas un processus naturel. C’est arrivé parce que nous avons cessé de faire appliquer les lois qui assurent un environnement compétitif. Nous avons permis aux grandes entreprises d’acquérir leurs concurrents, par exemple.

    Prenez google, une entreprise qui a créé un seul produit utile, et ce, il y a 25 ans. Elle a créé un bon moteur de recherche. Depuis, sans exception ou presque, tous les produits qu’elle a créés ont été des échecs. Les seuls succès qu’elle a mis sur le marché, ce sont des produits qu’elle a acquis à d’autres entreprises  : leur technologie publicitaire, l’infonuagique, la suite Documents google, google Maps, vraiment tout. google a tout simplement acheté les idées d’autres gens.
    . . . . . . .

    Source : https://ici.radio-canada.ca/nouvelle/2047650/merdification-enshittification-cory-doctorow-decrypteurs

    #web #internet #surveillance #facebook #censure #google #gafam #amazon #monopole #métavers #monopoles

  • Google says spyware vendors behind most zero-days it discovers
    https://www.bleepingcomputer.com/news/security/google-says-spyware-vendors-behind-most-zero-days-it-discovers

    Intéressant sur le processus de fabrication du capitalisme de la menace (un pas de plus dans le capitalisme de surveillance).
    Mais quand c’est google qui veut s’en prendre aux entreprises qui vendent des logiciels espions, on ne peut s’empêcher de penser qu’ainsi, ce serait Google qui serait le seul à savoir des choses sur ses utilisateurs. De là à en profiter ? Certainement pas, voyons, un monopole comme ça est plus grand qu’un service public, n’est-ce pas ?

    Commercial spyware vendors (CSV) were behind 80% of the zero-day vulnerabilities Google’s Threat Analysis Group (TAG) discovered in 2023 and used to spy on devices worldwide.

    Zero-day vulnerabilities are security flaws the vendors of impacted software do not know about or for which there are no available fixes.

    Google’s TAG has been following the activities of 40 commercial spyware vendors to detect exploitation attempts, protect users of its products, and help safeguard the broader community by reporting key findings to the appropriate parties.

    Based on this monitoring, Google has found that 35 of the 72 known in-the-wild zero-day exploits impacting its products over the last ten years can be attributed to spyware vendors.

    “This is a lower-bounds estimate, as it reflects only known 0-day exploits. The actual number of 0-day exploits developed by CSVs targeting Google products is almost certainly higher after accounting for exploits used by CSVs that have not been detected by researchers, exploits where attribution is unknown, and cases where a vulnerability was patched before researchers discovered indications of exploitation in-the-wild.” - Google

    Those spyware vendors use the zero-day flaws to target journalists, activists, and political figures as directed by their customers, including governments and private organizations.

    Some notable CSVs highlighted in Google’s report are:

    Cy4Gate and RCS Lab: Italian firms known for the “Epeius” and “Hermit” spyware for Android and iOS. The former acquired the latter in 2022, but operate independently.
    Intellexa: Alliance of spyware firms led by Tal Dilian since 2019. It combines technologies like Cytrox’s “Predator” spyware and WiSpear’s WiFi interception tools, offering integrated espionage solutions.
    Negg Group: Italian CSV with international reach established in 2013. It is known for “Skygofree” malware and “VBiss” spyware, targeting mobile devices through exploit chains.
    NSO Group: Israeli firm famous for Pegasus spyware and other sophisticated espionage tools. It continues operations despite sanctions and legal issues.
    Variston: Spanish CSV providing tailored security solutions. It collaborates with other vendors for zero-day exploits and is linked to the Heliconia framework, expanding in the UAE.

    These vendors sell licenses to use their products for millions of dollars, allowing customers to infect Android or iOS devices using undocumented 1-click or zero-click exploits.

    Some of the exploit chains utilize n-days, which are known flaws for which fixes are available, yet patching delays still make them exploitable for malicious purposes, often for extended periods.

    Google says that CSVs have grown very aggressive in their hunt for zero-days, developing at least 33 exploits for unknown vulnerabilities between 2019 and 2023.

    In the appendix of Google’s detailed report, one can find a list of 74 zero-days used by 11 CSVs. Of those, the majority are zero-days impacting Google Chrome (24) and Android (20), followed by Apple iOS (16) and Windows (6).

    When white-hat researchers discover and fix the exploited flaws, CSVs often incur significant operational and financial damage as they struggle to reconstruct a working alternative infection pathway.

    “Each time Google and fellow security researchers discover and disclose new bugs, it causes friction for CSVs and costs them development cycles,” says Google.

    “When we discover and patch vulnerabilities used in exploit chains, it not only protects users, but prevents CSVs from meeting their agreements to customers, preventing them from being paid, and increasing their costs to continue operating.”

    However, this is not enough to stop the proliferation of spyware, as the demand for these tools is strong, and the contracts are too lucrative for CSVs to give up.

    Google calls for more action to be taken against the spyware industry, including higher levels of collaboration among governments, the introduction of strict guidelines that govern the use of surveillance technology, and diplomatic efforts with countries hosting non-compliant vendors.

    Google is proactively countering spyware threats through solutions like Safe Browsing, Gmail security, the Advanced Protection Program (APP), and Google Play Protect, as well as by maintaining transparency and openly sharing threat information with the tech community.

    #Google #Logiciels_espions #Cybersécurité #Zero_days