• What in the world is FrogFind?
    http://frogfind.de/about.php/?lg=en-us

    C’est génial. Merci https://hackaday.com/2025/05/20/the-world-wide-web-and-the-death-of-graceful-degradation et https://seenthis.net/messages/1116747

    A quick FAQ on an unconventional search engine

    Who made FrogFind?
    Hi, I’m Sean, A.K.A. Action Retro on YouTube. I work on a lot of 80’s and 90’s Macs (and other vintage machines), and I really like to try and get them online. However, the modern internet is not kind to old machines, which generally cannot handle the complicated javascript, CSS, and encryption that modern sites have. However, they can browse basic websites just fine. So I decided to see how much of the internet I could turn into basic websites, so that old machines can browse the modern internet once again!
    How does FrogFind work?
    The search functionality of FrogFind is basically a custom wrapper for DuckDuckGo search, converting the results to extremely basic HTML that old browsers can read. When clicking through to pages from search results, those pages are processed through a PHP port of Mozilla’s Readability, which is what powers Firefox’s reader mode. I then further strip down the results to be as basic HTML as possible.
    What machines do you test FrogFind on?
    I designed FrogFind with classic Macs in mind, so I’ve been testing on my SE/30 to make sure it looks good in 1 bit color with a 512x384 resolution. Most of my testing has been on Netscape 1.1N and 2.0.2, as well as a few 68k Mac versions of iCab. FrogFind should also work great on any text-based web browser!
    How can I get in touch with you?
    Send Markus an email!
    Send me an email. Send Sean an email! actionretro@pm.me

    Je préfère l’original http://www.frogfind.com :-)

    #internet #WWW #graceful_degrading

  • Qualitätsoffensive : Telepolis überprüft historische Artikel
    https://www.telepolis.de/features/Qualitaetsoffensive-Telepolis-ueberprueft-historische-Artikel-10190173.htm

    Le jour de la Saint Nicolas en Allemagne tous les enfants sages ont droit à des cadeaux et les moins sage sot punis par son valet, le Père Fouettard. Voici que nous sommes tous des enfants punis par le Père Fouettard qui s’appelle désormais Harald Neuber, rédacteur en chef de Telepolis qui nous prive de tous les articles parus avant son époque.

    Dans une sorte d’énorme chilling effect sous prétexte du risque de Abmahnung les éditions Heise et la rédaction de Telepolis anticipent une ére nouvelle qui détruit les souvenirs et toute preuves du passé afin de nous introduire dans l’age des contre-vérité, du double langage et de la réalité farbriquée par les intelligeances dites artificielles mais manipulatrices et réalité.

    Honte à qui manque de culot pour défendre notre passé commun. Demain Der Spiegel et Neues Deutschland élimineront leurs archives aussi afin de nous soulager de comapaisons historiques douloureuses. Bienvenu dans le nouveau monde.

    6.7.2024 von Harald Neuber - Telepolis nimmt alte Texte unter die Lupe. Beiträge von vor 2021 vorerst nicht mehr abrufbar. Aber: Viele Archivperlen werden neu erscheinen.

    Telepolis nimmt alte Texte unter die Lupe. Beiträge von vor 2021 vorerst nicht mehr abrufbar. Aber: Viele Archivperlen werden neu erscheinen.

    Wer seit dieser Woche ältere Texte von Telepolis aufruft, erhält mitunter einen einheitlichen Hinweis: „Dieser Text wird von der Heise Medien GmbH & Co. KG nicht mehr zur Verfügung gestellt.“ Dort wird auch auf das redaktionelle Leitbild und die fortlaufenden Darstellungen der redaktionellen Arbeit verwiesen.

    Frei zugängig bleiben alle Beiträge seit Anfang 2021. Der Grund: Diese Texte werden von der aktuellen Chefredaktion verantwortet und entsprechen den journalistischen Ansprüchen, die wir im redaktionellen Leitbild im Jahr 2022 festgeschrieben haben.

    Kurz: Telepolis setzt auf Transparenz und Glaubwürdigkeit durch inhaltliche Korrektheit, gewissenhafte Recherche, Fehlerkorrektur, Kennzeichnung von Nachricht/Meinung und Werbung sowie Offenlegung von Eigentümerschaft, Finanzierung und möglichen Interessenkonflikten.

    Informationen über Autoren werden zur Verfügung gestellt. Für Telepolis sind Transparenz und Glaubwürdigkeit die Eckpfeiler einer verantwortungsvollen Berichterstattung. Wir achten verstärkt darauf, dass Gastautoren über ihre jeweiligen Fachgebiete schreiben.

    Diesen Weg werden wir mit alten und neuen Autoren konsequent weitergehen – mit Erfolg: In den vergangenen Jahren konnten wir das Redaktionsteam um kompetente Kollegen erweitern und erfahrene Kollegen für neue Projekte wie unseren Podcast gewinnen; die Kooperationen mit renommierten Medien im In- und Ausland wurden und werden ausgebaut. Das Bewertungsportal NewsGuard stuft unsere Arbeit mit der vollen Punktzahl als „sehr glaubwürdig“ ein: Telepolis erfülle alle Standards der Glaubwürdigkeit und Transparenz.

    Ältere Texte haben wir Anfang Dezember 2024 zunächst aus dem Archiv genommen, da wir für deren Qualität nicht pauschal garantieren können. Was uns sehr wichtig ist: Die Deindizierung ist keinesfalls ein Misstrauensvotum gegen frühere Autoren und damalige Beiträge heutiger Autoren. Wir mussten aber einsehen, dass es keine realistische Möglichkeit gibt, die enorme Menge von Artikeln aus gut 25 Jahren hinreichend zu prüfen.

    In einigen dieser alten Beiträge ließen sich mögliche Urheberrechtsverletzungen nicht ausschließen. Auch wenn der Umgang mit urheberrechtlich geschütztem Material in der Frühzeit des Internets lockerer war, sind Verlag und Redaktion unabhängig vom Alter dieses Contents auch heute noch von Abmahnungen bedroht. Zudem waren Bilder nie barrierefrei und damit nicht für alle Leser zugänglich. Das waren auch Gründe, das Archiv aus der Zeit vor 2021 zunächst offline zu nehmen.

    Wie geht es nun weiter? Wir werden die alten Inhalte systematisch und so schnell wie möglich sichten und – soweit sie noch einen Mehrwert bieten – nach unseren Qualitätskriterien bewerten und überarbeiten. Essays und Fachaufsätze haben dabei Vorrang, tagesaktuelle Texte aus der Vergangenheit nicht. Schrittweise sollen die vielen Perlen aus dem Archiv wieder zugänglich gemacht werden – wie bisher kostenlos und ohne Zugangsbeschränkung.

    Das hat aus unserer Sicht mehrere Vorteile: Die wiederveröffentlichten Artikel erscheinen prominenter auf der Seite, werden neuen Lesern vorgestellt und sind in aktualisierter Form leichter zu finden. In der fast 30-jährigen Geschichte von Telepolis haben viele herausragende Autoren zur Berichterstattung beigetragen.

    Neben dem bekannten Science-Fiction-Autor Stanislaw Lem haben weitere Persönlichkeiten bei uns publiziert oder waren Gegenstand der Berichterstattung:

    Cory Doctorow, ein kanadisch-britischer Science-Fiction-Autor und Journalist, der für seine Beiträge zu digitalen Rechten und Internetfreiheit bekannt ist. Bruce Sterling, US-amerikanischer Science-Fiction-Autor, gilt als Mitbegründer der Cyberpunk-Bewegung. Jaron Lanier, Informatiker, Komponist und Autor, bekannt für seine kritische Haltung gegenüber sozialen Medien und seine Pionierarbeit im Bereich der virtuellen Realität. Evgeny Morozov, belarussischer Schriftsteller und Forscher, der sich intensiv mit den sozialen und politischen Auswirkungen von Technologie auseinandersetzt.

    Hinzu kommen Namen wie Mark Amerika, Autor; Douglas Rushkoff, Medientheoretiker und Autor; Michael Goldhaber, bekannt für Theorie der Aufmerksamkeitsökonomie; Martin Pawley, Architekturtheoretiker; Christoph Butterwegge, Armutsforscher; Christian Hacke, Politikwissenschaftler; Margot Käßmann, Theologin; Antje Vollmer, Politikerin.

    Diese und viele andere Autoren haben durch ihre Perspektiven zur Vielfalt und Einzigartigkeit der Berichterstattung von Telepolis beigetragen.

    Freuen Sie sich also darauf, diese Inhalte demnächst überarbeitet und in neuer Aufmachung bei Telepolis wiederzufinden.

    Wenn Sie Autor von Telepolis sind und Fragen haben, wenden Sie sich bitte an archivtp@heise.de.

    #histoire #WWW #journalisme #Allemagne #censure

  • »Magazin der Netzkultur« gelöscht
    https://www.nd-aktuell.de/artikel/1187394.telepolis-magazin-der-netzkultur-geloescht.html


    Wer die alten Links anklickt, erhält nun einen frustrierenden Hinweis. Auf eine Spiegelung des offline genommenen Konvoluts hat die neue »Telepolis«-Redaktion verzichtet. Foto: Telepolis/Screenshot

    9.12.2024 von Matthias Monroy - »Telepolis« nimmt Artikel aus 25 Jahren für immer offline

    Als das World Wide Web noch in den Anfängen stand, gründeten Armin Medosch und Florian Rötzer »Telepolis«. Die Webseite des »Magazins der Netzkultur« ging am 18. März 1996 online und gehörte damit zu den Pionieren der Web-Journalistik. Ziel war es, eine virtuelle Gemeinschaft zu schaffen, die sich an reale Städte anlehnt. »Telepolis« bietet seit seiner Gründung eine redaktionell betreute Plattform für Artikel, Kommentare und Diskussionen. Das hob es von den eher unmoderierten Newsgroups ab, über die sich Internetaktivist*innen in den 90ern informierten.

    Bis heute gehört »Telepolis« zur Heise-Gruppe und deckt ein breites Spektrum an Themen ab, von Politik und Wirtschaft bis zu Wissenschaft, Kultur und Medien. Das Magazin galt lange als eine wichtige Stimme auch im links-alternativen Diskurs – selbst wenn es immer wieder Kritik an verschwörungsgläubigen Artikeln wie etwa zu 9/11 oder der Männerdominanz unter den Autor*innen gegeben hat. 1997 wurde das Netzmagazin sogar für einige Jahre als gedruckte Zeitschrift veröffentlicht. Gleichzeitig begannen verschiedene Medien, darunter der »Tagesspiegel«, Inhalte von »Telepolis« zu übernehmen.

    Mit seinem historischen Erbe hat »Telepolis« nun endgültig Schluss gemacht. Die neue Leitung unter Chefredakteur Harald Neuber, die das »Magazin der Netzkultur« 2021 übernahm, hat am Donnerstag sämtliche Beiträge der letzten 25 Jahre offline genommen. Wer die alten Links anklickt, erhält den Hinweis: »Dieser Text wird von der Heise Medien GmbH & Co. KG nicht mehr zur Verfügung gestellt.« Schätzungsweise rund 50.000 Artikel und ein Vielfaches an Beiträgen im Forum sind von der Aktion betroffen.

    Neuber und seine Redaktion begründen die Löschung in einem Posting mit journalistischen Standards, da man für die Qualität der älteren Artikel »nicht pauschal garantieren« könne. Auch bestehe die Gefahr, dass in älteren Beiträgen urheberrechtlich geschütztes Material verwendet wurde, was zu Abmahnungen führen könne. Einzelne »Archivperlen«, sofern diese »noch einen Mehrwert bieten«, sollen aber überarbeitet und wieder auf »Telepolis« online gestellt werden. Als herausragende Autoren werden etwa Stanislaw Lem, Cory Doctorow, Bruce Sterling und Evgeny Morozov genannt.

    Florian Rötzer, bis 2020 »Telepolis«-Chefredakteur, kritisiert den Schritt als »stalinistische Cancel-Culture« und unterstellt in einem Post auf X, die neue Redaktion wolle sich »unkritisch und marktkonform« dem Mainstream anpassen. Rötzer betreibt seit 2021 den Blog »Overton«, auf dem auch Peter Bürger, früherer Autor bei »Telepolis«, scharfe Kritik übt. Betroffen von der Löschung seien geistige Arbeiten von Hunderten Autoren*innen, die anders als bei Printmedien nun auch nicht mehr für Forschungszwecke zur Verfügung stehen.

    »Die Deindizierung ist keinesfalls ein Misstrauensvotum gegen frühere Autoren«, schrieb »Telepolis« am Donnerstag. Es habe keine realistische Möglichkeit gegeben, »die enorme Menge von Artikeln aus gut 25 Jahren hinreichend zu prüfen«. Offen bleibt, ob Neuber und sein Löschtrupp sich überhaupt bemüht haben, die offline genommenen Beiträge vorher bei Archiv-Webseiten zu spiegeln. Eine niedrige fünfstellige Zahl von »Telepolis«-Artikeln ist immerhin bei Archive.org abrufbar, allerdings müssen diese jeweils einzeln mit den alten Links dort gesucht werden.

    Unter dem Beitrag bei »Overton« melden sich auch ehemalige Autoren zu Wort und kritisieren »autoritäre Tendenzen« der neuen »Telepolis«-Redaktion. Ein anderer User äußert Verständnis und fragt sich, warum die Heise-Gruppe weiterhin »ein politisches Magazin mit Themen aus dem linken Interessenspektrum« herausgeben sollte: »Im Heise-Verlag hat in den letzten Jahren sicher ein Generationenwechsel stattgefunden, und für das Telepolis, wie wir es vor 2021 kannten, ist dort einfach kein Platz mehr.«

    #histoire #WWW #journalisme #Allemagne #censure

    • rezo.net n’affiche que du texte. C’est la condition parfaite pour gagner leur badge. Leur test produit le même résultat pour notre site pro. Par contre un site sur le même serveur qui contient beaucoup d’images n’obtient que la notation C.

      Le test ne prend apparamment pas en compte l’efficacité de la programmation des scripts qui produisent le site ni du coût énergétique des base de données à l’oeuvre, alors qu’à ce niveau il y a d’énormes différences. Je ne sais pas s’il donnent de meilleurs scores aux sites statiques systématiquement très efficaces ou s’il font la différence entre SPIP, Drupal etc. et les sites au technologies propriétaires, je ne vois également pas d’analyse des systèmes de cache côté serveur et du type CDN ...

      C’est un joli truc pour impressionner la galerie mais ne dit rien du tout sur l’efficacité énergétique de la production et transmission des informations.

      Pourtant c’est marrant, alors félicitations pour le score excellent !
       :-)

      #internet #www #énergie #écologie #publicité #greenwashing

    • @monolecte ben quand même, 3,6Mo sur une seule page … Au siècle dernier quand le modem grésillait encore les recommandations étaient de 50ko tout compris.
      Et le JS c’est pas l’horreur si par exemple ça permet de servir des images adaptées et au poids réduit.
      J’ai des pages avec images au score de 80%, bon, pas tout les sites. Mais je pense qu’effectivement tout les paramètres d’une page ne peuvent pas être pris en compte : ne serait-ce que la consommation électrique du serveur ou son optimisation comme le code la mise en cache etc
      Je me fie plus à pagespeed et aux recommandations web.

  • Web-Summit-Resümee : Die Woke-Washing-Maschine des Neoliberalismus
    https://www.heise.de/meinung/Web-Summit-Resuemee-Die-Woke-Washing-Maschine-des-Neoliberalismus-9532834.html
    Au.Web-Summit l’économie du web montre son visage moche.


    Die neue Chefin des Web Summit Katherine Maher

    18.11.2023 von Hartmut Gieselmann
    ...
    Ukraine-Krieg als Technologielabor

    Es gab noch eine Reihe weiterer Themen, die durchaus kontrovers hätten diskutiert werden können:

    Die Beiträge des ehemaligen Boxweltmeisters Wladimir Klitschko und seiner Landsfrau Iryna Volnytska von der SET University machten unverblümt deutlich, wie wenig Interesse sie an einem schnellen Ende des Krieges mit Russland am Verhandlungstisch haben. Laut Volnytska ist die IT-Branche in der Ukraine im vergangenen Kriegsjahr um sieben Prozent gewachsen. Insbesondere im Bereich der Militärtechnik sei die Ukraine zu einem Experimentierfeld für technologische Kriegsführung geworden, in dem beispielsweise die Abwehr russischer Hackerangriffe erprobt werde. Die Ukraine sei ein „Sandkasten“, in dem der Westen seine Waffensysteme testen könne, um sich für eine spätere Konfrontation mit Russland zu wappnen. Volnytska stellte Investoren lukrative Vorteile bei Investitionen in ukrainische IT- und Militärtechnologie in Aussicht.

    Klitschko verglich den Krieg mit einem Boxkampf: Es sei die achte von zwölf Runden und man dürfe nicht nachlassen, Schläge auszuteilen. Man dürfe auch keine russischen Sportler zu den kommenden Olympischen Spielen zulassen, weil diese oft vom Militär beschäftigt würden. Kompromisse, wie sie typischerweise in diplomatischen Gesprächen über Waffenstillstände und Friedensabkommen ausgehandelt werden, bezeichnete Klitschko als „Zeitverschwendung“ und erntete dafür Applaus.

    Stau im Steuerparadies

    Lissabon warb auf dem Web Summit mit seiner großen Zahl an so genannten Unicorns: Start-ups, die noch vor dem Börsengang einen Marktwert von über einer Milliarde US-Dollar erreichen. Ein gutes Dutzend davon sei bereits in Lissabon ansässig, sieben aus Portugal, fünf hätten ihren Hauptsitz aus dem Ausland in die Stadt verlagert. Angelockt werden ausländische Unternehmen und Selbstständige durch niedrige Steuersätze von 20 Prozent sowie Doppelbesteuerungsabkommen mit einigen Ländern, die im Extremfall zu einer völligen Steuerfreiheit führen.

    Dadurch kommen zwar viele Unternehmen und Selbstständige ins Land, aber der öffentlichen Hand fehlen die Mittel. In Lissabon haben wir das als Besucher des Web Summit an den täglichen Staus zu spüren bekommen. Die öffentlichen Verkehrsmittel sind dem Ansturm kaum noch gewachsen. Morgens und abends quälen sich endlose Blechlawinen durch die engen Straßen der Innenstadt. Selbst Busse und Bahnen bleiben stecken.

    #Internet #WWW #business #Ukraine #Portugal

  • Lighthouse overview - Chrome Developers
    https://developer.chrome.com/docs/lighthouse/overview

    Est-ce que vous avez une opinion à propos de cet outil ?

    Je me contente toujours de validator.w3.org et de Lynx (en plus de Firefox, Chrome et Safari sous des OS divers) pour tester mes sites. C’est déjá assez coûteux quand tu fabriques du code propre (validator) et des pages facilement accessibles (des textes bien structurés, pas de menus interminables en haut de page, des alt/titre pour les images et vidéos, des liens parlants etc.). Avec l’inspecteur de code de Firefox et les autres outils (SPIP) je me sens à l’aise, alors quel argument est-ce qu’il y a pour ajouter Lighthouse à ma boîte d’outils (dans ungoogled Chromium ) ?

    Je m’en fous du nombre de visiteurs répertoriés car je ne travaille plus du tout pour les commerciaux, et toute la magie noire SEO ne m’intéresse plus que pour m’amuser.

    Merci pour vos idées.

    Lighthouse is an open-source, automated tool for improving the quality of web pages. You can run it against any web page, public or requiring authentication. It has audits for performance, accessibility, progressive web apps, SEO, and more.
    Lighthouse logo

    You can run Lighthouse in Chrome DevTools, from the command line, or as a Node module. You give Lighthouse a URL to audit, it runs a series of audits against the page, and then it generates a report on how well the page did. From there, use the failing audits as indicators on how to improve the page. Each audit has a reference doc explaining why the audit is important, as well as how to fix it.

    You can also use Lighthouse CI to prevent regressions on your sites.

    #web #www #html #css #javascript #SPIP

    • Je les utilise. Par habitude j’utilise plutôt la version Web PageSpeed Insights :
      https://pagespeed.web.dev
      mais il me semble que ce sont exactement les mêmes indicateurs.

      En gros de base on obtient des scores très corrects avec un SPIP bien configuré. Et ça indique comment faire pour passer à plus de 90/100 relativement facilement.

      Un intérêt : c’est souvent utile pour montrer à un client que ce qu’il réclame, ça va faire « du mal » à son site. Parce qu’expliquer « nan mais faut pas faire ça, c’est un mauvais usage du Web », tous les clients s’en foutent, il y a forcément un petit cousin, une boîte de comm, un spécialiste de je-ne-sais-quoi qui va revenir à la charge pour lui expliquer que « si si, c’est ça qu’il faut faire ». Alors tu fais un coup de PageSpeed sur ta version, tu fais conserve une copie d’écran, ensuite tu implémentes le truc en question, ou bien tu vas sur une page qui l’a déjà implémenté, et tu fais passer PageSpeed là-dessus, et tu montres les scores qui passent en dessous des 50/100 et les voyants qui deviennent rouges, c’est généralement très convaincant… :-)

    • Ah, c’est un truc pour les pros. Je ne me considère pas comme faisant partie de cette catégorie de créateurs de sites. #merci @arno

      Pour moi qui ne fait des sites web que pour des « clients » qui me font confiance et qui ne se laissent pas influencer par les « petits cousins » cela veut dire que oui, c’est utile mais ...
      – c’est l’outil que j’utiliserai après tous les autres tests
      – s’il y aura un problème de rapidité d’affichage que je n’arriverai pas à cerner.
       :-)

  • Adresse URL simplifiée et www (2006)
    https://unearaigneeauplafond.fr/url-simplifiees

    J’ai tout de suite été séduit par la capacité de WordPress à gérer les URL simplifiées. Il est en effet possible de ne laisser que le titre des articles comme lien. Cependant, j’ai été hésitant à simplifier les adresses davantage, en supprimant le préfixe www.. En effet, cela ne risquait-il pas de déstabiliser certains utilisateurs, peu enclins à s’adapter aux changements informatiques ? Une discussion avec [des amies] au sujet de leur propre site m’a convaincue. En effet, elles ont tout de suite, et ce sans hésiter, été séduites par un nom de site simplifié. Si des non informaticiens sont aussi sûres d’elles, alors je n’ai plus d’hésitations à avoir.

    Une ancienne interrogation : conserver ou non le « www » en préfixe d’adresse du site web « Une araignée au plafond » ?

    Il faut croire que le « www » m’agace, car depuis, aucun de mes sites ne dispose de ce sous-domaine. Le cas échéant, les visiteurs sont redirigés à la « bonne » adresse. Cela est d’autant moins essentiel que l’on ne tape pour ainsi dire plus une adresse de site web dans la barre d’adresses de son navigateur, en particulier depuis que celle-ci a fusionné avec la barre de recherche, avec l’arrivée de Chrome, en 2008.

    Toujours est-il qu’il est amusant de retrouver, en 2022, l’origine d’un choix technique remontant à 2006.

    #blog #url #wordpress #préfixe #www #web

  • Website erstellen mit KI: Fünf Website-Baukästen im Test
    https://www.heise.de/tests/Website-erstellen-mit-KI-Fuenf-Website-Baukaesten-im-Test-6280778.html?wt_mc=i

    3.12.2021 von Andreas Hitzig - Ohne viel Aufwand zur Website – das verspricht Künstliche Intelligenz. Ob Webdesigner nun komplett überflüssig werden, zeigt unser Test von fünf KI-Tools.

    Dieser Artikel nimmt fünf interessante Kandidaten genauer unter die Lupe und untersucht sie auf ihre KI-Fähigkeiten. Dabei handelt es sich konkret um die Webdienste Wix, Jimdo, 10Web, Bookmark und Zyro. Wir zeigen, an welchen Stellen die KI bei der Umsetzung der Websites zum Einsatz kommt und wie gut ihre Arbeit wirklich ist.

    #www #site_web #hosting #création #business #intelligence_artificiellle #magasin_en_ligne

  • #Apache #redirect www to non-www and HTTP to HTTPS — Simone Carletti
    https://simonecarletti.com/blog/2016/08/redirect-domain-http-https-www-apache

    # Redirection https/www
    RewriteCond %{HTTPS} off [OR]
    RewriteCond %{HTTP_HOST} !^www\. [NC]
    RewriteCond %{HTTP_HOST} ^(?:www\.)?(.+)$ [NC]
    RewriteRule ^ https://www.%1%{REQUEST_URI} [L,NE,R=301]

    # Redirection https/non www
    RewriteCond %{HTTPS} off [OR]
    RewriteCond %{HTTP_HOST} ^www\. [NC]
    RewriteCond %{HTTP_HOST} ^(?:www\.)?(.+)$ [NC]
    RewriteRule ^ https://%1%{REQUEST_URI} [L,NE,R=301]

    ping @jeanmarie je crois que j’ai retrouvé ta source :p

    #rewrite #htaccess

  • Partisanen ziehen sich aus dem Netz zurück
    https://www.neues-deutschland.de/artikel/1146707.trend-infopartisan-partisanen-ziehen-sich-aus-dem-netz-zur

    08.01.2021 von Peter Nowak - Die Onlinezeitung Trend-Infopartisan war eine Plattform für konträre Positionen in der linken Szene

    Eine weitere linke Onlineplattform beendet ihre Arbeit. Die angekündigte Einstellung der Netzzeitung Trend-Infopartisan hat zu manchen nostalgischen Rückblicken geführt, die in der letzten Ausgabe dokumentiert wurden. Schließlich wurden dort mehr als 25 Jahre linke Texte und Debattenbeiträge publiziert, die in anderen Foren zu heftigen Auseinandersetzungen oder gar Trennungen geführt hätten. »Auf Trend-Infopartisan wurden Positionen von antideutschen Gruppen ebenso veröffentlicht wie Beiträge von antiimperialistischen Initiativen und das zu einer Zeit, in der sich beide Strömungen massiv bekämpften«, erklärte eine langjährige Nutzerin der Onlinezeitung, die nicht namentlich genannt werden will.

    Dabei war die Gründung der Onlinezeitung lediglich ein Notbehelf. Seit den 1980er Jahren gaben Mitglieder der Gewerkschaft Erziehung und Wissenschaft (GEW) aus Berlin-Kreuzberg unter dem Namen »Trend« ein gedrucktes Heft heraus, das im Stile vieler linker Publikationen jener Jahre gestaltet war. Ihrem Titel wurden sie insofern gerecht, als dort bereits 1985 über Smog und Umweltverschmutzung in den Städten informiert wurde.

    #gauche #Allemagne #médias #www #histoire #archive

  • Le 15 janvier 2020 Microsoft arrête la publication d’un brouteur internet développé par l’entreprise même. Google est le gagnant de la guerre des brouteurs.

    https://www.heise.de/newsticker/meldung/Alter-und-neuer-Edge-Browser-So-klappt-die-Side-by-Side-Installation-4634074.h

    Ab dem 15. Januar liefert Microsoft die neue Chromium-basierte Fassung des Edge-Browsers via Windows-10-Update-Funktion aus. Nachdem diese installiert wurde, verbleibt der „alte“ Edge zwar noch in Windows 10, lässt sich aber nicht mehr ohne weiteres aufrufen: Der Nutzer wird jeweils zur neuen Version umgeleitet.

    #internet #www #monopoles

  • Mailvelope
    https://www.mailvelope.com/en

    The browser extension Mailvelope provides end-to-end encryption for your existing email address. Encrypt your mails without having to change your email provider! Encryption and decryption takes place exclusively on the end devices. This means that your private data will never leave your device unencrypted.

    PGP-Verschlüsselung für Webbrowser: BSI-Projekt verbessert Open-Source-Software Mailvelope | heise online
    https://www.heise.de/security/meldung/PGP-Verschluesselung-fuer-Web-Mail-BSI-Projekt-verbessert-Open-Source-Software

    Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat nun die Ergebnisse eines seit Januar 2018 laufenden Projektes präsentiert, bei dem mit BSI-Förderung die Benutzerfreundlichkeit der Software verbessert wurde. Unter anderem können Webseitenbetreiber nun mit Mailvelope ihre Webformulare verschlüsseln und Anwender der Software können einfacher Desktop-Mail-Anwendungen für den Empfang dieser Nachrichten verwenden. Außerdem wurde die Schlüsselverwaltung vereinfacht und die Sicherheit der Software verbessert.

    #internet #email #www

  • Projects | Knight Lab
    https://knightlab.northwestern.edu/projects

    The Lab develops prototypes, projects and services that help make information meaningful and promote quality journalism, storytelling and content on the internet

    Storytelling, Beta, Prototypes, Experiments and Past Projects

    Learn.KnightLab.com
    https://learn.knightlab.com

    The web is a journalist’s medium. It influences every part of the journalistic process, from how we find and gather information, to how we craft our stories, to how we track the far reaches of our content. Understanding how it works can only make us better journalists. The best way to know the web is to take charge of it. We’re using open web technologies to build stories, apps, tools, and sites. You can too. If there’s one thing we understand, it’s that learning is a messy process. Come roll around in the mud with us.

    Leaflet - a JavaScript library for interactive maps
    https://leafletjs.com

    Leaflet is the leading open-source JavaScript library for mobile-friendly interactive maps.

    Scrollame
    https://github.com/russellgoldenberg/scrollama
    https://camo.githubusercontent.com/dd3cf52f5dee986437b0ef5b16c24c44364c2a38/68747470733a2f2f72757373656c6c676f6c64656e626572672e67697468

    Scrollama is a modern & lightweight JavaScript library for scrollytelling using IntersectionObserver in favor of scroll events.
    Important Changes

    Version 2.0.0+: .onContainerEnter and .onContainerExit have been deprecated in favor of CSS property position: sticky;. How to use position sticky.
    Version 1.4.0+: you must manually add the IntersectionObserver polyfill for cross-browser support. See installation for details.

    Jump to examples.
    Why?

    Scrollytelling can be complicated to implement and difficult to make performant. The goal of this library is to provide a simple interface for creating scroll-driven interactives. Scrollama is focused on performance by using IntersectionObserver to handle element position detection.

    Export Google Maps Route to KML/GPX - Geographic Information Systems Stack Exchange
    https://gis.stackexchange.com/questions/152571/export-google-maps-route-to-kml-gpx

    Since Google pulled the plug on Google Maps Classic, I’m reluctantly moving to its Google Maps New application.

    However, I didn’t find how to export a route to a GPX or KML file so it can be copied onto my smartphone.

    Can it do this? If not, is there a third-party solution?

    #www #journalisme #javascript #cartographie @nepthys

  • CERN 2019 WorldWideWeb Rebuild
    https://worldwideweb.cern.ch

    Hello, World

    In December 1990, an application called WorldWideWeb was developed on a NeXT machine at The European Organization for Nuclear Research (known as CERN) just outside of Geneva. This program – WorldWideWeb — is the antecedent of most of what we consider or know of as “the web” today.

    In February 2019, in celebration of the thirtieth anniversary of the development of WorldWideWeb, a group of developers and designers convened at CERN to rebuild the original browser within a contemporary browser, allowing users around the world to experience the rather humble origins of this transformative technology.
    Party like it’s 1989

    Ready to browse the World Wide Web using WorldWideWeb?

    Launch the WorldWideWeb browser.
    Select “Document” from the menu on the side.
    Select “Open from full document reference”.
    Type a URL into the “reference” field.
    Click “Open”.

    #Histoire_numérique #WWW #CERN

  • Amérique latine : quelles perspectives en 2019 ?
    https://www.cetri.be/Amerique-latine-quelles

    L’Amérique latine a été marquée cette fin d’année 2018 par les élections de Jair Bolsonaro au Brésil et d’Andres Manuel Lopez Obrador (AMLO) au Mexique. Or, les cycles électoraux ne sont pas terminés et les dynamiques politiques, aussi bien nationales (Venezuela, Brésil, Mexique, Bolivie…) que supranationales (Mercosur, Groupe de Lima, Alliance Pacifique…) seront à observer afin de comprendre les tendances et directions de la région. Par ailleurs, le jeu des États-Unis, de la Chine et de l’Union européenne (...)

    #Le_Sud_en_mouvement

    / #Le_Sud_en_mouvement, Amérique latine & Caraïbes, #www.iris-france.org

    #Amérique_latine_&_Caraïbes

  • Vorwurf an Google: Microsoft Edge mit unfairen Mitteln verdrängt | heise online
    https://www.heise.de/newsticker/meldung/Vorwurf-an-Google-Microsoft-Edge-mit-unfairen-Mitteln-verdraengt-4255990.html
    Browser war reloaded - Edge is dead leaving all it’s victims to be devoured by Chrome.

    Ständige Änderungen am Quelltext

    „Google macht ständig Änderungen an ihren Websites, die auf anderen Browsern nicht funktionieren, und wir konnten nicht hinterherkommen“, heißt es in dem Beitrag. Zum Beispiel habe YouTube durch Hinzufügen eines anscheinend sinnlosen <div>-Elements die stromsparende Hardware-Beschleunigung von Edge ausmanövriert, mit der dieser an Chrome vorbeigezogen sei.
    Anzeige

    Weitere Beispiele nennt Bakita allerdings nicht, und es ist umstritten, ob der Vorwurf stichhaltig ist. Chrome und YouTube gehören zwar beide zum Google-Mutterkonzern Alphabet, sind aber Produkte unterschiedlicher Unternehmen – da ist es fraglich, ob das Chrome-Team so etwas für einen kurzfristigen Vorteil gegen einen kleinen Konkurrenten durchsetzen könnte.
    Zu kleines Team

    Dass Edge bei den Änderungen nicht hinterherkam, hat auch mit der Kopplung der Browser-Updates an die monatlichen Windows-Patchdays zu tun. Nach Beobachtungen des bekannten Webentwicklers Peter-Paul Koch, der über viele Jahre mit den IE- und Edge-Entwicklern zusammengearbeitet hat, war das Edge-Team zu klein für den scharfen Wettbewerb.

    Andererseits kennt sich Microsoft mit unfairen Praktiken im Browser-Wettbewerb ziemlich gut aus. Nicht nur zu Zeiten seiner Dominanz mit dem Internet Explorer benutzte der Konzern seine Windows-Marktmacht für umstrittene und teilweise illegale Vorteilsnahmen. Erst vor drei Monaten zeigte Windows kurzzeitig Werbung für Edge, wenn der Nutzer einen anderen Browser installieren wollte.
    Anzeige

    Anders als Microsoft früher besitzt Google jedoch nicht nur den dominierenden Browser, sondern betreibt auch Webangebote, an denen kaum ein Nutzer vorbeikommt. Dadurch verschieben sich die Grenzen zwischen Google-Techniken und offenen Standards.

    #WWW #internet #monopoles #business

  • Tutorial: Progressive Web Apps mit Workbox, Teil 1 | iX Magazin
    https://www.heise.de/ix/heft/Fortschrittlich-4170444.html

    Progressive Web Apps (PWA) sind das App-Modell der Zukunft: Schon seit einigen Jahren treibt Google ein Konzept voran, das Webanwendungen in auf dem Gerät installierte Apps verwandeln möchte. Dazu gehören native Features wie ein eigenes Symbol auf dem Home-Bildschirm oder in der Programmliste des Systems, Push-Benachrichtigungen oder Offlinefähigkeit.

    Das Anwendungsmodell funktioniert plattformübergreifend, vom iPhone über das Android-Tablet bis hin zum Windows-Desktop. Ausführungsumgebung sind die Webbrowser, die seit dem Aufkommen von HTML 5 eine wahre Flut an modernen Webschnittstellen mit nativer Power erlebt haben: Mittlerweile ist es möglich, aus dem Webbrowser heraus auf Mikrofon und Kamera des Anwenders zuzugreifen oder hardwarebeschleunigte 2D- und 3D-Visualisierungen umzusetzen und darauf aufbauend Virtual-Reality-Anwendungen zu implementieren.

    Für Entwickler haben Progressive Web Apps den Vorteil, dass sie nur noch eine einzige Anwendung schreiben müssen, die auf unterschiedlichen Systemen läuft. Auch die Bereitstellung der Anwendung erweist sich als besonders einfach: Ihre Quelldateien werden schlichtweg auf einen Webserver hochgeladen. Zentrale Techniken bei Progressive Web Apps sind der Service Worker zur Umsetzung von Offlinefähigkeit und das Verschicken von Push-Benachrichtigungen sowie das Web App Manifest, das die Gestaltung des Symbols auf dem Home-Bildschirm und in der Programmliste konfiguriert.

    Alle vier großen Browserhersteller sind mit ihren Webbrowsern an Bord: Google Chrome (ab Version 40), Mozilla Firefox (ab Version 44), Microsoft Edge (ab Version 17) und Apple Safari (ab Version 11.3). Das Ausmaß der Unterstützung variiert jedoch je nach Browser, es stehen also nicht auf jedem Browser sämtliche PWA-Features zur Verfügung.

    Das Konzept der Progressive Web Apps kommt zunehmend in der realen Welt an. So setzen bmw.com und lotto.de die oben genannten Techniken ein, um ihr Webangebot zu einem gewissen Grad auch offline verfügbar zu machen. Um Apps im engeren Sinne handelt es sich bei beiden Angeboten allerdings nicht. Vorzeigbare Progressive Web Apps, die diesen Namen verdienen, sind beispielsweise Twitter Lite (mobile.twitter.com), der offizielle mobile Client für das soziale Netzwerk, oder die Progressive Web App der Financial Times (app.ft.com).

    #WWW

  • Pour conserver la mémoire du web, Internet Archive durcit ses méthodes
    par Julien Lausson pour numerama le 25 avril 2017
    https://www.numerama.com/tech/252324-pour-conserver-la-memoire-du-web-internet-archive-durcit-ses-method

    Depuis plus de vingt ans maintenant, la fondation américaine Internet Archive poursuit une mission démesurée : explorer et mémoriser le web afin de « permettre à tous d’accéder au savoir, gratuitement et pour toujours ». Ainsi, chaque semaine, elle enregistre 300 millions de nouvelles pages dans sa base de données, de façon à ce que chacun puisse les consulter ultérieurement.

    Mais pour la fondation américaine, il y a un problème. Et ce souci s’appelle robots.txt. « Les fichiers robots.txt ont été inventés il y a plus de 20 ans afin d’aider les ‘robots’, surtout ceux des moteurs de recherche, à savoir quelles sont les sections d’un site web qui devraient être explorées et indexées pour la recherche », explique Internet Archive. Or, ce petit fichier baptisé robots.txt entrave le bon fonctionnement de son projet.

    Pour Internet Archive, la question d’un changement complet de philosophie se pose. L’archivage du web ne doit plus se faire en tenant compte des déclarations des fichiers robots.txt qui s’adressent avant tout aux moteurs de recherche. Il doit se faire en prenant en compte le point de vue de l’utilisateur, de façon à lui montrer le web tel qu’il est aujourd’hui. Et tel qu’il était autrefois.

    #WWW #Web #Tech #mémoire #archivage #référencement https://archive.org

    • Les archives de l’Internet accusées de diffusion pirate par des auteurs
      par Antoine Oury pour actualitte le 29 janvier 2018

      Archive.org, l’Internet Archive, est sans aucun doute l’un des sites les plus précieux d’internet : pour les chercheurs dans de nombreux domaines, il est carrément incontournable. Depuis les années 1990, cette plateforme archive les pages web, mais rassemble aussi les collections numérisées de plusieurs bibliothèques, surtout américaines. L’Open Library, un site satellite qui propose des livres numériques sous droit, souvent indisponibles, en prêt, est désormais attaquée par des auteurs qui lui reprochent une diffusion pirate de livres numériques.

      Néanmoins, la plateforme a donné son point de vue à travers un texte signé par Brewster Kahle, un des fondateurs de l’Open Library. Dans ce post https://blog.archive.org/2018/01/24/digital-books-on-archive-org, Kahle explique qu’une grande partie des ouvrages des bibliothèques, qui participent activement à l’Open Library, datent d’avant 1923, ce qui signifie qu’ils sont dans le domaine public. Pour le reste, certains ouvrages sont présents à des fins d’accessibilités, numérisés et traités par le consortium Daisy pour les publics empêchés de lire. Certes, quelques ouvrages publiés entre 1923 et 1961 sont aussi présents dans l’Open Library, mais cela ferait suite à une autorisation spéciale qui s’appliquerait aux livres indisponibles.

      Pour le reste, Kahle assure de la bonne volonté de l’Open Library, et confirme qu’il est possible de faire retirer un titre contrevenant avec un simple message. Sauf que la page d’accueil de l’Open Library fait bel et bien apparaitre des titres visiblement encore sous droits...

      En somme, la vie juridiquement très mouvementée de l’Internet Archive et de l’Open Library risque encore de connaître quelques soubresauts... Certes, Internet Archive est reconnu comme une bibliothèque par certaines juridictions aux États-Unis et pourrait peut-être prétendre au fair use, cette exception au copyright à des fins d’éducation et de préservation du patrimoine, mais rien n’est moins sûr.

      https://www.actualitte.com/article/patrimoine-education/les-archives-de-l-internet-accusees-de-diffusion-pirate-par-des-auteurs/87020

      #Patrimoine #éducation #archivage vs #piratage #open_librairie #Fair_Use https://archive.org