KI und GPT : Tschüss, ihr Nutzlosen !

/KI-und-GPT-Tschuess-ihr-Nutzlosen-89495

  • KI und GPT: Tschüss, ihr Nutzlosen!
    https://www.telepolis.de/features/KI-und-GPT-Tschuess-ihr-Nutzlosen-8949538.html?seite=all

    14.4.2023 von Philipp Fes - Bedroht Künstliche Intelligenz millionenfach Jobs und gar die „menschliche Zivilisation“? Oder geht es wieder nur um mehr Kontrolle? Hier eine kritische Zwischenbilanz.

    Vor wenigen Tagen ist Gordon Moore gestorben. Wer die extrem schnellen Entwicklungen in der sogenannten digitalen Revolution versinnbildlichen will, bedient sich gerne des Gesetzes, das der Intel-Mitgründer 1965 aufstellte.

    „Moores law“ besagt (grob), dass sich die Leistung eines Computerchips rund alle zwei Jahre verdoppelt. Exponentielles Wachstum. Dessen Zeuge werden wir derzeit auch bei der Künstlichen Intelligenz (KI, engl.: AI) und dem sogenannten Deep Learning.
    Der heilige Gral und das neue Millionen-Prekariat

    Zumindest legt die beeindruckend rasante Entwicklung der Programme Chat-GPT (Generative Pre-trained Transformer) und dessen Nachfolger GPT-4 dies nahe. Steckte das im November 2022 veröffentlichte Chat-GPT bei der US-Zulassungsprüfung für Juristen (Uniform Bar Exam) bereits zehn Prozent der Teilnehmer in die Tasche, schaffte GPT-4 einige Monate später schon ganze 90 Prozent. Bei der Biologie-Olympiade übertraf es sogar 99 Prozent seiner menschlichen Mitbewerber. Und GPT-5 ist bereits unterwegs.

    Open AI, das Unternehmen mit Hauptsitz in San Francisco, welches GPT-4 Mitte März veröffentlicht hat, verspricht eine gegenüber dem Vorgänger bessere Anpassung an die menschlichen Bedürfnisse ("alignment") und mehr faktenbasierte Antworten. Vorgänger Chat-GPT hatte schließlich noch recht viele „Halluzinationen“, sprich: Es baute syntaktisch sinnvolle Sätze mit falschen Informationen und Zitaten zusammen. Man könnte auch sagen: Lügen.

    Mit solchen Kinderkrankheiten soll es aber bald zu Ende sein. Wenn die sogenannte „generative“ (oder auch: statistische) KI von GPT mit einer „symbolischen“ KI gepaart wird, die nicht nur Satzbau, sondern auch Logik modelliert, erscheint für manche Beobachter schon der heilige Gral der Informatik am Horizont: Die technologische Singularität – der Zeitpunkt, an dem die Künstliche Intelligenz die menschliche vollständig übertrifft. Doch zunächst folgt eine Zwischenetappe, in der AI zu AGI wird.

    AGI steht für „artificial general intelligence“, also eine (summarische) Superintelligenz, die selbstreflektiert, beziehungsweise, wie es im englischsprachigen Raum heißt, „sentient“, also: empfindungsfähig, ist. Einer solchen Entität schreibt Open-AI-CEO Samuel Altman die Kraft zu, das System des Kapitalismus zu zerstören. Und sieht man nicht schon erste Anzeichen dafür?

    Meta-CEO Marc Zuckerberg kündigte am Datum des Erscheinens von GPT-4 im Zuge einer „Effizienz“-Initiative an, 10.000 Stellen zu streichen und 5.000 weitere nicht neu zu besetzen. Im gleichen Atemzug ließ er seine Facebook-Gefolgschaft wissen, dass der Großteil der Investitionen in KI-Automatisierung fließt. Zwei Tage danach berichtet das Magazin Business Insider von einer Entlassungswelle im IT-Sektor, die seit Anfang 2022 insgesamt 200.000 Stellen umfasst.
    Voraussage Weltwirtschaftsforum: 85 Millionen Entlassungen

    Hatte das Weltwirtschaftsforum 2020 bereits prognostiziert, dass aufgrund des Fortschritts der sogenannten Vierten Industriellen Revolution bis 2025 insgesamt 85 Millionen Entlassungen bevorstünden, legte die umstrittene Investmentbank Goldman Sachs am 26. März mit noch weitaus erschütternden Zahlen nach.

    Demnach könnte KI alleine in den USA und Europa rund ein Viertel aller Stellen vollständig und zwei Drittel teilweise ersetzen. Betroffen seien insgesamt 300 Millionen Arbeitsplätze. Gleichzeitig verspricht die KI, das weltweite Bruttosozialprodukt um sieben Prozent zu erhöhen.

    Zu den am meisten betroffenen Jobs zählen laut der Goldman-Analyse „repetitive“ Büro- und Verwaltungstätigkeiten (46 Prozent), Juristische Dienstleistungen (44 Prozent) sowie die Tätigkeiten von Architekten und Ingenieuren. Am wenigsten gefährdet sind demnach Reinigungs- und Wartungsarbeiten (ein Prozent), Installations- und Reparaturberufe (vier Prozent) sowie die Arbeit auf dem Bau (6 Prozent).

    Besteht aber vielleicht gar kein Grund, sich Sorgen zu machen?
    Eigentum – Sache der Elite oder der Algorithmen?

    Das suggeriert jedenfalls die WEF-Prognose von 97 Millionen neuen Jobs, die im Zuge der KI-Automatisierung entstehen – also 12 Millionen mehr, als entfallen. Eine kürzlich erschienene Studie, die Business Insider zitiert, rechnet allerdings damit, dass sogenannte Large Language Modules (LLMs) wie GPT-4 deutlich mehr Tätigkeiten aufmischen, als weithin angenommen.

    Dazu zählen besonders Jobs im „Telemarketing“, aber auch weniger naheliegende Jobs wie Lehrberufe – etwa für (Fremd-)Sprachen und Geschichte. Wenn man liest, dass die Kleidungsmarke Levi’s mit KI-generierten Models experimentiert, „um für mehr Diversität zu sorgen“ regt das die Fantasie für Jobverluste zusätzlich an.

    Der israelische Historiker Yuval Noah Harari hat 2017 in gewohnt provokanter Weise von einer „neuen Klasse der Nutzlosen“ gesprochen, die die „KI-Revolution“ hervorbringen wird – die Konnotation mit „nutzlosen Essern“ ist unüberhörbar und auch das sogenannte „lebensunwerte Leben“ im Nationalsozialismus schwingt im Echo mit. Harari stellt zwei neue Gesellschaftsmodelle zur Debatte:

    Wenn Algorithmen Menschen aus dem Arbeitsmarkt verdrängen, könnten sich Reichtum und Macht in den Händen einer winzigen Elite konzentrieren, die im Besitz der allmächtigen Algorithmen ist, was zu einer noch nie dagewesenen sozialen und politischen Ungleichheit führt. Alternativ könnten die Algorithmen selbst zu den Eigentümern werden.

    Um die „überflüssigen“ humanen Ressourcen aufzufangen, führen zahlreiche Debatten-Teilnehmer ein bedingungsloses Grundeinkommen ins Feld. Der Think-Tank Demos Helsinki, bekannt für das Szenario der Algorithmen-gesteuerten „post-voting-society“, hat in Finnland bereits mit dem „tragfähige[n] Konzept zur Existenzsicherung im digitalen Zeitalter“ (Vgl. Smart City Charta) experimentiert.

    Während der Corona-Krise 2020 sprachen sich in einem Beitrag für das WEF die stellvertretende UN-Generalsekretärin Kanni Wignaraja und sogar der Papst für ein „universal basic income“ (UBI) aus.

    Zahlreiche Kritiker warnen dagegen vor einem Einfallstor für ein Sozialkreditsystem nach chinesischem Vorbild. Und zuletzt wurden auch noch andere Gründe gegen GPT angeführt.
    Kritik aus den eigenen Reihen

    Einer davon betrifft schlicht die (personenbezogenen) Daten, die sich das Programm zum „training“ massenhaft einverleiben muss. Italien sagt kürzlich nein zu GPT-4, und auch der deutsche Datenschutzbeauftragte Ulrich Kelber behält sich offenbar vor, dem US-Unternehmen die rote Karte zu zeigen.

    Den großen Warnschuss gegen die Technologie als solche gaben aber vergangene Woche das Future of Life Institute und die Unterzeichner von dessen offenem Brief ab (Telepolis berichtete).

    Die Unterzeichner um Tesla-Chef Elon Musk, namhafte Szenegrößen wie KI-Theoretiker Stuart Russell, Apple-Mitgründer Steve Wozniak, Deep-Learning-Pionier Yoshua Bengio (der auch im Beirat von Open AI sitzt) wie auch Programmierer aus Googles konkurrierender KI-Schmiede DeepMind warnten vor einem gefährlichen Übereifer bei der weiteren Entwicklung Künstlicher Intelligenz und forderten einen sechsmonatigen Stopp, um das Risiko eines totalen „Kontrollverlusts“ gebührend auszuloten.

    Auch Yuval Noah Harari hat unterzeichnet. Seine Unterschrift verwundert vielleicht aber weniger als die von Elon Musk, dessen Stiftung mit 3,5 Millionen Dollar 2021 der größte Geldgeber des Future of Life Institute ist.

    Musk, dessen Großvater Joshua Haldeman Mitglied bei Technocracy Incorporated war, einer Bewegung, die für eine radikale Umstrukturierung der kanadischen und US-amerikanischen Gesellschaftssysteme „auf wissenschaftlicher Basis“ eintrat – und sich im Übrigen auch für ein bedingungsloses Grundeinkommen starkmachte.

    Musk, der selbst mit seinem Unternehmen Neuralink am ethischen Grenzbereich der KI- beziehungsweise Computer-Gehirn-Schnittstellen forscht.

    Und vor allem: Musk, der Open AI mit ins Leben gerufen hat – unter anderen zusammen mit dem Palantir-Gründer und ehemaligen Paypal-Partner Peter Thiel, LinkedIn-Mitgründer Reid Hoffman und Gründerzentrum Y Combinator-Mitgründerin Jessica Livingston.

    In diesem Punkt agiert Musk allerdings überaus konsequent: Denn die Open-AI-Truppe ist damals genau dazu angetreten, was er als Unterzeichner des offenen Briefs nun einfordert: Den Worst Case in puncto KI zu verhindern. Kehren wir dafür kurz zurück ins Jahr 2015.
    Die verworrene Geschichte von Open AI: Von „Offenheit“ zum Profit

    Open AI wird in San Francisco als Non-Profit-Unternehmen gegründet, das im Auftrag der Allgemeinheit die Künstliche Intelligenz erforschen soll – deren Möglichkeiten, vor allem aber auch deren Grenzen. So heißt es im Gründungsmanifest:

    Es ist schwer vorstellbar, wie sehr eine KI auf menschlichem Niveau der Gesellschaft nützen könnte, und es ist ebenso schwer vorstellbar, wie sehr sie der Gesellschaft schaden könnte, wenn sie falsch gebaut oder eingesetzt wird.

    Der Forschungsetat in Höhe von damals einer Milliarde Dollar setzt sich aus Spenden der Unterzeichner zusammen, zu denen neben den Gründern Musk und Thiel auch die indische Softwarefirma Infosys und Amazons Cloud-Sparte Amazon Web Services zählen. Die nichtkommerzielle Ausrichtung benennen die Gründer im Manifest als wesentliche Voraussetzung dafür, sich auf „den positiven Einfluss [der KI] auf die Menschheit“ zu konzentrieren.

    Das „open“ im Namen bezog sich zum einen darauf, dass die aus der Forschung heraus entstandenen Anwendungen der Allgemeinheit zur Verfügung gestellt werden sollten, zum anderen auf den offenen Quellcode (open source), der es Software-Entwicklern erlauben sollte, die Programmierung nachzuvollziehen – und so auch mögliche Manipulationen und Trojaner aufzuspüren. Ab 2018 wurden diese hehren Ziele jedoch allmählich über Bord geworfen.

    Moderne Entwicklungen auf dem Gebiet der Künstlichen Intelligenz bedürfen einer exorbitanten Rechenleistung. Im April 2018 erklärt Mitgründer Greg Brockman, dass Open AI „substanzielle Ressourcen“ anzapfen müsse, um seinem Auftrag gerecht zu werden. Dabei würden potenzielle Interessenkonflikte gegenüber der Gemeinnützigkeit stets „sorgfältig“ geprüft. Zwei Monate zuvor ist Elon Musk aus Open AI ausgestiegen. Warum?

    Eindeutige Stellung bezogen hat Musk dazu nie. 2019 führte er in einem Tweet unter anderem Interessenkonflikte mit Teslas KI-Forschung an. Außerdem sei er „mit manchem, was [das] Open AI Team machen wollte, nicht einverstanden gewesen“. Später bemängelte er zudem die „Sicherheit“ von GPT und Co.

    Trotzdem sicherte der Tesla-Chef dem Unternehmen weiter finanzielle Unterstützung zu (die dann aber nicht mehr erfolgte, insgesamt spendet der gebürtige Südafrikaner „nur“ 100 Millionen). Seine Firma Neuralink teilte sich noch 2019 mit Open AI sogar denselben Standort. Und dann ist da noch die Open AI-Direktorin, mit der Musk zwei Kinder hat.

    Einige bezweifeln, dass Tesla der wahre Grund für Musks Ausstieg war. Manche beziehen sich dabei auf einen brisanten Bericht des Internetportals Semafor, demzufolge Musk 2018 vorschlug, Open AI selbst zu übernehmen. Nur, weil er an der Ablehnung der Mitgründer scheiterte, soll er den Vorstand schließlich verlassen haben.

    Mitte Februar 2023 erklärte der Twitter-Chef auf der mittlerweile eigenen Plattform, dass Open AI von dem Grundgedanken abgerückt sei, den er unterstützt habe:

    OpenAI wurde als quelloffenes (deshalb habe ich es „Open“ AI genannt), gemeinnütziges Unternehmen gegründet, um als Gegengewicht zu Google zu dienen, aber jetzt ist es ein Closed-Source-Unternehmen mit maximaler Gewinnspanne geworden, das effektiv von Microsoft kontrolliert wird.

    Tatsächlich kehrt sich Open AI 2019 von seinem Ursprungsmodell ab. Die Investigativjournalistin Karen Hao hat den Werdegang des Unternehmens von der Gemeinnützigkeit zum Profit-Betrieb in einem Artikel für das MIT Technology Review minutiös nachgezeichnet.

    Der Grund für die Hinwendung zum Profit-Modell liegt Semafor zufolge in der Erfindung von Google Brains „Transformer“-System – einem neuronalen Netzwerk, das 2017 einen enormen Durchbruch für LLMs bedeutete (Aus diesen ging schließlich Googles LaMDA, Language Model for Dialogue Applications, hervor – das System, von dem Entwickler Blake Lemoine behauptete, es sei empfindungsfähig).

    Wenn Open AI wettbewerbsfähig bleiben, will, muss es die KI mit massenweise Daten füttern. Und dafür braucht es Rechenleistung. Womit wir wieder beim Geld wären. Und das kommt.

    Ohne Microsofts Milliarden kein GPT

    Im Juli kündigt Open AI an, dass Microsoft eine Milliarde Dollar investiert, um den Traum von der AGI zu erfüllen.

    Microsoft stellt Open AI einen Supercomputer zur Verfügung, der auf seinem Cloud-Dienst Azure basiert. Er verfügt über genug Rechenkapazität, um die immer komplexeren KI-Modelle zu stützen und zu trainieren.

    Die Maschine frisst Geld, und nach einer weiteren Investition von zwei Milliarden kündigt Microsoft Anfang Januar 2023 an, Open AI mit nicht weniger als zehn Milliarden Dollar zu unterstützen. Unbestätigten Gerüchten zufolge im Austausch für 49 Prozent Beteiligung und 75 Prozent Gewinne des Unternehmens aus San Francisco, das inzwischen ganze 29 Milliarden Dollar schwer ist.

    Das alles nicht umsonst: Microsofts CEO Satya Nadalla rechnet laut einem im Januar erschienenen Artikel der New York Times damit, dass innerhalb der kommenden drei Jahre zehn Prozent aller Daten KI-generiert sind ("smart data"), was Azure einen Profit von geschätzt sieben Milliarden Dollar einbringen wird. Außerdem schielt Microsoft mit der Verknüpfung von GPT und der Suchmaschine Bing darauf, Platzhirsch Google vom Markt zu verdrängen.

    Trotzdem verpflichtet sich Open AI im Februar 2023 weiterhin einem „dezentralisiert[en]“ und „demokratisiert[en]“ Ansatz. Schließlich reichen die Anwendungsgebiete der künftigen Super-KI weit in den öffentlichen Bereich hinein:

    Wir wollen, dass AGI mit den Menschen zusammenarbeitet, um derzeit unlösbare multidisziplinäre Probleme zu lösen, einschließlich globaler Herausforderungen wie Klimawandel, erschwingliche und hochwertige Gesundheitsversorgung und personalisierte Bildung.

    Doch die sogenannten Smart Cities und Co. sind ein anderes Thema.

    Problematische Programmierungen

    Ende 2022 nannte Musk einen weiteren Grund, warum er der Entwicklung von Open AI skeptisch gegenüberstehe: Das „alignment“. Der überzeugte Konservative kritisierte gemeinsam mit rechten Reizfiguren wie Ben Shapiro, dass GPT trainiert werde, „woke“ zu sein. In diesem Kontext nannte er die Nutzungsbedingungen von ChatGPT, die unter anderem das Verbreiten von Desinformation und anstößigen oder verletzenden Inhalten verbieten. Ein Beispiel?

    Die Software „weigerte“ sich etwa mit dem Verweis auf verbotenen „politischen, voreingenommenen oder parteiischen“ Inhalt, ein „positives“ Gedicht über Donald Trump zu verfassen. Eines über Joe Biden ging ihr dagegen leicht von den virtuellen Lippen.

    Ende Februar berichtete das Online-Magazin The Information, dass Musk nun sein eigenes, „anti-wokes“ Open AI aufbauen will. Laut Mitgründer Brockman, der Musks Kritik überraschenderweise teilt, sei das ohnehin immer Musks Wunsch gewesen.

    Wie Roland Benedikter in seinem jüngsten und hochinformativen KI-Dreiteiler für Telepolis schreibt, werden Open AI und GPT die Vorwürfe der Voreingenommenheit auch von internationaler Seite gemacht: China blockiert das LLM aus San Francisco als „Propagandainstrument“ – und arbeitet derweil an einer eigenen Konkurrenz-KI.

    Noch mehr Kontrolle durch eine neue Form des Positivismus?

    Die philosophischen und gesellschaftlichen Probleme und Fragestellungen, die sich durch eine AGI ergeben, sind weitreichend. Zu weitreichend, als dass sie hier im Einzelnen besprochen werden können. Und zu früh ist es auch. Denn vieles spricht dafür, dass der uns blendende Hype selbst aus einem „Verblendungszusammenhang“ heraus erwachsen ist.

    Und das nicht nur, weil manche Experten wie der britische Computerwissenschaftler Mike Pound bestreiten, dass – wie bei LaMDA behauptet – die Zusammensetzung sinnvoll erscheinender Versatzstücke mit tatsächlichem Sinnieren gleichgesetzt werden kann und den KI-Hype zunehmend als Marketing-Kampagne wahrnehmen.

    Wie Benedikter auf Telepolis schreibt, ist die übermenschliche KI zuallererst ein Versprechen. Das „systemintegrierende Potenzial“ erlaube es ihr, jeden noch so kleinen Teil des Alltags einem „technologischem Pragmatismus“ nachzuordnen, aus dem sie letztlich entstanden ist. KI ist das Versprechen der Beherrschung, der „Entzauberung“ der Welt, wie Max Weber es genannt hat. Das ist des Pudels Kern.

    Denn mit dem Glauben (denn mehr ist es derzeit noch nicht) an die Allmacht der KI bildet sich eine neue Form des Positivismus heraus, also der Welterschließung, deren Wahrheiten sich alleine auf wissenschaftlich – also: technisch – überprüfbare Analysen stützen: Nur, was gemessen werden kann, ist. Und was nicht gemessen werden kann, ist nicht. Oder zumindest nicht wissenschaftlich. Nicht rational. Fauler „Zauber“.

    Der Kritischen Theorie und ihren Vertretern (Horkheimer, Habermas und Co.) ist der Positivismus zur Antithese geworden, weil er der Emanzipation des Menschen von der reinen Zweckmäßigkeit zuwiderläuft. Der technische Fortschritt speist sich dagegen vielmehr daraus, dass immer mehr „Lebenswelt“ in zweckmäßige „Systeme“ integriert wird. Oder, wie es bei Herbert Marcuse etwas radikaler heißt1:

    Demgemäß ist der Positivismus ein Kampf gegen alle Metaphysiken, Transzendentalismen und Idealismen als obskurantistischen und regressiven Denkweisen.

    Die „Ideologie“, die Marcuse beschreibt, heißt bei Adorno und Horkheimer „instrumentelle Vernunft“, Habermas nennt sie später beim Namen: „Technik und Wissenschaft“. Wolfgang Streeck schreibt noch später von „technokratischen Steuerungsmodellen“. Es ist kein Zufall, dass die Kybernetik (gr. kybernan = „steuern“) am Ursprung des Informationszeitalters und dem Cyber-Space steht.

    „Technologie birgt eine Affinität zum Positivismus“, muss auch der Technikphilosoph Andrew Feenberg rund 60 Jahre nach Adorno und Horkheimer bekennen. Dass wir uns mit der Technik eine „zweite Natur“ errichten (Vgl. Georg Lukacs), eine „virtual reality“, führt dazu, dass wir nur technisch Erschlossenes als wahr annehmen.

    Um also endlich zum Thema zurückzukommen: Was die KI nicht kennt, ist irrelevant, gibt es nicht. Das führt spätestens zu Problemen, wenn – wie in der Ukraine gewünscht – die KI die Rolle des Richters übernimmt.

    „[Wissenschaftliche] Aufklärung ist totalitär“, „[Wissenschaftliche] Aufklärung schlägt in Mythologie zurück“, heißt es bei Adorno und Horkheimer 1944. Man könnte auch sagen: Wissenschaftliche Aufklärung verdrängt ihren blinden Fleck, das, worüber sie hinwegsieht. Doch was sie ausschließen will, holt sie ein: Religion. Und so kommt es, dass die neuen KI-Propheten esoterische Ganzheitlichkeit mit totaler Kontrolle verwechseln.

    Die Kritische Theorie wirft zwei Fragen auf, die sich bei jeder einzelnen technologischen Erfindung zu stellen lohnen: Wie viel „Lebenswelt“ wollen wir dieser Kontrolle opfern, und – vielleicht noch wichtiger – wer darf darüber entscheiden?