Missing Link : « Der große Plan »
▻https://www.heise.de/hintergrund/Missing-Link-Der-grosse-Plan-10349992.html?seite=all
Sans mentionner Ayn Rand cet article décrit quelques notions essentielles à l’origine des projets des techno-fascistes de la Silicone Valley. Les idées farfelues de la vieille anticommuniste se dessinent dans l’ombre des multinationales géantes .
13.4.2025 von Dr. Wolfgang Stieler, Dr. Volker Zota - Elon Musk gilt als Prototyp des egomanischen und skrupellosen Tech-Unternehmers. Doch hinter seinen Eskapaden steckt wahrscheinlich eine toxische Ideologie.
– Die Rolle von Ideologie
– Singularität durch Superintelligenz
– Der digitale Erlöser
– Intelligenz
– Eugenik
– Transhumanismus
– Catastrophic Risk: Die Obsession mit dem Weltuntergang
– Effektiver Altruismus und Earn to Give
– Longtermism: Existenz der Menschheit sichern
– Relevanz der Ideologie heute
Den meisten Menschen wird das Akronym TESCREAL vermutlich nicht viel sagen. Dabei hat dieser Komplex aus Transhumanismus, Effektivem Altruismus, Singularität, Catastrophic Risk (Katastrophenrisiken), Eugenik, Artificial Intelligence und Longtermism die Eliten des Silicon Valley vermutlich entscheidend geprägt, allen voran Elon Musk. Es handelt sich um eine interpretative Perspektive auf verschiedene technologische und philosophische Strömungen, die zwar im Valley präsent sind, aber nicht zwangsläufig als einheitliche Weltanschauung verfolgt werden.
Der Philosoph Émile Torres hat den Begriff TESCREAL gemeinsam mit der KI-Kritikerin Timnit Gebru entwickelt, um deutlich zu machen, dass viel der schillernden, angesagten Ideologien aus dem Silicon Valley einen gemeinsamen Kern haben: Den tief verankerten Glauben an die angebliche Überlegenheit einer technologischen Elite gegenüber den minderwertigen Massen. Und obwohl es so aussieht, als ob die Tech-Bros im Moment vollkommen damit ausgelastet sind, die USA auszuplündern, spielt diese Ideologie noch immer eine wichtige Rolle.
Die Rolle von Ideologie
Ideologie zu analysieren, mag auf den ersten Blick sehr akademisch wirken – zumal ein Teil der darin enthaltenen Konzepte ein wenig bizarr sind. Es ist jedoch aus zwei Gründen wichtig: Zum einen dient Ideologie immer der Selbstversicherung und Rechtfertigung des eigenen Tuns nach Außen. Zum anderen ist Ideologie auch immer eine Art geistiger Filter, der hilft, Sinn und Struktur in die Welt zu bringen und Unwichtiges von Wichtigem zu unterscheiden. Jemandes Ideologie zu verstehen, bedeutet also auch immer, zu verstehen, wie er oder sie „die Welt sieht“. Werfen wir also einen Blick auf die unterschiedlichen Elemente von TESCREAL.
Singularität durch Superintelligenz
Die Anhänger der Idee einer technischen Singularität gehen davon aus, dass der technische Fortschritt der Menschheit sich im Laufe der Geschichte immer weiter beschleunigt hat. Bereits in Kürze wären die Menschen also in der Lage, eine KI zu bauen, die sich selbst verbessern kann. Ab diesem Zeitpunkt – der Singularität – sei der weitere Verlauf der technischen Entwicklung nicht mehr vorherzusagen. Aus der KI werde sich dann eine übermenschliche „Superintelligenz“ entwickeln, die im schlimmsten Fall die Menschheit vernichtet.
Die Idee der Singularität wurde in den 1990er Jahren durch einen Artikel des Mathematikers Vernor populär und später von Ray Kurzweil weiterentwickelt. Sie fand besonders im Silicon Valley Anklang, wo sie durch Organisationen wie das Singularity Institute (heute MIRI) institutionalisiert wurde. Es ist jedoch wichtig anzumerken, dass die Singularitätstheorie zwar diskutiert wird, aber es keine empirischen Beweise für ihre unmittelbare Realisierbarkeit gibt.
Timnit Gebru vermutet hinter dem Vorhaben keine technische, sondern eine politische Agenda. Gemeinsam mit Torres zieht sie eine historische Linie von den amerikanischen Eugenikern über die Transhumanisten zu den führenden Köpfen von OpenAI, in der es nie um die Zukunft und das Wohl der gesamten Menschheit ging, sondern darum, alles Unnütze und Überflüssige auszusortieren.
Der digitale Erlöser
Künstliche Intelligenz nimmt in der TESCREAL-Ideologie eine Doppelrolle ein: Sie ist gleichzeitig die größte Bedrohung und die ultimative Erlösung. Diese paradoxe Position erklärt sich aus dem fast religiösen Glauben an die transformative Kraft der Technologie im Silicon Valley.
Bezeichnend ist, wie sich die KI-Sicherheitsforschung entwickelt hat: Statt sich auf konkrete Probleme wie Diskriminierung durch Algorithmen zu konzentrieren, beschäftigen sich prominente Forscher mit hypothetischen Szenarien einer Superintelligenz. Das von Musk mitgegründete OpenAI startete als Non-Profit-Organisation für „sichere KI“, verwandelte sich aber später in ein gewinnorientiertes Unternehmen mit Microsoft-Kooperation.
Die Ironie: Unter dem Vorwand, eine sichere KI zum Wohle der Menschheit zu entwickeln, entsteht eine neue Machtkonzentration in den Händen derselben Tech-Elite. Wie Gebru betont, gehen die größten unmittelbaren Gefahren der KI nicht von einer hypothetischen Superintelligenz aus, sondern von ihrer Nutzung zur Verstärkung bestehender Ungleichheiten.
Intelligenz
Tatsächlich ist Gebru nicht die erste, die auf das schwierige Erbe der Intelligenzforschung verweist: Bereits 1981 kritisierte der Biologe Stephen Jay Gould in seinem Buch „Der falsch vermessene Mensch“ das Konzept „Intelligenz“ als objektive Messlatte für allgemeine kognitive Fähigkeiten. Dieses Konzept und die zugehörigen Tests wurde ganz wesentlich von Forschern wie Charles Spearman vorangetrieben, einem hochrangigen Mitglied der britischen Eugenischen Gesellschaft. Die statistischen Methoden, die Spearman entwickelte, entwickelte Frank Rosenblatt dann später für das erste künstliche neuronale Netz weiter.
Eugenik
Wie sein Lehrer, der britische Naturforscher Francis Galton war Spearman davon überzeugt, dass man durch politische Eingriffe dafür sorgen müsse, dass intelligente Menschen sich stärker vermehren als der Rest – eine Idee, die letztendlich zur Rassenlehre der Nazis führte. Doch auch nach dem Ende des zweiten Weltkriegs war die Eugenik nicht restlos diskreditiert.
Transhumanismus
In den 1990er Jahren entwickelte sich in den USA mit dem Transhumanismus eine Ideologie, die den Grundgedanken der Eugenik aufgriff, aber nicht mehr auf Biopolitik, sondern auf individuelle Verbesserungen durch KI oder Gentechnik setzte.
Für Transhumanisten geht die Evolution des Menschen mithilfe von Technologie weiter. Sie glauben, dass Menschen immer stärker mit Technologie zusammenwachsen und schließlich auch ihren Geist in Computer hochladen können, um unsterblich zu werden. Viele moderne Transhumanisten distanzieren sich jedoch ausdrücklich von der Eugenik und betonen stattdessen individuelle Wahlfreiheit und ethische Verantwortung.
Catastrophic Risk: Die Obsession mit dem Weltuntergang
Die Beschäftigung mit existenziellen Risiken – im Jargon der Szene „xrisks“ genannt – hat sich seit den frühen 2000er Jahren zu einem eigenen Forschungsfeld entwickelt. Institutionen wie das Future of Humanity Institute in Oxford widmen sich ausschließlich der Frage, welche Ereignisse die Menschheit auslöschen könnten.
Bemerkenswert ist die Priorisierung: Während der Klimawandel als „lediglich“ zivilisationsgefährdend eingestuft wird, gelten hypothetische Szenarien wie eine außer Kontrolle geratene KI als existenziell bedrohlich. Diese Gewichtung erklärt sich aus der Logik des Longtermism: Ein Ereignis, das die Menschheit auslöscht, verhindert die Existenz aller potenziellen zukünftigen Menschen.
Diese Fokussierung hat konkrete Auswirkungen: Milliardäre wie Dustin Moskovitz oder Jaan Tallinn investieren Millionen in die Erforschung von KI-Risiken, während unmittelbarere Bedrohungen für lebende Menschen als weniger dringlich betrachtet werden.
Effektiver Altruismus und Earn to Give
Einige Transhumanisten, wie etwa Nick Bostrom, entwickelten die Philosophie des „Effektiven Altruismus“ (EA). Der Name leitet sich daraus her, dass es im Kern darum geht, so zu handeln, dass der Nutzen für die gesamte Menschheit maximiert wird — allerdings unter der Prämisse einer neoliberalen Ökonomie. Die Grundannahme: Das „knappe Gut“ Hilfe muss möglichst „gewinnbringend“ eingesetzt werden.
Daraus folgt unter anderem das Prinzip „Earn to Give“: Weil jeder Mensch nur begrenzte Zeit und Energie hat, ist es ethisch geboten, so schnell wie möglich viel Geld zu machen, um einen Teil davon zu spenden. Traditionelle ethische Überlegungen werden von diesem Prinzip übergeregelt.
Ein prominentes Beispiel ist Sam Bankman-Fried, der Gründer der kollabierten Kryptowährungsbörse FTX. Er folgte explizit dem „Earn to Give“-Prinzip und wurde zum Milliardär, bevor sein Unternehmen unter Betrugsverdacht zusammenbrach.
Es sollte jedoch angemerkt werden, dass die EA-Bewegung vielfältiger ist, als oft dargestellt. Während einige Vertreter existenzielle Risiken priorisieren, konzentrieren sich viele EA-Initiativen auf aktuelle Probleme wie globale Gesundheit oder Armutsbekämpfung.
Longtermism: Existenz der Menschheit sichern
Während sich die EA-Bewegung zunächst auf „evidenzbasierte“ Hilfsprojekte konzentrierte, gewann zunehmend ein ideologischer Zweig an Bedeutung, der „Longtermism“ genannt wird. Die Idee: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher, bedeutet die Maximierung des menschlichen Glücks zunächst mal, die Existenz der Menschheit zu sichern.
Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken über existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten lässt, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit führen wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und natürlich auch eine außer Kontrolle geratene Super-Intelligenz gehören dagegen ganz sicher zu den existenziellen Krisen, und sind somit auf jeden Fall zu vermeiden – wenn die Menschheit es denn schafft. Laut KI-Pionier Geoffrey Hinton könne und werde eine entsprechend intelligente KI Menschen so manipulieren, dass sie mehr Autonomie erlangt, eine Idee, die aus dem sogenannten AI-Box-Experiment stammt, das in xrisk-Kreisen seit den 2000ern diskutiert wird.
Daraus folgt – wenig überraschend: EA hat sich seit Anfang der 2000er vorwiegend im Silicon Valley zu einer Bewegung entwickelt, die über viel Geld und Einfluss verfügt, weil sie Tech-Bros wie Peter Thiel, Elon Musk oder Sam Bankman-Fried angezogen hat. Thiel hat öffentlich erklärt, dass er nicht mehr glaube, Freiheit und Demokratie seien miteinander vereinbar – eine persönliche politische Überzeugung, die jedoch nicht notwendigerweise die Haltung aller mit TESCREAL assoziierten Personen darstellt.
Befürworter dieser Ideologien argumentieren, dass sie rational versuchen, die größten Herausforderungen der Menschheit zu bewältigen. Kritiker wie Gebru und Torres hingegen weisen darauf hin, dass diese scheinbar rationalen Ansätze oft bestehende Machtverhältnisse reproduzieren und drängende Probleme wie Klimawandel oder soziale Ungerechtigkeit vernachlässigen.
Relevanz der Ideologie heute
Auf den ersten Blick scheint es so, als ob all dieser ideologischen Elemente keine Rolle mehr spielen würden. Stattdessen konzentrieren sich die Tech-Eliten jetzt auf die neoliberale Erzählung vom unfähigen und ineffizienten Staat, den man abschaffen und durch eine dynamische Struktur nach dem Vorbild eines Hightech-Unternehmens ersetzen müsse.
Die praktischen Auswirkungen dieser Ideologie sind weitreichend: Sie beeinflussen Investitionsentscheidungen in Milliardenhöhe und prägen die Entwicklungsrichtung von Zukunftstechnologien. In der Praxis führt sie oft zu einer Privatisierung gesellschaftlicher Zukunftsfragen, bei der demokratische Prozesse durch die Visionen einzelner Tech-Milliardäre ersetzt werden. Diese Einschätzung spiegelt allerdings eine bestimmte kritische Perspektive wider, die nicht universell anerkannt ist.
Musks Engagement spiegelt diese Ideologie in vielfältiger Weise wider: Seine Raumfahrtfirma SpaceX verfolgt mit dem Mars-Kolonisierungsprojekt die transhumanistische Vision einer multiplanetaren Menschheit, Neuralink zielt auf die direkte Verbindung von Gehirn und Computer ab, und seine KI-Aktivitäten folgen der Logik des Longtermism.
„Was hat Musk wirklich vor?“, fragt Torres. „Ich denke, dass die offensichtlichen Antworten zwar wahr, aber unvollständig sind. Offensichtliche Antworten sind zum Beispiel: Man wird nicht zum Milliardär, wenn man nicht diese Art von größenwahnsinniger Selbstwahrnehmung hat, in der man sich in jeder Hinsicht überlegen fühlt. Und diese Leute sind extrem gierig. Wenn sie sich mit der Trump-Regierung anfreunden, ist das gut für das Geschäft, für die weitere Festigung ihrer Macht.“
"Aber ich denke, für Leute wie Musk, und ich würde wahrscheinlich dasselbe für Jeff Bezos sagen, gibt es ein höheres Ziel. Musk hat so viele Hinweise darauf gegeben, dass Macht nicht das Endziel ist. Sogar in dieser Rede, die er gehalten hat, der sehr kurzen Rede nach der Amtseinführung von Trump, in der er den Hitlergruß zeigte. In dieser kleinen Rede sagt er: „Dank Ihnen ist die Zukunft der Zivilisation gesichert.“ Und so denke ich, dass es ein sehr starkes Argument dafür gibt, dass hinter all dem sein tieferes Ziel steht, seine transhumanistischen Projekte zu verwirklichen."
#USA #TESCREAL #impérialisme #technocratie #fascisme #eugénisme #singularité #transhumanisme