Elon Musks radikales Langfristdenken verbindet ihn mit den Vordenkern der ökologischen Bewegung. Was auf den ersten Blick als löbliches Anliegen erscheint – nämlich das langfristige Überleben der Menschheit zu sichern – ist in Wirklichkeit eine gefährliche Ideologie. Eine theologische Kritik.

Elon Musk, der Tech-Unternehmer, der in den letzten Monaten zu einem der wichtigsten Berater von Donald Trump aufgestiegen ist, ist angetrieben von der Idee des Longtermism. Man könnte den Begriff im Deutschen mit "Langfristdenken" oder "Zukunftspriorisierung" übersetzen. Es handelt sich um eine spezifische Variante des Utilitarismus, welche das langfristige Überleben der Menschheit als oberste Priorität ansieht. Worum geht es?

Stellen Sie sich vor, Sie haben gerade ein Schiffsunglück überlebt und sitzen in einem Rettungsboot. Sie sehen etwas entfernt Ihr eigenes Kind auf einer Holzplanke treibend: Es wird nicht mehr lange durchhalten. In der entgegengesetzten Richtung sehen Sie drei fremde Kinder ebenfalls auf einer Holzplanke. Ein Utilitarist würde argumentieren, man müsse selbst in einer solchen Ausnahmesituation nach dem Prinzip "der größte Nutzen für die größte Zahl" vorgehen, also zuerst versuchen, die drei fremden Kinder zu retten.

Utilitaristen und Kommunitaristen

Ein Gegenmodell zum Utilitarismus ist der Kommunitarismus. Fast alle Menschen hätten Verständnis dafür, wenn jemand in der geschilderten Situation – wie auch in weniger drastischen Fällen – seine eigene Familie und Freunde bevorzugt behandelt. Der Kommunitarismus als ethische Theorie steht im Einklang mit dieser Intuition: Soziale Bindungen und Identitäten dürften und müssten in ethische Abwägungen einbezogen werden.

Utilitaristen wenden ihr konsequentialistisches Prinzip nicht nur auf moralische Dilemmata in der Gegenwart, sondern auch auf zukünftige Entwicklungen an. Wenn es möglich ist, durch ein gegenwärtiges Opfer einen zukünftigen Nutzen hervorzubringen, der deutlich größer ist als der gegenwärtige Schaden, so sei ein solches Opfer moralisch geboten.

Auch hier wenden Kommunitaristen ein, moralische Verpflichtungen seien nicht universell und zeitlos, sondern in sozialen und historischen Kontexten verankert. In seinem Buch Justice: What's the Right Thing to Do? (2008) geht Michael Sandel davon aus, dass ein möglicher Nutzen oder Schaden für noch nicht existierende Wesen keinesfalls gleich gewichtet werden dürfe wie der Nutzen oder Schaden für gegenwärtig lebende Menschen. Ähnlich argumentierten bereits Bernard Williams (Ethics and the Limits of Philosophy, 1985) und David Heyd (Genethics: Moral Issues in the Creation of People, 1992).

Häufig wird diese Gegenüberstellung von Kommunitarismus und Utilitarismus jedoch zu stark vereinfacht und in Schwarz-Weiß-Kategorien dargestellt. Tatsächlich lässt sich der Utilitarismus modifizieren, sodass viele Intuitionen des Kommunitarismus eingebettet werden: (1) Nutzen kann nicht nur individuell, sondern auch gemeinschaftlich bemessen werden, etwa in Form von kulturellen Werten und Errungenschaften. (2) Gemeinschaftspflichten können nach dem sogenannten Regel-Utilitarismus subsidiär begründen werden: Die größere Gemeinschaft profitiert davon, wenn kleinere Teil-Gemeinschaften Sondernormen befolgen, die ihre eigene Gemeinschaft bevorzugen, insofern diese Sondernormen nicht eklatant gegen das Gemeinwohl verstoßen. (3) Zukünftige Entwicklungen könnten mit einem Unsicherheitsfaktor proportional zum zeitlichen Abstand in die Rechnung einbezogen werden. Von anderer Seite herkommend würden Kommunitaristen das Wohl fremder sowie zukünftig lebender Menschen nicht als irrelevant betrachten, sondern es abgestuft in ethische Abwägungen mit einbeziehen.

Doch ist nicht jeder Utilitarist bereit, sich den moralischen Intuitionen des Kommunitarismus anzunähern. Peter Singer bespricht im zweiten Kapitel seines einflussreichen Werkes Praktische Ethik (1979) ähnliche moralische Dilemmata: Zwar habe er in emotionaler Hinsicht Verständnis für die Entscheidung, in drastischen Situationen eigene Familienmitglieder bevorzugt zu behandeln; doch sei nach ihm diese Entscheidung objektiv falsch. Man müsse sich von vielen moralischen Intuitionen verabschieden, um immer das Gesamtwohl im Blick zu haben. Und dieses Gesamtwohl umfasse auch zukünftige Generationen.

Während selbst Peter Singer die Interessen gegenwärtig lebender Menschen (und nichtmenschlicher Lebewesen) noch priorisiert, wird im Longtermism die größere Zahl der zukünftig lebenden Menschen höher gewichtet als die geringere Zahl der aktuell lebenden Menschen.

Damit sind wir beim Longtermism, der nicht nur Elon Musk inspiriert, sondern auch andere Köpfe der Tech-Industrie. Während selbst Singer die Interessen gegenwärtig lebender Menschen (und nichtmenschlicher Lebewesen) noch priorisiert, wird im Longtermism die größere Zahl der zukünftig lebenden Menschen höher gewichtet als die geringere Zahl der aktuell lebenden Menschen. Hier, so könnte man argumentieren, wird der Utilitarismus konsequent zu Ende gedacht.

Wähle Deine Katastrophe

Dieses Denken ähnelt interessanterweise dem Denken führender Intellektueller der ökologischen Bewegung. Obwohl die diskutierten Szenarien sehr unterschiedlich sind, ist die Argumentationsweise ähnlich: Viele Öko-Aktivisten argumentieren, wir müssten große wirtschaftliche Einbußen – und in Folge auch humanitäre Kosten – in Kauf nehmen, um den Klimawandel zu bekämpfen. Wirtschaftswissenschaftliche Studien liefern hierfür die Grundlage: So schätzt das Potsdam-Institut für Klimafolgenforschung, dass die Vermeidungskosten für einen Zwei-Grad-Pfad sechsmal günstiger wären als die Kosten der Schäden, die durch einen ungebremsten Klimawandel entstehen würden. Longtermisten sehen stattdessen andere Gefahren für die Weiterexistenz der Menschheit als viel bedrohlicher an: Nuklearkriege, Asteroideneinschläge, eine existenzielle Pandemie oder eine sich verselbständigende künstliche Intelligenz.

Elon Musk ist bereit, hunderte Milliarden Dollar zu investieren, um den Mars zu besiedeln. Er argumentiert damit, dass dies der einzige Weg sei, dass die Menschheit im Fall eines asteroidalen Extinktionsereignisses überleben könne. Daher sei es nicht nur gerechtfertigt, sondern sogar geboten, eine solch große Menge Geld dafür zu investieren, selbst wenn man alternativ damit Millionen heute lebende Menschen vor dem Verhungern retten oder das Leben von noch mehr Menschen erleichtern könnte.

Dieses Ziel anzustreben ist prima facie sinnvoll. Es besteht ein kleines, aber reelles Risiko, dass die Erde innerhalb von kurzer Zeit unbewohnbar wird. Wenn man in großen Zeitspannen denkt, ist es sogar sicher, dass die Erde irgendwann unbewohnbar wird – spätestens wenn die Sonne in etwa fünf Milliarden Jahre zu einem roten Riesen wird. Sehr wahrscheinlich wird aber schon früher ein globales Extinktionsereignis stattfinden; diese treten im Durchschnitt alle 50 bis 100 Millionen Jahre auf; vor 66 Millionen Jahren wurden bekanntermaßen die Dinosaurier durch einen Asteroideneinschlag ausgelöscht. Vor kurzem wurde bekannt, dass der Asteroid 2024-YR4 einen Kurs auf die Erde nimmt – zum Glück hat er wohl nur einen Durchmesser von 100 Metern; um die Menschheit auszulöschen, müsste dieser etwa 10 Kilometer aufweisen. Angenommen, dies wäre bei YR4 der Fall: Die Vorlaufzeit für eine Besiedelung des Mars wäre bis zum Einschlagsdatum am 22. Dezember 2032 zu kurz; das Ende der Menschheit wäre damit eingeläutet – Szenarien, die uns aus Filmen wie Deep Impact oder Armageddon bekannt sind.

Die spannende und ethisch relevante Frage lautet hier allerdings: Wie viel sind wir zu opfern bereit bzw. sogar verpflichtet, um die Menschheit zu erhalten? Bei dieser Frage zeigt sich auch ein großer Unterschied zwischen nicht-existenziellen und existenziellen Risiken hinsichtlich des Überlebens der gesamten Menschheit. Bei nicht-existenziellen Risiken wie dem Klimawandel müssen kurzfristige Risiken (vor allem wirtschaftliche und soziale Einschränkungen, aber auch Gefahren für die Demokratie) und langfristige Risiken (Zunahme von Extremwetterereignissen, Anstieg des Meeresspiegels, Nahrungsmittelknappheit, Verlust von Biodiversität und so weiter) klug abgewogen werden.

Hierbei treten enorme Unsicherheitsfaktoren bereits bei mittelfristigen Entwicklungen auf: Möglicherweise entdecken wir bereits in den kommenden 10 Jahren Technologien, um energiesparsam CO2 aus der Luft zu filtern; möglicherweise können wir bereits in 20 Jahren durch kommerziell betreibbare Kernfusion das fossile Zeitalter überwinden.

Sowohl Kommunitaristen als auch reflektierte Utilitaristen können sich darauf einigen, dass aufgrund unsicherer Zukunftsprognosen kurzfristige Auswirkungen in stärkerem Maße berücksichtigt werden sollten und beispielsweise die Demokratie nicht geopfert werden sollte, um den Klimawandel zu bekämpfen – selbst wenn bestehende politische und wirtschaftliche Systeme nicht ausreichen, um den Klimawandel adäquat zu bekämpfen

Dabei müssen wir eine schwierige Abwägung treffen: Begrenzte Ressourcen können nicht in gleicher Weise in eine ökologische Transformation der Wirtschaft und in die Förderung technologischer Entwicklungen fließen – jede Entscheidung birgt Opportunitätskosten und damit ein Risiko. Sowohl Kommunitaristen als auch reflektierte Utilitaristen können sich darauf einigen, dass aufgrund unsicherer Zukunftsprognosen kurzfristige Auswirkungen in stärkerem Maße berücksichtigt werden sollten und beispielsweise die Demokratie nicht geopfert werden sollte, um den Klimawandel zu bekämpfen – selbst wenn bestehende politische und wirtschaftliche Systeme nicht ausreichen, um den Klimawandel adäquat zu bekämpfen (vgl. dazu Jem Bendells Konzept der Deep Adaption, auf dem auch die Aktivitäten von Extinction Rebellion basieren).

Abwägungsfragen spielen allerdings ebenso eine Rolle, wenn es um echte existenzielle Herausforderungen für die Menschheit geht. Nur würde man hier das Risiko eines Schadenseintritts deutlich höher – vielleicht sogar unendlich höher? – gewichten.

Olaf Scholz begründete seine Zurückhaltung bei der Waffenlieferung an die Ukraine mit dem Risiko eines dritten Weltkriegs. Diese Argumentation wurde unterschiedlich rezipiert. Sollten wir Unrecht zulassen, um ein existenzielles Risiko abzumildern? Sollten wir beispielsweise Elon Musk die Macht und Kontrolle über Regierungen und soziale Netzwerke geben, damit er zur langfristigen Rettung der Menschheit beitragen kann? Möglicherweise scheitert nicht nur sein langfristiger Plan, sondern bringt auch gravierende negative Folgen für das kurzfristige Zusammenleben der Menschen mit sich.

Die utilitaristische Falle

Ja, der Klimawandel sollte bekämpft werden. Ja, wir sollten versuchen, die Menschheit resilient gegenüber Extinktionsereignissen zu machen. Doch wir sollten uns auch darüber Gedanken machen, welche roten Linien wir dabei nicht überschreiten wollen, um nicht in die utilitaristische Falle zu tappen: nämlich, wenige (mit Sicherheit) zu opfern, um eine Mehrheit (absehbar) besserzustellen. Wer die Existenz der Menschheit als Spezies als Selbstzweck betrachtet und alle anderen Güter der Weiterexistenz der Menschheit unterordnet, vergöttert die Menschheit; wer dieses Vorgehen moralisch legitimiert und institutionalisiert, etabliert dadurch eine säkulare Religion.

Einige Ideale des Longtermism sind durchaus begrüßenswert, vor allem die Übernahme von Verantwortung zum Wohl der zukünftigen Generationen. Sie decken sich mit einer christlichen Schöpfungsverantwortung. Doch im Gegensatz zu säkularen Religionen hat das Christentum eine eschatologische Perspektive: Heil ist nicht in der Welt zu finden, zumindest nicht in dieser vergänglichen Welt. Selbst eine maximale Verlängerung der Lebensdauer der Menschheit im Universum wird nicht die unüberwindbare Tatsache außer Kraft setzen, dass alles Innerweltliche vergänglich ist. Wenn der zweite Hauptsatz der Thermodynamik als Naturgesetz konstant gilt, wird jegliche Komplexität im Kosmos einmal nivelliert werden. Apokalyptische Narrative in den Religionen weisen indirekt auf diesen Sachverhalt hin und erinnern uns daran, die Gegenwart nicht mit Verweis auf eine unsichere Zukunft zu relativieren.

Damit zurück zu den roten Linien: So wie Jesus das Kreuz auf sich genommen hat, ohne sicher zu wissen, dass aus seinem Tod etwas Gutes hervorgebracht wird, muss die gesamte Menschheit auch die Möglichkeit ihrer eigenen Extinktion in Kauf nehmen, um nicht unmenschlich zu werden. Dies wird durch eine eschatologische Perspektive erleichtert, vielleicht sogar erst ermöglicht.

Wenn Longtermisten unmenschliche Handlungen damit rechtfertigen, dass sie der gesamten Menschheit als abstrakter Entität dienen, dann ist die rote Linie überschritten. Muslime verweisen hierbei gerne auf ein Zitat in der fünften Sure des Koran: "Und wenn jemand einem Menschen das Leben gerettet hat, ist es so, als ob er das Leben der ganzen Menschheit gerettet hätte." Die monotheistischen Religionen wie auch der Kantianismus verkünden den unendlichen Wert des menschlichen Individuums, der nicht mit einem – angeblich – unendlichen Wert der gesamten Menschheit aufgerechnet werden darf, sondern mit diesem zusammenfällt.

Gegenwärtige Individuen dürfen nicht bloß als Mittel für zukünftige Zwecke geopfert oder stark geschädigt werden. Moralische Entscheidungen sollen auf universalisierbaren Prinzipien beruhen, nicht auf der Abwägung von spekulativen Wahrscheinlichkeiten. Und Pflichten gegenüber existierenden Menschen haben Vorrang vor hypothetischen zukünftigen Existenzen.

Was heißt das konkret? Gegenwärtige Individuen dürfen nicht bloß als Mittel für zukünftige Zwecke geopfert oder stark geschädigt werden. Moralische Entscheidungen sollen auf universalisierbaren Prinzipien beruhen, nicht auf der Abwägung von spekulativen Wahrscheinlichkeiten. Und Pflichten gegenüber existierenden Menschen haben Vorrang vor hypothetischen zukünftigen Existenzen.

Innerhalb dieser oder ähnlicher Rahmenbedingungen sollten wir uns den Herausforderungen, die die Zukunft mit sich bringt, stellen und in manchen Fällen auch konsequent handeln. Denn jeder von uns – so die Überlegung des Philosophen Derek Parfit (On What Matters, vol. 3, 2017) – muss einmal mit der Frage rechnen, warum er denn nichts unternommen hat. Warum habt ihr nicht radikaler gegen den Klimawandel gehandelt? Warum habt ihr künstliche Intelligenz unkontrolliert weiterentwickelt? Warum habt ihr Tiere für eure Luxusbedürfnisse in Massen gezüchtet und getötet? Warum habt ihr die Demokratie nicht besser geschützt, die kulturelle und religiöse Identität nicht bewahrt? Warum habt ihr so wenig gegen existenzielle Risiken unternommen?

Vielleicht müssen wir uns einmal zugestehen, dass wir uns nur um einige wenige Probleme gekümmert haben, dabei unverantwortliche Risiken eingegangen sind und gleichzeitig andere Probleme ignoriert haben. Möglicherweise schafft es Elon Musk, die Menschheit vor einem Asteroiden zu retten. Doch wäre dies nur um den Preis der Annahme einer Ersatzreligion sowie der Aufgabe jeglicher Menschlichkeit möglich, sollten wir doch lieber andere Probleme zuerst anpacken. Denn, so fragt Jesus im Matthäus-Evangelium: Was nützt es dem Menschen, wenn er die ganze Welt gewinnt, dabei aber seine Seele verliert?

COMMUNIO im Abo

COMMUNIO will die orientierende Kraft des Glaubens aus den Quellen von Schrift und Tradition für die Gegenwart erschließen sowie die Vielfalt, Schönheit und Tiefe christlichen Denkens und Fühlens zum Leuchten bringen.

Zum Kennenlernen: 1 Ausgabe gratis

Jetzt gratis testen