Longtermism - Langetermijnisme; Levensgevaarlijke Ideologie
Vertaald uit het Engels dmv Deepl; Geschreven door Emile Torres in Aeon.
Er lijkt het besef te groeien dat de mensheid de "eindtijd" nadert. Vreselijke voorspellingen van rampen vullen het nieuws. Sociale media video's van helse bosbranden, verwoestende overstromingen en ziekenhuizen die overlopen met COVID-19 patiënten domineren onze tijdlijnen. Activisten van de Extinction Rebellion sluiten steden af in een wanhopige poging om de wereld te redden. Uit een onderzoek bleek zelfs dat meer dan de helft van de ondervraagden over de toekomst van de mensheid "het risico dat onze manier van leven binnen de komende 100 jaar zal eindigen op 50% of meer inschatte.
Apocalyptiek', of het geloof dat het einde nabij is, is natuurlijk niets nieuws: mensen waarschuwen al duizenden jaren dat het einde nabij is, en veel geleerden van het Nieuwe Testament geloven zelfs dat Jezus zelf het einde van de wereld nog tijdens zijn leven verwachtte. Maar de huidige situatie is fundamenteel anders dan in het verleden. De "eschatologische" scenario's die nu worden besproken zijn niet gebaseerd op de openbaringen van religieuze profeten, of seculiere metanarratieven van de menselijke geschiedenis (zoals in het geval van het marxisme), maar op solide wetenschappelijke conclusies die worden verdedigd door vooraanstaande deskundigen op gebieden als klimatologie, ecologie, epidemiologie enzovoort.
We weten bijvoorbeeld dat klimaatverandering een ernstige bedreiging vormt voor de beschaving. We weten dat het verlies aan biodiversiteit en de zesde massa-extinctie plotselinge, onomkeerbare, catastrofale verschuivingen in het wereldwijde ecosysteem zouden kunnen veroorzaken. Een thermonucleaire uitwisseling kan de zon voor jaren of decennia verduisteren en de wereldwijde landbouw doen instorten. En of SARS-CoV-2 nu wel of niet uit een laboratorium in Wuhan komt of in de keuken van de natuur is gekookt (dat laatste lijkt op dit moment waarschijnlijker), synthetische biologie zal kwaadwillenden binnenkort in staat stellen om ziekteverwekkers te ontwerpen die veel dodelijker en besmettelijker zijn dan alles wat de Darwinistische evolutie zou kunnen uitvinden. Sommige filosofen en wetenschappers zijn ook alarm gaan slaan over "opkomende bedreigingen" in verband met superintelligentie van machines, moleculaire nanotechnologie en geo-engineering in de stratosfeer, die niet minder geducht lijken.
Dergelijke overwegingen hebben veel geleerden ertoe gebracht te erkennen dat, zoals Stephen Hawking in 2016 in The Guardian schreef, "we ons op het gevaarlijkste moment in de ontwikkeling van de mensheid bevinden. Lord Martin Rees schat bijvoorbeeld dat de beschaving een 50/50 kans heeft om 2100 te halen. Noam Chomsky stelt dat het risico van vernietiging momenteel "ongekend is in de geschiedenis van Homo sapiens". En Max Tegmark beweert dat "het waarschijnlijk binnen ons leven zal zijn ... dat we ofwel onszelf gaan vernietigen ofwel dat we orde op zaken gaan stellen. In overeenstemming met deze sombere verklaringen zette het Bulletin of the Atomic Scientists in 2020 zijn iconische Doomsday Clock op slechts 100 seconden voor middernacht (of onheil), het dichtstbij sinds de klok in 1947 werd ingesteld, en meer dan 11.000 wetenschappers van over de hele wereld ondertekenden in 2020 een artikel waarin staat "duidelijk en ondubbelzinnig dat de planeet Aarde wordt geconfronteerd met een klimaatnoodtoestand", en zonder "een immense schaalvergroting van de inspanningen om onze biosfeer in stand te houden [riskeren we] onnoemelijk veel leed door de klimaatcrisis". Zoals de jonge klimaatactivist Xiye Bastida deze existentiële stemming samenvatte in een interview met Teen Vogue in 2019, gaat het erom 'ervoor te zorgen dat we niet de laatste generatie zijn', want dat lijkt nu een zeer reële mogelijkheid.
Gezien de ongekende gevaren waarmee de mensheid vandaag wordt geconfronteerd, zou je verwachten dat filosofen een aanzienlijke hoeveelheid inkt hebben gemorst over de ethische implicaties van ons uitsterven, of aanverwante scenario's zoals de permanente ineenstorting van de beschaving. Hoe moreel slecht (of goed) zou onze verdwijning zijn, en om welke redenen? Zou het verkeerd zijn om toekomstige generaties het bestaan te beletten? Is de waarde van vroegere offers, strijd en streven afhankelijk van het voortbestaan van de mensheid zolang de aarde, of meer in het algemeen het heelal, bewoonbaar blijft?
Toch is dit niet het geval: het onderwerp van ons uitsterven heeft tot voor kort weinig blijvende aandacht gekregen van filosofen, en blijft zelfs nu nog in de marge van de filosofische discussie en het debat. Over het algemeen hebben zij zich met andere zaken beziggehouden. Er is echter één opmerkelijke uitzondering op deze regel: in de afgelopen twee decennia is een kleine groep theoretici, voornamelijk gevestigd in Oxford, bezig geweest met het uitwerken van de details van een nieuw moreel wereldbeeld, het zogenaamde langetermijndenken, dat benadrukt hoe onze handelingen de toekomst van het universum op zeer lange termijn beïnvloeden - duizenden, miljoenen, miljarden en zelfs triljoenen jaren vanaf nu. Dit heeft zijn wortels in het werk van Nick Bostrom, die in 2005 het groots genaamde Future of Humanity Institute (FHI) oprichtte, en Nick Beckstead, onderzoeksmedewerker bij FHI en programmamedewerker bij Open Philanthropy. Het is het meest publiekelijk verdedigd door de FHI-filosoof Toby Ord, auteur van The Precipice: Existential Risk and the Future of Humanity (2020). Langetermijndenken is de belangrijkste onderzoeksfocus van zowel het Global Priorities Institute (GPI), een aan FHI gelieerde organisatie onder leiding van Hilary Greaves, als de Forethought Foundation, geleid door William MacAskill, die ook functies bekleedt bij FHI en GPI. Naast de wirwar van titels, namen, instituten en acroniemen is longtermism een van de belangrijkste "cause areas" van de zogenaamde effective altruism (EA)-beweging, die rond 2011 door Ord werd geïntroduceerd en nu kan bogen op een verbijsterende financiering van 46 miljard dollar.
Het is moeilijk te overschatten hoe invloedrijk het langetermijndenken is geworden. Karl Marx verklaarde in 1845 dat het doel van filosofie niet alleen is de wereld te interpreteren, maar haar te veranderen, en dat is precies wat longtermisten hebben gedaan, met buitengewoon succes. Bedenk dat Elon Musk, die het werk van Bostrom heeft geciteerd en onderschreven, 1,5 miljoen dollar heeft gedoneerd aan FHI via haar zusterorganisatie, het nog grootser genaamde Future of Life Institute (FLI). Dit is mede opgericht door de multimiljonair tech-ondernemer Jaan Tallinn, die, zoals ik onlangs opmerkte, niet gelooft dat klimaatverandering een "existentieel risico" voor de mensheid vormt, omdat hij de langetermijnideologie aanhangt.
Ondertussen heeft de miljardair-libertariër en Donald Trump-aanhanger Peter Thiel, die ooit de keynote speech gaf op een EA-conferentie, grote sommen geld gedoneerd aan het Machine Intelligence Research Institute, wiens missie om de mensheid te redden van superintelligente machines diep verweven is met longtermistische waarden. Andere organisaties zoals GPI en de Forethought Foundation financieren opstelwedstrijden en beurzen in een poging jonge mensen voor de gemeenschap te interesseren, terwijl het een publiek geheim is dat het in Washington DC gevestigde Center for Security and Emerging Technologies (CSET) ernaar streeft longtermisten op hoge posities in de Amerikaanse regering te plaatsen om het nationale beleid vorm te geven. In feite is CSET opgericht door Jason Matheny, een voormalige onderzoeksassistent bij FHI die nu de plaatsvervangende assistent is van de Amerikaanse president Joe Biden voor technologie en nationale veiligheid. Ord heeft zelf, verbazingwekkend voor een filosoof, "advies gegeven aan de Wereldgezondheidsorganisatie, de Wereldbank, het Wereld Economisch Forum, de Amerikaanse National Intelligence Council, het kantoor van de Britse premier, het Cabinet Office en het Government Office for Science", en hij heeft onlangs bijgedragen aan een rapport van de secretaris-generaal van de Verenigde Naties waarin specifiek sprake is van "langetermijndenken".
Het punt is dat langetermijndenken misschien wel een van de meest invloedrijke ideologieën is waar weinig mensen buiten elite-universiteiten en Silicon Valley ooit van gehoord hebben. Ik geloof dat dit moet veranderen, want als voormalig longtermist die vier jaar geleden een heel boek publiceerde ter verdediging van het algemene idee, ben ik dit wereldbeeld gaan zien als misschien wel het gevaarlijkste seculiere geloofssysteem in de wereld van vandaag. Maar om de aard van het beest te begrijpen, moeten we het eerst ontleden en zijn anatomische kenmerken en fysiologische functies onderzoeken.
Aanmelden voor onze nieuwsbrief
Updates over alles wat nieuw is bij Aeon.
Uw e-mailadres
Dagelijks
Wekelijks
Aanmelden
Zie ons privacybeleid voor de nieuwsbrief hier.
Het eerste wat opvalt is dat longtermism, zoals voorgesteld door Bostrom en Beckstead, niet gelijk staat aan "geven om de lange termijn" of "het welzijn van toekomstige generaties waarderen". Het gaat veel verder. De kern ervan is een eenvoudige - zij het mijns inziens gebrekkige - analogie tussen individuele personen en de mensheid als geheel. Om het idee te illustreren, denk aan het geval van Frank Ramsey, een geleerde aan de Universiteit van Cambridge die door zijn collega's algemeen wordt beschouwd als een van de meest uitzonderlijke geesten van zijn generatie. Hij had iets van Newton," zei de belletrist Lytton Strachey ooit. G E Moore schreef over Ramsey's "zeer uitzonderlijke genialiteit". En John Maynard Keynes beschreef een artikel van Ramsey als "een van de meest opmerkelijke bijdragen aan de wiskundige economie ooit".
Maar Ramsey's verhaal is geen gelukkig verhaal. Op 19 januari 1930 stierf hij in een Londens ziekenhuis na een chirurgische ingreep, met als waarschijnlijke doodsoorzaak een leverontsteking als gevolg van het zwemmen in de rivier de Cam, die zich door Cambridge slingert. Ramsey was slechts 26 jaar oud.
Men zou kunnen aanvoeren dat er twee verschillende redenen zijn voor deze tragische afloop. De eerste is de meest voor de hand liggende: het verkortte Ramsey's leven en ontnam hem alles wat hij had kunnen ervaren als hij het had overleefd - de vreugde en het geluk, de liefde en de vriendschap: alles wat het leven de moeite waard maakt. In die zin was Ramsey's vroege overlijden een persoonlijke tragedie. Maar ten tweede heeft zijn dood de wereld ook beroofd van een intellectuele superster die kennelijk voorbestemd was om nog meer buitengewone bijdragen te leveren aan de menselijke kennis. "Het aantal sporen dat Ramsey heeft gelegd was opmerkelijk", schrijft Sir Partha Dasgupta. Maar hoeveel meer paden zou hij nog hebben bewandeld? Het verlies voor uw generatie is pijnlijk om aan te denken," klaagde Strachey, "wat een licht is er uitgegaan" - wat de vraag doet rijzen hoe de westerse intellectuele geschiedenis er anders zou hebben uitgezien als Ramsey niet zo jong was gestorven. Vanuit dit perspectief zou men kunnen stellen dat, hoewel de persoonlijke tragedie van Ramsey's dood werkelijk verschrikkelijk was, de immensiteit van zijn potentieel om de wereld ten goede te veranderen de tweede tragedie nog erger maakt. Met andere woorden, de slechtheid van zijn dood komt vooral, misschien wel voor het overgrote deel, voort uit zijn onvervulde potentieel in plaats van de directe, persoonlijke schade die hij ondervond. Of zo luidt het argument.
Long-termists zouden deze beweringen en conclusies toepassen op de mensheid zelf, alsof de mensheid een individu is met zijn eigen "potentieel" om in de loop van "zijn leven" te verspillen of te vervullen, te ruïneren of te realiseren. Dus, aan de ene kant, zou een ramp die de menselijke bevolking tot nul reduceert tragisch zijn vanwege al het lijden dat het zou toebrengen aan degenen die op dat moment in leven zijn. Stel je de gruwel voor van het verhongeren in temperaturen onder het vriespunt, onder een pikzwarte hemel op het middaguur, gedurende jaren of decennia na een thermonucleaire oorlog. Dit is de eerste tragedie, een persoonlijke tragedie voor de direct getroffenen. Maar er is, volgens langetermijndeskundigen, een tweede tragedie, die astronomisch erger is dan de eerste, omdat ons uitsterven definitief zou verhinderen wat een extreem lange en welvarende toekomst zou kunnen zijn in de komende, laten we zeggen, ~10100 jaar (op welk punt de 'hittedood' het leven onmogelijk zal maken). Daarmee zou het "enorme en glorieuze" langetermijnpotentieel van de mensheid onherroepelijk worden vernietigd, in Ords bijna religieuze taal - een "potentieel" dat zo groot is, gezien de omvang van het heelal en de tijd die nog rest voordat een thermodynamisch evenwicht wordt bereikt, dat de eerste tragedie daarbij volkomen zou verbleken.
Dit suggereert onmiddellijk een andere parallel tussen individuen en de mensheid: de dood is niet de enige manier waarop iemands potentieel onvervuld kan blijven. Stel je voor dat Ramsey niet jong was gestorven, maar in plaats van te studeren, te schrijven en wetenschappelijke artikelen te publiceren, had hij zijn dagen doorgebracht in de plaatselijke bar met biljarten en drinken. Zelfde resultaat, andere faalwijze. Als we dit toepassen op de mensheid, zouden langetermijndeskundigen stellen dat er faalwijzen zijn die ons potentieel onvervuld laten zonder dat we uitsterven.
In deze visie zal een klimaatcatastrofe een klein incident zijn - zoals een 90-jarige die zijn teen stootte toen hij twee jaar oud was.
Om deze ideeën tot nu toe samen te vatten: de mensheid heeft een eigen 'potentieel', een potentieel dat het potentieel van elke individuele persoon overstijgt, en als dit potentieel niet wordt gerealiseerd, zou dat buitengewoon slecht zijn - inderdaad, zoals we zullen zien, een morele catastrofe van letterlijk kosmische proporties. Dit is het centrale dogma van het langetermijndenken: niets is ethisch gezien belangrijker dan de verwezenlijking van ons potentieel als een soort "intelligent leven dat zijn oorsprong vindt op aarde". Het is zo belangrijk dat longtermisten zelfs de eng klinkende term 'existentieel risico' hebben bedacht voor elke mogelijkheid dat ons potentieel wordt vernietigd, en 'existentiële catastrofe' voor elke gebeurtenis die dit potentieel daadwerkelijk vernietigt.
Waarom denk ik dat deze ideologie zo gevaarlijk is? Het korte antwoord is dat het verheffen van de vervulling van het veronderstelde potentieel van de mensheid boven al het andere de kans dat feitelijke mensen - die nu en in de nabije toekomst leven - extreme schade lijden, zelfs de dood, kan vergroten. Bedenk dat, zoals ik elders heb opgemerkt, de langetermijnideologie haar aanhangers ertoe aanzet zich onverschillig op te stellen tegenover klimaatverandering. Waarom? Omdat zelfs als klimaatverandering eilandstaten doet verdwijnen, massamigraties veroorzaakt en miljoenen mensen doodt, het waarschijnlijk niet ons langetermijnpotentieel voor de komende triljoenen jaren in gevaar brengt. Als je de situatie kosmisch bekijkt, zal zelfs een klimaatramp die de menselijke bevolking de komende twee millennia met 75% vermindert, in het grote geheel der dingen niet meer zijn dan een klein vlekje - het equivalent van een 90-jarige man die zijn teen stootte toen hij twee was.
Bostroms argument is dat "een niet-existentiële ramp die de wereldwijde beschaving doet instorten, vanuit het perspectief van de mensheid als geheel een potentieel herstelbare tegenslag is. Het zou "een gigantisch bloedbad voor de mensheid" kunnen zijn, voegt hij eraan toe, maar zolang de mensheid terugveert om haar potentieel te vervullen, zal het uiteindelijk weinig meer zijn dan "een kleine misstap voor de mensheid". Elders schrijft hij dat de ergste natuurrampen en verwoestende wreedheden in de geschiedenis bijna onmerkbare trivialiteiten worden wanneer ze vanuit dit grote perspectief worden gezien. Verwijzend naar de twee wereldoorlogen, AIDS en het kernongeluk in Tsjernobyl verklaart hij dat "hoe tragisch dergelijke gebeurtenissen ook zijn voor de mensen die er onmiddellijk door getroffen zijn, in het grote geheel der dingen ... zelfs de ergste van deze rampen zijn slechts rimpelingen op het oppervlak van de grote levenszee.
Deze manier van kijken naar de wereld, van het beoordelen van de slechtheid van AIDS en de Holocaust, impliceert dat toekomstige rampen van dezelfde (niet-existentiële) omvang en intensiteit ook moeten worden gecategoriseerd als "slechts rimpelingen". Als ze geen direct existentieel risico vormen, hoeven we ons er niet veel zorgen over te maken, hoe tragisch ze ook zijn voor individuen. Zoals Bostrom in 2003 schreef: "prioriteit nummer één, twee, drie en vier zou ... het verminderen van existentieel risico moeten zijn. Hij herhaalde dit enkele jaren later door te stellen dat we onze eindige middelen niet moeten "verkwisten" aan "feel-good projecten van suboptimale effectiviteit" zoals het verlichten van wereldwijde armoede en het verminderen van dierenleed, omdat geen van beide ons langetermijnpotentieel bedreigt, en ons langetermijnpotentieel is wat er echt toe doet.
Ord sluit zich hierbij aan door te stellen dat van alle problemen waar de mensheid voor staat, onze "eerste grote taak ... is een plaats van veiligheid te bereiken - een plaats waar het existentiële risico" - zoals hij het definieert - "laag is en laag blijft", wat hij "existentiële veiligheid" noemt. Meer dan wat dan ook, gaat het erom alles te doen wat nodig is om ons potentieel te "behouden" en te "beschermen" door "ons te onttrekken aan onmiddellijk gevaar" en robuuste "beschermingsmaatregelen te bedenken die de mensheid op lange termijn tegen gevaren zullen beschermen, zodat het onmogelijk wordt om te falen". Hoewel Ord een knipoog geeft naar klimaatverandering, beweert hij ook - op basis van een dubieuze methodologie - dat de kans dat klimaatverandering een existentiële catastrofe veroorzaakt slechts ∼1 op 1000 is, wat volgens Ord twee orden van grootte kleiner is dan de kans dat superintelligente machines de mensheid deze eeuw vernietigen.
Wat hier echt opvalt is dat de centrale zorg niet het effect is van de klimaatcatastrofe op feitelijke mensen over de hele wereld (vergeet niet dat dit in het grote geheel, in de woorden van Bostrom, een "kleine misstap voor de mensheid" zou zijn), maar de kleine mogelijkheid dat, zoals Ord het in The Precipice formuleert, deze catastrofe "een risico inhoudt van een onherstelbare ineenstorting van de beschaving of zelfs het volledig uitsterven van de mensheid". Nogmaals, de schade voor de mensen zelf (vooral die in het Zuiden) kan in absolute termen aanzienlijk zijn, maar in vergelijking met de "uitgestrektheid" en "glorie" van ons langetermijnpotentieel in de kosmos, vallen ze nauwelijks op.
Maar de implicaties van langetermijndenken zijn veel zorgwekkender. Als onze vier belangrijkste prioriteiten zijn om een existentiële catastrofe te voorkomen - dat wil zeggen, om "ons potentieel" te vervullen - wat ligt er dan niet op tafel om dit te realiseren? Denk aan de opmerking van Thomas Nagel over hoe de notie van wat wij het 'grotere goed' zouden kunnen noemen, is gebruikt om bepaalde wreedheden te 'rechtvaardigen' (bijvoorbeeld tijdens een oorlog). Als het doel de middelen "heiligt", stelt hij, en het doel wordt groot genoeg geacht (bijvoorbeeld nationale veiligheid), dan kan dit "worden aangewend om het geweten te sussen van degenen die verantwoordelijk zijn voor een bepaald aantal verkoolde baby's". Stel je nu eens voor wat "gerechtvaardigd" zou kunnen zijn als het "grotere goed" niet de nationale veiligheid is, maar het kosmische potentieel van uit de aarde voortkomend intelligent leven in de komende triljoenen jaren? Tijdens de Tweede Wereldoorlog zijn 40 miljoen burgers omgekomen, maar vergelijk dit aantal eens met de 1054 of meer mensen (in Bostroms schatting) die zouden kunnen ontstaan als we een existentiële catastrofe kunnen voorkomen. Wat zouden we niet moeten doen om dit potentieel te "beschermen" en te "behouden"? Om ervoor te zorgen dat deze ongeboren mensen tot bestaan komen? Welke middelen kunnen niet 'gerechtvaardigd' worden door dit kosmisch significante morele doel?
Bostrom zelf stelde dat we serieus zouden moeten overwegen een wereldwijd, invasief bewakingssysteem op te zetten dat elke persoon op de planeet in realtime in de gaten houdt, om de "capaciteiten voor preventieve politie" te versterken (bijvoorbeeld om omnicidale terroristische aanvallen te voorkomen die de beschaving zouden kunnen verwoesten). Elders heeft hij geschreven dat staten preventief geweld/oorlog moeten gebruiken om existentiële catastrofes te voorkomen, en betoogd dat het redden van miljarden mensen het morele equivalent is van het verminderen van het existentiële risico met uiterst minuscule hoeveelheden. In zijn woorden: zelfs als er "slechts 1 procent kans" is dat er in de toekomst 1054 mensen bestaan, dan "is de verwachte waarde van het verminderen van het existentiële risico met slechts één miljardste van één miljardste van één procentpunt 100 miljard keer zoveel waard als een miljard mensenlevens. Een dergelijk fanatisme - een woord dat sommige longtermisten omarmen - heeft ertoe geleid dat een groeiend aantal critici zich zorgen maakt over wat er zou kunnen gebeuren als politieke leiders in de echte wereld Bostroms visie serieus zouden nemen. Om de wiskundige statisticus Olle Häggström te citeren, die zich - verbijsterend genoeg - voor het overige positief uitlaat over het longtermisme:
Ik voel me uiterst ongemakkelijk bij het vooruitzicht dat [de bovenstaande berekeningen] onder politici en besluitvormers zou kunnen worden erkend als een leidraad voor beleid die het waard is om letterlijk te worden genomen. Het doet gewoon te veel denken aan het oude gezegde "Als je een omelet wilt maken, moet je bereid zijn een paar eieren te breken", dat gewoonlijk wordt gebruikt om uit te leggen dat een beetje genocide of zo een goede zaak kan zijn, als het kan bijdragen tot het doel om een toekomstige utopie te creëren. Stel je een situatie voor waarin het hoofd van de CIA aan de president van de VS uitlegt dat zij geloofwaardige aanwijzingen hebben dat er ergens in Duitsland een gek is die werkt aan een doemsdagwapen en van plan is dat te gebruiken om de mensheid uit te roeien, en dat die gek een kans van één op een miljoen heeft dat hij daarin slaagt. Ze hebben geen verdere informatie over de identiteit of verblijfplaats van deze gek. Als de president het argument van Bostrom ter harte heeft genomen, en als hij weet hoe hij moet rekenen, kan hij concluderen dat het de moeite waard is om een grootschalige nucleaire aanval op Duitsland uit te voeren om iedereen binnen zijn grenzen te doden.
Dit zijn dus een paar redenen waarom ik langetermijndenken zeer gevaarlijk vind. Maar er zijn nog meer fundamentele problemen met dit wereldbeeld, die bij mijn weten nog niemand eerder schriftelijk heeft opgemerkt. Er valt bijvoorbeeld veel voor te zeggen dat de onderliggende verplichtingen van het langetermijndenken een belangrijke reden zijn waarom de mensheid zoveel ongekende risico's loopt om te overleven. Longtermism zou, met andere woorden, onverenigbaar kunnen zijn met het bereiken van 'existentiële veiligheid', wat betekent dat de enige manier om de kans op uitsterven of instorten in de toekomst werkelijk te verkleinen zou kunnen zijn om de longtermistische ideologie volledig los te laten.
Volgens Bostrom en Ord zou het niet postmenselijk worden ons beletten ons enorme, glorieuze potentieel te realiseren.
Om het argument te begrijpen, laten we eerst uitpakken wat longtermists bedoelen met ons "langetermijnpotentieel", een uitdrukking die ik tot nu toe heb gebruikt zonder deze te definiëren. We kunnen dit concept in drie hoofdcomponenten analyseren: transhumanisme, ruimte-expansiedrang en een morele visie die nauw samenhangt met wat filosofen "totaal utilitarisme" noemen.
De eerste verwijst naar het idee dat we geavanceerde technologieën moeten gebruiken om onze lichamen en hersenen te herontwerpen om een 'superieur' ras van radicaal verbeterde postmensen te creëren (die, verwarrend genoeg, door langetermijndeskundigen in de categorie 'mensheid' worden geplaatst). Hoewel Bostrom momenteel misschien wel de meest prominente transhumanist is, hebben longtermisten het gebruik van de term "transhumanisme" vermeden, waarschijnlijk vanwege de negatieve associaties. Susan Levin, bijvoorbeeld, wijst erop dat het hedendaagse transhumanisme zijn wortels heeft in de Anglo-Amerikaanse eugenetica-beweging, en transhumanisten zoals Julian Savulescu, die samen met Bostrom het boek Human Enhancement (2009) schreef, hebben letterlijk gepleit voor de consumptie van "moraalverhogende" chemicaliën zoals oxytocine om een existentiële catastrofe (die hij "ultieme schade" noemt) te vermijden. Zoals Savulescu samen met een collega schrijft: "Het is zo dringend noodzakelijk om de mensheid moreel te verbeteren ... dat we alle middelen moeten zoeken om dit te bewerkstelligen. Dergelijke beweringen zijn niet alleen controversieel, maar voor velen ook zeer verontrustend, en daarom hebben longtermisten getracht zich van dergelijke ideeën te distantiëren, terwijl zij niettemin de ideologie verdedigen.
Het transhumanisme beweert dat er verschillende "posthumane bestaanswijzen" bestaan die veel beter zijn dan onze huidige menselijke bestaanswijze. We zouden onszelf bijvoorbeeld genetisch kunnen veranderen om perfecte controle over onze emoties te krijgen, of toegang tot het internet via neurale implantaten, of misschien zelfs onze geest uploaden naar computerhardware om 'digitale onsterfelijkheid' te bereiken. Zoals Ord oproept in The Precipice, bedenk hoe geweldig het zou zijn om de wereld waar te nemen via echolocatie, zoals vleermuizen en dolfijnen, of magnetische waarneming, zoals rode vossen en postduiven. Dergelijke ongekende ervaringen," schrijft Ord, "bestaan in geesten die veel minder geavanceerd zijn dan de onze. Welke ervaringen, mogelijk van immense waarde, zouden dan toegankelijk kunnen zijn voor veel grotere geesten? Bostroms meest fantastische verkenning van deze mogelijkheden komt uit zijn suggestieve "Brief uit Utopia" (2008), waarin een techno-Utopische wereld wordt geschetst vol superintelligente postmensen die overspoeld worden met zoveel "plezier" dat, zoals de fictieve postmens in de brief schrijft, "we het in onze thee strooien.
Het verband met het langetermijndenken is dat, volgens Bostrom en Ord, het falen om postmens te worden ons schijnbaar zou beletten ons enorme en glorieuze potentieel te realiseren, wat existentieel catastrofaal zou zijn. Zoals Bostrom het in 2012 formuleerde: "de permanente uitsluiting van elke mogelijkheid tot dit soort transformatieve verandering van de menselijke biologische natuur kan op zichzelf een existentiële catastrofe vormen. Evenzo stelt Ord dat "het voor altijd in stand houden van de mensheid zoals ze nu is, ook onze erfenis kan verkwanselen, waarbij we het grootste deel van ons potentieel opgeven.
De tweede component van ons potentieel - ruimte-expansie - verwijst naar het idee dat we zoveel mogelijk van onze toekomstige lichtkegel moeten koloniseren: dat is het gebied van de ruimtetijd dat theoretisch voor ons toegankelijk is. Volgens longtermists bevat onze toekomstige lichtkegel een enorme hoeveelheid exploiteerbare hulpbronnen, die zij onze "kosmische schenking" van negentropie (of omgekeerde entropie) noemen. De Melkweg alleen al, schrijft Ord, is "150.000 lichtjaren groot en omvat meer dan 100 miljard sterren, de meeste met hun eigen planeten". Om het langetermijnpotentieel van de mensheid te bereiken, vervolgt hij, "is het alleen nodig dat [we] uiteindelijk naar een nabije ster reizen en daar voldoende voet aan de grond krijgen om een nieuwe bloeiende samenleving te creëren van waaruit we ons verder kunnen wagen. Door zich "slechts zes lichtjaren per keer" te verspreiden, zouden onze nazaten "bijna alle sterren van ons melkwegstelsel ... bereikbaar" kunnen maken, aangezien "elk sterrensysteem, inclusief het onze, slechts de paar dichtstbijzijnde sterren hoeft te vestigen [om] het hele melkwegstelsel [uiteindelijk] te vullen met leven. Het proces zou exponentieel kunnen zijn, met als resultaat steeds meer "bloeiende" samenlevingen met elke extra seconde dat onze nakomelingen van ster naar ster hoppen.
Maar waarom zouden we dit precies willen doen? Wat is er zo belangrijk aan het overspoelen van het heelal met nieuwe postmenselijke beschavingen? Dit leidt tot de derde component: het totale utilitarisme, dat ik kortweg 'utilitarisme' zal noemen. Hoewel sommige longtermisten volhouden dat zij geen utilitaristen zijn, moeten we meteen opmerken dat dit vooral een rookgordijn is om de kritiek te weerleggen dat het longtermisme - en meer in het algemeen de beweging van effectief altruïsme (EA) waaruit het is voortgekomen - niets anders is dan utilitarisme in een nieuw jasje. Het is een feit dat de EA-beweging, althans in de praktijk, in hoge mate utilitaristisch is, en voordat zij een naam koos, hebben de eerste leden van de beweging, waaronder Ord, serieus overwogen om haar de "effectieve utilitaristische gemeenschap" te noemen.
Dit gezegd zijnde, het utilitarisme is een ethische theorie die onze enige morele verplichting omschrijft als het maximaliseren van de totale hoeveelheid 'intrinsieke waarde' in de wereld, zoals opgeteld vanuit een onpersoonlijk, onpartijdig, kosmisch gezichtspunt dat 'het gezichtspunt van het universum' wordt genoemd. Vanuit dit gezichtspunt maakt het niet uit hoe de waarde - die utilitaristische hedonisten gelijkstellen aan genot - verdeeld is over mensen in ruimte en tijd. Het enige dat telt is de totale netto som. Stel je bijvoorbeeld voor dat er 1 biljoen mensen zijn die een leven hebben met waarde '1', wat betekent dat ze het nauwelijks waard zijn om te leven. Dit geeft een totale waarde van 1 biljoen. Beschouw nu een alternatief universum waarin 1 miljard mensen een leven hebben met waarde '999', wat betekent dat hun leven extreem goed is. Dit geeft een totale waarde van 999 miljard. Aangezien 999 miljard minder is dan 1 biljoen, zou de eerste wereld vol levens die nauwelijks de moeite waard zijn moreel beter zijn dan de tweede wereld, en daarom zou een utilitariër, als hij tussen beide moest kiezen, de eerste kiezen. (Dit wordt de "weerzinwekkende conclusie" genoemd, waarvan langetermijndeskundigen als Ord, MacAskill en Greaves onlangs betoogden dat ze niet erg serieus moeten worden genomen. Voor hen zou de eerste wereld echt beter kunnen zijn!)
Beckstead betoogde dat we het leven van mensen in rijke landen voorrang moeten geven boven dat in arme landen.
De onderliggende redenering is gebaseerd op het idee dat mensen - u en ik - niet meer zijn dan middelen om een doel te bereiken. We doen er op zichzelf niet toe; we hebben geen eigen inherente waarde. In plaats daarvan worden mensen gezien als de 'containers' van waarde, en daarom doen we er alleen toe voor zover we waarde 'bevatten', en dus bijdragen aan de totale netto hoeveelheid waarde in het heelal tussen de oerknal en de hittedood. Aangezien het utilitarisme ons vertelt dat we waarde moeten maximaliseren, volgt hieruit dat hoe meer mensen (waardevaten) er bestaan met een netto positieve hoeveelheid waarde (plezier), hoe beter het heelal zal worden, moreel gesproken. Kort gezegd: mensen bestaan omwille van waardemaximalisatie, in plaats van dat waarde bestaat omwille van mensen.
Daarom zijn langetermijndeskundigen geobsedeerd door berekeningen hoeveel mensen er in de toekomst zouden kunnen bestaan als we de ruimte zouden koloniseren en enorme computersimulaties rond sterren zouden creëren waarin onpeilbaar grote aantallen mensen een netto positief leven leiden in virtual-reality omgevingen. Ik noemde al Bostroms schatting van 1054 toekomstige mensen, waaronder veel van deze 'digitale mensen', maar in zijn bestseller Superintelligence (2014) legt hij het aantal nog hoger op 1058 mensen, die bijna allemaal 'een rijk en gelukkig leven zouden leiden terwijl ze met elkaar in virtuele omgevingen interacteren'. Greaves en MacAskill zijn eveneens enthousiast over deze mogelijkheid en schatten dat er alleen al binnen de Melkweg zo'n 1045 bewuste wezens in computersimulaties zouden kunnen bestaan.
Dat is waar ons "enorme en glorieuze" potentieel uit bestaat: enorme aantallen technologisch verbeterde digitale postmensen in enorme computersimulaties verspreid over onze toekomstige lichtkegel. Het is voor dit doel dat, in het scenario van Häggström, een langetermijnpoliticus Duitsland zou vernietigen. Het is voor dit doel dat we onze middelen niet mogen "verspillen" aan zaken als het oplossen van wereldwijde armoede. Het is voor dit doel dat we moeten overwegen een wereldwijd bewakingssysteem in te voeren, preventieve oorlog op tafel te houden, en ons meer te richten op superintelligente machines dan op het redden van mensen in het Zuiden van de verwoestende effecten van klimaatverandering (meestal veroorzaakt door het Noorden). Beckstead heeft zelfs betoogd dat we, om dit doel te bereiken, eigenlijk het leven van mensen in rijke landen voorrang moeten geven boven dat van mensen in arme landen, omdat het beïnvloeden van de toekomst op lange termijn van "overweldigend belang" is, en de eersten hebben meer kans om de toekomst op lange termijn te beïnvloeden dan de laatsten. Ik citeer een passage uit Beckstead's proefschrift uit 2013, dat Ord enthousiast prijst als een van de belangrijkste bijdragen aan de longtermistische literatuur:
Het redden van levens in arme landen kan aanzienlijk kleinere rimpeleffecten hebben dan het redden en verbeteren van levens in rijke landen. Waarom? Rijkere landen hebben aanzienlijk meer innovatie en hun werknemers zijn economisch veel productiever. [Bijgevolg lijkt het me nu aannemelijker dat het redden van een leven in een rijk land aanzienlijk belangrijker is dan het redden van een leven in een arm land, ceteris paribus.
Dit is nog maar het topje van de ijsberg. Denk aan de implicaties van deze opvatting van "ons potentieel" voor de ontwikkeling van technologie en het creëren van nieuwe risico's. Aangezien het realiseren van ons potentieel het ultieme morele doel is voor de mensheid, en aangezien onze nakomelingen niet postmenselijk kunnen worden, de ruimte niet kunnen koloniseren en geen ~1058 mensen kunnen creëren in computersimulaties zonder technologieën die veel geavanceerder zijn dan die van vandaag, zou het niet ontwikkelen van meer technologie zelf een existentiële catastrofe betekenen - een faalwijze (vergelijkbaar met Ramsey die zijn talenten verwaarloost door zijn dagen door te brengen met biljarten en drinken) die Bostrom 'plateauing' noemt. Bostrom plaatst dit idee zelfs centraal in zijn canonieke definitie van 'existentieel risico', die elke toekomstige gebeurtenis aanduidt die de mensheid ervan zou weerhouden een staat van 'technologische rijpheid' te bereiken en/of in stand te houden, dat wil zeggen 'het bereiken van vermogens die een niveau van economische productiviteit en controle over de natuur mogelijk maken dat het maximum benadert dat haalbaar is'. Technologische rijpheid is hier de spil omdat beheersing van de natuur en verhoging van de economische productiviteit tot aan de absolute fysieke grenzen ogenschijnlijk noodzakelijk zijn om de maximale hoeveelheid "waarde" binnen onze toekomstige lichtkegel te creëren.
Maar denk eens na over hoe de mensheid zichzelf in de huidige klimaat- en ecologische crisis heeft gebracht. Achter het winnen en verbranden van fossiele brandstoffen, het decimeren van ecosystemen en het uitroeien van soorten zit de opvatting dat de natuur iets is dat moet worden gecontroleerd, onderworpen, uitgebuit, overwonnen, geplunderd, getransformeerd, geherconfigureerd en gemanipuleerd. Zoals de technologietheoreticus Langdon Winner schrijft in Autonome technologie (1977), is onze kijk op technologie sinds de tijd van Francis Bacon "onlosmakelijk verbonden met één opvatting over de manier waarop macht wordt gebruikt - de stijl van absolute beheersing, de despotische, eenzijdige controle van de meester over de slaaf. Hij voegt eraan toe:
Er zijn zelden bedenkingen over de rechtmatige rol van de mens bij het veroveren, overwinnen en onderwerpen van alles wat natuurlijk is. Dit is zijn macht en zijn glorie. Wat in andere situaties eerder smakeloze en verachtelijke bedoelingen zouden lijken, zijn hier de meest eervolle deugden. De natuur is de universele prooi, te manipuleren zoals de mens dat wil.
Dit is precies wat we vinden in Bostroms beschrijving van existentiële risico's en de bijbehorende normatieve futurologie: de natuur, het hele universum, onze "kosmische schenking" ligt voor het grijpen, om gemanipuleerd, getransformeerd en omgezet te worden in "waardestructuren, zoals wezens met gevoel die een waardevol leven leiden" in grote computersimulaties, om Bostroms essay "Astronomical Waste" (2003) te citeren. Toch is deze Baconiaanse, kapitalistische visie een van de meest fundamentele grondoorzaken van de ongekende milieucrisis die nu grote delen van de biosfeer, inheemse gemeenschappen over de hele wereld en misschien zelfs de westerse technologische beschaving zelf dreigt te vernietigen. Hoewel andere longtermists niet zo expliciet zijn als Bostrom, is er een duidelijke tendens om de natuurlijke wereld te zien zoals het utilitarisme mensen ziet: als middel om een abstract, onpersoonlijk doel te bereiken, en niets meer. MacAskill en een collega schrijven bijvoorbeeld dat de EA-beweging, en bij implicatie het langetermijndenken, "tentatief welvaartsvijandig is in die zin dat het voorlopige doel van goeddoen alleen betrekking heeft op het bevorderen van welzijn en niet op, bijvoorbeeld, het beschermen van de biodiversiteit of het behoud van natuurschoon voor hun eigen bestwil".
Elk probleem is dus eerder het gevolg van te weinig dan van te veel technologie.
Even zorgwekkend is de eis op lange termijn dat we steeds krachtigere technologieën moeten ontwikkelen, ondanks het feit dat de overweldigende bron van risico's voor het menselijk bestaan tegenwoordig juist van deze technologieën afkomstig is. In Ords woorden: "Zonder serieuze inspanningen om de mensheid te beschermen, zijn er sterke redenen om aan te nemen dat het risico deze eeuw groter zal zijn, en zal toenemen met elke eeuw dat de technologische vooruitgang voortduurt. Evenzo erkent Bostrom in 2012 dat...
het overgrote deel van het existentiële risico in de nabije toekomst bestaat uit antropogene existentiële risico's - dat wil zeggen, voortkomend uit menselijk handelen. In het bijzonder lijken de meeste van de grootste existentiële risico's verband te houden met potentiële toekomstige technologische doorbraken die ons vermogen om de buitenwereld of onze eigen biologie te manipuleren radicaal kunnen uitbreiden. Naarmate onze mogelijkheden toenemen, zal ook de omvang van de potentiële gevolgen - bedoeld en onbedoeld, positief en negatief - toenemen.
In deze visie is er maar één weg vooruit - meer technologische ontwikkeling - ook al is dit de gevaarlijkste weg naar de toekomst. Maar hoeveel zin heeft dit? Als we onze overlevingskansen willen maximaliseren, moeten we ons zeker verzetten tegen de ontwikkeling van gevaarlijke nieuwe technologieën voor tweeërlei gebruik. Als meer technologie gelijk staat aan meer risico - zoals de geschiedenis duidelijk laat zien en technologische prognoses bevestigen - dan is misschien de enige manier om daadwerkelijk een staat van 'existentiële veiligheid' te bereiken het vertragen of volledig stopzetten van verdere technologische innovatie.
Maar langetermijndeskundigen hebben een antwoord op dit raadsel: de zogenaamde "waarde-neutraliteitsthese". Deze stelt dat technologie een moreel neutraal object is, d.w.z. "slechts een instrument". Het idee is het meest bekend geworden door de slogan van de NRA "Guns don't kill people, people kill people", waarmee de boodschap wordt overgebracht dat de gevolgen van technologie, goed of slecht, gunstig of schadelijk, volledig worden bepaald door de gebruikers, niet door de artefacten. Zoals Bostrom het in 2002 verwoordde: "we moeten de beschaving of de technologie niet de schuld geven van het feit dat ze grote existentiële risico's met zich meebrengt", en hij voegde eraan toe dat "vanwege de manier waarop we existentiële risico's hebben gedefinieerd, een mislukte technologische beschaving zou betekenen dat we het slachtoffer zijn geworden van een existentiële ramp".
Ord betoogt eveneens dat "het probleem niet zozeer een overmaat aan technologie is als wel een gebrek aan wijsheid", alvorens Carl Sagan's boek Pale Blue Dot (1994) aan te halen: "Veel van de gevaren waarmee we geconfronteerd worden komen inderdaad voort uit wetenschap en technologie, maar fundamenteler is dat we machtig zijn geworden zonder evenredig wijs te worden. Met andere woorden, het is onze schuld dat we niet slimmer, wijzer en ethischer zijn geworden, een cluster van tekortkomingen die volgens veel long termists, met een beetje verdraaide logica, kunnen worden verholpen door onze cognitieve systemen en morele instelling technologisch te reengineeren. Alles is in deze optiek een technisch probleem, en elk probleem komt dus voort uit te weinig in plaats van te veel technologie.
We beginnen nu in te zien hoe het langetermijndenken zichzelf in de weg kan staan. Niet alleen kan de "fanatieke" nadruk op het vervullen van ons langetermijnpotentieel ertoe leiden dat mensen bijvoorbeeld de niet-existentiële klimaatverandering verwaarlozen, de rijken voorrang geven boven de armen en misschien zelfs preventief geweld en wreedheden "rechtvaardigen" voor het "grotere kosmische goed", maar het bevat ook de tendensen - baconianisme, kapitalisme en waardenneutraliteit - die de mensheid op de rand van de afgrond van de vernietiging hebben gedreven. Het langetermijndenken vertelt ons dat we de economische productiviteit, onze controle over de natuur, onze aanwezigheid in het heelal, het aantal (gesimuleerde) mensen dat in de toekomst bestaat, de totale hoeveelheid onpersoonlijke 'waarde' enzovoort moeten maximaliseren. Maar om te maximaliseren moeten we steeds krachtigere - en gevaarlijke - technologieën ontwikkelen; als we dat niet doen zou dat zelf een existentiële ramp zijn. Maar maak je geen zorgen, want technologie is niet verantwoordelijk voor onze verslechterende situatie, en het feit dat de meeste risico's rechtstreeks voortvloeien uit technologie is dus geen reden om te stoppen met het creëren van meer technologie. Het probleem ligt eerder bij ons, wat alleen maar betekent dat we nog meer technologie moeten creëren om onszelf te transformeren in cognitief en moreel verbeterde postmensen.
Dit lijkt een recept voor een ramp. Het creëren van een nieuw ras van "wijze en verantwoordelijke" postmensen is onwaarschijnlijk en als geavanceerde technologieën in het huidige tempo verder worden ontwikkeld, is een catastrofe op wereldschaal vrijwel zeker eerder een kwestie van wanneer dan van of. Ja, we zullen geavanceerde technologieën nodig hebben als we van de aarde willen ontsnappen voordat deze over een miljard jaar door de zon wordt gesteriliseerd. Maar het cruciale feit dat langetermijndenkers over het hoofd zien, is dat de kans veel groter is dat technologie ons uitsterft vóór deze gebeurtenis in de verre toekomst, dan dat ze ons ervan redt. Als u, net als ik, belang hecht aan het voortbestaan en de bloei van de mensheid, moet u zich bekommeren om de lange termijn, maar de ideologie van het langetermijndenken verwerpen, die niet alleen gevaarlijk en gebrekkig is, maar mogelijk bijdraagt tot de risico's die nu elke persoon op aarde bedreigen en deze versterkt.
Reacties
Een reactie posten