Rischi di sofferenza futura astronomica
“Se portiamo il marchio del fuoco verde da una stella all’altra, e accendiamo intorno a ciascuna una conflagrazione di vitalità, possiamo innescare una metamorfosi universale. […] Grazie a noi […] le scorie diventeranno terra, l’erba germoglierà, i fiori sbocceranno e le foreste sorgeranno in luoghi un tempo sterili.a […] Se rinnegassimo la nostra sfida impressionante e voltassimo le spalle all’universo vivente e rinunciamo al nostro destino cosmico, commetteremmo un crimine di portata impronunciabile”. -Marshall T. Savage1
“Preghiamo che la razza umana non fugga mai dalla Terra per diffondere la sua iniquità altrove”. -C.S. Lewis2
L’articolo di Nick Bostrom The future of human evolution descrive uno scenario in cui i valori umani del divertimento, dello svago e delle relazioni potrebbero essere sostituiti da agenti iper-ottimizzati in grado di competere meglio nella gara darwiniana per il controllo del nostro futuro cono di luce. L’unico modo per evitare questo scenario competitivo, suggerisce Bostrom, sarebbe attraverso un “singleton”, un agente unificato o una struttura di governo in grado di controllare l’evoluzione. Naturalmente, anche un singleton potrebbe non portare avanti i valori umani. Molte IA ingenue che gli esseri umani potrebbero costruire potrebbero ottimizzare una funzione obiettivo che gli esseri umani trovano inutile. O anche se gli esseri umani si mantenessero al comando, è tutt’altro che garantito che possiamo preservare i nostri obiettivi in modo stabile attraverso le principali automodifiche future. Caspar Oesterheld ha suggerito che anche se un’IA singleton dovesse emergere sulla Terra, potrebbe comunque trovarsi di fronte alla prospettiva di una concorrenza da parte di extraterrestri, a causa della quale potrebbe sentire la pressione di costruire rapidamente agenti successori più potenti per i quali non sarebbe in grado di verificare il pieno allineamento dell’IA, portando così alla deriva degli obiettivi.
Questi fattori suggeriscono che, anche a condizione che il progresso tecnologico umano continui, la probabilità che i valori umani si realizzino in futuro potrebbe non essere molto alta. La realizzazione dei valori umani sembra richiedere un singleton che non sia un ottimizzatore cieco, che possa preservare stabilmente i valori e che sia modellato da progettisti che si preoccupano dei valori umani piuttosto che del guadagno egoistico o di altro. È importante tenerlo a mente quando immaginiamo ciò che gli esseri umani del futuro potrebbero essere in grado di realizzare con la loro tecnologia.
Alcuni credono che superintelligenze sufficientemente avanzate scopriranno la verità morale e quindi faranno necessariamente le cose giuste. Quindi, si sostiene, finché l’umanità sopravvive e cresce di intelligenza, alla fine accadranno le cose giuste. Questa visione presenta due problemi. In primo luogo, il rasoio di Occam agisce contro l’esistenza di una verità morale (qualunque cosa si supponga significhi). In secondo luogo, anche se tale verità morale esistesse, perché una superintelligenza dovrebbe interessarsene? Oggi sulla Terra ci sono molte persone brillanti che mangiano carne. Conoscono perfettamente la sofferenza che provoca, ma i loro sistemi motivazionali non sono sufficientemente coinvolti dal danno che stanno facendo agli animali da allevamento. Lo stesso può valere per le superintelligenze. In effetti, le intelligenze arbitrarie nello spazio della mente non hanno bisogno di avere nemmeno il minimo accenno di empatia per la sofferenza che provano i senzienti.
Anche se gli esseri umani mantengono il controllo sul futuro della vita terrestre, permettendo potenzialmente alle persone di realizzare i futuri positivi che desiderano, ci sono ancora molti modi in cui la colonizzazione dello spazio potrebbe moltiplicare la sofferenza. Eccone alcuni.

Gli esseri umani potrebbero colonizzare altri pianeti, diffondendo vita animale piena di sofferenza attraverso la terraformazione. Alcuni umani potrebbero usare le loro risorse per seminare vita in tutta la galassia, cosa che alcuni considerano tristemente un imperativo morale.
Data la potenza di calcolo astronomica, i post-umani possono eseguire vari tipi di simulazioni. Queste simulazioni possono includere molte copie di animali selvatici, la maggior parte dei quali muore dolorosamente poco dopo la nascita. Ad esempio, una superintelligenza che voglia esplorare la distribuzione di extraterrestri di vario tipo potrebbe eseguire un gran numero di simulazioni dell’evoluzione su vari tipi di pianeti. Inoltre, gli scienziati potrebbero eseguire un numero ancora maggiore di simulazioni di organismi-che-potevano-essere, esplorando lo spazio delle menti. Potrebbero simulare decilioni di allievi di rinforzo sufficientemente autocoscienti da provare quello che noi consideriamo dolore cosciente (oltre che piacere).
Oltre a simulare menti più primitive ed evolute, una civiltà di superintelligenza potrebbe simulare miriadi di possibili traiettorie future per se stessa. In una situazione antagonistica, le intelligenze artificiali potrebbero usare (una forma molto migliorata di) Monte Carlo tree search (MCTS) per simulare i risultati di molte interazioni ipotetiche durante la guerra. I dettagli di queste battaglie dovrebbero essere simulati per ragioni di accuratezza, ma le simulazioni di guerra a grana fine avrebbero molta più importanza morale rispetto, ad esempio, alle azioni primitive in Total War: Rome II che vengono simulate durante l’esecuzione di un algoritmo MCTS dell’IA del gioco. Naturalmente, è molto probabile che in futuro venga utilizzato qualcosa di meglio dell’MCTS, ma l’importanza delle simulazioni di qualche tipo per la pianificazione non sembra destinata a scomparire.
Può darsi che certi algoritmi (ad esempio, gli agenti di rinforzo) siano molto utili per eseguire complessi apprendimenti per rinforzo che devono essere eseguiti su scala massiccia da IA avanzate. Questi sottoprogrammi capaci di soffrire potrebbero essere sufficientemente simili ai programmi di dolore del nostro cervello, tanto da essere considerati come se soffrissero davvero. Ma il profitto e il potere potrebbero avere la precedenza sulla pietà, quindi queste subroutine potrebbero essere ampiamente utilizzate in tutti i cervelli Matrioshka dell’IA.
La gamma di scenari che possiamo immaginare è limitata e potrebbero emergere molte altre possibilità a cui non abbiamo pensato o che forse non riusciamo nemmeno a comprendere.
Se dovessi fare una stima ora, darei circa il 70 % di probabilità che se gli esseri umani o i post-umani colonizzassero lo spazio, questo causerebbe più sofferenza di quanta ne ridurrebbe (ignorando le considerazioni sul compromesso discusse più avanti). Con questa affermazione mi riferisco solo al totale della sofferenza, ignorando la felicità e altri valori positivib.
Pensate a come la colonizzazione dello spazio potrebbe plausibilmente ridurre la sofferenza. Per la maggior parte di questi meccanismi, sembrano esserci dei contro-meccanismi che aumentano la sofferenza almeno altrettanto. Le sezioni seguenti sono parallele a quelle precedenti.
David Pearce ha coniato l’espressione “missioni di salvataggio cosmico” riferendosi alla possibilità di inviare sonde su altri pianeti per alleviare la sofferenza degli extraterrestri selvatici (ET) che contengono. È una bella idea, ma ci sono alcuni problemi.
Questo è in contrasto con le possibilità di diffondere la sofferenza degli animali selvatici:
Fortunatamente, gli umani potrebbero non sostenere molto la diffusione della vita, anche se alcuni lo fanno. Per quanto riguarda la terraformazione, ci sono pressioni per la sopravvivenza sul breve periodo, ma probabilmente la panspermia diretta è un problema più grande sul lungo periodo. Inoltre, dato che si stima che la terraformazione richieda almeno migliaia di anni, mentre l’intelligenza digitale di livello umano dovrebbe richiedere al massimo qualche centinaio di anni per svilupparsi, la terraformazione potrebbe essere un punto irrilevante dal punto di vista dei rischi catastrofici, dato che l’intelligenza digitale non avrebbe bisogno di pianeti terraformati.
Sebbene abbia notato che non è sicuro che gli ET siano senzienti, penso che sia moderatamente probabile che la coscienza sia abbastanza convergente tra le civiltà intelligenti. Ciò si basa su (a) indizi di coscienza convergente tra gli animali sulla Terra e (b) sul principio generale che la coscienza sembra essere utile per pianificare, manipolare immagini, modellare se stessi, ecc.. D’altra parte, forse questo riflette la mia scarsa capacità di immaginare modi per essere intelligenti senza coscienza.
Anche nell’improbabile caso in cui l’intelligenza di origine terrestre si impegnasse a ridurre la sofferenza degli ET selvatici nell’universo, e anche nell’improbabile caso in cui ogni pianeta del nostro cono di luce futuro contenesse sofferenza cosciente degli ET selvatici, mi aspetto che la colonizzazione dello spazio faccia aumentare il totale della sofferenza piuttosto che diminuirlo. Questo perché la vita biologica legata al pianeta cattura una minuscola frazione dell’energia irradiata dalle stelle madri. Sfruttare una maggiore quantità di energia solare consentirebbe di eseguire ordini di grandezza di potenza di calcolo intelligente superiore a quella che la biologia attualmente svolge. A meno che la densità di sofferenza tra questi computer non sia estremamente bassa, moltiplicare la potenza di calcolo intelligente probabilmente moltiplicherebbe la sofferenza.
Date le straordinarie quantità di energia che si possono estrarre dalle stelle, un’intelligenza di origine terrestre potrebbe eseguire un numero prodigioso di simulazioni.
Naturalmente, forse ci sono ET che eseguono simulazioni della natura per scienza o divertimento, o delle menti in generale per studiare la biologia, la psicologia e la sociologia. Se incontrassimo questi ET, forse potremmo convincerli a essere più umani.
Penso che sia probabile che gli esseri umani siano più empatici della media delle civiltà perché:
Sulla base di queste considerazioni, sembra plausibile che ci sia spazio per un miglioramento attraverso l’interazione con gli ET. Infatti, in generale dovremmo aspettarci che sia possibile per due civiltà o fazioni ottenere guadagni dallo scambio se hanno un’utilità marginale decrescente rispetto alla quantità di controllo esercitato. Inoltre, si possono ottenere miglioramenti di Pareto a basso costo solo grazie a una maggiore intelligenza e a una migliore comprensione di considerazioni importanti.
Detto questo, ci sono alcuni rischi negativi. I post-umani stessi potrebbero creare simulazioni di sofferenza e, quel che è peggio, le simulazioni gestite dai post-umani avrebbero più probabilità di essere senzienti di quelle gestite da ET casuali, perché i post-umani avrebbero la tendenza a simulare cose più vicine a loro nello spazio mentale. Potrebbero eseguire simulazioni di natura per apprezzare l’estetica, simulazioni di laboratorio per gli esperimenti scientifici o simulazioni di animali domestici per gli animali domestici.
I sottoprogrammi capaci di soffrire possono essere il risultato convergente di qualsiasi IA, sia essa di ispirazione umana o meno. Potrebbero anche essere gestite da alieni, e forse gli umani potrebbero chiedere agli alieni di progettarle in modo più umano, ma questo sembra speculare.
Sembra plausibile che in futuro la sofferenza sarà dominata da qualcosa di totalmente inaspettato. Potrebbe trattarsi di una nuova scoperta nel campo della fisica, delle neuroscienze o, più in generale, della filosofia. Alcuni sostengono che, poiché ora sappiamo così poco, è meglio che gli esseri umani rimangano in vita a causa del “valore di opzione”: Se in seguito le persone si rendono conto che è un male diffondersi, possono smettere, ma se si rendono conto che dovrebbero diffondersi, possono procedere a ridurre la sofferenza in qualche modo nuovo che non abbiamo previsto.
Naturalmente, il problema dell’argomentazione del “valore di opzione” è che presuppone che gli esseri umani del futuro facciano le cose giuste, mentre in realtà, sulla base di esempi di ipotesi che possiamo immaginare ora, sembra che gli esseri umani del futuro farebbero probabilmente le cose sbagliate per la maggior parte del tempo. Per esempio, di fronte a una nuova scoperta di un’oscena potenza di calcolo, la maggior parte degli esseri umani la userebbe per far funzionare altre menti, una frazione non banale delle quali potrebbe soffrire terribilmente. In generale, la maggior parte delle fonti di immenso potere sono spade a doppio taglio che possono creare più felicità e più sofferenza, e il tipico impulso umano a promuovere la vita/coscienza piuttosto che a rimuoverle suggerisce che i valori incentrati sulla sofferenza sono dalla parte dei perdenti.
Tuttavia, aspettare e imparare di più è plausibilmente efficiente secondo Kaldor-Hicks, e forse ci sono modi per renderlo efficiente secondo Pareto, concedendo ulteriori concessioni a chi riduce la sofferenza come compensazione.
Sopra ho ipotizzato una civiltà orientata agli esseri umani con valori che riconosciamo. Ma cosa succede se, come sembra leggermente probabile, la Terra viene conquistata da un massimizzatore, cioè da un processo di automazione o ottimizzazione senza vincoli? Questo non ridurrebbe la sofferenza perché eliminerebbe gli ET selvaggi mentre il massimizzatore si diffonde in tutta la galassia, senza causare ulteriori sofferenze?
Forse, ma se il massimizzatore è effettivamente intelligente in generale, allora non si fermerà a rivestire il sistema solare di graffette. Vorrà fare scienza, eseguire esperimenti di laboratorio su creature senzienti, eventualmente eseguire sottoprogrammi capaci di soffrire e così via. Avrà bisogno di molti robot intelligenti e potenzialmente senzienti per coordinare e mantenere le fabbriche di graffette, gli impianti di raccolta dell’energia e le operazioni minerarie, nonché di scienziati e ingegneri per progettarli. Lo scenario del massimizzatore comporterebbe cigni neri simili a quelli di un’intelligenza artificiale ispirata agli esseri umani. I massimizzatori sarebbero presumibilmente meno intrinsecamente umani di una “IA amichevole”, quindi alcuni potrebbero causare una sofferenza significativamente maggiore rispetto a un’IA amichevole, anche se altri potrebbero causarne di meno, soprattutto i “minimizzatori”, ad esempio quelli che minimizzano il cancro o la morte.
Se il massimizzatore non è generalmente intelligente, mi è difficile capire come possa causare l’estinzione umana. In questo caso sarebbe come molti altri rischi catastrofici: mortale e destabilizzante, ma non in grado di spazzare via la razza umana.
*Se sapessimo con certezza che gli ET colonizzerebbero la nostra regione dell’universo se l’intelligenza di origine terrestre non lo facesse, allora la questione se gli esseri umani dovrebbero cercare di colonizzare lo spazio diventerebbe meno ovvia. Come già detto, è plausibile che gli esseri umani siano più compassionevoli di quanto lo sarebbe una civiltà extraterrestre casuale. D’altra parte, i computer ispirati dagli esseri umani potrebbero anche comportare una maggiore quantità di ciò che consideriamo sofferenza, perché le architetture mentali degli agenti coinvolti sarebbero più familiari. E avere più agenti in competizione per il nostro futuro cono di luce potrebbe portare a risultati pericolosi.
Ma per amor di discussione, supponiamo che un’ondata di colonizzazione originata dalla Terra sia migliore dell’ondata di colonizzazione attesa di una civiltà extraterrestre che colonizzerebbe più tardi se noi non lo facessimo. In particolare, supponiamo che se i valori umani colonizzassero lo spazio, causerebbero solo -0,5 unità di sofferenza, rispetto a -1 unità se gli extraterrestri casuali colonizzassero lo spazio. Allora sembrerebbe che, finché la probabilità P che qualche altro extraterrestre arrivi in seguito è maggiore di 0,5, allora è meglio che gli umani colonizzino e impediscano agli extraterrestri di colonizzare, dato che -0,5 > -1 * P per P > 0,5. Tuttavia, questa analisi dimentica che anche i valori umani possono essere colonizzati da extraterrestri a caso.
Tuttavia, questa analisi dimentica che anche se un’intelligenza di origine terrestre colonizzasse lo spazio, non è affatto garantito che i valori umani controllino il modo in cui la colonizzazione procede. Le forze evolutive potrebbero distorcere i valori umani compassionevoli in qualcosa di irriconoscibile. In alternativa, un’IA ribelle potrebbe sostituire gli esseri umani e ottimizzare i valori arbitrari in tutto il cosmo. In questo caso, la compassione superiore alla media degli umani non fa molta differenza, quindi supponiamo che il valore di queste ondate di colonizzazione sia -1, proprio come per la colonizzazione da parte di extraterrestri casuali. Sia Q la probabilità che queste forze non compassionevoli ottengano il controllo della colonizzazione della Terra. Ora i valori attesi sono
-1 * Q + -0,5 * (1-Q) per la colonizzazione di origine terrestre contro -1 * P se la Terra non viene colonizzata e lascia aperta la possibilità di una successiva colonizzazione extraterrestre.
Per concretezza, diciamo che Q = 0,5. (Sembra plausibile che sia troppo poco per una colonizzazione terrestre). (A me sembra plausibilmente troppo basso, visto quante volte la Terra ha subito revisioni di egemoni in passato). Allora la colonizzazione di origine terrestre è migliore se e solo se
-1 * 0.5 + -0.5 * 0.5 -1 * P
-0.75 > -1 * P
P > 0.75.
Data l’incertezza sul paradosso di Fermi e sul Grande Filtro, sembra difficile mantenere una probabilità superiore al 75 % che il nostro cono di luce futuro contenga ET colonizzatori se noi stessi non lo colonizziamo, anche se questa sezione presenta un’argomentazione interessante per pensare che la probabilità di ET futuri sia piuttosto alta.
E se le IA ribelli producessero un disvalore di diversa entità rispetto agli ET arbitrari? Sia H il danno in aspettativa della colonizzazione da parte di un’IA ribelle. Supponiamo che gli ET abbiano la stessa probabilità di sviluppare IA ribelli degli umani. Allora il disvalore della colonizzazione della Terra è
H * Q + -0,5 * (1-Q),
e il danno della colonizzazione da parte degli ET è
P * (H * Q + -1 * (1-Q)).
Sempre considerando Q = 0,5, allora la colonizzazione terrestre ha un valore atteso migliore se
H * 0,5 + -0,5 * 0,5 > P * (H * 0,5 + -1 * 0,5)
H - 0,5 > P * (H - 1)
P > (H - 0,5)/(H - 1),
dove la disuguaglianza si inverte quando si divide per il numero negativo (H - 1). Qui è un grafico di questi valori soglia per P in funzione di H. Anche se H = 0 e un’IA ribelle non causasse alcuna sofferenza, sarebbe comunque meglio per un’intelligenza di origine terrestre colonizzare solo se P > 0,5, cioè se la probabilità che gli ET colonizzino al suo posto fosse almeno del 50 %.
Questi calcoli implicano molte aspettative e potrebbe risultare che la colonizzazione terrestre abbia un valore atteso più alto in base a determinati valori dei parametri. Questo è il motivo principale per cui mantengo dei dubbi sul valore della colonizzazione dello spazio da parte della Terra. Tuttavia, l’intera sezione si basava sul fatto che la colonizzazione ispirata dall’uomo fosse migliore di quella ispirata dagli ET, e potrebbe essere vero anche il contrario, poiché è più probabile che i computer del futuro siano più vicini a ciò che apprezziamo e svalutiamo maggiormente se gli esseri umani si occupano della colonizzazione.
Alcuni hanno suggerito la possibilità di dare alle IA di origine terrestre i valori delle civiltà extraterrestri. Se ciò avvenisse, l’argomentazione secondo cui gli umani hanno valori migliori degli extraterrestri non sarebbe nemmeno applicabile e un’ondata di colonizzazione terrestre sarebbe altrettanto negativa della colonizzazione extraterrestre.
Infine, vale la pena sottolineare che, nella misura in cui le decisioni umane sono logicamente correlate a quelle degli extraterrestri, se gli esseri umani scelgono di non colonizzare lo spazio o di fallire nel farlo, ciò potrebbe rendere leggermente più probabile che anche altre civiltà non colonizzino lo spazio, il che sarebbe positivo. Tuttavia, questo punto è probabilmente piuttosto debole, assumendo che le correlazioni logiche tra le diverse civiltà planetarie siano piccole.
Se lo sviluppo tecnologico e la colonizzazione dello spazio sembrano destinati a causare quantità astronomiche di sofferenza, non dovremmo fare del nostro meglio per fermarli? Vale la pena di discutere fino a che punto noi, come società, vogliamo questi risultati, ma credo che qualcuno li porterà avanti, e sarebbe difficile limitarli senza misure estreme. Alla fine, coloro che continueranno a sviluppare le tecnologie deterranno la maggior parte del potere mondiale. Queste persone, anche solo per effetto della selezione, avranno un forte desiderio di sviluppare l’intelligenza artificiale e di colonizzare lo spazio.
La resistenza potrebbe non essere del tutto inutile. C’è una piccola possibilità che i riduttori di sofferenza possano influenzare la società in modo tale da impedire la colonizzazione dello spazio. Ma sarebbe meglio che i riduttori di sofferenza, invece di combattere i tecnocrati, scendessero a compromessi con loro: Vi lasceremo espandere nel cosmo se darete più peso alle nostre preoccupazioni sulla sofferenza futura. Invece di offrire una piccolissima possibilità di vittoria completa per i riduttori di sofferenza, questo approccio di cooperazione offre una maggiore possibilità di ottenere una frazione apprezzabile della riduzione totale della sofferenza che vogliamo. Inoltre, il compromesso significa che i riduttori di sofferenza possono vincere anche nello scenario (a mio avviso probabile al 30 %) in cui lo sviluppo tecnologico previene più sofferenza di quanta ne provochi, anche a prescindere da considerazioni di compromesso strategico con altre persone.
Idealmente, questi compromessi dovrebbero assumere la forma di solidi accordi di contrattazione. Alcuni esempi sono possibili anche a breve termine, ad esempio se i riduttori di sofferenza e i sostenitori della colonizzazione dello spazio si accordano per cancellare finanziamenti opposti a favore di qualche progetto concordato.
La questione strategica di dove investire le risorse per far progredire i propri valori in un dato momento equivale a un dilemma del prigioniero con altri sistemi di valori, e poiché facciamo ripetutamente scelte su dove investire, quali posizioni adottare e quali politiche promuovere, questi dilemmi del prigioniero si ripetono. Nei tornei di Robert Axelrod sul dilemma del prigioniero iterato, le strategie più performanti erano sempre “gentili”, cioè non erano le prime a disertare. Pertanto, i riduttori di sofferenza non dovrebbero essere i primi a disertare contro i colonizzatori dello spazio. Naturalmente, se sembra che i colonizzatori dello spazio non mostrino alcun movimento verso la riduzione della sofferenza, allora dovremmo anche essere “provocabili” a disertare temporaneamente finché l’altra parte non inizierà a riconoscere le nostre preoccupazioni.
Noi che siamo preoccupati per la colonizzazione dello spazio abbiamo molto da guadagnare dall’alleanza con i suoi sostenitori, in termini di riflessione su quali scenari potrebbero verificarsi e su come modellare il futuro in direzioni migliori. Vogliamo anche rimanere in amicizia, perché questo significa che le persone favorevoli alla colonizzazione prenderanno più seriamente le nostre idee. Anche se la colonizzazione dello spazio dovesse avvenire, rimarranno molte questioni secondarie sulle quali i riduttori di sofferenza vorranno avere voce in capitolo: ad esempio, non diffondere la fauna selvatica, non creare simulazioni/sottoprogrammi capaci di soffrire, ecc.
Vogliamo assicurarci che i riduttori di sofferenza non diventino un gruppo disprezzato. Per esempio, pensiamo a come l’eugenetica sia più tabù a causa delle atrocità naziste di quanto lo sarebbe stata altrimenti. Le persone contrarie alla tecnologia sono talvolta infamate dall’associazione con Unabomber. I sostenitori dei diritti degli animali possono essere macchiati dalle tattiche violente di alcuni, o anche dalle buffonate della PETA. Dobbiamo essere cauti nel rischio che accada qualcosa di simile per la riduzione della sofferenza. La maggior parte delle persone si preoccupa già molto di prevenire la sofferenza e non vogliamo che la gente inizi a dire: “Oh, ti preoccupi di prevenire il danno a creature impotenti? Cosa sei, uno di quei riduttori di sofferenza?”, dove ‘riduttori di sofferenza’ è diventato un nome così cattivo da evocare un odio automatico.
Quindi non solo la cooperazione con i sostenitori della colonizzazione è l’opzione più promettente, ma è probabilmente l’unica opzione tutto sommato positiva per noi. Assumere una posizione più conflittuale rischia di indurire l’opposizione e di allontanare le persone dal nostro messaggio. Ricordiamo che prevenire le sofferenze future è qualcosa che sta a cuore a tutti, e non dovremmo erodere questo dato di fatto con un atteggiamento eccessivamente antagonista.
Molti scenari speculativi che consentirebbero di ridurre enormemente la sofferenza nel multiverso consentirebbero anche di aumentarla enormemente: quando si può diminuire il numero di organismi esistenti, si può anche aumentarne il numero, e coloro che sono favorevoli a creare più felicità/vita/complessità/ecc. tenderanno a spingere per l’aumento.
Tuttavia, ci possono essere alcuni cigni neri che sono davvero unilaterali, nel senso che è più probabile che una maggiore conoscenza porti a una diminuzione della sofferenza. Per esempio: potremmo scoprire che alcune operazioni fisiche di routine corrispondono alla nostra concezione di sofferenza. Le persone potrebbero essere in grado di sviluppare modi per riorganizzare questi processi fisici per ridurre la sofferenza che contengono. Se questo potesse essere fatto senza un grande sacrificio per la felicità o altri valori, la maggior parte delle persone sarebbe d’accordo, supponendo che i valori attuali abbiano una parte di rappresentazione nelle decisioni future.
Potrebbe trattarsi di un problema abbastanza grande. Do una probabilità non banale (forse ~10 %?) che, dopo una sufficiente riflessione, adotterei una visione altamente inclusiva di ciò che conta come sofferenza, tanto da ritenere che porzioni significative dell’intero multiverso contengano processi fisici densi di sofferenza. Dopo tutto, le meccaniche della sofferenza possono essere viste come molto semplici se ci si pensa in un certo modo e, per quanto ne so, ciò che rende speciale la sofferenza animale sono i campanelli e fischietti che la senzienza animale comporta al di là della fisica grezza — cose come l’apprendimento complesso, il pensiero, la memoria, ecc. Ma perché altri oggetti fisici nel multiverso non possono essere i campanelli e i fischietti che assistono alla sofferenza di altri processi fisici? È tutto molto teorico, ma le comprensioni del multiverso a cui arriveranno i nostri discendenti possiamo solo iniziare a immaginarle in questo momento.
Se ci preoccupiamo in qualche misura di riflettere moralmente sui nostri valori, piuttosto che dare per scontato che la riduzione della sofferenza di un particolare tipo sia senza dubbio la strada migliore da percorrere, allora abbiamo più motivi per sostenere un futuro tecnologicamente avanzato, almeno se è riflessivo.
In uno scenario idealizzato come quello della volizione estrapolata coerente (CEV), ad esempio, se la riduzione della sofferenza fosse la visione morale più convincente, gli altri se ne accorgerebbero.c In effetti, tutti gli argomenti avanzati da qualsiasi filosofo morale verrebbero messi sul tavolo per essere presi in considerazione (più molti altri che nessun filosofo ha ancora avanzato), e le persone avrebbero la possibilità di sperimentare la sofferenza estrema, in modo controllato, per valutare quanto sia brutta rispetto ad altre cose. Forse ci sarebbero approcci analitici per prevedere cosa direbbe la gente su quanto sia brutta la tortura, senza doverla effettivamente torturare per scoprirlo. E naturalmente potremmo leggere la documentazione storica dell’umanità e tutti gli scritti su Internet per saperne di più su ciò che le persone reali hanno detto sulla tortura, anche se dovremmo correggere i bias del senno di poi e i deficit di accuratezza nel ricordare le emozioni a posteriori. Ma, cosa importante, in uno scenario CEV, tutte queste qualifiche potrebbero essere prese in considerazione da persone molto più intelligenti di noi.
Naturalmente, questo futuro roseo non è un risultato probabile. Storicamente, le forze politiche prendono il controllo perché esercitano al meglio il loro potere. È abbastanza plausibile che qualcuno prenda il controllo del futuro ignorando i desideri di tutti gli altri, piuttosto che combinandoli e idealizzandoli. O forse la preoccupazione per gli impotenti cadrà nel dimenticatoio, perché non è davvero adattivo che gli agenti potenti si preoccupino di quelli deboli, a meno che non ci siano forti e stabili pressioni sociali in tal senso. Ciò suggerisce che migliorare le prospettive di un futuro riflessivo e tollerante può essere un’impresa importante. Piuttosto che concentrarsi sul fatto che il futuro si verifichi o meno, penso che sia più utile per i riduttori di sofferenza concentrarsi sul rendere il futuro migliore se si verificasse, incoraggiando il compromesso, la riflessione morale, la saggezza filosofica e l’altruismo.
Questo articolo è stato ispirato da una domanda di Rob Wiblin. La discussione sulla cooperazione con altri sistemi di valori è stata incoraggiata da Carl Shulman. Inizialmente mi sono opposto alle sue affermazioni, ma, come spesso si è successo almeno su questioni fattuali e strategiche, alla fine ho capito che aveva ragione e mi sono avvicinato al suo punto di vista.