Perché è importante ridurre il rischio esistenziale
Nel 1939, Einstein scrisse a Roosevelt:a
Potrebbe essere possibile innescare una reazione nucleare a catena in una grande massa di uranio… ed è ipotizzabile — anche se molto meno sicuro — che si possa così costruire un nuovo tipo di bombe estremamente potenti.
Pochi anni dopo, queste bombe furono create. In poco più di un decennio ne era stata prodotta una quantità tale che, per la prima volta nella storia, un manipolo di persone in grado di prendere decisioni avrebbe potuto distruggere la civiltà.
L’umanità era entrata in una nuova era, in cui ci trovavamo ad affrontare non solo i rischi esistenzialib del nostro ambiente naturale, ma anche la possibilità di essere in grado di estinguerci da soli.
In questa nuova era, quale dovrebbe essere la nostra maggiore priorità come civiltà? Migliorare la tecnologia? Aiutare i poveri? Cambiare il sistema politico?
Ecco un suggerimento che non viene discusso spesso: la nostra prima priorità dovrebbe essere quella di sopravvivere.
Finché la civiltà continuerà a esistere, avremo la possibilità di risolvere tutti gli altri problemi e di avere un futuro lontano migliore. Ma se ci estinguiamo, è finita.
Perché questa priorità non viene discussa di più? Ecco un motivo: molte persone non si rendono ancora conto del cambiamento della situazione e quindi non pensano che il nostro futuro sia a rischio.
Il ricercatore di scienze sociali Spencer Greenberg ha intervistato gli americani sulla loro stima delle possibilità di estinzione dell’umanità entro 50 anni. I risultati hanno rilevato che molti pensano che le probabilità siano estremamente basse, con oltre il 30 % che ritiene che siano inferiori a 1 su 10 milioni.c
Anche noi pensavamo che i rischi fossero estremamente bassi, ma quando ci siamo informati abbiamo cambiato idea. Come vedremo, i ricercatori che studiano questi problemi ritengono che i rischi siano più di 1000 volte superiori e che probabilmente stiano aumentando.
Queste preoccupazioni hanno dato vita a un nuovo movimento per la salvaguardia della civiltà, a cui si sono uniti Stephen Hawking, Max Tegmark e nuovi istituti fondati da ricercatori di , dell’, di e altri.
Nel resto dell’articolo, esaminiamo i maggiori rischi per la civiltà, compresi alcuni che potrebbero essere più grandi della guerra nucleare e del cambiamento climatico. In seguito, spiegheremo che la riduzione di questi rischi potrebbe essere la cosa più importante della vostra vita e vi spiegheremo esattamente cosa potete fare per aiutarci. Se desiderate utilizzare la vostra carriera per lavorare su questi temi, possiamo anche fornirvi supporto individuale.
Una probabilità di estinzione di 1 su 10 milioni nei prossimi 50 anni — come molti pensano che sia il rischio — deve essere una sottostima. Le minacce esistenziali naturali possono essere stimate abbastanza accuratamente dalla storia e sono molto più alte.
Se la Terra fosse colpita da un asteroide largo un chilometro, la civiltà potrebbe essere distrutta. Osservando i dati storici e tracciando gli oggetti nel cielo, gli astronomi possono stimare il rischio che un asteroide di queste dimensioni colpisca la Terra in circa 1 su 5 000 per secolo.d Si tratta di una probabilità più alta di quella della maggior parte delle persone di trovarsi in un incidente aereo (circa 1 su 5 milioni per volo), e già circa 1 000 volte più alta del rischio di 1 su 10 milioni stimato da alcuni.e
Alcuni sostengono che, sebbene un oggetto delle dimensioni di un chilometro sarebbe un disastro, non sarebbe sufficiente a causare un’estinzione, quindi questa è una stima del rischio al rialzo. D’altra parte, esistono altri rischi naturali, come i supervulcanif.
Detto questo, i rischi naturali sono ancora piuttosto ridotti in termini assoluti. Un articolo di Toby Ord, di prossima pubblicazione, ha stimato che, sommando tutti i rischi naturali, è molto improbabile che si arrivi a più di una probabilità su 300 per secolo.1
Sfortunatamente, come dimostreremo ora, i rischi naturali sono inferiori a quelli causati dall’umanità. Ecco perché il rischio di estinzione è diventato un problema particolarmente urgente.
Se si guarda alla storia nel corso dei millenni, il messaggio fondamentale è che per molto tempo quasi tutti erano poveri, poi nel XVIII secolo le cose sono cambiate2.

Ciò fu causato dalla rivoluzione industriale, forse l’evento più importante della storia.
Non è stata solo la ricchezza a crescere. Il grafico seguente mostra che sul lungo periodo l’aspettativa di vita, il consumo di energia e la democrazia sono cresciuti rapidamente, mentre la percentuale di persone che vivono in povertà è diminuita drasticamente.3

Anche i livelli di alfabetizzazione e di istruzione sono aumentati drasticamente:
Le persone sembrano anche diventare più felici quando diventano più ricche.
In The Better Angels of Our Nature, Steven Pinker sostiene che la violenza sta diminuendo. (Anche se il nostro recente podcast con Bear Braumoeller — uscito dopo la pubblicazione di questo articolo — esamina alcune ragioni per cui potrebbe non essere così).
La libertà individuale è aumentata, mentre razzismo, sessismo e omofobia sono diminuiti.
Molti pensano che il mondo stia peggiorandog ed è vero che la civiltà moderna fa alcune cose terribili, come gli allevamenti intensivi. Ma come si può vedere dai dati, molti metri di misura importanti del progresso sono migliorati drasticamente.
E soprattutto, a prescindere da ciò che si pensa sia accaduto in passato, se guardiamo al futuro, il miglioramento della tecnologia, dell’organizzazione politica e della libertà offre ai nostri discendenti il potenziale per risolvere i problemi attuali e avere vite molto migliorih. È possibile porre fine alla povertà, prevenire il cambiamento climatico, alleviare la sofferenza e molto altro ancora.
Ma notate anche la linea viola del secondo grafico: capacità di scatenare guerre. Si basa sulle stime della potenza militare globale dello storico Ian Morris, e anch’essa è aumentata drasticamente.
Ecco il problema: il miglioramento della tecnologia offre la possibilità di enormi guadagni, ma anche di enormi rischi.
Ogni volta che scopriamo una nuova tecnologia, nella maggior parte dei casi essa produce enormi benefici. Ma c’è anche la possibilità di scoprire una tecnologia con un potere distruttivo superiore a quello che siamo in grado di usare saggiamente.
Così, sebbene la generazione attuale viva nel periodo più prospero della storia umana, è probabilmente anche la più pericolosa.
La prima tecnologia distruttiva di questo tipo sono state le armi nucleari.
Oggi tutti pensiamo al programma nucleare della Corea del Nord, ma gli eventi attuali sono solo un capitolo di una lunga saga di quasi-incidenti.
Solo durante la crisi dei missili di Cuba, abbiamo sfiorato più volte la guerra nuclearei. In un caso, gli americani decisero che se uno dei loro aerei spia fosse stato abbattuto, avrebbero invaso immediatamente Cuba senza ulteriori riunioni del Consiglio di Guerra. Il giorno dopo, un aereo spia fu abbattuto. JFK convocò comunque il Consiglio e decise di non invadere.
Un’invasione di Cuba avrebbe potuto scatenare una guerra nucleare; in seguito venne fuori che Castro era favorevole alla rappresaglia nucleare anche se “avrebbe portato al completo annientamento di Cuba”. Alcuni dei comandanti di lancio a Cuba avevano anche l’autorità indipendente di colpire le forze americane con armi nucleari tattiche in caso di invasione.
In un altro incidente, un sottomarino nucleare russo stava cercando di contrabbandare materiali a Cuba quando fu scoperto dalla flotta americana. La flotta iniziò a lanciare minedi profondità fittizie per costringere il sottomarino ad emergere. Il capitano russo pensò che fossero vere mine di profondità e che, pur essendo fuori dalle comunicazioni radio, fosse iniziata la terza guerra mondiale. Ordinò un attacco nucleare contro la flotta americana con uno dei suoi siluri nucleari.
Fortunatamente, aveva bisogno dell’approvazione di altri ufficiali superiori. Uno di loro, Vasilij Archipov, negò l’approvazione, impedendo la guerra.

Mettendo insieme tutti questi eventi, JFK stimò in seguito che le probabilità di una guerra nucleare erano “tra una su tre e una pari”j.
Ci sono stati molti altri incidenti sfiorati con la Russia, anche dopo la Guerra Fredda, come elencato in questa bella pagina di Wikipedia. E questi sono solo quelli di cui siamo a conoscenza.
Oggi gli esperti nucleari sono preoccupati per le tensioni tra India e Pakistan, che possiedono entrambi armi nucleari, così come per la Corea del Nordk.
Il problema principale è che diversi Paesi mantengono grandi arsenali nucleari pronti a essere dispiegati in pochi minuti. Ciò significa che un falso allarme o un incidente possono rapidamente degenerare in una vera e propria guerra nucleare, soprattutto in tempi di relazioni estere tese.
Una guerra nucleare porrebbe fine alla civiltà? Inizialmente si pensava che un’esplosione nucleare potesse essere così calda da incendiare l’atmosfera e rendere la Terra inabitabile. Gli scienziati ritenevano che questa eventualità fosse sufficientemente improbabile da poter testare le armi in modo “sicuro”, e ora sappiamo che non accadrà.
Negli anni ‘80 si temeva che le ceneri degli edifici in fiamme avrebbero fatto precipitare la Terra in un inverno di lunga durata che avrebbe reso impossibili le coltivazioni per decenni.l I moderni modelli climatici suggeriscono che un inverno nucleare abbastanza rigido da uccidere tutti è molto improbabile, anche se è difficile esserne certi a causa dell’incertezza dei modelli.m
Per questa e altre ragioni, una guerra nucleare sarebbe estremamente destabilizzante e non è chiaro se la civiltà potrebbe riprendersi.
Quanto è probabile che una guerra nucleare possa porre fine in modo permanente alla civiltà umana? È molto difficile fare una stima, ma sembra difficile concludere che la possibilità di una guerra nucleare che ponga fine alla civiltà nel prossimo secolo non sia superiore allo 0,3 %. Ciò significa che i rischi derivanti dalle armi nucleari sono maggiori di tutti i rischi naturali messi insieme. (Per saperne di più sui rischi nucleari).
Ecco perché gli anni ‘50 hanno segnato l’inizio di una nuova era per l’umanità. Per la prima volta nella storia, è diventato possibile per un piccolo numero di decisori politici scatenare il caos sul mondo intero. Oggi rappresentiamo la più grande minaccia alla nostra stessa sopravvivenza, il che fa di oggi il momento più pericoloso della storia dell’umanità.
E le armi nucleari non sono l’unico modo in cui potremmo porre fine alla civiltà.
Nel 2015, il Presidente Obama ha detto nel suo discorso sullo Stato dell’Unione che “Nessuna sfida rappresenta una minaccia più grande per le generazioni future del cambiamento climatico”.
Il cambiamento climatico è certamente un rischio importante per la civiltà.
Il risultato più probabile è un riscaldamento di 2-4 gradi,4 che sarebbe terribile, ma la nostra specie sopravviverebbe.
Tuttavia, alcune stime danno il 10 % di possibilità di un riscaldamento superiore ai 6 gradi e forse l’1 % di un riscaldamento di 9 gradi.
Quindi, sembra che la possibilità di un enorme disastro climatico creato dalla CO2 sia forse simile a quella di una guerra nucleare.
Ma come sosteniamo nel nostro profilo del problema sul cambiamento climatico, sembra improbabile che anche 13 gradi di riscaldamento possano causare direttamente l’estinzione umana. Di conseguenza, i ricercatori che studiano questi problemi ritengono che la guerra nucleare abbia maggiori probabilità di provocare una vera e propria estinzione, a causa della possibilità di un inverno nucleare, ed è per questo che riteniamo che le armi nucleari rappresentino un rischio ancora maggiore rispetto al cambiamento climatico.
Detto questo, il cambiamento climatico è certamente un problema importante e i suoi effetti destabilizzanti potrebbero esacerbare altri rischi (compreso quello di un conflitto nucleare). Questo dovrebbe aumentare ulteriormente la nostra stima dei rischi.
L’invenzione delle armi nucleari ha portato al movimento antinucleare solo un paio di decenni dopo, negli anni ‘60, e il movimento ambientalista ha presto adottato la causa della lotta al cambiamento climatico.
Ciò che è meno noto è che le nuove tecnologie presenteranno ulteriori rischi catastrofici. Ecco perché abbiamo bisogno di un movimento che si preoccupi di salvaguardare la civiltà in generale.
Prevedere il futuro della tecnologia è difficile, ma poiché abbiamo una sola civiltà, dobbiamo fare del nostro meglio. Ecco alcuni candidati per la prossima tecnologia pericolosa quanto le armi nucleari.
Nel 1918-1919, oltre il 3 % della popolazione mondiale morì a causa dell’influenza spagnola.n Se una simile pandemia si verificasse oggi, potrebbe essere ancora più difficile da contenere a causa della rapidità dei trasporti globali.
L’aspetto più preoccupante, tuttavia, è che presto potrebbe essere possibile ingegnerizzare geneticamente un virus contagioso come l’influenza spagnola, ma anche più letale, che potrebbe diffondersi per anni senza essere individuato.
Si tratterebbe di un’arma con il potere distruttivo delle armi nucleari, ma molto più difficile da impedire. Le armi nucleari richiedono enormi fabbriche e materiali rari per essere prodotte, il che le rende relativamente facili da controllare. I virus ingegnerizzati potrebbero essere creati in un laboratorio da un paio di persone con un dottorato in biologia. In effetti, nel 2006, il Guardian è stato in grado di ricevere segmenti del virus del vaiolo estinto per posta.5 Alcuni gruppi terroristici hanno espresso interesse nell’uso di armi indiscriminate come queste. (Per saperne di più sui rischi di pandemia.)

Un’altra nuova tecnologia con un enorme potenziale è l’intelligenza artificiale.
Il motivo per cui sono gli esseri umani a comandare e non gli scimpanzé è puramente una questione di intelligenza. I nostri grandi e potenti cervelli ci danno un incredibile controllo del mondo, nonostante siamo fisicamente molto più deboli degli scimpanzé.
Cosa succederebbe allora se un giorno creassimo qualcosa di molto più intelligente di noi?
Nel 2017 sono stati intervistati 350 ricercatori che avevano pubblicato ricerche peer-reviewed sull’intelligenza artificiale in occasione di conferenze di alto livello per sapere quando ritengono che svilupperemo computer con un’intelligenza di livello umano, ossia una macchina in grado di svolgere tutti i compiti lavorativi meglio degli esseri umani.
La stima mediana è stata che c’è il 50 % di possibilità di sviluppare un’intelligenza artificiale di alto livello tra 45 anni, e il 75 % entro la fine del secolo.o

Queste probabilità sono difficili da stimare e i ricercatori hanno fornito cifre molto diverse a seconda del modo in cui si pone la domanda.p Tuttavia, sembra che ci sia almeno una ragionevole possibilità che nel prossimo secolo venga inventata una qualche forma di intelligenza artificiale trasformativa. Inoltre, la maggiore incertezza significa che potrebbe arrivare prima di quanto si pensi piuttosto che dopo.
Quali rischi potrebbe comportare questo sviluppo? I primi pionieri dell’informatica, come Alan Turing e Marvin Minsky, hanno sollevato preoccupazioni sui rischi dei potenti sistemi informaticiq e questi rischi sono ancora presenti oggi. Non stiamo parlando di computer che “diventano cattivi”. Piuttosto, la preoccupazione è che un potente sistema di intelligenza artificiale possa essere usato da un gruppo per ottenere il controllo del mondo o che possa essere usato in modo improprio. Se l’URSS avesse sviluppato le armi nucleari 10 anni prima degli USA, avrebbe potuto diventare la potenza globale dominante. Una potente potenza di calcolo potrebbe comportare rischi simili.
Un’altra preoccupazione è che utilizzare questi sistemi potrebbe avere conseguenze indesiderate, poiché sarebbe difficile prevedere cosa farebbe qualcosa di più intelligente di noi. Un sistema sufficientemente potente potrebbe anche essere difficile da controllare, e quindi da invertire una volta implementato. Queste preoccupazioni sono state documentate dal professore di Oxford Nick Bostrom in Superintelligenza e dal pioniere dell’IA Stuart Russell.
La maggior parte degli esperti ritiene che il miglioramento dell’IA sarà uno sviluppo estremamente positivo, ma concorda anche sui rischi legati all’IA. Nel sondaggio appena citato, gli esperti di IA hanno stimato che lo sviluppo dell’intelligenza artificiale di alto livello ha il 10 % di possibilità di un “pessimo risultato” e il 5 % di un risultato “estremamente negativo”, come l’estinzione umana.r E probabilmente dovremmo aspettarci che questo gruppo sia prevenuto, dal momento che, dopo tutto, si guadagnano da vivere con questa tecnologia.
Mettendo insieme le stime, se c’è una probabilità del 75 % che l’intelligenza artificiale di alto livello venga sviluppata nel prossimo secolo, significa che la possibilità di un grande disastro causato dall’IA è il 5 % del 75 %, cioè circa il 4 %. (Per saperne di più sui rischi dell’intelligenza artificiale).
Sono state sollevate preoccupazioni per altre nuove tecnologie, come altre forme di geoingegneria e produzione di precisione atomica, ma sembrano di gran lunga meno imminenti, quindi sono ampiamente considerate meno pericolose delle altre tecnologie che abbiamo trattato. È possibile consultare un elenco più lungo di rischi esistenziali qui.
Ciò che probabilmente è più preoccupante sono i rischi a cui non abbiamo ancora pensato. Se nell’anno 1900 avessimo chiesto alle persone quali fossero i maggiori rischi per la civiltà, probabilmente non avrebbero detto le armi nucleari, l’ingegneria genetica o l’intelligenza artificiale, poiché nessuna di queste era ancora stata inventata. È possibile che ci troviamo nella stessa situazione guardando al prossimo secolo. Le future “incognite ignote” potrebbero rappresentare un rischio maggiore di quelli che conosciamo oggi.
Ogni volta che scopriamo una nuova tecnologia, è un po’ come scommettere contro un singolo numero su una roulette. Il più delle volte vinciamo e la tecnologia nel suo complesso è buona. Ma ogni volta c’è anche solo una piccola possibilità che la tecnologia ci dia più potere distruttivo di quanto possiamo gestire e perdiamo tutto.

Molti esperti che studiano questi temi stimano che il totalismo delle possibilità di estinzione umana nel prossimo secolo sia compreso tra l’1 e il 20 %.
Nell’episodio del nostro podcast con Will MacAskill abbiamo discusso del motivo per cui egli valuta il rischio di estinzione in questo secolo intorno all’1 %.
E nel suo libro del 2020 The Precipice, Toby Ord ipotizza che il nostro rischio esistenziale totale in questo secolo sia di 1 su 6 (o circa il 17 %) — un tiro di dadi. (Si noti, tuttavia, che la definizione di Ord di catastrofe esistenziale non è esattamente equivalente all’estinzione umana; includerebbe, ad esempio, una catastrofe globale che non lasci la specie in grado di riprendersi veramente, anche se alcuni esseri umani fossero ancora vivi). Ascolta il nostro episodio con Toby.
Il suo libro contiene la seguente tabella che riporta le sue stime (molto approssimative) del rischio esistenziale derivante da quelle che ritiene essere le principali minacce:
| Catastrofe esistenziale via | Possibilità entro i prossimi 100 anni |
|---|---|
| Impatto di un asteroide o di una cometa | ~1 su 1 000 000 |
| Eruzione supervulcanica | ~1 su 10 000 |
| Esplosione stellare | ~1 su 1 000 000 000 |
| Rischio naturale totale | ~1 in 10 000 |
| Guerra nucleare | ~1 su 1 000 |
| Cambiamento climatico | ~1 su 1 000 |
| Altri danni ambientali | ~1 su 1 000 |
| Pandemie di origine “naturale” | ~1 su 10 000 |
| Pandemia ingegnerizzata | ~1 su 30 |
| Intelligenza artificiale non allineata | ~1 su 10 |
| Rischi antropici imprevisti | ~1 su 30 |
| Altri rischi antropici | ~1 su 50 |
| Rischio antropico totale | ~1 su 6 |
| Rischio esistenziale totale | ~1 su 6 |
Queste cifre sono circa un milione di volte superiori a quanto si pensa normalmente.
Cosa dobbiamo pensare di queste stime? Presumibilmente, i ricercatori interessati a questo argomento lavorano su questi temi solo perché li ritengono così importanti, quindi dovremmo aspettarci che le loro stime siano alte (a causa di selection bias). Sebbene le cifre siano oggetto di dibattito, riteniamo plausibile una serie di opinioni, comprese quelle di MacAskill e Ord.
Quanto dovremmo dare priorità al lavoro per ridurre questi rischi rispetto ad altre questioni, come la povertà globale, la fine del cancro o il cambiamento politico?
Noi di 80,000 Hours facciamo ricerca per aiutare le persone a trovare carriere con un impatto sociale positivo. A tal fine, cerchiamo di individuare i problemi più urgenti del mondo su cui lavorare. Valutiamo i diversi problemi globali utilizzando il nostro quadro di riferimento, che confronta i problemi in termini di:
Applicando questo quadro di riferimento, riteniamo che la salvaguardia del futuro sia la più grande priorità del mondo. Quindi, se vuoi avere un grande impatto positivo sulla tua carriera, questa è l’area principale su cui concentrarti.
Nelle prossime sezioni, valuteremo questo problema in base alla scala, alla trascuratezza e alla risolvibilità, attingendo a piene mani da Existential risk prevention as global priority di Nick Bostrom e lavoro non pubblicato di Toby Ord, oltre che dalle nostre ricerche.
Innanzitutto, cominciamo con la scala del problema. Abbiamo sostenuto che c’è una probabilità di estinzione superiore al 3 % nel prossimo secolo. Quanto è grande questo problema?
Un dato che possiamo considerare è il numero di persone che potrebbero morire in una simile catastrofe. La popolazione della Terra a metà del secolo sarà di circa 10 miliardi di persone, quindi una probabilità del 3 % che tutti muoiano significa che il numero in aspettativa di morti è di circa 300 milioni. Si tratta probabilmente di un numero maggiore di morti rispetto a quelle che possiamo aspettarci nel corso del prossimo secolo a causa delle malattie causate dalla povertà, come la malarias.
Molti dei rischi che abbiamo trattato potrebbero anche causare una catastrofe “media” piuttosto che una catastrofe che pone fine alla civiltà, cosa presumibilmente molto più probabile. L’indagine di cui ci siamo occupati in precedenza ha suggerito una probabilità del 10 % di una catastrofe che uccida più di 1 miliardo di persone nel prossimo secolo, il che significherebbe almeno altri 100 milioni di morti in aspettativa, oltre a molte più sofferenze tra coloro che sopravvivono.
Quindi, anche se ci concentriamo solo sull’impatto sulla generazione presente, questi rischi catastrofici sono uno dei problemi più gravi che l’umanità deve affrontare.
Ma questa è un’enorme sottovalutazione della scala del problema, perché se la civiltà dovesse crollare, rinunceremmo anche al nostro intero futuro.
La maggior parte delle persone vuole lasciare un mondo migliore ai propri nipoti e pensa anche che dovremmo preoccuparci delle generazioni future in senso più ampio. Nel futuro potrebbero esserci molte più persone che vivono bene rispetto a quelle che vivono oggi, e dovremmo preoccuparci dei loro interessi. La civiltà umana potrebbe durare milioni di anni, quindi se consideriamo l’impatto dei rischi sulle generazioni future, la posta in gioco è milioni di volte più alta, nel bene e nel male. Come ha scritto Carl Sagan sui costi della guerra nucleare in Foreign Affairs:6
Una guerra nucleare mette in pericolo tutti i nostri discendenti, finché ci saranno esseri umani. Anche se la popolazione rimane statica, con una vita media dell’ordine di 100 anni, in un periodo di tempo tipico per l’evoluzione biologica di una specie di successo (circa 10 milioni di anni), stiamo parlando di circa 500 bilioni di persone che devono ancora nascere. Secondo questo criterio, la posta in gioco è un milione di volte più alta per l’estinzione che per le più modeste guerre nucleari che uccidono “solo” centinaia di milioni di persone. Ci sono molte altri possibili indicatori della perdita potenziale, tra cui la cultura e la scienza, la storia evolutiva del pianeta e il significato della vita di tutti i nostri antenati che hanno contribuito al futuro dei loro discendenti. L’estinzione è la rovina dell’impresa umana.
Siamo contenti che gli antichi romani non abbiano lasciato che l’umanità si estinguesse, perché in questo modo tutta la civiltà moderna ha potuto esistere. Pensiamo di avere una responsabilità analoga nei confronti delle persone che verranno dopo di noi, supponendo (come crediamo) che possano condurre una vita soddisfacente. Sarebbe imprudente e ingiusto mettere in pericolo la loro esistenza solo per migliorare la nostra sul breve periodo.
Non si tratta solo del fatto che potrebbero esserci più persone future. Come ha sottolineato anche Sagan, qualunque cosa si ritenga di valore, ce n’è potenzialmente molta di più in futuro. La civiltà del futuro potrebbe creare un mondo senza bisogni e senza necessità e raggiungere risultati intellettuali e artistici strabilianti. Potremmo costruire una società molto più giusta e virtuosa. E non c’è alcuna ragione di principio per cui la civiltà non possa raggiungere altri pianeti, di cui ce ne sono circa 100 miliardi nella nostra galassia.7 Se lasciamo che la civiltà finisca, niente di tutto questo potrà mai accadere.
Non sappiamo se questo grande futuro si realizzerà davvero, ma è un motivo in più per mantenere la civiltà in vita in modo da avere la possibilità di scoprirlo. Non riuscire a passare il testimone alla prossima generazione potrebbe essere la cosa peggiore che potremmo mai fare.
Quindi, un rischio del 2 % che la civiltà finisca sembra essere il problema più grande che il mondo deve affrontare oggi. Ciò che colpisce è quanto questi rischi siano trascurati.
Ecco quanto denaro viene destinato ogni anno ad alcune cause di importanza rilevante:t
| Causa | Spesa annua mirata da tutte le fonti (altamente approssimativa) |
|---|---|
| Ricerca e sviluppo globale | 1,5 bilioni di dollari |
| Beni di lusso | 1,3 bilioni di dollari |
| Welfare sociale degli Stati Uniti | 900 miliardi di dollari |
| Cambiamento climatico | >$300 miliardi |
| Ai poveri del mondo | >250 miliardi di dollari |
| Sicurezza nucleare | 1-10 miliardi di dollari |
| Prevenzione delle pandemie estreme | 1 miliardo di dollari |
| Ricerca sulla sicurezza dell’IA | 10 milioni di dollari |
Come si può vedere, spendiamo una grande quantità di risorse per ricercare e sviluppare tecnologie sempre più potenti. Spendiamo molto anche nel tentativo (forse malriuscito) di migliorare le nostre vite acquistando beni di lusso.
Molto meno si spende per mitigare i rischi catastrofici del cambiamento climatico. La spesa per il welfare negli Stati Uniti da sola è superiore alla spesa globale per il cambiamento climatico.
Ma il cambiamento climatico riceve comunque enormi quantità di denaro rispetto ad alcuni degli altri rischi che abbiamo trattato. Secondo una stima approssimativa, la prevenzione di pandemie globali estreme riceve meno di 300 volte, anche se la dimensione del rischio sembra essere la stessa.
La ricerca per evitare incidenti da parte dei sistemi di intelligenza artificiale è la più trascurata di tutte, e forse riceve ancora una volta risorse 100 volte inferiori, con solo 10 milioni di dollari all’anno circa.
Il quadro sarebbe simile se si considerasse il numero di persone che lavorano su questi rischi piuttosto che il denaro speso, ma è più facile ottenere cifre in denaro.
Se invece guardiamo all’attenzione scientifica, vediamo un quadro simile di trascuratezza (anche se alcuni dei singoli rischi ricevono un’attenzione significativa, come il cambiamento climatico):

La nostra impressione è che, se si guarda all’attenzione politica, si ottiene un quadro simile a quello delle cifre relative ai finanziamenti. La maggior parte dell’attenzione politica è rivolta a questioni concrete che aiutano la generazione presente sul breve periodo, perché è questo che fa guadagnare voti. I rischi catastrofici sono molto più trascurati. Tra i rischi catastrofici, poi, il cambiamento climatico è quello che riceve più attenzione, mentre rischi come le pandemie e l’IA sono i più trascurati.
Questa trascuratezza nelle risorse, negli studi scientifici e nell’attenzione politica è esattamente ciò che ci si aspetterebbe dall’economia di fondo ed è il motivo per cui l’area rappresenta un’opportunità per le persone che vogliono rendere il mondo un posto migliore.
In primo luogo, questi rischi non sono responsabilità di una singola nazione. Supponiamo che gli Stati Uniti abbiano investito molto per prevenire il cambiamento climatico. Questo va a beneficio di tutti nel mondo, ma solo il 5 % circa della popolazione mondiale vive negli Stati Uniti, quindi i cittadini statunitensi riceverebbero solo il 5 % dei benefici di questa spesa. Ciò significa che gli Stati Uniti investiranno molto meno in questi sforzi rispetto a quanto valgono per il mondo. E lo stesso vale per tutti gli altri Paesi.
Questo problema potrebbe essere risolto se tutti noi potessimo coordinarci — se ogni nazione accettasse di contribuire alla riduzione del cambiamento climatico, allora tutte le nazioni ne trarrebbero beneficio evitando i suoi effetti peggiori.
Purtroppo, dal punto di vista di ogni singola nazione, è meglio che ogni altro paese riduca le proprie emissioni, lasciando inalterata la propria economia. Ne consegue che ogni nazione ha interesse a disertare gli accordi sul clima, ed è per questo che si fanno così pochi progressi (è un dilemma del prigioniero).
In realtà, in questo modo il problema è drasticamente sottovalutato. I maggiori beneficiari degli sforzi per ridurre i rischi catastrofici sono le generazioni future. Non hanno modo di difendere i loro interessi, né economicamente né politicamente.
Se le generazioni future potessero votare alle nostre elezioni, voterebbero in modo schiacciante a favore di politiche più sicure. Allo stesso modo, se le generazioni future potessero inviare denaro indietro nel tempo, sarebbero disposte a pagarci enormi somme di denaro per ridurre questi rischi. (Tecnicamente, la riduzione di questi rischi crea un bene pubblico transgenerazionale e globale, il che dovrebbe renderli tra i modi più trascurati di fare del bene).
Il nostro sistema attuale non funziona granché bene per proteggere le generazioni future. Conosciamo persone che hanno parlato con alti funzionari governativi nel Regno Unito e sappiamo che molti di loro vorrebbero fare qualcosa per questi rischi, ma dicono che la pressione dei notiziari e del ciclo elettorale rende difficile concentrarsi su di essi. Nella maggior parte dei Paesi, non esiste un’agenzia governativa che abbia tra le sue competenze la mitigazione di questi rischi.
È una situazione deprimente, ma anche un’opportunità. Per le persone che vogliono rendere il mondo un posto migliore, questa mancanza di attenzione significa che ci sono molti modi ad alto impatto per aiutare.
Abbiamo parlato della scala e della trascuratezza di questi problemi, ma che dire del terzo elemento del nostro quadro, la risolvibilità?
È meno certo che possiamo fare progressi su questi temi rispetto ad aree più convenzionali come la salute globale. È molto più facile misurare il nostro impatto sulla salute (almeno nel breve periodo) e abbiamo decenni di prove su ciò che funziona. Ciò significa che lavorare per ridurre i rischi catastrofici sembra più risolvibile.
Tuttavia, possiamo ancora fare molto e, data la scala enorme e la trascuratezza di questi rischi, sembrano ancora le questioni più urgenti.
Descriviamo alcuni modi per ridurre questi rischi, suddivisi in tre grandi categorie:
Un approccio consiste nell’affrontare direttamente ogni rischio. Esistono molte proposte concrete per affrontare ciascuno di essi, come le seguenti:
Molti esperti concordano sul fatto che una migliore sorveglianza delle malattie ridurrebbe il rischio di pandemie. Ciò potrebbe comportare un miglioramento della tecnologia o una migliore raccolta e aggregazione dei dati esistenti, per aiutarci a individuare più rapidamente nuove pandemie. Quanto più velocemente si riesce a individuare una nuova pandemia, tanto più è facile gestirla.
Ci sono molti modi per ridurre il cambiamento climatico, ad esempio aiutando a sviluppare pannelli solari migliori o introducendo una tassa sul carbonio.
Con l’intelligenza artificiale, possiamo fare ricerca sul “problema del controllo” nell’ambito dell’informatica, per ridurre la possibilità di danni involontari da parte di potenti sistemi di IA. Un recente documento, Concrete problems in AI safety, delinea alcuni argomenti specifici, ma oggi solo circa 20 persone lavorano a tempo pieno su ricerche simili.
Per quanto riguarda la sicurezza nucleare, molti esperti ritengono che i vantaggi di deterrenza delle armi nucleari potrebbero essere mantenuti con scorte molto più piccole. Tuttavia, scorte più basse ridurrebbero anche i rischi di incidenti e la possibilità che una guerra nucleare, se si verificasse, porrebbe fine alla civiltà.
Nei nostri profili del problema approfondiamo le azioni che si possono intraprendere per affrontare ciascun rischio:
In questa sezione non ci concentriamo sui rischi di origine naturale, perché sono molto meno probabili e stiamo già facendo molto per affrontarne alcuni. Il miglioramento della ricchezza e della tecnologia ci rende più resilienti ai rischi naturali e un’enorme quantità di sforzi è già stata fatta per ottenere più di questi.
Piuttosto che cercare di ridurre ogni singolo rischio, possiamo cercare di rendere la civiltà generalmente migliore nella gestione dei rischi. Gli sforzi “ampi” aiutano a ridurre tutte le minacce contemporaneamente, anche quelle a cui non abbiamo ancora pensato.
Per esempio, ci sono decisori politici importanti, spesso all’interno del governo, che dovranno gestire questi rischi man mano che si presentano. Se potessimo migliorare la capacità decisionale di queste persone e istituzioni, contribuiremmo a rendere la società in generale più resiliente e a risolvere molti altri problemi.
La ricerca recente ha scoperto molti modi per migliorare il processo decisionale, ma la maggior parte di essi non è ancora stata implementata. Allo stesso tempo, sono poche le persone che lavorano su questo tema. Approfondiamo il tema nel nostro articolo miglioramento del processo decisionale delle istituzioni.
Un altro esempio è che potremmo cercare di rendere più facile per la civiltà riprendersi da una catastrofe. Il Global Seed Vault è un deposito congelato nell’Artico che contiene i semi di molte varietà di colture importanti, riducendo la possibilità di perdere una specie importante. Lo scioglimento dell’acqua che di recente è entrata nella galleria che porta alla camera blindata è dovuto, ironia della sorte, al cambiamento climatico, quindi probabilmente avrebbe bisogno di maggiori finanziamenti. Ci sono molti altri progetti come questo che potremmo realizzare per preservare la conoscenza.
Allo stesso modo, potremmo creare migliori rifugi per i disastri, che ridurrebbero le possibilità di estinzione a causa di pandemie, inverno nucleare e asteroidi (ma non a causa dell’IA), aumentando anche le possibilità di recupero dopo un disastro. Al momento, queste misure non sembrano efficaci quanto la riduzione dei rischi, ma sono comunque utili. Un’opzione più trascurata e forse molto più economica è la creazione di fonti alimentari alternative, come quelle che possono essere prodotte senza luce e che potrebbero essere scalate rapidamente in un inverno prolungato.
Poiché gli sforzi di ampio respiro sono utili anche se non siamo sicuri dei dettagli dei rischi, sono tanto più attraenti quanto maggiore è l’incertezza. Man mano che ci si avvicina ai rischi, si dovrebbero riallocare gradualmente le risorse da sforzi ampi a sforzi mirati (leggi tutto).
Ci aspettiamo che ci siano molti altri interventi ampi promettenti, ma è un’area in cui sono state fatte poche ricerche. Ad esempio, un altro approccio potrebbe prevedere il miglioramento del coordinamento internazionale. Poiché questi rischi sono causati dall’umanità, possono essere prevenuti dall’umanità, ma ciò che ci blocca è la difficoltà di coordinamento. Per esempio, la Russia non vuole il disarmo perché si troverebbe in una posizione di svantaggio rispetto agli Stati Uniti e viceversa, anche se entrambi i Paesi starebbero meglio se non ci fosse la possibilità di una guerra nucleare.
Tuttavia, potrebbe essere possibile migliorare la nostra capacità di coordinarci come civiltà, ad esempio migliorando le relazioni estere o sviluppando migliori istituzioni internazionali. Siamo desiderosi di approfondire la ricerca su questo tipo di proposte.
Anche gli sforzi tradizionali per fare del bene, come migliorare l’istruzione e lo sviluppo internazionale, possono contribuire a rendere la società più resiliente e saggia, e quindi a ridurre i rischi catastrofici. Per esempio, una popolazione più istruita probabilmente eleggerebbe leader più illuminati, e i Paesi più ricchi sono, a parità di condizioni, in grado di prevenire meglio le pandemie: non è un caso che l’Ebola abbia preso piede in alcune delle zone più povere dell’Africa occidentale.
Tuttavia, non riteniamo che l’istruzione e la sanità siano le aree migliori su cui concentrarsi per due motivi. In primo luogo, queste aree sono molto meno trascurate rispetto agli approcci non convenzionali che abbiamo trattato. In effetti, il miglioramento dell’istruzione è forse la causa più popolare per chi vuole fare del bene e, solo negli Stati Uniti, riceve 800 miliardi di dollari di finanziamenti governativi e altri bilioni di dollari di finanziamenti privati. In secondo luogo, questi approcci hanno effetti molto più diffusi sulla riduzione di questi rischi: bisognerebbe migliorare l’istruzione su scala molto ampia per avere un effetto apprezzabile. Preferiamo concentrarci su soluzioni più mirate e trascurate.
Abbiamo molti dubbi su quali siano i rischi maggiori, su cosa sia meglio fare per affrontarli e sul fatto che il nostro quadro complessivo delle priorità globali possa essere totalmente sbagliato. Ciò significa che un altro obiettivo chiave è quello di saperne di più su tutti questi temi.
Possiamo imparare di più semplicemente cercando di ridurre questi rischi e vedendo quali progressi si possono fare. Tuttavia, riteniamo che il modo più trascurato e importante per saperne di più in questo momento sia la ricerca sulle priorità globali.
Si tratta di una combinazione di economia e filosofia morale, che mira a rispondere a domande di alto livello sulle questioni di maggiore importanza per l’umanità. Ci sono solo pochi ricercatori che lavorano a tempo pieno su questi temi.
Un altro modo per gestire l’incertezza è quello di accumulare risorse da impiegare in futuro, quando si avranno maggiori informazioni. Un modo per farlo è guadagnare e risparmiare denaro. Si può anche investire nel proprio capitale di carriera, in particolare nelle competenze trasferibili e nelle connessioni influenti, in modo da poter ottenere maggiori risultati in futuro.
Tuttavia, riteniamo che un approccio potenzialmente migliore di questi sia quello di costruire una comunità incentrata sulla riduzione di questi rischi, qualunque essi siano. Il motivo per cui questo approccio può essere migliore è che è possibile far crescere la capacità di una comunità più velocemente di quanto si possa far crescere la propria ricchezza individuale o il proprio capitale di carriera. Per esempio, se si dedica un anno a un’attività di sensibilizzazione mirata, non è escluso che si riesca a trovare un’altra persona con competenze rilevanti che si unisca a noi. Si tratterebbe di un ritorno annuale alla causa di circa il 100 %.
In questo momento, siamo concentrati sul sviluppare l’altruismo efficace, una comunità che comprende molte persone che vogliono ridurre questi rischi. Inoltre, il recente tasso di crescita e gli studi sugli sforzi specifici per far crescere la comunità suggeriscono che sono possibili alti tassi di rendimento.
Tuttavia, ci aspettiamo che anche altri sforzi di costruzione della comunità siano preziosi. Sarebbe bello vedere una comunità di scienziati che cerca di promuovere una cultura della sicurezza nel mondo accademico. Sarebbe bello vedere una comunità di politici che vogliono cercare di ridurre questi rischi e far sì che il governo si preoccupi maggiormente delle generazioni future.
Dato che sono poche le persone che lavorano attivamente alla riduzione di questi rischi, ci aspettiamo che si possa fare molto per costruire un movimento intorno a questi temi.
Considerando tutti gli approcci alla riduzione di questi rischi e le poche risorse dedicate ad alcuni di essi, sembra che sia possibile compiere progressi sostanziali.
Infatti, anche se consideriamo solo l’impatto di questi rischi sulla generazione presente (ignorando i benefici per le generazioni future), è plausibile che siano la priorità assoluta.
Ecco alcune cifre molto approssimative e semplificate, solo per illustrare come questo potrebbe essere possibile. Ci sembra plausibile che 100 miliardi di dollari spesi per ridurre le minacce esistenziali possano ridurle di oltre l’1 % nel corso del prossimo secolo. Con una riduzione di un punto percentuale del rischio ci aspetteremmo di salvare circa 100 milioni di vite tra la generazione presente (l’1 % di circa 10 miliardi di persone vive oggi). Ciò significa che l’investimento salverebbe vite per soli 1 000 dollari a persona.u
Greg Lewis ha fatto una stima più dettagliata, arrivando a una media di 9 200$ per anno di vita salvato nella generazione presente (o ~300 000$ per vita).v Ci sono anche altre stime nel thread. Riteniamo che Greg sia probabilmente troppo conservatore, perché ipotizza che il rischio di estinzione sia solo dell’1 % nel prossimo secolo, mentre secondo le nostre stime è molte volte superiore. Pensiamo anche che il prossimo miliardo di dollari speso per ridurre il rischio esistenziale potrebbe causare una riduzione del rischio maggiore di quella ipotizzata da Greg (si noti che questo è vero solo se il miliardo fosse speso per le questioni più trascurate come la sicurezza dell’IA e il rischio biologico). Di conseguenza, non saremmo sorpresi se il costo per vite umane salvate per il prossimo miliardo di dollari investito nella riduzione del rischio esistenziale fosse inferiore a 100 dollari.
L’organizzazione di beneficenza raccomandata da GiveWell, Against Malaria Foundation (AMF), è spesso presentata come uno dei modi migliori per aiutare la generazione presente e salva vite per circa 7 500$ (dati del 2017).w Queste stime, quindi, collocano la riduzione del rischio esistenziale come migliore o nello stesso campo di costo-efficacia dell’AMF per salvare vite nella generazione presente — un’organizzazione di beneficenza che è stata specificamente selezionata per essere eccezionale su questa dimensione.
Allo stesso modo, pensiamo che se 10 000 giovani di talento concentrassero la loro carriera su questi rischi, potrebbero ottenere qualcosa come una riduzione dell’1 % dei rischi. Ciò significherebbe che ogni persona salverebbe 1 000 vite in aspettativa nel corso della sua carriera nella generazione presente, il che è probabilmente meglio di ciò che potrebbe salvare guadagnando per donare e donando alla Against Malaria Foundation.x
In un certo senso, si tratta di confronti ingiusti, perché la stima di GiveWell è molto più solida e ben studiata, mentre la nostra stima è più che altro un’ipotesi informata. Potrebbero anche esserci modi migliori per aiutare la generazione presente rispetto alla AMF (ad esempio, l’attivismo politico).
Tuttavia, abbiamo anche drammaticamente sottovalutato i benefici della riduzione delle minacce esistenziali. La ragione principale per salvaguardare la civiltà non è il beneficio della generazione presente, ma quello delle generazioni future. In questa stima le abbiamo ignorate.
Se consideriamo anche le generazioni future, allora l’efficacia della riduzione delle minacce esistenziali è più grande di diversi ordini di grandezza ed è difficile immaginare una priorità più urgente in questo momento.
Ora puoi leggere alcune risposte a queste argomentazioni, oppure passare ai modi pratici per contribuire.
Le argomentazioni presentate si basano su alcuni presupposti che non tutti accetteranno. Qui presentiamo alcune delle migliori risposte a questi argomenti.
Stiamo parlando di quale dovrebbe essere la priorità se si cerca di aiutare le persone in generale, trattando gli interessi di tutti allo stesso modo (quello che i filosofi a volte chiamano “altruismo imparziale”).
La maggior parte delle persone si preoccupa di aiutare gli altri in qualche misura: se si può aiutare un estraneo con poca spesa, è una buona cosa da fare. Le persone si preoccupano anche di far andare bene la propria vita e di prendersi cura di amici e familiari, e noi siamo uguali.
Come bilanciare queste priorità è una questione difficile. Se avete la fortuna di poter contribuire ad aiutare il mondo, pensiamo che la salvaguardia del futuro sia il punto su cui concentrarsi. Nella prossima sezione elenchiamo i modi concreti per impegnarsi.
In caso contrario, potresti concentrarti sulla tua vita personale in questo momento, contribuendo a titolo accessorio o in futuro.
Non disponiamo di stime affidabili su molti dei rischi causati dall’umanità, quindi potreste provare a fare le vostre stime e concludere che sono molto più bassi di quanto abbiamo sostenuto. Se fossero sufficientemente bassi, la loro riduzione cesserebbe di essere la priorità assoluta.
Non lo riteniamo plausibile, per le ragioni esposte. Se si considerano tutti i rischi potenziali, sembra difficile essere sicuri che siano inferiori all’1 % nel corso del secolo, e anche un rischio dell’1 % probabilmente giustifica un’azione molto più incisiva di quella attuale.
Consideriamo questi rischi meno “risolvibili” rispetto a questioni come la salute globale, quindi ci aspettiamo che i progressi siano più difficili per ogni dollaro. Detto questo, pensiamo che la loro scala e la loro trascuratezza compensino ampiamente questo aspetto e quindi, in aspettativa, risultano più efficaci. Molti pensano che l’altruismo efficace consista nel sostenere solo interventi “collaudati”, ma si tratta di un falso mito. Vale la pena di sostenere interventi che hanno solo una piccola possibilità di successo, se il vantaggio è sufficientemente alto. Il principale finanziatore della comunità ora sostiene un approccio di “filantropia basata sui successi”.
Tuttavia, se foste molto più pessimisti di noi sulle possibilità di progresso, allora sarebbe meglio lavorare su questioni più convenzionali, come la salute globale.
Personalmente, potremmo passare a un altro tema se le risorse investite per ridurre questi rischi fossero maggiori di due ordini di grandezza, ma attualmente questo traguardo è ancora lontano.
Una risposta correlata è che stiamo già adottando i migliori interventi per ridurre questi rischi. Ciò significa che i rischi non giustificano un cambiamento delle priorità pratiche. Per esempio, prima abbiamo detto che l’educazione probabilmente aiuta a ridurre i rischi. Se si pensa che l’educazione sia la risposta migliore (forse perché si hanno molti dubbi su quali rischi saranno più urgenti), allora, dato che investiamo già molto nell’educazione, si potrebbe pensare che la situazione sia già gestita. Non lo troviamo credibile perché, come elencato, ci sono molte opportunità non colte per ridurre questi rischi che sembrano più mirati e trascurati.
Un altro esempio di questo tipo è che gli economisti a volte sostengono che dovremmo concentrarci solo sulla crescita economica, poiché questa ci metterà nella migliore posizione possibile per gestire i rischi in futuro. Non lo riteniamo credibile perché alcuni tipi di crescita economica aumentano i rischi (ad esempio, la scoperta di nuove armi), quindi non è chiaro se la crescita economica sia il modo migliore per ridurre i rischi. Piuttosto, ci concentreremmo almeno sullo sviluppo tecnologico differenziato, o sugli altri sforzi più mirati elencati sopra.
Sebbene ridurre questi rischi valga la pena per la generazione presente, gran parte della loro importanza deriva dai loro effetti a lungo termine: se la civiltà dovesse crollare, rinunceremmo all’intero futuro.
Si potrebbe pensare che ci siano altre azioni che la generazione presente potrebbe intraprendere con effetti sul lungo periodo e che potrebbero avere la stessa importanza per ridurre il rischio di estinzione. In particolare, potremmo essere in grado di migliorare la qualità del futuro facendo sì che la nostra civiltà non rimanga bloccata in modo permanente all’interno di scenari negativi.
Tutto questo diventerà un po’ fantascientifico, ma portate pazienza. Una possibilità che è stata ventilata è che le nuove tecnologie, come la sorveglianza estrema o il condizionamento psicologico, potrebbero rendere possibile la creazione di un governo totalitario a cui non si potrebbe mai porre fine. Questo sarebbe lo scenario Nineteen Eighty-Four e Brave New World rispettivamente. Se questo governo fosse malvagio, allora la civiltà potrebbe avere un destino peggiore dell’estinzione, facendoci soffrire per millenni.
Altri hanno sollevato la preoccupazione che lo sviluppo di sistemi avanzati di intelligenza artificiale possa causare danni terribili se viene fatto in modo irresponsabile, magari perché c’è un conflitto tra diversi gruppi che competono per sviluppare la tecnologia. In particolare, se in futuro lo sviluppo di questi sistemi comporterà la creazione di menti digitali senzienti, il loro benessere potrebbe diventare di incredibile importanza.
I rischi legati all’IA sono stati chiamati “rischi S”.y Se oggi possiamo fare qualcosa per evitare che un rischio S si verifichi (ad esempio, attraverso una ricerca mirata sulla sicurezza tecnica dell’IA e sulla governance dell’IA), potrebbe essere ancora più importante. Un’altra area da considerare è quella delle grandi transizioni tecnologiche. Abbiamo menzionato i pericoli dell’ingegneria genetica e dell’intelligenza artificiale in questo pezzo, ma queste tecnologie potrebbero anche creare una seconda rivoluzione industriale e produrre un’enorme quantità di bene una volta implementate. Potremmo fare qualcosa per aumentare le probabilità di una buona transizione, piuttosto che diminuire il rischio di una cattiva transizione. In altre parole, cercare di aumentare la “speranza esistenziale” piuttosto che diminuire il “rischio esistenziale”9.
Siamo d’accordo sul fatto che potrebbero esserci altri modi per ottenere effetti a lungo termine e che questi potrebbero essere più urgenti della riduzione del rischio di estinzione. Tuttavia, la maggior parte di queste proposte non sono ancora ben elaborate e non siamo sicuri di cosa fare.
Il principale risultato pratico della considerazione di questi altri modi di incidere sul futuro è che riteniamo ancora più importante gestire positivamente la transizione verso nuove tecnologie trasformative, come l’IA. Inoltre, siamo più propensi a vedere una maggiore ricerca sulle priorità globali che si occupi di questi temi. Nel complesso, continuiamo a pensare che sia sensato concentrarsi innanzitutto sulla riduzione delle minacce esistenziali, per poi rivolgere la nostra attenzione ad altri modi per aiutare il futuro.
Un modo per aiutare il futuro che non pensiamo sia una buona soluzione è accelerarlo. Alcune persone che vogliono aiutare il futuro si concentrano sul progresso tecnologico, come lo sviluppo di nuovi vaccini, ed è vero che questi creano benefici a lungo termine. Tuttavia, pensiamo che ciò che conta di più, in una prospettiva a lungo termine, sia dove arriveremo, piuttosto che la velocità con cui ci arriveremo. Scoprire un nuovo vaccino significa probabilmente ottenerlo prima, piuttosto che non ottenerlo affatto.
Inoltre, poiché la tecnologia è anche la causa di molti di questi rischi, non è chiaro quanto accelerarla sia utile nel breve periodo. Accelerare il progresso è anche un ambito molto meno trascurato, perché va a vantaggio anche della generazione presente. Come abbiamo detto, ogni anno viene speso oltre 1 bilione di dollari per la ricerca e lo sviluppo di nuove tecnologie. Quindi, le accelerazioni sono meno importanti e meno trascurate.
Per saperne di più su altri modi di aiutare le generazioni future, vedi il capitolo 3 di On the Overwhelming Importance of Shaping the Far Future del dottor Nick Beckstead.
Se si pensa che sia pressoché certo che la civiltà non durerà a lungo, allora il valore della riduzione di questi rischi si riduce significativamente (anche se forse vale ancora la pena aiutare la generazione presente e un piccolo numero di generazioni future).
Siamo d’accordo che c’è una possibilità significativa che la civiltà finisca presto (ed è per questo che la questione è così importante), ma pensiamo anche che ci sia una possibilità abbastanza altache possa durare molto a lungo, il che rende il futuro qualcosa per cui vale la pena lottare.
Allo stesso modo, se si pensa che sia probabile che il futuro sia più negativo che positivo (o se abbiamo l’obbligo di ridurre la sofferenza piuttosto che aumentare il benessere), allora il valore della riduzione di questi rischi diminuisce. Non pensiamo che questo sia probabile, tuttavia, perché le persone vogliono che il futuro sia buono, quindi cercheranno di renderlo più buono che cattivo. Pensiamo anche che ci sia stato un significativo progresso morale negli ultimi secoli (dovuto alle tendenze notate in precedenza), e pensiamo che continuerà su questa strada.z
Inoltre, anche se non si è sicuri di quanto sarà buono il futuro, o si sospetta che sarà cattivo in modi che potremmo essere in grado di prevenire, si può desiderare che la civiltà sopravviva e abbia diversi futuri a disposizione. Le persone future avranno molto più tempo per capire se sia auspicabile che la civiltà si espanda, rimanga delle stesse dimensioni o si riduca. Se si pensa che ci sia una buona possibilità di agire su queste preoccupazioni morali, è una buona ragione per lasciare qualsiasi decisione finale alla saggezza delle generazioni future. Nel complesso, abbiamo molti dubbi su queste questioni di ampio respiro, ma questo ci rende in genere più attenti a evitare di prendere impegni irreversibili.aa
Al di là di questo, probabilmente dovresti concentrare la tua attenzione sui modi per diminuire la possibilità che il futuro sia negativo, come ad esempio evitare i rischi S.
Se pensi che abbiamo obblighi molto più forti nei confronti della generazione presente che di quelle future (come ad esempio prospettive centrate sulla persona), allora l’importanza di ridurre questi rischi diminuirebbe. Personalmente, non pensiamo che questi punti di vista siano particolarmente convincenti. Detto questo, abbiamo sostenuto che anche se si ignorano le generazioni future, questi rischi sembrano meritevoli di essere affrontati. Gli sforzi suggeriti potrebbero comunque salvare vite nella generazione presente in modo relativamente economico e potrebbero evitare molte sofferenze dovute a disastri di media entità.
Inoltre, se non si è sicuri di avere obblighi morali nei confronti delle generazioni future, si dovrebbe cercare di avere diverse opzioni, il che significa salvaguardare la civiltà.
Tuttavia, se si pensa che non abbiamo grandi obblighi nei confronti delle generazioni future e che i rischi sono piuttosto irrisolvibili (o che non c’è alcuna ricerca utile da fare), allora un altro modo di aiutare le generazioni presenti potrebbe avere la meglio. Ciò potrebbe significare lavorare sulla salute globale o sulla salute mentale. In alternativa, potreste pensare che ci sia un’altra questione morale di maggiore importanza, come gli allevamenti intensivo.

La nostra generazione può contribuire a causare la fine di tutto, oppure guidare l’umanità attraverso il suo periodo più pericoloso e diventare una delle generazioni più importanti della storia.
Potremmo essere la generazione che rende possibile il raggiungimento di un mondo fantastico e fiorente, oppure che mette tutto a rischio.
Come persone che vogliono aiutare il mondo, è su questo che dobbiamo concentrare i nostri sforzi.
Se vuoi concentrare la tua carriera sulla riduzione delle minacce esistenziali e sulla salvaguardia del futuro dell’umanità, vogliamo aiutarti. Abbiamo scritto un articolo che illustra le opzioni e i passi da compiere per iniziare.
Una volta letto l’articolo, o se hai già pensato a ciò che vuoi fare, prendi in considerazione l’idea di parlare con noi a tu per tu. Possiamo aiutarti a riflettere sulle decisioni da prendere e a formulare il tuo piano.
Questo articolo fa parte della nostra serie avanzata. Consulta la serie completa, oppure continua a leggere: