Come affrontare al meglio il secolo più importante?

In precedenza, nella serie “Il secolo più importante”, ho sostenuto che c’è un’alta probabilitàa che i prossimi decenni vedano:
È una visione ottimistica del mondo o pessimistica? Per me è entrambe le cose e nessuna delle due, perché questa serie di eventi potrebbe finire per essere molto buona o molto cattiva per il mondo, a seconda dei dettagli di come si svolgerà.
Quando parlo di essere nel “secolo più importante”, non intendo solo dire che si verificheranno eventi significativi. Intendo dire che noi, le persone che vivono in questo secolo, abbiamo la possibilità di avere un impatto enorme su un gran numero di persone a venire, se riusciamo a dare un senso alla situazione e a trovare azioni utili.
Ma è anche importante capire perché questo è un grande “se”, perché il secolo più importante presenta un quadro strategico impegnativo, tale che molte delle cose che possiamo fare potrebbero migliorare o peggiorare le cose (ed è difficile dire quale delle due).
In questo post, presenterò due modelli contrastanti per capire come trarre il meglio dal secolo più importante.
Ho sostenuto la possibilità che questo secolo veda la transizione verso un mondo in cui persone digitali o tempistiche di sviluppo dell’IA disallineate (o qualcos’altro di molto diverso dagli esseri umani di oggi) siano la forza principale negli eventi mondiali.
Il modello della “cautela” sottolinea che alcuni tipi di transizione sembrano migliori di altri. Elencati in ordineb dal peggiore al migliore:
Ho discusso questa possibilità in precedenza, attingendo a una serie di altre discussioni più approfondite.c L’idea di base è che i sistemi di IA potrebbero finire per avere obiettivi propri e cercare di espandersi in tutto lo spazio realizzando questi obiettivi. Gli esseri umani, e/o tutti i valori umani, potrebbero essere messi in disparte (o fatti estinguere, se altrimenti fossimo d’intralcio).
Se arriviamo al punto in cui ci sono persone digitali e/o IA (non disallineate) in grado di copiare se stesse senza limiti e di espandersi in tutto lo spazio, potrebbe esserci un’intensa pressione a muoversi — e a moltiplicarsi (tramite la copia) — il più velocemente possibile per ottenere maggiore influenza sul mondo. Questo potrebbe portare a diversi paesi/coalizioni che cercano furiosamente di superarsi a vicenda, e/o a veri e propri conflitti militari, sapendo che in breve tempo la posta in gioco potrebbe diventare altissima.
Mi aspetto che questo tipo di dinamica rischi di far finire gran parte della galassia in un brutto statod.
Uno di questi cattivi stati sarebbe “permanentemente sotto il controllo di una singola persona (digitale) (e/o delle sue copie)”. A causa del potenziale delle persone digitali di creare civiltà stabili, sembra che un dato regime totalitario possa finire per radicarsi permanentemente in parti sostanziali della galassia.
I popoli/paesi/coalizioni che sospettano l’un l’altro di rappresentare questo tipo di pericolo, cioè di stabilire potenzialmente civiltà stabili sotto il loro controllo, potrebbero competere e/o attaccarsi a vicenda fin dall’inizio per impedirlo. Questo potrebbe portare a guerre con esiti difficili da prevedere (a causa dei progressi tecnologici difficili da prevedere che il PASTA potrebbe portare).
I Paesi potrebbero prevenire questo tipo di dinamica Maturità tecnologica antagonistica pianificando in anticipo e negoziando tra loro. Per esempio, forse ogni Paese o persona potrebbe essere autorizzato a creare un certo numero di persone digitali (nel rispetto delle tutele dei diritti umani e di altre norme), limitatamente a una certa regione dello spazio.
Sembra che ci sia un’enorme gamma di potenziali specificità, alcune molto più buone e giuste di altre.
Il mondo potrebbe raggiungere un livello di coordinamento abbastanza alto da ritardare qualsiasi passo irreversibile (anche dando il via a una dinamica di Maturità Tecnologica Antagonistica).
Potrebbe quindi esserci qualcosa di simile a ciò che Toby Ord (in The Precipice) chiama la “Lunga riflessione”:e un periodo prolungato in cui le persone potrebbero decidere collettivamente gli obiettivi e le speranze per il futuro, idealmente rappresentando il compromesso più equo disponibile tra diverse prospettive. La tecnologia avanzata potrebbe in teoria aiutare questo processo molto meglio di quanto non possa fare oggif.
Ci sono infinite domande su come funzionerebbe una tale “riflessione” e se c’è davvero speranza che possa raggiungere un risultato ragionevolmente buono ed equo. Dettagli come “quali tipi di persone digitali vengono create per prime” potrebbero avere un’enorme importanza. Attualmente si discute poco di questo tipo di argomenti.g
Probabilmente ci sono molti tipi di transizioni possibili che non ho nominato qui.
Se la scaletta di cui sopra è corretta, allora il futuro della galassia appare migliore nella misura in cui:
Idealmente, tutti coloro che hanno il potenziale per costruire qualcosa di simile a un PASTA sarebbero in grado di riversare le proprie energie nella costruzione di qualcosa di sicuro (non disallineato), pianificando attentamente (e negoziando con gli altri) le modalità di realizzazione, senza fretta o corsa. Tenendo presente questo, forse dovremmo:
(Nota: c’è un certo potenziale di confusione tra l’idea di “competizione” e quella di Maturità Tecnologica Antagonisticah).
Il modello della “competizione” si concentra meno sul modo in cui avviene la transizione verso un futuro radicalmente diverso, e più su chi prende le decisioni fondamentali mentre avviene.
Ciò significa che potrebbe essere molto importante “chi è alla guida dell’IA trasformativa”: quale Paese o quali Paesi, quali persone o organizzazioni.
Alcuni ritengono che oggi si possano fare affermazioni sicure su quali Paesi specifici, e/o quali persone e organizzazioni, dovremmo sperare che siano alla guida dell’IA trasformativa. Queste persone potrebbero sostenere azioni come:
Per impostazione predefinita, mi aspetto che molte persone gravitino verso il modello della “competizione” piuttosto che verso quello della “cautela”, per ragioni che non ritengo eccezionali, quali:
Quindi, a scanso di equivoci, dirò che ritengo che lail modello della “cautela” abbia molte carte in regola. In particolare, IA disallineata e Maturità Tecnologica Antagonistica sembrano molto peggio di altri potenziali tipi di transizione, ed entrambe sembrano cose che hanno una reale possibilità di rendere l’intero futuro della nostra specie (e dei suoi successori) molto peggiore di quanto potrebbe essere.
Temo che un’eccessiva attenzione alla “competizione” porti a minimizzare il rischio di disallineamento e ad affrettare la messa in opera di sistemi non sicuri e imprevedibili, che potrebbero avere molte conseguenze negative.
Detto questo, do molta importanza a entrambi i modelli, ma resto nel complesso ho ancora dei dubbi su quale sia il modello più importante e utile (se lo è l’uno o l’altro).
Le persone che adottano il modello della “cautela” e quelle che adottano il modello della “competizione” spesso favoriscono azioni molto diverse, persino contraddittorie. Le azioni che sembrano importanti per le persone in una modello spesso sembrano attivamente dannose per le persone nell’altra.
Ad esempio, le persone che si collocano nel modello della “competizione” spesso sono favorevoli ad andare avanti il più velocemente possibile nello sviluppo di sistemi di intelligenza artificiale più potenti; per le persone che si collocano nel modello della “cautela”, la fretta è una delle cose principali da evitare. Le persone che si collocano nel modello della “competizione” sono spesso favorevoli a relazioni estere antagonistiche, mentre quelle che si collocano nel modello della “cautela” desiderano che le relazioni estere siano più cooperative.
(Detto questo, questa dicotomia è una semplificazione. Molte persone, me compreso, si ritrovano in entrambi i modelli e ciascuno dei due potrebbe implicare azioni normalmente associate all’altro; per esempio, potreste adottare il modello della “cautela”, ma ritenere che sia necessario affrettarsi ora per stabilire un paese con un vantaggio abbastanza chiaro nell’IA che possa poi prendersi il suo tempo, dare priorità all’evitare un’IA disallineata, ecc.)
Vorrei potervi dire con sicurezza quanto peso attribuire a ciascun modello e quali azioni hanno maggiori probabilità di essere utili, ma non posso. Penso che avremmo più chiarezza se avessimo risposte migliori ad alcune domande chiave aperte:
Il percorso verso il futuro che sembra peggiore è quello dell’IA disallineatai.
La diffusione in questo caso è estrema. Ad esempio, si vedano i risultati di un “sondaggio informale a due domande [inviato] a ~117 persone che si occupano di rischio dell’IA a lungo termine, in cui si chiedeva il livello di rischio esistenziale legato al fatto che ‘l’umanità non fa abbastanza ricerca sulla sicurezza tecnica dell’IA’ e che ‘i sistemi di IA non fanno/ottimizzano ciò che le persone che li impiegano vogliono/intendono’”. (Come mostra il grafico a dispersione, le persone hanno dato risposte simili alle due domande).

Abbiamo intervistati che pensano che ci sia una probabilità inferiore al 5 % che i problemi di allineamento riducano drasticamente le possibilità di un bel futuro; intervistati che pensano che ci sia una probabilità superiore al 95%; e praticamente tutto quello che c’è in mezzo.j La mia sensazione è che questa sia una rappresentazione corretta della situazione: anche tra le poche persone che hanno trascorso più tempo a pensare a questi argomenti, non c’è praticamente alcun consenso o convergenza su quanto sarà difficile il problema dell’allineamento.
Spero che col tempo il campo delle persone che fanno ricerca sull’allineamento dell’IAk cresca e che, con il progredire della ricerca sull’IA e sull’allineamento, si faccia chiarezza sulla difficoltà del problema dell’allineamento dell’IA. Questo, a sua volta, potrebbe fornire maggiore chiarezza sulla priorità della “cautela” rispetto alla “competizione”.
Anche se fosse chiara la difficoltà del problema dell’allineamento, rimarrebbero molte domande spinose.
Dobbiamo aspettarci un’IA trasformativa entro i prossimi 10-20 anni o molto più tardi? I principali sistemi di IA passeranno da molto limitati a molto capaci rapidamente (“hard takeoff”) o gradualmente (“slow takeoff”)?l Dobbiamo sperare che i progetti governativi svolgano un ruolo importante nello sviluppo dell’IA o che l’IA trasformativa emerga principalmente dal settore privato? Alcuni governi sono più propensi di altri a lavorare per un uso attento, inclusivo e umano dell’IA trasformativa? Cosa dovremmo sperare che faccia un governo (o un’azienda) se ottiene la capacità di accelerare drasticamente il progresso scientifico e tecnologico attraverso l’IA?
Tenendo a mente queste e altre domande, spesso è molto difficile analizzare una singola azione, come l’avvio di un nuovo laboratorio di IA, la richiesta di maggiore cautela e di salvaguardie nello sviluppo dell’IA di oggi, ecc., e dire se aumenta la probabilità di buoni risultati a lungo termine.
Nonostante questo stato di incertezza, ecco alcune cose che sembrano decisamente utile fare al momento:
Ricerca tecnica sul problema dell’allineamento. Alcuni ricercatori lavorano alla costruzione di sistemi di IA in grado di ottenere “risultati migliori” (vincere più giochi da tavolo, classificare correttamente più immagini, ecc), ma un numero più esiguo lavora su problemi come:
Questo tipo di lavoro potrebbe ridurre il rischio legato all’IA disallineata e/o portare a una maggiore chiarezza su quanto sia grande la minaccia. Alcune si svolgono nel mondo accademico, altre nei laboratori di IA e altre ancora in organizzazioni specializzate.
Ricerca di chiarezza strategica: fare ricerca che potrebbe affrontare altre domande cruciali (come quelle elencate sopra), per aiutare a chiarire quali tipi di azioni immediate sembrano più utili.
Aiutare i governi e le società a diventare, beh, più gentili. Aiutare il Paese X ad anticipare gli altri nello sviluppo dell’IA potrebbe migliorare o peggiorare le cose, per le ragioni sopra esposte. Ma sembra decisamente positivo lavorare per un Paese X con valori migliori e più inclusivi, e un governo i cui decisori chiave abbiano maggiori probabilità di prendere decisioni ponderate e orientate ai buoni valori.
Diffondere idee e costruire comunità. Oggi, mi sembra che il mondo sia estremamente a corto di persone che condividano alcune aspettative e preoccupazioni di base, come ad esempio:
Penso che sia molto importante che ci siano più persone con questo obiettivo di base, in particolare che lavorano per i laboratori di IA e per i governi. Se e quando avremo maggiore chiarezza strategica su quali azioni potrebbero massimizzare le probabilità che il “secolo più importante” vada bene, mi aspetto che queste persone siano nella posizione di potersi rendere utili.
Diverse organizzazioni e persone si sono adoperate per esporre le persone all’obiettivo di cui sopra e per aiutarle a incontrare altri che lo condividono. Credo che un buon numero di progressi (in termini di crescita delle comunità) sia venuto da questo.
Donazioni? Si può donare oggi a luoghi come questo. Ma devo ammettere che, in generale, non c’è un’equazione diretta tra “denaro” e “migliorare le probabilità che il secolo più importante vada bene”. Non è detto che se si inviassero semplicemente, ad esempio, mille miliardi di dollari nel posto giusto, potremmo tutti dormire sonni tranquilli di fronte a sfide come il problema dell’allineamento e i rischi di distopie digitali.
Mi sembra che attualmente, come specie, siamo terribilmente a corto di persone che prestino una qualsiasi attenzione alle sfide più importanti che ci attendono, e non abbiamo fatto il lavoro necessario per avere una buona chiarezza strategica sulle azioni tangibili da intraprendere. Non possiamo risolvere questo problema con il denaro.m Prima di tutto, dobbiamo prenderlo più seriamente e comprenderlo meglio.
Il prossimo (e ultimo) articolo della serie: Un appello a rimanere vigili