Stiamo “tendendo verso” l’IA trasformativa? (Come possiamo saperlo?)
Questo è uno dei 4 post che riassumono centinaia di pagine di rapporti tecnici incentrati quasi interamente per prevedere un numero: l’anno entro il quale verrà sviluppata l’IA trasformativa.a
Per “IA trasformativa” intendo “un’IA abbastanza potente da portarci in un futuro nuovo e qualitativamente diverso”. Mi concentro in particolare su quelle che chiamo PASTA: sistemi di IA che possono essenzialmente automatizzare tutte le attività umane necessarie ad accelerare il progresso scientifico e tecnologico.
Quanto prima verrà sviluppato un PASTA, tanto prima il mondo potrebbe cambiare radicalmente, e tanto più importante appare pensare oggi a come far sì che questo cambiamento possa essere un bene o un male.
In questo post e nel prossimo parlerò dei metodi di previsione alla base della mia attuale visione: Credo che ci sia più del 10 % di possibilità di vedere qualcosa di simile a un PASTA definibile come “IA trasformativa” entro 15 anni (entro il 2036); una probabilità circa del 50 % di vederla entro 40 anni (entro il 2060); e una probabilità di circa 2/3 di vederla in questo secolo (entro il 2100).
Qui di seguito mi occuperò di:
- Discutere su quale tipo di previsione sto puntando.
- Non sono sicuro che si possa sapere che l’IA trasformativa sia “in arrivo” molto prima che arrivi. Spero invece che si possano utilizzare le tendenze dei fatti fondamentali del mondo (come le capacità dell’IA, le dimensioni dei modelli, ecc.) per prevedere un futuro qualitativamente sconosciuto.
- Un’analogia per questo tipo di previsione potrebbe essere qualcosa del tipo: “Quest’acqua non sta bollendo e non ci sono segni che lo stia facendo, ma la temperatura è passata da 20 C° a 66 C° e se raggiunge i 100°, l’acqua bollirà”. Oppure: “È come prevedere la chiusura delle scuole e il sovraccarico degli ospedali prima che avvengano, basandosi sulle tendenze delle malattie riportate”.
- Discutere se possiamo o meno cercare [tendenze su quanto siano “grandiosi” o “capaci” i sistemi di IA]. Penso che questo approccio non sia affidabile: (a) il progresso dell’IA potrebbe non avere una “tendenza” nel modo in cui ci aspettiamo; (b) nella mia esperienza, diversi ricercatori di IA hanno idee radicalmente diverse su quali sistemi sono grandiosi o capaci e su come sta andando il progresso.
- Discutere brevemente When will AI exceed human performance? Evidence from AI experts, il migliore studio esistente tra i ricercatori di IA sulle tempistiche di sviluppo dell’IA trasformativa. Le sue conclusioni sembrano ampiamente in linea con le mie previsioni, anche se ci sono indizi sul fatto che che i ricercatori non abbiamo riflettuto a fondo sulle domande.
Il prossimo articolo di questa serie si concentrerà sulla previsione sull’IA trasformativa di Ajeya Cotra Forecasting TAI with biological anchors (che di seguito abbrevierò con “Bio Ancore”), la previsione che ritengo più informativa.
Che tipo di previsione sto cercando?
Le previsioni sull’IA trasformativa sono diverse da quelle a cui siamo abituati, principalmente sotto due aspetti.
In primo luogo, le mie previsioni si estendono su orizzonti temporali molto lunghi (decenni), a differenza, ad esempio, delle previsioni del tempo (giorni) o delle previsioni elettorali (mesi). Questo rende il compito molto più complessob e più difficile da valutare per gli esterni, poiché non ho uno storico chiaramente rilevante di previsioni su argomenti simili.
In secondo luogo, non ho dati abbondanti e rilevanti e non posso fare riferimento a una serie di previsioni simili fatte in passato. Le previsioni di FiveThirtyEight sulle elezioni prendono in considerazione centinaia di sondaggi e hanno un modello di come i sondaggi hanno previsto le elezioni in passato. La previsione sull’IA trasformativa deve affidarsi maggiormente all’intuizione, alle congetture e al giudizio, in termini di determinazione dei dati più rilevanti e della loro rilevanza.
Infine, sto cercando di prevedere un futuro qualitativamente sconosciuto. L’IA trasformativa, e lo strano futuro che ne deriverà, non sembrano qualcosa verso cui stiamo “tendendo” di anno in anno.
- Se cercassi di prevedere quando la popolazione mondiale raggiungerà i 10 miliardi, potrei semplicemente estrapolare le tendenze esistenti della popolazione mondiale. La stessa popolazione mondiale è notoriamente in crescita e può essere stimata direttamente. A mio avviso, l’estrapolazione di una tendenza di lunga durata è uno dei modi migliori per fare una previsione.
- Quando FiveThirtyEight fa previsioni sulle elezioni, c’è una consapevolezza di fondo che ci sarà un’elezione in una certa data e che chiunque vinca entrerà in carica in un’altra data. Tutti noi crediamo in questo quadro di base e siamo convinti che un sondaggio più favorevole significhi una maggiore probabilità di vittoria.
- Al contrario, l’IA trasformativa (e lo strano futuro che ne deriverà) non è qualcosa verso cui siamo “diretti” in modo chiaramente misurabile. Non c’è una metrica chiara sulla “trasformatività dell’IA” o la “stranezza del mondo” che aumenta regolarmente ogni anno in modo da poterla proiettare nel futuro e ottenere la data in cui qualcosa come PASTA sarà sviluppato.
Forse per alcuni questi punti sono una ragione sufficiente per ignorare l’intera possibilità di un’IA trasformativa o per ritenere che sia molto lontana. Ma non credo che questa sia una buona idea, per un paio di motivi.
In primo luogo, ho un’opinione di fondo secondo cui una tecnologia come un PASTA sia in un certo senso “inevitabile”, se si presuppone che i progressi della società e della computazione continuino. L’intuizione di base, che potrei approfondire se vi è l’interesse, è che i cervelli umani sono numerosi e non sembrano aver bisogno di particolari materiali rari per essere prodotti, quindi dovrebbe essere possibile, a un certo punto della storia umana, replicare sinteticamente le parti essenziali della loro funzionalità.c
Allo stesso tempo, non sono sicuro che un PASTA darà l’impressione qualitativa di essere ‘in arrivo’ molto prima che effettivamente arrivi (maggiori dettagli su questo più avanti). Pertanto, sono incline a cercare modi per stimare quando possiamo aspettarci questo sviluppo, nonostante le difficoltà, e nonostante il fatto che oggi non sembri essere imminente.”
Penso che ci siano molti esempi di casi in cui un futuro qualitativamente sconosciuto potrebbe essere visto in anticipo tracciando la tendenza di alcuni fatti sottostanti e correlati sul mondo. Alcuni che mi vengono in mente:
- Quando il COVID-19 è emerso per la prima volta, molte persone hanno avuto difficoltà a prenderlo sul serio perché non sembrava che stessimo “dirigendoci verso” un mondo pieno di ospedali stracolmi, chiusura di uffici e scuole, eccetera. All’epoca (diciamo, gennaio 2020), c’era un numero relativamente basso di casi, un numero ancora più basso di morti e nessuna sensazione qualitativa di un’emergenza globale. L’unica cosa allarmante del COVID-19, all’inizio, era che il numero di casi stava crescendo a un ritmo esponenziale (anche se il numero complessivo di casi era ancora basso). Tuttavia, era possibile estrapolare dalla rapida crescita del numero di casi il rischio di un’emergenza globale. Alcuni lo fecero, altri no.
- I climatologi prevedono un aumento globale delle temperature significativamente superiore a quello che abbiamo visto negli ultimi decenni e che potrebbe avere conseguenze molto più gravi di quelle attuali. Lo fanno prevedendo le tendenze delle emissioni di gas serra ed estrapolando da lì la temperatura e le conseguenze. Se ci si limitasse a chiedere “A che velocità sta aumentando la temperatura?” o “Gli uragani stanno peggiorando?”, e si basassero tutte le previsioni sul futuro su questi elementi, probabilmente non si prevederebbe lo stesso tipo di eventi estremi nel 2100.d
- Per fare un esempio più sul lungo periodo, possiamo prevedere la data in cui il sole si spegnerà e concludere che per quella data il mondo avrà un aspetto molto diverso da quello attuale, anche se oggi non c’è alcuna tendenza in questo senso.
Un’analogia per questo tipo di previsione potrebbe essere qualcosa di simile: “Quest’acqua non bolle e non ci sono segni che lo farà, ma la temperatura è passata da 20°C a 66°C e se raggiunge i 100°C, l’acqua bollirà”.
Idealmente, posso trovare alcuni fattori di fondo che stanno cambiando con una regolarità tale da permetterci di prevederli (come la crescita delle dimensioni e del costo dei modelli di IA), e quindi sostenere che se questi fattori raggiungono una determinata soglia, le probabilità di un’IA trasformativa saranno elevate.
Si può pensare a questo approccio come a una risposta alla domanda: “Se penso che qualcosa come un PASTA sia inevitabile e cerco di indovinare i tempi di realizzazione utilizzando metodi di analisi diversi, cosa posso prevedere?”. Possiamo chiedere inoltre: “E c’è un motivo per cui questa ipotesi è poco plausibile, inaffidabile o troppo folle?”. — Questo aspetto è stato affrontato nell’articolo precedente di questa serie.
Estrapolazioni soggettive e “grandiosità dell’IA”
Per una presentazione diversa di alcuni contenuti simili, si veda questa sezione di Bio Anchors.
Se stiamo cercando alcuni fattori di fondo nel mondo che predicono l’arrivo dell’IA trasformativa, forse la prima cosa che dovremmo cercare sono le tendenze di quanto siano “grandiosi” o “capaci” i sistemi di intelligenza artificiale.
La versione più semplice di questa ipotesi sarebbe che il mondo si evolvesse in modo tale che:
- Un giorno, per la prima volta, un sistema di IA riuscisse a ottenere un voto sufficiente in una verifica di scienze di terza elementare.
- Poi vedessimo la prima IA superare (e poi passare a pieni voti) una verifica di quarta elementare, poi una verifica di prima media, ecc.
- Poi vedessimo la prima IA ottenere un dottorato di ricerca, poi la prima IA scrivere un articolo pubblicato, ecc. fino alla prima IA in grado di svolgere un lavoro scientifico degno di un premio Nobel.
- Tutto questo distribuito regolarmente nel corso dei decenni, in modo da poter vedere chiaramente l’avanzamento dello stato dell’arte dalla quarta elementare alla quinta elementare, fino al dottorato e oltre. E tutto questo lentamente e con regolarità, tanto da poter iniziare a fissare una data per la “vera e propria IA scientifica” con diversi decenni di anticipo.
Sarebbe molto conveniente (vorrei quasi dire “educato”) da parte dei sistemi di IA progredire in questo modo. Sarebbe anche “educato” da parte di un’IA progredire nel modo in cui alcune persone sembrano immaginare che lo farà: prima prendendo il posto di lavori come il “camionista” e l‘“operaio alla catena di montaggio”, poi “insegnante” e “tecnico informatico” e infine “medico” e “avvocato”, prima di progredire fino a “scienziato”.
Entrambe le cose ci darebbero un ampio margine di tempo e una solida base per prevedere l’arrivo dell’IA ad automazione scientifica. Purtroppo, non credo che si possa contare su una cosa del genere.
- L’IA sembra progredire in modo molto diverso dagli esseri umani. Per esempio, ci sono stati programmi in grado di giocare a scacchi con capacità sovrumanee molto prima che ci fosse un’IA in grado di distinguere in modo affidabile le immagini di cani e gattif.
- Una possibilità è che i sistemi di IA siano in grado di svolgere i compiti intellettuali più difficili che possono svolgere gli insetti, poi quelli più difficili che possono svolgere i topi e altri piccoli mammiferi, poi le scimmie, poi gli esseri umani, di fatto eguagliando le capacità di cervelli sempre più grandi. Se ciò accadesse, non vedremmo necessariamente molti segni di un’IA in grado di svolgere, ad esempio, attività scientifiche fino a quando non ci saremo molto vicini. La corrispondenza con un bambino di quarta elementare potrebbe avvenire solo alla fine.
- Un’altra possibilità è che le IA siano in grado di fare tutto ciò che un umano può fare in un secondo, poi tutto ciò che un umano può fare in 10 secondi, ecc. Questa potrebbe anche essere una progressione piuttosto confusa che rende poco ovvia la previsione dei progressi.
In realtà, se non sapessimo già come gli esseri umani tendono a maturare, potremmo trovare i progressi di un bambino piuttosto confusi e difficili da estrapolare. Osservare i progressi di una persona dalla nascita all’età di 8 anni non ci darebbe necessariamente l’idea che sia, per esempio, a un terzo del percorso per essere in grado di avviare un’attività commerciale, fare un’importante scoperta scientifica originale, ecc. (anche conoscendo il corso abituale dello sviluppo umano, è difficile dire dall’osservazione di un bambino di 8 anni quali capacità di livello professionale potrebbe/dovrebbe raggiungere in età adulta).
Nel complesso, non è chiaro come dovremmo considerare lo spettro da “non grandioso/capace” a “molto grandioso/capace” per l’IA. E in effetti, nella mia esperienza, diversi ricercatori di IA hanno intuizioni radicalmente diverse su quali sistemi siano grandiosi o capaci e su come stiano andando le cose. Mi è capitato spesso di vedere un amico ricercatore indicare un nuovo risultato e dire “È impressionante, come si fa a non vedere quanto ci stiamo avvicinando a un’IA potente?”, mentre un altro dice “È un progresso poco significativo”g.
Sarebbe fantastico se potessimo prevedere l’anno in cui sarà sviluppata l’IA trasformativa, utilizzando un grafico come questo (da Bio Anchors; “AIT” significa “IA trasformativa”):
Tuttavia, per quanto ne so, non c’è un modo di definire l’asse y che non sia oggetto di un acceso dibattito tra gli esperti.
Indagine con gli esperti
Un modo per affrontare questa incertezza e confusione sarebbe quello di fare un sondaggio tra un gran numero di esperti e chiedere loro semplicemente quando si aspettano lo sviluppo di un’IA trasformativa. Potremmo sperare che ognuno degli esperti (o almeno, molti di loro) stia facendo la propria versione dell‘“estrapolazione della grandiosità” di cui sopra o, in caso contrario, che stia facendo qualcos’altro che possa aiutarli a ottenere una stima ragionevole. Facendo la media di molte stime, potremmo ottenere un dato aggregato che rifletta la “saggezza delle folle”h.
Credo che la versione migliore di questo esercizio sia When will AI exceed human performance? Evidence from AI experts, un sondaggio su 352 ricercatori che includeva una domanda su “quando le macchine non assistite potranno svolgere ogni compito in modo migliore e più economico dei lavoratori umani” (che presumibilmente includerebbe compiti che fanno progredire lo sviluppo scientifico e tecnologico, e quindi si qualificherebbero come PASTA). I due principali risultati di questo sondaggio, secondo Bio Anchors e me, sono:
- una probabilità del 20 % di questo tipo di IA entro il 2036; una probabilità del 50 % entro il 2060; una probabilità del 70 % entro il 2100. Queste cifre corrispondono a quelle che fornisco nell’introduzione.
- Stime molto più spostate nel futuro per domande formulate in modo leggermente diverso (poste a un sottoinsieme più ristretto di intervistati), il che implica (a mio avviso) che i ricercatori semplicemente non stavano riflettendo a fondo sulle domande.i
In conclusione, questa prova è coerente con le probabilità da me espresse, anche se è possibile che non dia molte informazioni. Il prossimo articolo di questa serie sarà interamente incentrato su Forecasting TAI with biological anchors il metodo di previsione che trovo più utile in questo caso.
Il prossimo della serie: Previsioni sull’IA trasformativa: il metodo delle “ancore biologiche” in breve