Le “ancore biologiche” servono a delimitare, non a individuare, le tempistiche dell’IA
In precedenza ho riassunto il metodo di Ajeya Cotra delle “ancore biologiche” per la previsione sull’IA trasformativa, detto anche “Bio-ancore”. Qui voglio cercare di chiarire perché trovo questo metodo così utile, anche se sono d’accordo con la maggior parte delle cose specifiche che ho sentito dire sulle sue debolezze (a volte da persone che non riescono a capire perché io abbia puntato su di esso).
Un paio di premesse:
- Questo post è probabilmente di interesse soprattutto per gli scettici sulle bio-ancore, e/o per chi si sente piuttosto confuso/agnostico sul loro valore e vorrebbe vedere una risposta agli scettici.
- Non voglio dare l’impressione di muovere nuove critiche alle bio-ancore e di spingere per una nuova reinterpretazione. Credo che l’autrice di “Bio-ancore” sia per lo più d’accordo con quanto dico sia sulle debolezze del rapporto sia su come utilizzarlo al meglio (e credo che il testo del rapporto stesso sia coerente con questo).
Riassunto di ciò che riguarda il framework
Solo per ristabilire il contesto, ecco alcune citazioni essenziali dal mio post principale sugli ancoraggi biologici:
L’idea di base è:
— I moderni modelli di intelligenza artificiale possono “imparare” a svolgere compiti attraverso un processo (economicamente costoso) noto come “addestramento”. Si può pensare all’addestramento come a un’enorme quantità di prove ed errori. Ad esempio, i modelli di intelligenza artificiale per il riconoscimento vocale ricevono un file audio di una persona che parla, tirano a indovinare cosa sta dicendo la persona e poi ricevono la risposta giusta. Facendo questo per milioni di volte, “imparano” a tradurre in modo affidabile il parlato in testo. Altro: Formazione — Quanto più grande è un modello di IA e quanto più complesso è il compito, tanto maggiore è il costo del processo di previsione [o “training run ”]. Alcuni modelli di IA sono più grandi di altri; ad oggi, nessuno è nemmeno lontanamente “grande come il cervello umano” (il significato di questo termine verrà approfondito più avanti). Altro: Dimensione del modello e tipo di compito — Il metodo delle bio-ancore chiede: “Sulla base degli schemi abituali dei costi di addestramento, quanto costerebbe addestrare un modello di IA grande come un cervello umano per eseguire i compiti più difficili per gli esseri umani? E quando sarà abbastanza economico da potersi aspettare che qualcuno lo faccia?” Altro: Previsione sull’IA
…Il quadro fornisce un modo per pensare a come potrebbe essere contemporaneamente vero che (a) i sistemi di IA di un decennio fa non sembravano affatto impressionanti; (b) i sistemi di IA di oggi possono fare molte cose impressionanti, ma sono ancora molto lontani da ciò che gli esseri umani sono in grado di fare; (c) i prossimi decenni (o anche i prossimi 15 anni) potrebbero facilmente vedere lo sviluppo di IA trasformative.
Inoltre, penso che valga la pena di notare una coppia di punti di alto livello di “Bioanchors” che non dipendono da tante stime puntuali e ipotesi:
— Nel prossimo decennio o giù di lì, probabilmente vedremo per la prima volta modelli di IA con “dimensioni” paragonabili a quelle del cervello umano. — Se i modelli di IA continueranno a diventare più grandi e più efficienti ai ritmi stimati da “Bioanchors"", probabilmente nel corso del secolo diventerà accessibile raggiungere alcune pietre miliari piuttosto estreme — la “fascia alta” di ciò che “Bioanchors” ritiene possa essere necessario. Queste sono difficili da riassumere, ma si vedano i quadri “rete neurale a lungo orizzonte” e “ancora di evoluzione” nel rapporto. — Un modo per pensare a questo è che nel prossimo secolo passeremo probabilmente da “non c’è abbastanza potenza di calcolo per far funzionare un modello di dimensioni umane” a “potenza di calcolo estremamente abbondante, tanto quanto le stime abbastanza conservative di ciò che potrebbe essere necessario”. La potenza di calcolo non è l’unico fattore di progresso dell’IA, ma nella misura in cui altri fattori (algoritmi, processi di addestramento) diventano i nuovi colli di bottiglia, ci saranno probabilmente potenti incentivi (e più decenni) per risolverli.
Cose su cui sono d’accordo riguardo alle debolezze/limitazioni del framework
”Bioanchors” “dà per buono che ” l’intelligenza artificiale si sviluppi in un modo particolare, ma quasi certamente non sarà così
“Bioanchors”, in un certo senso, “dà per buono che ”l’IA trasformativa sia costruita in un modo particolare: semplice forza bruta per tentativi ed errori di compiti ad alta potenza di calcolo (come previsto qui). Le sue previsioni principali si basano su questo quadro: stima quando ci sarà abbastanza potenza di calcolo per eseguire una certa quantità di prove ed errori, e la chiama “stima di quando verrà sviluppata l’IA trasformativa”.
Ritengo improbabile che, se e quando l’IA trasformativa verrà sviluppata, il modo in cui verrà sviluppata assomiglierà a questo tipo di processo di prove ed errori di compiti a lungo termine.
Se dovessi indovinare come si svilupperà l’IA trasformativa, sarebbe più simile a quanto segue:
- In primo luogo, i sistemi di IA ristretti si dimostrano validi per un insieme limitato di compiti. (Questo sta già accadendo, in misura limitata, ad esempio con il riconoscimento vocale, la traduzione e la ricerca).
- Questo porta a (a) una maggiore attenzione e finanziamenti per l’IA; (b) una maggiore integrazione dell’IA nell’economia, in modo che diventi più facile raccogliere dati su come gli esseri umani interagiscono con le IA che possono essere poi utilizzati per un ulteriore addestramento; (c) una maggiore consapevolezza generale di ciò che è necessario per l’IA per automatizzare in modo utile i compiti chiave, e quindi una maggiore consapevolezza di (e attenzione a) i più grandi ostacoli che impediscono all’IA di essere più ampia e più capace.
- Diversi tipi di IA ristrette si integrano in diversi settori dell’economia. Nel corso del tempo, l’aumento dei dati di formazione, dei finanziamenti e dell’attenzione porta a IA sempre meno ristrette, che si occupano di parti sempre più ampie dei compiti che svolgono. Questi cambiamenti non avvengono solo grazie a modelli di IA (e a cicli di formazione) sempre più grandi, ma anche grazie alle innovazioni nelle modalità di progettazione e formazione delle IA.
- A un certo punto, una qualche combinazione di IA sarà in grado di automatizzare un numero sufficiente di progressi scientifici e tecnologici da essere trasformativi Non esiste un singolo “master run” in cui una singola IA viene addestrata a svolgere i compiti più difficili e ampi attraverso un cieco processo di prova ed errore.
”Bioanchors” dà per buono che ” la disponibilità di computer sia l’unico ostacolo allo sviluppo trasformativo dell’IA, ma probabilmente non lo è
Come ho notato nel mio precedente post:
Le bioancore potrebbero essere troppo aggressive, perché danno per buono che “la potenza di calcolo sia il collo di bottiglia”:
— Presuppongono che se si potesse pagare tutta la potenza di calcolo per eseguire l’“addestramento” a forza bruta descritto sopra per i compiti fondamentali (ad esempio, l’automazione del lavoro scientifico), ne seguirebbe (probabilmente) un’IA trasformativa. — L’addestramento di un modello di IA non richiede solo l’acquisto di potenza di calcolo. È necessario assumere ricercatori, condurre esperimenti e, cosa forse più importante, trovare un modo per impostare il processo di “prova ed errore” in modo che l’IA possa fare un numero enorme di “tentativi” per il compito fondamentale. Potrebbe risultare proibitivo farlo.
È molto facile immaginare mondi in cui l’Intelligenza Artificiale trasformativa richiede molto più o meno tempo di quanto previsto da bio-ancore, per ragioni che essenzialmente non sono affatto delineate in “Bioanchors”
Come già detto, l’IA trasformativa potrebbe richiedere molto tempo per ragioni come “è estremamente difficile ottenere dati e ambienti di addestramento per alcuni compiti cruciali” o “alcuni compiti non sono semplicemente apprendibili nemmeno con grandi quantità di prove ed errori”.
L’IA trasformativa potrebbe anche essere sviluppata molto più velocemente di quanto implica l’articolo. Ad esempio, una svolta nel modo in cui progettiamo gli algoritmi di IA, forse ispirata dalle neuroscienze, potrebbe portare ad IA in grado di fare ~tutto ciò che i cervelli umani possono fare, senza aver bisogno dell’enorme quantità di prove ed errori che stimati dall’articolo (basandosi sull’estrapolazione dai sistemi di apprendimento automatico di oggi).
Ho elencato altre previsioni come queste qui.
Il modello delle ancore biologiche non sta “individuando” l’anno più probabile in cui verrà sviluppata un’intelligenza artificiale trasformativa
Per quanto ne so, i modelli di cambiamento climatico cercano di esaminare ogni fattore principale che potrebbe causare un aumento o un abbassamento delle temperature in futuro; producono una stima di massima per ciascuno di essi e li mettono tutti insieme in una previsione delle temperature.
In un certo senso, si può pensare a queste stime come a una “migliore ipotesi” (o addirittura a una “simulazione”) delle temperature future: pur non essendo certe o precise, esse identificano temperature particolari e specifiche sulla base di tutti i principali fattori che potrebbero farle salire o scendere.
Molti altri casi in cui qualcuno stima qualcosa di incerto (ad esempio, la popolazione futura) hanno proprietà simili.
Per il modello delle ancore biologiche non è così. Ci sono fattori che ignora e che oggi sono identificabili e quasi certamente significativi. Quindi, in un certo senso di importanza, non sta “individuando” l’anno più probabile per lo sviluppo trasformativo dell’IA.
(Non è l’obiettivo di questo articolo) Le stime del modello non sono molto solide
Il modello delle ancore biologiche stima alcune cose difficili da stimare, come ad esempio:
- Quanto dovrebbe essere grande un modello di IA per essere “grande come il cervello umano” in un certo senso. (Per questo adatta il rapporto dettagliato di Joe Carlsmith).
- Quanto velocemente dovremmo aspettarci che l’efficienza algoritmica, l’efficienza dell’hardware e la “disponibilità a spendere per l’IA” aumentino in futuro, tutti fattori che influiscono sulla questione di “quanto grande sarà l’addestramento dell’IA”. Le stime qui riportate sono molto semplici e ritengo che ci sia un ampio margine di miglioramento, anche se non mi aspetto che il quadro qualitativo cambi radicalmente.
Riconosco una significativa incertezza in queste previsioni, oltre al fatto che (a parità di altre condizioni) l’incertezza significa che dovremmo essere scettici.
Detto questo:
- Penso che queste stime siano probabilmente ragionevolmente vicine al meglio che possiamo fare oggi con le informazioni che abbiamo.
- Penso che queste stime siano sufficientemente buone ai fini di ciò che dirò di seguito sulle tempistiche di sviluppo dell’IA trasformativa.
Non ho intenzione di difendere ulteriormente questa posizione in questa sede, ma potrei farlo in futuro se dovessi ricevere molte critiche in merito.
Il modello delle ancore biologiche come modo per delimitare le tempistiche di sviluppo dell’IA
Riconosciute tutte le debolezze di cui sopra, ecco alcune cose che credo sulle tempistiche di sviluppo dell’IA, in gran parte basate sull’analisi del modello delle bioancore:
- Sarei almeno leggermente sorpreso se l’IA trasformativa non venisse sviluppata entro il 2060. La probabilità che l’IA trasformativa venga sviluppata entro quella data è del 50 % (spiego più avanti come funziona il collegamento tra “leggera sorpresa” e “50 %”); potrei anche capire chi dicesse che la probabilità è del 25 % o del 75 %, ma farei fatica a capire chi si allontana da questo intervallo. More
- Sarei molto sorpreso se l’IA trasformativa non venisse sviluppata entro il 2100.** La probabilità di un’IA trasformativa per allora è di 2 su 3; potrei capire chi dicesse che è 1 su 3 o 80-90 %, ma avrei difficoltà a capire chi uscisse da questo intervallo. Altro
- Penso che la probabilità di un’IA trasformativa entro il 2036 sia almeno del 10%; potrei capire chi dicesse che è del 40-50 %, ma farei fatica a capire chi dice che è <10 % o >50 %. Altro
Sarei almeno leggermente sorpreso se l’IA trasformativa non fosse sviluppata entro il 2060
Questo soprattutto perché, secondo il modello delle bio-ancore, a quel punto sarà possibile fare delle previsioni assurdamente grandi, probabilmente le più grandi che si possano immaginare, basate sull’uso di modelli di IA grandi 10 volte il cervello umano e compiti che richiedono un numero enorme di potenze di calcolo per essere eseguiti anche una sola volta. In un certo senso, per importanza, “nuoteremo nella potenza di calcolo”. (Per saperne di più su questa intuizione si veda Fun with +12 OOMs of compute.)
Ma conta anche il fatto che il 2060 è tra 40 anni, vale a dire che abbiamo 40 anni per:
- Sviluppare algoritmi di IA sempre più efficienti, alcuni dei quali potrebbero rappresentare grandi scoperte.
- Aumentare il numero di aziende e imprese incentrate sull’IA, raccogliendo dati sull’interazione umana e concentrando sempre più l’attenzione sugli aspetti che attualmente bloccano le applicazioni su larga scala.
Considerando la quantità già crescente di investimenti, talenti e applicazioni potenziali per i sistemi di IA di oggi, 40 anni sembrano un periodo piuttosto lungo per fare grandi progressi su questi fronti. Per contestualizzare, 40 anni sono circa il tempo trascorso tra il rilascio dell’Apple IIe e oggi.
Traducendo il mio “senso di lieve sorpresa” in una probabilità (vedi qui per capire cosa cerco di fare quando parlo di probabilità; mi aspetto di scrivere di più su questo argomento in futuro):
- Sulla maggior parte degli argomenti, equiparo “sarei leggermente sorpreso se X non accadesse” a qualcosa come il 60-65 % di probabilità di X. Ma su questo argomento, penso che ci sia un onere della prova (che considero significativo anche se non schiacciante), e sono incline a sfumare le mie previsioni un po’ verso il basso. Affermo quindi che c’è circa il 50 % di possibilità di un’intelligenza artificiale trasformativa entro il 2060.
- Capirei se qualcuno dicesse: “40 anni non mi sembrano abbastanza; penso che ci sia più una probabilità del 25 % di vedere un’IA trasformativa entro il 2060”. Ma se qualcuno la mettesse a meno del 25 %, comincerei a pensare: “Davvero? Da dove viene questa affermazione? Perché pensare che ci sia una probabilità inferiore al 25 % che svilupperemo un’IA trasformativa entro un anno in cui sembra che nuoteremo nella potenza di calcolo, con una quantità sufficiente per le più grandi operazioni necessarie secondo le nostre migliori stime, con 40 anni trascorsi tra il boom dell’IA di oggi e il 2060 per risolvere molti degli altri ostacoli?”.
- D’altra parte, capirei se qualcuno dicesse: “Questa stima sembra troppo conservativa; 40 anni dovrebbero essere sufficienti; penso che ci sia più una probabilità del 75 % di avere un’IA trasformativa entro il 2060”. Ma se qualcuno la mettesse a più del 75 %, comincerei a pensare: “Davvero? Dove l’hai presa? L’IA trasformativa non sembra dietro l’angolo, quindi mi sembra che tu abbia troppa fiducia in un evento che avverrà 40 anni”.
Sarei molto sorpreso se l’IA trasformativa non fosse sviluppata entro il 2100
Entro il 2100, il modello delle bio ancore prevede che sarà possibile non solo eseguire addestramenti di dimensioni quasi ridicole (sempre in base alle previsioni sulle dimensioni dei modelli e sul costo per prova dei compiti), ma anche eseguire un numero di computazioni pari a quello di tutti gli animali della storia messi insieme, al fine di ricreare i progressi compiuti dalla selezione naturale.
Inoltre, il 2100 è tra 80 anni, un periodo più lungo di quello trascorso da quando sono stati sviluppati i computer digitali programmabili. Si tratta di un sacco di tempo per trovare nuovi approcci agli algoritmi di IA, integrare l’IA nell’economia, raccogliere dati di addestramento, affrontare i casi in cui gli attuali sistemi di IA non sembrano in grado di apprendere particolari compiti, ecc.
A me sembra che il 2100 sia qualcosa di simile a “Più o meno il tempo necessario per raccontare una storia ragionevole, e anche di più”. Di conseguenza, sarei molto sorpreso se per allora non venisse sviluppata un’IA trasformativa, e attribuisco circa 2/3 di possibilità che lo sia. E:
- Capirei se qualcuno dicesse: “Beh, ci sono molte cose che non sappiamo e molte cose che devono accadere, per questo penso che ci sia solo il 50 % di possibilità di vedere un’IA trasformativa entro il 2100”. Potrei quasi capire se dessero una possibilità su tre. Ma se qualcuno la desse a meno di 1/3, avrei davvero problemi a capire da dove l’ha presa.
- Capirei se qualcuno avesse indicato una probabilità di “IA trasformativa entro il 2100” più vicina all’80-90 %, ma data la difficoltà di previsione sull’IA di questo tipo di cose, avrei davvero difficoltà a capire da dove provenga se superasse il 90 %.
Transformative AI entro il 2036 sembra plausibile e concretamente immaginabile, ma non sembra una buona aspettativa di default
Il modello delle bioancore delinea scenari concreti e plausibili in cui la potenza di calcolo a prezzi accessibili è sufficiente per addestrare un’IA trasformativa entro il 2036 (link). Conosco alcuni ricercatori di IA che ritengono che questi scenari siano più che plausibili: le loro intuizioni affermano che i giganteschi cicli di addestramento previsti dall’iniziativa delle bio-ancore non sono necessari e che le [ancore] più aggressive (https://docs.google.com/document/d/1IJ6Sr-gPeXdSJugFulwIpvavc0atjHGM82QjIfUSBGQ/edit#heading=h.cebevgwmadke) del rapporto sono sottovalutate.
Penso anche che il modello delle bio-ancore sottovaluti un po’ l’ipotesi di una “IA trasformativa entro il 2036”, perché è difficile dire quali conseguenze avrà l’attuale boom di investimenti e di interesse per l’IA. Se l’IA sta per diventare una parte sensibilmente più grande dell’economia (sicuramente un “se”, ma compatibile con le recenti tendenze del mercato), questo potrebbe portare a rapidi miglioramenti lungo molte possibili dimensioni. In particolare, potrebbe verificarsi un ciclo di retroazione in cui le nuove applicazioni redditizie dell’IA stimolano maggiori investimenti nell’IA, che a loro volta stimolano miglioramenti più rapidi del previsto nell’efficienza degli algoritmi e del calcolo dell’IA, che a loro volta portano ad applicazioni più redditizie… ecc.
Tenendo conto di tutto questo, penso che la probabilità di un’IA trasformativa entro il 2036 sia almeno del 10 %, e faccio fatica a capire chi dice che è inferiore.
Detto questo, tutto quanto detto sopra è un insieme di “potrebbe”: ogni caso che ho sentito di “IA trasformativa entro il 2036” sembra richiedere un certo numero di pezzi incerti da incastrare al posto giusto.
- Se i compiti “a lungo termine” si rivelano importanti, il modello delle bio-ancore mostra che è difficile immaginare che ci sarà abbastanza potenza di calcolo per i cicli di formazione necessari.
- Anche se ci fosse potenza di calcolo in abbondanza, 15 anni potrebbero non essere sufficienti per risolvere problemi come l’assemblaggio di dati e ambienti di addestramento adeguati.
- È certamente possibile che emerga un paradigma completamente diverso, magari ispirato alle neuroscienze, e che l’IA trasformativa venga sviluppata in modi che non richiedono affatto “cicli di addestramento” simili a quelli delle bioancore. Ma non vedo alcuna ragione particolare per aspettarsi che ciò accada nei prossimi 15 anni.
Per questo faccio fatica a capire chi pensa che ci sia una probabilità >50 % di avere un’IA trasformativa entro il 2036.
In conclusione
Quello delle bio-ancore è un approccio un po’ diverso da quello “abituale” alle stime. Non “individua” le date probabili per l’IA trasformativa, né delinea tutti i fattori fondamentali.
Ma credo che sia molto utile, insieme a un ragionamento informale sui fattori che non modella, per “delimitare” le tempistiche di sviluppo dell’IA trasformativa: fare una serie di affermazioni sulla falsariga di “Sarebbe sorprendente se l’IA trasformativa non venisse sviluppata entro il ____” o “Si potrebbe difendere una probabilità del ___% entro tale data, ma credo che una probabilità del ___% sarebbe difficile da comprendere”.
E questo tipo di “limite” sembra abbastanza utile per lo scopo che mi interessa di più: decidere quanto seriamente prendere la possibilità del secolo più importante. Io ritengo che questa possibilità sia molto seria, anche se lontana dalla certezza, e quella delle bio-ancore è per me una parte importante di questo quadro.