Corsa all’IA
Una corsa all’IA è una competizione tra gruppi rivali per sviluppare per primi intelligenze artificiali avanzate.
Terminologia
L’espressione “corsa all’IA” può essere usata in senso più ristretto per descrivere una competizione per raggiungere la superiorità militare attraverso l’IA. Le espressioni corsa agli armamenti nell’IA,1 corsa agli armamenti per l’IA,2 e corsa agli armamenti nell’IA militare3 sono talvolta utilizzate per riferirsi a questo tipo specifico di corsa all’IA.
Corse all’IA e corse alla tecnologia
Una corsa all’IA è un esempio del più ampio fenomeno della corsa alla tecnologia, caratterizzata da una struttura in cui il gruppo che sviluppa per primo la tecnologia ottiene tutti (o la maggior parte) dei suoi benefici. Ciò potrebbe accadere a causa di vari tipi di cicli di retroazione che amplificano i benefici associati. Nel caso dell’IA, si ritiene generalmente che questi benefici siano molto grandi, forse sufficienti a conferire al gruppo vincente un vantaggio strategico decisivo.
Significato delle corse all’IA
Le corse all’IA sono significative soprattutto per i loro effetti sul rischio dell’IA: un gruppo può plausibilmente migliorare le sue possibilità di vincere la corsa allentando le misure di sicurezza, e i guadagni derivanti dalla vittoria della corsa sono abbastanza grandi da fornire forti incentivi a tale allentamento. Inoltre, una corsa che si svolga tra governi nazionali piuttosto che tra aziende private potrebbe aumentare l’instabilità globale e rendere più probabili i conflitti tra grandi potenze.
Un modello di corsa all’IA
Stuart Armstrong, Nick Bostrom e Carl Shulman hanno sviluppato un modello di corsa all’IA.4 (Sebbene il modello sia incentrato sull’intelligenza artificiale, è applicabile a qualsiasi tecnologia in cui il primo gruppo a svilupparla ottiene una quota sproporzionata dei suoi benefici e ogni team può accelerarne lo sviluppo allentando le precauzioni di sicurezza necessarie per ridurre i pericoli associati alla tecnologia).
Il modello prevede n squadre diverse in corsa all’IA. Ogni squadra ha una determinata capacità di costruire IA c, nonché un livello di sicurezza dell’IA scelto s che va da 0 (nessuna precauzione) a 1 (massima precauzione). La squadra per la quale c — s è più alto vince la corsa, e la probabilità di disastri causati dall’IA è 1 — s.
L’utilità è normalizzata in modo che, per ogni squadra, 0 utilità corrisponda a un disastro causato dall’IA e 1 a una vittoria nella corsa all’IA. Inoltre, ogni squadra ha un grado di inimicizia e verso le altre squadre, che va da 0 a 1, tale da ottenere un’utilità 1 — e se un’altra squadra vince la gara. Il modello assume un valore costante di e per tutte le squadre.
La capacità di ogni squadra è estratta casualmente da una distribuzione uniforme che spazia nell’intervallo [0, μ], per un singolo dato μ, con valori inferiori che rappresentano una capacità inferiore.
Da questo modello derivano una serie di implicazioni:
- All’aumentare di μ, le capacità diventano sempre più importanti rispetto alla sicurezza nel determinare l’esito della gara, e le squadre diventano di conseguenza meno inclini a risparmiare sulle misure di sicurezza. Al contrario, valori più bassi di μ sono associati a minori precauzioni; nel caso limite di μ = 0, le squadre non prenderanno alcuna precauzione.
- All’aumentare dell’inimicizia, aumenta il costo per ogni squadra di perdere la gara, e quindi le squadre diventano più inclini a risparmiare sulle misure di sicurezza. Ma mentre l’importanza relativa della capacità è in gran parte determinata dalla tecnologia, e come tale è per lo più intrattabile, ci sono vari interventi che ci sono vari interventi che ci si può ragionevolmente aspettare possano diminuire l’inimicizia, come “costruire la fiducia tra le nazioni e i gruppi, condividere le tecnologie o le scoperte, unirsi in progetti comuni o concordare obiettivi comuni”5.
- Un risultato meno intuitivo del modello riguarda il modo in cui la capacità e l’inimicizia si relazionano a scenari che prevedono (1) nessuna informazione; (2) informazioni private (ogni squadra conosce la propria capacità); e (3) informazioni pubbliche (ogni squadra conosce la capacità di ogni squadra). Nessuna informazione è sempre più sicura di un’informazione pubblica o privata. Ma mentre l’informazione pubblica può diminuire il rischio, rispetto all’informazione privata, quando sia la capacità che l’inimicizia sono basse, il contrario avviene per livelli sufficientemente alti di capacità o inimicizia.
- Un altro risultato sorprendente riguarda l’impatto del numero di squadre in diversi scenari informativi. In assenza di informazioni o in presenza di informazioni pubbliche, l’aumento del rischio è strettamente correlato al numero di squadre. Tuttavia, sebbene questo effetto sia osservato anche per le informazioni private quando la capacità è bassa, con l’aumento della capacità l’effetto finisce per invertirsi.
Corse all’IA e rischi informativi
Le corse all’IA sono talvolta citate come un esempio di rischio informativo, ovvero un rischio derivante dalla diffusione di informazioni vere. In realtà, esistono diversi rischi associati alle corse all’IA. Uno di questi è il rischio identificato da Armstrong, Bostrom e Shulman: passare da una situazione di assenza di informazioni a una di informazioni private o pubbliche aumenta i rischi. Un altro rischio informativo, più sottile, riguarda la condivisione delle informazioni sul modello stesso: la consapevolezza diffusa che nessuna informazione è più sicura potrebbe incoraggiare le squadre ad adottare una cultura della segretezza che potrebbe ostacolare la costruzione della fiducia tra le squadre rivali.6 Più in generale, inquadrare lo sviluppo dell’IA come se comportasse una dinamica “chi vince prende tutto” nelle discussioni dei leader pubblici e degli intellettuali può essere considerato esso stesso pericoloso, nella misura in cui è probabile che ostacoli la cooperazione ed inasprisca i conflitti.7
Ulteriori letture
Stuart Armstrong, Nick Bostrom & Carl Shulman (2016) Racing to the precipice: a model of artificial intelligence development, AI and Society, vol. 31, pp. 201–206.
Voci correlate
rischio legato all’IA • intelligenza artificiale • conflitto tra grandi potenze • corsa all’IA