Corsa all’IA
Una corsa all’IA è una competizione tra gruppi rivali per sviluppare per primi intelligenze artificiali avanzate.
L’espressione “corsa all’IA” può essere usata in senso più ristretto per descrivere una competizione per raggiungere la superiorità militare attraverso l’IA. Le espressioni corsa agli armamenti nell’IA,1 , e sono talvolta utilizzate per riferirsi a questo tipo specifico di corsa all’IA.
Una corsa all’IA è un esempio del più ampio fenomeno della corsa alla tecnologia, caratterizzata da una struttura in cui il gruppo che sviluppa per primo la tecnologia ottiene tutti (o la maggior parte) dei suoi benefici. Ciò potrebbe accadere a causa di vari tipi di cicli di retroazione che amplificano i benefici associati. Nel caso dell’IA, si ritiene generalmente che questi benefici siano molto grandi, forse sufficienti a conferire al gruppo vincente un vantaggio strategico decisivo.
Le corse all’IA sono significative soprattutto per i loro effetti sul rischio dell’IA: un gruppo può plausibilmente migliorare le sue possibilità di vincere la corsa allentando le misure di sicurezza, e i guadagni derivanti dalla vittoria della corsa sono abbastanza grandi da fornire forti incentivi a tale allentamento. Inoltre, una corsa che si svolga tra governi nazionali piuttosto che tra aziende private potrebbe aumentare l’instabilità globale e rendere più probabili i conflitti tra grandi potenze.
Stuart Armstrong, Nick Bostrom e Carl Shulman hanno sviluppato un modello di corsa all’IA.4 (Sebbene il modello sia incentrato sull’intelligenza artificiale, è applicabile a qualsiasi tecnologia in cui il primo gruppo a svilupparla ottiene una quota sproporzionata dei suoi benefici e ogni team può accelerarne lo sviluppo allentando le precauzioni di sicurezza necessarie per ridurre i pericoli associati alla tecnologia).
Il modello prevede n squadre diverse in corsa all’IA. Ogni squadra ha una determinata capacità di costruire IA c, nonché un livello di sicurezza dell’IA scelto s che va da 0 (nessuna precauzione) a 1 (massima precauzione). La squadra per la quale c — s è più alto vince la corsa, e la probabilità di disastri causati dall’IA è 1 — s.
L’utilità è normalizzata in modo che, per ogni squadra, 0 utilità corrisponda a un disastro causato dall’IA e 1 a una vittoria nella corsa all’IA. Inoltre, ogni squadra ha un grado di inimicizia e verso le altre squadre, che va da 0 a 1, tale da ottenere un’utilità 1 — e se un’altra squadra vince la gara. Il modello assume un valore costante di e per tutte le squadre.
La capacità di ogni squadra è estratta casualmente da una distribuzione uniforme che spazia nell’intervallo [0, μ], per un singolo dato μ, con valori inferiori che rappresentano una capacità inferiore.
Da questo modello derivano una serie di implicazioni:
Le corse all’IA sono talvolta citate come un esempio di rischio informativo, ovvero un rischio derivante dalla diffusione di informazioni vere. In realtà, esistono diversi rischi associati alle corse all’IA. Uno di questi è il rischio identificato da Armstrong, Bostrom e Shulman: passare da una situazione di assenza di informazioni a una di informazioni private o pubbliche aumenta i rischi. Un altro rischio informativo, più sottile, riguarda la condivisione delle informazioni sul modello stesso: la consapevolezza diffusa che nessuna informazione è più sicura potrebbe incoraggiare le squadre ad adottare una cultura della segretezza che potrebbe ostacolare la costruzione della fiducia tra le squadre rivali.6 Più in generale, inquadrare lo sviluppo dell’IA come se comportasse una dinamica “chi vince prende tutto” nelle discussioni dei leader pubblici e degli intellettuali può essere considerato esso stesso pericoloso, nella misura in cui è probabile che ostacoli la cooperazione ed inasprisca i conflitti.7
Stuart Armstrong, Nick Bostrom & Carl Shulman (2016) Racing to the precipice: a model of artificial intelligence development, AI and Society, vol. 31, pp. 201–206.