Sicurezza dell’IA
La sicurezza dell’IA è lo studio dei modi per ridurre i rischi dell’intelligenza artificiale.
Nell’ambito della sicurezza dell’IA, si distingue solitamente tra ricerca tecnica e concettuale. La prima, chiamata sicurezza tecnica dell’IA, prevede l’applicazione di tecniche in campi quali il machine learning e il deep-learning per risolvere il problema dell’allineamento. La ricerca concettuale, invece, cerca di attingere alle intuizioni di più discipline — come la filosofia, l’ingegneria della sicurezza e l’analisi dei sistemi complessi — per comprendere meglio i rischi legati all’IA e le varie strategie che potrebbero contribuire a mitigarli.
Anche la governance dell’IA è talvolta inclusa come sottocampo della sicurezza dell’IA, sebbene sia generalmente considerata un campo di ricerca a sé stante.
L’indagine di profondità media di 80 000 Hours considera la ricerca sulla sicurezza tecnica dell’IA un “percorso prioritario”, tra le opportunità di carriera più promettenti che l’organizzazione ha individuato finora1.
Gli argomenti a favore della prioritizzazione della sicurezza dell’IA e della riduzione dei rischio rischi legati all’IA sono talvolta caratterizzati come una Frode di Pascal,a che implica che i rischi sono minimi e che, per qualsiasi livello dichiarato di rischio ignorabile, i benefici potrebbero essere ingigantiti per far sì che rimanga una priorità assoluta. Una risposta a questo è che in un sondaggio condotto su 700 ricercatori di machine learning, la risposta mediana su quale sia “la probabilità che l’effetto a lungo termine dell’IA avanzata sull’umanità sia ‘estremamente negativo (ad esempio, l’estinzione umana)’” è stata del 5 %, con il 48 % degli intervistati che ha risposto con un valore pari o superiore al 10 %.2 Queste probabilità sono troppo alte (di almeno 5 ordini di grandezza) per essere considerate pascaliane.
Vael Gates (2023) Resources I send to AI researchers about AI safety, Effective Altruism Forum, 11 di gennaio.
Victoria Krakovna (2017) Introductory resources on AI safety research, Victoria Krakovna’s Blog, 19 di ottobre.
Richard Ngo (2019) Disentangling arguments for the importance of AI safety, Effective Altruism Forum, 21 di gennaio.