Prese di potere con l’aiuto dell’IA

di Cody Fenwick
Rischi da attori malevoliRischio legato all'IASicurezza dell'IA
Napoleone sul trono imperiale — di Jean-Auguste-Dominique Ingres (1780–1867)

Napoleone sul trono imperiale — di Jean-Auguste-Dominique Ingres (1780–1867)

Riepilogo

La tecnologia di IA avanzata potrebbe consentire ai suoi creatori, o ad altri che la controllano, di compiere prese di potere su scala sociale senza precedenti. In determinate circostanze, essi potrebbero utilizzare questi sistemi per assumere il controllo di intere economie, eserciti e governi.

Questo tipo di presa di potere da parte di una singola persona o di un piccolo gruppo rappresenterebbe una grave minaccia per il resto dell’umanità.

Profondità del profilo

Esplorativo.⁠a

Questo è uno dei tanti profili che abbiamo scritto per aiutare le persone a individuare i problemi più urgenti che possono risolvere con la loro carriera. Scopri di più su come confrontiamo i diversi problemi e come questo problema si confronta con gli altri che abbiamo preso in considerazione finora.

Perché è un problema urgente?

Le nuove tecnologie possono modificare drasticamente gli equilibri di potere nella società. Il dominio iniziale della Gran Bretagna nella rivoluzione industriale, ad esempio, ha contribuito a rafforzare il suo impero globale.⁠b

Con il rapido progresso della tecnologia dell’IA, esiste il serio rischio che essa possa consentire una presa di potere globale ancora più estrema.

L’IA avanzata è particolarmente preoccupante perché potrebbe essere controllata da un piccolo numero di persone, o anche da una sola. Un’IA potrebbe essere copiata all’infinito e, con un’infrastruttura informatica sufficiente e un sistema abbastanza potente, una sola persona potrebbe controllare un esercito virtuale o reale di agenti di IA.

E poiché l’IA avanzata potrebbe potenzialmente innescare una crescita esplosiva dell’economia, della tecnologia e dell’intelligenza, chiunque abbia il controllo unilaterale dei sistemi più potenti potrebbe essere in grado di dominare il resto dell’umanità.

Un fattore che aumenta questa minaccia è la possibilità di fedeltà segrete. Potrebbe essere possibile creare sistemi di IA che sembrano avere a cuore gli interessi della società, ma che in realtà sono fedeli solo a una persona o a un piccolo gruppo.⁠c Man mano che questi sistemi vengono implementati nell’economia, nel governo e nell’esercito, potrebbero cercare costantemente opportunità per promuovere gli interessi dei loro veri padroni.

Ecco tre possibili percorsi attraverso i quali l’IA potrebbe consentire una presa di potere senza precedenti:

  1. Gli sviluppatori di IA prendono il controllo — in questo scenario, gli attori che sviluppano sistemi di IA di frontiera all’interno di un’azienda o di un’organizzazione utilizzano la loro tecnologia per prendere il controllo. Ciò potrebbe accadere se essi implementassero i loro sistemi per un uso diffuso nell’economia, nell’esercito e nel governo, ma i sistemi di IA mantenessero una fedeltà segreta nei loro confronti. Oppure gli sviluppatori potrebbero potenzialmente creare internamente dei sistemi abbastanza potenti da accumulare ricchezza e risorse sufficienti per lanciare una presa di potere ostile su altri centri di potere.
  2. Colpi di Stato militari — man mano che le forze armate integrano l’IA per ottenere un vantaggio competitivo, introducono nuove vulnerabilità. I sistemi d’arma controllati dall’IA e le attrezzature militari autonome potrebbero essere progettati per seguire gli ordini senza scrupoli, senza i controlli formali e informali sul potere tradizionalmente garantiti dalle forze armate, come la possibilità di ammutinarsi di fronte a ordini illegali. Un leader militare o un altro attore (compresi governi stranieri potenzialmente ostili) potrebbe trovare un modo per assicurarsi la fedeltà dell’IA militare e utilizzarla per affermare un controllo di vasta portata.
  3. Autocratizzazione — i leader politici potrebbero utilizzare sistemi avanzati di IA per consolidare il proprio potere. All’inizio potrebbero essere eletti oppure non eletti, ma in entrambi i casi potrebbero utilizzare sistemi avanzati di IA per minare qualsiasi potenziale sfidante politico. Ad esempio, potrebbero avvalersi di sistemi potenziati di sorveglianza e di applicazione della legge per sottomettere l’opposizione.

Un potere estremo concentrato nelle mani di un piccolo numero di persone rappresenterebbe una grave minaccia per gli interessi del resto del mondo. Esso potrebbe persino minare il potenziale di un futuro prospero, poiché il corso degli eventi potrebbe dipendere dai capricci di coloro che si trovassero ad avere aspirazioni dittatoriali.

Esistono anche modi in cui l’IA potrebbe essere utilizzata per migliorare ampiamente la governance, ma ci aspettiamo che scenari in cui l’IA facilita prese di potere ostili o illegittime sarebbero negativi per il futuro dell’umanità.

Cosa si può fare per mitigare questi rischi?

Sarebbe auspicabile un maggiore impegno per individuare i metodi migliori per ridurre il rischio di una presa di potere con l’aiuto dell’IA. Diversi approcci potrebbero essere utili, tra cui:

  • Misure di salvaguardia sull’uso interno: implementare un monitoraggio sofisticato su come i sistemi di IA vengono utilizzati all’interno delle aziende di frontiera, con restrizioni sull’accesso a modelli “solo utili”, cioè che seguono qualsiasi istruzione senza limitazioni.
  • Trasparenza sulle specifiche dei modelli: pubblicare informazioni dettagliate sul comportamento per cui i sistemi di IA sono stati progettati, comprese misure di salvaguardia e limitazioni alle loro azioni, consentendo così un esame da parte di esterni e l’identificazione di potenziali vulnerabilità.
  • Ampia condivisione delle capacità: garantire che le potenti capacità dell’IA siano distribuite tra più parti interessate piuttosto che concentrate nelle mani di pochi individui o organizzazioni. Ciò crea un sistema di controlli e contrappesi che rende più difficili le prese di potere. Si noti tuttavia che anche la distribuzione su larga scala di potenti capacità di IA comporta dei rischi, pertanto è necessario soppesare attentamente le considerazioni contrastanti.
  • Ispezioni per individuare fedeltà segrete: sviluppare metodi tecnici robusti per rilevare se i sistemi di IA sono stati programmati con piani nascosti o backdoor che consentirebbero loro di servire interessi contrari al loro scopo dichiarato.
  • Misure di salvaguardia per l’IA militare: richiedere che i sistemi di IA utilizzati in contesti militari dispongano di solide misure di salvaguardia contro la partecipazione a colpi di Stato, compresi principi contro gli attacchi ai civili e requisiti di autorizzazione multipla e indipendente per azioni estreme.

Per maggiori dettagli su questo problema, ascolta la nostra intervista con Tom Davidson.

Per saperne di più

  • AI-enabled coups: How a small group could use AI to seize power di Tom Davidson, Lukas Finnveden e Rose Hadshar
  • Podcast: Will MacAskill on AI causing a “century in a decade” — and how we’re completely unprepared.
  • La nostra analisi di carriera sulla governance e la politica dell’IA
  • Il nostro profilo del problema del totalitarismo stabile
  • Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training di Evan Hubinger et al. di Anthropic

Pubblicazione originale: Cody Fenwick (2025) AI-enabled power grabs, 80,000 Hours, giugno.