Uso improprio catastrofico dell’intelligenza artificiale

di 80 000 Hours
Armi di distruzione di massaBiosicurezzaRischio catastrofico globaleRischio esistenzialeSicurezza dell'IAUso improprio dell'IA
© 2012 CERN Maximilien Brice

Il 16 luglio 1945, l’umanità ha vissuto un inquietante primato: gli scienziati hanno testato una tecnologia — le armi nucleari — in grado di causare la distruzione della civiltà.

Dagli attacchi a Hiroshima e Nagasaki, l’umanità non ha più sferrato attacchi nucleari. In parte, ciò è dovuto al fatto che le nostre istituzioni hanno sviluppato norme internazionali che, sebbene imperfette, sono riuscite a impedire ulteriori attacchi nucleari.

Ci aspettiamo che l’intelligenza artificiale avanzata acceleri i progressi tecnologici, e alcuni prevedono un secolo di progresso scientifico in un decennio. Un progresso scientifico più rapido potrebbe portare enormi benefici, dalle cure per le malattie mortali all’esplorazione spaziale.

Tuttavia, questo ritmo vertiginoso potrebbe abbassare le barriere per la creazione di nuove armi devastanti, superando al contempo la nostra capacità di sviluppare le misure di sicurezza necessarie per controllarle.

Senza controlli adeguati, un Paese, un gruppo o un individuo potrebbe utilizzare armi di distruzione di massa create dall’IA per causare una catastrofe globale.

Riepilogo

I sistemi avanzati di IA potrebbero accelerare drasticamente il progresso scientifico, condensando potenzialmente decenni di ricerca in soli pochi anni. Questo rapido progresso potrebbe consentire lo sviluppo di nuove e devastanti armi di distruzione di massa — incluse armi biologiche potenziate e categorie di tecnologie pericolose del tutto nuove — più rapidamente di quanto possiamo sviluppare adeguate misure di sicurezza.

Senza controlli adeguati, attori statali e non statali potrebbero utilizzare armi sviluppate dall’IA per causare catastrofi globali o l’estinzione umana. Tuttavia, questi rischi possono essere mitigati attraverso approcci di governance e misure di sicurezza tecniche.

Profondità del profilo

Profondità media

L’IA avanzata potrebbe accelerare il progresso scientifico

I modelli di IA ottengono già buoni risultati nei test di ragionamento scientifico avanzato.

Ad esempio, il benchmark GPQA Diamond consiste in domande scientifiche di livello di dottorato a cui i non esperti non sono in grado di rispondere, nemmeno utilizzando Google. Diversi modelli di IA sviluppati di recente superano le prestazioni degli esperti umani:

E i sistemi di IA hanno già avuto un impatto significativo nel mondo reale della scienza. AlphaFold, il sistema di IA di Google, è valso ai suoi creatori un Premio Nobel per i progressi nella scienza straordinariamente complessa del ripiegamento delle proteine.

I sistemi di IA odierni non sono in grado di condurre la ricerca scientifica in modo completamente autonomo: necessitano ancora della guida umana. Tuttavia, strumenti specializzati come AlphaFold dimostrano come l’IA possa accelerare il progresso in ambiti specifici, contribuendo persino a risolvere problemi che hanno resistito agli sforzi umani per decenni. Questo include aree con applicazioni potenzialmente pericolose.

Molti campi di ricerca — come la matematica, la genetica, la fisica quantistica e la progettazione di algoritmi — sono maturi per un’esplorazione sistematica su larga scala. In questi ambiti, l’IA potrebbe generare e testare ipotesi rapidamente, accelerando scoperte rivoluzionarie che altrimenti richiederebbero anni o decenni agli esseri umani.

I futuri sistemi avanzati di IA potrebbero generare scoperte autentiche su richiesta, segnando un cambiamento epocale nel modo in cui creiamo conoscenza e facciamo scienza.

Le aziende di IA stanno sviluppando attivamente sistemi di IA in grado di operare con una supervisione umana minima. Se questi sistemi diventassero capaci di condurre autonomamente ricerca sull’IA, potrebbero accelerare drasticamente il progresso nell’IA — potenzialmente anticipando l’arrivo dell’intelligenza artificiale generale (IAG): sistemi che eguagliano o superano le prestazioni umane nella maggior parte dei compiti. Tali sistemi potrebbero infine condurre ricerche scientifiche in modo autonomo, escludendo gli esseri umani dal processo.

Abbiamo sostenuto altrove che questa IAG potrebbe arrivare molto prima di quanto molti pensino.

Potremmo quindi ritrovarci presto in un mondo in cui i sistemi di IAG in grado di condurre ricerca scientifica entrano a far parte della forza lavoro, aumentando drasticamente l’impegno volto a far avanzare la frontiera tecnologica. Ma anche se dovesse volerci più tempo, una volta arrivata, l’IAG rivoluzionerebbe probabilmente il processo di ricerca scientifica.

Questo potrebbe aiutare gli esseri umani a risolvere molti grandi problemi — come le malattie epidemiche e il cambiamento climatico. Ma la scienza ha anche aiutato l’umanità a creare armi di distruzione di massa: chimiche, biologiche e nucleari.

Nel secolo scorso, abbiamo sviluppato il diritto internazionale e le norme diplomatiche relative a queste armi, limitandone l’uso. Se l’IA ci permettesse di sviluppare ulteriori armi di distruzione di massa ancora più rapidamente, le nostre istituzioni potrebbero non riuscire a tenere il passo.

Quali tipi di armi potrebbe creare un’IA avanzata?

Armi biologiche

La categoria di nuove tecnologie distruttive che ci preoccupa maggiormente è quella delle armi biologiche. Anche senza l’IA, il progresso della biotecnologia comporta rischi estremi. La capacità dei patogeni di infettare, replicarsi, uccidere e diffondersi — spesso inosservati — li rende eccezionalmente pericolosi. Le pandemie bioingegnerizzate potrebbero essere molto più contagiose e letali delle pandemie evolutesi naturalmente, che sono state tra gli eventi più mortali della storia umana.

Pensiamo che l’IA possa far progredire rapidamente la ricerca biotecnologica. L’amministratore delegato di Anthropic, Dario Amodei, ha scritto:

…la mia previsione di base è che la biologia e la medicina potenziate dall’IA ci consentiranno di comprimere in 5-10 anni i progressi che i biologi umani avrebbero compiuto nei prossimi 50-100 anni. Chiamerò questo scenario il “XXI secolo compresso”: l’idea che, una volta sviluppata un’IA potente, in pochi anni realizzeremo tutti i progressi in biologia e medicina che avremmo compiuto nell’intero XXI secolo.

Ma, mentre l’IA accelera la ricerca biologica e medica, renderà anche più facile l’emergere di nuovi rischi. Strumenti a duplice uso, come l’automazione dei processi di laboratorio, potrebbero abbassare le barriere per gli attori malintenzionati che cercano di produrre un pericoloso virus pandemico.

Anche gli attuali modelli linguistici di grandi dimensioni potrebbero teoricamente essere utilizzati per imparare a fabbricare armi biologiche. Uno studio ha rilevato che diversi sistemi di IA di frontiera superano i virologi umani nel Virology Capabilities Test — il che suggerisce che potrebbero assistere dei principianti nella conduzione di pericolosi esperimenti biologici.⁠⁠a

Man mano che le IA diventeranno più potenti e autonome, si amplierà la gamma dei modi in cui potranno contribuire alla creazione di armi biologiche. Ad esempio, strumenti di progettazione biologica basati sull’IA potrebbero consentire ad attori sofisticati di riprogrammare i genomi di pericolosi agenti patogeni per potenziarne specificamente la letalità, la trasmissibilità e l’evasione immunitaria.⁠⁠b

Se l’IA sarà in grado di accelerare il ritmo del progresso scientifico e tecnologico, questi rischi potrebbero risultare amplificati e accelerati — rendendo la tecnologia pericolosa più ampiamente disponibile o aumentandone il possibile potere distruttivo.⁠⁠c

In un sondaggio del 2023 tra esperti di IA, il 73 % degli intervistati ha dichiarato di avere una preoccupazione “estrema” o “sostanziale” sul fatto che in futuro l’IA consentirà a “gruppi pericolosi di creare strumenti potenti (ad esempio virus ingegnerizzati)”.⁠⁠d

Armi informatiche

L’IA può già essere utilizzata negli attacchi informatici, come il phishing, e un’IA più potente potrebbe comportare maggiori sfide per la sicurezza informatica (sebbene possa rivelarsi utile anche nella difesa informatica).

È improbabile che, di per sé, la guerra informatica potenziata dall’IA rappresenti una minaccia esistenziale per l’umanità. Neppure gli attacchi informatici su scala sociale più dannosi e costosi si avvicinerebbero a un evento di estinzione.

Tuttavia, gli attacchi informatici potenziati dall’IA potrebbero consentire l’accesso ad altre tecnologie pericolose, come armi biologiche, arsenali nucleari o armi autonome. Pertanto, potrebbero esserci reali rischi esistenziali derivanti dalle armi informatiche legate all’IA, ma molto probabilmente si concretizzeranno attraverso un altro rischio esistenziale. Ad esempio, un attacco informatico potenziato dall’IA potrebbe provocare il lancio di armi nucleari o consentire a un gruppo malintenzionato di accedere alle informazioni necessarie per sviluppare un’arma biologica.

Nuove tecnologie pericolose

Potremmo non essere in grado di prevedere quali nuove tecnologie pericolose l’IA potrebbe aiutare gli esseri umani a creare. Si noti che le armi nucleari furono teorizzate per la prima volta solo dodici anni prima che le bombe venissero sganciate su Hiroshima e Nagasaki.

Fatta questa premessa, possiamo comunque fare delle congetture su alcune potenziali nuove tecnologie. Una possibilità è la produzione con precisione atomica, a volte chiamata nanotecnologia, che è stata ipotizzata come una minaccia esistenziale — ed è una tecnologia scientificamente plausibile che l’IA potrebbe aiutarci a inventare molto prima di quanto potremmo fare altrimenti.

In The Precipice, Toby Ord ha stimato a 1 su 30 la probabilità di una catastrofe esistenziale entro il 2120 derivante da “rischi antropogenici imprevisti”. Questa stima suggerisce che potrebbero esserci altre scoperte, forse relative a una fisica ancora da comprendere, in grado di consentire la creazione di tecnologie dalle conseguenze catastrofiche.

Per farsi un’idea di cosa ciò potrebbe comportare, si considerino i timori emersi durante la costruzione del Large Hadron Collider.

Un gruppo di ricercatori si riunì per verificare se le collisioni di ioni pesanti potessero produrre strangelet con carica negativa e buchi neri — rappresentando potenzialmente una minaccia per l’intero pianeta. Conclusero che non vi fosse «alcuna base per una minaccia ipotizzabile» — ma avrebbero anche potuto scoprire il contrario, ed è possibile che futuri esperimenti di fisica comportino rischi estremi.

Un esempio correlato è il rischio, preso in considerazione dai ricercatori di Los Alamos nel 1942, che il primo test di un’arma nucleare potesse incendiare l’intera atmosfera terrestre in una reazione a catena inarrestabile.

Queste armi comporterebbero rischi catastrofici globali

Questi tipi di armi potrebbero aumentare il rischio catastrofico globale in due modi:

  1. Potrebbero innescare pericolose corse agli armamenti tra Paesi e potenzialmente portare a guerre devastanti.
  2. Gruppi terroristici o singoli individui potrebbero utilizzare queste armi per ottenere un effetto leva o per motivi ideologici.

In un articolo a parte, stimiamo che ci sia una probabilità su tre di un conflitto tra grandi potenze prima del 2050. Se gli Stati avessero accesso a nuove armi di distruzione di massa, sembra più probabile che un simile conflitto porti all’estinzione umana.

In passato abbiamo visto governi sviluppare programmi per armi di distruzione di massa, oltre alle armi nucleari. Ad esempio:

  • L’Unione Sovietica ha gestito un vasto programma segreto di armi biologiche per decenni, in violazione degli accordi internazionali.
  • Durante la seconda guerra mondiale, l’Unità 731 dell’esercito giapponese condusse orribili esperimenti su esseri umani e una guerra biologica in Cina.

Esistono quindi precedenti storici per questo tipo di minaccia.

Riteniamo che sia meno probabile che Stati canaglia o gruppi terroristici abbiano accesso a IA in grado di creare nuove armi di distruzione di massa. Al momento, è molto più probabile che l’IA sia controllata da grandi aziende e governi come quelli di Stati Uniti e Cina. Tuttavia, è possibile che Stati fuori controllo o gruppi terroristici riescano a eludere le misure di sicurezza dei modelli di IA esistenti,⁠⁠e a rubare dei modelli per riadattarli, oppure a sfruttare modelli open-weight.

Un rapporto dell’Istituto Internazionale di Ricerche sulla Pace di Stoccolma ha rilevato che gli effetti destabilizzanti di una corsa agli armamenti potrebbero manifestarsi anche prima dell’effettivo impiego dei progressi dell’IA. Questo perché la convinzione di uno Stato che i propri avversari dispongano di nuove capacità nucleari può essere sufficiente a compromettere il delicato equilibrio della deterrenza. Dinamiche simili si applicano probabilmente anche ad altre nuove armi di distruzione di massa, come le armi biologiche.

Fortunatamente, esistono anche modi plausibili in cui l’IA potrebbe aiutare a prevenire l’uso di armi nucleari e altre armi di distruzione di massa — magari migliorando la capacità degli Stati di rilevare i lanci nucleari, il che ridurrebbe le probabilità di falsi allarmi come quelli che hanno quasi causato una guerra nucleare nel 1983. Inoltre, l’IA potrebbe potenzialmente avere anche effetti stabilizzanti: ad esempio, potrebbe aumentare la capacità dell’umanità di coordinarsi e creare accordi verificabili.

Nel complesso, non siamo certi che l’IA aumenterà in modo sostanziale il rischio di conflitti nucleari o convenzionali a breve termine, ma riteniamo importante fare di più per ridurre i rischi negativi.

Esistono approcci promettenti per ridurre questi rischi

Sebbene l’IA avanzata possa accelerare lo sviluppo di armi pericolose, esistono misure concrete che possiamo adottare per ridurre questi rischi di uso improprio catastrofico. Il lavoro in questo settore rientra generalmente in due categorie: approcci di governance e misure di sicurezza tecniche.

Approcci politici e di governance

Alcuni approcci in questo campo includono:

  • Regimi di responsabilità: i quadri normativi potrebbero ritenere gli sviluppatori di IA responsabili dei danni prevedibili causati dai loro sistemi. Ciò creerebbe forti incentivi per le aziende a implementare solide misure di salvaguardia contro l’uso improprio.
  • Accordi internazionali: Così come il mondo ha stipulato trattati sulle armi nucleari, chimiche e biologiche, potremmo aver bisogno di nuovi accordi internazionali che regolino lo sviluppo e l’impiego dell’IA. Questi potrebbero includere accordi per condividere informazioni sulla ricerca relativa alla sicurezza dell’IA o per coordinare le risposte agli incidenti di uso improprio.
  • Licenze e supervisione: I governi potrebbero richiedere licenze per lo sviluppo o l’impiego dei sistemi di IA più avanzati, analogamente a come viene regolamentata la tecnologia nucleare. Ciò consentirebbe alle autorità di garantire che siano in atto adeguate misure di sicurezza prima del rilascio di capacità pericolose.
  • Controlli sulle esportazioni e coordinamento internazionale: I governi possono regolamentare l’esportazione dei sistemi di IA avanzati e dei chip per computer specializzati necessari per farli funzionare. Gli Stati Uniti hanno già introdotto alcuni controlli sulle esportazioni di chip verso la Cina, e approcci simili potrebbero essere utilizzati per impedire che capacità di IA pericolose finiscano nelle mani di attori ostili.
  • Verifica e monitoraggio: si potrebbero istituire organismi internazionali per monitorare il rispetto degli accordi sull’IA, analogamente a quanto fa l’Agenzia internazionale per l’energia atomica con i programmi nucleari.

Per ulteriori informazioni, potete leggere la nostra analisi completa dei percorsi di carriera nella governance dell’IA e nelle politiche sull’IA.

Approcci tecnici per ridurre i rischi di uso improprio

Alcuni approcci in questo campo includono:

  • Sicurezza fin dalla progettazione: gli sviluppatori di IA possono integrare misure di sicurezza direttamente nei loro sistemi per renderli resistenti all’uso improprio. Questo include lo sviluppo di modelli che si rifiutano di fornire informazioni sulla creazione di armi di distruzione di massa, anche quando interrogati in modi creativi. Aziende come Anthropic e OpenAI hanno già implementato alcune di queste salvaguardie nei loro modelli attuali.
  • Misure di biosicurezza: poiché le armi biologiche rappresentano uno dei rischi di uso improprio più gravi, il lavoro tecnico specifico si concentra su questa minaccia. Ad esempio, dei ricercatori stanno sviluppando sistemi di IA in grado di analizzare gli ordini di sintesi del DNA per individuare sequenze potenzialmente pericolose prima che vengano prodotte. Questo approccio di “controllo alla fonte” potrebbe impedire agli attori malintenzionati di ordinare i componenti genetici necessari per le armi biologiche.
  • Monitoraggio e rilevamento: gli stessi sistemi di IA potrebbero essere utilizzati per rilevare tentativi di uso improprio. Ad esempio, l’IA potrebbe monitorare la letteratura scientifica, gli schemi di approvvigionamento o le attività di laboratorio per identificare lo sviluppo sospetto di armi biologiche. Allo stesso modo, l’IA potrebbe aiutare a rilevare attacchi informatici o altre attività dannose in tempo reale.
  • Controlli di accesso: misure tecniche possono limitare chi ha accesso alle capacità più pericolose dell’IA. Ciò potrebbe comportare la richiesta di un’autenticazione speciale per determinati tipi di richieste, oppure lo sviluppo di modelli a “duplice uso” in cui le capacità più pericolose sono disponibili solo per utenti verificati.

Per ulteriori informazioni, potete leggere la nostra analisi completa dei percorsi di carriera nella ricerca tecnica sulla sicurezza dell’IA.

Il campo delle politiche e della sicurezza dell’IA è ancora in rapida evoluzione e c’è ampio spazio per nuove idee e approcci. Le idee esistenti, come quelle sopra elencate, potrebbero presentare problemi significativi che meritano ulteriori analisi e approfondimenti. Molte di queste soluzioni richiederanno il coordinamento tra più parti interessate, tra cui tecnologi, decisori politici e organismi internazionali.

È importante sottolineare che ridurre i rischi di uso improprio non richiede necessariamente di fermare del tutto lo sviluppo dell’IA, ma piuttosto di assicurare che le misure di salvaguardia stiano al passo con le sue capacità. Proprio come abbiamo imparato a sfruttare la tecnologia nucleare per scopi benefici limitando al contempo la proliferazione delle armi, possiamo potenzialmente fare lo stesso con l’IA.

La finestra temporale per attuare questi interventi potrebbe essere limitata. Con il rapido avanzamento delle capacità dell’IA, gli attori chiave dovranno agire tempestivamente per stabilire misure di salvaguardia, pratiche e quadri di governance efficaci, al fine di evitare l’uso improprio catastrofico di questi sistemi.


Pubblicazione originale: 80 000 Hours (2025) Catastrophic AI misuse, 80,000 Hours, giugno.