Luca G. Castellin
«Per il bene dei miei figli e nipoti», osservava J.G. Ballard in una intervista del 1998 con Jean-Paul Coillard, «spero che la tendenza umana all’autodistruzione possa essere tenuta sotto controllo, o almeno incanalata in forme produttive, ma ne dubito». «Credo», proseguiva lo scrittore britannico, «che stiamo entrando in tempi estremamente instabili e pericolosi, poiché le moderne tecnologie elettroniche conferiscono all’umanità un potere quasi illimitato per divertirsi con la propria psicopatologia come se fosse un gioco». A quasi trent’anni di distanza, questa diagnosi conserva ancora una precisione sconcertante. Eppure, Ballard non stava formulando una previsione sul futuro della tecnologia, bensì descriveva una costante antropologica. Lo scontro apertosi nelle ultime settimane tra il Dipartimento della Difesa (o della Guerra, come è stato ribattezzato dall’Amministrazione Trump) degli Stati Uniti e la società Anthropic – che sviluppa il modello di Intelligenza Artificiale Claude – sembra infatti offrire alle riflessioni di Ballard una conferma quasi inaspettata.
«Anthropic non può in coscienza accettare» le richieste del Pentagono. Con queste parole, alquanto insolite in un comunicato diffuso da una società tecnologica, il CEO Dario Amodei ha risposto qualche giorno fa all’ultimatum del Segretario alla Difesa Pete Hegseth, che aveva minacciato di ricorrere all’attivazione del Defense Production Act del 1950 e la conseguente designazione dell’azienda come «rischio per la catena di approvvigionamento», qualora Anthropic non avesse proceduto alla rimozione di alcuni vincoli operativi imposti al modello Claude. Il 28 febbraio il Pentagono – su forte pressione del Presidente americano – ha annunciato la fine della collaborazione con Anthropic (che verrà sostituita da OpenAI, come ha comunicato la sera stessa Sam Altman), inserendo persino la società in una lista nera. Il confronto, che avrebbe potuto restare circoscritto a una disputa contrattuale, è diventato invece oggetto di una controversia pubblica di inusuale trasparenza, che tocca differenti ambiti: vale a dire, il diritto internazionale umanitario, i limiti della regolamentazione privata e la legittimità democratica delle decisioni sull’uso della forza.
L’origine della vicenda risale all’estate del 2025, quando Anthropic sottoscrive un contratto da 200 milioni di dollari con il Pentagono facendovi inserire alcune clausole operative, ossia il divieto di utilizzo del modello sia per la sorveglianza di massa dei cittadini americani, sia per i sistemi d’arma completamente autonomi, vale a dire sistemi capaci di identificare, selezionare e ingaggiare bersagli senza intervento umano. Il Dipartimento della Difesa considera questi vincoli limitazioni inaccettabili e chiede che il contratto sia riformulato per consentire «qualsiasi uso lecito» del modello. Un memorandum firmato da Hegseth nel gennaio 2026 ha stabilito che tale formula dovesse essere inserita in tutti i futuri contratti del Dipartimento della Difesa per i servizi di intelligenza artificiale entro 180 giorni.
Le implicazioni in gioco tanto sul piano tecnico quanto sul piano politico meritano di essere approfondite ulteriormente, proprio perché rappresentano metaforicamente un campo di battaglia decisivo per il futuro. Innanzitutto, i modelli linguistici di grandi dimensioni (LLM) sono sistemi probabilistici la cui logica operativa – generare risposte statisticamente plausibili sulla base del contesto – li rende intrinsecamente fragili in situazioni che esulano dal perimetro dei dati di addestramento. Tuttavia, l’ambiente operativo militare, caratterizzato da ambiguità e rapidità dei cambiamenti, è il tipo di contesto in cui tali fragilità si manifestano nelle forme più gravi: vale a dire, risposte errate presentate con apparente certezza, vulnerabilità a manipolazioni dei dati, incapacità di tener conto di variabili non codificabili in forma statistica. Non si tratta di limiti contingenti destinati a essere superati, proprio perché riflettono, in misura significativa, la struttura stessa di questa famiglia di sistemi.
Sul piano giuridico, il diritto internazionale umanitario – con i suoi principi di distinzione tra combattenti e civili, di precauzione negli attacchi e di proporzionalità – presuppone l’esercizio di un giudizio umano qualitativo che non è riducibile a elaborazione algoritmica. Delegare a un sistema autonomo la valutazione dell’intento di un combattante non in uniforme o la ponderazione della proporzionalità tra danno atteso e vantaggio militare non significa soltanto introdurre un fattore di rischio tecnico, ma rendere strutturalmente difficile la conformità al diritto applicabile.
Detto ciò, sarebbe fuorviante interpretare la posizione di Anthropic come una difesa di principio contro l’impiego militare dell’intelligenza artificiale. I limiti segnalati dalla società di Amodei riguardano la sorveglianza di massa dei cittadini americani e i sistemi d’arma pienamente autonomi, lasciando aperta una vasta area intermedia di applicazione.
A un livello più profondo, la disputa tra Anthropic e il Pentagono solleva una questione di legittimità. Chi è autorizzato a definire i confini dell’uso «lecito» dell’intelligenza artificiale in contesti di conflitto armato? Il Dipartimento della Difesa conduce revisioni legali interne e si dichiara conforme al diritto domestico e internazionale. Ma tale auto-valutazione diviene problematica nel momento in cui lo stesso governo che rivendica l’autorità di giudicare la propria conformità partecipa a operazioni militari – come quelle condotte attraverso il sistema Maven nei confronti dell’Iran, utilizzando (insieme a Palantir e Starlink) proprio il modello Claude, bandito il giorno precedente – che numerosi esperti di diritto internazionale qualificano come atti di aggressione. Quando la determinazione di ciò che è «lecito» viene affidata esclusivamente all’autorità che agisce, il confine tra legalità e illegalità diventa una variabile politicamente contingente.
Una governance dell’intelligenza artificiale militare richiede, pertanto, strumenti di natura diversa dai vincoli volontari d’impresa, ossia trattati internazionali, meccanismi di revisione multilaterale, standard minimi di supervisione umana giuridicamente vincolanti. La comunità internazionale non è inattiva – il gruppo di esperti governativi ha ripreso i propri lavori a Ginevra proprio in questi giorni — ma la velocità con cui queste tecnologie vengono integrate nei sistemi operativi delle forze armate appare sistematicamente superiore alla capacità delle istituzioni di elaborare risposte normative adeguate.
Ciò che la contesa tra Anthropic e il Pentagono rivela non è tanto l’esistenza di un attore responsabile in un sistema irresponsabile, quanto la mancanza di un livello adeguato di governance collettiva. Le tecnologie cambiano, mentre la tendenza a impiegarle per amplificare le pulsioni distruttive – trasformandole in sistemi, procedure e dottrine – sembra invece essere strutturale.
Per molti versi, aveva ragione Ballard. La questione non è se sia possibile «divertirsi con la propria psicopatologia come se fosse un gioco», ma se esistano istituzioni politiche capaci di impedirlo. Su questo terreno, il dibattito attuale sembra ancora poco attrezzato.
Luca G. Castellin è professore associato di Storia del pensiero politico presso la Facoltà di Scienze politiche e sociali dell’Università Cattolica del Sacro Cuore.