Claude, ChatGPT e AI militare: cosa sta succedendo tra Anthropic, OpenAI e il Pentagono

Claude supera ChatGPT negli Stati Uniti

Negli Stati Uniti, per la prima volta, l’app di Claude ha superato ChatGPT nei download su smartphone. Il dato arriva dopo una settimana segnata da una polemica politica e militare: Anthropic, l’azienda che sviluppa Claude, ha rifiutato alcune condizioni poste dal Pentagono. In parallelo si è diffusa l’idea che Claude rappresenti una scelta “pacifista”. Anche in Italia sono aumentati gli utenti di Claude mentre, nello stesso periodo, le disinstallazioni di ChatGPT sono cresciute.

Reazione politica e simbolismi legati a Claude

Per una parte del pubblico usare Claude è diventato un gesto “simbolico”: un modo per prendere le distanze dall’impiego militare dell’intelligenza artificiale e, indirettamente, dalle scelte dell’amministrazione Trump. Il presidente statunitense ha reagito attaccando direttamente Anthropic e il suo fondatore, l’italoamericano Dario Amodei, definendo l’azienda “di sinistra radicale” e accusandola di non capire il mondo reale.

La vera posizione di Anthropic sull’uso dell’AI

La polemica nasce però da un equivoco piuttosto grande. Anthropic non si è mai definita un’azienda pacifista e non ha escluso l’uso militare dei suoi sistemi. La posizione ufficiale è diversa: l’azienda accetta alcune applicazioni militari ma rifiuta categorie specifiche di utilizzo.

Conseguenze della disputa tra Anthropic e il governo

Dopo lo scontro, l’amministrazione Trump ha ordinato al Pentagono di interrompere il contratto con Anthropic e alle agenzie federali di smettere di utilizzare Claude entro sei mesi. Lo spazio lasciato libero è stato occupato rapidamente da altre aziende. xAI, la società di Elon Musk, ha firmato un accordo per lavorare su sistemi governativi riservati. OpenAI ha annunciato quasi subito un’intesa con il Dipartimento della Difesa che di fatto sostituisce il ruolo precedentemente affidato ad Anthropic.

La decisione ha provocato una reazione immediata contro ChatGPT. Sull’Apple Store le recensioni con una sola stella sono aumentate di circa il 775% nel giro di un giorno. L’amministratore delegato di OpenAI, Sam Altman, ha ammesso che la comunicazione sull’accordo con il Pentagono è stata gestita male e pubblicata troppo in fretta, dando l’impressione di un’operazione opportunistica.

Implicazioni tecniche e militari dell’uso di Claude

Nel dibattito pubblico si è diffusa l’idea che Anthropic si opponga all’uso militare dell’AI. Le dichiarazioni di Amodei raccontano qualcosa di diverso. L’azienda vieta due applicazioni specifiche: la sorveglianza di massa all’interno degli Stati Uniti e l’impiego dell’AI in armi completamente autonome, i cosiddetti “robot killer”. Il motivo non è morale ma tecnico: secondo Anthropic i sistemi di AI attuali non sono abbastanza affidabili per controllare armi senza supervisione umana.

Questo non significa che Claude sia rimasto fuori dalle operazioni militari. Al contrario. Secondo il Washington Post, l’AI di Anthropic è integrata nel sistema Maven Smart System sviluppato da Palantir, la società di analisi dei dati fondata da Peter Thiel. Maven raccoglie e analizza enormi quantità di informazioni provenienti da satelliti, sistemi di sorveglianza e altre fonti di intelligence.

Il sistema è stato utilizzato durante operazioni militari contro l’Iran. Secondo fonti citate dal giornale, Claude ha contribuito a individuare e classificare centinaia di possibili obiettivi, fornendo coordinate precise e una scala di priorità. L’effetto principale è stato l’accelerazione delle operazioni militari: attività che in passato richiedevano settimane di pianificazione possono ora essere eseguite quasi in tempo reale.

L’uso di Maven non è nuovo. Il sistema era già stato impiegato durante il ritiro americano dall’Afghanistan nel 2021, nel supporto a Israele dopo gli attacchi del 7 ottobre 2023 e nelle operazioni in Venezuela contro il presidente Nicolás Maduro.

La questione della regolamentazione nell’uso dell’AI

Secondo il Washington Post, Maven permette ai comandanti di gestire il campo di battaglia con strumenti che ricordano l’interfaccia di un videogioco. Uno studio della Georgetown University ha stimato che un’unità di artiglieria è riuscita a svolgere il lavoro che normalmente richiederebbe duemila persone con una squadra di circa venti militari.

Il nodo della disputa tra Anthropic e il governo americano non riguarda quindi l’uso militare dell’AI in sé. La questione centrale è chi debba decidere i limiti di questa tecnologia. Il Wall Street Journal ha usato un paragone efficace: se Anthropic producesse munizioni, nessun segretario alla Difesa accetterebbe che l’azienda stabilisca quando e contro chi sparare.

L’intelligenza artificiale però non è una tecnologia tradizionale. Le sue capacità sono ancora in evoluzione e molti governi temono che aziende private possano avere troppo potere nel definire come verrà utilizzata.

Nel caso specifico, alcuni esponenti dell’amministrazione Trump hanno accusato Anthropic di voler imporre restrizioni politiche all’esercito. L’azienda respinge questa interpretazione e sostiene che esistono già leggi e regolamenti che limitano sia la sorveglianza interna sia l’uso di armi autonome.

Critiche e rischi legati all’intelligenza artificiale

Alcuni ricercatori criticano anche l’atteggiamento recente di Anthropic. Missy Cummings, ex pilota della Marina americana e oggi direttrice del centro di robotica della George Mason University, ha osservato che per anni le aziende di AI hanno promosso in modo molto aggressivo le capacità dei loro sistemi. Solo ora, secondo lei, stanno iniziando a riconoscere i rischi.

Cummings ritiene che l’intelligenza artificiale generativa non dovrebbe essere utilizzata per controllare o guidare armi. Il problema principale non riguarda scenari fantascientifici di macchine ribelli, ma qualcosa di molto più concreto: gli errori dei modelli linguistici, le cosiddette “allucinazioni”. In contesti militari, sostiene, questi errori possono provocare la morte di civili o persino di soldati dello stesso esercito.

Il tema non è teorico. Alcuni sistemi di armamento autonomo sono già utilizzati in guerra. L’Ucraina, per esempio, impiega droni letali che operano con livelli crescenti di autonomia e ha iniziato a condividere queste tecnologie con altri eserciti alleati.

Il ruolo degli utenti nello sviluppo dell’AI

Oltre allo scontro tra aziende e governi esiste poi una questione più ampia. A differenza delle industrie belliche tradizionali, l’intelligenza artificiale cresce anche grazie all’uso quotidiano da parte delle persone. Ogni interazione con chatbot come ChatGPT, Claude o Grok contribuisce al miglioramento dei modelli.

Questo significa che milioni di utenti partecipano indirettamente allo sviluppo di sistemi che possono essere impiegati anche in ambito militare. Che piaccia oppure no, l’intelligenza artificiale non è più soltanto una tecnologia civile. Chi la utilizza dovrebbe almeno essere consapevole delle implicazioni.