Il Pentagono utilizzerà l’intelligenza artificiale di OpenAI per scopi militari (dopo il no di Anthropic)

P. F.

2 Marzo 2026 - 16:14

Dopo la rottura con Anthropic, il Dipartimento della Difesa statunitense sigla un nuovo accordo con OpenAI per l’impiego dell’intelligenza artificiale in ambito militare.

Il Pentagono utilizzerà l’intelligenza artificiale di OpenAI per scopi militari (dopo il no di Anthropic)

OpenAI ha firmato un accordo con il Dipartimento della Difesa degli Stati Uniti - anche noto come il Pentagono - per l’utilizzo dei propri strumenti di intelligenza artificiale nei sistemi classificati delle forze armate statunitensi. L’annuncio è arrivato dal CEO Sam Altman e, nel frattempo, l’amministrazione Trump ha imposto alle agenzie federali lo stop all’uso dei modelli sviluppati da Anthropic.

Il Segretario alla Difesa USA Pete Hegseth ha classificato Anthropic come un “rischio per la supply chain” della difesa, una definizione normalmente riservata a società con collegamenti diretti a potenze straniere ostili. Il provvedimento comporta che tutti i fornitori del settore militare debbano dimostrare che le proprie attività non coinvolgano prodotti dell’azienda guidata da Dario Amodei.

Le condizioni poste da OpenAI

Altman ha spiegato che l’intesa con il Dipartimento della Difesa - ora rinominato il “Dipartimento della Guerra” da Trump - incorpora due principi che OpenAI considera centrali: il divieto di sorveglianza di massa sul territorio statunitense e la responsabilità umana nell’uso della forza, anche quando si tratta di sistemi d’arma autonomi:

“Il Dipartimento di Guerra concorda con questi principi, li recepisce nelle leggi e nelle politiche e li integriamo nel nostro accordo”.

L’azienda si è inoltre impegnata a integrare salvaguardie tecniche per assicurare che i modelli rispettino i limiti stabiliti. OpenAI invierà ingegneri direttamente al Pentagono per seguire l’implementazione e garantire il corretto funzionamento dei sistemi.

Altman ha aggiunto di aver chiesto che condizioni analoghe vengano proposte a tutte le società di intelligenza artificiale coinvolte in programmi militari, sostenendo che si tratti di requisiti che l’intero settore dovrebbe poter accettare e auspicando che il confronto si sposti dal piano legale e politico a quello di accordi pragmatici.

Il caso Anthropic e il nodo delle armi autonome

La rottura con Anthropic nasce proprio dalle trattative sulle restrizioni richieste dal Pentagono. Secondo quanto dichiarato dal CEO Dario Amodei, la società non avrebbe accettato di allentare le condizioni relative all’impiego dei modelli in armi autonome e in programmi di sorveglianza di massa dei cittadini statunitensi. Da qui la decisione del Dipartimento della Difesa di procedere con la designazione di rischio per la supply chain.

Anthropic ha annunciato l’intenzione di impugnare legalmente il provvedimento, sostenendo che una simile etichetta viene di norma applicata in contesti molto più gravi. Resta poco chiaro, al momento, quali siano le differenze sostanziali tra le richieste avanzate dal Pentagono ad Anthropic e i termini accettati da OpenAI.

Un passaggio strategico per la difesa Usa

Il sottosegretario alla Tecnologia del Pentagono, Emil Michael, ha rilanciato il messaggio di Altman sul social network X, affermando che “quando si tratta di questioni di vita o di morte per i nostri combattenti, avere un partner affidabile e costante che si impegna in buona fede fa la differenza mentre entriamo nell’era dell’intelligenza artificiale”.

L’intesa con OpenAI consolida ancora una volta il rapporto tra Silicon Valley e apparato governativo statunitense, ma il caso Anthropic evidenzia tensioni ancora aperte sui limiti e sulle responsabilità connesse all’uso militare dell’AI.

SONDAGGIO

Trading online
in
Demo

Fai Trading Online senza rischi con un conto demo gratuito: puoi operare su Forex, Borsa, Indici, Materie prime e Criptovalute.