AI, Anthropic contro il Pentagono. Così è a rischio un contratto da $200 milioni

P. F.

30 Gennaio 2026 - 15:18

Anthropic contro il Pentagono: la startup di intelligenza artificiale teme un uso improprio delle sue tecnologie da parte dell’esercito americano. A rischio un accordo fino a 200 milioni di dollari.

AI, Anthropic contro il Pentagono. Così è a rischio un contratto da $200 milioni

È in corso un confronto sempre più teso tra il Dipartimento della Difesa degli Stati Uniti e Anthropic, una delle principali startup americane di intelligenza artificiale. Al centro dello scontro ci sono le condizioni d’uso dei modelli AI sviluppati dall’azienda, che chiede garanzie precise per evitare impieghi autonomi in ambito militare e attività di sorveglianza interna.

La vicenda rappresenta uno dei primi veri test sul rapporto tra Silicon Valley e apparato militare statunitense, in una fase in cui l’intelligenza artificiale sta assumendo un ruolo sempre più centrale nelle strategie di difesa e intelligence.

Antropic e Pentagono, trattativa da $200 milioni in stallo

Dopo mesi di colloqui, le trattative tra Anthropic e il Pentagono si sarebbero arenate. In gioco c’è un contratto che potrebbe arrivare a valere fino a 200 milioni di dollari, ma le parti non riescono a trovare un’intesa sulle modalità di utilizzo della tecnologia.

Il Dipartimento della Difesa sostiene che l’esercito debba poter impiegare sistemi di intelligenza artificiale commerciali senza sottostare alle limitazioni imposte dalle aziende sviluppatrici, a condizione che l’uso finale sia conforme alla legge statunitense. Ma, rispetto ad altre società del settore, Anthropic si distingue per un atteggiamento di estrema cautela rispetto ai rischi che potrebbero derivare da un impiego non controllato dell’AI.

Nel corso delle discussioni tra le due parti, i rappresentanti della casa madre di Claude avrebbero espresso forti riserve su due possibili scenari. Il primo riguarda l’utilizzo dell’AI per attività di sorveglianza sul territorio americano, con potenziali ricadute sui diritti dei cittadini. Il secondo concerne l’impiego dei modelli come supporto all’identificazione dei bersagli senza un adeguato controllo umano.

Per il Pentagono, tuttavia, queste cautele rischiano di limitare l’efficacia operativa. In base a una recente direttiva interna sulla strategia per l’intelligenza artificiale, l’amministrazione ritiene che le esigenze di sicurezza nazionale debbano prevalere sulle policy aziendali, purché non vengano violate le norme vigenti.

Una collaborazione difficile da interrompere

Nonostante lo stallo, una rottura definitiva appare tutt’altro che semplice. I modelli sviluppati da Anthropic sono progettati per ridurre il rischio di comportamenti dannosi ma richiedono l’intervento diretto del personale dell’azienda per essere modificati o adattati a contesti specifici. Senza la collaborazione della startup, il Pentagono avrebbe quindi margini di manovra limitati. Anthropic ha ribadito che le tecnologie proprietarie sono già ampiamente utilizzate in missioni di sicurezza nazionale e che il dialogo con il Dipartimento della Difesa prosegue, anche se in un clima di forte tensione.

Lo scontro arriva in un momento particolarmente sensibile per Anthropic. L’azienda sta lavorando in vista di una possibile quotazione in Borsa e ha investito risorse significative per rafforzare la sua presenza nel settore della difesa e dell’intelligence, cercando al tempo stesso di incidere sulla definizione delle politiche pubbliche in materia di AI.

La startup, inoltre, è una delle poche aziende ad aver ottenuto contratti con il Pentagono accanto a co grandi nomi del settore come Google, OpenAI e xAI. Un eventuale fallimento delle trattative rischierebbe quindi di avere conseguenze economiche e strategiche rilevanti.

SONDAGGIO

Trading online
in
Demo

Fai Trading Online senza rischi con un conto demo gratuito: puoi operare su Forex, Borsa, Indici, Materie prime e Criptovalute.