Negli ultimi giorni si è diffusa una vicenda che, raccontata a chi non segue da vicino il mondo tecnologico, potrebbe sembrare la trama di un thriller. Una società di intelligenza artificiale rifiuta una proposta del Pentagono, finisce inserita in un elenco di entità considerate “pericolose per la sicurezza degli approvvigionamenti nazionali”, e in sole 48 ore la sua applicazione di conversazione AI scala le classifiche diventando la più installata negli Stati Uniti. L’azienda concorrente, che invece ha accettato l’accordo con il Ministero della Difesa, si trova sommersa da un aumento del +775% di valutazioni negative e il suo amministratore delegato riconosce pubblicamente di aver gestito la comunicazione in modo disastroso.
Siamo nell’epoca in cui l’immagine di un colosso tecnologico si costruisce e si distrugge sugli store digitali. Ma andiamo per gradi. Anthropic, l’impresa dietro il chatbot Claude, ha respinto la richiesta del Dipartimento della Difesa statunitense di utilizzare la sua intelligenza artificiale senza i limiti etici che l’organizzazione aveva stabilito: nessuna arma automatizzata, nessun controllo invasivo sui cittadini.
La risposta dell’amministrazione Trump è stata inserire Anthropic in un registro di fornitori ritenuti “una minaccia per la sicurezza degli approvvigionamenti nazionali”, bloccando così numerosi appalti governativi. In sostanza: se non ci concedi ciò che chiediamo, ti isoliamo. È precisamente il genere di reazione che ci si aspetta da chi ha persino rinominato il dicastero “Dipartimento della Guerra”, particolare che l’amministrazione Trump ha effettivamente attuato e che rende il quadro ancora più coerente.
OpenAI, al contrario, ha siglato quell’intesa con il Pentagono. Con alcune clausole restrittive incluse nel testo contrattuale, certamente, ma l’ha comunque sottoscritta. Sam Altman ha successivamente riconosciuto su X che la gestione comunicativa era stata pessima:
Non avremmo dovuto precipitarci a rendere pubblica la notizia venerdì.
Ma ormai il danno d’immagine era compiuto.
Claude sorpassa ChatGPT nelle classifiche per la prima volta
Ciò che è accaduto nelle ore seguenti è quantificabile con precisione e piuttosto interessante da analizzare. Il 27 febbraio 2026 le installazioni di Claude negli Stati Uniti aumentano del 37%. Il giorno successivo registrano un incremento del 51%. Le rimozioni di ChatGPT balzano al +295% rispetto alla media quotidiana.
Per la prima volta nella storia, Claude oltrepassa ChatGPT nei download giornalieri, conquista la vetta dell’App Store americano e vi permane per diversi giorni. Su Reddit emerge un thread dal titolo “Cancel and Delete ChatGPT!!!” che raccoglie trentamila voti positivi. Nasce persino un portale, CancelChatGPT.com, creato appositamente per assistere gli utenti nella rimozione del proprio account, con indicazioni dettagliate, come se eliminare un’applicazione fosse diventata una manifestazione di protesta digitale con tanto di guida operativa. E in qualche modo lo è diventata, almeno per alcuni giorni.
Gli abbonati a pagamento di Claude sono più che duplicati dall’inizio dell’anno, i nuovi utenti quotidiani hanno triplicato i numeri rispetto a novembre 2024. Prima del Super Bowl di febbraio, Anthropic occupava la 42ª posizione nelle classifiche americane dell’App Store. Poi è arrivata la settimana della polemica, e il primo posto.
Gli aspetti meno lineari della vicenda
Ciò premesso, la questione è considerevolmente meno trasparente di quanto appaia. Anthropic mantiene una collaborazione attiva con Palantir e Amazon Web Services, siglata nel novembre 2024, che consente ad agenzie di intelligence e dipartimenti militari statunitensi di accedere ai modelli Claude. Alcuni analisti hanno sollevato perplessità sul fatto che Claude possa essere già stato utilizzato nella progettazione di operazioni belliche, nonostante il divieto ufficiale dichiarato dalla compagnia. In sostanza: Anthropic non fornisce servizi direttamente al Pentagono, ma li fornisce a chi li fornisce al Pentagono. La distinzione è giuridica, non etica.
Questo non significa che il rifiuto di Anthropic sia stato esclusivamente una strategia promozionale, considerato che Dario Amodei ha effettivamente perso appalti federali tangibili, il che comporta un costo finanziario reale. Significa però che la narrazione dell’intelligenza artificiale “virtuosa” contrapposta a quella “corrotta” è una semplificazione talmente conveniente da risultare sospetta. Una volta che uno strumento viene creato, il suo impiego finale non dipende più esclusivamente da chi lo ha sviluppato.
Ciò che persiste, eliminato il clamore mediatico, è un elemento significativo: le persone stanno iniziando a selezionare i propri strumenti digitali anche considerando chi li produce e come si comporta. È un mutamento comportamentale reale, documentato, veloce. Se sia guidato da convinzioni radicate o dall’ondata emotiva di un fine settimana sui social, per ora è complesso stabilirlo. Probabilmente un mix di entrambi, come accade quasi sempre.
Ciò che è indubbio è che nel settore dell’intelligenza artificiale la reputazione si è trasformata in un fattore competitivo concreto: non più solamente un principio enunciato nel portale aziendale, ma qualcosa che sposta milioni di installazioni in quarantotto ore. Per le imprese tecnologiche, abituate a quantificare qualunque elemento tranne la fiducia, è il tipo di problematica che non pensavano di dover inserire in un foglio di calcolo. E adesso ce l’hanno davanti, evidente, nella colonna delle perdite.
Fonte: Anthropic
