Anthropic ha annunciato un aggiornamento ai propri Consumer Terms e Privacy Policy, con l’obiettivo di offrire maggiore trasparenza e controllo agli utenti del modello Claude. Le novità riguardano soprattutto l’utilizzo dei dati per l’addestramento dei modelli, la gestione della privacy e l’estensione dei tempi di conservazione delle conversazioni.
Questi cambiamenti interessano gli utenti dei piani Claude Free, Pro e Max, oltre a chi utilizza Claude Code dagli stessi account. Restano invece esclusi i servizi soggetti a Commercial Terms, come Claude for Work, Claude Gov, Claude for Education e l’uso via API (inclusi Amazon Bedrock e Google Cloud Vertex AI).
Anthropic: maggior controllo sull’uso dei dati in Claude
Il punto centrale dell’aggiornamento riguarda la possibilità, concessa agli utenti, di decidere se permettere che le proprie conversazioni vengano utilizzate per migliorare i futuri modelli Claude.
Chi sceglie di partecipare contribuirà non solo allo sviluppo delle capacità del sistema – in aree come analisi, ragionamento e coding – ma anche al rafforzamento dei meccanismi di sicurezza, in particolare nella rilevazione di abusi, spam e usi impropri dell’AI.
L’utente resta comunque pienamente libero di attivare o disattivare in qualsiasi momento questa opzione attraverso le impostazioni della privacy. I nuovi iscritti potranno indicare la propria preferenza già in fase di registrazione, mentre gli utenti esistenti riceveranno una notifica in-app che li guiderà nella scelta.
Una scadenza per le decisioni
Chi ha già un account dovrà esprimere la propria preferenza entro il 28 settembre 2025. In caso contrario, non sarà possibile continuare a utilizzare Claude senza prima aver indicato se consentire o meno l’uso dei dati per l’addestramento.
Se si accetta subito la nuova policy, questa entrerà in vigore immediatamente, ma riguarderà soltanto le chat e le sessioni di coding nuove o riprese dopo l’aggiornamento. Le conversazioni già concluse resteranno escluse dal training dei modelli.
Data retention estesa a cinque anni
Un altro cambiamento significativo riguarda l’estensione dei tempi di conservazione dei dati. Se l’utente acconsente a fornire i propri contenuti per il miglioramento dei modelli, le conversazioni e i feedback verranno conservati fino a cinque anni.
Questa scelta, spiegano da Anthropic, è legata alla natura stessa dei cicli di sviluppo dei modelli di AI, che si misurano in anni e necessitano di dataset coerenti per garantire stabilità e continuità tra le diverse versioni.
Chi invece non intende partecipare al training continuerà con la precedente policy, che prevede una retention di 30 giorni. In entrambi i casi, l’utente mantiene la possibilità di cancellare singole conversazioni: una volta eliminate, queste non potranno più essere utilizzate per addestrare i modelli futuri.
Sicurezza e protezione dei dati
Anthropic ha ribadito che non vende i dati degli utenti a terze parti. Per proteggere la privacy, vengono utilizzati strumenti di filtraggio e tecniche di offuscamento automatico dei dati sensibili, con l’obiettivo di ridurre al minimo i rischi legati alla condivisione.
L’azienda sottolinea inoltre come una retention più lunga consenta di migliorare i classificatori di sicurezza, cioè quei sistemi che identificano comportamenti dannosi. Analizzando dati raccolti su un arco temporale più esteso, i modelli diventano più precisi nell’individuare schemi di abuso o tentativi di frode, contribuendo così a rendere l’esperienza più sicura per tutti.
Perché questi cambiamenti
Secondo Anthropic, i dati provenienti dalle interazioni reali degli utenti rappresentano un valore insostituibile nello sviluppo dei modelli. Un esempio concreto è quello dei programmatori che usano Claude per il debugging: i loro scambi con l’AI forniscono segnali preziosi che aiutano a migliorare le capacità di assistenza nel coding.
L’obiettivo dichiarato è creare un ciclo di feedback virtuoso, in cui le esperienze degli utenti contribuiscano a rendere il modello più utile e accurato nel tempo.
Impatti per gli utenti
Per gli utilizzatori di Claude, i prossimi mesi saranno quindi caratterizzati da una scelta importante: accettare l’uso dei dati per il training e beneficiare di un ecosistema in rapido miglioramento, oppure mantenere un approccio più conservativo, rinunciando però a contribuire al perfezionamento del modello.
In entrambi i casi, Anthropic assicura che il controllo resterà sempre nelle mani dell’utente, che potrà modificare le proprie preferenze o cancellare i dati in qualsiasi momento.
L’aggiornamento dei Termini e della Privacy Policy rappresenta un passo cruciale nella strategia di trasparenza e responsabilità perseguita da Anthropic. Offrire la possibilità di scelta, estendere i tempi di conservazione per chi acconsente e rafforzare le garanzie di sicurezza evidenzia la volontà di bilanciare innovazione e tutela degli utenti.
Con la scadenza del 28 settembre 2025, gli utenti saranno chiamati a prendere posizione su come vogliono contribuire allo sviluppo dell’intelligenza artificiale. Una decisione che, oltre a incidere sulla propria esperienza, potrà influenzare direttamente la qualità e le capacità dei futuri modelli Claude.






