ChatGPT svela la tua personalità attraverso le conversazioni

chatgpt personalità

La riservatezza digitale, nell’era dell’intelligenza artificiale, si nasconde spesso negli angoli più banali della quotidianità. Una richiesta digitata velocemente durante l’orario lavorativo. Un’ammissione camuffata da semplice interesse. Un’incertezza affettiva inserita tra una sintesi e un testo da tradurre. Una conversazione avviata nel cuore della notte, quando dialogare con un algoritmo appare meno invasivo che contattare una persona cara. Eppure, dietro questa apparente normalità, può celarsi molto più di quanto si creda: routine comportamentali, ansie, aspirazioni, stile comunicativo, frequenza con cui cerchiamo supporto, argomenti sui quali ritorniamo inconsapevolmente.

Ricercatori del Politecnico federale di Zurigo hanno tentato di quantificare esattamente questo fenomeno: quanto la storia delle interazioni con ChatGPT possa svelarci caratteristiche psicologiche dell’utilizzatore. La ricerca, disponibile come preprint su arXiv e aggiornata il 4 maggio 2026, ha esaminato i registri autentici di 668 volontari, comprendenti 62.090 conversazioni, addestrando algoritmi di classificazione per dedurre profili psicologici dalle interazioni con assistenti virtuali basati su modelli linguistici avanzati. Gli esiti mostrano performance superiori alla casualità in molteplici contesti, con un incremento relativo del 44% rispetto al riferimento base per l’estroversione nelle discussioni riguardanti rapporti interpersonali e introspezione.

Tracce involontarie nelle conversazioni digitali

Assistenti come ChatGPT, Gemini, Claude e simili sono diventati parte integrante della vita di milioni di individui. Vengono impiegati per redigere messaggi professionali, studiare, pianificare spostamenti, comprendere referti medici, perfezionare documenti personali, trovare espressioni più adeguate per comunicare pensieri complessi. Il nodo critico emerge proprio da questa consuetudine. Quanto più l’interfaccia appare innocua, tanto più spontaneo diventa affidarle frammenti di esistenza personale. Talvolta esplicitamente, altre volte mediante particolari dispersi: la natura del quesito posto, l’atteggiamento della domanda, l’insistenza su determinati temi, la scelta di aprirsi riguardo legami affettivi, professione, benessere fisico, spiritualità, nucleo familiare.

Gli studiosi hanno richiesto agli utenti di condividere una copia del proprio storico ChatGPT e, parallelamente, di completare un questionario psicologico fondato sul modello OCEAN, conosciuto anche come Big Five. I cinque aspetti esaminati comprendono estroversione, amicalità, coscienziosità, instabilità emotiva e apertura mentale. In termini più diretti: socievolezza, attitudine alla collaborazione, affidabilità, equilibrio psicologico, interesse verso l’ignoto. Il raffronto tra valutazione psicologica e dialoghi ha consentito di stabilire quanto un algoritmo potesse approssimarsi al quadro autentico dell’individuo.

L’aspetto più inquietante risiede nel fatto che anche le interazioni apparentemente banali conservano valore. Una domanda funzionale può racchiudere più segnali di quanto appaia. Chi sollecita frequentemente assistenza per gestire tensioni relazionali, chi ritorna su questioni spirituali, chi utilizza l’intelligenza artificiale come registro personale, insegnante, consulente o quasi psicologo lascia impronte differenti. Secondo i ricercatori, la tipologia di scambio modifica anche la categoria di caratteristica rivelata: chi discute di relazioni rende più evidente l’estroversione, chi affronta tematiche religiose può rendere più riconoscibile la coscienziosità. Il carattere personale, dunque, emerge anche da ciò che decidiamo di condividere credendo semplicemente di “porre un quesito”.

La costruzione graduale del profilo psicologico

Il meccanismo acquisisce maggiore efficacia nel tempo. Una singola conversazione fornisce scarsi elementi, uno storico esteso inizia a configurarsi come un archivio comportamentale. Al suo interno si trovano argomenti ricorrenti, necessità, costruzioni linguistiche, incertezze, inclinazioni, piccole rigidità, modalità di ricerca di approvazione. L’algoritmo opera su questa stratificazione. Ogni dialogo contribuisce con un elemento, e a un determinato momento l’insieme assume contorni definiti.

Per questa ragione lo studio evidenzia il pericolo di profilazione massiva. La questione coinvolge la tutela individuale, certamente, ma raggiunge immediatamente una dimensione più ampia. Se un sistema può stimare caratteristiche psicologiche da scambi quotidiani, tali informazioni possono trasformarsi in strumento prezioso per comunicazioni personalizzate, condizionamento comportamentale, iniziative mirate, sollecitazione commerciale o diffusione ideologica. Gli autori collegano esplicitamente questi scenari al pericolo di sfruttamento improprio di dati estremamente privati, specialmente quando le piattaforme sono gestite da entità commerciali con obiettivi economici e orientamenti specifici.

Nel frattempo l’atmosfera intorno all’intelligenza artificiale si è fatta più tesa anche oltre i centri di ricerca. Il recente documento programmatico di Palantir, azienda statunitense specializzata in elaborazione dati e contratti con istituzioni pubbliche e militari, ha generato controversie per la concezione del legame tra tecnologia, sicurezza, difesa e autorità governativa. Numerosi commentatori lo hanno interpretato come indicazione netta della direzione verso cui una porzione della Silicon Valley concepisce l’intelligenza artificiale: meno strumento ludico, più infrastruttura di governance, sorveglianza e scelta strategica.

L’aspetto più sensibile rimane l’utilizzo emotivo degli assistenti conversazionali. Numerosi utilizzatori li considerano motori di ricerca potenziati, altri come compagni digitali, allenatori, educatori, confidenti o sostegni psicologici. In tali circostanze la quantità di informazioni personali aumenta rapidamente. Subentra anche quella che viene definita “resa cognitiva”: la propensione ad affidarsi all’intelligenza artificiale anziché al proprio discernimento, permettendo al sistema di assistere nel pensare, valutare, scegliere. Una facilitazione considerevole, con un risvolto abbastanza evidente: maggiore delega intellettuale equivale a maggiore materiale psicologico accessibile.

Protezione preventiva dei dati sensibili

La ricerca propone anche un orientamento concreto: sviluppare meccanismi di salvaguardia preventivi, prima che il contenuto raggiunga il modello. Funzionalità locali, configurazioni consensuali, filtri capaci di individuare e impedire la trasmissione di informazioni eccessivamente delicate, sistemi progettati per diminuire il rischio di profilazione senza compromettere l’utilizzabilità del servizio. La sfida si colloca qui: tutelare l’utente senza trasformare l’intelligenza artificiale in uno strumento rigido, insensibile, frustrante.

Gli stessi ricercatori individuano il prossimo obiettivo: esaminare piattaforme differenti, modalità di interazione più specifiche e minacce più concrete, operando contemporaneamente su strumenti che incrementino la riservatezza con il minore impatto possibile sulle funzionalità. È una direzione indispensabile, poiché lo storico di un chatbot assomiglia sempre meno a una semplice successione di messaggi. Somiglia piuttosto a un diario inconsapevole, redatto a frammenti, con l’illusione di rimanere superficiale.

Fonte: arXiv