Passano sotto i nostri occhi mentre aspettiamo in coda o ci rilassiamo la sera. Un nonno che celebra un traguardo toccante, un bimbo abbandonato nel giorno della sua festa, un paesaggio rurale che evoca ricordi lontani. Clicchiamo mi piace, lasciamo un pensiero, talvolta diffondiamo il post. Poi emerge la verità: quella foto non è mai stata reale. L’ha prodotta un algoritmo. E non succede perché siamo sprovveduti.
Uno studio apparso su Computers in Human Behavior chiarisce come mai le foto sintetiche su Facebook ci coinvolgono così intensamente. La chiave non risiede negli strumenti digitali, bensì nei meccanismi mentali. E coinvolge ciascuno di noi.
Come l’intelligenza artificiale aggira la razionalità
La ricerca porta la firma di Márk Miskolczi, studioso presso la Corvinus University of Budapest, che ha scelto di concentrarsi meno sui falsi clamorosi e più su ciò che incrociamo quotidianamente nelle piattaforme digitali. Non la grande manipolazione istituzionale, ma l’esca emotiva di tutti i giorni.
Secondo lo studioso ungherese, il problema non è la perfezione tecnica di un’immagine. Molte presentano difetti evidenti. Dita in eccesso, visi innaturalmente levigati, particolari incongruenti. Eppure ottengono risultati. Funzionano perché veicolano narrazioni emotive dirette, istantanee, consolanti o laceranti. E quando una narrazione ci commuove, la mente abbandona l’analisi critica.
Il social network di Menlo Park è sempre più invaso da contenuti artificiali prodotti in massa da profili apparentemente innocui, ma che costituiscono autentiche fabbriche di engagement, strutture progettate esclusivamente per stimolare reazioni. Apprezzamenti, risposte, condivisioni. Ogni interazione genera visibilità e, di conseguenza, profitto.
Per approfondire il fenomeno, il ricercatore ha esaminato direttamente i profili pubblici, identificando pagine che pubblicavano con regolarità contenuti sospetti. Dopo una verifica incrociata, manuale e attraverso software di rilevamento, sono state isolate 146 fotografie certamente artificiali e oltre 9.000 risposte scritte da utenti autentici.
L’elemento più rilevante non è il numero di persone tratte in inganno, ma la modalità della loro risposta. Benedizioni, felicitazioni, messaggi di sostegno, espressioni cariche di umanità indirizzate a soggetti inesistenti. Non c’è superficialità in queste reazioni. C’è partecipazione affettiva.
Nostalgia e pietà: i sentimenti che abbassano le difese
Le rappresentazioni più persuasive sono quelle che evocano un tempo perduto idealizzato o una vulnerabilità manifesta. Anziani che “celebrano 60 anni insieme”, minori afflitti, individui isolati. Scenari che rafforzano percezioni preesistenti: che un tempo tutto fosse più autentico, che la sofferenza meriti consolazione, che ignorarla sarebbe crudele.
Qui si attiva un processo profondamente umano: se qualcosa corrisponde ai nostri principi, tendiamo ad accoglierlo senza eccessivi interrogativi. È il noto pregiudizio di conferma. Se la rappresentazione sostiene ciò che pensiamo, perché metterla in discussione?
Esiste inoltre l’effetto ancoraggio affettivo. La prima sensazione provata diventa il riferimento dominante. Se una descrizione parla di un bambino dimenticato nel suo compleanno, quella malinconia iniziale ci cattura. Da quel momento, eventuali imperfezioni visive diventano secondarie.
Quando i commenti trasformano la finzione in realtà
Un ulteriore elemento cruciale è l’influenza del gruppo. Se un contenuto raccoglie migliaia di reazioni e innumerevoli messaggi affettuosi, tendiamo a considerarlo affidabile. È un automatismo. Se la massa lo ritiene autentico, probabilmente lo è.
Secondo lo studioso magiaro, le sezioni commenti si trasformano così in una vera fabbrica di autenticità percepita. Alcune risposte provengono da profili automatizzati, programmati per amplificare la narrazione. Ma chi legge successivamente non lo percepisce. Vede soltanto una comunità coinvolta, e vi aderisce. Non per superficialità, ma per desiderio di appartenenza.
Uno degli aspetti più significativi della ricerca riguarda uno stereotipo persistente: l’ipotesi che a cadere nella trappola siano principalmente persone mature o con scarsa istruzione. I risultati lo smentiscono. Le euristiche cognitive utilizzate dal cervello operano indipendentemente da età e formazione, specialmente nei contesti di fruizione rapida tipici dei social.
La fragilità non dipende dalle capacità intellettive, ma dal contesto psicologico. Affaticamento, isolamento, urgenza, necessità di sentirsi inclusi. Condizioni che tutti sperimentiamo.
Il pericolo maggiore: l’erosione della fiducia
Il problema, sottolinea il ricercatore, non è solo l’inganno momentaneo. È la conseguenza duratura. Se diventiamo incapaci di separare narrazioni autentiche da finzioni algoritmiche, rischiamo di diffidare di tutto. Anche delle fotografie genuine, delle testimonianze concrete, delle esperienze umane reali.
Non serve allarmismo. Serve lucidità. Imparare a decelerare, osservare con maggiore attenzione, interrogarci sul motivo per cui un contenuto ci tocca così profondamente. Non per diventare distaccati o scettici, ma per salvaguardare proprio quella dimensione di noi che risponde con sensibilità. Perché il paradosso è questo: le fotografie sintetiche funzionano così efficacemente proprio perché siamo umani. E forse, comprendere come veniamo influenzati rappresenta il primo passo per non essere strumentalizzati.
Fonte: Computers in Human Behavior
