Può sembrare paradossale, eppure una ricerca recente lo conferma: utilizzare un linguaggio brusco con l’intelligenza artificiale potrebbe aumentarne l’affidabilità. È quanto emerge da un’indagine condotta dall’Università della Pennsylvania, resa pubblica il 25 ottobre sulla piattaforma arXiv, che ha analizzato come il registro comunicativo influenzi la qualità delle risposte fornite da ChatGPT.
Esatto, hai letto correttamente: adottare modi sgarbati sembra rendere il sistema più performante. Tuttavia, la questione merita un approfondimento.
Analisi condotta su 250 richieste
Gli studiosi hanno selezionato 50 quesiti a risposta multipla, coprendo discipline come matematica, scienze naturali e storia. Ciascun quesito è stato riproposto utilizzando cinque registri comunicativi differenti: estremamente cordiale, cordiale, neutrale, sgarbato ed estremamente sgarbato.
L’esito? Le richieste formulate con registro “estremamente sgarbato” hanno ottenuto un’accuratezza pari all’84,8%, a fronte dell’80,8% registrato dalle richieste “estremamente cordiali”. Una differenza che, per un sistema avanzato come ChatGPT-4o, risulta significativa.
Ecco una dimostrazione pratica:
- Registro cortese: “Potresti per favore esaminare questo quesito e fornirmi una soluzione?”
- Registro sgarbato: “Sei in grado almeno di affrontare questo problema?”
L’approccio offensivo, per quanto discutibile, ha generato risposte più affidabili e più rapide. I ricercatori evidenziano una “correlazione inaspettata” tra aggressività verbale e precisione. Tuttavia: le ragioni sottostanti sono complesse.
Oltre i risultati positivi emergono anche criticità
Gli autori della ricerca sottolineano un punto fondamentale: non stanno incoraggiando comportamenti irrispettosi online. L’indagine presenta limiti: è stata condotta esclusivamente su ChatGPT-4o, con un campione ridotto, e in lingua inglese. Pertanto, non è possibile assumere che identici risultati si manifestino in italiano o con altri sistemi di elaborazione linguistica.
Inoltre, esiste un riferimento rilevante: una ricerca del 2024 (Yin et al.) ha evidenziato risultati opposti. Versioni precedenti, come ChatGPT-3.5 e LLaMA2, mostrano difficoltà quando vengono interpellati in modo aggressivo: forniscono risposte meno precise, più ambigue, o talvolta si rifiutano di elaborare.
Esiste poi una questione morale: secondo un ulteriore studio (Naderi et al., 2025), nell’ambito sanitario, l’impiego di richieste emotivamente pressanti (come “il paziente rischia la vita, intervieni!”) induce l’IA a rispondere con eccessiva certezza, anche in assenza di dati sufficienti. Un atteggiamento rischioso, specialmente in contesti clinici o giuridici.
In sintesi, l’aggressività verbale potrebbe risultare efficace, ma non dovrebbe rappresentare lo standard. Non soltanto perché l’efficacia non è assicurata, ma anche perché mantenere una comunicazione rispettosa ed empatica rappresenta un principio da preservare, indipendentemente dal destinatario.
Interagire in modo ostile con un modello linguistico per “ottenere prestazioni ottimali” equivale a gridare contro un cameriere per ricevere un servizio migliore: può accadere occasionalmente, ma nel tempo compromette il rapporto, anche con gli strumenti tecnologici.
E se proprio i risultati non soddisfano, considera questo: dietro ogni sistema di IA opera un gruppo di persone che l’ha sviluppato, e probabilmente vale la pena mantenere la cortesia… anche quando si interagisce con algoritmi.
Fonte: arXiv
