Google restringe AI Overviews su quesiti sanitari: indagine svela rischi

google

Negli ultimi tempi Google ha investito massicciamente nelle AI Overviews, sintesi automatiche che appaiono all’inizio delle pagine dei risultati per offrire soluzioni immediate. Tuttavia, quando questa tecnologia ha cominciato a interessare un settore sensibile come la salute, il sistema ha mostrato vulnerabilità inattese. A sollevare la questione è stato The Guardian, che ha bollato alcuni contenuti generati dall’intelligenza artificiale come rischiosi e preoccupanti, spingendo il gigante tecnologico a correre ai ripari.

L’indagine condotta dal giornale inglese ha evidenziato come, per specifiche interrogazioni mediche, le AI Overviews potessero produrre informazioni parziali, fuori contesto o persino sbagliate, con il pericolo reale di spingere le persone a minimizzare disturbi gravi. In risposta a tali critiche, Google ha scelto di eliminare numerose sintesi associate a ricerche sanitarie particolarmente delicate.

L’esempio degli esami epatici

Tra i casi più discussi figura quello dei test per valutare il fegato. Alla richiesta sui parametri standard degli esami ematici epatici, l’intelligenza artificiale di Google avrebbe elencato un’ampia sequenza di cifre, omettendo però dettagli essenziali come età, genere, origine etnica o area geografica dell’individuo. Nel campo medico, tali variabili sono indispensabili per una corretta interpretazione dei dati, e la loro mancanza può generare valutazioni errate.

Il pericolo segnalato dal Guardian era evidente: un individuo con parametri effettivamente alterati avrebbe potuto ritenersi in buona salute e scegliere di non consultare uno specialista, rimandando diagnosi e terapie necessarie. Dopo la diffusione dell’inchiesta, alcune di queste interrogazioni hanno cessato di visualizzare le AI Overviews, indicando un primo intervento correttivo.

La posizione di Google

Davanti alle polemiche, Google ha adottato un approccio cauto. Un rappresentante, intervistato dal Guardian, ha dichiarato che l’azienda non si esprime sulle singole eliminazioni, ma ha confermato la volontà di perfezionare le sintesi dell’AI quando queste trascurano il contesto. Secondo la compagnia, molte delle informazioni criticate sarebbero comunque basate su fonti considerate attendibili, ma il nodo rimane nel modo in cui vengono condensate e mostrate al pubblico. In sostanza, le AI Overviews non sono state abolite completamente dall’ambito sanitario, ma regolate con maggiore attenzione, specialmente per le domande più esplicite e potenzialmente pericolose.

Un momento critico per l’AI nel settore sanitario

L’accaduto si inserisce in una fase in cui numerose società tecnologiche tentano di penetrare nel mercato della sanità digitale, come testimonia anche il debutto di ChatGpt Health da parte di OpenAI. Proprio per questo motivo, il caso di Google dimostra quanto sia articolato e sensibile delegare a un’intelligenza artificiale la sintesi di dati clinici. Il messaggio che traspare dall’inchiesta del Guardian è inequivocabile: quando si tratta di salute, anche una risposta veloce e apparentemente efficace può trasformarsi in una minaccia, se manca il quadro medico indispensabile per una corretta interpretazione.

Fonte: The Guardian