Negli ultimi mesi l’intelligenza artificiale è diventata sempre più centrale nell’esperienza di ricerca online. Risposte rapide, sintesi immediate, informazioni pronte all’uso. Ma cosa succede quando questi contenuti riguardano la salute? È proprio su questo terreno delicato che Google si è trovata costretta a fare un passo indietro, rimuovendo alcune risposte generate dall’AI dopo che ne è stata messa in dubbio l’affidabilità.
La questione non riguarda un semplice errore tecnico, ma tocca un tema molto più ampio: il confine tra supporto informativo e rischio per la salute pubblica. Quando milioni di persone consultano un motore di ricerca per capire se un valore clinico è “normale” o se una dieta è consigliata in presenza di una patologia, anche una risposta incompleta può avere conseguenze reali.
AI Overviews sotto accusa
Al centro del caso ci sono gli AI Overviews, i riassunti generati automaticamente dall’intelligenza artificiale che Google mostra in cima ai risultati di ricerca. Questi contenuti nascono con l’obiettivo di semplificare la vita agli utenti, offrendo una panoramica immediata su un tema specifico. Tuttavia, un’inchiesta giornalistica ha evidenziato come alcune risposte in ambito sanitario fossero fuorvianti o prive del contesto necessario.
In particolare, domande legate agli esami del sangue e ai test di funzionalità epatica restituivano numeri standardizzati, senza tenere conto di variabili fondamentali come età, sesso, etnia o area geografica. Un approccio che, in medicina, può risultare non solo impreciso ma potenzialmente dannoso.
Uno degli aspetti più critici emersi riguarda l’uso di intervalli “normali” applicati in modo universale. Valori come ALT, AST o ALP non hanno lo stesso significato per tutti i pazienti e, senza una spiegazione adeguata, rischiano di indurre interpretazioni errate. In alcuni casi, le informazioni sembravano provenire da fonti sanitarie specifiche, ma venivano presentate come dati generali, validi per chiunque. Questo tipo di semplificazione estrema è uno dei limiti principali dei sistemi di intelligenza artificiale: l’assenza di contesto. In sanità, il contesto è tutto.

Ancora più delicata è la questione dei suggerimenti comportamentali. Secondo quanto emerso, l’AI avrebbe fornito raccomandazioni alimentari non appropriate a persone affette da gravi patologie, come il cancro al pancreas. Gli esperti avvertono che indicazioni di questo tipo, se seguite alla lettera, potrebbero addirittura aumentare il rischio di complicazioni.
Questo fenomeno è legato alle cosiddette “allucinazioni” dell’intelligenza artificiale: risposte apparentemente credibili, ma costruite senza una base solida o aggiornata. La rimozione di alcune risposte sanitarie segnala una presa di coscienza, ma lascia aperti molti interrogativi. Quanto possiamo fidarci dell’AI quando si parla di salute? E quali limiti dovrebbero essere imposti per evitare che strumenti nati per aiutare diventino un problema?
Mentre Google continua a integrare l’intelligenza artificiale in nuovi servizi, il caso solleva un messaggio chiaro: velocità e accessibi
lità non possono sostituire accuratezza e responsabilità, soprattutto quando in gioco c’è il benessere delle persone.