Siamo nel pieno di una rivoluzione che prometteva di democratizzare il sapere, ma l’ultima inchiesta che ha coinvolto il colosso di Mountain View ci costringe a una riflessione amara: nel mondo dell’intelligenza artificiale, la velocità corre spesso a scapito della verità. E quando la posta in gioco è la salute umana, il prezzo dell’approssimazione diventa inaccettabile.
Per anni abbiamo assistito alla trasformazione dei motori di ricerca. Da semplici “elenchi di link” sono diventati veri e propri assistenti pronti a fornire risposte pronte all’uso. Le AI Overviews, i riassunti automatici che troneggiano in cima alle nostre ricerche, rappresentano il culmine di questa evoluzione: l’utente non deve più faticare, confrontare fonti o interpretare dati; l’IA lo fa per lui.
Tuttavia, l’indagine pubblicata dal The Guardian ha scoperchiato il vaso di Pandora di questa comodità. Quando un algoritmo suggerisce una dieta ricca di grassi a un malato di tumore al pancreas, o fornisce dati medi sull’anemia ignorando le variabili cliniche individuali, non siamo di fronte a un semplice “errore tecnico”. Siamo di fronte a una crisi di responsabilità.
Il problema risiede nel cosiddetto “pregiudizio di autorità”. Un utente comune tende a fidarsi della prima risposta che riceve, specialmente se presentata con il tono assertivo e rassicurante tipico delle macchine. Il rischio della “ricerca a zero clic” — dove l’utente si ferma al riassunto dell’IA senza consultare i siti medici ufficiali — sta creando un cortocircuito informativo pericoloso.
L’intelligenza artificiale, per sua natura, non “capisce” la biologia; essa predice la parola successiva più probabile in base a calcoli statistici. Può essere una calcolatrice prodigiosa, ma resta un medico mediocre, privo di quel contesto e di quella cautela che solo la competenza umana può garantire.
La decisione di Google di rimuovere determinati riassunti medici è un atto di realismo necessario, ma solleva interrogativi sulla gestione del potere tecnologico. È lecito che un’azienda privata lanci strumenti così impattanti su larga scala prima di averne testato l’infallibilità in ambiti critici? La risposta, alla luce dei fatti, sembra pendere verso il “no”.
La tecnologia non è neutrale: essa modella il modo in cui ci prendiamo cura di noi stessi. Se l’IA deve essere il futuro della medicina, deve esserlo come strumento di supporto ai professionisti, non come un surrogato economico e fallibile del parere medico.
La lezione di oggi è chiara: l’innovazione non può procedere senza un’etica della vigilanza. Mentre i giganti del tech affinano i loro codici, spetta a noi, cittadini e utenti, riscoprire il valore del dubbio e della verifica. L’intelligenza artificiale può essere un potente alleato, ma nel labirinto della nostra salute, il filo di Arianna deve restare saldamente nelle mani della scienza e della coscienza umana.
Alessio Storace