Intelligenza artificiale e salute: perché non dovresti fidarti mai ciecamente

L’Europa ha introdotto una normativa per chiarire come debba comportarsi l’intelligenza artificiale quando tocca ambiti delicati come la salute. Ma spetta anche a noi imparare a usarla bene per non correre rischi. Perché l’AI, quello che non sa se lo inventa



312906

di Valentina Menassi


C'è un momento, sempre più frequente, in cui la tecnologia entra nel nostro spazio più intimo: quello della salute. Basta una sensazione che non riusciamo a decifrare, un malessere che appare all’improvviso, una domanda che ci accompagna per tutta la giornata. Apriamo il telefono, scriviamo a ChatGPT e attendiamo una risposta.

È un gesto semplice, silenzioso, che però racconta molto di come stiamo cambiando: l’intelligenza artificiale sta diventando il nostro primo punto di riferimento quando qualcosa non va. Ma in quella rapidità, in quello scambio così immediato, si nasconde la domanda decisiva: quanto possiamo davvero affidarci a ciò che leggiamo?

L’IA ha trovato terreno fertile proprio perché risponde a bisogni molto umani. Il bisogno di avere un chiarimento subito, senza orari né attese. Il bisogno di sentirsi meno soli mentre si affronta un dubbio. Il bisogno di farlo in un luogo “protetto”, dove non ci sentiamo esposti o giudicati.

Per alcuni è un modo per calmare un’ansia momentanea. Per altri, un primo passo prima di rivolgersi a un medico. Per molti, semplicemente una scorciatoia comoda. La verità è che queste tecnologie parlano la nostra lingua, usano un tono che sembra rassicurante, costruiscono risposte che danno l’impressione di essere precise e affidabili. Proprio per questo l’Europa ha deciso di intervenire, introducendo un quadro di regole che prova a riportare equilibrio in una dimensione che cresce più in fretta delle nostre consapevolezze.


È nato l'AI Act su intelligenza artificiale e salute

L’AI Act nasce per chiarire come debba comportarsi l‘intelligenza artificiale stessa quando entra in contatto con ambiti delicati come la salute. Un tema estremamente complesso, che abbiamo approfondito con l’aiuto del dottor Sergio Pillon, vicepresidente dell’Associazione Italiana Sanità Digitale e Telemedicina (Aisdet).

«L’AI Act classifica ogni utilizzo dell’IA in ambito sanitario come ad “alto rischio”. Eppure, non tutti gli impieghi presentano la stessa complessità o impatti simili», premette l’esperto.

«Se, per esempio, utilizzo l’intelligenza artificiale per definire il percorso del furgone che consegna i farmaci a casa del paziente, è davvero un uso ad alto rischio?». Per questo invita a riflettere su direttive che, pur nate per tutelare, rischiano talvolta di irrigidire eccessivamente l’innovazione.


Troppi consulti e risposte da non sopravvalutare

L’uso dell'intelligenza artificiale per un primo orientamento sanitario è incoraggiato dalla sua immediatezza. Ma questa velocità può trasformarsi in un’arma a doppio taglio.

Il dottor Pillon lo dice senza esitazioni: «Nessuna IA è affidabile. La valutazione deve sempre essere fatta dall’esperto».

E lo dimostra citando uno studio molto chiaro: interrogata da un medico, l’IA raggiunge il 92% di accuratezza. Ma se a porre la domanda è un paziente, la precisione crolla al 40%.

«Ci vuole un dottore per fare la domanda giusta», ribadisce, ricordando che un consulto digitale non dipende solo dalla qualità della risposta, ma soprattutto da quella del quesito che viene posto.


Il ruolo dei symptom checker

Nel mondo sanitario, però, l’IA non è solo ChatGPT. Esistono strumenti pensati per supportare il paziente nella descrizione dei sintomi, come i cosiddetti “symptom checker”.

Pillon cita il nome di uno dei più diffusi: «Si chiama Symptomate. Alcune aziende di telemedicina li usano per guidare il paziente verso un’analisi preliminare, mentre altre piattaforme li impiegano per aiutare il medico a raccogliere una prima anamnesi. Anche in questo caso, però, la regola non cambia: devono essere strumenti di supporto, non sostitutivi».


L’errore è mascherato da un’assoluta sicurezza

Uno dei pericoli principali dell’IA, secondo Pillon, è la capacità di fornire risposte sbagliate esprimendole però con grande sicurezza.

Racconta un episodio emblematico: ha analizzato con Gemini tre referti di laboratorio appartenenti allo stesso paziente. All’inizio l’IA è stata precisa e dettagliata, notando differenze tra gli esami e proponendo spunti interessanti. Ma quando è ha aggiunto una nuova informazione (il fatto che il paziente stesse assumendo un farmaco noto per causare gonfiore alle gambe), la risposta è stata completamente errata: «Mi ha detto che il farmaco non dà le gambe gonfie quando, invece, fra le sue controindicazioni presenta il gonfiore degli arti inferiori».

Un errore grave, perché presentato con totale sicurezza. Ed è per questo che Sergio Pillon definisce l’IA con una formula che dice molto: «È il mio giovane specializzando: aggiornato, brillante, ma con poca esperienza pratica». E aggiunge una frase che dovrebbe guidare qualunque utente: «Quello che non sa se lo inventa».

È proprio questo il motivo per cui le nuove regole europee vietano le diagnosi automatizzate e impongono trasparenza totale nell’uso dei dati sensibili, dei quali l'intelligenza artificiale si nutre per migliorare le proprie prestazioni: il paziente deve sapere cosa viene registrato, come e da chi. Le nuove norme non riguardano solo la parte clinica, ma anche la tutela del cittadino quando utilizza un chatbot.

L’AI Act intende rendere obbligatoria per tutti i sistemi di intelligenza artificiale maggiore chiarezza sul trattamento dei dati sanitari, limitazioni severe all’uso di informazioni biometriche e l’obbligo per l’utente di sapere quando sta dialogando con una macchina.


Intelligenza artificiale e salute: da maneggiare con cura

L’esperto mette in guardia anche dall’uso superficiale delle funzioni integrate nei motori di ricerca, come il recente AI-Mode di Google: «Non utilizzate direttamente il bottone AIMode. Prima fate la ricerca classica», suggerisce Pillon, ricordando che confrontare le informazioni è l’unico modo per evitare fraintendimenti.

Nonostante i rischi, il dottor Pillon riconosce che gli strumenti digitali possono migliorare l’accesso alle informazioni sanitarie e aiutare i pazienti ad avvicinarsi al medico con maggiore consapevolezza. Tuttavia, questo beneficio arriva soltanto se l’IA viene usata con equilibrio, spirito critico e una certa dose di prudenza.

«Si tratta di uno strumento che si affina, ma resta pur sempre uno strumento», spiega. Per questo, il punto non è evitare del tutto la tecnologia, ma capirne i limiti. L’IA può orientare, accompagnare e chiarire. Ma la responsabilità, e la cura, restano nelle mani degli esperti, umani.


I dispositivi smart

Orologi intelligenti, fasce cardio, sensori per il sonno: i dispositivi smart stanno diventando una piccola finestra quotidiana sul nostro stato di salute. Non sostituiscono il medico e non offrono diagnosi, ma raccolgono segnali che altrimenti ignoriamo: battiti accelerati nei momenti di stress, notti più frammentate del solito, passi che calano quando la stanchezza si fa sentire.

Usati con equilibrio, aiutano a riconoscere abitudini poco sane e a correggere il ritmo della giornata prima che il corpo lo chieda in modi più drastici. La loro forza non è dirci cosa abbiamo, ma ricordarci come stiamo. E spesso è già un buon inizio.

Leggi anche

Sperimentazioni nuovi farmaci: li prova l'intelligenza artificiale

Quando l'intelligenza artificiale sostituisce lo psicoterapeuta

Piano alimentare e 5 ricette con l'intelligenza artificiale: pro e contro

Stetoscopio con intelligenza artificiale per diagnosticare lo scompenso cardiaco

Come si fa la mappatura dei nevi con l'intelligenza artificiale