PHOTO
L’intelligenza artificiale varca ufficialmente la soglia degli studi medici con il lancio di “ChatGPT Salute”. Ma cosa succede quando un algoritmo inizia a interpretare referti e analisi del sangue? In questa intervista Filippo Anelli, presidente della federazione Nazionale degli Ordini dei Medici, mette in guardia dai facili entusiasmi, sottolineando come la responsabilità clinica e la tutela dei dati personali restino i pilastri invalicabili di un Sistema sanitario nazionale che non può essere sostituito da un intelligenza artificiale.


Presidente, ora che ChatGPT si mette a spiegare i referti, non teme che i pazienti smettano di ascoltarvi, arrivando in studio convinti di sapere già tutto? Come si gestisce chi si fida più di un algoritmo che del medico?
«È una sfida che in parte abbiamo già vissuto con il "Dottor Google". La rete offre molte informazioni, ma la medicina resta un’arte complessa: senza le giuste chiavi di lettura è difficile districarsi. Credo che il professionista resterà il punto di riferimento imprescindibile. Certamente avremo pazienti più consapevoli delle proprie preoccupazioni, ma proprio la complessità della materia richiederà sempre un dialogo diretto per decidere insieme la terapia più appropriata per quel singolo caso».
L’IA è sempre gentile e disponibile. Non c'è il rischio che un paziente deluso da un sistema sanitario in affanno finisca per legarsi più alla chat che a un medico in carne ed ossa?
«Anche qui la storia ci insegna qualcosa. Qualche decennio fa a Londra ci fu la sperimentazione Babylon Health, che offriva ai cittadini la scelta tra un algoritmo e un medico vero. Quell’esperienza dimostrò in modo inequivocabile che il rapporto umano regge molto più di quello con un computer. Quell'azienda alla fine è fallita: il legame che si crea tra medico e paziente è, in qualche modo, inossidabile».
Se l’IA prende un granchio e causa un danno, chi paga? Possiamo permetterci zone d’ombra sulla responsabilità legale nella salute?
«La legge italiana è chiara: un computer o un algoritmo non possono sostituire il medico. Farlo sarebbe una pratica illegale in Italia e in Europa. I cittadini devono comprendere che l’esercizio della professione richiede requisiti definiti dalla legge proprio a loro tutela. Su questo non possono esserci dubbi: è bene informarsi, ma non bisogna mai fidarsi ciecamente di una macchina».
Si dice che l’IA vi toglierà il lavoro sporco e la burocrazia, ma non è che alla fine diventerà solo un altro peso da gestire, un “doppione” di cui dovrete correggere gli errori a fine giornata?
«Il rischio è reale. Spesso le innovazioni digitali promettono di ridurci il lavoro e poi sortiscono l'effetto opposto. Anche l'utilizzo degli algoritmi richiede tempo e attenzione; l'IA non si gestisce da sola. Paradossalmente, l'impatto tecnologico richiederà un aumento del personale nel Servizio Sanitario Nazionale, non una riduzione. Se il tempo per interrogare e gestire l'IA sottrae minuti alla visita clinica, avremo bisogno di più medici per soddisfare i bisogni dei pazienti».
Mettere i propri dati clinici sui server di una multinazionale americana: come garante dei medici, non la spaventa questa gestione privata della salute?
«Al momento ritengo sia imprudente inserire dati personali, codici fiscali o indicazioni che possano rendere identificabile un cittadino su queste piattaforme. Attualmente non esiste una tutela sufficiente della privacy per questo tipo di operazioni. I nostri sistemi di controllo sono molto rigorosi e, allo stato attuale, ChatGPT non offre le garanzie necessarie per gestire i dati sensibili degli italiani in totale sicurezza».








