Medici Chirurghi
ChatGPT e salute: opportunità clinica o rischio per il rapporto medico-paziente?
Con l’arrivo di ChatGPT Salute, il paziente diventa sempre più “intraprendente”. Ma chi governa davvero la decisione clinica?
OpenAI ha annunciato il 7 gennaio 2026 l’arrivo di ChatGPT Health, una nuova area, sul popolare chatbot, dedicata alle conversazioni di salute dove sarà possibile caricare cartelle cliniche collegandole con app di benessere (Apple Health, MyFitnessPal tra le altre) per dare agli utenti risposte personalizzate. Il salto rispetto a “Dottor Google” è evidente. A parlarne è il professor Franco Bassetto presidente della SICPRE e direttore della Clinica di Chirurgia Plastica dell’Università di Padova, che analizza limiti e potenzialità dell’AI in medicina, tra supporto alle decisioni e rischio di abuso mettendo un confine netto: l’intelligenza artificiale può aiutare il medico, ma non può sostituirne il giudizio.
Dall’autodiagnosi su Google all’era di ChatGPT Health
Per anni si è chiamata “diagnosi di Dottor Google”. Oggi l’autodiagnosi ha un volto più evoluto, risposte più strutturate e un linguaggio che rassicura. L’avvento di ChatGPT Health segna un salto di paradigma: il paziente non cerca più solo informazioni, ma conferme.

È in questo nuovo equilibrio, ancora instabile, che si inserisce la riflessione del professor Bassetto. «Indubbiamente ormai in qualsiasi dei nostri congressi si parla di intelligenza artificiale». Non come moda, ma come infrastruttura destinata a restare.
Nei contesti clinici complessi, come le breast unit, l’intelligenza artificiale mostra un impatto differenziato.
«Ho visto personalmente un apporto molto diverso che l’intelligenza artificiale può dare alle diverse specialità», spiega Bassetto, evidenziando come le discipline ad alta intensità tecnologica ne traggono maggiore beneficio rispetto a quelle fondate soprattutto su esperienza manuale e valutazione clinica.
Il confine invalicabile della responsabilità
Con l’arrivo di strumenti sempre più “intelligenti”, la tentazione di spostare il baricentro decisionale è reale. «Il confine critico è che nel rapporto medico paziente è importante la percezione della responsabilità», afferma Bassetto.
Il rischio non è tecnologico, ma culturale. «È assolutamente un grande rischio pensare che possa in qualche modo il medico delegare il giudizio clinico su un suo paziente ad un algoritmo», chiarisce, ribadendo che l’AI deve rimanere strumento e non soggetto della decisione.
Se il paziente diventa sempre più intraprendente, il medico rischia di essere schiacciato tra burocrazia e aspettative. Per questo Bassetto mette in guardia da un uso distorto della tecnologia. «L’intelligenza artificiale non deve servire per ridurre il tempo del rapporto medico paziente, anzi può essere l’opportunità per dedicare più tempo alla relazione», sottolinea.
Il fenomeno dell’autodiagnosi tra i pazienti non è però una novità. «Tra di noi parliamo proprio delle diagnosi di Dottor Google», racconta Bassetto. La differenza, oggi, è che l’intelligenza artificiale non si limita a elencare sintomi. «L’intelligenza artificiale è molto affascinante perché ti dà risposte articolate, coerenti, strutturate», rendendo più difficile per il paziente distinguere tra informazione e verità clinica, con il rischio di sottovalutare situazioni o entrare nella paranoia. L’intelligenza artificiale è accondiscendente, e se non “ben educata” rischia di inventare diagnosi o minimizzare sintomi emulando il “sentiment” di chi la utilizza.
Il lato oscuro: citazioni inventate e falsa autorevolezza
Spesso è proprio la fantasia a prendere il sopravvento: pubblicazioni mai esistite, fonti non verificate. Il rischio più grosso per un paziente è trovarsi di fronte a dati non confutati che mettono a rischio l’autorevolezza dell’informazione: «Ci sono dei rischi enormi con l’intelligenza artificiale perché può inventare addirittura pubblicazioni scientifiche», avverte Bassetto, richiamando casi concreti di citazioni inesistenti.
Da questa criticità nasce una riflessione netta sulle competenze. «Io sono convinto che l’intelligenza artificiale servirà a creare un ulteriore divario tra quelli con poca esperienza, i medi e i bravi», perché solo chi ha formazione ed esperienza è in grado di intercettare errori, bias e scorciatoie.
Non c’è però demonizzazione. L’intelligenza artificiale, se ben governata, può diventare una spinta in avanti. «Può fare un’analisi dettagliata della letteratura e fornire questo supporto al chirurgo», spiega il professore. «Mi fa perdere molto meno tempo burocratico», afferma, indicando come l’AI possa restituire spazio alla cura e prevenire errori di percorso. «Migliorare l’efficienza non vuol dire fare più visite all’interno dell’ora, vuol dire cercare di ritornare ai giusti tempi».
Prosegue portando un esempio:«Mi è capitato nella vita di fare da consulente da CTU, in situazioni processuali nelle quali un paziente muore di metastasi di melanoma, perché non era mai andato a ritirare l’esame istologico», sottolineando come una gestione inefficace dei percorsi clinici, in cui qualche paziente sfugge al follow up, sfugge alla lettura dell’esame istologico, possa avere conseguenze irreversibili.
«Il chirurgo deve restare in sala operatoria, ma io oggi ho quasi 300 email da leggere al giorno, quindi o rispondo alle mail o sto in sala operatoria, ma il mio lavoro è di chirurgo, quindi io devo stare, sul paziente, usare il bisturi e delegare le tecnologie per alleggerirmi dalla burocrazia».
AI: un’altra prospettiva nella ricerca scientifica
Nel dibattito sull’intelligenza artificiale applicata alla salute, esiste un terreno in cui la tecnologia può trovare un’altra collocazione meno conflittuale: quello della second opinion. «La decisione finale di qualsiasi processo diagnostico spetta sempre e comunque al medico», chiarisce il professor Bassetto, riportando la questione su un piano di responsabilità chiara, ma come racconta il presidente SICPRE, la second opinion non è un’eccezione, semmai una consuetudine già esistente in medicina.

Il riferimento è a pratiche consolidate, come quelle dell’anatomia patologica. «Ho una diagnosi di melanoma che mi hanno fatto in anatomia patologica a Padova», spiega, descrivendo casi in cui il paziente o il medico decidono di confrontare il referto con un altro centro. «Succede che sono di Bologna, il mio medico di base mi dice, sentiamo anche i nostri anatomopatologi».
In questo schema, l’intelligenza artificiale può inserirsi come ulteriore strato di analisi. «Questa second opinion può essere fornita dall’intelligenza artificiale, forse sì», osserva Bassetto.
«Io l’ho visto per esempio nei radiologi», dove l’AI può essere utilizzata per orientarsi tra le molteplici ipotesi che un’immagine diagnostica può generare. «Se io ho un nodulo dentro a un polmone, l’intelligenza artificiale ti dà tutta una serie di caratteristiche di quel nodulo», aiutando a restringere il campo.
In questo equilibrio, la crescente intraprendenza del paziente alimentata da strumenti come ChatGPT Health trova un limite naturale: l’interpretazione. L’algoritmo può analizzare, confrontare, suggerire. Ma resta il medico a leggere il dato alla luce della storia clinica, delle comorbidità, del contesto e delle conseguenze reali di una scelta.
Insomma l’AI è e deve restare uno strumento in mano al professionista, come un bisturi. «Il bisturi è una cosa pericolosa se in mano a una persona inesperta», afferma il professore. «L’intelligenza artificiale è la stessa cosa. Ben venga nell’ambito del sistema sanitario nazionale, nella sburocratizzazione, nel rendere più semplici i percorsi, ma non certo nella diagnostica. – conclude Bassetto – Io però sono un ottimista, spero che l’intelligenza artificiale non serva al mediocre per giustificare la sua mediocrità, ma sia utilizzata dall’eccellente, dall’esperto, dall’autorevole, per dare ulteriore autorevolezza al suo pensiero».