Ultimo aggiornamento: 25 settembre 2025
Tempo di lettura: 12 minuti
Gli assistenti virtuali basati sulle IA stanno trasformando l’accesso alle informazioni mediche, offrendo in pochi secondi spiegazioni dettagliate e apparentemente accurate su sintomi, diagnosi e persino terapie. Questa immediatezza può sembrare un vantaggio, ma richiede sempre un approccio critico.
Sempre più persone, prima di varcare la soglia di uno studio medico o di un ospedale, cercano online spiegazioni su sintomi, malattie, terapie e prevenzione. Secondo le stime riportate dalla Commissione europea, oltre il 70% delle persone tra i 16 e i 74 anni in Europa ricerca informazioni sanitarie online almeno una volta l’anno. Tra di loro, una quota crescente utilizza assistenti virtuali per ottenere risposte rapide, anche su questioni delicate. Negli ultimi anni, accanto ai motori di ricerca tradizionali e alle loro aggiunte capacità di intelligenza artificiale, sono comparsi strumenti di dialogo che sembrano capaci di fornire risposte articolate a domande complesse. Si tratta dei chatbot basati su algoritmi di machine learning.
Se per diverso tempo Google è stato il portale d’accesso preferito per reperire le informazioni nel web, oggi ChatGPT e altri strumenti analoghi forniti da altre aziende si sono guadagnati un notevole seguito grazie alla loro capacità di conversare in linguaggio naturale, adattando concetti scientifici e non solo a diversi livelli di comprensione. In ambito sanitario, la possibilità di ottenere chiarimenti immediati di termini tecnici e di ricevere spiegazioni semplici e schematiche su diagnosi o procedure sembra una risorsa preziosa per ridurre l’incertezza. Tuttavia, questa indiscutibile comodità andrebbe bilanciata con la consapevolezza dei limiti intrinseci di questi strumenti. Si tratta di macchine in grado di elaborare risposte assemblando parole, in base ad analisi puramente statistiche di grandi masse di dati, senza che da parte loro ci sia alcuna reale comprensione né delle domande, né delle risposte. Inoltre tali macchine non conoscono (almeno per ora) la storia clinica individuale, non provano empatia, e non sostituiscono il giudizio medico. Un altro aspetto da considerare è che strumenti come ChatGPT possono conservare indefinitamente tutte le informazioni personali immesse al loro interno e sfruttarle in modi imprevedibili.
Come ogni innovazione, i chatbot portano con sé promesse e rischi, che vanno compresi per sfruttarne al meglio le potenzialità, difendendosi dai pericoli. Anche qualora le informazioni elaborate siano accurate e affidabili, l’eventuale beneficio dipende anche dal modo in cui una persona interpreta la risposta ricevuta. Tale interpretazione può variare in base allo stato emotivo, alla cultura e alla conoscenza pregressa, e persino alle aspettative riposte nella tecnologia. Per questo, se fino a poco tempo fa si metteva spesso in guardia dai rischi dell’affidarsi al dottor Google, ora lo stesso vale per il dottor ChatGPT. Peraltro, i due strumenti sono più simili di quanto si possa immaginare: i chatbot ricavano la maggior parte delle informazioni sfruttando i motori di ricerca, e i motori di ricerca stanno sempre più integrando funzionalità di intelligenza artificiale per tentare di arginare il calo dei propri utenti.
Alla base di sistemi come ChatGPT c’è un addestramento delle macchine su grandi raccolte di testi, scientifici e divulgativi. Questo consente agli strumenti di produrre risposte coerenti e discorsive, anche se spesso non c’è un accesso in tempo reale al web, quindi la freschezza dei dati dipende dall’ultimo aggiornamento. La potenza dei modelli di intelligenza artificiale, e in particolare dei cosiddetti Large Language Model (LLM), sta nella capacità di elaborare informazioni da diverse fonti, riformularle in modo comprensibile e sintetico, simulando un dialogo naturale. Questo li rende utili per spiegare procedure mediche, illustrare percorsi terapeutici oppure orientare verso linee guida. Per esempio, per dare una prima infarinatura sul tema.
Le applicazioni pratiche sono numerose: un paziente può chiedere il significato di un referto, un familiare può informarsi sugli effetti collaterali di un farmaco, un cittadino può ricevere indicazioni di massima sui controlli da effettuare in base all’età o a fattori di rischio. I chatbot possono anche proporre elenchi di domande da rivolgere al proprio medico, migliorando così la comunicazione durante le visite. Insomma, in contesti dove le risorse sanitarie sono limitate, possono rappresentare un primo filtro informativo, aiutando a individuare i casi che necessitano di attenzione immediata.
In un articolo scientifico pubblicato sulla rivista Nature Scientific Reports nel febbraio del 2024, gli autori hanno riportato i risultati di un’analisi in cui hanno paragonato le risposte date da ChatGPT rispetto a quelle date da esperti sul tumore del colon-retto. ChatGPT ha mostrato un’accuratezza elevata nelle risposte date, ma una completezza limitata. Ha raggiunto risultati eccellenti in ambiti come la radioterapia, la terapia interventistica, la cura dello stoma, la gestione venosa e il controllo del dolore, mentre ha performato meno bene su chirurgia, medicina interna e informazioni generali di base. La variabilità riscontrata suggerisce che i chatbot possano eccellere quando un argomento è ben rappresentato nei dati su cui i sistemi sono stati addestrati, e che incontrino invece difficoltà in aree più complesse o in evoluzione.
Un’indagine italiana, consultabile sulla rivista Dermatology Reports nel 2025, ha valutato l’uso di ChatGPT-4 in un corso di formazione medica sull’acne, confermando esiti simili. Il sistema ha ottenuto punteggi alti per qualità (87,8%), leggibilità (94,8%) e completezza (85,2%), con buona coerenza rispetto alle linee guida britanniche sull’acne vulgaris del National Institute for Health and Care Excellence (NICE). Tuttavia, l’accuratezza (75,7%) e l’aggiornamento delle fonti (62,3%) hanno mostrato margini di miglioramento, e la citazione di referenze non è sempre stata coerente nelle diverse sessioni del corso. In caso di temi controversi o con evidenze scientifiche discordanti, le prestazioni sono risultate inferiori, segno che l’IA tende a semplificare questioni complesse per renderle più lineari e comprensibili al punto da ridurre la qualità dei risultati. Come nota positiva, invece, in entrambi gli studi citati è stata registrata un’ottima riproducibilità interna delle risposte, superiore al 90% come indice di coerenza nella formulazione. Ciò, però, non garantisce che le risposte, pur coerenti, siano anche attendibili: un errore può essere ripetuto con la stessa precisione con cui si ripete un contenuto corretto.
Inoltre, resta il problema della mancanza di personalizzazione: i chatbot non accedono a dati clinici individuali, quindi possono solo formulare indicazioni generiche. C’è anche il rischio delle cosiddette allucinazioni, ossia informazioni inventate da questi sistemi e non segnalate come fittizie, ma spesso plausibili. Per esempio, un articolo pubblicato sulla rivista Annals of Internal Medicine ad agosto 2025 racconta il caso clinico di un’intossicazione da bromuro (bromismo) sviluppata da un paziente che si era affidato ai consigli alimentari di ChatGPT per ridurre il consumo di sale.
Il valore di queste ricerche sta nell’evidenziare aree di utilizzo dove i chatbot possono già essere di aiuto e quelle dove, invece, la supervisione umana resta imprescindibile. In oncologia, per esempio, potrebbero aiutare a chiarire concetti, a orientare tra opzioni terapeutiche o a preparare domande per lo specialista. Invece, non possono assolutamente definire un piano di cura individuale, e la loro efficacia dipende non solo dalla qualità tecnica del sistema di IA interpellato, ma anche dall’educazione digitale degli utenti, dalla capacità di porre domande precise e dal contesto di utilizzo.
Oltre all’oncologia, sistemi di intelligenza artificiale vengono già utilizzati per offrire aiuto e informazioni in altre aree della medicina, come per esempio la cardiologia, dove si possono trovare così consigli sul monitoraggio della pressione e del battito cardiaco. Nella gestione del diabete, possono suggerire piani alimentari e ricordare di effettuare le misurazioni della glicemia. In contesti di emergenza, alcuni assistenti digitali possono aiutare a valutare la gravità di sintomi respiratori o allergici, indirizzando rapidamente verso specialisti e cure adeguate. Nell’ambito della salute mentale, possono per esempio offrire tecniche di rilassamento o schede di auto-aiuto, ma è particolarmente importante usarlo con cautela. Lo mostra per esempio il tragico caso di un giovane sedicenne suicidatosi dopo aver chiesto informazioni pratiche a ChatGPT senza che questo lo avesse indirizzato a chiedere aiuto a familiari o a servizi di emergenza. Ad agosto 2025 i genitori hanno intentato una causa contro OpenAI, l’azienda proprietaria di ChatGPT, che ha dichiarato che il chatbot presenta dei limiti nelle sue risposte, nonostante l’allenamento a cui è stato sottoposto.
Un altro aspetto da tenere in considerazione è che questi strumenti appartengono a società private il cui fine è il profitto per gli azionisti, e non il bene comune o la salute individuale e pubblica. Le risposte offerte ai quesiti, seppure fluide e convincenti, talvolta possono essere influenzate da interessi economici o societari non dichiarati, non necessariamente evidenti a chi dialoga con un chatbot.
Quindi, l’IA potrebbe offrire contributi utili nella prevenzione e nella gestione di molte patologie, se utilizzato con cautela e purché le aziende proprietarie rafforzino le procedure di attenzione, tutela ed emergenza.
Verificare le informazioni con fonti attendibili, con linee guida e soprattutto con professionisti qualificati, dovrebbe essere un passo fondamentale dopo aver raccolto informazioni attraverso un chatbot. I diversi sistemi di IA possono infatti essere utili per un primo orientamento, per ricevere spiegazioni su termini tecnici o per ottenere un quadro generale, ma non possono sostituire la valutazione clinica da parte di esperti. Per migliorare la qualità delle risposte, in futuro questi sistemi dovranno per esempio integrarsi con banche dati certificate e aggiornate in tempo reale, offrire trasparenza sulle fonti utilizzate e sviluppare capacità di gestire i temi controversi senza semplificarli eccessivamente. Una personalizzazione sicura di questi strumenti, basata sul consenso degli utenti e su solide garanzie di privacy, potrebbe aumentare la rilevanza delle risposte senza compromettere la riservatezza. Andrà inoltre potenziata la capacità di distinguere tra dati consolidati e conoscenze emergenti, così da indicare chiaramente il grado di affidabilità di ogni informazione.
Un altro aspetto da non sottovalutare riguarda i potenziali effetti negativi per chi non ha le competenze per interagire correttamente con un chatbot sanitario. Formulare domande vaghe, usare termini ambigui o interpretare letteralmente ogni risposta può portare a decisioni sbagliate, come ritardare una visita urgente o seguire indicazioni inadatte alla propria condizione. Inoltre, un linguaggio tecnico non compreso appieno può generare paure o fraintendimenti, inducendo a credere di avere problemi più gravi del reale, o al contrario a sottovalutare sintomi preoccupanti. Senza un’adeguata educazione digitale e sanitaria, il rischio è che questi strumenti, anziché informare, alimentino confusione o comportamenti dannosi per la salute.
Insomma, se usati con consapevolezza, i chatbot possono diventare compagni di viaggio nell’informazione sanitaria: pronti a rispondere a ogni ora, capaci di spiegare termini complessi e di ridurre l’ansia legata all’incertezza. E certamente sono in rapidissima evoluzione anche in termini di performance. Ma la rotta va sempre tracciata con l’aiuto di chi, nella cura, unisce competenza, esperienza ed empatia.
Gianluca Dotti