La rapida adozione dell’intelligenza artificiale nelle cure primarie solleva preoccupazioni in termini di sicurezza

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Dagli scribi digitali a ChatGPT, l'intelligenza artificiale (AI) si sta rapidamente facendo strada nelle pratiche di assistenza primaria. Un nuovo studio dell’Università di Sydney avverte che la tecnologia sta superando i controlli di sicurezza e mettendo a rischio i pazienti e i sistemi sanitari. Lo studio, pubblicato su The Lancet Primary Care, si basa su dati provenienti da Stati Uniti, Regno Unito, Australia,...

La rapida adozione dell’intelligenza artificiale nelle cure primarie solleva preoccupazioni in termini di sicurezza

Dagli scribi digitali a ChatGPT, l'intelligenza artificiale (AI) si sta rapidamente facendo strada nelle pratiche di assistenza primaria. Un nuovo studio dell’Università di Sydney avverte che la tecnologia sta superando i controlli di sicurezza e mettendo a rischio i pazienti e i sistemi sanitari.

Lo studio, pubblicato inThe Lancet Primary Careha riepilogato gli approfondimenti globali sul modo in cui l’IA viene utilizzata nelle cure primarie utilizzando dati provenienti da Stati Uniti, Regno Unito, Australia, diversi paesi africani, America Latina, Irlanda e altre regioni. È emerso che gli strumenti di intelligenza artificiale come ChatGPT, AI Scribes e le app rivolte ai pazienti vengono sempre più utilizzati per domande cliniche, documentazione e consultazione dei pazienti, ma la maggior parte viene utilizzata senza una valutazione approfondita o una supervisione normativa.

L’assistenza primaria è la spina dorsale dei sistemi sanitari, poiché fornisce assistenza accessibile e continua. L’intelligenza artificiale può alleviare la pressione sui servizi sovraccarichi, ma senza garanzie rischiamo conseguenze indesiderate per la sicurezza dei pazienti e la qualità delle cure”.

Professoressa associata Liliana Laranjo, ricercatrice principale, Horizon Fellow presso il Westmead Applied Research Center

Medici di base e pazienti si rivolgono all’intelligenza artificiale, ma le prove sono in ritardo

L’assistenza primaria è sotto pressione in tutto il mondo, dalla carenza di forza lavoro all’esaurimento dei medici fino alla crescente complessità dell’erogazione dell’assistenza sanitaria, esacerbata dalla pandemia di COVID-19. L’intelligenza artificiale viene pubblicizzata come una soluzione, con strumenti che fanno risparmiare tempo consolidando le consultazioni, automatizzando l’amministrazione e supportando il processo decisionale.

Nel Regno Unito, un medico di famiglia su cinque ha riferito di utilizzare l’intelligenza artificiale generativa nelle pratiche cliniche nel 2024. Tuttavia, la revisione ha rilevato che la maggior parte degli studi sull’intelligenza artificiale nelle cure primarie si basano su simulazioni piuttosto che su studi nel mondo reale, lasciando lacune critiche in termini di efficacia, sicurezza ed equità.

Il numero di medici di base che utilizzano l’intelligenza artificiale generativa in Australia non è noto in modo affidabile, ma è stimato al 40%.

“L’intelligenza artificiale è già nelle nostre cliniche, ma senza i dati australiani su quanti medici di base la utilizzano, o senza un’adeguata supervisione, stiamo volando alla cieca quando si tratta di sicurezza”, ha affermato il professore associato Laranjo.

Se da un lato gli scribi dell’intelligenza artificiale e le tecnologie di ascolto ambientale possono ridurre il carico cognitivo e migliorare la soddisfazione lavorativa dei medici di base, dall’altro comportano anche rischi quali pregiudizi legati all’automazione e la perdita di importanti dettagli sociali o biografici nelle cartelle cliniche.

"Il nostro studio ha scoperto che molti medici di base che utilizzano gli scribi dell'intelligenza artificiale non vogliono tornare a scrivere. Dicono che questo accelera le consultazioni e consente loro di concentrarsi sui pazienti, ma questi strumenti possono perdere importanti dettagli personali e introdurre errori", ha detto il professore associato Laranjo.

Per i pazienti, i dispositivi di controllo dei sintomi e le app sanitarie promettono comodità e cure personalizzate, ma la loro precisione spesso varia e molti non hanno l’opportunità di una valutazione indipendente.

"I modelli generativi come ChatGPT possono sembrare convincenti, ma di fatto sono errati", ha affermato il professore associato Laranjo. “Spesso sono d’accordo con gli utenti anche quando hanno torto, il che è pericoloso per i pazienti e impegnativo per i medici”.

Giustizia e rischi ambientali dell’IA

Gli esperti avvertono che, sebbene l’intelligenza artificiale prometta diagnosi più rapide e cure personalizzate, può anche approfondire le lacune sanitarie man mano che si insinuano pregiudizi. Ad esempio, gli strumenti dermatologici spesso diagnosticano erroneamente le tonalità della pelle più scure, che sono generalmente sottorappresentate nei set di dati di addestramento.

Al contrario, i ricercatori affermano che, se ben progettata, l’intelligenza artificiale può affrontare le disparità: uno studio sull’artrite ha raddoppiato il numero di pazienti neri idonei per la sostituzione del ginocchio utilizzando un algoritmo addestrato su un set di dati diversificato, rendendolo più efficace nel prevedere il dolore al ginocchio riferito dal paziente rispetto alle letture radiografiche standard dei medici.

“Ignorare i fattori socioeconomici e la progettazione universale potrebbe portare l’intelligenza artificiale nelle cure primarie a passare da una svolta a una battuta d’arresto”, ha affermato il professore associato Laranjo.

Anche i costi ambientali sono enormi. L'addestramento GPT-3, la versione di ChatGPT rilasciata nel 2020, ha emesso quantità di anidride carbonica equivalenti a 188 voli tra New York e San Francisco. I data center oggi consumano circa l’1% del consumo elettrico globale e in Irlanda sono responsabili di oltre il 20% del consumo elettrico nazionale.

“L’impronta ambientale dell’intelligenza artificiale è impegnativa”, ha affermato il professore associato Laranjo. “Abbiamo bisogno di approcci sostenibili che bilancino l’innovazione con l’equità e la salute planetaria”.

I ricercatori esortano i governi, i medici e gli sviluppatori di tecnologia a dare priorità a:

  • robuste Bewertung und reale Überwachung von KI-Tools
  • Regulierungsrahmen, die mit der Innovation Schritt halten
  • Schulung von Ärzten und der Öffentlichkeit zur Verbesserung der KI-Kenntnisse
  • Strategien zur Voreingenommenheitsminderung, um Gerechtigkeit in der Gesundheitsversorgung sicherzustellen
  • nachhaltige Praktiken zur Reduzierung der Umweltauswirkungen von KI.

“L’intelligenza artificiale offre l’opportunità di rimodellare l’assistenza primaria, ma l’innovazione non deve andare a scapito della sicurezza o dell’equità”, ha affermato il professore associato Laranjo. “Abbiamo bisogno di partenariati intersettoriali per garantire che l’intelligenza artificiale avvantaggi tutti, non solo gli esperti di tecnologia o i ben attrezzati”.


Fonti:

Journal reference:

Laranjo, L.,et al.(2025). Intelligenza artificiale nelle cure primarie: innovazione a un bivio.The Lancet Primary Care. DOI: 10.1016/j.lanprc.2025.100078. https://www.thelancet.com/journals/lanprc/article/PIIS3050-5143(25)00078-0/fulltext