Szybkie przyjęcie sztucznej inteligencji w podstawowej opiece zdrowotnej budzi obawy dotyczące bezpieczeństwa
Od cyfrowych skrybów po ChatGPT – sztuczna inteligencja (AI) szybko trafia do praktyk podstawowej opieki zdrowotnej. Nowe badanie przeprowadzone na Uniwersytecie w Sydney ostrzega, że technologia ta wyprzedza kontrole bezpieczeństwa i naraża pacjentów i systemy opieki zdrowotnej na ryzyko. Badanie opublikowane w The Lancet Primary Care na podstawie danych ze Stanów Zjednoczonych, Wielkiej Brytanii, Australii,...
Szybkie przyjęcie sztucznej inteligencji w podstawowej opiece zdrowotnej budzi obawy dotyczące bezpieczeństwa
Od cyfrowych skrybów po ChatGPT – sztuczna inteligencja (AI) szybko trafia do praktyk podstawowej opieki zdrowotnej. Nowe badanie przeprowadzone na Uniwersytecie w Sydney ostrzega, że technologia ta wyprzedza kontrole bezpieczeństwa i naraża pacjentów i systemy opieki zdrowotnej na ryzyko.
Badanie opublikowane wOpieka podstawowa Lancetpodsumowano globalne spostrzeżenia na temat wykorzystania sztucznej inteligencji w podstawowej opiece zdrowotnej, wykorzystując dane ze Stanów Zjednoczonych, Wielkiej Brytanii, Australii, kilku krajów afrykańskich, Ameryki Łacińskiej, Irlandii i innych regionów. Ustalono, że narzędzia sztucznej inteligencji, takie jak ChatGPT, AI Scribes i aplikacje przeznaczone dla pacjentów, są coraz częściej wykorzystywane do zapytań klinicznych, dokumentacji i konsultacji z pacjentami, ale większość z nich jest używana bez dokładnej oceny lub nadzoru regulacyjnego.
Opieka podstawowa stanowi podstawę systemów opieki zdrowotnej, zapewniając dostępną i ciągłą opiekę. Sztuczna inteligencja może zmniejszyć presję na przeciążone usługi, ale bez zabezpieczeń ryzykujemy niezamierzone konsekwencje dla bezpieczeństwa pacjentów i jakości opieki”.
Profesor nadzwyczajny Liliana Laranjo, główny badacz, członek programu Horizon w Centrum Badań Stosowanych Westmead
Lekarze pierwszego kontaktu i pacjenci zwracają się w stronę sztucznej inteligencji, ale dowody na to są niewystarczające
Opieka podstawowa znajduje się pod presją na całym świecie, począwszy od niedoborów siły roboczej, przez wypalenie lekarzy, aż po rosnącą złożoność świadczenia opieki zdrowotnej, którą dodatkowo pogłębia pandemia Covid-19. Sztuczna inteligencja jest reklamowana jako rozwiązanie oferujące narzędzia oszczędzające czas poprzez konsolidację konsultacji, automatyzację administracji i wspieranie procesu decyzyjnego.
W Wielkiej Brytanii jeden na pięciu lekarzy pierwszego kontaktu zgłosił stosowanie generatywnej sztucznej inteligencji w praktyce klinicznej w 2024 r. Przegląd wykazał jednak, że większość badań nad sztuczną inteligencją w podstawowej opiece zdrowotnej opiera się na symulacjach, a nie na badaniach w świecie rzeczywistym, co pozostawia krytyczne luki w zakresie skuteczności, bezpieczeństwa i równości.
Liczba lekarzy pierwszego kontaktu korzystających z generatywnej sztucznej inteligencji w Australii nie jest wiarygodnie znana, ale szacuje się ją na 40%.
„Sztuczna inteligencja jest już dostępna w naszych klinikach, ale bez australijskich danych na temat liczby lekarzy pierwszego kontaktu z niej korzystających ani odpowiedniego nadzoru, jesteśmy ślepi, jeśli chodzi o bezpieczeństwo” – stwierdził profesor nadzwyczajny Laranjo.
Chociaż autorzy sztucznej inteligencji i technologie słuchania otoczenia mogą zmniejszyć obciążenie poznawcze i poprawić satysfakcję z pracy lekarzy pierwszego kontaktu, stwarzają one również ryzyko, takie jak błąd automatyzacji i utrata ważnych szczegółów społecznych lub biograficznych w dokumentacji medycznej.
„Nasze badanie wykazało, że wielu lekarzy pierwszego kontaktu korzystających ze skryptów AI nie chce wracać do pisania na klawiaturze. Twierdzą, że przyspiesza to konsultacje i pozwala im skupić się na pacjencie, ale narzędzia te mogą pomijać ważne dane osobowe i wprowadzać uprzedzenia” – powiedział profesor nadzwyczajny Laranjo.
W przypadku pacjentów narzędzia do sprawdzania objawów i aplikacje zdrowotne obiecują wygodę i spersonalizowaną opiekę, ale ich dokładność często jest różna, a wiele z nich nie ma możliwości niezależnej oceny.
„Modele generatywne, takie jak ChatGPT, mogą wydawać się przekonujące, ale są błędne” – powiedział profesor nadzwyczajny Laranjo. „Często zgadzają się z użytkownikami, nawet jeśli się mylą, co jest niebezpieczne dla pacjentów i trudne dla lekarzy”.
Zagrożenia dla sprawiedliwości i środowiska związane ze sztuczną inteligencją
Eksperci ostrzegają, że chociaż sztuczna inteligencja zapewnia szybsze diagnozy i spersonalizowaną opiekę, może również pogłębiać luki w stanie zdrowia w miarę wkradania się uprzedzeń. Na przykład narzędzia dermatologiczne często błędnie diagnozują ciemniejsze odcienie skóry, które zazwyczaj są niedostatecznie reprezentowane w zbiorach danych szkoleniowych.
Z drugiej strony badacze twierdzą, że sztuczna inteligencja, jeśli jest dobrze zaprojektowana, może wyeliminować rozbieżności: badanie dotyczące zapalenia stawów podwoiło liczbę czarnych pacjentów kwalifikujących się do endoprotezoplastyki stawu kolanowego dzięki zastosowaniu algorytmu wytrenowanego na zróżnicowanym zestawie danych, co pozwoliło lepiej przewidywać ból kolana zgłaszany przez pacjentów w porównaniu ze standardowymi odczytami rentgenowskimi wykonywanymi przez lekarzy.
„Ignorowanie czynników społeczno-ekonomicznych i uniwersalnego projektowania może spowodować, że sztuczna inteligencja w podstawowej opiece zdrowotnej zmieni się z przełomu w porażkę” – powiedział profesor nadzwyczajny Laranjo.
Koszty środowiskowe są również ogromne. Training GPT-3, wersja ChatGPT wydana w 2020 roku, wyemitowała ilości dwutlenku węgla odpowiadające 188 lotom między Nowym Jorkiem a San Francisco. Centra danych zużywają obecnie około 1 procent światowego zużycia energii elektrycznej, a w Irlandii centra danych odpowiadają za ponad 20 procent krajowego zużycia energii elektrycznej.
„Ślad środowiskowy sztucznej inteligencji stanowi wyzwanie” – powiedział profesor nadzwyczajny Laranjo. „Potrzebujemy zrównoważonego podejścia, które równoważy innowacje z równością i zdrowiem planety”.
Naukowcy wzywają rządy, klinicystów i twórców technologii do priorytetowego potraktowania:
- robuste Bewertung und reale Überwachung von KI-Tools
- Regulierungsrahmen, die mit der Innovation Schritt halten
- Schulung von Ärzten und der Öffentlichkeit zur Verbesserung der KI-Kenntnisse
- Strategien zur Voreingenommenheitsminderung, um Gerechtigkeit in der Gesundheitsversorgung sicherzustellen
- nachhaltige Praktiken zur Reduzierung der Umweltauswirkungen von KI.
„Sztuczna inteligencja oferuje możliwość przekształcenia podstawowej opieki zdrowotnej, ale innowacje nie mogą odbywać się kosztem bezpieczeństwa i równości” – stwierdził profesor nadzwyczajny Laranjo. „Potrzebujemy partnerstw międzybranżowych, aby zapewnić korzyści ze sztucznej inteligencji wszystkim – nie tylko osobom znającym się na technologii i dobrze wyposażonym”.
Źródła:
Laranjo, L.,i in.(2025). Sztuczna inteligencja w podstawowej opiece zdrowotnej: innowacja na rozdrożu.Opieka podstawowa Lancet. DOI: 10.1016/j.lanprc.2025.100078. https://www.thelancet.com/journals/lanprc/article/PIIS3050-5143(25)00078-0/fulltext