Autor: Urszula Szybowicz
Kategoria: Zgodność z regulacjami
Sztuczna inteligencja, choć przedstawiana często jako technologia przełomowa, w praktyce okazuje się coraz bardziej wymagająca niż zakładano. W wielu organizacjach – nie tylko medycznych – panuje przekonanie, że wdrożenie AI polega głównie na zakupie odpowiedniego rozwiązania i integracji z istniejącą infrastrukturą. Jednak rzeczywistość jest znacznie bardziej złożona. Z danych przedstawianych przez instytucje badawcze, takie jak RAND, MIT oraz Apollo Academy wynika, że 80–95% projektów AI kończy się niepowodzeniem lub nie przynosi oczekiwanego zwrotu.
Dla sektora ochrony zdrowia – obszaru, w którym liczy się bezpieczeństwo pacjenta, wiarygodność danych i precyzja decyzji klinicznych – jest to szczególnie alarmujące. Porażka wdrożenia AI nie oznacza jedynie strat finansowych. Może wpływać na jakość leczenia, obciążenie zespołów, organizację pracy i zaufanie pacjentów. W tym artykule analizujemy, dlaczego projekty związane ze sztuczną inteligencją tak często kończą się fiaskiem i co sektor zdrowia może zrobić, aby ten trend odwrócić.
Paradoksalnie to nie technologia, ale błędne założenia na etapie planowania są najczęstszą przyczyną niepowodzeń. Organizacje często ulegają presji digitalizacji lub trendów rynkowych, a decyzje o wdrożeniach zapadają bez wcześniejszego zdefiniowania prawdziwego problemu do rozwiązania.
W praktyce wygląda to tak: powstaje pomysł wdrożenia AI, bo „inni to robią”, a nie dlatego, że rozwiązanie odpowiada na realną potrzebę kliniczną czy organizacyjną. Tymczasem AI ma sens wyłącznie wtedy, kiedy pomaga rozwiązać konkretny problem, którego nie da się rozwiązać w sposób prostszy, tańszy i bardziej przewidywalny.
W ochronie zdrowia często obserwujemy próbę wdrażania AI do analizy obrazu lub predykcji ryzyka, mimo że dane nie są wystarczająco dobre, proces kliniczny nie jest ustabilizowany, albo system ma zastąpić coś, co nigdy nie było problemem. Bez precyzyjnej diagnozy potrzeby każda zaawansowana technologia może okazać się zbędna i nieefektywna.
Najlepsze algorytmy świata nie są w stanie działać prawidłowo, jeśli opierają się na danych niskiej jakości. To szczególnie istotne w medycynie, gdzie dane pacjentów są często niejednorodne, niepełne, różnią się formatem albo nie spełniają standardów interoperacyjności.
Z raportów RAND i MIT wynika, że to właśnie jakość danych jest głównym czynnikiem decydującym o sukcesie lub porażce projektu. Wiele placówek medycznych nie posiada uporządkowanych zbiorów, a dokumentacja tworzona przez lata w różnych systemach staje się wyzwaniem nie do pokonania dla zespołów wdrażających AI. Oznacza to, że organizacje często zaczynają budować zaawansowane rozwiązania na niestabilnym fundamencie.
Warto podkreślić, że zgodnie z AI Act odpowiedzialność za jakość danych spoczywa nie tylko na producencie, ale również na użytkowniku. Jeżeli szpital dostarcza algorytmowi dane wejściowe – musi być pewien, że są one odpowiednie, reprezentatywne i zgodne z przewidzianym zastosowaniem. To wymaga nowych procedur i nowych kompetencji.
Wiele organizacji zaczyna wdrożenia AI od wyboru narzędzia, a nie od analizy procesów. Zespoły kierują się tym, co jest „nowe”, „zaawansowane” lub „popularne”. Tymczasem sztuczna inteligencja jest tylko narzędziem – i to narzędziem, które działa najlepiej wtedy, gdy jest zastosowane do problemów, które są jasno zdefiniowane i dobrze zrozumiane.
W praktyce skutkuje to sytuacją, w której szpital kupuje system AI analizujący obrazy radiologiczne, mimo że największym problemem kliniki jest nie analiza obrazu, lecz brak wystandaryzowanego procesu opisywania badań albo zbyt duża rotacja specjalistów. Technologia nie rozwiązuje problemu, bo problem nie leży w technologii.
To zjawisko jest doskonale opisane w raporcie MIT, który wskazuje, że większość organizacji inwestuje w AI bez strategii, bez mapy procesów i bez analizy wykonalności. W rezultacie narzędzia są niedopasowane do potrzeb i nie przynoszą oczekiwanych efektów.
Sztuczna inteligencja nie funkcjonuje w próżni. Aby działała prawidłowo, potrzebuje:
Brak jednego z tych elementów może zahamować lub całkowicie zatrzymać wdrożenie. W wielu organizacjach infrastruktura IT nie jest przygotowana na pracę z dużymi modelami lub duże obciążenie obliczeniowe. Brakuje narzędzi do zarządzania danymi, standardów dokumentacji, procedur zgłaszania incydentów czy jasnego podziału odpowiedzialności.
W ochronie zdrowia dochodzi jeszcze złożoność procesów klinicznych, współpraca wielu jednostek oraz konieczność zachowania zgodności z regulacjami takimi jak RODO czy MDR. Wszystko to sprawia, że wdrożenie AI wymaga zupełnie nowego poziomu przygotowania organizacyjnego.
Jednym z bardziej zaskakujących wniosków płynących z badań jest to, że organizacje często próbują stosować AI do problemów, które nie są rozwiązane na poziomie teoretycznym, klinicznym lub organizacyjnym. Innymi słowy: oczekują od algorytmów rzeczy niemożliwych.
Dobrym przykładem jest próba wykorzystania modeli generatywnych do analizy treści klinicznych bez dostatecznego nadzoru. Modele te – choć niezwykle zaawansowane – mają tendencję do tworzenia treści wiarygodnych, lecz nieprawdziwych. W środowisku medycznym błędna treść nie jest tylko błędem – może być zagrożeniem dla pacjenta.
Inny przykład dotyczy radiologii. W wielu badaniach wykazano, że modele uczą się tzw. „shortcut learning”, czyli rozpoznawania nieistotnych cech obrazu, takich jak artefakty, oznaczenia czy różnice między aparatami, zamiast faktycznego sygnału klinicznego. W efekcie model działa dobrze w jednym środowisku, ale zawodzi po zmianie sprzętu lub populacji pacjentów.
Oczekiwanie, że AI będzie działać zawsze i wszędzie tak samo, jest jednym z najczęstszych źródeł rozczarowania.
Nawet najlepsza technologia nie zadziała, jeśli osoby ją obsługujące nie rozumieją jej działania. Według MIT, brak kompetencji wśród pracowników – zarówno tych operacyjnych, jak i decyzyjnych – jest jedną z głównych przyczyn niepowodzeń projektów AI.
AI wymaga nowego typu wiedzy:
Dla lekarzy, pielęgniarek czy menedżerów to duża zmiana. Technologie, które jeszcze kilka lat temu były ciekawostką, dziś stały się narzędziami pracy. Tymczasem większość zespołów nie przeszła żadnego profesjonalnego szkolenia z zakresu AI. Brak edukacji prowadzi do braku zaufania – a brak zaufania do porzucenia narzędzia.
System może być zgodny z prawem, ale to użytkownik decyduje, czy będzie z niego korzystał. Dlatego AI literacy jest jednym z kluczowych czynników powodzenia.
Organizacje często zakładają, że wdrożenie AI dotyczy technologii. W rzeczywistości dotyczy ono ludzi. Technologia zmienia sposób pracy, wpływa na odpowiedzialność, może budzić obawy, niepewność i stres. Pracownicy medyczni – szczególnie w radiologii, patomorfologii czy administracji – obawiają się, że AI ograniczy ich rolę, zmieni zakres obowiązków lub będzie ich oceniać.
Z psychologicznego punktu widzenia każda zmiana wymaga czasu, komunikacji i wsparcia. W organizacjach, które pomijają te aspekty, wdrożenia kończą się oporem, bierną postawą lub celowym omijaniem systemu. Tymczasem bez zaangażowania ludzi żadna transformacja technologiczna nie ma szans powodzenia.
Przede wszystkim konieczne jest odejście od myślenia, że sztuczna inteligencja jest „dodatkiem”. AI jest projektem strategicznym, który wpływa na procesy, role zawodowe, bezpieczeństwo, edukację i kulturę organizacyjną.
Sukces zaczyna się od:
Warto również pamiętać, że AI nie jest rozwiązaniem dla każdego problemu. Czasem najlepszym rozwiązaniem jest usprawnienie procesu lub automatyzacja prostych zadań, a nie wdrażanie zaawansowanego algorytmu.
Sztuczna inteligencja ma ogromny potencjał, ale wymaga dojrzałego podejścia. Statystyki pokazujące, że większość wdrożeń kończy się porażką, nie oznaczają, że technologia nie działa. Oznaczają, że organizacje nie są jeszcze przygotowane, a proces wdrożenia jest bardziej złożony, niż powszechnie się wydaje.
Dla sektora ochrony zdrowia AI nie jest wyborem – jest przyszłością. Jednak ta przyszłość musi być zbudowana na stabilnych fundamentach: danych, edukacji, procesach, odpowiedzialności i etyce. W przeciwnym razie nawet najbardziej zaawansowana technologia okaże się bezużyteczna.
W kolejnym artykule przyjrzymy się temu, jak klasyfikować i wdrażać systemy wysokiego ryzyka zgodnie z AI Act i MDR – oraz jakie praktyczne wyzwania stoją przed organizacjami medycznymi w tym obszarze.
Aby zapewnić najlepsze doświadczenia, używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam przetwarzać dane, takie jak sposób przeglądania strony lub unikalne identyfikatory użytkownika. Brak zgody lub jej wycofanie może negatywnie wpłynąć na niektóre funkcje i działanie strony.
