Autor: Urszula Szybowicz
Kategoria: Zgodność z regulacjami
Ochrona zdrowia stoi dziś przed największym skokiem technologicznym od czasu wprowadzenia tomografii komputerowej i systemów elektronicznej dokumentacji medycznej. Sztuczna inteligencja – zarówno predykcyjna, jak i generatywna – coraz śmielej wkracza do procesów diagnostycznych, terapeutycznych i organizacyjnych. Modele analizują obrazy radiologiczne, przewidują ryzyko zaostrzeń chorób przewlekłych, wspierają komunikację z pacjentem, optymalizują planowanie zasobów i automatyzują dokumentację kliniczną. Nigdy wcześniej medycyna nie korzystała z technologii, która potrafi przetworzyć tak ogromne ilości danych i w ułamku sekundy zaproponować wynik.
Ta rewolucja niesie jednak ze sobą poważne wyzwania. Modele potrafią halucynować, czyli tworzyć pozornie wiarygodne, ale nieprawdziwe treści. Mogą powielać uprzedzenia obecne w danych, błędnie klasyfikować pacjentów lub sugerować decyzje kliniczne bez wystarczającego uzasadnienia. Co więcej, rozwój technologii jest tak szybki, że wiele organizacji zdrowotnych – szczególnie tych największych – nie nadąża za tempem zmian. W efekcie według badań RAND ponad 80% projektów AI kończy się niepowodzeniem, a MIT wskazuje, że 95% rozwiązań generatywnych nie przynosi organizacjom realnego zwrotu.
W tym kontekście Unia Europejska zdecydowała się na krok, który zmieni globalny krajobraz technologiczny. Stworzyła AI Act – pierwsze na świecie całościowe prawo regulujące sztuczną inteligencję. Dla ochrony zdrowia to nie jest po prostu kolejna regulacja. To nowy fundament odpowiedzialności i bezpieczeństwa, który dotyka zarówno producentów technologii, jak i użytkowników, czyli placówki medyczne, organizacje zdrowia publicznego, jednostki diagnostyczne oraz firmy farmaceutyczne.
AI Act to efekt rosnącej potrzeby uporządkowania rynku sztucznej inteligencji. Przez ostatnie lata obserwowaliśmy niezwykle dynamiczny rozwój narzędzi, które zaczęły wpływać na decyzje mające konsekwencje dla zdrowia, finansów, wolności obywatelskich oraz funkcjonowania państwowych systemów. Technologie wprowadzane były często szybko, bez odpowiedniego nadzoru, dokumentacji i świadomości ryzyk. Wiele z nich działało jak „czarna skrzynka” – dawało wyniki, których nie dało się wyjaśnić ani zweryfikować.
AI Act powstał po to, aby przywrócić równowagę między innowacją a bezpieczeństwem. Jest to zbiór zasad, które mają chronić obywateli przed szkodliwymi decyzjami algorytmów, a organizacjom umożliwić wdrażanie technologii w sposób odpowiedzialny, zgodny z prawem i transparentny.
Jednym z najważniejszych założeń AI Act jest klasyfikacja systemów AI według poziomu ryzyka. W ochronie zdrowia nie ma wątpliwości: zdecydowana większość zastosowań sztucznej inteligencji będzie klasyfikowana jako systemy wysokiego ryzyka. Wynika to z faktu, że algorytmy w medycynie wpływają na życie i zdrowie pacjentów, a więc mogą powodować błędy o poważnych konsekwencjach.
System staje się „high-risk”, jeśli jest wyrobem medycznym lub jego komponentem, albo jeśli znajduje się na liście zastosowań, które – według unijnego prawodawcy – mogą wpływać na prawa podstawowe i bezpieczeństwo człowieka. Dotyczy to m.in. narzędzi wspierających diagnostykę, analizy obrazowe, modele predykcyjne oceniające ryzyko chorób, systemy triażu pacjentów czy oprogramowanie wspomagające decyzje terapeutyczne.
To oznacza, że AI Act obejmuje zarówno duże systemy kliniczne, jak i narzędzia administracyjne, które w sposób pośredni wpływają na opiekę nad pacjentem. Medycyna – bardziej niż jakakolwiek inna branża – potrzebuje głębokiej, etycznej i prawnej refleksji nad tym, jak odpowiedzialnie korzystać z AI.
Od producentów systemów AI wysokiego ryzyka wymaga się znacznie więcej niż do tej pory. Muszą oni udowodnić, że system jest bezpieczny, przejrzysty, stabilny, a dane treningowe pozyskano zgodnie z prawem i w sposób zapewniający ich jakość oraz reprezentatywność. Dokumentacja musi pozwalać użytkownikowi zrozumieć, jak działa system, jakie są jego ograniczenia, a także jakie ryzyka niesie jego stosowanie.
To właśnie producenci będą odpowiadać za stworzenie pełnego systemu zarządzania ryzykiem, opisanie algorytmu, przygotowanie instrukcji użytkowania, wprowadzenie nadzoru ludzkiego oraz zapewnienie zgodności z wymogami zasadniczymi. AI, które nie spełni tych warunków, nie otrzyma oznakowania CE, a więc nie będzie mogła być stosowana w Europie.
W praktyce oznacza to, że część firm technologicznych – szczególnie mniejsze podmioty bez odpowiednich procesów jakości – może nie być w stanie funkcjonować w nowym systemie prawnym. Przeżyją ci, którzy inwestują w transparentność, jakość i bezpieczeństwo.
AI Act po raz pierwszy w historii nakłada obowiązki również na użytkowników systemów AI – a więc na szpitale, przychodnie, instytuty badawcze, firmy farmaceutyczne oraz inne podmioty sektora zdrowia. To ogromna zmiana. Dotychczas odpowiedzialność za technologię leżała przede wszystkim po stronie producenta. Teraz użytkownicy muszą nie tylko wdrożyć system, ale także monitorować jego działanie, szkolić personel, sprawdzać jakość danych wejściowych, zgłaszać incydenty oraz zapewniać skuteczny nadzór człowieka.
W praktyce oznacza to, że instytucja medyczna będzie miała obowiązek udowodnić, że posiada kompetencje do korzystania z AI. Nie wystarczy „ustawić system i zapomnieć”. AI potrzebuje nadzoru, analizy, oceny jakości danych i regularnej kontroli wyników. To przesunięcie odpowiedzialności z producenta na użytkownika jest jednym z kluczowych elementów AI Act i wymaga od organizacji stworzenia zupełnie nowych procesów.
Jednym z najbardziej przełomowych elementów AI Act jest wprowadzenie obowiązku budowania kompetencji w zakresie sztucznej inteligencji. Ustawodawca nie narzuca, w jaki sposób organizacje mają szkolić personel, ale jasno wskazuje, że brak odpowiedniego przygotowania może prowadzić do naruszeń, które będą traktowane jako zaniedbanie.
AI literacy oznacza zrozumienie tego, jak działa technologia, jakie daje możliwości, a przede wszystkim jakie niesie ograniczenia i ryzyka. Pracownicy muszą nauczyć się rozpoznawać błędne wyniki, identyfikować uprzedzenia w danych, kwestionować rekomendacje algorytmu oraz zgłaszać wątpliwości. W świecie, w którym modele mogą halucynować lub wzmacniać istniejące nierówności, kompetencje użytkowników stają się jednym z najważniejszych filarów bezpieczeństwa.
AI Act sprawia, że brak wiedzy nie jest już tylko barierą rozwojową, ale realnym ryzykiem operacyjnym, które może prowadzić do błędów klinicznych, naruszeń prawa lub poważnych incydentów.
W ostatnich latach świat poznał technologię, która potrafi więcej niż jakiekolwiek wcześniejsze narzędzie cyfrowe. Jej siła tworzenia treści, analizowania danych i przewidywania trendów jest bezprecedensowa. Jednak równocześnie pojawiły się ogromne problemy: błędne diagnozy, zniekształcone rekomendacje, nieprzejrzyste algorytmy, nierówności w dostępie do usług i rosnące ryzyko naruszeń danych.
Dodatkowo badania RAND i MIT pokazują, że wdrożenia AI w większości przypadków nie przynoszą sukcesów. Przyczyną nie jest brak możliwości technologicznych, ale brak przygotowania organizacji, brak danych o odpowiedniej jakości, brak strategii oraz brak świadomości tego, jak złożonym zadaniem jest wprowadzanie AI do środowiska klinicznego. AI Act ma te problemy uporządkować i stworzyć warunki, w których AI faktycznie przynosi korzyści, a nie generuje kolejne ryzyka.
Wejście w życie AI Act zmieni sposób funkcjonowania organizacji medycznych. Po pierwsze, nastąpi wzrost odpowiedzialności i konieczność szczegółowego udokumentowania działań związanych z AI. Po drugie, wzrośnie jakość systemów oraz danych, które będą musiały spełniać nowe standardy. Po trzecie, organizacje będą musiały wprowadzić realny nadzór człowieka nad działaniem algorytmów, co wymaga zarówno procedur, jak i kompetencji.
Jednocześnie AI Act wymusi uporządkowanie procesów związanych z wdrażaniem technologii. Nie będzie już możliwe eksperymentowanie bez odpowiedniej dokumentacji czy kupowanie narzędzi AI bez analizy dostawcy. Organizacje będą musiały wdrożyć strategię AI, plan szkoleń, procedury nadzoru oraz system monitorowania incydentów.
Ta zmiana może wydawać się trudna, ale ma ogromny potencjał. Podmioty, które zainwestują w odpowiedzialne wdrożenia, zyskają przewagę konkurencyjną, zwiększą bezpieczeństwo pacjentów i zbudują kulturę organizacyjną opartą na zaufaniu i transparentności.
AI Act jest czymś więcej niż regulacją technologiczną. To akt kulturowy, który wymaga zmiany sposobu myślenia o technologii w ochronie zdrowia. Wprowadza zasady przejrzystości, bezpieczeństwa, odpowiedzialności i etyki, które mają chronić pacjenta, ale też wspierać organizacje w efektywnym wykorzystaniu innowacji.
Nowe regulacje powodują, że technologia staje się integralną częścią systemu ochrony zdrowia, ale jednocześnie pozostaje pod nadzorem człowieka. To właśnie człowiek – lekarz, pielęgniarka, decydent, administrator – staje się centrum tej transformacji. AI Act przypomina, że żadna technologia nie zastąpi zdrowego rozsądku, empatii, doświadczenia klinicznego i odpowiedzialności, które są fundamentem medycyny.
Artykuł ten otwiera nasz cykl poświęcony odpowiedzialnej sztucznej inteligencji w ochronie zdrowia. W kolejnym tekście zajmiemy się najważniejszym pytaniem: dlaczego aż 80–95% projektów AI kończy się porażką – i co sektor zdrowia może zrobić, aby zwiększyć skuteczność wdrożeń.
Aby zapewnić najlepsze doświadczenia, używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam przetwarzać dane, takie jak sposób przeglądania strony lub unikalne identyfikatory użytkownika. Brak zgody lub jej wycofanie może negatywnie wpłynąć na niektóre funkcje i działanie strony.
