Obowiązki dostawców i użytkowników systemów AI według AI Act. Ryzyko odpowiedzialności i konsekwencje. cz. 2

Autor: Karolina Liszka

Wsparcie merytoryczne: Filip Ludwin

Kategoria: Regulacje/ISO 42001

W poprzedniej części artykułu przyjrzeliśmy się temu, czym są systemy AI wysokiego ryzyka w rozumieniu AI Act, jak przebiega ich klasyfikacja oraz dlaczego to właśnie ta kategoria znajduje się w centrum unijnej regulacji. Jeśli chcesz wrócić do tych podstaw, pierwszą część znajdziesz tutaj: Systemy AI „high-risk” (wysokiego ryzyka) w rozumieniu AI Act. Co trzeba wiedzieć?

Skoro wiemy już, kiedy i dlaczego system AI zostaje uznany za wysokiego ryzyka, kolejnym krokiem jest odpowiedź na pytanie, co ta kwalifikacja oznacza w praktyce dla organizacji, które takie systemy tworzą i wykorzystują.

AI Act nie poprzestaje na ogólnych zasadach. Wprowadza konkretny podział odpowiedzialności pomiędzy dostawców i użytkowników systemów AI wysokiego ryzyka oraz precyzuje warunki, które muszą zostać spełnione, aby takie systemy mogły być legalnie stosowane na rynku UE. Odpowiedzialność ta obejmuje cały cykl życia systemu – od danych i dokumentacji, przez wdrożenie, po bieżący nadzór i reagowanie na incydenty.

W tej części przyjrzymy się:

  • jakie obowiązki spoczywają na dostawcach systemów AI wysokiego ryzyka,
  • jakie wymagania dotyczą organizacji, które z takich systemów korzystają,
  • oraz jakie konsekwencje prawne, finansowe i operacyjne może mieć brak dostosowania się do wymogów AI Act.

To właśnie na tym poziomie rozporządzenie przestaje być jedynie regulacją, a zaczyna realnie wpływać na sposób projektowania, wdrażania i zarządzania systemami AI w organizacjach.

Obowiązki dostawców systemów AI wysokiego ryzyka

  • System zarządzania ryzykiem: Dostawca musi wprowadzić system zarządzania ryzykiem, który identyfikuje, ocenia i ogranicza ryzyka związane z działaniem systemu AI, zapewniając jego bezpieczeństwo przez cały cykl życia.
  • System zarządzania jakością: Wdrożenie systemu zarządzania jakością obejmującego kontrolę procesów projektowania, testowania, monitorowania oraz reagowania na błędy i incydenty, zapewniając stabilność i niezawodność systemu AI.
  • Dane i zarządzanie danymi (data governance): Zarządzanie danymi obejmuje zapewnienie, że dane używane do treningu systemów AI są odpowiednie, reprezentatywne, wysokiej jakości i pozbawione stronniczości, co zapewnia dokładność wyników.
  • Dokumentacja techniczna: Dostawca musi przygotować pełną dokumentację techniczną, która zawiera opis działania systemu AI, zastosowane technologie, wyniki testów oraz ocenę ryzyka, umożliwiającą organom nadzoru kontrolowanie zgodności z AI Act.
  • Przejrzystość działania systemu dla użytkownika: Systemy AI wysokiego ryzyka muszą być zaprojektowane w sposób umożliwiający użytkownikom zrozumienie ich funkcji i ograniczeń, co pozwala na świadome i bezpieczne ich wykorzystanie.
  • Instrukcja korzystania z systemu: Dostawcy muszą dostarczyć szczegółowe instrukcje użytkowania systemu, zawierające zasady prawidłowego stosowania, ostrzeżenia o ryzykach oraz informacje o wymaganym nadzorze człowieka.
  • Informowanie, jak AI generuje wyniki: Użytkownicy muszą być informowani o tym, jak system AI generuje swoje wyniki, aby mogli zrozumieć podstawy decyzji, przewidywań i rekomendacji, oraz ich potencjalne ograniczenia.
  • Nadzór człowieka nad działaniem AI: AI wysokiego ryzyka musi umożliwiać skuteczny nadzór człowieka, dając mu możliwość ingerencji w działanie systemu, zwłaszcza w przypadku błędów lub nieprawidłowych decyzji.
  • Odporność, dokładność i bezpieczeństwo: Dostawca musi zapewnić, że system AI jest odporny na błędy, działa dokładnie i bezpiecznie, spełniając określone normy w zakresie stabilności, bezpieczeństwa oraz ochrony przed manipulacjami.
  • Ocena zgodności z wymogami AI Act: Przed wprowadzeniem systemu AI na rynek, dostawca musi przeprowadzić ocenę zgodności z wymogami AI Act, by upewnić się, że spełnia wszystkie wymagania prawne dotyczące bezpieczeństwa, jakości i przejrzystości.

Obowiązki użytkowników systemów AI wysokiego ryzyka

  • Wdrożenie i nadzór człowieka: Użytkownik musi zapewnić realny nadzór nad systemem AI przez osoby posiadające odpowiednie kompetencje, przeszkolenie oraz umocowanie decyzyjne w organizacji, tak aby możliwa była skuteczna interwencja w razie błędnego działania systemu.
  • Środki techniczne i organizacyjne: Organizacja jest zobowiązana wdrożyć odpowiednie środki techniczne i organizacyjne, które zapewnią korzystanie z systemu AI zgodnie z instrukcją dostarczoną przez producenta (IFU) i w przewidzianym zakresie zastosowania.
  • Jakość danych wejściowych: W zakresie, w jakim użytkownik kontroluje dane wejściowe, musi on zapewnić, że dane te są odpowiednie, aktualne i wystarczająco reprezentatywne w kontekście celu, do którego system AI jest wykorzystywany.
  • Monitorowanie działania systemu: Użytkownik powinien na bieżąco monitorować działanie systemu AI zgodnie z IFU oraz reagować na nieprawidłowości, w tym przekazywać dostawcy istotne informacje dotyczące funkcjonowania systemu.
  • Reakcja na ryzyko: Jeżeli korzystanie z systemu AI zgodnie z IFU stwarza ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych, użytkownik ma obowiązek niezwłocznie wstrzymać jego użycie oraz poinformować o tym dostawcę, importera, dystrybutora i właściwe organy nadzorcze.
  • Zgłaszanie poważnych incydentów: Każdy poważny incydent związany z działaniem systemu AI musi zostać niezwłocznie zgłoszony dostawcy, importerowi, dystrybutorowi oraz właściwym krajowym organom nadzorczym.
  • Odporność i cyberbezpieczeństwo: Użytkownik powinien monitorować skuteczność środków zapewniających odporność i cyberbezpieczeństwo systemu AI oraz regularnie je aktualizować, uwzględniając inne obowiązujące regulacje, takie jak RODO, NIS 2 czy przepisy dotyczące infrastruktury krytycznej.
  • Przechowywanie logów: Użytkownik jest zobowiązany do przechowywania logów operacji wykonywanych przez system AI przez co najmniej 6 miesięcy, chyba że inne przepisy wymagają dłuższego okresu przechowywania.

Ryzyko odpowiedzialności – konsekwencje braku zgodności z AI Act

AI Act ustanawia jedne z najbardziej rygorystycznych ram prawnych dla systemów sztucznej inteligencji na świecie, ze szczególnym naciskiem na systemy wysokiego ryzyka. Niezastosowanie się do tych wymogów nie jest traktowane jako drobne uchybienie formalne – to realne naruszenie prawa unijnego, które może pociągać za sobą konsekwencje finansowe, administracyjne i cywilne.

Co istotne, odpowiedzialność nie dotyczy wyłącznie twórców technologii. W określonych sytuacjach obejmuje również podmioty wdrażające i wykorzystujące systemy AI.

Kary finansowe

AI Act przewiduje system sankcji finansowych uzależniony od rodzaju naruszenia oraz skali działalności organizacji. W przypadku naruszeń związanych z obowiązkami dotyczącymi systemów wysokiego ryzyka – takich jak brak oceny zgodności czy niespełnienie wymogów organizacyjnych – maksymalna kara może wynieść do 15 milionów euro lub do 3% rocznego światowego obrotu przedsiębiorstwa, w zależności od tego, która wartość jest wyższa.

Dodatkowe sankcje mogą zostać nałożone m.in. wtedy, gdy organizacja:

  • nie przeprowadziła wymaganej oceny zgodności systemu AI,
  • nie zarejestrowała systemu w unijnej bazie danych,
  • zignorowała obowiązki dotyczące transparentności, dokumentacji lub nadzoru nad działaniem systemu.

W praktyce oznacza to, że brak zgodności proceduralnej może być traktowany równie poważnie jak samo ryzykowne działanie systemu.

Odpowiedzialność administracyjna

Poza karami finansowymi organy nadzorcze dysponują również środkami o charakterze administracyjnym. Mogą one obejmować m.in.:

  • zakaz wprowadzania systemu AI na rynek UE lub zakaz jego dalszego użytkowania,
  • nakaz wycofania produktu albo zaprzestania określonego zastosowania systemu,
  • zawieszenie lub cofnięcie rejestracji systemu w unijnej bazie danych, co w praktyce uniemożliwia jego legalne oferowanie lub stosowanie.

Są to środki, które mogą mieć bezpośredni wpływ na ciągłość działalności biznesowej, zwłaszcza w sektorach regulowanych.

Odpowiedzialność cywilna

Brak zgodności z AI Act nie kończy się na relacji z organem nadzoru. W określonych przypadkach może on również otwierać drogę do roszczeń cywilnych ze strony osób lub podmiotów, które poniosły szkodę w wyniku działania systemu AI.

Może to obejmować:

  • obowiązek wypłaty odszkodowania, jeżeli system AI doprowadził do nieuzasadnionej decyzji lub realnej szkody (np. błędnej diagnozy medycznej, niesłusznej odmowy kredytu),
  • odpowiedzialność za skutki działania systemu, jeżeli organizacja nie zapewniła odpowiedniego nadzoru, kontroli lub zarządzania ryzykiem.

AI Act wzmacnia tu zasadę, że wdrożenie AI nie zwalnia z odpowiedzialności – wręcz przeciwnie, nakłada obowiązek szczególnej staranności.

Utrata reputacji

Poza konsekwencjami formalnymi istnieje jeszcze jeden wymiar, często najbardziej dotkliwy w dłuższej perspektywie: utrata zaufania.

Nieprzestrzeganie AI Act może prowadzić do:

  • osłabienia zaufania klientów, partnerów i inwestorów,
  • zwiększonej ostrożności regulatorów przy kolejnych projektach,
  • utraty możliwości udziału w przetargach publicznych lub projektach finansowanych ze środków unijnych.

Zgodność z AI Act nie sprowadza się wyłącznie do unikania kar. W swoim założeniu rozporządzenie ma ograniczać ryzyko szkód społecznych, prawnych i etycznych, zanim one wystąpią. Organizacje, które traktują te wymogi jako element odpowiedzialnego zarządzania technologią, zyskują nie tylko bezpieczeństwo prawne, ale też trwałą podstawę do dalszego rozwoju.

Podsumowanie

Brak zgodności z AI Act w przypadku systemów AI wysokiego ryzyka nie jest wyłącznie naruszeniem formalnym, lecz realnym źródłem odpowiedzialności prawnej i biznesowej. AI Act wprowadza wielopoziomowy reżim sankcji, który obejmuje kary finansowe, środki administracyjne oraz pośrednio zwiększa ryzyko odpowiedzialności cywilnej, szczególnie w przypadku szkód wyrządzonych przez systemy AI.

Zarządzanie zgodnością z AI Act staje się więc elementem zarządzania ryzykiem organizacyjnym – zaniedbania w zakresie oceny ryzyka, dokumentacji czy nadzoru nad systemem AI mogą prowadzić do konsekwencji, które wykraczają daleko poza samą technologię.

Do góry