Autor: Tomek Mostowski
Konsultacja merytoryczna: Ireneusz Wochlik
Kategoria: Praktyczne zastosowania AI
AI Act to nie tylko nowe przepisy – to początek nowej ery odpowiedzialności w świecie sztucznej inteligencji. W tym artykule tłumaczymy, czym jest to rozporządzenie, jak wpływa na firmy i co warto zrobić już teraz, by działać zgodnie z prawem i ze spokojem.
Jeszcze kilka lat temu sztuczna inteligencja była dla wielu firm raczej hasłem z konferencji niż realnym narzędziem zmiany. Wdrażana była głównie w firmach dużych i technologicznie zaawansowanych. Dziś? Pojawia się w procesach rekrutacyjnych, wspiera diagnozy medyczne, decyduje o przyznaniu kredytu, a nawet ocenia efektywność pracowników. I właśnie dlatego Unia Europejska powiedziała: czas na zasady.
AI Act to nie kolejny dokument, który trafi do szuflady z napisem „prawo unijne – może kiedyś”. To punkt zwrotny – pierwsze na świecie rozporządzenie, które wprost reguluje zasady tworzenia, wdrażania i użytkowania systemów sztucznej inteligencji w krajach Unii Europejskiej.
Oficjalnie: AI Act to Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689. Ale zamiast czytać go jak skomplikowany akt prawny, warto zrozumieć go jako próbę odpowiedzi na bardzo proste, ale fundamentalne pytanie:
Kiedy AI nam pomaga, a kiedy może nam zagrozić?
Dlatego też AI Act nie ocenia samej technologii, ale kontekst, w jakim jest używana. I właśnie na tym bazuje jego kluczowe założenie – podejście oparte na ryzyku. Inaczej mówiąc: im większy wpływ danego systemu AI na życie i prawa człowieka, tym surowsze przepisy i wymagania.
Co istotne, to nie jest wyłącznie dokument dla dostawców technologii. AI Act obejmuje wszystkie podmioty zaangażowane w cykl życia systemu AI – od twórców, przez importerów i dystrybutorów, aż po firmy, które po prostu używają gotowych rozwiązań na co dzień.
To prawo, które pyta nie tylko „czy potrafisz używać AI?”, ale też: „czy potrafisz za nie wziąć odpowiedzialność?”
Zanim zaczniemy mówić o obowiązkach i sankcjach, trzeba zrozumieć podstawy. Bo w AI Act nic nie jest „ogólne” – każda technologia ma swoje miejsce w uporządkowanym systemie ryzyka. To właśnie ta klasyfikacja decyduje, co firma musi zrobić, by działać zgodnie z prawem.
Niedopuszczalne ryzyko
Niektóre systemy AI zostały uznane za zbyt niebezpieczne dla praw człowieka i społeczeństwa. Mowa tu m.in. o:
➡️ W skrócie: zakazany obszar.
Wysokie ryzyko
To systemy, które mogą realnie wpływać na zdrowie, bezpieczeństwo, edukację, zatrudnienie, dostęp do usług publicznych czy sprawiedliwość sądową. Przykład? AI decydujące o przyjęciu na studia albo system oceniający zdolność kredytową.
➡️ Wymagają pełnej dokumentacji, oceny zgodności i nadzoru.
Ograniczone ryzyko
Tu mieszczą się rozwiązania wchodzące w interakcję z człowiekiem – chatboty, generatory obrazów czy deepfake’i.
➡️ Obowiązek informowania użytkownika, że ma do czynienia z AI.
Minimalne ryzyko
Systemy AI, z których korzystamy codziennie bez większych konsekwencji: filtry antyspamowe, gry, sugestie produktów.
➡️ Brak obowiązków prawnych, ale możliwe dobrowolne standardy.
Modele i systemy AI ogólnego przeznaczenia
Model AI trenowany na dużych zbiorach danych z wykorzystaniem nadzoru własnego to system o wysokim stopniu uogólnienia, zdolny do skutecznego wykonywania różnorodnych zadań — niezależnie od tego, w jaki sposób zostanie wprowadzony do obrotu.
➡️ Wymagana transparentność, dokumentacja i odpowiedzialność proporcjonalna do wpływu modelu.
Model AI, w tym taki trenowany na dużych zbiorach danych z wykorzystaniem nadzoru własnego to system o wysokim stopniu uogólnienia, zdolny do skutecznego wykonywania różnorodnych zadań — niezależnie od tego, w jaki sposób zostanie wprowadzony do obrotu.
To nie tylko algorytm, który „coś liczy”. W oczach AI Act:
System AI to system maszynowy, który działa z różnym poziomem autonomii i potrafi dostosowywać się po wdrożeniu. Na podstawie danych wejściowych generuje wyniki – takie jak decyzje, rekomendacje, treści czy prognozy.
Brzmi technicznie? Rozbijmy to na dwa najważniejsze filary tej definicji:
Innymi słowy: jeśli Twoje oprogramowanie potrafi samodzielnie wyciągać wnioski, tworzyć treści i uczyć się z danych – to masz do czynienia z systemem AI w rozumieniu przepisów.
AI Act nie pozostawia wątpliwości – korzystanie ze sztucznej inteligencji w firmie to nie tylko szansa, ale też odpowiedzialność. A ta odpowiedzialność jest dokładnie rozpisana – w zależności od roli, jaką firma pełni w cyklu życia systemu AI.
Dostawca (provider) – czyli podmiot, który projektuje lub rozwija system AI. To właśnie on odpowiada za zapewnienie zgodności systemu z AI Act jeszcze przed jego wprowadzeniem na rynek. Musi prowadzić dokumentację, ocenić ryzyko, przeprowadzić testy i zadbać o zgodność z wymogami prawnymi.
Użytkownik (deployer) – to firma lub organizacja, która korzysta z Gotowego systemu AI. Choć nie tworzy technologii, to odpowiada za sposób jej użycia: musi wiedzieć, z czym ma do czynienia, czy przestrzega przepisów i jak informuje użytkowników o wykorzystaniu AI.
Importer i dystrybutor – jeśli firma wprowadza do obrotu lub przekazuje dalej systemy AI, odpowiada za to, żeby nie trafiły na rynek rozwiązania niespełniające wymagań rozporządzenia.
GPAI i foundation models – firmy korzystające z dużych modeli językowych i ogólnego przeznaczenia (jak np. Llama) mają dodatkowe obowiązki związane z transparentnością, jakością danych i raportowaniem.
📄 Wymagania w praktyce
Przykładowe obowiązki dostawców systemów AI obejmują m.in.:
To wszystko nie jest tylko „dla porządku”. Niespełnienie wymagań grozi sankcjami – o czym więcej w dalszej części.
AI Act nie ogranicza się do teorii – to prawo z konkretnymi procedurami, które trzeba przejść, zanim system AI trafi na rynek. Dotyczy to przede wszystkim systemów wysokiego ryzyka, które mogą wpływać na prawa i bezpieczeństwo ludzi.
✅ Co to znaczy „zgodny z AI Act”?
Dla systemów wysokiego ryzyka zgodność oznacza, że spełniają one szereg szczegółowych wymagań dotyczących:
To nie jest jednorazowe „odhaczenie” checklisty, tylko ciągły proces zarządzania ryzykiem. System musi być projektowany i rozwijany w taki sposób, żeby można było na każdym etapie pokazać, że spełnia wymagania rozporządzenia.
📄 Deklaracja zgodności i znak CE
Jeśli system przejdzie ocenę zgodności, producent wystawia tzw. deklarację zgodności UE i umieszcza na produkcie znak CE – znany z innych regulowanych produktów (np. sprzętu elektronicznego czy zabawek). To sygnał, że rozwiązanie zostało zweryfikowane i można je legalnie wprowadzić na rynek UE.
W niektórych przypadkach konieczne będzie też zaangażowanie jednostki notyfikowanej – niezależnego podmiotu, który potwierdzi zgodność rozwiązania z AI Act.
⚙️ A co po wdrożeniu?
Zgodność nie kończy się w momencie wprowadzenia systemu na rynek. Firma musi zadbać o:
To jak prowadzenie maszyny – nie wystarczy, że działa. Trzeba jeszcze wiedzieć, czy nadal działa tak, jak powinna.
AI Act to nie sprint, ale proces rozłożony na kilka lat. Daje firmom czas na adaptację – ale nie oznacza to, że można czekać do ostatniej chwili. Kluczowe daty są już znane, a część obowiązków zacznie obowiązywać szybciej, niż się wydaje.
🗓️ Kluczowe terminy
Jednym z mniej oczywistych, ale bardzo istotnych wymagań AI Act jest promowanie tzw. AI literacy – czyli kompetencji związanych ze świadomym korzystaniem z systemów AI.
W praktyce oznacza to, że organizacje powinny zadbać o:
To nie jest wymóg „na papierze”. To realny obowiązek, który zacznie obowiązywać w nadchodzących miesiącach – i będzie miał wpływ na to, czy firma działa zgodnie z prawem.
AI Act to rozporządzenie z zębami. A dokładniej: z karami sięgającymi dziesiątek milionów euro lub procentów przychodu. I choć nie chodzi o straszenie, warto wiedzieć, co naprawdę może grozić firmie za lekceważenie przepisów.
💣 Wysokość kar
W zależności od rodzaju naruszenia, AI Act przewiduje:
Warto podkreślić: kary będą proporcjonalne do wielkości firmy, co oznacza, że mniejsze organizacje nie będą traktowane tak samo jak globalne koncerny – ale nadal mogą ponieść bolesne konsekwencje.
📍 Co jeszcze bierze pod uwagę regulator?
Wysokość kary może zależeć m.in. od:
To wszystko pokazuje, że AI Act nie powstał po to, by ograniczać firmy – ale by je wspierać w odpowiedzialnym rozwoju. To regulacja, która ma pomóc organizacjom wdrażać AI mądrze, świadomie i z poszanowaniem praw ludzi. Nie chodzi o strach przed karami, ale o stworzenie ram, które chronią nas wszystkich – dziś i w przyszłości.
Zgodność z AI Act to nie projekt do odhaczenia – to proces, który wymaga refleksji, współpracy i odwagi do zadawania trudnych pytań.
✅ Krok 1: Zidentyfikuj systemy AI w firmie
Z często AI ukrywa się w narzędziu HR, systemie CRM, silniku scoringowym. Warto to zmapować.
📊 Krok 2: Sklasyfikuj zidentyfikowane systemy
Tutaj często warto sięgnąć po zewnętrzną ekspertyzę – szczególnie przy bardziej złożonych rozwiązaniach.
📁 Krok 3: Przeprowadź analizę luk
To dobry moment, by stworzyć plan dostosowania – nie wszystko trzeba wdrożyć od razu.
🧑🏫 Krok 4: Zadbaj o kompetencje i kulturę
Pamiętaj: nawet najlepszy system AI może przynieść szkody, jeśli nikt nie wie, jak go właściwie używać.
🧩 Krok 5: Stwórz strukturę odpowiedzialności
Im wcześniej powstanie taki system zarządzania, tym większy spokój na późniejszych etapach.
AI Act nie wymaga perfekcji – wymaga świadomości, działania i gotowości do uczenia się. Jeśli zaczynasz dziś, jesteś o krok przed tymi, którzy będą musieli wszystko robić w pośpiechu.
To nie tylko obowiązek prawny. To szansa, by Twoja firma tworzyła technologię, której ludzie naprawdę mogą zaufać.
Nasi eksperci – Roman Bieda, Dominik Lubasz i Ireneusz Wochlik – brali udział w opracowaniu “Analizy wybranych aspektów projektu aktu w sprawie sztucznej inteligencji” dla Parlamentu Europejskiego i są członkami zespołu pracującego nad komentarzem do AI Act. Ich doświadczenie wspiera firmy właśnie w takich procesach jak Twój.
Jeśli chcesz przygotować swoją firmę do wdrożenia AI zgodnie z nowym prawem, zorganizować szkolenie lub po prostu porozmawiać o możliwościach – skontaktuj się z nami. Pomożemy Ci poprowadzić proces transformacji Twojej organizacji. Świadomie, bez presji i z myślą o Twoim zespole.
Aby zapewnić najlepsze doświadczenia, używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam przetwarzać dane, takie jak sposób przeglądania strony lub unikalne identyfikatory użytkownika. Brak zgody lub jej wycofanie może negatywnie wpłynąć na niektóre funkcje i działanie strony.