Autor: Magdalena Gawżyńska
Wsparcie merytoryczne w zakresie prawa/RODO: Filip Ludwin
Kategoria: Regulacje/ISO 42001
Sztuczna inteligencja (AI) coraz częściej wspiera procesy w przemyśle, logistyce czy hodowli. Staje się narzędziem codziennego nadzoru i analizy, które w wielu miejscach skutecznie zastępuje tradycyjne systemy monitoringu.
W środowiskach przemysłowych AI pomaga wykrywać awarie, przegrzewanie maszyn, dym czy ogień, a także kontrolować jakość produktów. W magazynach i centrach logistycznych analizuje obraz, by monitorować ruch pojazdów i operatorów, reagować na niebezpieczne sytuacje i zwiększać bezpieczeństwo pracy.
Podobne podejście coraz częściej wykorzystuje się w środowiskach hodowlanych. Systemy AI obserwują zwierzęta, by wykrywać nietypowe zachowania mogące świadczyć o chorobie, stresie lub zagrożeniu zdrowia. Ich celem jest poprawa dobrostanu zwierząt i szybsze reagowanie w sytuacjach, które wcześniej wymagały stałego nadzoru przez człowieka.
Wszystkie te przykłady łączy jeden wspólny element: systemy nie tylko rejestrują obraz, lecz także go przetwarzają i interpretują, ucząc się rozpoznawać określone wzorce. A tam, gdzie AI analizuje obraz, pojawia się również pytanie o ochronę danych osobowych i granice zgodności z regulacjami.
W odróżnieniu od klasycznego monitoringu, systemy sztucznej inteligencji nie są biernymi rejestratorami obrazu. Uczą się rozpoznawać, co jest istotne dla danego celu, a co stanowi jedynie tło. Aby to osiągnąć, muszą przetwarzać różnorodne dane wizualne – także takie, na których pojawiają się ludzie.
Na etapie trenowania modelu, nawet jeśli jego celem jest analiza zachowań zwierząt, maszyn czy procesów technologicznych, algorytm musi nauczyć się odróżniać obiekty istotne od nieistotnych. W praktyce oznacza to, że w zbiorach treningowych mogą znaleźć się wizerunki osób – opiekunów, techników czy operatorów. W świetle RODO stanowi to przetwarzanie danych osobowych.
Dlatego już na etapie rozwoju systemu konieczne jest opracowanie i udokumentowanie zasad przetwarzania danych, z jasnym określeniem celu, zakresu i sposobu ich wykorzystania.
W hodowli systemy AI analizują zachowania zwierząt, by wykrywać zmiany mogące świadczyć o chorobie, stresie czy urazie. Dzięki temu mogą wspierać codzienną pracę hodowcy, zwiększać bezpieczeństwo i umożliwiać szybszą reakcję w sytuacjach krytycznych.
Jednocześnie pojawia się pytanie: co z osobami, które również przebywają w boksie lub zagrodzie? Czy kamery je rejestrują? Czy algorytm potrafi rozróżnić momenty, w których w pobliżu znajduje się człowiek – karmiący, sprzątający lub badający zwierzę?
Choć obecność człowieka nie jest przedmiotem analizy, jego wizerunek może zostać zarejestrowany. Oznacza to, że administrator systemu powinien wykazać, iż takie przetwarzanie ma charakter incydentalny i jest ograniczone do minimum, na przykład poprzez anonimizację, skrócenie okresu przechowywania nagrań lub ograniczenie dostępu do danych.
W zakładach produkcyjnych i magazynach systemy AI analizują obraz, by wykrywać nieprawidłowości w pracy maszyn, przegrzewanie urządzeń, dymienie czy iskrzenie.
W takich środowiskach ludzie również pojawiają się w polu widzenia kamer – jako operatorzy, technicy czy pracownicy serwisu. Algorytm musi nauczyć się odróżniać ich obecność od zdarzeń istotnych z punktu widzenia bezpieczeństwa. To również oznacza przetwarzanie danych osobowych, choć w sposób uboczny i niecelowy.
W praktyce wymaga to określenia podstawy prawnej takiego przetwarzania, a także jasnego udokumentowania celu i zakresu wykorzystania danych w projekcie.
Zgodnie z RODO, wizerunek osoby stanowi daną osobową, jeśli osoba ta została zidentyfikowana lub możliwa jest jej identyfikacja – bezpośrednia lub pośrednia. Liczy się nie intencja systemu, lecz techniczna możliwość rozpoznania. Nawet jeśli człowiek nie jest obiektem analizy, a jego obecność w kadrze jest przypadkowa, rejestracja jego wizerunku oznacza przetwarzanie danych osobowych.
W analizowanych przypadkach systemy nie klasyfikują ludzi, nie przypisują im tożsamości ani nie podejmują wobec nich żadnych działań. Dane te nie są też wykorzystywane do raportowania czy dalszej analizy.
Mimo to należy ocenić potencjalne ryzyka. Kluczowe jest ustalenie, czy nagranie umożliwia identyfikację osoby oraz czy przetwarzanie ma charakter incydentalny, czy systemowy. Jeśli odpowiedź na którekolwiek z tych pytań jest twierdząca, konieczne jest wdrożenie odpowiednich zabezpieczeń i spełnienie obowiązków informacyjnych.
RODO wyróżnia również dane biometryczne – szczególną kategorię danych osobowych, które umożliwiają lub potwierdzają jednoznaczną identyfikację osoby fizycznej na podstawie jej cech fizycznych lub behawioralnych, takich jak rysy twarzy czy sposób poruszania się. Kluczowe jest nie tylko to, co system rejestruje, ale także w jaki sposób i w jakim celu dane są przetwarzane.
W omawianych przykładach system nie analizuje cech fizycznych ludzi, nie rozpoznaje ich tożsamości ani nie porównuje obrazu z żadną bazą danych. Obecność człowieka w kadrze ma jedynie znaczenie pomocnicze, np. umożliwia odróżnienie zachowań zwierzęcia w obecności opiekuna.
Oznacza to, że nie dochodzi do przetwarzania danych biometrycznych w celu jednoznacznej identyfikacji osoby fizycznej. Warto jednak ująć ten aspekt w ocenie ryzyka i dokumentacji projektowej, aby jasno wykazać, że system nie obejmuje danych szczególnej kategorii.
Zgodnie z AI Act (art. 5 ust. 1 lit. h), zakazane jest stosowanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, z wyjątkiem pewnych ściśle określonych sytuacji dotyczących najpoważniejszych przestępstw, zagrożeń terrorystycznych czy poszukiwania osób zaginionych.
Aby system został zakwalifikowany w tym przypadku jako zakazany, muszą być, co do zasady, spełnione łącznie następujące warunki:
W analizowanych przypadkach żaden z tych warunków nie występuje – system nie służy do rozpoznawania ludzi ani do celów egzekwowania prawa. Nie spełnia więc definicji systemu zakazanego.
W systemach AI analizujących obraz zazwyczaj nie występuje obowiązek ustawowy ani realizacja umowy z osobą, której dane mogą zostać utrwalone. W praktyce stosuje się dwie najczęstsze podstawy przetwarzania:
Druga z tych podstaw – interes administratora – jest wybierana najczęściej, ale wymaga przeprowadzenia testu równowagi, który potwierdzi, że interes administratora nie narusza praw osób, których dane mogą zostać przetworzone.
Ważnym elementem dobrej praktyki jest także dokument opisujący sposób i cel przetwarzania danych. Powinien on wskazywać:
Choć taki dokument nie jest obowiązkowy, stanowi przejaw zasady rozliczalności RODO oraz wpisuje się w wymogi ISO/IEC 42001, dotyczące transparentności i zarządzania ryzykiem w systemach AI.
W projektach AI, nawet tak wyspecjalizowanych jak analiza zachowań zwierząt, zastosowanie norm ISO może znacząco poprawić zarządzanie ryzykiem i przejrzystość działań. Normy te nie tylko wspierają zgodność z przepisami (takimi jak RODO czy AI Act), ale także pomagają uporządkować procesy, określić role i odpowiedzialności oraz zapewnić transparentność na każdym etapie cyklu życia systemu AI.
W kontekście analizowanego rozwiązania szczególne znaczenie mają:
Stosowanie norm ISO pozwala nie tylko spełniać wymagania regulacyjne, ale też utrzymać wysoką jakość projektu, zwiększyć jego wiarygodność i zaufanie interesariuszy. W praktyce oznacza to większe bezpieczeństwo, uporządkowane procesy i przewidywalność działania systemu.
Systemy sztucznej inteligencji analizujące obraz – zarówno w hodowlach, jak i w środowiskach przemysłowych – pokazują, że granica między technologią a prywatnością staje się coraz cieńsza. AI nie tylko rejestruje obraz, ale uczy się rozumieć kontekst, co oznacza, że na pewnym etapie musi przetwarzać dane osobowe, by później umieć je ignorować.
To dobrze pokazuje, że regulacje AI nie zawsze są oczywiste, a odpowiedzialność projektowa wykracza daleko poza sam kod modelu.
Dlatego warto pamiętać:
Przejrzystość, jasno określony cel i świadome zarządzanie danymi stają się dziś nie tylko dobrą praktyką, ale często także wymogiem prawnym. Wraz z wejściem w życie AI Act organizacje korzystające z AI – także w niszowych zastosowaniach – muszą wykazać się zgodnością z przepisami, kontrolą ryzyka i zdolnością do wyjaśnienia działania systemu (explainable AI). Takie projekty pokazują, że skuteczność technologii można łączyć z odpowiedzialnością, bez rezygnowania z innowacyjności.
Aby zapewnić najlepsze doświadczenia, używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam przetwarzać dane, takie jak sposób przeglądania strony lub unikalne identyfikatory użytkownika. Brak zgody lub jej wycofanie może negatywnie wpłynąć na niektóre funkcje i działanie strony.
