Granice zgodności w systemach AI: gdy w kadrze pojawia się człowiek. Sztuczna inteligencja w hodowli i przemyśle

Autor: Magdalena Gawżyńska

Wsparcie merytoryczne w zakresie prawa/RODO: Filip Ludwin

Kategoria: Regulacje/ISO 42001

Sztuczna inteligencja (AI) coraz częściej wspiera procesy w przemyśle, logistyce czy hodowli. Staje się narzędziem codziennego nadzoru i analizy, które w wielu miejscach skutecznie zastępuje tradycyjne systemy monitoringu.

W środowiskach przemysłowych AI pomaga wykrywać awarie, przegrzewanie maszyn, dym czy ogień, a także kontrolować jakość produktów. W magazynach i centrach logistycznych analizuje obraz, by monitorować ruch pojazdów i operatorów, reagować na niebezpieczne sytuacje i zwiększać bezpieczeństwo pracy.

Podobne podejście coraz częściej wykorzystuje się w środowiskach hodowlanych. Systemy AI obserwują zwierzęta, by wykrywać nietypowe zachowania mogące świadczyć o chorobie, stresie lub zagrożeniu zdrowia. Ich celem jest poprawa dobrostanu zwierząt i szybsze reagowanie w sytuacjach, które wcześniej wymagały stałego nadzoru przez człowieka.

Wszystkie te przykłady łączy jeden wspólny element: systemy nie tylko rejestrują obraz, lecz także go przetwarzają i interpretują, ucząc się rozpoznawać określone wzorce. A tam, gdzie AI analizuje obraz, pojawia się również pytanie o ochronę danych osobowych i granice zgodności z regulacjami.

AI to nie kamera – to system uczący się na danych

W odróżnieniu od klasycznego monitoringu, systemy sztucznej inteligencji nie są biernymi rejestratorami obrazu. Uczą się rozpoznawać, co jest istotne dla danego celu, a co stanowi jedynie tło. Aby to osiągnąć, muszą przetwarzać różnorodne dane wizualne – także takie, na których pojawiają się ludzie.

Na etapie trenowania modelu, nawet jeśli jego celem jest analiza zachowań zwierząt, maszyn czy procesów technologicznych, algorytm musi nauczyć się odróżniać obiekty istotne od nieistotnych. W praktyce oznacza to, że w zbiorach treningowych mogą znaleźć się wizerunki osób – opiekunów, techników czy operatorów. W świetle RODO stanowi to przetwarzanie danych osobowych.

Dlatego już na etapie rozwoju systemu konieczne jest opracowanie i udokumentowanie zasad przetwarzania danych, z jasnym określeniem celu, zakresu i sposobu ich wykorzystania.

Przykład 1: AI wspierająca dobrostan zwierząt

W hodowli systemy AI analizują zachowania zwierząt, by wykrywać zmiany mogące świadczyć o chorobie, stresie czy urazie. Dzięki temu mogą wspierać codzienną pracę hodowcy, zwiększać bezpieczeństwo i umożliwiać szybszą reakcję w sytuacjach krytycznych.

Jednocześnie pojawia się pytanie: co z osobami, które również przebywają w boksie lub zagrodzie? Czy kamery je rejestrują? Czy algorytm potrafi rozróżnić momenty, w których w pobliżu znajduje się człowiek – karmiący, sprzątający lub badający zwierzę?

Choć obecność człowieka nie jest przedmiotem analizy, jego wizerunek może zostać zarejestrowany. Oznacza to, że administrator systemu powinien wykazać, iż takie przetwarzanie ma charakter incydentalny i jest ograniczone do minimum, na przykład poprzez anonimizację, skrócenie okresu przechowywania nagrań lub ograniczenie dostępu do danych.

Przykład 2: AI w środowisku przemysłowym i magazynowym

W zakładach produkcyjnych i magazynach systemy AI analizują obraz, by wykrywać nieprawidłowości w pracy maszyn, przegrzewanie urządzeń, dymienie czy iskrzenie.

W takich środowiskach ludzie również pojawiają się w polu widzenia kamer – jako operatorzy, technicy czy pracownicy serwisu. Algorytm musi nauczyć się odróżniać ich obecność od zdarzeń istotnych z punktu widzenia bezpieczeństwa. To również oznacza przetwarzanie danych osobowych, choć w sposób uboczny i niecelowy.

W praktyce wymaga to określenia podstawy prawnej takiego przetwarzania, a także jasnego udokumentowania celu i zakresu wykorzystania danych w projekcie.

Czy to już dane osobowe?

Zgodnie z RODO, wizerunek osoby stanowi daną osobową, jeśli osoba ta została zidentyfikowana lub możliwa jest jej identyfikacja – bezpośrednia lub pośrednia. Liczy się nie intencja systemu, lecz techniczna możliwość rozpoznania. Nawet jeśli człowiek nie jest obiektem analizy, a jego obecność w kadrze jest przypadkowa, rejestracja jego wizerunku oznacza przetwarzanie danych osobowych. 

W analizowanych przypadkach systemy nie klasyfikują ludzi, nie przypisują im tożsamości ani nie podejmują wobec nich żadnych działań. Dane te nie są też wykorzystywane do raportowania czy dalszej analizy. 

Mimo to należy ocenić potencjalne ryzyka. Kluczowe jest ustalenie, czy nagranie umożliwia identyfikację osoby oraz czy przetwarzanie ma charakter incydentalny, czy systemowy. Jeśli odpowiedź na którekolwiek z tych pytań jest twierdząca, konieczne jest wdrożenie odpowiednich zabezpieczeń i spełnienie obowiązków informacyjnych. 

RODO wyróżnia również dane biometryczne – szczególną kategorię danych osobowych, które umożliwiają lub potwierdzają jednoznaczną identyfikację osoby fizycznej na podstawie jej cech fizycznych lub behawioralnych, takich jak rysy twarzy czy sposób poruszania się. Kluczowe jest nie tylko to, co system rejestruje, ale także w jaki sposób i w jakim celu dane są przetwarzane. 

W omawianych przykładach system nie analizuje cech fizycznych ludzi, nie rozpoznaje ich tożsamości ani nie porównuje obrazu z żadną bazą danych. Obecność człowieka w kadrze ma jedynie znaczenie pomocnicze, np. umożliwia odróżnienie zachowań zwierzęcia w obecności opiekuna. 

Oznacza to, że nie dochodzi do przetwarzania danych biometrycznych w celu jednoznacznej identyfikacji osoby fizycznej. Warto jednak ująć ten aspekt w ocenie ryzyka i dokumentacji projektowej, aby jasno wykazać, że system nie obejmuje danych szczególnej kategorii. 

AI Act: czy to już system zakazany?

Zgodnie z AI Act (art. 5 ust. 1 lit. h), zakazane jest stosowanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, z wyjątkiem pewnych ściśle określonych sytuacji dotyczących najpoważniejszych przestępstw, zagrożeń terrorystycznych czy poszukiwania osób zaginionych. 

Aby system został zakwalifikowany w tym przypadku jako zakazany, muszą być, co do zasady, spełnione łącznie następujące warunki: 

  • identyfikacja odbywa się w czasie rzeczywistym,
  • jest przeznaczony do identyfikacji osób,
  • dokonuje zdalnej identyfikacji biometrycznej osób fizycznych,
  • system działa w przestrzeni publicznie dostępnej,
  • wykorzystywany jest do celów ścigania przestępstw. 

W analizowanych przypadkach żaden z tych warunków nie występuje – system nie służy do rozpoznawania ludzi ani do celów egzekwowania prawa. Nie spełnia więc definicji systemu zakazanego.

Podstawa prawna przetwarzania danych osobowych

W systemach AI analizujących obraz zazwyczaj nie występuje obowiązek ustawowy ani realizacja umowy z osobą, której dane mogą zostać utrwalone. W praktyce stosuje się dwie najczęstsze podstawy przetwarzania:

  • zgodę osoby, jeśli możliwe jest jej uzyskanie (np. od pracowników lub współpracowników),
  • prawnie uzasadniony interes administratora, np. zapewnienie bezpieczeństwa, poprawa dobrostanu zwierząt, kontrola jakości czy zapobieganie awariom.

Druga z tych podstaw – interes administratora – jest wybierana najczęściej, ale wymaga przeprowadzenia testu równowagi, który potwierdzi, że interes administratora nie narusza praw osób, których dane mogą zostać przetworzone.

Ważnym elementem dobrej praktyki jest także dokument opisujący sposób i cel przetwarzania danych. Powinien on wskazywać:

  • jakie dane są przetwarzane (np. wizerunek osób pojawiających się incydentalnie),
  • w jakim celu i na jakiej podstawie prawnej,
  • jakie środki ochrony i ograniczenia zastosowano.

Choć taki dokument nie jest obowiązkowy, stanowi przejaw zasady rozliczalności RODO oraz wpisuje się w wymogi ISO/IEC 42001, dotyczące transparentności i zarządzania ryzykiem w systemach AI.

Jak normy ISO wspierają takie projekty?

W projektach AI, nawet tak wyspecjalizowanych jak analiza zachowań zwierząt, zastosowanie norm ISO może znacząco poprawić zarządzanie ryzykiem i przejrzystość działań. Normy te nie tylko wspierają zgodność z przepisami (takimi jak RODO czy AI Act), ale także pomagają uporządkować procesy, określić role i odpowiedzialności oraz zapewnić transparentność na każdym etapie cyklu życia systemu AI.

W kontekście analizowanego rozwiązania szczególne znaczenie mają:

  • ISO/IEC 23894 – wspiera identyfikację i dokumentowanie ryzyk w systemach AI, w tym ich wpływu na ludzi,
  • ISO/IEC 42001 – określa zasady zarządzania systemami AI, pomagając projektować rozwiązania przejrzyste, etyczne i zgodne z przepisami; ułatwia też przygotowanie organizacji do wymogów AI Act,
  • ISO/IEC 27001 – zapewnia bezpieczne przetwarzanie danych, w tym nagrań wideo wykorzystywanych do trenowania modeli.

Stosowanie norm ISO pozwala nie tylko spełniać wymagania regulacyjne, ale też utrzymać wysoką jakość projektu, zwiększyć jego wiarygodność i zaufanie interesariuszy. W praktyce oznacza to większe bezpieczeństwo, uporządkowane procesy i przewidywalność działania systemu.

Wnioski i dobre praktyki

Systemy sztucznej inteligencji analizujące obraz – zarówno w hodowlach, jak i w środowiskach przemysłowych – pokazują, że granica między technologią a prywatnością staje się coraz cieńsza. AI nie tylko rejestruje obraz, ale uczy się rozumieć kontekst, co oznacza, że na pewnym etapie musi przetwarzać dane osobowe, by później umieć je ignorować.

To dobrze pokazuje, że regulacje AI nie zawsze są oczywiste, a odpowiedzialność projektowa wykracza daleko poza sam kod modelu.

Dlatego warto pamiętać:

  • zgodność z przepisami zależy od rzeczywistego działania systemu, a nie jego założeń,
  • analiza ryzyka i dokumentacja projektowa zwiększają bezpieczeństwo i przejrzystość,
  • normy ISO stanowią praktyczne narzędzie wspierające odpowiedzialne projektowanie i wdrażanie systemów AI – niezależnie od ich zastosowania.

Przejrzystość, jasno określony cel i świadome zarządzanie danymi stają się dziś nie tylko dobrą praktyką, ale często także wymogiem prawnym. Wraz z wejściem w życie AI Act organizacje korzystające z AI – także w niszowych zastosowaniach – muszą wykazać się zgodnością z przepisami, kontrolą ryzyka i zdolnością do wyjaśnienia działania systemu (explainable AI). Takie projekty pokazują, że skuteczność technologii można łączyć z odpowiedzialnością, bez rezygnowania z innowacyjności.

Interesuje Cię temat ISO?
Zostaw kontakt – pomożemy Ci zacząć

    Imię i nazwisko (wymagane)

    Email (wymagane)

    Wiadomość


    Administratorami Twoich danych osobowych są współorganizatorzy kampanii edukacyjnej “Gotowi na 42001” - Aigorithmics Sp. z o.o. z siedzibą w (30-084) Krakowie, ul. Bronowicka 10A, KRS: 0000792942 oraz TÜV NORD Polska Sp. z o.o. z siedzibą w (40-085) Katowicach, ul. Mickiewicza 29, KRS: 0000118633.
    Niniejsze zgody zostały wyrażone dobrowolnie i mogą zostać wycofane w każdej chwili. Kontakt z administratorami Twoich danych osobowych możliwy jest pod adresami email: iod@tuv-nord.pl oraz kontakt@forpeople.ai . Zostałem poinformowany, iż przysługuje mi prawo dostępu do treści moich danych oraz prawo ich sprostowania, usunięcia, ograniczenia przetwarzania, prawo do przenoszenia danych, prawo wniesienia sprzeciwu wobec przetwarzania, prawo do cofnięcia zgody w dowolnym momencie oraz prawo wniesienia skargi do Prezesa Urzędu Ochrony Danych Osobowych. Dane osobowe będą przetwarzane do czasu odwołania zgody lub ustania celu przetwarzania. Więcej informacji znajdziesz w naszej Polityce prywatności.

    Do góry