Autor: Magdalena Gawżyńska
Kategoria: Regulacje/ISO 42001
Decyzje kredytowe nigdy nie są czysto techniczne. Każda z nich spotyka się z ludzkimi potrzebami – zakupu mieszkania, rozpoczęcia studiów, zabezpieczenia przyszłości rodziny. W sektorze bankowym oznaczają one również realne ryzyka finansowe, regulacyjne i reputacyjne. Dlatego wdrażając sztuczną inteligencję w procesach scoringowych (scoring oparty na AI), nie wystarczy patrzeć tylko na trafność modeli – równie istotne stają się przejrzystość, uczciwość i odpowiedzialność.
W tym studium przypadku przyglądamy się scenariuszowi inspirowanemu prawdziwymi wyzwaniami sektora bankowego. Pokazujemy, jak połączenie zaawansowanego modelu sztucznej inteligencji z podejściem opartym na normach ISO – w szczególności ISO/IEC 23894 oraz ISO/IEC 42001 – pozwoliło zwiększyć skuteczność oceny ryzyka kredytowego, a jednocześnie zachować przejrzystość i zgodność z regulacjami.
Omawiamy proces krok po kroku: od założeń projektu, przez problemy z tzw. „black box AI”, po efekty wdrożenia i wnioski dla organizacji. Wyjaśniamy też, dlaczego w finansach wyjaśnialność i odpowiedzialność systemów AI stają się równie ważne jak ich trafność.
Przykład ma charakter ilustracyjny – bazuje na naszych doświadczeniach z pracy nad projektami w branży finansowej i obserwacjach rynkowych, lecz nie opisuje jednej konkretnej organizacji.
Jeden z dużych banków komercyjnych w Polsce rozpoczął projekt modernizacji systemu oceny ryzyka kredytowego dla klientów detalicznych. Dotychczasowe rozwiązania działały w oparciu o sztywne reguły i uproszczony scoring, a część decyzji wciąż wymagała ręcznej analizy. To spowalniało proces i ograniczało jego skuteczność.
Dlatego nowe podejście zakładało wykorzystanie sztucznej inteligencji. Bank wdrożył model typu black box, oparty na głębokim uczeniu, zdolny do jednoczesnej analizy wielu źródeł danych – od historii kredytowej i informacji demograficznych, przez wzorce transakcyjne, aż po sygnały z urządzeń mobilnych. W dalszych planach znalazła się także integracja tzw. danych alternatywnych, takich jak lokalizacja czy aktywność online.
Już pierwsze wyniki pokazały, że nowy system wyraźnie przewyższa tradycyjny scoring w przewidywaniu ryzyka kredytowego – a więc spełniał kluczowe założenie projektu. Sukces ten jednak szybko ujawnił także drugą stronę medalu: im lepsze były prognozy, tym trudniej było wyjaśnić, dlaczego model podejmował takie, a nie inne decyzje.
Na pierwszy rzut oka wszystko działało idealnie. Model przewidywał ryzyko lepiej niż tradycyjny scoring, a decyzje wydawały się trafniejsze. Do czasu, aż pojawiły się pierwsze trudne pytania.
Klienci zaczęli kwestionować wyniki. Bywało, że klient z długą i bezproblemową historią kredytową dostawał odmowę, podczas gdy inna osoba, z pozoru bardziej ryzykowna, otrzymywała zielone światło. Pracownicy banku, choć mieli przed sobą decyzję systemu, nie potrafili wyjaśnić, jakie czynniki zaważyły na ocenie.
Niepewność zaczęła narastać również wewnątrz organizacji. Zespół ryzyka dostrzegał, że choć statystycznie model działa poprawnie, jego logika pozostaje nieprzejrzysta. Nie było wiadomo, które dane miały decydujący wpływ na wynik ani czy system nie wzmacnia przypadkowo istniejących uprzedzeń – na przykład wobec wieku, miejsca zamieszkania czy poziomu dochodów.
Pojawiło się też realne ryzyko regulacyjne. Zgodnie z RODO każdy klient ma prawo wiedzieć, na jakiej podstawie podjęto decyzję odmowną. Z kolei unijny AI Act klasyfikuje tego typu rozwiązania jako systemy wysokiego ryzyka – wymagające nie tylko nadzoru, ale także przejrzystości i zdolności do wytłumaczenia decyzji w sposób zrozumiały dla człowieka.
W przypadku decyzji kredytowych sama odpowiedź „tak” lub „nie” to za mało. Klienci oczekują rzetelnego uzasadnienia: dlaczego? W tradycyjnych systemach scoringowych odpowiedź była stosunkowo prosta – reguły były znane i możliwe do zinterpretowania.
W modelach opartych na sztucznej inteligencji jest inaczej. Algorytmy analizują ogromne zbiory danych i tworzą złożone zależności, często niewidoczne dla człowieka. I choć wyniki są trafne, to same decyzje mogą wydawać się niezrozumiałe.
W praktyce oznacza to, że różne grupy interesariuszy mają swoje oczekiwania:
Wyjaśnialność (ang. explainability) to nic innego jak umiejętność wytłumaczenia, na jakiej podstawie zapadła decyzja – zarówno klientowi, jak i wewnętrznym zespołom: ryzyka, zgodności czy audytu. Nie chodzi o odsłanianie całej logiki pracy algorytmu, ale o przekazanie sensu decyzji w sposób ludzki, zrozumiały i konkretny.
Nie każdy musi rozumieć algorytmy. Ale każdy ma prawo rozumieć decyzję. Pracownik banku nie musi znać szczegółów uczenia maszynowego, a klient – wszystkich zmiennych wejściowych. Ale oboje powinni rozumieć – co wpłynęło na ocenę, co mogłoby ją zmienić i jakie są możliwe scenariusze na przyszłość.
Właśnie dlatego wyjaśnialność stała się jednym z kluczowych elementów wdrożenia – nie jako dodatek do modelu, ale jako jego integralna część.
Wprowadzenie warstwy wyjaśnialności szybko przełożyło się na wymierne korzyści – zarówno dla klientów, jak i samego banku.
Po pierwsze, poprawiła się jakość dialogu z klientami. Decyzje stały się bardziej zrozumiałe, a pracownicy mogli w prostych słowach wytłumaczyć, co zaważyło na ocenie. Dzięki temu spadła liczba reklamacji i nieporozumień.
Po drugie, większą kontrolę nad działaniem modelu zyskały zespoły ryzyka i compliance. Zyskały wgląd w to, które czynniki są kluczowe, oraz możliwość szybszej reakcji, gdyby pojawiły się niepożądane schematy.
Po trzecie, pojawiły się narzędzia do sprawdzania czy system działa w sposób sprawiedliwy i zgodny z polityką banku. To pozwoliło nie tylko spełniać wymogi regulacyjne, ale także realnie budować zaufanie – zarówno wewnątrz organizacji, jak i wśród klientów.
Co ważne, większa przejrzystość nie wpłynęła negatywnie na skuteczność modelu. Wręcz przeciwnie – w kilku przypadkach pomogła zidentyfikować błędne wzorce i skorygować je, co dodatkowo zwiększyło trafność prognoz.
Systemy AI wspierające decyzje kredytowe mają bezpośredni wpływ na życie klientów. Dotykają takich kwestii jak: dostęp do finansowania, realizacja planów czy bezpieczeństwo ekonomiczne. Właśnie dlatego zaliczają się do klasycznych przykładów systemów wysokiego ryzyka – zarówno w wymiarze praktycznym, jak i prawnym.
Unijny AI Act jasno określa, że takie rozwiązania muszą być audytowalne, zrozumiałe, odpowiedzialnie zarządzane i rzetelnie dokumentowane.
Z drugiej strony, klienci również oczekują przejrzystości i uczciwości. Nawet jeśli decyzja jest negatywna, powinna być oparta na zrozumiałych, sprawdzalnych przesłankach. Brak wyjaśnialności to nie tylko problem techniczny – to ryzyko utraty zaufania, naruszenia reputacji i konfliktu z przepisami.
Bank, który wdrożył nowy system scoringowy, potraktował wyjaśnialność nie jako formalny obowiązek, lecz jako element swojej odpowiedzialności – wobec klientów i całej organizacji.
Aby uporządkować wdrożenie i zapewnić zgodność z przepisami, bank objął projekt ramami opartymi na międzynarodowych standardach. Dzięki temu proces nie był jedynie eksperymentem technologicznym, ale miał solidne podstawy w zakresie zarządzania ryzykiem i bezpieczeństwa.
Kluczowe znaczenie miały tu trzy normy:
W praktyce wprowadzenie tych standardów nie tylko ułatwiło przeprowadzanie audytów wewnętrznych i przygotowanie do zmian legislacyjnych w UE, ale także nadało całemu projektowi spójne ramy. Pozwoliło opracować polityki etycznego wykorzystania AI, wzmocniło kontrolę nad bezpieczeństwem danych i co najważniejsze podniosło poziom zaufania do systemu AI.
Wdrażając sztuczną inteligencję do procesów decyzyjnych, organizacje coraz częściej stają przed pytaniem: jak połączyć wysoką skuteczność modeli z ich przejrzystością i zgodnością z regulacjami? W obszarach wysokiego ryzyka, takich jak scoring kredytowy, zaufanie, możliwość uzasadnienia decyzji i zgodność z prawem są równie ważne jak sama trafność prognoz.
Dlatego wyjaśnialność nie może być traktowana jako opcjonalny dodatek. To fundament odpowiedzialnego wdrożenia AI – warunek budowania zaufania klientów, zapewnienia zgodności i utrzymania reputacji organizacji.
Co więcej, to wyzwanie nie dotyczy wyłącznie bankowości. Podobne dylematy pojawiają się w ochronie zdrowia, energetyce, administracji publicznej, rekrutacji czy edukacji. W każdym z tych obszarów kluczowe znaczenie ma nie tylko skuteczność algorytmów, lecz także ich zrozumiałość, sprawiedliwość i odpowiedzialne zarządzanie.
Ostatecznie to właśnie te elementy – przejrzystość, etyka i zaufanie – zdecydują o tym, czy technologia AI stanie się trwałym wsparciem dla ludzi i organizacji, czy źródłem obaw i sporów.
Aby zapewnić najlepsze doświadczenia, używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam przetwarzać dane, takie jak sposób przeglądania strony lub unikalne identyfikatory użytkownika. Brak zgody lub jej wycofanie może negatywnie wpłynąć na niektóre funkcje i działanie strony.