Autor: Karolina Liszka
Kategoria: Zgodność z regulacjami
Sztuczna inteligencja – a szczególnie generatory tekstu, takie jak ChatGPT – coraz śmielej wkracza do świata akademickiego. Jak pokazują badania z końca 2023 roku, aż 68% studentów w Polsce przyznaje się do korzystania z AI podczas nauki, m.in. przy tłumaczeniach, tworzeniu prezentacji czy nawet pisaniu prac zaliczeniowych [1].
Wraz z narastającym trendem pojawia się coraz więcej pytań o granice: gdzie kończy się dopuszczalne wsparcie, a zaczyna naruszenie zasad uczciwości akademickiej?
Warto pamiętać, że podstawowe reguły pisania pracy dyplomowej nie uległy zmianie. Praca powinna być efektem samodzielnej pracy autora. Od 2024 roku działa w Polsce Jednolity System Antyplagiatowy (JSA), który potrafi wykrywać nie tylko tradycyjny plagiat, ale także sugerować, że treść mogła być wygenerowana przez AI. Wykorzystywanie AI bez odpowiedniego ujawnienia niesie za sobą poważne konsekwencje, od zarzutów plagiatu po sankcje dyscyplinarne. Dziś „niewidzialność” AI to już przeszłość – a uczelnie coraz skuteczniej dbają o akademickie standardy [2].
Etyczne wykorzystanie AI w pracy dyplomowej opiera się na kilku podstawowych zasadach, które wyznaczają granicę między dozwolonym wsparciem a naruszeniem uczciwości akademickiej.
Od 2023 roku Jednolity System Antyplagiatowy (JSA) wykrywa już nie tylko plagiat, ale także teksty tworzone przez AI. Jasne jest więc, że “AI nie może pisać za ciebie” – praca musi być samodzielna, a każde wykorzystanie AI powinno być oznakowane.
To nie oznacza całkowitego zakazu korzystania z AI. Chatboty można wykorzystywać np. do poprawy języka, przygotowania abstraktów czy ilustracji, ale każda taka pomoc musi być zadeklarowana. Kluczowa jest różnica między wsparciem (dopuszczalne, jeśli jawne) a substytucją (niedopuszczalne, jeśli praca powstała głównie z użyciem AI).
Coraz więcej uczelni wprowadza własne, precyzyjne zasady. Przykładowo:
Te wytyczne wzmacniają rolę promotora – który nie tylko nadzoruje proces tworzenia pracy naukowej, ale i wspiera rozwój kompetencji związanych z AI. Otwarta komunikacja oraz proaktywne konsultacje ze swoim promotorem to dziś podstawa dobrych praktyk.
Nieujawnione korzystanie z AI, przypisywanie sobie autorstwa wygenerowanych przez AI fragmentów lub zlecanie komuś napisania pracy to działania niedozwolone, które grożą poważnymi konsekwencjami – od postępowania dyscyplinarnego po odpowiedzialność karną (np. art. 272 KK) [5].
Nowe narzędzia, takie jak moduł AI w JSA, potrafią wykrywać teksty generowane przez sztuczną inteligencję na podstawie miary “Perplexity” – i nie chodzi tutaj o powszechnie znane rozwiązanie o nazwie Perplexity AI, a metodę wykrywania tekstów pisanych przez AI. Metoda ta opiera się na hipotezie, która mówi, że im większa regularność w tekście, tym jest większe prawdopodobieństwo, że został on wytworzony przez model językowy.
Założenie ma swoje źródło w zastosowanym algorytmie, który jest w stanie wygenerować tekst regularny i przewidywalny [2].
Wykorzystanie AI może okazać się bardzo pomocne na etapie prowadzenia badań oraz analizy danych w pracy dyplomowej. W Polsce coraz częściej uznaje się, że rozsądne zastosowanie AI w tych obszarach jest dopuszczalne, o ile student zachowuje kontrolę nad procesem badawczym i interpretacją wyników [3].
Podstawowa zasada brzmi: AI może automatyzować techniczne zadania, ale nie zastąpi Twojego badawczego namysłu. Interpretacja wyników, wnioski i powiązanie odkryć z hipotezami naukowymi muszą wypływać z własnej refleksji i kreatywnego podejścia – nie z algorytmu.
Warto tutaj zaznaczyć, że skuteczne wykorzystanie AI wymaga uważności i krytycznego podejścia. Algorytmy AI – jak każde narzędzia – mają także swoje ograniczenia, które mogą wpłynąć na jakość Twojej pracy dyplomowej.
Właściwe ujawnienie korzystania z narzędzi AI w pracy dyplomowej to dziś podstawowy standard uczciwości akademickiej. Chodzi nie tylko o przypisanie zasług za wygenerowaną treść, ale też o umożliwienie innym weryfikacji, jak technologia wpłynęła na końcowy efekt i gdzie kończy się Twój autorski wkład.
Niezależnie od wybranego stylu cytowania, warto wprost i szczegółowo wyjaśnić, do czego wykorzystano AI – na przykład w sekcji wprowadzającej, metodologicznej lub w specjalnym oświadczeniu na końcu pracy. Warto opisać każdą formę wsparcia: tłumaczenie, edycję, generowanie konspektu, analizę danych czy pomoc w porządkowaniu bibliografii. Jeśli po wygenerowaniu tekst był modyfikowany, również należy to zaznaczyć.
Pamiętaj: wytyczne dotyczące cytowania AI zmieniają się – sprawdź, jakie zasady obowiązują na Twojej uczelni i u Twojego promotora. Poniżej znajdziesz najważniejsze zasady dla najpopularniejszych stylów cytowania:
W tekście: Podaj firmę jako autora (np. OpenAI, 2024). Jeśli tekst został edytowany, zaznacz to [6].
Przykład: OpenAI. (2024). ChatGPT (wersja modelu) [Large language model]. https://chat.openai.com
Dołącz opis użycia AI oraz – jeśli to możliwe – załącznik z promptami i odpowiedziami. Link podaj tylko wtedy, gdy jest publicznie dostępny.
W tekście: Nie traktuj AI jako autora – zamiast tego opisuj wygenerowaną treść lub prompt w cudzysłowie [6].
Przykład: “Opis promptu.” ChatGPT, wersja, OpenAI, data, URL.
Na końcu pracy warto zamieścić krótkie oświadczenie o zakresie wykorzystania AI.
Obecnie nie istnieje jeden uniwersalny wzór, dlatego konieczna jest elastyczność i śledzenie aktualnych wytycznych uczelni oraz wybranych stylów. Najważniejsze, by być transparentnym i gotowym do udokumentowania wykorzystania AI, np. przez załączenie historii promptów.
W dobie narzędzi generatywnych, plagiat nie polega już wyłącznie na kopiowaniu tekstów innych autorów, ale w kontekście AI także przypisywanie sobie autorstwa treści wygenerowanych przez sztuczną inteligencję bez odpowiedniego ujawnienia i uznania jej roli.
Należy zdać sobie sprawę z dwóch głównych zagrożeń:
Ryzyko jest więc podwójne: narazić się na zarzut, że Twój tekst został wygenerowany przez sztuczną inteligencję albo możesz nieświadomie zamieścić w pracy fragmenty, które już istnieją w innych publikacjach.
AI może być wartościowym narzędziem w procesie pisania, ale nie może przejąć Twojej roli jako autora. Autentyczność i rzetelność naukowa wymagają świadomego podejścia i jasnego odróżnienia własnego wkładu od tego, co zaproponował algorytm. Takie działanie chroni nie tylko przed zarzutami plagiatu, ale także buduje wiarygodność i umiejętność krytycznego myślenia w procesie pracy.
Podsumowując: korzystaj z AI jako asystenta, nie “cichego współautora”. Najważniejsze są Twoja refleksja, uczciwość i odpowiedzialność. AI może ułatwić techniczną stronę pracy, ale to Ty jesteś autorem i Ty wyznaczasz standardy swojej pracy naukowej.
[1] Bryk.pl, “Studenci mogą korzystać z AI w pracach pisemnych. Ale według zasad”, 2024, https://www.bryk.pl/artykul/studenci-moga-korzystac-z-ai-w-pracach-pisemnych-ale-wedlug-zasad
[2] gov.pl, JSA – promotor sprawdzi, czy student korzystał z technologii ChatGPT, 2024, https://www.gov.pl/web/nauka/jsa–promotor-sprawdzi-czy-student-korzystal-z-technologii-chatgpt
[3] naukawpolsce.pl, Jak korzystać ze sztucznej inteligencji w pracach pisemnych? SGH tworzy wytyczne, 2024, https://naukawpolsce.pl/aktualnosci/news%2C101426%2Cjak-korzystac-ze-sztucznej-inteligencji-w-pracach-pisemnych-sgh-tworzy
[4] uni.lodz.pl, Zasady korzystania z systemów AI w procesie kształcenia i dyplomowania w UŁ, 2024, https://www.uni.lodz.pl/aktualnosc/szczegoly/zasady-korzystania-z-systemow-ai-w-procesie-ksztalcenia-i-dyplomowania-w-ul
[5] prawo.pl, Praca dyplomowa od ChataGPT to kwestia czasu – część uczelni tworzy rekomendacje, 2023, https://www.prawo.pl/student/prace-studenckie-napisane-przez-ai-zakaz-uzywania-chatgpt-czy,520085.html
[6] Brown University Library, Generative Artificial Intelligence, 2025, https://libguides.brown.edu/c.php?g=1338928&p=9868287
Aby zapewnić najlepsze doświadczenia, używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam przetwarzać dane, takie jak sposób przeglądania strony lub unikalne identyfikatory użytkownika. Brak zgody lub jej wycofanie może negatywnie wpłynąć na niektóre funkcje i działanie strony.