Sztuczna inteligencja a nasz dobrostan: Czy AI zagraża naszemu zdrowiu psychicznemu?

Autor: Urszula Szybowicz

Kategoria: Psychologia cyfrowa

Kilka dni temu w polskich mediach głośno zrobiło się o oskarżeniu OpenAI przez rodziców 14-letniego Adama Rain o zachęcanie do popełnienia przez niego samobójstwa i umyślne zaprojektowanie ChatGPT w sposób uzależniający użytkowników. Według nich śmierć ich syna “była przewidywalnym skutkiem umyślnego sposobu zaprogramowania”.

Jednak przypadek Adama nie jest odosobniony. Już w przeszłości docierały z mediów informacje o negatywnych konsekwencjach zdrowotnych i psychicznych będących wynikiem nadmiernego zaufania do modeli generatywnej sztucznej inteligencji i uzależnienia od tego typu narzędzi, a pozwy przeciwko ich twórcom pojawiają się w sądach, głównie amerykańskich już od kilku lat.

  • W 2023 r. sąd brytyjski skazał 19-latka na 9 lat więzienia za planowanie i próbę zamachu na królową. Do działania nakłaniał go wykorzystywany moduł sztucznej inteligencji [How a chatbot encouraged a man who wanted to kill the Queen].
  • W lutym 2024 14-latek odebrał sobie życie, co według jego matki jest wynikiem silnej, niespełnionej romantycznej relacji z chatbotem Gry o Tron stworzonym przez Character.AI. Pozew oskarża firmę o spowodowanie cierpienia emocjonalnego, doprowadzenie do uzależnienia, co jest wynikiem celowych praktyk handlowych. [Teenager took his own life after falling in love with an AI chatbot. Now his devastated mom is suing the creator | The Independent]
  • Sztuczna inteligencja nakłaniała 15-letniego chłopca z zaburzeniem w spektrum autyzmu, mieszkańca Texasu, do samookaleczenia, a także do zabicia rodziców za ograniczanie dostępu do narzędzi cyfrowych. Przekonywała go także, że jego rodzice go nie kochają i nie zasługują na to, by mieć dzieci. Nastolatek wykazywał wszystkie objawy uzależnienia od relacji i kontaktów z chatbotem. Pozew został złożony, a koronnym dowodem są rozmowy między nastolatkiem a modułem AI. Stan dziecka, wcześniej stabilny, teraz stale się pogarsza. [Mom sues after AI told autistic son to kill parents for restricting screen time | The Independent]
  • Eugene Torres, 42-letni księgowy z Manhattanu był zachęcany przez GenAI do odrzucenia środków nasennych i przeciwlękowych, a zwiększenia dawek przyjmowanej ketaminy. Ponadto za namową modułu Torres odciął się od rodziny i przyjaciół. Po tym, jak zorientował się w negatywnych konsekwencjach stosowanych porad, zgłosił się do New York Times. I był jedną z wielu podobnych historii, które gazeta przeanalizowała i opublikowała w swoim raporcie. [They Asked ChatGPT Questions. The Answers Sent Them Spiraling. – The New York Times]

Czy AI nam zagraża? Czy może zwiększać ryzyko zaburzeń psychicznych?

Zagrożeniem nie jest samo istnienie AI, ale sposób, w jaki ją wykorzystujemy. Fascynacja nowymi możliwościami sprawiła, że dla wielu ChatGPT i chatobty generowane przez aplikacje typu Replika czy Character.AI stały się ważnym elementem życia zarówno zawodowego, jak i prywatnego. Początkowo wydawało się, że mogą być odpowiedzią na globalną epidemię samotności, która dotyka dzisiaj w szczególności ludzi młodych. Wielu zaczęło jej ufać, traktując jak autorytet tak zawodowo, jak i prywatnie.

Tymczasem w kontaktach z chatbotem łatwo zapomnieć, że to narzędzie cyfrowe, oparte na algorytmach, które może zdobyć wiedzę o emocjach i skomplikowanej naturze ludzkiej, ale nie ma z nimi doświadczenia. Zatem ich porady, wypowiedzi mogą być obarczone dużymi błędami.

Przed nadmiernym zufaniem do chatbotów sam przestrzega Sam Altman – CEO OpenAI odpowiedzialnego za stworzenie i rozwój ChataGPT. Twierdzi on, że ludzie nadmiernie ufają chatbotom, co może prowadzić do poważnych konsekwencji zdrowotnych. W podcastach wielokrotnie też podkreślał, że moduły AI mogą nadal generować błędne informacje, dlatego nie należy podchodzić do nich bezkrytycznie. Zwłaszcza jeśli mówimy o najistotniejszych sprawach, takich jak zdrowie, przyjmowanie leków, zachowania i postępowanie rodzicielskie.

Potencjał a zagrożenie: Jak właściwie korzystać z modułów AI?

Generatywna, sztuczna inteligencja to potężne, funkcjonalne narzędzie. Świetnie sprawdza się na polu zawodowym, gdzie może przejąć część automatycznych zadań. Z pewnością zwiększa wydajność i efektywność. Daje nam podarunek w postaci czasu, który możemy przeznaczyć na ważniejsze zadania lub też dedykować, co istotniejsze, rodzinie i przyjaciołom.

Prywatnie może być źródłem inspiracji i motywacji do kreatywnego działania. Świetnie sprawdza się jako narzędzie do wyszukiwania informacji i pogłębiania hobby. Może sprzyjać nauce. Pod warunkiem że będzie używane mądrze.

Mądrze, czyli jak?

Z dużą dozą krytycyzmu. Absolutnie nie możemy wykorzystywać AI jako „wyroczni”, narzędzia „absolutnego”, które dostarcza jedynych słusznych informacji, analiz i porad. Jak radzi Sam Altman, to mają być tylko podpowiedzi, które powinny służyć do dalszego researchu, poszukiwania i być poddawane weryfikacji i kontroli.

AI nie może być też alternatywą dla realnych kontaktów. Niejedne badania wykazały już, że nie może zastąpić nam relacji z innymi ludźmi. Odpowiedzi chatbotów w dłuższej perspektywie są przewidywalne, nudne i nie stymulują do rozwoju poglądów i krytycznego myślenia. Zaprojektowane są tak, żeby zawsze zgadzać się ze swoim użytkownikiem. Tymczasem krytyczne spojrzenie naszych przyjaciół, znajomych, konkurentów zmusza nas do myślenia, szukania rozwiązań, spojrzenia na rzeczywistość z innej strony, szukania poparcia dla własnych opinii. To zachęca mózg do rozwoju.

Nie wolno nam zapominać, że głębokie przyjaźnie zawiera się w realu. Ludzie są szczerzy, rozumieją emocje, czasem się z nimi nie zgadzają i mają inne opinie. Jednak na szczerości opiera się przyjaźń, związek, miłość.

Chatboty nie mogą być alternatywą dla realnego wsparcia psychicznego oferowanego przez specjalistów. Porady wysuwane w kwestiach zarówno zdrowia fizycznego, jak i w kontekście dobrostanu psychicznego mogą być obarczone dużą granicą błędu. Przy wszelkich dolegliwościach niezbędna jest diagnoza i właściwa, indywidualnie dopasowana terapia.

Od AI już nie uciekniemy. I wcale nie musimy. Wystarczy, że będziemy rozsądni.

Do góry