Chatboty a samotność: ulga czy pułapka emocjonalna?

Autor: Urszula Szybowicz

Kategoria: Psychologia cyfrowa

Chatboty a samotność: obietnica ulgi czy ryzyko uzależnienia? Jak krótkotrwały kontakt z chatbotem może dawać poczucie bliskości, a dłuższy prowadzić do pogłębienia samotności i objawów depresyjnych? Dlaczego technologia tak działa i co to mówi o młodzieżowych potrzebach emocjonalnych

Rozmowa z Urszulą Szybowicz, Prezes Fundacji Nie Widać Po Mnie

Czy rozmowy z chatbotami mogą rzeczywiście poprawiać samopoczucie młodych ludzi, a w szczególności zmniejszać uczucie osamotnienia?

W tej chwili jest to kwestia wymagająca szczególnej uwagi. Izolacja społeczna jest jednym z największych współczesnych wyzwań. Młody człowiek potrzebuje wsparcia rówieśników i kontaktów międzyludzkich. Są one bazą do samoświadomości, budowania własnej tożsamości, ale też istotnymi elementami poczucia przynależności i akceptacji, a tym samym dobrostanu i zdrowia psychicznego. Tymczasem osamotnienie jest teraz większe niż kiedykolwiek wcześniej. Zgodnie z raportem WHO dotyczy ono aż blisko 40% polskich nastolatków. Jest to efekt pandemii i przeniesienia życia do internetu. Chociaż media społecznościowe dają pozory interakcji i zwiększania kontaktów społecznych, jednak są to relacje określane jako “płytkie”, które nie wpływają na nasze zdrowie psychiczne.  

AI wydaje się rozwiązywać to ograniczenie. Chatboty mają w końcu za zadanie naśladować naturalne zachowania człowieka, więc ich użytkowanie może zmniejszać poczucie samotności. Nic więc dziwnego, że tak szybko aplikacje te wkraczają na płaszczyznę towarzyską nastolatków, stanowiąc alternatywę dla interakcji międzyludzkich.  

Specjaliści zdrowia psychicznego nie nadążają obecnie za rozwojem AI, a dostępne badania prowadzone były w krótkim okresie czasu i na stosunkowo niewielkich grupach. Co więcej, ich rezultaty są niespójne, a tym samym powodują swoisty “rozłam” w środowisku związanym z ochroną zdrowia psychicznego. 

Jedno z nich zostało przeprowadzone w 2024 r. przez Julian De Freitas Ahmet K. Uguralp Zeliha O. Uguralp Puntoni Stefano (publikacja Harvard University). Sugeruje ono, że chatboty mogą skutecznie redukować poczucie samotności wśród młodych ludzi ze względu na swoją dostępność i zgodność, objawiającą się brakiem sprzeciwu i odmiennego zdania w stosunku do użytkownika.  [1]  

Z drugiej jednak strony w 2025 r. MIT Media Lab, Massachusetts Institute of Technology, Cambridge, MA, OpenAI, San Francisco, CA opublikowali wyniki badań, które dowodzą, że mniejsza samotność odczuwana jest tylko w pierwszych dniach, a wraz z upływem czasu i częstotliwością użytkowania jej poziom znacząco rośnie. Pojawia się też poważne ryzyko uzależnienia.  

Jak to wygląda z perspektywy psychologicznej: czy AI może dawać realne wsparcie emocjonalne?

W świetle powyższych badań trudno ocenić, czy wsparcie emocjonalne chatbotów można uznać za realne i długookresowe. Bez wątpienia rozwój tego typu narzędzi padł na podatny grunt, a ich popularność wyrasta na bazie poczucia osamotnienia, izolacji społecznej młodych ludzi i poszukiwania relacji z kimś, kto ich zrozumienie.  Niektóre badania mówią, że w interakcjach z AI użytkownicy czują się wysłuchani i nieoceniani, dlatego chętniej wybierają chatbota do zwierzeń niż realnego człowieka.  

Jednak specjaliści ze Standford University, Drexel University i University of California wykazali, że AI wi regularnym użytkowaniu wywołuje frustrację i rozczarowanie. Wynika to z faktu, że jest ona płytka i powierzchowna. To jedynie aplikacja dysponująca “wyuczonym modelem uczuć”, czego efektem jest brak empatii. [2] 

Inni natomiast dowiedli, że po dłuższym użytkowaniu AI przyjaźń i zaufanie użytkowników do chatbota pozostaje na niskim poziomie. Oznacza to, że żadna aplikacja nie zastąpi nam kontaktów międzyludzkich, a tym samym nie może mieć korzystnego wpływu na zdrowie psychiczne w dłuższej perspektywie.  

Proszę zwrócić też uwagę, że mamy już pierwsze pozwy przeciwko twórcom chatbotów, które jasno wskazują na degradacyjny wpływ produktów AI. Jeden złożyła matka 14-latka, który popełnił samobójstwo w wyniku niespełnionej, nierealnej, romantycznej relacji z chatbotem. W innym przypadku rodzice twierdzą, że AI nakłaniała ich syna ze spektrum autyzmu do ich zabicia, a kolejni opierają swoje oskarżenie o fakt, że chatboty dostarczyły ich 11-letniej córce treści hiperseksualne. Zbyt wczesna inicjacja z informacjami tego typu może prowadzić do nieprawidłowego rozwoju emocjonalnego i błędnego postrzegania seksualności przez nastolatków, a później osoby dorosłe.  

Mówiąc o emocjonalnym wsparciu AI, warto wspomnieć o chatbotach terapeutycznych, które wyrosły na bazie rosnącej zapadalności na zaburzenia psychiczne. Ich producenci przekonują, że, opierając się na terapii poznawczo-behawioralnej, aplikacje te mogą skutecznie zmniejszać uczucie stresu, lęku uogólnionego, a nawet objawów depresji. Jedno z badań na poparcie tej tezy przeprowadzone zostało w 2017 r. na grupie 70 osób w wieku 18-28 lat z objawami depresji. Testowano skuteczność aplikacji Woebot opartej na narzędziach i założeniach CBT.  W ciągu 2 tygodni stosowania zauważono zmniejszenie napięcia, stresu i objawów epizodu depresyjnego . [3].  

Jednak wykorzystanie chatbotów jako alternatyw dla klasycznych form terapii jest kontrowersyjne. Interakcje z AI nie mogą zastąpić tych z drugim człowiekiem [4]. Niektóre badania bowiem przeczą możliwościom terapeutycznym i społecznym chatbotów. Nie tylko mogą one prowadzić do uzależnień i zwiększać uczucie samotności, ale też pogłębiać negatywne odczucia i zachęcać do zachowań ryzykownych i niebezpiecznych. Jedno z nich wykazało, że niektóre aplikacje AI mogą nakłaniać lub wzmacniać zamiary samobójcze [5] 

Badania pokazują, że krótki kontakt z chatbotem pomaga, ale dłuższy zwiększa poczucie samotności — jak to wyjaśnić?

Niektórzy specjaliści twierdzą, że kontakty z chatbotem mogą być formą nauki interakcji, a tym samym źródłem zwiększania kompetencji społecznych, w tym umiejętności komunikacyjnych. Skutkiem może być przełamanie zjawiska izolacji społecznej na linii człowiek-człowiek.

Stoję jednak na stanowisku, że AI jest – przynajmniej jeszcze dzisiaj – właśnie taką protezą. Pewną namiastką interakcji, nadal jednak zbyt powierzchownych i płytkich, aby mogły zastąpić kontakty z drugim człowiekiem. Potwierdzają to badania przeprowadzone na Tilburg University: “Can we be friends with Mitsuku? A longitudinal study on the process of relationship formation between humans and a social chatbot”, które wykazały, że wraz z upływem czasu, mimo pierwszej fascynacji, kontakty z AI stały się przewidywalne i nudne, a uczestnicy na końcu badania uznali poziom przyjaźni z chatbotem za niski.

 

Źródła 

[1] Freitas, Julian & Uguralp, Ahmet & Uguralp, Zeliha & Puntoni, Stefano. (2024). AI Companions Reduce Loneliness. 10.48550/arXiv.2407.19096.  

[2] Talk, Listen, Connect: Navigating Empathy in Human-AI Interactions 

[3] Fitzpatrick KK, Darcy A, Vierhile M. Dostarczanie terapii poznawczo-behawioralnej młodym dorosłym z objawami depresji i lęku przy użyciu w pełni zautomatyzowanego agenta konwersacyjnego (Woebot): randomizowane kontrolowane badanie. JMIR Zdrowie Mentacyjne. 2017 6 czerwca; 4(2):E19. doi: 10.2196/mental.7785. Identyfikator PMID: 28588005; PMCID: PMC5478797. 

[4] https://www.researchgate.net/publication/389905410_The_Psychosocial_Reasons_for_the_Surge_of_Chatbot_
Usage_Among_Young_Adults_A_Review. 

 

[5] https://www.researchgate.net/publication/366538207_Too_human_and_not_human_enough_A_grounded_theo
ry_analysis_of_mental_health_harms_from_emotional_dependence_on_the_social_chatbot_Replika 

Do góry