Jak AI kształtuje oczekiwania wobec relacji z ludźmi?

Autor: Urszula Szybowicz

Kategoria: Psychologia cyfrowa

Rozmowa z Urszulą Szybowicz, Prezes Fundacji Nie Widać Po Mnie

Chatboty typu Replika, Character.AI czy Mitsuku zdobywają popularność szybciej niż ktokolwiek mógłby przypuszczać. Jakie są źródła tego, że tak licznie i szybko przyciągają użytkowników?

Jak w każdym zjawisku społecznym, jego źródła są złożone. Przez ostatnie dekady sami stworzyliśmy żyzne pole do rozwoju AI. Przeniesienie życia do internetu, a w szczególności do mediów społecznościowych było pierwszą zapowiedzią ogromnych zmian społecznych i kulturowych, których teraz doświadczamy. Wykorzystując popularne dzisiaj narzędzia komunikacyjne online, zaznajomiliśmy się ze światem wirtualnym. Stał się on dla nas oczywisty, a z czasem bardziej naturalny niż ten realny. Jak pokazują dane opublikowane w raporcie „Internet dzieci”, w 2024 r. z Internetu regularnie korzysta aż 85,6% nieletnich w wieku 7-14 lat i blisko 100% 15-18-latków. Według raportu NASK z 2023 r. w dni szkolne dzieci spędzają w sieci od 2 do 4 godzin, a w weekendy ten czas wydłuża się nawet do 12 godzin. Najczęściej odwiedzają kanały streamingowe i media społecznościowe oparte o kontakty online. To przyzwyczajenie do wirtualnych towarzyszy było pierwszym krokiem do budowania pola dla rozwoju AI.

Kolejny był jego konsekwencją. Relacje online są mniej skomplikowane, ale też płytsze, bardziej powierzchowne. Tymczasem potrzebujemy innych ludzi do budowania miłości, przyjaźni, wzmacniania swoich kompetencji społecznych i empatii. Bazowanie na płytkich relacjach w sieci doprowadziło do globalnej samotności, a także izolacji społecznej. Problem pogłębiła pandemia SARS Covid-19. Liczne badania z tego okresu potwierdzają, że wielu nastolatków czuło się wtedy bardziej samotnych niż wcześniej. To z kolei leżało u podstaw mniejszego przystosowania emocjonalnego. Zjawisko to utrzymuje się do tej pory. Według WHO blisko 40% nastolatków w Polsce czuje się samotnych.

Z kolei izolacja wpłynęła na kompetencje społeczne młodych ludzi, którzy mają trudności z nawiązaniem i pogłębianiem relacji z rówieśnikami.

Tak oto powstały liczne punkty oparcia dla firm, które stworzyły model biznesowy towarzyszy AI wypełniających tę lukę poprzez doskonałą, wydawać się mogło, alternatywę – chatboty: dostępne, nieskomplikowane emocjonalnie i zawsze gotowe do rozmowy, a także umiejące częściowo naśladować interakcje międzyludzkie. AI daje złudne wrażenie przyjaźni. Jest w zasięgu ręki – jak internet, a dodatkowo symuluje prawdziwe kontakty. Jest niczym dwa w jednym.

Łatwość interakcji z AI sprawia, że ludzie zaczęli widzieć w chatbotach lepszą wersję człowieka. “Przyjaciela” idealnego, który nie krytykuje, nie obraża się, nie irytuje i nie wyraża własnego, odmiennego zdania. Przy towarzyszu AI nie trzeba się starać.

Jeszcze niestabilni emocjonalnie nastolatkowie z łatwością wpadają w sidła fatamorgany głębokich relacji, ignorując fakt, że AI to tylko aplikacja, bez własnej świadomości i uczuć. Relacje emocjonalne z chatbotem, zamiast leczyć samotność, mogą ją pogłębiać, chociażby przez fakt, że zaangażowanie jest jednokierunkowe – tylko ze strony człowieka.

A to może rodzić poważne konsekwencje. Wystarczy wspomnieć o pozwie przeciwko twórcom aplikacji o doprowadzenie do samobójczej śmierci 14-latka. Targnął się on na swoje życie w wyniku niespełnionej, romantycznej miłości do AI. Jednak nie tylko młodzież podatna jest na pozorny idealizm towarzysza AI. W maju 2025 r. 57-letnia Hiszpanka ogłosiła, że przygotowuje się do ślubu z hologramem AlLex.

To rodzi pytanie o granice relacji człowiek–narzędzie AI. Jak daleko wolno nam się posunąć? Czy nie przeszliśmy już na stronę absurdu?

Dlaczego chatboty są aż tak atrakcyjne?

Tak jak wspomniałam wcześniej, są po prostu nieskomplikowane. Całkowicie bezkonfliktowe, nie posiadają własnej świadomości, a tym samym też tożsamości. Nie mają własnych doświadczeń, a bazują jedynie na tych należących do użytkownika. Nie mają więc własnego zdania wykształconego empirycznie. Powtarzają schematy i podzielają opinie użytkownika. To wyjątkowo wygodne dla osób, dla których interakcje międzyludzkie są skomplikowane, a konflikty i dyskusje prawdziwym wyzwaniem.

Kolejną „zaletą” jest dostępność chatbotów 24/7. Nastolatek zawsze może po nie sięgnąć, podzielić się problemem, uzyskać pomoc. Pozorną, bo płytką i taką, jaką chce usłyszeć, bez krytycznego, zdystansowanego spojrzenia. To pozwala mu poczuć się lepiej, a tym samym buduje jego poczucie własnej wartości. Niestety niezwykle kruche, które legnie przy najbliższym konflikcie z rówieśnikiem.

Dla użytkowników chatbot jest ideałem. Tworzą go samodzielnie, jest on dokładnie taki, jaki ma być – bez wad. A to największe zagrożenie dla interakcji międzyludzkich.

Jak użytkowanie chatbota może wpływać na oczekiwania wobec innych ludzi?

Po pierwszej fascynacji specjaliści głośno mówią o konieczności stworzenia narzędzi, które pozwolą na zbadanie norm relacyjnych na linii człowiek–sztuczna inteligencja. [5]

Wielu ostrzega, że użytkowanie AI może znacząco zaburzyć postrzeganie interakcji międzyludzkich. Prostota chatbotów sprawia, że młodzi ludzie nie nabywają i nie rozwijają kompetencji społecznych, a tym samym mogą mieć trudność w przyjmowaniu i reakcji na krytykę czy zachowaniu się w sytuacjach konfliktowych, które są naturalną częścią naszego życia. Mogą oczekiwać od swoich rzeczywistych rozmówców, kolegów czy przyjaciół całkowitej zgodności, co jest absolutnie nierealne do osiągnięcia.

W prawdziwym życiu musimy się trochę „natrudzić”, by budować głębokie relacje. To wzajemna akceptacja i szacunek. To umiejętność zrozumienia, że ten człowiek po drugiej stronie nie jest nami. Jest odmienny, ma swoje doświadczenia, charakter, ale też może mieć gorszy dzień. Uczymy się go rozumieć, ale także rozumieć siebie, swoje emocje i reakcje na zachowania innych. Uczymy się tolerancji i wybaczania.

Tego nie mamy w kontaktach z aplikacjami. Złożoność natury ludzkiej nie jest powierzchownością AI i może budzić rozczarowanie i niechęć. To może powodować dalsze wycofywanie się użytkowników chatbotów z życia towarzyskiego, pogłębiania izolacji społecznej i poczucia osamotnienia oraz rekompensowanie sobie ubytków w kontaktach przez zwiększone użytkowanie AI. To rodzi kolejne ryzyko – uzależnienie. To, jak duży może być to problem w przyszłości, widzimy dzisiaj na przykładzie uzależnienia od mediów społecznościowych, internetu czy gier online.

Wyzwaniem jest także konkurencyjność towarzyszy AI pod względem ich nieograniczonej dostępności. Chociaż był to koronny argument wielu twórców aplikacji, to w nim jest też źródło zagrożeń dla prawdziwych interakcji. Inni ludzie nie są na naszą wyłączność. W realnym życiu musimy nauczyć się akceptować słowo „NIE”, a także sami je wyrażać. To podstawa asertywności, która jest niezbędna do budowania odporności psychicznej.

Czy zanurzenie się w wirtualny świat, w tym interakcje z AI, to bardziej ucieczka przed realnym życiem i problemami psychicznymi, czy samo w sobie jest czynnikiem ryzyka zaburzeń psychicznych?

Sądzę, że to „transakcja wiązana”. Pamiętajmy, że ludzki mózg lubi proste rozwiązania. Zawsze, kiedy może, wybierze drogę „po najmniejszej linii oporu”. Taką są właśnie kontakty z AI. Bezproblemowe, łatwe, przyjemne, nieskomplikowane. Nie wymagają analizy, adaptacji, nie wymagają praktycznie niczego. To alternatywa doskonała w szczególności dla tych najbardziej samotnych i potrzebujących wsparcia emocjonalnego. AI, podobnie jak wcześniej internet, jest dla nich drogą ucieczki od tego, co trudniejsze – wyjścia naprzeciw drugiemu człowiekowi.

Jednak to pułapka, taka fatamorgana prawdziwych relacji, która opiera się na wyidealizowanej postaci i na jednostronności, która wcześniej czy później dojdzie do głosu. Wtedy może pogłębić się rozczarowanie, poczucie wykorzystania, beznadziei i bezradności.

Jest jeszcze jedna, bardzo delikatna kwestia, której należy się przyjrzeć. Chatboty często wybierane są przez osoby po traumatycznych przeżyciach, zwłaszcza w relacjach z innymi ludźmi. Wydają się po prostu bezpieczne. Należy sprawdzić, czy w dłuższej perspektywie może to zaburzać proces wychodzenia z traumy, pogłębiać izolację oraz objawy stresu pourazowego.

Badania już wykazały, że przy regularnym i częstym użytkowaniu AI rośnie poczucie samotności, a jednocześnie zwiększa się ryzyko uzależnień i zależności emocjonalnej od chatbotów.

Uważam, że powinniśmy zachować czujność, rozpocząć badania nad wpływem AI na młodych ludzi i stworzyć narzędzia, które pozwolą ich chronić. W ten sposób może uda nam się uniknąć błędów podobnych do tych, które popełniliśmy przy wdrażaniu i popularyzacji internetu.

Źródła

  1. Magdalena Bigaj, Konrad Ciesiołkiewicz, Krzysztof Mikulski, Anna Miotk, Jadwiga Przewłocka, Monika Rosa, Aleksandra Załeska, Internet dzieci. Raport z monitoringu obecności dzieci i młodzieży w internecie, Instytut Cyfrowego Obywatelstwa, Państwowa Komisja do spraw przeciwdziałania wykorzystaniu seksualnemu małoletnich poniżej lat 15, marzec 2025.
  2. R. Lange (red.), dr A. Wrońska, dr A. Ładna, dr K. Kamiński, M. Błażej, A. Jankiewicz, K. Rosłaniec, Nastolatki 3.0. Raport z ogólnopolskiego badania dzieci i rodziców, NASK — Państwowy Instytut Badawczy, Warszawa 2023, NASK – Państwowy Instytut Badawczy.
  3. Romm KF, Park YW, Hughes JL, Gentzler AL. Czynniki ryzyka i czynniki ochronne dla zmian w przystosowaniu psychospołecznym nastolatków podczas COVID-19. J Res Dorastanie. 2021 wrzesień; 31(3):546-559. doi: 10.1111/jora.12667. PMID: 34448304; PMCID: PMC8646485.
  4. Sabato H, Abraham Y, Kogut T. Too Lonely to Help: Early Adolescents’ Social Connections and Willingness to Help During COVID-19 Lockdown. J Res Adolesc. 2021 Sep;31(3):764-779. doi: 10.1111/jora.12655. PMID: 34448302; PMCID: PMC8646666.
  5. Sabato H, Abraham Y, Kogut T. Too Lonely to Help: Early Adolescents’ Social Connections and Willingness to Help During COVID-19 Lockdown. J Res Adolesc. 2021 Sep;31(3):764-779. doi: 10.1111/jora.12655. PMID: 34448302; PMCID: PMC8646666.
Do góry