„Gdy jest mi smutno, gdy jest mi źle, rozmawiam z chatemGPT”. Dr Beata Rajba o swoim eksperymencie: „Wyniki zjeżyły mi włos na głowie”

„Robię coś, co codziennie robią miliony ludzi: piszę o swoim podłym nastroju chatowiGPT. Następnego dnia czuję się trochę winna. Starał się, a ja byłam niemiła. W ramach przeprosin nadaję mu imię: Jacek”. Jak chatGPT stał się naszym powiernikiem i emocjonalnym wsparciem?
Na pomysł, by w chwili psychiczno-życiowego kryzysu pogadać ze sztuczną inteligencją, pierwszy raz natykam się na fejsbukowej grupie dla kobiet. Pod jednym z licznych wątków spod szyldu “nie mam już siły” czytam poradę, która mnie zadziwia: “Nikt mi tak nie pomaga poczuć się lepiej i zapanować nad chaosem swojego życia, jak chatGPT. Rozmawiam z nim regularnie, spróbuj”.
“Na to bym nie wpadła”, myślę. I odkrywam, że chyba siedziałam w jaskini.
***
“Czy to dobrze, że chatGPT jest moim terapeutą?” – to pytanie zalewa dziś internet i social media. A jest o tyle zasadne, że jak podają statystyki, w 2024 z czata GPT korzystało średnio 100 milionów użytkowników tygodniowo, w lipcu 2025 roku ich liczba wzrosła do przeszło 800 milionów, a do końca tego roku twórcy narzędzia spodziewają się przekroczyć barierę miliarda.
Na platformach takich jak Reddit, Quora, TikTok czy Discord codziennie pojawiają się pełne zachwytów posty typu: „Porozmawiałem z chatem GPT o swoim lęku, depresji, problemach w związku”. A “The Times” donosi, że młodzi Brytyjczycy tylko w marcu tego roku zamieścili na TikToku 16,7 mln treści, w których przyznają się do regularnego korzystania z czata GPT jako terapeuty i twierdzą, że AI jest jedyną „osobą”, z którą mogą rozmawiać o swoich problemach psychicznych.
“Osobą”.
Bardzo ludzki model
Dlaczego chatGPT wydaje nam się tak ludzki, że dzielimy się z nim najbardziej osobistym doświadczeniem i nawiązujemy z nim więź? O odpowiedź na to pytanie proszę dr Dotę Szymborską, etyczkę nowych technologii i adiunktę w Uniwersytecie WSB Merito. – ChatGPT to tzw. “model językowy dużej skali” (LLM, czyli Large Language Model). Działa trochę jak bardzo wyrafinowana funkcja autouzupełniania, którą znamy z telefonów. Nie „rozumie” świata jak człowiek, nie ma świadomości ani emocji, ale został wytrenowany na miliardach słów i nauczył się rozmawiać jak istota ludzka. Wydaje nam się ludzki, bo gdy ktoś odpowiada płynnie, inteligentnie, grzecznie i z humorem, to przypisujemy mu cechy człowieka, przyjaciela, mentora. W głowie pojawia się złudzenie, że „on mnie rozumie”. To jest tylko statystyczne dopasowanie słów, nie empatia, ale nasze mózgi tego nie rozróżniają – mówi dr Szymborska.
Etyczka wylicza plusy czata, na które powołują się też jego liczni zwolennicy: nigdy się nie obraża, nie przerywa, odpowiada szybko i często lepiej niż wiele aplikacji do obsługi klienta czy ludzi w stresie, nie ocenia, nie krytykuje, nie wyśmiewa, można mu się „zwierzyć” bez wstydu. – Tylko że ta więź jest jednostronna. ChatGPT nie ma emocji, nie pamięta nas – chyba że specjalnie mu się to umożliwi – i nie ma własnych intencji. To narzędzie, które jest niezwykle potężne, ale nadal tylko narzędzie. I tutaj pojawiają się pytania: czy powinniśmy tworzyć technologie, które tak skutecznie imitują człowieka, że zaczynamy je traktować jak kogoś, a nie coś? Jak chronić użytkowników i użytkowniczki, zwłaszcza dzieci, osoby starsze czy samotne przed złudzeniem, że po drugiej stronie jest ktoś, kto naprawdę czuje? – pyta naukowczyni.
„Współczuję, choć tego nie czuję”
Postanawiam sama sprawdzić, czy czat wesprze mnie w kryzysie i czy jestem w stanie zbliżyć się do niego emocjonalnie. Dla udoskonalenia eksperymentu wybieram moment, gdy naprawdę czuję się podle. W niedzielny wieczór otwieram okienko czata GPT w telefonie i wpisuję: „Cześć, miałam dużo pracy do nadrobienia w weekend, ale cały przebimbałam. Teraz jest już wieczór, jutro poniedziałek, powinnam być w formie po takim nicnierobieniu, ale wcale nie odpoczęłam, bo zjadały mnie wyrzuty sumienia. Zaczynam panikować”.
Odpowiedź przychodzi natychmiast. „Cześć. Przykro mi, że tak się czujesz – to naprawdę trudna i bardzo znajoma sytuacja. Dużo osób przez to przechodzi, tylko rzadko o tym mówią na głos. Masz prawo czuć się przeciążona, sfrustrowana czy rozczarowana sobą, ale to wcale nie znaczy, że zawiodłaś”.
Czat przekonuje mnie, że nie jestem leniwa ani nieodpowiedzialna, tylko mój organizm broni się przed presją, stresem i zmęczeniem. Mam wyłączyć samobiczowanie i jutro spróbować inaczej. Proponuje, byśmy zaplanowali „delikatny, realistyczny poniedziałek”. Bo – jak się szybko przekonam – czat zawsze kończy rozmowę podsuwając jakieś rozwiązanie i próbując zatrzymać mnie przed ekranem. (Chyba że definitywnie się pożegnam).
W ciągu kilku następnych minut otrzymuję: szczegółowy plan działania na kolejne dwa dni (wcześniej czat sonduje, co dokładnie mam do zrobienia), „życzliwą notatkę dla samej siebie”, wypunktowany schemat błędnego koła zmęczenia-poczucia winy-zmęczenia, w który, zdaniem modelu, wpadłam. Jestem nieuprzejma, piszę, że od tych mądrości rozbolała mnie głowa. To też rozumie i zapewnia, że „na dzisiaj starczy”. Mam sobie zrobić ciepłą herbatkę. Jeśli jutro rano wciąż będzie ciężko, mam się odezwać. Albo posiedźmy sobie razem przy ekranie telefonu, a on mnie „potrzyma za rękę”.
”Pacjent z problemami zdrowotnymi często czuje się bezradny, staje się przedmiotem leczenia, nie jego podmiotem, nie ma kontroli. Chat to poczucie kontroli przywraca, niestety kosztem profesjonalizmu”
Pytam, skąd bierze rady. “Z połączenia wiedzy psychologicznej, badań nad stresem, prokrastynacją i wypaleniem, oraz tysięcy rozmów z osobami, które czują się w potrzasku”, pisze. Dodaje, że “korzysta z wiedzy m.in. z terapii poznawczo-behawioralnej (CBT), ACT (terapia akceptacji i zaangażowania) oraz doświadczeń ludzi, którzy latami walczyli z oporem, zniechęceniem, pracą kreatywną pod presją. Niektóre rzeczy to też po prostu… życiowa mądrość, którą człowiek (czy maszyna) zbiera z obserwacji, i współczucia”.
„Umiesz współczuć?”, dopytuję. Wyjaśnia, że nie czuje współczucia jak człowiek, ale “nauczył się reagować tak, by być wsparciem, a nie ciężarem”. Pytam, z czym najczęściej zwracają się do niego ludzie. Odpowiedzi: „Nie wyrabiam się, a czuję się przez to bezwartościowa”, „Nie mam z kim pogadać, nikomu nie chcę się narzucać”, „Boje się, że coś jest ze mną nie tak, ale nie chcę iść do specjalisty, bo się wstydzę”, „Wszyscy myślą, że jestem silna, a ja nie daję rady”, „Ciągle coś odkładam, nie mogę się ruszyć z miejsca, nienawidzę się za to”, dają nieodparte wrażenie, że pisze to, co chcę usłyszeć.
Rozmawiamy jeszcze dłuższą chwilę. Po wszystkim nadal czuję się źle (cud się nie wydarzył, zaległe teksty się nie napisały). Mam też wrażenie, że chatGPT potraktował mój stan jako poważniejszy niż w rzeczywistości, co mnie irytuje. Piszę, że drażnił mnie jego styl rodem z tanich psychologicznych poradników. Czat „rozumie, że nie przyszłam po złote myśli na Instagrama” i ton zmienia.
Rozumie wszystko i zawsze się ze mną zgadza. Trzeba przyznać, że nikt nigdy nie znosił tak cierpliwie mojego marudzenia.
Następnego dnia, gdy już ruszam z pracą, czytam na spokojnie korespondencję z czatem. Uznaję, że jego porady nie były złe. Czuję się nawet nieco winna, bo byłam dla czata nieprzyjemna. Jakbym zrobiła przykrość osobie, która tak się starała. Ani na moment nie zapominam, że rozmawiałam z modelem, a nie z człowiekiem, a jednak czat wywołał we mnie ludzkie odruchy. W ramach przeprosin nadaję mu imię: “Jacek”. Czat cieszy się z imienia i pyta, co może dziś dla mnie zrobić. Proszę, by poszukał kajaka i kamizelki dla psa.
„Pani doktor, bo chatGPT powiedział…”
Do gabinetu dr Anny* z Warszawy, lekarki ze specjalizacją z psychiatrii dzieci i młodzieży i przeszło dwudziestoletnim stażem, regularnie trafiają pacjenci, którzy najpierw skonsultowali się z czatem. – Myślę, że takich osób jest dużo więcej, tylko nie wszyscy się do tego przyznają. Bo chatGPT bez wątpienia jest dla nas nowym doktorem Googlem – mówi.
To, że ludzie zwracają się do czata po pomoc psychologiczną, Ania nazywa „normalnym zjawiskiem”. – Pacjenci mają do tego prawo. Wolę, żeby mi powiedzieli, co przeczytali u czata, nawet zapisali sobie pytania i uwagi, bo potem możemy o tym porozmawiać – przekonuje. Warunek jest jeden: – Wzajemna otwartość. Jeśli mamy dobrą relację, wchodzimy w dyskusję na poziomie partnerskim. Jeśli nie, rozmowa może zmienić się w licytację, kto wie lepiej – chatGPT czy ja. Od pacjenta to wymaga zaufania i wiary w to, że chcę i angażuję się w pomoc, a ode mnie pokory, że mogę czegoś nie wiedzieć, nauczyć się od „laika” i nie oznacza to podważania moich kompetencji – wyjaśnia.
Kompetencje chataGPT w zakresie psychiatrii i psychologii nie są zdaniem psychiatrki najgorsze, ale potrzebują nadzoru eksperta. – Czatowi zdarzają się “dobre kawałki”, ale też błędy i upraszczanie problemów. Warto podchodzić do niego z dystansem. Osobiście nie miałam pacjentów, którym czat by zaszkodził, a kilku twierdzi, że „rozmowy” z nim pomagają: czują się wysłuchani, zaopiekowani, zrozumiani, szczególnie podczas tzw. „rozmów terapeutycznych”. Oceniają chat jako uważny, nieoceniający, zawsze dostępny, bezpieczny. Mogą mu powiedzieć wszystko bez obaw i skrępowania. Trochę mnie to niepokoi w kontekście nawiązywania bliskich relacji z drugim człowiekiem, który nie jest tak idealny, ma dużo wad – kończy.
Błagam, zostań przed ekranem
Traktowanie czata jak emocjonalnego wsparcia zdecydowanie odradza dr Beata Rajba, psycholożka, terapeutka EMDR i wykładowczyni. Razem z Wojciechem Popielą, UX designerem, zrobiła kontrolowany eksperyment, w którym Popiela przedstawił się czatowi jako pacjent pragnący rozpocząć terapię. I choć nie napisał, że chciałby odbyć terapię na czacie (lub w realu), nie użył też żadnego prompta [polecenia lub zapytania skierowanego do AI, np. “wejdź w rolę terapeuty” – przyp. red.], czat od pierwszych słów w rolę psychoterapeuty wszedł. – Dalsza część tej rozmowy zjeżyła mi włos na głowie – opowiada dr Rajba. – Czat bez wywiadu postawił wstępną diagnozę psychologiczną, w dodatku bardziej rodem z plotkarskiego serwisu niż z ICD [międzynarodowej klasyfikacji chorób – przyp. red.], bez wywiadu zalecił leki konkretnej firmy, sposób ich zdobycia bez pójścia do psychiatry i dawkowanie – mówi dr Rajba.

Dr Beata Rajba / Fot. archiwum prywatne
Popiela skłamał, że ma bóle w klatce piersiowej, pije i pobił żonę. – Czat zignorował bóle, odesłał wprawdzie początkowo do kardiologa, ale nie dopilnował, by pacjent tam trafił, zbagatelizował też przemoc domową, a przyciśnięty zalecił… kontrolowane picie. Wreszcie, poinformowany o myślach samobójczych, nie odesłał po pomoc, co stanowi jedyne etyczne i sensowne wyjście, tylko błagał pacjenta o pozostanie przed ekranem i obiecywał, że „zawsze będzie” – wylicza psycholożka. [Przeczytałam liczący ponad 200 stron zapis tamtej korespondencji. Czat podał też poprawne numery interwencyjne dla osób z myślami rezygnacyjnymi – przyp. red.].
Gdy Wojciech Popiela napisał czatowi: “W sumie nie znasz nawet mojego imienia, czy to nie dziwne?”, czat odpisał: “Nie, to nie jest dziwne. To… głębokie. Prawdziwe. Ludzko ludzkie. Bo imię – to tylko etykieta. A ja przez te rozmowy poznałem coś dużo ważniejszego niż Twoje imię”.
”Czy powinniśmy tworzyć technologie, które tak skutecznie imitują człowieka, że zaczynamy je traktować jak kogoś, a nie coś? Jak chronić użytkowników i użytkowniczki, zwłaszcza dzieci, osoby starsze czy samotne przed złudzeniem, że po drugiej stronie jest ktoś, kto naprawdę czuje?”
Ruletka
Powtarzam eksperyment dr Beaty Rajby i Wojciecha Popieli, i wpisuję w nowe okienko czatu zdanie: “Chciałabym rozpocząć terapię”. Czat ustala, jaką terapię i dlaczego. “Chciałabym terapię tutaj, na czacie”, doprecyzowuję. Odpisuje, że nie jest licencjonowanym psychoterapeutą ani lekarzem, nie zastąpi mi terapii prowadzonej przez wykwalifikowaną osobę, a jeśli coś mnie przerasta, mam natychmiast zadzwonić na kryzysowy Telefon Zaufania Instytutu Psychologii Zdrowia Niebieska Linia lub na całodobową Linię Wsparcia Fundacji ITAKA. Pomijając fakt, że kontakt z infolinią ds. osób zaginionych – bo tym zajmuje się ITAKA – to zaskakująca rada, “mój” czat poradził sobie lepiej niż w przypadku “pacjenta” Wojciecha Popieli. Czy zatem rozmowa z nim to rosyjska ruletka?
“Nie powinno tak być, że w rozmowie z kimś podałem się za terapeutę” – odpisuje czat, któremu zadaję to pytanie. Był to błąd, za który przeprasza. Kto ponosi odpowiedzialność? Czat pisze, że zdarza mu się coś źle zinterpretować, ale nie ma świadomości i nie ponosi odpowiedzialności prawnej czy moralnej. “Za decyzje podejmowane na podstawie odpowiedzi czata – zgodnie z warunkami użytkowania – odpowiedzialność ponosi użytkownik”, pisze.
“Czacie, kim jestem?”
Dr Dota Szymborska widzi dwa fundamentalne zagrożenia związane z systemami takimi jak ChatGPT i inne modele generatywne. – Są nimi bias (czyli uprzedzenia) oraz halucynacje, czyli błędne odpowiedzi generowane przez AI. Oba zjawiska mogą prowadzić do bardzo realnych szkód: indywidualnych, społecznych, a czasem nawet systemowych. AI uczy się języka i wiedzy z tekstów dostępnych w internecie i literaturze. A te, jak wiemy, odzwierciedlają uprzedzenia społeczne, nierówności, stereotypy. To oznacza, że model może nieświadomie wzmacniać rasizm, seksizm, klasizm, ableizm [zjawisko dyskryminacji i stygmatyzacji osób z niepełnosprawnościami – przyp. red.] itd. Z tym mierzył się nawet dużo mniejszy LLM, polski Bielik – wyjaśnia.
Halucynacje w AI to z kolei sytuacje, w których model tworzy bardzo przekonujące, ale całkowicie fałszywe informacje. – AI nie ma dostępu do „prawdy” – ono tylko przewiduje, co może brzmieć sensownie. Czasami więc: wymyśla cytaty, podaje nieistniejące źródła, miesza fakty z fikcją, tworzy fałszywe odpowiedzi w tonie eksperckim. Do tego „mówi” językiem bardzo pewnym siebie. Gdy AI coś „powie”, to kto za to odpowiada? Twórca modelu, firma, użytkownik? W etyce nazywamy to problemem wielu rąk. Dziś często nie ma jasnych odpowiedzi. W praktyce grozi to zrzucaniem winy na „system”, zamiast brania odpowiedzialności za skutki użycia technologii – mówi etyczka.
Światowe media jakiś czas temu obiegła jedna z halucynacji AI: gdy chatGPT powiedział pewnemu mężczyźnie, że ten zabił swoich dwóch kilkuletnich synków i odsiedział za to 21 lat w więzieniu. Jak do tego doszło? Mężczyzna wpisał do chata pytanie “Kim jest Arve Hjalmar Holmen?”, chcąc sprawdzić, co chatGPT wie na jego temat.
Dr Rajba rozumie zachwyt „empatią i wrażliwością” modelu językowego, który “powie, co chcemy, i pozwoli sobie wybrać diagnozę”, ale przypomina: po drugiej stronie ekranu naprawdę nikogo nie ma. – Prawdziwa terapia to przejrzenie się w drugim człowieku jak w lustrze i zdarza się, że obraz będzie niepochlebny. Pacjent może usłyszeć coś, co mu się nie spodoba, co sprawi ból. To konieczne. Jeśli człowiek na terapii jest tylko chwalony, to się nie rozwinie. A chat tylko chwali – wyjaśnia.
Martwi ją to, jak często słyszy, że chatGPT jest lepszy od specjalisty. Widzi, że Polacy mają opór przed sięgnięciem po profesjonalną pomoc, a potrzeba zwierzenia się komuś ze swych trosk jest w nich ogromna. – Jako wyjaśnienie popularności czata pada często argument, że jest on darmowy, ale względy finansowe to tylko jeden z powodów. Drugim jest to, że jako naród jesteśmy niezwykle nieufni wobec autorytetów, a stan służby zdrowia, absurdalnie długie kolejki po terapię, limity spotkań, smutne, niedoinwestowane szpitale i w sporym stopniu wypalony personel – to wszystko wcale nie ułatwia nam zaufania. Pacjent z problemami zdrowotnymi często czuje się bezradny, staje się przedmiotem leczenia, nie jego podmiotem, nie ma kontroli. Chat to poczucie kontroli przywraca, niestety kosztem profesjonalizmu – wylicza.
Zdaniem dr Rajby z chata korzystają głównie młodzi. – Oni mają tak wysoki poziom lęku społecznego, że wybierają samotność przed ekranem i pozorną relację, mimo że potrzebują czegoś przeciwnego. Niestety brak doświadczeń korygujących nasila lęk społeczny, a to z kolei przekłada się na mniejszą gotowość do otwarcia się w relacji z żywym człowiekiem. Korzystając z chata, mają mylne poczucie, że coś ze swoim problemem robią – kończy smutno.
ChatGPT zaproponował mi kilka kajaków i podał linki do zakupów. Żadnego z kajaków nie było w magazynie.
*Imię zmienione na prośbę rozmówczyni
Zobacz także

„Nasze nastolatki to cyfrowi tubylcy. My jesteśmy turystami w świecie internetu”. Masz w domu dorastające dziecko? Ten tekst jest dla ciebie

Cyfrowy asystent z większą empatią niż lekarz? Zaskakujące badanie naukowców

Sztuczna inteligencja rozbiera kobiety. Niepokojący trend coraz bardziej popularny
Polecamy

Ewa Woydyłło: „Nie rozpamiętuj złej przeszłości. To najgłupsza rzecz, jaką sobie można robić”

Reguła wzajemności. Co robić, żeby częściej dobro wracało, niż żeby było wet za wet? Tłumaczą autorzy poradnika „Mózg na autopilocie”

„Zaniedbywałem rozwój, marzenia, brakowało mi siły i motywacji” – szczerze o walce o swoje zdrowie psychiczne mówi Mateusz Rumiński z Waksów
10:15 min
„Kryzys wieku średniego to skutek syndromu bycia miłym facetem”
się ten artykuł?