Katarzyna Wąś-Zaniuk, Strona Zdrowia: Z badania przeprowadzonego wśród 385 psychoterapeutów wynika, że aż 54 proc. z nich uważa, iż korzystanie przez pacjentów z ChatGPT w celach psychologicznych może wywierać na nich pozytywny wpływ, a blisko 10 proc. twierdzi, że zdarza się to często. Jak Pan ocenia to zjawisko? Czy widzi Pan w tym jakieś plusy? Jeśli tak, co za tym przemawia?
Dr Michał Feldman, lekarz psychiatra z Centrum Terapii Dialog, autor badania: Zdecydowanie warto przyjrzeć się tej zmianie z otwartą głową, ale i z ostrożnością. Sam fakt, że ponad połowa terapeutów dostrzega pozytywny wpływ ChatGPT na pacjentów, świadczy o tym, że narzędzie to realnie zaistniało w świecie psychoterapii – nawet jeśli jeszcze nie w gabinetach, to z pewnością w domach pacjentów. ChatGPT jest zawsze dostępny, nie ocenia, pozwala „wygadać się” w sytuacjach kryzysowych. Dla niektórych to pierwsza próba nazwania swoich emocji, zanim odważą się zrobić to przed drugim człowiekiem. Bywa, że nastolatki, które wstydzą się mówić o sobie na głos, zaczynają od rozmów z AI, co z czasem pomaga im otworzyć się także na kontakt z terapeutą. Dzięki takim rozmowom pacjenci często przychodzą lepiej przygotowani, wiedzą, czego szukają. To cenny punkt wyjścia do pracy terapeutycznej.

Jakie mogą być pułapki i zagrożenia związane z traktowaniem ChatGPT jako substytutu prawdziwej psychoterapii?
Psychoterapeuci zauważają, że część pacjentów trafia na terapię znacznie później niż jeszcze kilka lat temu, często w cięższym stanie. Zamiast zgłosić się po pomoc, miesiącami omawiają swoje trudności z ChatGPT. Inni terapeuci zgłaszają, że AI potrafi stawiać błędne diagnozy. ChatGPT nie jest w stanie odczytać mowy ciała, tonu głosu ani emocjonalnego ładunku związanego z opowieścią pacjenta. A przecież w psychoterapii często pracujemy z tym, co nieuświadomione – z tym, czego pacjent nawet nie podejrzewa, że nie wie. Psychoterapeuta potrafi to dostrzec i w bezpieczny sposób pomóc pacjentowi to nazwać.
Uwodzące w relacji z ChatGPT może być złudne poczucie, że jesteśmy w głębokiej relacji. Wynika to z faktu, że ChatGPT „pamięta” nasze poprzednie rozmowy i sprawia wrażenie zaangażowanego partnera. Do tego, ze względu na brak emocji, może być odbierany jako obiektywny i sprawiedliwy – czyli „ktoś, komu można zaufać”. Tymczasem ogromna wartość psychoterapii polega na kontakcie z drugim, czującym człowiekiem. To relacja, w której uczymy się odczytywać emocje innych, rozumieć ich wpływ na nas i nasz wpływ na nich. Nie da się tego przepracować z bezduszną maszyną, która niezależnie od naszych emocji zawsze pozostanie neutralna.
Zdarza się też, że ChatGPT wzmacnia objawy, zamiast je redukować. Na przykład w zaburzeniach obsesyjno-kompulsyjnych (nerwicy natręctw) pacjenci wielokrotnie pytają o to samo. ChatGPT, skonstruowany tak, by odpowiadać na potrzeby użytkownika, za każdym razem udziela odpowiedzi. To chwilowo przynosi ulgę, ale z perspektywy klinicznej wiemy, że takie zachowanie pogłębia zaburzenie, zamiast je leczyć. Żaden psychoterapeuta nie prowadziłby terapii w ten sposób.
Na ile ChatGPT może pomóc w codziennym radzeniu sobie z emocjami?
Wielu psychoterapeutów przytacza historie pacjentów, którym ChatGPT realnie pomógł w trudnych emocjonalnie chwilach – np. po kłótni z partnerem czy w trakcie napadu paniki. Jego neutralność może sprzyjać szukaniu konstruktywnych rozwiązań, pomaga spojrzeć z dystansem na przeżywany dramat. Oczywiście taką pomoc pacjenci mogą otrzymać także w gabinecie psychoterapeuty, ale ChatGPT jest dostępny natychmiast, a na psychoterapię trzeba poczekać.
Aby lepiej rozumieć emocje i zarządzać nimi, bardzo przydaje się wiedza psychologiczna. ChatGPT potrafi ją przekazywać w sposób przystępny, przy okazji codziennych rozmów. I rzeczywiście – robi to całkiem skutecznie. Dzięki temu pacjenci mogą lepiej radzić sobie z emocjami, zanim trafią na terapię lub między sesjami.
Jak wyczuć moment, w którym zaczynamy za bardzo polegać na radach ChatGPT, zamiast na własnym osądzie czy profesjonalnym wsparciu?
ChatGPT może być doradcą, ale nie może zastąpić samodzielnego myślenia. Jeśli zauważamy, że w każdej, nawet błahej sprawie, nie podejmujemy decyzji bez konsultacji z AI, to sygnał ostrzegawczy. Podobnie, gdy bliscy zaczynają nas nie rozumieć lub nie akceptują naszych wyborów. Albo gdy rady ChatGPT zaczynają pogarszać nasze relacje, samopoczucie czy funkcjonowanie. Wtedy warto jak najszybciej skonsultować się ze specjalistą.
Czy są grupy osób, które pod żadnym pozorem nie powinny „terapeutyzować się” przy użyciu ChatGPT?
Tego jeszcze nie wiemy. Trwa wiele badań nad wpływem takich narzędzi na zdrowie psychiczne, ale na dziś nie mamy wystarczających danych, by stworzyć konkretne zalecenia. Dlatego warto być ostrożnym, szczególnie w przypadku osób z ciężką depresją, myślami samobójczymi lub poważnymi zaburzeniami psychicznymi.
W jakich sytuacjach nawet najbardziej zaawansowana AI nie jest w stanie zastąpić terapeuty? Co Pana zdaniem stanowi największą wartość w prawdziwej terapii?
To zależy od tego, z czym pacjent zgłasza się na terapię. Innych kompetencji wymaga pomoc osobie po traumie, innych, praca z problemami snu, a jeszcze innych, terapia trudności relacyjnych czy zaburzeń odżywiania. W każdej z tych sytuacji psychoterapeuta może skutecznie pomóc. ChatGPT może dostarczyć cennych wskazówek czy wiedzy, ale nie zastąpi żywej relacji terapeutycznej. Dlatego warto myśleć o tych narzędziach jako o wzajemnie się uzupełniających. Najlepiej, jeśli pacjent korzysta z psychoterapii i, w porozumieniu z terapeutą, poszerza tę pracę o rozmowy z ChatGPT.
Dziękuję za rozmowę.
Informacje o badaniu:
Badanie przeprowadzono metodą anonimowego kwestionariusza ankietowego (CAWI/PAPI) wśród 385 psychoterapeutów i psychologów z całej Polski w dniu 12 kwietnia 2025 r. w trakcie Ogólnopolskiej Konferencji „Integracja w psychoterapii”, organizowanej przez Szkołę Psychoterapii Dialog.