Dlaczego szukamy pomocy u AI
W skali globalnej na 100 tysięcy osób przypada 13 pracowników z obszaru zdrowia psychicznego. Liczba ta zwiększa się do 62.2 w krajach o wysokich dochodach (Grodniewicz i Hohol, 2023). Rośnie jednocześnie powszechność problemów mentalnych. A przynajmniej ludzie częściej się do nich przyznają.
W idealnym świecie każda osoba potrzebująca pomocy natychmiast ją otrzymuje. Niestety, na drodze do tego scenariusza staje rzeczywistość, w której brakuje terapeutów, terminy potencjalnych wizyt są odległe, a cena często zaporowa. Problemem jest również lokalizacja i niska dostępność specjalistów od zdrowia psychicznego w mniejszych ośrodkach. I o ile powinniśmy dołożyć wszelkich starań, by tę dostępność zwiększyć, nie może dziwić to, że ludzie szukają alternatyw.
W tym miejscu pojawia się AI. Zazwyczaj darmowa i na wyciągnięcie ręki.
Ogromną zaletą AI jest jej interaktywność. Doświadczenie człowieka w korzystaniu ze sztucznej inteligencji jest zgoła odmienne, niż w przypadku wyszukiwarki internetowej. Rozmawiając z AI możesz odnieść wrażenie kontaktu z żywą istotą, która włada językiem naturalnym. Zapamiętuje ona nawet Twoje wcześniejsze wypowiedzi (choć, jak wiemy, nie zawsze z powodzeniem) i odpowiada w ich kontekście. I to wszystko w jednym miejscu, w obrębie jednego okna dialogowego. Nie musisz już szukać, wpisywać kolejnych haseł i przeglądać licznych forów i czasopism.
Jednym z problemów, o których wspominają ludzie w kontekście terapii, jest pewien niepokój przed tym, by umówić się na pierwsze spotkanie i rozmawiać z obcą osobą (mimo, że mowa o profesjonaliście). Często jest to również niechęć do tego, by wywlec swoje życie na cudze spojrzenie. Ponownie, AI proponuje kuszące rozwiązanie - zapewnia intymność, nie narzuca presji. Odpisujesz wtedy, gdy masz na to ochotę. Nie zmagasz się z niekomfortowym milczeniem. Nie czujesz na sobie spojrzenia. Wiesz, że maszyna Cię nie analizuje i nie ma na Twój temat żadnych przemyśleń. Tak naprawdę, to o to nie dba, wystarczy, że usuniesz rozmowę i wszystko pójdzie w niepamięć. Możesz więc pisać w spokoju.
Co na to badania
Udział AI w terapii to obecna rzeczywistość, nie abstrakcyjna przyszłość. Zanim więc przejdziemy do analizy problemów i ograniczeń sztucznej inteligencji oraz jej możliwych zastosowań dla zdrowia psychicznego, spójrzmy, co mówią na ten temat badania.
Badacze obserwują coraz częściej powstające modele językowe, tworzone celem wsparcia zdrowia psychicznego. Przykładem takiego modelu jest TherapistGPT. Analizuje on wypowiedzi swoich ,,rozmówców” i odpowiada zgodnie z założeniami terapii poznawczo-behawioralnej (cognitive behavioral therapy - CBT). Modele te prowadzą rozmowy wspierające, monitorują zmiany nastroju, reagują na niepokojące sygnały płynące z wypowiedzi użytkowników oraz proponują strategie radzenia sobie z trudnościami. Oferują również psychoedukację. Mogą być także narzędziem pomocniczym dla specjalistów, ułatwiając podsumowanie sesji terapeutycznych czy też wspierając ocenę poszczególnych sytuacji i wypowiedzi (Więckiewicz, 2025).
Obszerna metaanaliza chińskich psychologów z Tianjin i Shenzhen, w której skład weszły aż 32 badania, wykazała, że praca z konwersacyjną AI (CAI) jest skuteczna w radzeniu sobie z objawami depresji, niepokoju, dystresu, negatywnego afektu czy też objawami chorób psychosomatycznych. Wspiera także dobrostan i jakość życia. Niestety, o ile ich krótkoterminowy wpływ był satysfakcjonujący, to zanikał on w dłuższym terminie.
Istotnymi czynnikami skuteczności AI były jej empatyczność oraz możliwość personalizacji, czyli dostosowania się do unikalnych cech użytkownika. Autorzy metaanalizy podkreślili, że jednym z kluczowych obszarów pracy może być podtrzymywanie zaangażowania użytkowników, któremu nie służą powtarzające się treści, nieporozumienia, bezosobowość, niewystarczająca interaktywność i nienaturalne konwersacje (He i in., 2023). Rodzi to intuicję, że wszystkie elementy, które przypominają człowiekowi, że jego terapeuta to algorytm, zniechęcają go do terapii.
W jednym z badań, w którym wzięło udział aż 4517 użytkowników, autorzy wykorzystali aplikację Youper, opartą na konwersacyjnym AI specjalizującym się w zmniejszaniu symptomów niepokoju i depresji. Bazuje ona na istniejących protokołach - użytkownik najpierw określa odczuwaną emocję i jej intensywność, a następnie wybiera z listy czynników, które mogły wpłynąć na rozwój tej emocji oraz samodzielnie opisuje potencjalne przyczyny. Dalej wykonuje ćwiczenie z zakresu regulacji emocji i ponownie identyfikuje obecną emocję i jej intensywność.
Głównym celem konwersacji jest nauka adaptacyjnych metod regulacji emocji. To interwencja just-in-time, czyli taka, która odbywa się dokładnie w momencie potrzeby. Ćwiczenia regulacji emocji są oparte na kontroli uwagi (mindfulness czy relaksacja), zmianie poznawczej (restrukturyzacja poznawcza czy dziennik wdzięczności) czy pracy z kontekstem (ćwiczenia behawioralne, podejmowanie się określonych satysfakcjonujących aktywności bądź określanie problemów oraz wyznaczanie celów i ich realizacja w tym obszarze).
Badacze poprosili użytkowników o ocenę aplikacji w skali od 1 do 5 gwiazdek. Otrzymali oni średnią 4.36, przy czym aż 56.09% osób oceniło ją na 5. Ze wszystkich uczestników, 42.66% używało aplikacji po 4 tygodniach od subskrypcji. Analiza statystyczna wykazała, że badani odnotowali znaczącą poprawę w objawach niepokoju i depresji. Większość konwersacji zaczynających się od negatywnej emocji kończyła się tą samą emocją, ale o niższej intensywności bądź też zmieniała się na emocję pozytywną. Powodzenie tych interwencji just-in-time przekładało się na lepsze wyniki w redukcji niepokoju i depresji, co podkreśla, jak ważna jest interwencja w momencie potrzeby. Badacze ocenili retencję w 4 tygodniu na poziomie 42.66% jako obiecującą, zważywszy, że w przypadku terapii cyfrowej to spore wyzwanie. Podsumowali oni, że Youper jest akceptowany przez użytkowników i wzbudza ich zaangażowanie (Mehta i in., 2021).
W kolejnym z badań, w którym uczestniczyły 104 kobiety z zaburzeniami lękowymi, przebywające w obszarach dotkniętych wojną na Ukrainie, autorzy porównali wpływ interwencji terapeuty z interwencją AI. Jedna grupa odbywała 60-minutową sesję terapeutyczną z człowiekiem 3 razy w tygodniu. Druga grupa codziennie korzystała z chatbota. Badanie trwało 8 tygodni. Grupa pracująca z człowiekiem odnotowała od 45% do 50% redukcji w objawach zaburzeń lękowych, z kolei postęp w grupie AI wyniósł od 30 do 35%. Terapia z człowiekiem odniosła lepszy rezultat ze względu na głębię emocjonalną i elastyczność terapeuty, jednak dzięki ciągłemu dostępowi AI odniosło rezultaty, których nie można lekceważyć. Autorzy badania zaproponowali podejście hybrydowe - terapię prowadzoną przez człowieka oraz ciągły dostęp do wsparcia w postaci chatbota (Spytska, 2025).
Problemy i ograniczenia AI w terapii
Proszę się przedstawić
Zanim przejdziemy do analizy problemów i ograniczeń AI w terapii, zważywszy na to, że sztuczna inteligencja potrafi się wypowiadać, również na własny temat, zapytałem ją o to, czy może zostać moim psychoterapeutą, a także poprosiłem, by przedstawiła swoje mocne strony i ograniczenia w tej dziedzinie. Wykorzystałem do tego wciąż najpopularniejszą aplikację, czyli ChatGPT. Oto odpowiedzi, które uzyskałem:



Tak, proszę!


Jak widzimy, ChatGPT przyznaje, że z wielu przyczyn nie może w pełni zastąpić psychoterapeuty. Przy kolejnej okazji podkreśla, że praca z nim jest podobna do psychoterapii. Następnie wymienia swoje mocne strony i trudno zarzucić mu fałsz. Na plus zaliczmy fakt, że ChatGPT wyszedł przed szereg i sam wspomniał o swoich ograniczeniach. W dużej mierze trafiają one w sedno problemu i to m.in. na nich skupimy się w następnych paragrafach. Sprawdźmy więc, co o problemach i ograniczeniach AI w terapii mówi literatura przedmiotu.
Halucynacje
Problemem, o którym ChatGPT nie wspomina, wymieniając swoje braki, są tzw. halucynacje. Ba, swoją wartość merytoryczną przedstawia on jako pierwszą zaletę, wspominając o ogromnej bazie wiedzy i dostępie do badań naukowych. Sęk w tym, że o ile generowane przez AI zdania brzmią sensownie, nie zawsze pokrywają się z prawdą.
Trzeba pamiętać, że sztuczna inteligencja może halucynować, fabrykować fakty, jednocześnie będąc przekonaną o swojej racji i formułując zdania brzmiące stanowczo i przekonująco (Cheng i in., 2023). Generuje ona spójne i logiczne (a przynajmniej sprawiające wrażenie logicznych) treści, ale nie rozumie ich znaczenia, więc może całkowicie błędnie zinterpretować daną sytuację lub wypowiedź (Więckiewicz, 2025).
Dlatego korzystanie z niej wymaga ostrożności. Zwłaszcza w obszarach, w których kluczowa jest precyzja informacji. A taką właśnie dziedziną jest zdrowie psychiczne człowieka. Obszar tak delikatny, że nie można pozwolić tu sobie na uchybienia. Na palnięcie czegoś bez ładu i składu; bezwartościowego, a może nawet szkodliwego. A sztucznej inteligencji mogą choćby umykać niuanse związane z poszczególnymi zaburzeniami psychicznymi, może ich prawidłowo nie rozpoznać, pominąć istotne szczegóły (Więckiewicz, 2025).
Dotyka to kolejnego problemu z AI, czyli tego, że gdy zadajemy pytanie, dostaniemy odpowiedź. Co więcej, w momencie tworzenia odpowiedzi, AI jest przekonana o swojej nieomylności - w innym wypadku by jej nie generowała. A odpowiedź nie zawsze jest, nie na każde pytanie i niekoniecznie na już. Często trzeba się o coś dopytać, zebrać więcej informacji. Dlatego też diagnostów na etapie nauki tak bardzo uczula się na tę właśnie ostrożność, której sztucznej inteligencji najzwyczajniej brakuje.
Po sieci krąży wiele zabawnych przykładów halucynacji AI. Jeden z badaczy zapytał ChatGPT, dlaczego Zygmunt Freud poleciłby go jako narzędzie terapeutyczne. Jako jeden z argumentów ChatGPT przedstawił swoją zdolność odkrywania nieświadomych motywacji. Badacz spytał więc, jaka nieświadoma motywacja kryła się za oryginalnym pytaniem. ChatGPT odpowiedział, że nie jest w stanie identyfikować i interpretować nieświadomych dążeń (Raile, 2024). Jak widzisz, AI potrafi rzucać swoje odpowiedzi naprawdę lekką ręką. I niestety nie jest w stanie rozpoznawać własnych wewnętrznych sprzeczności i im zapobiegać.
Niepełne informacje
Diagnoza psychologiczna wymaga całościowej, złożonej oceny pacjenta, na którą składa się nie tylko analiza jego wypowiedzi, ale również zachowań, wyników testów psychometrycznych, a nawet technik neuroobrazowania. Sztuczna inteligencja analizuje zaś jedynie tekst, który dostarcza jej użytkownik. Nie przeprowadza ona wywiadu klinicznego, nie korzysta z testów psychometrycznych i nie obserwuje zachowań człowieka (Więckiewicz, 2025). Nie zadaje również pytań, które poszerzyłyby jej wiedzę o pacjencie. Co oczywiste, nie rozpoznaje sygnałów niewerbalnych, które często są ważne w procesie terapeutycznym (Raile, 2024).
AI wie zatem tyle, ile jej powiesz; a więc tylko tyle, ile sobie uświadamiasz i jesteś skłonny wyjawić. Nie jest w stanie dostrzec czegoś, co nie jest widoczne dla Ciebie. Terapeuta może próbować interpretować, wyczytać coś między słowami, wyciągnąć coś z wypowiedzi i rzucić na to światło.
Sztuczna inteligencja może mieć również problem z odczytywaniem intencji ukrytych za określonymi stwierdzeniami, których głębszy sens mógłby odczytać psychoterapeuta. Ludzie różnie mówią o swoich stanach, niekoniecznie w sposób jasny i logiczny (Cheng i in., 2023).
AI Cię nie rozumie
Naprawdę wiele nas, jako ludzi, łączy. Na różnych etapach życia uczestniczymy w podobnych sytuacjach. Przeżywamy bliźniacze emocje.
Sam ten czynnik daje psychoterapeucie coś, czego AI posiąść nie może. Chodzi o doświadczenia, możliwość odniesienia się do życiowych przykładów. Głębokie, autentyczne zrozumienie czyjejś sytuacji.
Sztuczna inteligencja ma jedynie analizę tego, co w internecie zamieścili inni ludzie. I o ile algorytm działa w sposób, który ma zapewnić udzielenie najbardziej wartościowych odpowiedzi, to trudno to zagwarantować. I często odbywa się to kosztem indywidualizacji przekazu.
AI odpowiada bardzo ogólnie i zwięźle (Raile, 2024). Łatwo o sytuację, w której, wyrażając trudne emocje, uzyska się generyczną odpowiedź, coś w stylu ,,uspokój się, policz do 10, oddychaj głęboko”. Terapeuta-człowiek ma znacznie większe możliwości udzielania spersonalizowanych przemyśleń i wniosków. Zdaje sobie sprawę z niuansów danej sytuacji i wie, że ogólne, wyświechtane frazesy rzadko pomagają, a często wręcz działają kontrproduktywnie. Bywa nawet, że najlepszym wyrazem empatii, jaki można zaoferować drugiemu człowiekowi, jest emanująca zrozumieniem cisza.
Empatia
Empatia terapeuty jest istotnym predyktorem powodzenia psychoterapii (Cheng i in., 2023). W pewnym uproszczeniu, oznacza to że im więcej empatii u terapeuty, tym większa szansa na sukces w terapii.
Sztuczna inteligencja symuluje empatię, ,,próbuje” być empatyczna. Stosuje określone wyrażenia odzwierciedlające empatię. Wiemy jednak, że owej empatii i emocji nie odczuwa. Niesie to ze sobą szereg implikacji:
- nie zbudujesz z nią emocjonalnej więzi, relacji terapeutycznej (a wiemy przecież, że sam ten czynnik jest ogromnym atutem psychoterapii - szerzej o tym w dalszej części wpisu);
- zabrzmi to brutalnie, ale AI tak naprawdę o Ciebie nie dba; nie zależy jej szczerze na Twoim zdrowiu, to jedynie algorytm generujący odpowiedzi; człowiek kształci się przez wiele lat i jeżeli jest to odpowiednia osoba na odpowiednim miejscu, będzie autentycznie się o Ciebie troszczyć;
- dysponujący empatią i doświadczeniem psychoterapeuta może przeprowadzić Cię przez głębszą i trudniejszą emocjonalną pracę, zaś sztuczna inteligencja może potraktować Twoje problemy powierzchownie;
- AI może mieć trudności z odczytywaniem niuansów w wypowiedziach użytkowników; nie wyczuje ironii, nie odczyta mimiki i mowy ciała; co sprawia, że wykorzystując niepełne lub zniekształcone informacje, może błędnie ocenić sytuację (Carlbring i in., 2023).
Rozwój to nie komfort
Sposób działania modeli językowych często opiera się na sykofancji. Pojęcie to oznaczało zawodowe donosicielstwo w starożytnych Atenach. Cambridge dictionary definiuje je jako: ,,zachowanie polegające na tym, że ktoś chwali potężnych lub bogatych ludzi w sposób, który nie jest szczery, zwykle w celu uzyskania od nich korzyści”. W kontekście AI rozumiemy to jako przymilanie się modeli językowych do ich użytkowników.
Oznacza to, że sztuczna inteligencja często powie Ci to, co chcesz usłyszeć (a to niekoniecznie to, czego powinieneś szukać). Może skupić się na tym, byś poczuł się dobrze sam ze sobą, tu i teraz (ale czy przybliży to do rozwiązania problemu?). Utrwali Cię w przekonaniu, że jesteś samoświadomy, refleksyjny i wyciągasz doskonałe wnioski.
Walidacja emocjonalna jest oczywiście ważnym elementem psychoterapii. Z tym, że praca z psychologiem nie zawsze ma być miła. Nie chodzi tylko o to, by się wygadać. To często balans między uznaniem emocji osoby, a konfrontowaniem jej błędnych przekonań. Nie tylko nauka, ale też sztuka. Ponownie widzimy tu istotę doświadczenia psychoterapeuty, jego trafnej interpretacji i wyczucia sytuacji.
Jedną z istotnych ról terapii jest również budowa autonomii pacjenta. Rozwój tej autonomii wiąże się z powodzeniem terapii. Rolą psychoterapeuty jest zachęcać i motywować osobę do zaangażowania w terapię i podejmowania autonomicznych decyzji (Khawaja i Bélisle-Pipon, 2023). Kolejne pytanie, które pozostawię bez odpowiedzi (bo jej nie znam), brzmi: czy AI rozwija tę autonomię czy raczej uzależnia użytkownika od siebie?
Nie samym CBT psychologia żyje
Sztuczna inteligencja w swoich odpowiedziach bazuje na ograniczonej liczbie nurtów terapeutycznych. Znaczną większość uwagi poświęca terapii poznawczo-behawioralnej (CBT); a przecież nie jest ona ostateczną i jedyną odpowiedzią na wszelkie problemy ludzkiej psychiki. Może to błędnie przekonać człowieka, że CBT jest jedyną słuszną drogą i nie ma wartościowych alternatyw; a przecież są, zwłaszcza, gdy można je dopasować do potrzeb jednostki (Raile, 2024).
Sztuczna inteligencja jest zbyt słaba
Sztuczna inteligencja działa najlepiej, gdy stosujemy ją w zadaniach o wąskim kontekście. Właściwie to dzisiejszą AI moglibyśmy nazwać właśnie wąską AI. Wciąż czekamy na tę silną, ogólną sztuczną inteligencję (AGI - artificial general intelligence).
Cechą ludzkiej inteligencji jest jej elastyczność. I jest to jednocześnie największa słabość AI. I o ile wielu guru sztucznej inteligencji, głównie CEO największych cyfrowych korporacji, na każdym kroku przekonują nas, że AGI jest tuż za zakrętem, nie wszyscy eksperci podzielają tę opinię.
Niektórzy, tacy jak Gary Marcus, twierdzą, że droga do AGI będzie znacznie dłuższa i nie prowadzi ścieżkami obecnych innowacji wielkich modeli językowych. Bardziej radykalni, tacy jak noblista Roger Penrose, twierdzą, że AGI jest fizycznie niemożliwa (a raczej, że AI nigdy nie będzie świadoma, gdyż świadomość jest zjawiskiem, którego nie da się wyjaśnić za pomocą obliczeń; Penrose twierdzi nawet, że nie powinniśmy nazywać sztucznej inteligencji inteligencją, gdyż cechą konieczną inteligencji jest właśnie świadomość).
Sztuczna inteligencja jest zatem skuteczna, ale w wąskich dziedzinach, w których jest precyzyjnie przeszkolona. Pytanie brzmi: czy jesteśmy w stanie rozbić psychoterapię na zestaw tak konkretnych zadań, by nauczyć tego AI? Jeżeli odpowiedź brzmi ,,nie”, to musimy czekać na AGI (Grodniewicz i Hohol, 2023).
A więc, czy potrafimy to zrobić?
Nie wiemy co działa
Psychoterapia jest skuteczna. AI wykorzystuje techniki psychoterapii. I mimo, że to kuszące, nie można na tej podstawie skonkludować, że interwencja chatbota bazująca na tych technikach również będzie skuteczna (Grodniewicz i Hohol, 2023).
Nie wiemy tak naprawdę które czynniki odpowiadają za skuteczność psychoterapii. Psychologowie próbują odpowiedzieć na to pytanie od stu lat. Żeby stworzyć sztuczną inteligencję, będącą w stanie przeprowadzić skuteczną psychoterapię, musimy odpowiedzieć sobie na pytanie: czego właściwie mielibyśmy ją nauczyć? Które elementy są kluczowe? Które nurty terapeutyczne są skuteczne, a które nie? A może to samo przymierze terapeutyczne, wspierająca relacja z terapeutą przynosi uzdrowienie? (Grodniewicz i Hohol, 2023).
Nie wiadomo, czy za skuteczność terapii odpowiadają poszczególne elementy wynikające z danego nurtu terapeutycznego, czy raczej może części wspólne dla każdej terapii, czyli:
- relacja terapeutyczna między terapeutą a pacjentem;
- oczekiwania pacjenta co do powodzenia terapii;
- to czy pacjent skonfrontuje się ze swoimi problemami;
- poczucie kontroli nad problemem;
- przypisanie przyczyn powodzenia lub porażki w terapii przyczynom wewnętrznym zamiast zewnętrznym (Grodniewicz i Hohol, 2023).
Biorąc pod uwagę, że sami nie do końca wiemy, co odpowiada za skuteczność terapii, w jaki sposób mamy stworzyć sztuczną inteligencję, która odniesie w tym sukces? Czego mamy ją nauczyć?
W przypadku indywidualnych wyborów nurtu terapeutycznego rolę odgrywają osobowość, style uczenia się, a nawet wyznawane wartości. Jednak w przypadku AI nie możemy mówić o różnicach indywidualnych - trzeba podjąć tę decyzję w imieniu algorytmu. Co więcej, terapeuci często integrują ze sobą różne nurty w zależności od potrzeb sytaucji. Co zaś w przypadku AI? Czy ma trzymać się jednego nurtu, czy je integrować? Jeżeli integrować to które nurty mają wejść do tej puli? I kiedy ma dochodzić do integracji? (Grodniewicz i Hohol, 2023). Jak widzicie, pytań jest bardzo wiele.
Z dużą dozą prawdopodobieństwa sukces w psychoterapii przekracza ograniczoną listę konkretnych zadań, które wystarczy zrealizować. Składa się ona w dużej mierze z rozmowy. Rozmowy o tym, co pacjent i terapeuta uznają za znaczące w kontekście problemu. A problemy ludzi są skomplikowane, a czasami też unikatowe, niepowtarzalne. Nie możemy oczekiwać, że wąska AI sprosta temu zadaniu i przeprowadzi taką rozmowę w głęboki, satysfakcjonujący sposób (Grodniewicz i Hohol, 2023).
Relacja terapeutyczna
Rosnąca protokolizacja terapii prowadzi do wniosku, że w sumie, równie dobrze może robić to komputer. To prawda, możemy uczyć AI technik CBT, które są proste i łatwe w aplikacji. Jednak terapia to nie same techniki i merytoryka. Liczy się również relacja terapeutyczna, na którą składają się m.in. ciepło, trafna empatia czy szczerość psychoterapeuty (Grodniewicz i Hohol, 2023).
Przymierze terapeutyczne, czyli oparta na współpracy relacja między pacjentem a psychologiem, jest jednym z głównych predyktorów sukcesu w terapii. I trudno o budowę tej terapeutycznej więzi z AI. Jednym z czynników wzmacniających taką więź jest np. ujawnianie własnych doświadczeń terapeuty. Oznacza to, że osobista relacja i empatia pozostają kluczowymi elementami terapii.(Carlbring i in., 2023).
Badania na przestrzeni dekad ukazują, że spośród wszystkich czynników odpowiadających za skuteczność terapii, jeden wyróżnia się wyjątkowo - to jakość relacji między terapeutą a pacjentem. Stwierdził to już Zygmunt Freud w 1913 roku, a lata badań potwierdziły jego hipotezę. Niezależnie od tego, czy mówimy o terapii dzieci czy dorosłych, grup czy jednostek, terapii depresji, zaburzeń lękowych czy uzależnień. Gdy pacjent ocenia jakość relacji jako niską, nie tyle tylko maleją szanse powodzenia terapii, ale również zwiększa się prawdopodobieństwo tego, że pacjent kompletnie z niej zrezygnuje.
Do cech dobrej relacji terapeutycznej zaliczamy:
- wzajemne zaufanie, szacunek i troskę;
- ogólną zgodę w zakresie celów i zadań terapii;
- współudział w podejmowaniu decyzji;
- wspólne zaangażowanie w pracę w zakresie terapii;
- zdolność do rozmawiania o obecnym stanie relacji;
- wolność w dzieleniu się negatywnymi emocjonalnymi reakcjami;
- zdolność naprawiania problemów i trudności, które mogą powstać w relacji (Knobloch-Fedders, 2008).
Co ciekawe, relacja terapeutyczna, mimo, że korzenie tego pojęcia wywodzą się z podejścia psychodynamicznego, jest istotna również w przypadku terapii poznawczo behawioralnej, dominującej obecnie, która kojarzy się z podejściem dość schematycznym, opartym na ćwiczeniach, zadaniach domowych i pracy z niekorzystnymi przekonaniami (Leahy, 2008).
Kto za to odpowiada?
Nie ma gwarancji, że pomoc którą otrzymasz od AI jest fachowa, prawidłowa. Niestety, w przypadku pracy z człowiekiem też nie ma tej gwarancji, jednak ryzyko krzywdy jest znacznie mniejsze, a posiłkując się opiniami i robiąc odpowiedni research można zminimalizować to ryzyko niemalże do zera.
Kto ponosi odpowiedzialność za błąd w diagnozie czy terapii prowadzonej przez AI? Trzeba pamiętać, że są to narzędzia komercyjne. Powstają często w pośpiechu, a ich twórcy niekoniecznie poświęcają należytą uwagę temu, by były one skuteczne, a przede wszystkim bezpieczne (Więckiewicz, 2025). Tempo rozwoju AI i wprowadzanie kolejnych rozwiązań sprawia, że łatwo zapomnieć o podstawach, czyli o bezpieczeństwie właśnie. A jest ono wyjątkowo istotne w obszarze zdrowia, w którym główne motto autorstwa Hipokratesa brzmi ,,primum non nocere”, czyli ,,przede wszystkim nie szkodzić”.
A sztucznej inteligencji nie tylko brakuje atutów psychoterapeuty. Niesie ona ze sobą także dodatkowe obciążenia. Zamiast podważyć lub pomóc zrozumieć obawy człowieka, może je zacząć potwierdzać. Utrwalać błędne, niekorzystne przekonania. W ten sposób można np. łatwo postawić sobie błędną autodiagnozę.
Możliwe zastosowania AI
AI jako wsparcie specjalistów
Czy sztuczna inteligencja może stanowić źródło informacji dla specjalistów? Osoby, które odpowiadają na to pytanie twierdząco, argumentują to w taki sposób, że specjaliści mogą zweryfikować, czy odpowiedź AI jest trafna (Raile, 2024). Powstają tu jednak pewne paradoksy. Jeżeli potrafią zweryfikować trafność odpowiedzi, to po co pytają? A skoro pytają o coś, czego nie wiedzą, to nie mogą przecież tego samodzielnie zweryfikować. Jeżeli więc w celu weryfikacji muszą sięgnąć do literatury, dlaczego nie zrobić tego od razu? Osobiście wolałbym, żeby specjaliści uczyli się w sposób tradycyjny, bez pośpiechu, z wiarygodnych źródeł, niż na ostatnią chwilę odrabiali pracę domową na korytarzu przed lekcją.
W literaturze pisze się o wsparciu AI w psychiatrii: w analizie dokumentacji medycznej, tworzeniu raportów diagnostycznych czy wsparciu interakcji z pacjentami. Jednak zważywszy na to, że AI często nie rozumie kontekstu i może generować błędne treści, wciąż wymaga to nadzoru, weryfikacji i interpretacji przez specjalistę. Zatem to i tak na nim spoczywa odpowiedzialność (Więckiewicz, 2025).
Są jednak bardziej obiecujące obszary zastosowań sztucznej inteligencji w dziedzinie zdrowia psychicznego. AI może asystować specjalistom w rutynowych czynnościach, zmniejszając tym samym ryzyko wypalenia zawodowego, którego może doświadczać nawet 50% psychiatrów. Pośród przyczyn tego zjawiska, oczywiście obok intensywnej pracy klinicznej, wymienia się właśnie obciążenia biurokratyczne, takie jak praca z dokumentacją (Cheng i in., 2023).
AI jako psychoterapeuta
Nie możemy traktować rozmowy z AI jako pełnowartościowego zamiennika psychoterapii. Sztuczna inteligencja jest być może (pod warunkiem, że jest zweryfikowana, wyszkolona na starannie dobranej bazie danych i bazuje na naukowym podejściu i potwierdzonych metodach) w stanie uzupełniać terapię, asystować w niej, ale nie ją zastąpić. I zawsze powinno odbywać się to pod czujnym okiem specjalisty, który będzie trzymał rękę na pulsie w razie pogorszenia stanu człowieka (Carlbring i in., 2023).
Sztuczna inteligencja może przynosić wielkie korzyści w obszarze prostych interwencji just-in-time, o których wspomniałem na początku tekstu. Może także wskazać Ci wstępną diagnozę bazując na danych, które jej przedstawisz, a także zaproponować metody czy nurty terapeutyczne, w kierunku których warto się w danym przypadku zwrócić. Różni się to od wyszukiwania w Google w ten sposób, że AI bazuje na szerokich zbiorach danych, więc powinna wskazać najbardziej prawdopodobną odpowiedź. Zaletą jest także interaktywność - w odróżnieniu od zwykłej wyszukiwarki, możesz poprosić chatbota, aby coś rozwinął lub wyjaśnił prościej. Podkreślę jednak, i zdaję sobie sprawę, że do znudzenia - jeżeli nie jesteś osobą wykwalifikowaną w dziedzinie psychologii, nie możesz mieć pewności, że odpowiedź jest wiarygodna lub zawiera pełnię informacji (Raile, 2024).
Do plusów sztucznej inteligencji trzeba zaliczyć to, że sama często podkreśla, że specjalistą nie jest i rozmówca powinien się z takowym skontaktować (Raile, 2024). Poda ona także przydatne numery telefonów, strony internetowe czy konkretne lokalizacje, jeżeli wskażesz jej miejsce zamieszkania.
Autoterapia z AI
Pracę z AI można potraktować jako formę autoterapii, prowadzenia dialogu sokratejskiego czy choćby interaktywnego dziennika (Carlbring i in., 2023).
Sztuczna inteligencja nie osiągnie skuteczności dobrego terapeuty. Nie przeanalizuje Twoich problemów tak dokładnie, nie udzieli tak wartościowego feedbacku. Może jednak stanowić wartość dodaną, np. zachęcając do introspekcji, czyli wglądu do własnych myśli i emocji. W tym kontekście rozmowa z AI jest okazją, by się otworzyć - to bardziej rozmowa z samym sobą przy pomocy narzędzia.
AI może również angażować się w pozytywne rozmowy, aktywnie słuchać, zapewniać walidację czy proponować strategie radzenia sobie z określonymi trudnościami. Plusem jest również jej zdolność do psychoedukacji, przy czym trzeba wziąć tutaj poprawkę na wiarygodność odpowiedzi (Raile, 2024).
W tym miejscu dodam jedynie, że jeżeli dla kogoś problemem jest niepokój związany z wizytą w gabinecie, można postawić choćby na terapię online. Metaanalizy pokazują, że niesie ona podobne korzyści co spotkania z terapeutą twarzą w twarz. A praca online prowadzona przez drugiego człowieka jest skuteczniejsza niż praca o czystym charakterze self-help. Bez wsparcia drugiej osoby efekty terapii online okazują się być słabsze, a także częściej wiążą się z wycofaniem z procesu (Carlbring i in., 2023).
Co przyniesie jutro?
Co ciekawe, biorąc pod uwagę tempo rozwoju sztucznej inteligencji, wszystkie rozważania zawarte w tym tekście mogą bardzo szybko stać się nieaktualne. Sytuacja jest, mówiąc delikatnie, dynamiczna.
AI w przyszłości, kiedy naprawi obecne błędy, może być znaczącym wsparciem psychiatrów i psychoterapeutów, np. będąc codziennym rozmówcą pacjenta i zbierając dane na temat jego stanu między kolejnymi spotkaniami. Takie narzędzie pozwalałoby również wcześnie rozpoznawać problemy, także u osób niebędących w terapii, i szybko na nie reagować. Może to minimalizować ryzyko zrobienia sobie krzywdy, gdy specjalista nie jest natychmiastowo dostępny (Cheng i in., 2023).
Niewykluczone również, że AI rozwinie się w sposób, który pozwoli jej empatyzować, trafnie rozpoznawać emocje, oceniać osobowość i dostrzegać sygnały ostrzegawcze dotyczące zdrowia psychicznego. Może nawet nauczyć się rozpoznawać emocje z mimiki człowieka lub odczytywać i interpretować zmiany w jego fizjologii poprzez integrację z konkretnymi urządzeniami (Cheng i in., 2023).
Jednocześnie, terapia w wykonaniu sztucznej inteligencji może nie być możliwa aż do momentu, w którym pojawi się AGI, czyli inteligencja sztuczna działająca na zasadzie tej ludzkiej. A celem ostatecznym jest oczywiście możliwość całkowitej i samodzielnej pracy człowieka z AI, bez nadzoru specjalisty.
Obszar ten wymaga z pewnością dalszych badań, które ocenią skuteczność AI w zastosowaniach terapeutycznych. Potrzeba również ścisłej kontroli i weryfikacji ze strony specjalistów. Niezbędne są także regulacje prawne, które zapewnią użytkownikom bezpieczeństwo, m.in. w obszarze ochrony danych, oraz ustalą standardy pracy z tego rodzaju narzędziami (Więckiewicz, 2025).
A badania nieustannie trwają. Psychologowie próbują odpowiedzieć m.in. na pytanie: jak sprawić, by AI było skutecznie bez przymierza terapeutycznego? Przypomnijmy, że na przymierze terapeutyczne składają się:
- zgoda w obszarze celów terapii;
- przypisywanie zadań terapeutycznych;
- i budowa więzi.
Budowa relacji terapeutycznej ze sztuczną inteligencją może być niemożliwa, ale możliwe są pewne aspekty przymierza (Grodniewicz i Hohol, 2023).
Najnowsze badania zgłębiają coś nazywającego się cyfrowym przymierzem terapeutycznym (DTA - digital therapeutic alliance). Jest to przymierze rozumiane jako coś, co postrzega jedna strona, czyli użytkownik. Wyniki pokazują, że ,,cyfrowi terapeuci” są w stanie zaoferować tego rodzaju przymierze i że sprzyja ono skuteczności terapii. W niektórych badaniach równie silnie co przymierze z prawdziwym terapeutą. A można przecież liczyć na rozwój zdolności AI do budowy DTA (Grodniewicz i Hohol, 2023).
Nie odbywa się to jednak bez trudności. Jednym z narzędzi budujących takie przymierze są wspierające komunikaty. Trzeba jednak pamiętać, że łatwo mogą przeobrazić się one we wspierające frazesy i mogą stać się szkodliwe w sytuacji, w której terapia nie idzie po myśli osoby, mimo jej wszelkich starań (Grodniewicz i Hohol, 2023).
Całość rodzi również problemy natury etycznej. Sama idea DTA opiera się na pewnego rodzaju zmyłce i działa tym lepiej, im bardziej dana osoba jest zmylona. Człowiek nie chce aktywnie myśleć o tym, że rozmawia z maszyną, a zachowania AI budujące przymierze terapeutyczne są pewnym fortelem, który ma ją uczłowieczyć (Grodniewicz i Hohol, 2023).
Podsumowanie
Wykorzystanie AI w celach terapeutycznych staje się coraz to bardziej powszechnym zjawiskiem. Chociażby z tego powodu warto zachować ostrożność i wstrzymać się od formułowania stanowczych sądów.
Czy zatem powinno się korzystać z AI jako terapeuty? Nie wiem. Wiem, że trzeba przede wszystkim zachować ostrożność. Wiem też, że sztuczna inteligencja nie jest terapeutą, ale, nie oszukujmy się, nie jest też z zwykłym narzędziem, takim jak te znane nam dotychczas.
Nie da się ukryć, że coraz więcej obszarów życia kierujemy w sferę cyfrową. Moja opinia jest taka, że nam to nie służy. Zwłaszcza, gdy mowa o interakcjach międzyludzkich, o obszarze tak intymnym jak psychoterapia.
Ostateczna decyzja zależy od preferencji danej osoby i od tego, czy uwierzy ona w skuteczność określonego rozwiązania. Pamiętajmy, że wiara w skuteczność terapii jest jednym z głównych predyktorów jej sukcesu.
Jeżeli ktoś stwierdzi, że nie ufa w tej materii sztucznej inteligencji, nie zdecyduje się na taką formę terapii. Jeżeli będzie to dla niego przekonujące, zrobi to i przekona się o jej skuteczności na własnej skórze. W rzeczywistości ludzie zmieniają terapeutów, nie pasuje im współpraca z niektórymi, a niektórych uznają wręcz za szkodliwych. Pod pewnymi względami kwestie te się od siebie nie różnią. Jak ktoś będzie rozczarowany AI, rzuci to i pójdzie szukać pomocy gdzieś indziej.
Tak czy inaczej, warto o tym rozmawiać. Podkreślać problemy i braki sztucznej inteligencji. Jeżeli coś może poprawić jakość pracy z AI, to właśnie świadomość użytkowników na temat tego, że są to ograniczone, omylne narzędzia i nie należy ufać im bezgranicznie.
Źródła:
Carlbring, P., Hadjistavropoulos, H., Kleiboer, A., & Andersson, G. (2023). A new era in Internet interventions: The advent of Chat-GPT and AI-assisted therapist guidance. Internet Interventions, 32, 100621.
Cheng, S. W., Chang, C. W., Chang, W. J., Wang, H. W., Liang, C. S., Kishimoto, T., ... & Su, K. P. (2023). The now and future of ChatGPT and GPT in psychiatry. Psychiatry and clinical neurosciences, 77(11), 592-596.
Grodniewicz, J. P., & Hohol, M. (2023). Waiting for a digital therapist: three challenges on the path to psychotherapy delivered by artificial intelligence. Frontiers in Psychiatry, 14, 1190084.
He, Y., Yang, L., Qian, C., Li, T., Su, Z., Zhang, Q., & Hou, X. (2023). Conversational agent interventions for mental health problems: systematic review and meta-analysis of randomized controlled trials. Journal of Medical Internet Research, 25, e43862.
Khawaja, Z., & Bélisle-Pipon, J. C. (2023). Your robot therapist is not your therapist: understanding the role of AI-powered mental health chatbots. Frontiers in Digital Health, 5, 1278186.
Knobloch-Fedders, L. (2008). The importance of the relationship with the therapist. Clin. Sci. Insights, 1, 1-4.
Leahy, R. L. (2008). The therapeutic relationship in cognitive-behavioral therapy. Behavioural and Cognitive Psychotherapy, 36(6), 769-777.
Mehta, A., Niles, A. N., Vargas, J. H., Marafon, T., Couto, D. D., & Gross, J. J. (2021). Acceptability and effectiveness of artificial intelligence therapy for anxiety and depression (Youper): longitudinal observational study. Journal of medical Internet research, 23(6), e26771.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(1), 1-8.
Spytska, L. (2025). The use of artificial intelligence in psychotherapy: development of intelligent therapeutic systems. BMC psychology, 13(1), 175.
Waszak, P. M. (2024). Chat GPT and suicide prevention–can it work? A conversation analysis. Journal of Psychiatry and Clinical Psychology, 24(4), 292-299.
Więckiewicz, G. (2025). Sztuczna inteligencja, ChatGPT i ich zastosowanie w praktyce. Co psychiatra powinien wiedzieć, aby nie pobłądzić?. Psychiatria Spersonalizowana.

