Pogubiliśmy się jako ludzkość. Zapomnieliśmy, kim naprawdę jesteśmy. Jaka jest nasza prawdziwa natura, możliwości, tożsamość. Odpowiedzi szukamy wszędzie. W desperacji, w zapomnieniu. W braku uświadomienia. Najnowszym, bardzo niebezpiecznym trędem, jest rozmawianie z Chatem GPT i pokrewnymi narzędziami sztucznej inteligencji. O swoim zdrowiu psychicznym, poradach duchowych, nawet o leczeniu chorób. To nie może skończyć się dobrze.
Nie może, bo nawet mając część odpowiedzi na te pytania, sztuczna inteligencja:
- serwuje odpowiedzi fragmentaryczne
- kompiluje odpowiedzi z wielu źródeł, co rodzi chaos informacyjny. Tym bardziej, że tego typu narzędzia nie wartościują źródeł, więc wśród odpowiedzi, powierzmy to wprost, jest mnóstwo błędów i jawnych bzdur
- konfabuluje, czyli tam, gdzie nie ma dostępu do informacji, odpowiedzi zwyczajnie wymyśla. O czym łatwo się przekonać, wpisując do dowolnej aplikacji sztucznej inteligencji własne nazwisko z prośbą o wygenerowanie swojego CV. Zdziwicie się Państwo, w ilu rzekomo istniejących firmach „pracowaliście”…
Nasila się, także w Polsce, zjawisko randkowania z avatarami sztucznej inteligencji. Postaciami, które nie istnieją. Dosłownie wczoraj w TVN wyemitowano reportaż o takich sytuacjach w naszym kraju. Wcześniej dochodziło do takich zjawisk w Japonii, USA, praktycznie na całym świecie. Pogłębiające się zjawisko wycofania społecznego i samotności prowadzi między innymi do takich zachowań. Chodzi nie tylko o randkowanie. Często osoby szukające autentycznych więzi emocjonalnych odwracają się od ludzi całkowicie i wręcz biorą związki małżeńskie z postaciami wykreowanymi przez narzędzia sztucznej inteligencji. To miało już miejsce w kilku krajach świata.
Idźmy dalej. Docierają do nas informacje (sami natknęliśmy się na nie w RMF FM) o tym, że ludzie proszą w polskich bibliotekach o tytuły książek, które zwyczajnie w świecie nie istnieją. Dlaczego? Bo takie właśnie pozycje zarekomendowała sztuczna inteligencja.
Kiedy sztuczna inteligencja (A.I – artificial intelligence) czegoś nie rozumie albo nie ma dostępu do informacji, to je zwyczajnie wymyśla. Zjawisko to fachowo nazywa się halucynowaniem sztucznej inteligencji. Po ludzku – kłamstwem.
Obserwujemy wzmożone zainteresowanie, także wśród osób rozwijających się duchowo, tymi narzędziami. Jest to skrajnie wręcz niebezpieczne. Czym innym jest wygenerowanie obrazka lub skrótu spotkania biznesowego, a czym innym diagnoza swojego stanu psychicznego albo wprost diagnozowanie chorób.
Dosłownie w ostatnich dniach mieliśmy taką sesję, gdzie klientka (nie ona pierwsza i z pewnością nie ostatnia…) była szczerze zdumiona tym, ile “wyciągnęliśmy” z tej sesji. O rzeczywistych, prawdziwych źródłach problemów. Skąd się biorą, jak są wzajemnie połączone. Nie dość, że to zrobiliśmy to jeszcze wiedzieliśmy, co z tym zrobić:
- jak zdiagnozować
- jak wzajemnie “połączyć kropki”
- jak pomóc
- jakie narzędzia zastosować i w jakiej kolejności
Sztuczna inteligencja tego nie potrafi i nie będzie potrafiła. W rzeczywistości AI szeregiem rozwiązań, które sprawdzają się w wielu dziedzinach ludzkiej działalności:
- w biznesie (modele analityczne)
- kinie (narzędzia wspomagające chociażby silnik Unreal Engine 5, powszechnie stosowanym w grach wideo i filmach do obniżenia kosztów produkcji)
- nauce (budowanie modeli obliczeniowych)
- grach wideo (karty graficzne)
…i wielu, bardzo wielu innych obszarach. To już się dzieje. To dopiero początek. Problem polega na tym, że wiele osób nie dostrzega zagrożeń, widząc same (często nadal wątpliwe) pozytywy. Sztuczna inteligencja, nie wiadomo nawet jak zaawansowana, nigdy nie będzie w stanie w 100% i każdej sytuacji zastąpić człowieka.
Dane uzupełniające za Polskim Stowarzyszeniem Rozwoju Psychoterapii:
„Dane populacyjne pokazują, że korzystanie z chatbotów w momentach napięcia emocjonalnego nie jest już niszowe. W badaniu prowadzonym w USA 13,1% osób w wieku 12–21 lat deklarowało używanie AI jako formy wsparcia, gdy czuły się zestresowane, smutne lub przeciążone, a w grupie 18–21 lat odsetek przekraczał 22% (McBain i wsp., 2025).
Równolegle pojawiają się dane dotyczące dorosłych. W brytyjskim sondażu dotyczącym zdrowia psychicznego 37% dorosłych deklarowało użycie AI do rozmów związanych z dobrostanem psychicznym, a w grupie 25–34 lata było to ponad 60%; nawet w grupie 55+ odsetek wynosił około 15% (Mental Health UK, 2025).
To, co łączy te dane, to nie rodzaj problemów psychicznych, lecz kontekst użycia.
Psychoterapia oferuje kontakt raz w tygodniu, w określonym czasie, przez 50 minut.
AI oferuje coś innego: dostępność natychmiastową, w nocy, w momentach bezsenności, samotności, nagłego napięcia – bez umawiania się, bez czekania, bez bycia widzianym.
W badaniu dotyczącym spontanicznego użycia ChatGPT w populacji dorosłych (16–90 lat) 17,2% respondentów deklarowało korzystanie z AI w celu poradzenia sobie ze stresem, lękiem lub problemami interpersonalnymi, najczęściej jako krótkiej formy „rozmowy regulacyjnej”, a nie pełnej interwencji (Díaz, 2026).
Coraz wyraźniej widać więc, że AI pełni funkcję:
– rozmowy zastępczej w momentach, gdy nie ma dostępu do człowieka,
– narzędzia porządkowania myśli i emocji „tu i teraz”,
– pierwszego kontaktu w napięciu, zanim pojawi się decyzja o sięgnięciu po profesjonalną pomoc.
Jednocześnie rośnie liczba ostrzeżeń ze strony instytucji zawodowych, że chatboty nie spełniają standardów bezpieczeństwa w sytuacjach kryzysowych i mogą wzmacniać nieadaptacyjne narracje, jeśli są używane bez ram i świadomości ograniczeń (APA Services, 2025).
To wszystko sugeruje, że kluczowa zmiana nie dotyczy pytania czy AI zastąpi terapeutów, lecz tego, że kontekst korzystania z rozmowy psychologicznej już się zmienił.
W praktyce oznacza to, że coraz więcej osób będzie trafiać do gabinetów:
– po długich „rozmowach z AI”,
– z gotowymi interpretacjami własnych stanów,
– z nowymi oczekiwaniami wobec dostępności i ciągłości wsparcia.
Czy bezpieczeństwo i dostępność „rozmowy na żądanie” będą w przyszłości wspierać proces terapeutyczny — czy raczej stabilizować strategie unikania i samoregulacji bez relacji?”
Publikujemy ten nasz artykuł ku przestrodze. To co widzicie Państwo powyżej, to wpis z Facebooka, z jednej z grup zajmujących się zdrowiem psychicznym. Wynikający z rozczarowania poziomem “obsługi” przez specjalistów zdrowia psychicznego. Co nawiasem mówiąc, jest zrozumiałe, bo spore grono naszych klientów przychodzi do nas na hipnozę, ponieważ psycholodzy i psychoterapeuci wcześniej nie potrafili im pomóc. Nawet osoby biorące środki psychotropowe. Przychodzą do nas na terapię także sami psychoterapeuci…
To wszystko jest zrozumiałe, ALE… Po co chodzić do specjalistów, po co prawidłowo diagnozować problemy, po co dostawać jasne, precyzyjne odpowiedzi i jeszcze fachową pomoc, skoro wszystko może załatwić ChatGPT?
Efekt jest najczęściej niestety taki, że “odpowiedzi” sztucznej inteligencji:
- przez swoją fragmentaryczność rodzą jeszcze więcej pytań
- przez kompilowanie źródeł informacji i zmyślonych informacji wprowadzają jeszcze więcej zamieszania w umyśle
- prowadzą do jeszcze większego bólu i cierpienia psychicznego
Nie tędy droga, proszę Państwa… Ku przestrodze…
PS. Kolejna perełka. Moduł Chat GPT Health. Chat GPT poleca nie tyle porady zdrowotne, co dzielenie się swoją osobistą dokumentacją medyczną. Naturalnie, nie ma przy tym mowy o sprzedawaniu danych użytkowników, ani o żadnym zagrożeniu prywatności. Ale nie ma też mowy o tym, że wcześniej sztuczna inteligencja na czymś musiała być trenowana… Niczego rzecz jasna nie sugerujemy, ale warto być BARDZO krytycznym wobec tego, jak korzysta się z nowoczesnych technologii… I to ostrzeżenie warto wziąć sobie do serca. Nie korzystając do diagnozy tegoż serca z uslug sztucznie stworzonych “specjalistów”.