Dz

REKLAMA
WALLSTREET

Niepokojąca tendencja: młodzi, zamiast u psychiatrów, szukają pomocy u sztucznej inteligencji

2025-05-10 16:00
publikacja
2025-05-10 16:00

Młodzi ludzie w kryzysie psychicznym coraz częściej szukają pomocy u sztucznej inteligencji. Eksperci ostrzegają, że taka "terapia" wiąże się z ryzykiem udzielenia szkodliwej porady, zaniechania profesjonalnego leczenia, a także emocjonalnego uzależnienia pacjenta od AI.

Niepokojąca tendencja: młodzi, zamiast u psychiatrów, szukają pomocy u sztucznej inteligencji
Niepokojąca tendencja: młodzi, zamiast u psychiatrów, szukają pomocy u sztucznej inteligencji
fot. aastock / /ܳٳٱٴdz

Jak doniósł niedawno brytyjski dziennik "The Times", młodzi Brytyjczycy, zamiast u psychiatrów i psychoterapeutów, szukają pomocy u sztucznej inteligencji. Wykorzystują AI do diagnozowania swoich problemów, gdy odczuwają stany lękowe, niepokój, są przytłoczeni nadmiarem obowiązków itd.

Zjawisko na Wyspach Brytyjskich przybiera niepokojące rozmiary. Tylko w marcu tego roku na platformie TikTok pojawiło się 16,7 mln wpisów, których autorzy przyznają się do regularnego korzystania z ChataGPT jako terapeuty, a w filmach publikowanych w mediach społecznościowych młodzi ludzie przekonują, że AI jest jedyną "osobą", z którą mogą rozmawiać o swoich problemach psychicznych.

Jak podkreślają autorzy publikacji, popularność sztucznej inteligencji na Wyspach wiąże się niewątpliwie z niewydolnością tamtejszego systemu publicznej służby zdrowia. Średni czas oczekiwania na poradę psychiatryczną w NHS (odpowiednik polskiego NFZ) przekracza już 18 ę. Nie bez znaczenia są także wysokie koszty prywatnej terapii, które sięgają 400 funtów miesięcznie.

Tendencja zastępowania kontaktu ze specjalistą poradą u chata GPT jest jednak ogólnoświatowy i zaczyna docierać także do Polski.

Jak podkreślają eksperci, sztuczna inteligencja (w postaci chatbotów terapeutycznych) może być pomocna w psychiatrii, będąc wsparciem dla lekarza czy terapeuty.

Jednak niepokojącym zjawiskiem jest korzystanie przez młodzież z popularnych modeli językowych, takie jak chat GPT, z pominięciem specjalistów. Tego typu narzędzia powinny być nadzorowane przez doświadczonego terapeutę, a nie zawsze tak się dzieje.

"Słyszymy o tym trendzie, młodzi ludzie traktują chata GPT jako ekwiwalent drugiego cłowieka, przyjaciela, a nawet terapeutę. Nie mają do kogo się zwrócić ze swoimi problemami w swoim środowisku, wiek dojrzewania jest taki, że nie biegnie się z tym do rodziców. Młodzi ludzie szukają rozwiązań tu i teraz, a chat GTP przekazuje im informacje bardzo wzmacniające. Jednak z tym się wiążą pewne zagrożenia, bo sztuczna inteligencja nie skonfrontuje młodego cłowieka z jego realnym problemem zdrowotnym" – podkreśliła w rozmowie z PAP lek. med. Aleksandra Olawska-Szymańska ze Świętokrzyskiego Centrum Psychiatrii, konsultant wojewódzki ds. psychiatrii dzieci i młodzieży.

Badania wskazują, że młodzi ludzie często odczuwają subiektywną poprawę samopoczucia po kontakcie z chatbotem, jednak często jest to tylko efekt placebo.

Chatboty są zaprojektowane tak, aby zapewniać użytkownikom maksymalny komfort i wsparcie emocjonalne, ale paradoksalnie może to zmniejszać ich motywację do podejmowania profesjonalnego leczenia.

"Poza tym nie sposób zabezpieczyć dużych modeli językowych przed ewentualnymi błędami. Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich czy wręcz szkodliwych porad, zwłaszcza w przypadkach bardziej skomplikowanych zaburzeń psychicznych" – zauważył w rozmowie z PAP dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością Instytutu Filozofii Uniwersytetu Marii Curie-Skłodowskiej w Lublinie.

Jego zdaniem użytkownicy często ignorują ostrzeżenia wyświetlane w trakcie konwersacji z AI, że chatbot nie jest profesjonalnym terapeutą, traktując odpowiedzi jako autorytatywne źródło porad psychologicznych.

Innym potencjalnym zagrożeniem jest ryzyko uzależnienia emocjonalnego, wynikające z dostępności i zdolności do szybkiego udzielania odpowiedzi przez AI.

Nadmierne zaufanie do wirtualnego terapeuty prowadzi zaś do tego, że osoba zmagająca się z problemami emocjonalnymi zaczyna polegać na poradach AI, zamiast szukać pomocy u wykwalifikowanych specjalistów.

Zdaniem Ewy Górko, dyrektor Departamentu Zdrowia Psychicznego w Biurze Rzecznika Praw Pacjenta, sztuczna inteligencja może być wykorzystywana jako narzędzie pomocnicze w psychiatrii, ale nie powinna zastępować lekarza. Jej zdaniem potencjalnym zagrożeniem upowszechnienia się „porad” oferowanych AI, jest wyeliminowanie osobistego kontaktu ze specjalistą, który w szczególności w dziedzinie psychiatrii jest nieodzowny.

"Każda osoba w kryzysie zdrowia psychicznego, a już szczególnie osoby małoletnie, powinny mieć możliwość kontaktu osobistego z profesjonalistą. Gwarantuje to pacjentom prawo do świadczeń zdrowotnych. Postawienie diagnozy w psychiatrii wymaga rozmowy, interakcji, obserwacji i interpretacji zachowania pacjenta. Na tej podstawie dokonuje się całościowej oceny stanu zdrowia pacjenta, a sztuczna inteligencja tego nie gwarantuje" – podkreśliła dyr. Ewa Górko.

Jej zdaniem narzędzia AI mogą być wykorzystywane w ramach edukacji i wsparcia zarówno pacjentów, jak ich rodziców.

"Natomiast jeśli chodzi o stawianie diagnozy, czy wręcz udzielanie porad medycznych osobom w kryzysie zdrowia psychicznego to jest to narzędzie ryzykowne i oddawanie ich realizacji wyłącznie sztucznej inteligencji niezgodne jest z zasadami udzielania świadczeń" – zauważyła Ewa Górko.

Ponadto zjawisko szukania porad dostarczanych przez chatboty nie zostało dotąd uregulowane prawnie. "Dostęp do porad sztucznej inteligencji nie jest limitowany według wieku. Tymczasem prawo stanowi jednoznacznie, że to opiekunowie prawni osób do 16 roku życia podejmują decyzje w zakresie leczenia, a zdanie osoby małoletniej jest brane pod uwagę dopiero po ukończeniu przez osobę małoletnią 16 roku życia" – podkreśliła dyr. Ewa Górko.

Problemem jest także brak regulacji dotyczących odpowiedzialności prawnej za ewentualne pogorszenie stanu zdrowia pacjenta wskutek nietrafionego lub wręcz szkodliwego prowadzenia pacjenta w trakcie interakcji z chatbotem.

Jednak eksperci nie mają wątpliwości, że porady medyczne sztucznej inteligencji będą się upowszechniać ze względu na rosnące potrzeby pacjentów.

Eksperci apelują do rodziców, aby byli uważni na potrzeby swoich dzieci, wówczas nie będą one musiały szukać wsparcia psychologicznego w wirtualnym świecie.

"Dbajmy o relacje z najbliższymi, bo jeśli ich nie ma, trudno będzie zauważyć alarmujące często sygnały, jeśli chodzi o zdrowie psychiczne i funkcjonowanie dziecka – podkreśliła lek. Aleksandra Olawska-Szymańska.

Z roku na rok rośnie liczba pacjentów, którzy potrzebują specjalistycznego wsparcia, co wynika z pogorszenia kondycji psychicznej dzieci i młodzieży po pandemii, ale też z większej świadomości społecznej problemu.

W ubiegłym roku wsparcie w ramach NFZ otrzymało ponad 279 tysięcy młodych osób, co oznacza wzrost o ponad 130 proc. w porównaniu z 2019 rokiem. Przed pandemią fundusz na świadczenia psychiatryczne dla dzieci i młodzieży wydawał 260 mln ł, a obecnie już ponad 1 mld ł. (PAP)

bli/ bst/ lm/

Źół:PAP
Tematy
Advertisement

dzԳٲ(6)

dodaj komentarz
ironp
Normalna grozi tym samym przecież, i najlepiej jak się uzależnia bo to czyści portfel.
to_i_owo
Nie ma 400 stów na wizytę, nie ma roku czasu żeby poczekać na wizytę z NFZ to pyta sie kogo ma pod ręką
Najlepsze jest to że to, czyli AI może coś pomóc
bha
A może coś warto napisać o przyczynach tego postępującego zjawiska.Przecież nic nie dzieje się bez przyczyn może wystarczy bardziej po drążyć dany temat!!!. Może dzieje się tak nie tylko u nas lecz i w wielu krajach na Globie.Może ten coraz szerszy rynkowy Globo Kapitalizmo system zapatrzony jest już od dekad coraz bardziej tylko A może coś warto napisać o przyczynach tego postępującego zjawiska.Przecież nic nie dzieje się bez przyczyn może wystarczy bardziej po drążyć dany temat!!!. Może dzieje się tak nie tylko u nas lecz i w wielu krajach na Globie.Może ten coraz szerszy rynkowy Globo Kapitalizmo system zapatrzony jest już od dekad coraz bardziej tylko na Wyniki, Statystyki Dywidendy i Zyski i całkiem oderwał się on od rzeczywistości!!!. Może od dekad ma ten Globo system wpływ na to mącenie w głowach non stop od najmłodszych lat reklamami markowych ciuchów, wycieczek zagranicznych, luksusowego życia, lux autek itd i etc. Może wielu młodych po zetknięciu się po skończonej szkole z rynkową zarobkową i dochodową rzeczywistością panującą w ogromie zawodów nie potrafi się pozbierać z szoku jaki tam zastaje!. Może na Globo rynku panuje coraz większy szerszy Wyzysk pracy ludzkiej?!.Może rośnie coraz szybciej zadłużenie ogólne społeczeństw z którym wielu nie może sobie już poradzić!. Może panuje na rynku pracy coraz większa niepewność jutra, może panuje coraz większy w pracy stres, pośpiech, obciążenie obowiązkami, zadaniami, a i przy tym coraz szybsze wypalenie zawodowe brak chęci i dalszej motywacji do pracy za te coraz szerzej i szerzej uzyskiwane latami i dekadami minimalne zarobkowe i dochodowe marne kokosy.Nic nie dzieje się bez przyczyn!!!.
zenonn
Pismak zaskoczony? Ekspierdy zaskoczone?
Lekarz potrzebny jest teraz nie za rok, lekarz zajęty biurokracją i innymi sprawami nie obsłuży poprawnie pacjenta w kilkanaście sekund.
Szanse na prawidłową diagnozę u lekarza pierwszego kontaktu z chorej kasy są zerowe.
Google, chatgpt i pokrewne, postawi diagnozę wstępną natychmiast
Pismak zaskoczony? Ekspierdy zaskoczone?
Lekarz potrzebny jest teraz nie za rok, lekarz zajęty biurokracją i innymi sprawami nie obsłuży poprawnie pacjenta w kilkanaście sekund.
Szanse na prawidłową diagnozę u lekarza pierwszego kontaktu z chorej kasy są zerowe.
Google, chatgpt i pokrewne, postawi diagnozę wstępną natychmiast i lepiej.
Za kilkadziesiąt lat wizje z filmów fantastycznych będą codziennością, czujniki w ubraniu, w organiźmie same będą raportować stan zdrowia cłowieka do centralnego komputera, a domowe urządzenia medyczne wykonywać podstawowe zabiegi. Ludzi będzie mniej, margines nie będzie obslugiwany.
Wolność? Prywatność? RODO? Szlag trafi niebawem.
samsza
Trzeba było w pandemii dzieci nie zamykać, kościołów i cmentarzy oraz lasów nie zamykać.

ʴǷɾąԱ: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki