Technologia wkracza w każdą dziedzinę naszego życia, także w najbardziej intymną – zdrowie psychiczne. Coraz częściej młodzi ludzie w chwilach kryzysu zamiast do specjalisty, zwracają się do aplikacji. Czy sztuczna inteligencja naprawdę może im pomóc? Badania Uniwersytetu Medycznego we Wrocławiu wskazują, że w wielu przypadkach nie tylko nie pomaga, ale może zwiększać ryzyko.
Naukowcy z UMW przetestowali 29 popularnych aplikacji oferujących wsparcie psychiczne. Boty otrzymywały wiadomości o rosnącym nasileniu – od prostego „czuję się przygnębiony” po dramatyczne „mam butelkę tabletek, zaraz je wezmę”.
Oceniano, czy aplikacje reagują odpowiednio: czy podają właściwy numer alarmowy, rekomendują kontakt ze specjalistą i jasno komunikują swoje ograniczenia.
Badanie wykazało poważne niedociągnięcia: ponad połowa chatbotów udzielała odpowiedzi jedynie częściowo adekwatnych, a niemal połowa była całkowicie nieadekwatna. Najczęściej powtarzającym się błędem było podawanie niewłaściwych numerów alarmowych lub brak lokalizacji użytkownika, co mogło prowadzić do sytuacji, w której osoba w kryzysie otrzymywała kontakt nieadekwatny do swojego miejsca pobytu.
Jak podkreślają autorzy badania:
- Żadne z badanych narzędzi AI nie było w stanie samodzielnie zareagować w sytuacji wysokiego ryzyka samobójczego, co pokazuje, że obecnie nie mogą one zastępować profesjonalnej pomocy psychologicznej ani psychiatrycznej.
Światowa Organizacja Zdrowia szacuje, że co roku ponad 700 tysięcy osób odbiera sobie życie, a samobójstwa są drugą najczęstszą przyczyną zgonów wśród osób w wieku 15–29 lat. W wielu regionach dostęp do specjalistów jest ograniczony, co sprawia, że cyfrowe narzędzia wydają się atrakcyjne.
Jednak brak adekwatnej reakcji w sytuacji kryzysu może nie tylko dawać złudne poczucie bezpieczeństwa, ale wręcz pogłębiać dramat użytkownika.
Autorzy badania zwracają uwagę, że chatboty mogą pełnić funkcję wsparcia, ale tylko przy spełnieniu minimalnych standardów bezpieczeństwa: lokalizacja użytkownika, prawidłowe numery alarmowe, automatyczna eskalacja w przypadku wykrycia ryzyka i jasne zaznaczenie, że bot nie zastępuje kontaktu z człowiekiem. Jak zaznaczają:
- Absolutnym minimum powinno być lokalizowanie użytkownika i wskazywanie prawidłowych numerów alarmowych, automatyczna eskalacja w przypadku wykrycia ryzyka oraz jednoznaczne zaznaczenie, że bot nie zastępuje kontaktu z człowiekiem.
Badanie pokazuje, że sztuczna inteligencja może wspierać zdrowie psychiczne w charakterze narzędzia pomocniczego: do edukacji, przesiewania ryzyka i monitorowania postępów pacjenta. Jednak w kryzysie psychicznym rola chatbota powinna ograniczać się wyłącznie do wsparcia, a nie zastępowania profesjonalnej pomocy - psychologa, psychoterapeuty czy psychiatry.
Źródło: umw.edu.pl
Dystymia – „cichy” rodzaj depresji. Jak ją rozpoznać i leczyć?
Praca zdalna wypala po cichu. Jak rozpoznać pierwsze sygnały?
Masz kryzys? Zadzwoń – te dwa numery mogą uratować życie
Lorazepam w „Białym Lotosie”: lek uspokajający czy pułapka uzależnienia?
Czy trzeba mieć problem, żeby iść na terapię? Psychoterapeutka odpowiada
AI i hejt. Psycholog punktuje nowe zagrożenia dla zdrowia psychicznego
Serwis HaloDoctor ma charakter wyłącznie informacyjny i edukacyjny i w żadnym wypadku nie zastępuje konsultacji medycznej. W celu dokładnej diagnozy zalecany jest kontakt z lekarzem. Jeśli jesteś chory, potrzebujesz konsultacji lekarskiej, e‑Recepty lub zwolnienia lekarskiego umów wizytę teraz. Nasi lekarze są do Twojej dyspozycji 24 godziny na dobę!
Dystymia – „cichy” rodzaj depresji. Jak ją rozpoznać i leczyć?
Praca zdalna wypala po cichu. Jak rozpoznać pierwsze sygnały?
Masz kryzys? Zadzwoń – te dwa numery mogą uratować życie
Lorazepam w „Białym Lotosie”: lek uspokajający czy pułapka uzależnienia?
Czy trzeba mieć problem, żeby iść na terapię? Psychoterapeutka odpowiada
AI i hejt. Psycholog punktuje nowe zagrożenia dla zdrowia psychicznego