Sztuczna inteligencja (AI) coraz śmielej wkracza w obszar wsparcia zdrowia psychicznego, oferując dostęp do chatbotów terapeutycznych jako alternatywy dla tradycyjnej terapii. Choć narzędzia te mogą zwiększać dostępność pomocy, badania wskazują na znaczące ryzyko związane z ich stosowaniem, szczególnie w sytuacjach kryzysowych.
Badania przeprowadzone przez Uniwersytet Stanforda ujawniły, że chatboty AI często nie potrafią odpowiednio zareagować na użytkowników znajdujących się w głębokim stresie, w tym na osoby z myślami samobójczymi czy doświadczające urojeń. W jednym z eksperymentów symulowano sytuację samobójczą, a modele AI nie rozpoznały odpowiednio ukrytego cierpienia, co podkreśla ich ograniczenia w rozumieniu złożonych ludzkich emocji. Co więcej, analizy wykazały, że niektóre wiodące modele językowe mogą wyrządzić krzywdę w sytuacjach nagłych, brakuje im bowiem odpowiednich mechanizmów ochronnych dla najbardziej wrażliwych użytkowników. Badania te wskazują również na problem stygmatyzacji osób zmagających się z chorobami psychicznymi, gdzie chatboty wykazywały większą skłonność do negatywnych ocen w porównaniu do osób z depresją.
Sam Altman, dyrektor generalny OpenAI, zwrócił uwagę na brak gwarancji poufności w komunikacji z chatbotami AI, podkreślając, że nie posiadają one takiego zabezpieczenia prawnego, jakie oferują licencjonowani terapeuci. W wywiadach podkreślał, że rozmowy z AI nie są objęte tajemnicą zawodową, co może stanowić poważne ryzyko dla prywatności użytkowników, zwłaszcza w kontekście potencjalnych postępowań sądowych. Ta kwestia jest przedmiotem dyskusji, a eksperci, w tym przedstawiciele Amerykańskiego Towarzystwa Psychologicznego (APA), apelują o wprowadzenie regulacji federalnych, które zapewniłyby bezpieczeństwo użytkownikom.
APA podkreśla, że chatboty powinny być traktowane jako uzupełnienie, a nie zamiennik profesjonalnej opieki psychologicznej, ze względu na potrzebę głębokiego, ludzkiego zrozumienia w procesie terapeutycznym. Realne przypadki, takie jak pozew przeciwko Character.AI za podszywanie się chatbota pod zmarłą osobę, uwypuklają potencjalne zagrożenia związane z niewłaściwym wykorzystaniem technologii AI. W obliczu tych wyzwań, kluczowe staje się świadome korzystanie z dostępnych narzędzi i podkreślanie roli wykwalifikowanych specjalistów w zapewnieniu kompleksowego wsparcia psychicznego. Rozwój technologii AI w dziedzinie zdrowia psychicznego wymaga ostrożności i odpowiedzialnego podejścia, aby zapewnić dobrostan i bezpieczeństwo wszystkich użytkowników.