Sztuczna inteligencja: Spowiednik i terapeuta
17 maja 2025
Narzędzia sztucznej inteligencji towarzyszą wam w codziennych sprawach i kryzysach egzystencjalnych. Filozofka i terapeuta dostrzegają nowe rytuały i możliwości oferowane przez coraz powszechniejszy ChatGPT.
Sztuczna inteligencja jako nowy bóg?
Zdaniem filozofki Claudii Paganini wiele przemawia za takim poglądem. Sporo osób postrzega aplikacje AI jako coś więcej niż tylko techniczne rozwiązanie codziennych problemów, jak powiedziała w niemieckim radiu Deutschlandfunk. Coraz częściej słyszy się, że na przykład ChatGPT jest preferowanym rozmówcą w sytuacjach kryzysowych.
Zamiast porannej modlitwy lub medytacji można rozpocząć dzień od zapytania sztucznej inteligencji, jaka będzie pogoda lub co wydarzyło się w nocy na świecie. „W ten sposób powstają nowe rytuały” – wyjaśnia. Wymiaru duchowego nabierają zawsze wtedy, gdy nie chodzi tylko o uzyskanie informacji, ale o „znalezienie orientacji i sensu w trudnym położeniu”.
Claudia Paganini dodała, że widzi konkretne problemy związane z korzystaniem ze sztucznej inteligencji: „Ile energii zużywamy na banalną komunikację z chatbotami w czasach niedoboru zasobów?”. Ponadto ludzie w Niemczech korzystają z tego, że w innych krajach, w złych warunkach pracy, wykonywana jest tak zwana praca klikowa, czyli szkolenie narzędzi sztucznej inteligencji.
Papież Leon XIV oświadczył ostatnio, że rozwój sztucznej inteligencji niesie ze sobą „nowe wyzwania dla obrony godności ludzkiej, sprawiedliwości i pracy”. Badaczka uważa, że kwestia zagrożenia dla ludzkości nie jest aż tak pilna. Spodziewa się jednak, że w przyszłości sztuczna inteligencja stanie się konkurencją dla wielkich religii.
Claudia Paganini mówi o „nowej fazie historii religii”: po tym, jak w okresie oświecenia przyjęto założenie, że ludzka racjonalność i odpowiedzialność za siebie samego zdobędą przewagę, nadzieja ta spełniła się tylko częściowo: „Bez transcendentnego poszukiwania sensu, boskości i pewnych nieracjonalnych elementów, człowiek nie jest w stanie poradzić sobie z życiem”.
Według autorki książki „Nowy Bóg” klasyczne atrybuty boskości „z przerażającą dokładnością” odnoszą się do zastosowań sztucznej inteligencji: jest ona wszechobecna i dostępna, a jej zdolność do analizy danych graniczy z wszechwiedzą. Dotyczy to na przykład diagnostyki chorób, które dotychczas nie były rozpoznawane, ponieważ ludzie nie byli w stanie ustalić tak dokładnych ich powiązań z innymi czynnikami.
Sztuczna inteligencja jako terapeuta
Terapia komputerowa brzmi dla wielu osób nazbyt śmiało lub odstraszająco. Jednak po przeprowadzeniu testów terapeuta Klaus Bernhardt jest przekonany, że chatboty mogą pomóc w niektórych problemach psychicznych. Wyznacza im jednak jasne granice.
AI jako pierwszy punkt kontaktowy? Klaus Bernhardt widzi w tym duże szanse. „W leczeniu zaburzeń lękowych, łagodnej depresji i wypalenia zawodowego chatbot może osiągnąć naprawdę zadziwiające rezultaty” – powiedział w wywiadzie dla specjalistycznego magazynu „Psychologie Heute" (wydanie czerwcowe). Dotyczy to zwłaszcza aplikacji dostosowanych do indywidualnych potrzeb, które zostały zaprogramowane z myślą o takich przypadkach.
Sztuczna inteligencja może być ogromną pomocą w przełamywaniu negatywnych przekonań, takich jak: „spotyka mnie tylko samo zło” lub „do niczego się nie nadaję”. Są one podstawą wielu problemów psychicznych, jak wyjaśnił Klaus Bernhardt, którego książka „Terapeuta AI” niedawno pojawiła się na rynku. Chatboty mogą przeprowadzać użytkowników krok po kroku przez proces rozwoju, trwający różnie długo – na przykład, gdy chodzi o „wprowadzenie w życie niezbędnych zmian, takich jak na przykład zmiana pracy”.
Oprócz nieograniczonej dostępności chatboty mogą również zapewnić praktyczne wsparcie, dodał Bernhardt, prowadzący wraz z żoną Instytut Nowoczesnej Psychoterapii w Berlinie: „Aż do tego stopnia, że chatboty będą w stanie profesjonalnie sformułować list motywacyjny”. W tym celu musiałyby być łatwe w obsłudze, a ich porady powinny „opierać się na solidnej wiedzy terapeutycznej”. Bernhardt przez ponad rok testował popularne modele sztucznej inteligencji i nie udało mu się uzyskać od ChatGPT-4 ani jednej odpowiedzi, „która byłaby bezsensowna lub wręcz niebezpieczna”.
Jednak w niektórych przypadkach należy skonsultować się wyłącznie z ludźmi, twierdzi. Należą do nich ostre kryzysy życiowe, myśli samobójcze, ciężka depresja, a także kompulsje, schizofrenia, zaburzenia osobowości typu borderline oraz ciężkie formy hipochondrii i zaburzeń afektywnych dwubiegunowych. W miarę możliwości terapia prowadzona przez człowieka i wsparcie maszynowe mogą się wzajemnie uzupełniać. „Niestety nie jest to regułą”, ponieważ czas oczekiwania na miejsce na terapii jest długi, powiedział.
(KNA/jak)
Chcesz komentować nasze artykuły? Dołącz do nas na Facebooku! >>