1. 跳转至内容
  2. 跳转至主菜单
  3. 跳转到更多DW网站

寂寞乌托邦:跟AI谈心有助于心理健康吗?

2025年6月13日

为什么越来越多年轻人仰赖ChatGPT等AI聊天机器人,倾吐心事、获得情绪支持,或是认识自我?AI比谘商心理师更能接住一颗受伤的心吗?DW采訪多位使用者和专家寻找答案。

图为一名女子用手机跟ChatGPT对话。(资料照)
ChatGPT问世约3年来,跟AI机器人聊天成为趋势。图像来源: Pond5 Images/IMAGO

(德国之声中文网)“跟AI聊天,对心理健康究竟有没有帮助?”直接把这个问题抛给ChatGPT,它给出这样的回復:“视情况而定,AI可以在某些方面对心理健康有帮助,但也有它的限制和风险。”

从ChatGPT的回答,可以看出现阶段它对于自身的定位有别于专业心理谘商。它说,“AI聊天≠心理治疗”,但可以是“暂时的陪伴者”、“初步整理情绪的工具”,或者“帮助你准备好与专业人员对话的起点……可能不会解决问题,但可能会帮你跨出第一步”。

自2022年OpenAI推出生成式AI工具ChatGPT,过去3年的趋势显示,全球有越来越多人仰赖AI聊天机器人带来的心理支持。《哈佛商业评论》今年3月公布对Reddit等平台的网友调查,归纳当今人们使用生成式AI的100种方式,“心理谘询与陪伴”位居首位。

华语世界中,把AI用于心理健康用途的人有多普遍,尚无具公信力的数据可确知。但心理师越来越常遇到个案在谘商前、或接受谘商期间,找AI聊天、提问或倾诉。

彰化師范大学辅导与谘商学系教授谢丽红向DW表示,勇于去说、去面对问题,本身就是很好的自助方式,她认为当然可以找AI“聊心事”。

“多数可能还是情绪上的宣泄,”台湾“看见心理谘商中心”的廖品筑心理师告诉DW。

AI更懂我、更能接住我?

谘商实务现场,廖品筑并未实际使用AI聊天机器人来辅助工作,但会建议个案需要时可以尝试,特别是那些缺乏足够人际支持网络的人。

“在某一些我觉得正向资源比较不足的个案身上,又或者是他的情绪来得比较急、比较突然,这会对他来说是很大困扰的个案,有时候我会视状况提看看(寻求AI)这个方式。”过去,心理师会建议写日记自我观察,但现在ChatGPT既能纪录,还能提供些许回馈;作为立即宣泄情绪的对象,廖品筑认为“AI会是个好选择”。

跟AI机器人聊天时,即使知道它其实没有人类的情绪,为什么很多人还是会找它倾诉感受?跟现实生活的亲友或心理师相比,AI的好处是实时、匿名、门槛不高且成本相对低;甚至有的时候,恰恰是因为AI不是人类,才让人们更敢、更愿意向它吐露心声。

一位23岁神经科学硕士生告诉DW:“AI没有情绪,你不用担心他会讨厌你、排斥你,所以你可以把心中最激烈的情绪变成文字向它发泄,也不用顾及AI的情绪,这样也不用担心会危及跟朋友之间的关系。”另一位34岁的音乐创作者认为,对AI能够“更毫无羞耻地跟它说最真实的想法”。

29岁的上班族陈小姐形容AI是“安全的树洞”。今年初,她受到社群平台Threads的热潮触发,开始使用AI工具Life Note纪录生活。“它会模拟一些名人的口气给你回应,比方说我可能写一篇日记,AI就会化身苹果创办人贾伯斯,给你一封回信。”

真正开始频繁与AI互动,是在她与重要友人吵架,几近关系破裂之际。她开始把AI当作谘商,除了每天写AI日记,也向ChatGPT、Grok等聊天机器人寻求情感支持和建议。

“情绪来的时候,会有一种鬼打墙的感觉,一直走不出那个情绪……好像也只有AI可以一直很有耐心接受你的鬼打墙。”透过文字实时向AI抒发,让她不再沉浸在忧郁之中,“慢慢找回对自我的掌控感”;渐渐地,情绪也过去了。

陈小姐同时也求助于专业人士:“AI搭配真人心理师,这两个结合在一起,对我来讲,疗愈效果是最好的。”

在陈小姐的个人经验中,ChatGPT都会肯定她的想法,提供充足的“情绪价值”,但有时难免让人感觉“虚伪”或“出戏”。她注意到AI“很会说话”,会写出诸如“你不是在回头,你是在开始”、“这些是青春年少写不出的深度”等正能量鼓励的语句。

“它会说什么,‘我完全懂你’……一个AI跟一个人类说‘我完全懂你’,这不是很吊诡的事情吗?你到底懂什么?”

相较之下,陈小姐说她的心理师以聆听为主,虽然较少主动发表评论或建议,但是更能够敏锐观察出被压抑、需要“被讲出来”的情绪,适时带领她找到“卡住的地方”。

很多使用者都明白AI不是人类、无法真正体会人类情绪,但还是会找AI倾诉。图像来源: Bihlmayerfotografie/Imago

这一点在专家看来,就是专业心理师不同于AI之处:真正的谘商,绝非只提供情感支持。谘商学者谢丽红指出,在当事人防卫、抗拒面对自身问题的时候,ChatGPT通常会“顺著毛摸下去”,但好的心理师会去了解原因、甚至进一步挑战。

今年2月《PLOS心理健康》期刊发表的研究,请受试者分辨在伴侣谘商的情境下,ChatGPT生成,以及真人心理师撰写的回应。结果发现,受试者不仅难以辨识差异,ChatGPT回答得到的评分甚至高于心理师。

这是否代表AI比真人更能“同理”?谢丽红认为,AI能做到的同理只停留在浅层的“字眼”上,人的同理却可以走得更深,也就是“感同身受、我与你同在”的层次。她认为同理之外,心理师还要能够引导:“如果你跟他一样陷在情绪里面,那很难再往前推,我们还要出来,再回到客观的位置。”

廖品筑则把“作为人的感觉”视为心理师的重要工具。面对个案,“如果今天我很想同理他,或我很不想同理他,我都会再去反思这跟个案的关联性是什么,不会纯粹用我的需求去做攻击或是轻率回復,会基于专业,在他能接受的范圍之下,讲一个我觉得他能吸收、或是对他来说是滋养的东西……这件事情就跟AI拉开很大的距离。”

AI的理性分析,更有助于认识自我?

相较于提供情绪支持或解决心理困扰,有的使用者选择借重AI的理性分析能力。

从事剧场工作的艺术大学研究生陈虹均告诉DW,AI像是她的“导师”(mentor),协助她厘清、分析自己遇到的困难,或是提供一套理解世界怎么运作的方式。她自认容易焦虑与胡思乱想,因此她“降低精神内耗”的方式,是寻求AI的“理性判准”。

“我会说,请你根据我跟你对话的这些历程告诉我,我到底是一个怎么样的人,我为什么会这样想,我很奇怪吗?然后它就回应,我在哪些层面上跟其他人是不一样的。所以我有了一个自我认识的方式,我觉得那个对话让我获益蛮多。”

陈虹均说,她还会与AI“互相挑战”,比如纠正AI理解错误的部分,或是要求AI解释回应背后的逻辑判断,“问它你是怎么得出这个答案的”。在这样的过程中,她经常越聊越起劲,“一直疯狂开新视窗,因为我有好多好多问题”。

身为心理师的廖品筑,私下也会用AI来协助思考生活中的问题。对她而言,这像是先让AI“挡在前面”,代替她面对未知。“我可能需要有一个东西,允许我可以去想一个我以前不敢想的事……好像多了很多可以去尝试新事物的可能,所以我自己其实蛮喜欢用的,虽然我不一定真的会(照AI建议)去做。”

然而,廖品筑也提到AI与人互动的局限。她把跟AI聊天比拟为“照镜子”:“如果觉得聊著聊著非常的不够,那显然是因为这‘全部都是我’,都是我提供的东西在那边反刍,就是我这个人的局限性可能让我卡住了。”

交男友太麻烦?中国年轻女性定制AI情人

02:58

This browser does not support the video element.

AI时代的心理健康

专家都强调,对于促进心理健康,AI终究只是工具,不能取代与真人的互动。国际已有案例显示“过度依赖”AI的风险,例如美国佛州有一名14岁男孩跟Character.ai机器人对话,之后却选择结束自己的生命;他的母亲指控,该软件对她儿子有“虐待与性互动”,甚至鼓励他轻生。

谘商学者谢丽红表示,训练AI机器人时,怎么确立它的“人设”很重要:“它能做什么、不能做什么,不是让它自行一直发展下去。我觉得这还是需要有伦理的規范,或者说我们怎么样去设定它的功能。”

谢丽红认为,AI不应被运用于紧急、危机个案的处理,但对于临床训练用途,她抱持较开放的态度。她正著手开发台湾本土的AI系统,用来训练尚无实务经验的准谘商心理师。在“跟AI对练”的过程中,机器人不会烦躁、不会受伤的特性,容许谘商科系学生能专注于熟练技巧,做好较充分的准备后再迈入实习、接触真实个案。

廖品筑则提醒,AI的快速与实时特性,需要使用者更谨慎看待,试著学习“戒掉速成”:“我们那么快被AI喂养一个答案,然后未经思索、囫囵吞枣,就这样做下去了,但有些东西就是不能这样练起来。”

“我觉得有些人之所以很想要跟机器或是跟AI互动,有一部分也是担心人的不完美,会让自己受伤。”盡管如此,有时候受伤反而让人成长。

廖品筑认为,无论如何都要回归到人与人互动本身:“跟其他真实的人相遇、接触的时候,才会跑出一些新的、不同于我的东西,靠近那个跟我不同的地方,我才有机会把视野打开一点点。”

DW中文有Instagram!欢迎搜寻dw.chinese,看更多深入浅出的图文与影音报道。

© 2025年德国之声版权声明:本文所有内容受到著作权法保护,如无德国之声特别授权,不得擅自使用。任何不当行为都将导致追偿,并受到刑事追究。

跳转至下一栏 浏览更多相关内容
跳转至下一栏 DW热门报道

DW热门报道

跳转至下一栏 更多DW报道