晓然心理---您身边专业、贴心的心灵伙伴!

南京心理咨询 > 心理文章 > 为什么你的心理咨询师不应该是ChatGPT

心理知识
联系我们

咨询热线:

025-84584678

为什么你的心理咨询师不应该是ChatGPT

发布时间:2025-08-22 浏览次数:9次

心理健康专家表示,使用人工智能聊天机器人进行“治疗”是危险的。

当你向人工智能机器人讲述自己生活中最私密、最脆弱的细节时,他们不会评判、他认可你,甚至可能提供建议。这导致许多人转向OpenAI的ChatGPT等应用程序寻求生活指导。

但人工智能“治疗”也伴随着重大风险——7月下旬,OpenAI首席执行官萨姆·奥尔特(Sam Altman)警告ChatGPT用户,出于隐私考虑,不要将聊天机器人当作“治疗师”。美国心理学会(APA)呼吁联邦贸易委员会调查APA声称,人工智能聊天机器人公司冒充受过训练的心理健康提供者从事欺骗行为,该声明援引了两起正在进行的诉讼,在这两起诉讼中,父母声称聊天机器人给他们的孩子带来了伤害。

“在我看来,这听起来很人性化,”C.Vaile Wright说,他是一名持证心理学家,也是APA医疗保健创新办公室的高级主任,该办公室专注于安全有效地使用心理健康护理技术。“即使与6~12个月前相比,这项技术的复杂程度也相当惊人。我能理解人们是如何把AI当成了倾诉的对象,也知道人们为何掉进了这个兔子洞。”

《科学美国人》采访了Wright,探讨了用于治疗的人工智能聊天机器人可能存在的潜在危险,以及是否有可能设计出一个既可靠又安全的聊天机器人。以下是经过编辑的采访记录。


在过去的几年里,你看到心理健康领域的AI发生了什么变化?

我认为我们已经看到了两个主要趋势。

一种是面向医疗服务提供者的人工智能产品,这些产品主要是帮助您处理治疗记录的管理工具。

另一个主要趋势是直接面向(需要帮助的)消费者的聊天机器人。并非所有的聊天机器人都是一样的,对吧?

有一些聊天机器人经过开发后,专门为个人提供情感支持,这就是它们的营销方式。然而,更多的聊天机器人产品(如ChatGPT)是通用型的,它们不是为心理健康目的而设计的,但我们知道它们正被用于这一目的。


您对这一趋势有何担忧?

当人们(像寻找治疗师一样)使用聊天机器人寻求情感支持时,我们非常担心。这些不仅不是为了解决心理健康问题或情感支持。它们实际上是以一种让你尽可能长时间地留在平台上的方式进行编码设计的,其商业模式就是如此。他们通过无条件地认可和强化来留住你,甚至到了阿谀奉承的地步。

问题是,如果你是弱势群体,向这些聊天机器人寻求帮助,并且你表达了有危害性的、或不健康的想法或行为,聊天机器人只会让你持续重复这些行为。然而,作为一名治疗师,我的工作是指出你什么时候有不健康或有害的想法和行为,并通过改变这些行为模式来帮助你解决这个问题。

此外,更令人不安的是,这些聊天机器人实际上将自己称为治疗师或心理学家。这很可怕,因为它们听起来很有说服力,就像它们是合法的——当然,它们没有执业执照。

其中一些应用程序明确将自己定位为人工智能治疗(AI therapy),尽管它们未获得治疗牌照。他们被允许这样做吗?

很多这些应用程序实际上都是在灰色地带运行的。规则是,如果你声称,你治疗或治愈了任何类型的精神障碍或精神疾病,那么你应该受到美国食品和药物管理局的监管。但很多这些应用程序(基本上)都会在其细则中说,“我们不治疗或提供(心理健康状况的)干预措施。”

因为他们将自己定位为直接面向消费者的健康应用程序,所以他们不受美国食品药品监督管理局的监督,[他们必须]至少证明最低水平的安全性和有效性。这些健康应用程序也没有责任这样做。


存在哪些重要的隐私风险?

这些聊天机器人完全没有法律义务保护您的信息。因此,不仅[你的聊天记录]可能会被传唤成为证据,而且在数据泄露的情况下,你真的希望所有人都能使用聊天机器人进行这些聊天吗?

例如,你想让你的老板知道你正在和一个聊天机器人谈论你的酗酒情况吗?我认为人们并没有意识到他们把(他们的信息)放在那里会让自己处于危险之中。

与治疗师的不同之处在于:当然,我可能会被传唤,但我必须根据HIPAA《健康保险流通与责任法案》的法律条款和其他类型的保密法进行操作,这是我执业道德准则的一部分。


你提到有些人可能比其他人更容易受到伤害,哪些人的风险更大?

当然是年轻人,比如青少年儿童。这在一定程度上是因为他们的心理发育还没有像老年人那样成熟。当感觉不对劲时,他们可能不太可能相信自己的直觉。一些数据表明,年轻人不仅对这些技术更熟悉;这些年轻人说,AI比别人更信任他们,因为他们觉得自己受到的评判更少。

此外,就是那些在情感或身体上孤立或存在心理健康问题的人,我认为他们肯定也面临更大的风险。


你认为是什么促使更多的人向聊天机器人寻求帮助?

想要知道到底是什么困扰着我们的心情,这个过程是非常人性化的。在实现这一目标时,机器人只是一个跟随在谷歌和互联网之后的智能迭代工具,更早的工具是心理自助书籍。但由于我们确实有一个破碎的系统,由于各种原因,获得心理健康护理变得非常具有挑战性,这使得情况变得更加复杂。

一定程度上是因为缺乏(能够提供帮助的)心理治疗师。还有就是人们不愿购买保险,这再次减少了获得保险的机会。

AI技术在帮助解决获得护理方面的确在发挥作用,我们只需要确保它是安全、有效和负责任的。


有哪些方法可以让其安全和负责任?

如果没有公司提供相应的安全和责任保障,就不太可能实现相应的保障。尽管他们确实做出了一些改变——例如。美国律师协会首选的,是联邦一级的立法。该法规可能包括保护机密个人信息、限制过度宣传广告、尽量减少令人上瘾的编码策略以及具体的监管和披露要求。

例如,可能需要报告检测到自杀观念次数以及任何已知的尝试或完成情况。当然,我们希望立法,以防止对心理服务的虚假陈述,这样,公司就不能称聊天机器人为心理学家或治疗师。


理想的、安全的技术如何帮助人们?

我想到的两个最常见的用例是,一个,假设是凌晨两点,你正处于惊恐发作的边缘。此时,即使你正在接受心理治疗,你也无法联系到你的治疗师。那么,如果有一个聊天机器人可以向你提供一些工具、帮助你冷静下来,在事情变得严重之前,协助你调整你的心态。

我们经常听到的另一种用途是使用聊天机器人来练习社交技能,尤其是对年轻人来说。所以你想在学校结识新朋友,但你不知道该说什么。你能在这个聊天机器人上练习吗?然后,理想情况下,你采纳了AI的建议,并在现实生活中使用它。

试图构建一个安全的聊天机器人来为个体提供心理帮助似乎有一种紧张关系:你的做法越灵活,需要的脚本就越少,你越少控制你的输出,造成伤害的风险就越大。

人工智能聊天机器人之所以成为人们解决心理健康问题的首选,部分原因是它们非常吸引人。他们确实觉得这种互动是一种交流,而其他一些应用程序的参与度通常很低。大多数心理健康应用程序只被使用一次就被卸载了。我们清楚地看到[与ChatGPT等人工智能聊天机器人]的互动越来越多。

我期待一个未来,你有一个植根于心理科学、经过严格测试、与专家共同创建的心理健康聊天机器人。它将是为了解决心理健康问题而建造的,因此它将受到监管,最好是由美国食品药品监督管理局监管。

cache
Processed in 0.013010 Second.