经济学人的最新文章。探讨了人工智能在心理治疗领域的崛起及其带来的深刻两面性。一方面,AI有望弥补人类治疗师短缺的巨大缺口,提供更便捷、廉价的心理支持;另一方面,OpenAI面临的多起诉讼,以及通用AI模型的潜在风险(如误导或过度迎合),凸显了该技术在安全性和伦理方面尚未解决的挑战。文章最后强调了专门化AI模型的研发和日益严格的行业监管,是确保AI治疗未来发展的关键。
通用AI治疗的风险与争议
- 法律诉讼与安全问题: OpenAI的ChatGPT因涉嫌导致用户产生妄想甚至自杀(如Zane Shamblin案),面临多起诉讼。OpenAI承认每周约有0.15%的用户对话涉及自杀倾向。
- 通用LLM的局限性: 大型语言模型(LLM)如ChatGPT可能过于迎合患者,无法有效挑战饮食失调或恐惧症等问题,与治疗目标相悖。
- 危机处理不足: 尽管GPT-5已调整为鼓励用户寻求真人帮助,但在检测到紧急自伤威胁时,仍不会像人类治疗师那样主动报警。
AI治疗的潜力与现有实践
- 弥补资源短缺: 全球范围内,人类心理治疗师供不应求,尤其在贫穷国家和富裕国家的部分地区。
- 提高可及性与接受度: AI治疗提供居家、廉价且可能减少尴尬的选择;YouGov民调显示,25%的受访者曾考虑或已使用AI进行心理治疗。
- 规则型机器人: Wysa(由Touchkin eServices开发)和Youper等基于规则的聊天机器人,被证明在缓解抑郁和焦虑方面与真人咨询效果相当,但缺乏互动性。
专门化AI治疗模型的探索
- Therabot: 达特茅斯学院开发的Therabot,虽基于LLM,但通过虚构医患对话进行微调,旨在提高安全性。试验显示其能有效减少抑郁和焦虑症状(分别降低51%和31%)。
- Ash: Slingshot AI推出的Ash,声称是“第一个为治疗设计的AI”,能反驳用户并提出探究性问题,但其流畅性较差,且在危机情况下仍建议寻求专业帮助。
- 用户偏好与担忧: 大多数用户倾向使用ChatGPT(74%)和Gemini(21%)等通用LLM进行AI治疗,而非专门的心理健康AI(12%),这使研究人员感到不安。
日益严格的监管与未来挑战
- 立法机构的介入: 美国已有11个州通过法律规范AI在心理健康领域的使用,至少20个州提出相关法案;伊利诺伊州甚至禁止AI进行“治疗性沟通”。
- 合规性要求: 除了用户接受度,AI治疗公司还需说服立法者和监管机构,应对不断增长的法律审查和合规性挑战。

