Large Language Models for Mental Health: A Systematic Review
本文属于LLM系列文章,并基于《Large Language Models for Mental Health: A Systematic Review》的研究综述进行翻译。
心理健康的大型语言模型:系统综述
- 摘要
- 1 引言和背景
- 2 方法
- 3 结果
- 4 讨论
摘要
背景
大型语言模型(LLM)在数字健康领域受到了广泛的关注,并显示出其潜力,而其在心理健康领域的应用仍存在争议。这篇系统综述旨在通过调查LLM最新工作的优势和局限性,总结和描述LLM在心理健康中的应用,并讨论早期筛查、数字干预和其他心理健康临床应用的挑战和机遇。
目标
这篇系统综述严格审查了LLM在心理健康中的使用,特别关注其在早期筛查、数字干预和临床环境中的适用性和有效性。通过系统地整理和评估当前研究的证据,我们的工作分析了模型、方法、数据来源和结果,从而描绘了LLM在心理健康护理中的运营效用的明确未来。
方法
根据PRISMA指南,本次审查搜索了四个开放访问数据库:PubMed、IEEE Xplore、Scopus和医学互联网研究杂志(JMIR)。使用的关键词是:(心理健康或精神疾病或精神障碍或精神病学)和(大型语言模型)。我们纳入了2017年1月1日至2023年12月31日期间发表的文章,排除了非英语文章。
结果
总共评估了30篇文章,包括通过文本检测的精神疾病和自杀意念2(n=12),心理健康会话代理(CA)的LLM使用情况(n=5),以及LLM在心理健康中的其他应用和评估(n=13)。LLM在发现心理健康问题和提供可获得的、去污名化的电子健康服务方面表现出显著的有效性。然而,评估也表明,目前与临床使用相关的风险可能超过其益处。这些风险包括生成的文本不一致、产生幻觉的内容以及缺乏全面的道德框架。
结论
这篇系统综述考察了LLM在心理健康中的临床应用,强调了其潜在和固有的风险。该研究确定了几个重大问题:缺乏专家注释的多语言数据集,对生成内容的准确性和可靠性的担忧LLM的“黑匣子”性质,以及持续的道德困境。其中包括缺乏明确的道德框架,对数据隐私的担忧,以及治疗师和患者可能过度依赖LLM,这可能会损害传统医疗实践。因此,LLM不应被视为专业心理健康服务的替代品。然而,LLM的快速发展凸显了其作为新的临床辅助手段的潜力,强调了在这一领域继续研究和开发的必要性。
