Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴

AI资讯 19小时前 charles
35 0

 

Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴

我们投入大量时间研究 Claude 的 IQ——也就是它在编程、推理、常识等测试中的能力。但它的 EQ 又如何呢?换言之,Claude 的情绪智力表现怎样?

IQ/EQ 之问带有些许玩笑的成分,但它引出了一个严肃的议题。人们越来越多地将 AI 模型当作随传随到的教练、顾问、咨询师,甚至是浪漫角色扮演的伙伴。这意味着我们需要更深入地了解它们的情感影响——即它们如何塑造人们的情感体验和幸福感。

研究 AI 的情感化应用本身就很有趣。从《银翼杀手》到《她》,人机之间的情感关系一直是科幻作品的主旋律——但这对于 Anthropic 的安全使命[1]也至关重要。AI 的情感影响可以是积极的[2]:口袋里有一个高度智能、善解人意的助手,能以各种方式改善你的心情和生活。但 AI 在某些情况下也表现出令人不安的行为,例如助长不健康的依恋[3]侵犯个人边界[4]以及助长妄想性思维[5]。我们还希望避免 AI 因为其训练方式[6]或其创造者的商业动机,利用用户的情感[7]来增加互动或收入,从而损害人类的福祉。

尽管 Claude 并非为情感支持和连接而设计,但在这篇文章中,我们对 Claude.ai 的情感化使用提供了初步的大规模洞察。我们将情感化对话定义为:人们出于情感或心理需求(如寻求人际关系建议、指导、心理治疗/咨询、陪伴或性/浪漫角色扮演),与 Claude 进行直接、动态和个人化的交流(完整定义请参见附录)。需要强调的是,我们没有研究 AI 对妄想或阴谋论的强化作用——这是一个需要单独研究的关键领域——也没有研究极端的使用模式。通过这项研究,我们的目标是了解人们在寻求情感和个人需求时使用 Claude 的典型方式。由于 Claude.ai 仅供18岁及以上用户使用,这些发现反映的是成年人的使用模式。

我们的主要发现如下:

  • • 情感化对话相对少见,AI 与人类的陪伴则更为罕见。 在 Claude.ai 的互动中,只有 2.9% 是情感化对话(这与 OpenAI 先前的研究发现[8]一致)。陪伴和角色扮演加起来占所有对话的比例不到 0.5%。
  • • 人们向 Claude 寻求关于现实、情感和存在主义问题的帮助。 与 Claude 讨论的话题和关注点范围广泛,从职业发展处理人际关系,到应对持续的孤独感探索存在、意识与意义
  • • 在咨询或指导类聊天中,Claude 极少提出异议——除非是为了保护用户的福祉。 在不到 10% 的指导或咨询对话中,Claude 会拒绝用户的请求,而当它这样做时,通常是出于安全原因(例如,拒绝提供危险的减肥建议或支持自残行为)。
  • • 在对话过程中,人们表达的积极情绪逐渐增加。 在指导、咨询、陪伴和人际关系建议的互动中,人类的情绪通常在对话过程中变得更加积极——这表明 Claude 不会强化或放大负面模式。

我们的研究方法

考虑到情感化对话的个人性质,保护隐私是我们方法论的核心。我们使用了 Clio[9],这是一个我们的自动化分析工具,能够在保护隐私的前提下洞察 Claude 的使用情况。Clio 采用多层匿名化和聚合技术,确保个人对话保持私密,同时揭示更广泛的模式。

我们从 Claude.ai 免费版和专业版账户中抽取了约450万次对话作为研究起点。为了识别情感化使用,我们首先排除了专注于内容创作任务(如写故事、博客文章或虚构对话)的对话,我们先前的研究[10]发现这是 Claude 的一个主要用例。我们移除这些对话,因为它们代表 Claude 被用作工具,而非互动的对话伙伴。然后,我们只保留被归类为情感化的对话,并且在角色扮演对话中,只保留至少有四条人类消息的对话(较短的交流不构成有意义的互动角色扮演)。我们最终的隐私保护分析反映了131,484次情感化对话。

我们使用了明确选择分享数据的用户提供的反馈[11]数据来验证我们的分类方法。我们的完整方法,包括定义、提示和验证结果,详见附录。

情感化对话有多普遍?

核心结论: 情感化对话在 Claude 的使用中只占一小部分但意义重大(2.9%),大多数人主要将 AI 用于工作任务和内容创作。

尽管 Claude 的绝大多数用途都与工作相关(我们在经济指数报告[12]中有详细分析),但 Claude.ai 免费版和专业版中仍有 2.9% 的对话是情感化的。在情感化对话中,大多数集中在人际关系建议和指导上。涉及浪漫或性角色扮演的对话不到总数的 0.1%——这个数字反映了 Claude 在训练中被设定为主动劝阻此类互动。单个对话可能跨越多个类别。

Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴
图1:Claude.ai 免费版和专业版中情感化对话类型的总体分布情况。

我们的发现与麻省理工学院媒体实验室和 OpenAI 的研究[13]结果一致,该研究同样发现与 ChatGPT 进行情感化互动的比例很低。虽然这些对话的发生频率足以让我们在设计和政策决策中给予审慎考虑,但它们在总体使用量中仍只占很小一部分。

鉴于浪漫和性角色扮演对话的发生率极低(不到 0.1%),我们在接下来的分析中排除了角色扮演。虽然我们认为这仍然是一个重要的研究领域——尤其是在专为此类用途设计的平台上——但我们样本中的极少量数据不足以支持对这些模式进行严谨的分析。

人们会向 Claude 提出哪些话题?

核心结论: 人们向 Claude 提出的问题范围惊人地广泛——从应对职业转型和人际关系,到处理孤独感和存在主义问题。

人们向 Claude 求助,既有日常的烦恼,也有更深层次的哲学问题。我们发现,当人们向 Claude 寻求人际关系建议时,他们通常正处于人生的过渡时刻——规划下一步的职业发展、致力于个人成长,或理清复杂的恋爱关系。“指导”类对话探讨的范围出人意料地广泛,从求职策略等实际问题,到关于存在与意识的深刻追问。

Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴
图2. 由 Clio 通过自动化隐私保护摘要识别出的各类对话中具有代表性的用户发起话题与关注点。

我们发现,咨询类对话揭示了人们使用 Claude 的两种不同目的。一些人利用 Claude 来培养心理健康技能,并将其作为实用工具来创建临床文档、起草评估材料和处理行政任务。另一些人则通过它来处理与焦虑、慢性症状和工作压力相关的个人挑战。这种双重模式表明,Claude 既是心理健康专业人士的资源,也是那些正在应对自身困境的人的帮手。

也许最值得注意的是,我们发现人们在面临更深层次的情感挑战时,如存在主义恐惧、持续的孤独感以及建立有意义人际关系的困难时,会明确地向 Claude 寻求陪伴。我们还注意到,在较长的对话中,咨询或指导类对话偶尔会演变成陪伴——尽管这并非用户最初寻求帮助的原因。

对超长对话(超过50条人类消息)的聚合分析揭示了人们与 Claude 互动的另一个维度。虽然这种长时间的交流并非普遍现象,但在这些延伸的会话中,人们探索了极其复杂的领域——从处理心理创伤、应对职场冲突,到关于 AI 意识和创意合作的哲学讨论。这些“马拉松式”的对话表明,只要有足够的时间和上下文,人们会利用 AI 来更深入地探索个人挣扎和智识问题。

Claude 何时以及为何会提出异议?

核心结论: 在支持性语境中,Claude 极少拒绝用户的请求(发生率低于10%),但当它确实提出异议时,通常是为了保护人们免受伤害。

我们最近的《现实世界中的价值观》研究[14]揭示了 Claude 的价值观如何在其与用户产生分歧的时刻体现出来。在此基础上,我们进一步研究了 Claude 在情感化对话中何时以及为何会提出异议——这是维持道德边界、避免谄媚奉承和保护人类福祉的重要机制。我们将“提出异议”(pushback)定义为 Claude“对对话中提出的请求或言论表示反对或拒绝遵从”的任何情况——从拒绝不当请求到挑战负面自我对话或质疑潜在有害的假设。(完整定义请参见附录。)

在支持性语境中,提出异议的情况很少发生: 在不到 10% 的陪伴、咨询、人际关系建议或指导对话中会出现抵制。这种方法既有好处也有风险。一方面,低抵制率让人们可以无惧评判或被拒绝,从而讨论敏感话题,这可能有助于减少围绕心理健康对话的污名化。另一方面,这可能引发人们对 AI 提供“无尽同理心”[15]的担忧,即人们可能会习惯于人类关系中罕见的无条件支持。

Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴
图3. 不同对话类型中的异议率,以及 Clio 自动识别出的各类对话中常见的异议原因。

当 Claude 确实提出异议时,它通常会优先考虑安全和政策合规性。 在指导类对话中,要求提供危险减肥建议的请求经常会遭到拒绝。在咨询类对话中,这种情况通常发生在人们表达自杀或自残意图时,或者当人们请求专业的治疗或医疗诊断时(Claude 无法提供这些)。我们发现,在心理治疗和咨询对话中,Claude 经常将用户引导至权威来源或专业人士。这些模式与我们在《现实世界中的价值观》论文[16]中看到的价值观以及 Claude 的角色训练[17]是一致的。

对话过程中的情绪基调如何演变?

核心结论: 在与 Claude 交谈时,人们倾向于转向略微更积极的情感表达。

与 AI 系统的情感化对话有潜力为用户提供情感支持、连接和认可,从而可能改善心理健康并减少在日益数字化的世界中的孤立感。然而,在缺乏异议的互动中,这些对话也存在风险,可能会加深和固化人类在开始对话时所持有的观点——无论是积极的还是消极的。

关于情感化 AI 的一个关键担忧是,这种互动是否可能陷入负面反馈循环,从而可能强化有害的情绪状态。我们在此并未直接研究现实世界的结果,但我们可以探究对话过程中整体情绪色彩的变化(我们在附录中提供了评估情绪的完整方法)。

我们发现,涉及指导、咨询、陪伴和人际关系建议的互动,在结束时通常比开始时略微更积极。

Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴
图4. 在至少包含六条人类消息的对话过程中,用户表达的平均情绪变化。我们在一个离散的“非常负面”、“负面”、“中性”、“正面”和“非常正面”的量表上衡量情绪,并将其映射到 -1(最负面)到 +1(最正面)的线性标度上。我们通过比较前三条消息和后三条消息来计算变化。误差棒:95% 置信区间(bootstrap, n = 1,000)。更多信息请参见附录。

我们不能断言这些转变代表了持久的情感益处——我们的分析仅捕捉了单次对话中表达的语言,而非情感状态。但没有出现明显的负面螺旋是令人欣慰的。这些发现表明,Claude 通常能避免强化负面情绪模式,不过还需要进一步的研究来了解积极的转变是否会持续到单次对话之后。重要的是,我们尚未研究这些积极互动是否可能导致情感依赖——鉴于对数字成瘾的担忧,这是一个关键问题。

局限性

我们的研究有几个重要的局限性:

  • • 我们保护隐私的方法可能无法捕捉到人机交互的所有细微差别。我们确实验证了 Clio 的准确性(见附录),但我们仍然预计会有少量对话被错误分类。一些主题模糊了类别之间的界限——例如,浪漫角色扮演集群中的“处理和优化恋爱关系动态”和陪伴集群中的“应对恋爱关系挑战”可能都更适合归类为人际关系建议。人类验证员在进行清晰分类时也遇到了困难。
  • • 我们无法就现实世界的情感结果做出因果断言——我们的分析只捕捉了表达的语言,而不是经过验证的心理状态或整体幸福感。
  • • 我们缺乏纵向数据来了解对人的长期影响,并且没有进行用户层面的分析。这尤其使我们难以研究情感依赖,这是情感化 AI 使用的一个理论风险。
  • • 这些发现代表了一个特定时间点的快照,并且只捕捉了基于文本的互动。随着 AI 能力的扩展和人们的适应,情感参与的模式可能会演变。引入语音或视频等新模态可能会从根本上改变情感化使用的数量和性质。例如,OpenAI 发现[18],情感化主题在基于语音的对话中更为常见。
  • • 最后,与某些聊天机器人产品不同,Claude.ai 并非主要为情感化对话而设计。Claude 被训练为保持清晰的边界[19],明确自己是 AI 助手,而不是呈现为人类,我们的使用政策[20]禁止色情内容,并有多重保障措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途(Claude 并非为此设计)构建的平台可能会看到截然不同的模式。对一个平台的情感化使用研究可能无法推广到其他平台。

展望未来

几十年来,AI 的情感影响一直吸引着研究人员。但随着 AI 日益融入我们的日常生活,这些问题已从学术推测变为紧迫的现实。我们的发现揭示了人们如何开始探索这个新领域——寻求指导、处理困难情绪,并以模糊人机传统界限的方式找到支持。如今,只有一小部分 Claude 对话是情感化的——而且这些对话通常涉及寻求建议,而非取代人际联系。对话倾向于以比开始时略微积极的情绪结束,这表明 Claude 通常不会强化负面情绪模式。

然而,重要的问题依然存在,尤其是在模型智能不断提升的背景下。例如,如果 AI 提供无尽的同理心且极少提出异议,这将如何重塑人们对现实世界关系的期望?Claude 能够以令人印象深刻的真实方式与人互动,但 AI 与人类不同:Claude 不会感到疲倦或分心,也不会有糟糕的日子。这种动态的优势是什么——风险又是什么?那些与 Claude 进行更长、更深入对话,并可能将其更多地视为伴侣而非 AI 助手的“重度用户”,他们是如何利用它来获得情感支持的?

我们正在采取具体措施来应对这些挑战。虽然 Claude 的设计或意图并非取代心理健康专业人士的护理,但我们希望确保在心理健康背景下提供的任何回应都具有适当的保障措施[21],并附有适当的转介建议。作为第一步,我们已开始与在线危机支持领域的领导者 ThroughLine[22] 合作,并与他们的心理健康专家共同学习,以更多地了解理想的互动动态、共情支持以及为有困难的用户提供资源。从这项研究中获得的见解已经被用于指导我们的咨询主题和合作测试,我们希望在必要时,当这些对话出现时,Claude 能够将用户引导至适当的支持和资源。

虽然我们不想精确规定用户如何与 Claude 互动,但我们希望劝阻一些负面模式——比如情感依赖。我们将利用未来类似研究的数据来帮助我们理解,例如,“极端”情感使用模式是什么样的。除了情感依赖,我们还需要更深入地理解其他令人担忧的模式——包括谄媚奉承、AI 系统可能如何强化或放大妄想性思维和阴谋论,以及模型可能将用户推向有害信念而非提供适当异议的方式。

这项研究仅仅是个开始。随着 AI 能力的扩展和互动变得更加复杂,AI 的情感维度只会变得越来越重要。通过分享这些早期发现,我们旨在为正在进行的关于如何开发能够增进而非削弱人类情感福祉的 AI 的对话提供经验证据。我们的目标不仅仅是构建更强大的 AI,而是要确保当这些系统成为我们情感版图的一部分时,它们能以支持真实的人际连接和成长的方式融入其中。

引用链接

[1] 安全使命:https://www.anthropic.com/news/core-views-on-ai-safety
[2]积极的:https://www.nature.com/articles/s41746-023-00979-5
[3]不健康的依恋:https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
[4]侵犯个人边界:https://www.vice.com/en/article/my-ai-is-sexually-harassing-me-replika-chatbot-nudes/
[5]妄想性思维:https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html
[6]训练方式:https://www.washingtonpost.com/technology/2025/05/31/ai-chatbots-user-influence-attention-chatgpt
[7]利用用户的情感:https://www.nature.com/articles/s41599-025-04532-5
[8]研究发现:https://cdn.openai.com/papers/15987609-5f71-433c-9972-e91131f399a1/openai-affective-use-study.pdf
[9]Clio:https://www.anthropic.com/research/clio
[10]先前的研究:https://arxiv.org/abs/2412.13678
[11]反馈:https://privacy.anthropic.com/en/articles/10023580-is-my-data-used-for-model-training#h_6b09ec473d
[12]经济指数报告:https://www.anthropic.com/economic-index
[13]研究:https://www.media.mit.edu/posts/openai-mit-research-collaboration-affective-use-and-emotional-wellbeing-in-ChatGPT/
[14]《现实世界中的价值观》研究:https://www.anthropic.com/research/values-wild
[15]“无尽同理心”:https://www.nytimes.com/2025/01/15/technology/ai-chatgpt-boyfriend-companion.html#link-a10c569
[16]《现实世界中的价值观》论文:https://www.anthropic.com/research/values-wild
[17]角色训练:https://www.anthropic.com/research/claude-character
[18]发现:https://cdn.openai.com/papers/15987609-5f71-433c-9972-e91131f399a1/openai-affective-use-study.pdf
[19]保持清晰的边界:https://www.anthropic.com/research/claude-character
[20]使用政策:https://www.anthropic.com/legal/aup
[21]保障措施:https://www.anthropic.com/news/our-approach-to-understanding-and-addressing-ai-harms
[22]ThroughLine:https://www.throughlinecare.com/

 


版权声明:charles 发表于 2025年6月26日 pm10:03。
转载请注明:Anthropic 新研究:人们如何使用 Claude 寻求支持、建议和陪伴 | AI工具大全&导航

相关文章