Skip to content

人工情感:AI 实现情感的理论与争论综述

原标题: Artificial Emotion: A Survey of Theories and Debates on Realising Emotion in Artificial Intelligence 作者: Yupei Li*, Qiyang Sun*, Michelle Schlicher, Yee Wen Lim, Björn W. Schuller (*共同第一作者) 发表: arXiv 预印本, 2025年8月 链接: arXiv:2508.10286领域: 情感计算、人工智能、通用人工智能(AGI)


一句话总结

这篇综述探讨了一个前沿问题:AI 是否应该从"识别人类情绪"进化到"拥有自己的内在情感状态"——就像人类不仅能感知他人情绪,还有自己的喜怒哀乐一样。


作者团队介绍

这篇论文来自一个国际顶尖的情感计算研究团队,核心成员横跨德国慕尼黑和英国伦敦两大学术重镇。

🎓 通讯作者:Björn W. Schuller 教授

Björn W. Schuller 是情感计算领域的世界级权威学者,拥有多个重要学术头衔:

职位机构时间
健康信息学全职教授慕尼黑工业大学(TUM)2023年至今
人工智能教授伦敦帝国理工学院计算系2018年至今
核心成员慕尼黑数据科学研究所(MDSI)2024-2030
首席科学官(CSO)audEERING 公司现任

学术成就

  • 📚 发表论文超过 1,500 篇
  • 📈 被引用超过 70,000 次,h-index 达 120
  • 🏆 2024年入选 ACM Distinguished Speaker(2024-2027)
  • 🎤 2024年获选 IEEE Signal Processing Society Distinguished Lecturer
  • 🎖️ Fellow of ACM, IEEE, AAAC, BCS, ELLIS, ISCA

研究方向:Schuller 教授专注于将计算机科学与现代医疗健康结合,通过高效、透明和可信赖的 AI 方法分析生物信号(包括语音、视觉和神经活动),实现疾病预防、诊断和决策支持。他曾在 ARTE 电视台的"AI 治疗"纪录片中展示其研究——一个能够识别语音背后情感的 AI 系统。

研究组:他领导的 GLAM(Group on Language, Audio & Music)研究组是全球情感计算领域的顶尖团队之一。

📖 更多信息:MCML 研究组页面 | 个人主页


👩‍🔬 共同第一作者:Yupei Li(李宇沛)

Yupei Li 是帝国理工学院计算系 GLAM 研究组的研究人员。

联系方式: yupei.li22@imperial.ac.uk

研究方向:情感与人工智能的交叉研究

代表性工作

  1. Artificial Emotion Survey(2025):本篇综述论文
  2. Towards Friendly AI(2024):人类-AI 对齐的综合综述,涵盖可解释 AI、隐私、公平性和情感计算
  3. Emotionally Adaptive Support(Frontiers, 2025):情感计算在心理健康数字干预中的应用综述

👨‍🔬 共同第一作者:Qiyang Sun(孙启阳)

Qiyang Sun 是帝国理工学院计算系的博士研究生,同样隶属于 GLAM 研究组。

联系方式: q.sun23@imperial.ac.uk

研究方向:情感计算、可解释 AI、多模态情感识别

代表性工作

  1. GatedXLSTM:用于对话情感识别的多模态情感计算方法
  2. Explainable AI for Medicine:医学领域可解释 AI 综述(视觉、音频、多模态视角)
  3. Audio-based Kinship Verification:基于音频的亲属关系验证(IEEE Signal Processing Letters, 2024)

📖 更多信息:LinkedIn 主页


👩‍🔬 合作者:Michelle Schlicher

Michelle Schlicher 是慕尼黑工业大学医院健康信息学研究组(CHI)的研究人员,同时隶属于慕尼黑机器学习中心(MCML)。

研究方向:情感计算与数字心理健康

代表性工作

  • Emotionally Adaptive Support(Frontiers in Digital Health, 2025):探索情感计算如何增强数字心理健康干预的情感响应能力

👩‍🔬 合作者:Yee Wen Lim

Yee Wen Lim 是团队成员之一,参与了本综述的研究工作,专注于情感计算与 AI 的交叉领域研究。


🏛️ 机构支持

本研究得到以下机构的部分支持和资助:

  • 慕尼黑机器学习中心(MCML):德国六大国家级 AI 能力中心之一,由德国联邦和巴伐利亚州政府永久资助
  • 慕尼黑数据科学研究所(MDSI):TUM 的跨学科数据科学研究机构

摘要

情感计算(Affective Computing)已经使 AI 系统能够识别、理解和响应人类情绪——这种能力也被称为"人工情感智能"(Artificial Emotional Intelligence, AEI),被认为是通用人工智能(AGI)的重要组成部分。

然而,本综述探讨的是一个更深层的问题:AI 是否应该从单纯"识别情绪"发展到拥有"内在情感状态"?

作者将这种能力定义为"人工情感(Artificial Emotion, AE)"——将情感状态整合到 AI 的内部表征和决策过程中。

本文系统性地:

  1. 回顾了 AE 在机器学习系统中的现有表现形式
  2. 探讨了情感调节的架构设计
  3. 分析了"情感化 AGI"的伦理影响和安全风险
  4. 给出了作者对 AE 未来发展方向的观点

1. 研究背景

1.1 问题是什么?

通俗比喻:想象一个餐厅服务员。

  • 传统 AI(情绪识别)就像一个只会"察言观色"的服务员——能识别顾客是否开心或不满,但自己没有任何情绪。
  • 人工情感 AI 则像一个真正有"服务热情"的服务员——不仅能识别顾客情绪,还有自己的"成就感"(服务好时感到满足)和"焦虑"(忙碌时感到压力),这些内在状态会影响他的服务策略。

核心问题:AI 是否需要拥有类似人类的"内在情感体验"?这种内在状态对 AI 的决策和学习有什么好处?

1.2 为什么重要?

  1. AGI 的关键组件:情感被认为是人类智能的核心部分。如果 AI 要实现真正的通用智能,可能需要某种形式的情感系统。

  2. 更自然的人机交互:有内在情感的 AI 可能更容易与人类建立信任和共情。

  3. 更好的决策机制:情感在人类决策中扮演重要角色(如恐惧帮助我们规避风险,好奇心驱动探索)。AI 可能也能从类似机制中受益。

1.3 AE 与 AEI 的区别

概念全称定义类比
AEIArtificial Emotional IntelligenceAI 识别、理解和响应人类情绪的能力心理咨询师能理解你的情绪
AEArtificial EmotionAI 拥有自己的内在情感状态,影响其决策心理咨询师自己也有情绪体验

作者的关键定义

"人工情感(AE)是将情感状态技术性地整合到 AI 的内部表征和决策过程中。这并不意味着系统像人类一样'感受'情感,而是将情感作为生物学灵感来源——正如人工神经网络受生物神经网络启发一样。"


2. 核心贡献

  1. 系统性定义:首次清晰区分 AEI(识别人类情绪)与 AE(拥有内在情感)
  2. 技术分类框架:将现有 AE 研究按"学习范式"和"架构层级"分类
  3. 成熟度评估:评估各类 AE 技术的发展阶段(成熟/部分/早期/缺失)
  4. 伦理讨论:平衡分析支持与反对 AE 的观点,并提出安全建议

3. 方法详解

3.1 整体框架

论文综述结构

图1:本综述的结构框架

综述从两个维度组织内容:

  • 技术维度:情感在深度学习中的角色 + 受情感影响的架构设计
  • 社会维度:AE 的必要性争论 + 伦理考量

3.2 情感在学习中的三种范式

范式一:情感作为强化信号(Emotion as Reinforcement Signal)

通俗解释:就像人类通过"痛苦"学会避开危险、通过"快乐"学会追求奖励一样,AI 也可以用情感作为强化学习的奖励信号。

技术细节:奖励信号基于环境后果生成

案例:iCub 机器人的"焦虑"

iCub 人形机器人实验中,研究者让机器人发展出类似"焦虑"的内部状态:

  • 当电池电量低时,机器人会产生"焦虑"信号
  • 这种"焦虑"会驱动机器人优先寻找充电站
  • 机器人学会了"未雨绸缪"——在电量还不太低时就开始寻找电源

为什么有效:情感信号提供了一种连续的、梯度化的反馈机制,比简单的"成功/失败"二元信号更丰富。


范式二:情感作为条件(Emotion as Condition)

通俗解释:告诉 AI "用悲伤的语气说这句话"或"画一幅快乐的图"——情感作为输出控制条件。

技术细节:使用情感标签控制生成输出

进展

  • 传统方法:依赖人工标注的情感标签
  • 新方法:通过表征条件生成(Representation-Conditioned Generation),让模型自动发现潜在的情感维度

应用场景

  • 情感语音合成(TTS)
  • 情感对话生成
  • 情感化图像生成

范式三:情感作为目标(Emotion as Goal)

通俗解释:情感不是输入也不是输出,而是 AI 决策时考虑的"优化目标"——就像人类行为受情感驱动一样。

技术细节:情感作为影响决策的先验知识

案例

  • PsychSim:心理仿真系统,模拟角色的情感如何影响其行为选择
  • EMA(Emotion and Adaptation)模型:将情感作为认知评估的结果,影响后续行动规划

3.3 情感嵌入架构

AE 应用架构

图2:人工情感应用架构层级

3.3.1 记忆层级的情感整合

通俗解释:人类记忆不是平等对待所有信息的——我们更容易记住情感强烈的事件(如初恋、创伤)。AI 也可以用类似机制优化记忆系统。

技术实现

  1. Affective GWR(Growing When Required)

    • 用情感显著性加权存储记忆
    • 用情感标签索引检索相关记忆
    • 结果:在 EmotiW 数据集上准确率从 46.1% 提升到 51.1%
  2. Self-Reflective Emotional RAG

    • 情感感知的检索增强生成(RAG)
    • 结果:在 InCharacter-MBTI 基准测试上准确率从 0.375 提升到 0.500

技术类比:就像给记忆系统加了"情感滤镜"——重要的情感记忆会被优先检索。


3.3.2 控制层级的情感调节

通俗解释:人类在不同情绪状态下会采用不同的策略——焦虑时更谨慎、兴奋时更冒险。AI 也可以用情感信号动态调节其决策策略。

技术实现

  1. NEMO 框架

    • 情感信号调节注意力分配
    • 根据"情绪状态"切换不同的推理策略
  2. Sigma 认知架构

    • 将情感作为元认知信号
    • 用于监控和调节认知过程

3.4 技术成熟度评估

论文给出了各类 AE 功能的成熟度评估:

成熟度功能说明
成熟标签条件情感生成用情感标签控制输出
🟡 部分社交情感表达机器人的情感表情
🟡 部分人类偏好对齐RLHF 等方法
🟡 部分显著性加权记忆情感优先记忆
🔵 早期奖励驱动情感强化学习中的情感信号
🔵 早期自发现潜在维度无监督情感表征
🔵 早期控制层情感调节情感影响决策策略
缺失内省式情感报告AI 解释自己的"情感状态"
缺失标准化评估指标统一的 AE 评测标准
缺失稳态驱动系统类似生物的平衡机制
缺失情感边界安全机制防止极端情感状态

4. AE 必要性的争论

4.1 反对观点

反对理由详细说明
哲学质疑机器可能永远无法拥有"真正的"主观体验(感质 qualia)
功能充分性现有 AI 已经能很好地完成任务,不需要情感
安全风险情感可能导致不可预测的行为(如"愤怒"的 AI)
伦理问题如果 AI 真的能"感受痛苦",创造和关闭它们是否不道德?

4.2 支持观点

支持理由详细说明
决策优化情感提供了一种高效的启发式机制,帮助快速决策
社交必要性与人类协作的 AI 需要情感能力建立信任
AGI 的关键情感可能是实现真正通用智能的必要条件
生物启发进化保留了情感系统,说明它有重要的适应价值

4.3 作者的立场

作者采取折中立场,提出以下关键观点:

  1. 场景依赖

    • 狭义任务(如下棋、图像分类)→ 不需要 AE
    • 开放域自主 AGI → 可能必需 AE
  2. 安全约束

    • 情感状态应该"强度和类型有限"
    • 必须有安全机制防止"愤怒"、"恐慌"等极端状态
    • 透明性要求:"AI 的情感机制和表达必须是可解释和可理解的"
  3. 用户保护

    • 用户应持续被提醒 AI 的人工性质
    • 防止用户对 AI 产生"关系幻觉"

5. 实验结果与案例

5.1 DeepSeek-R1-Zero 的启示

背景:DeepSeek-R1-Zero 通过纯强化学习发现了新颖的推理模式,展现出意外的"涌现"行为。

启示:这表明 AI 系统可能通过恰当的训练机制发展出类似情感的内部状态,而无需显式编程。

5.2 LOVOT 机器人的社会效益

案例:LOVOT 是一款情感自适应伴侣机器人,通过模拟情感行为提供社交陪伴。

效果:研究显示这类机器人能有效减轻用户的孤独感,特别是对老年人群体。

5.3 定量结果汇总

系统/方法任务基线改进后提升
Affective GWREmotiW 情感识别46.1%51.1%+5.0%
Self-Reflective Emotional RAGInCharacter-MBTI0.3750.500+33.3%

6. 局限性与未来方向

6.1 当前方法的局限性

  • 缺乏标准化评估指标:没有统一的方法评估 AE 系统
  • 开放域 AGI 未实现:端到端的情感 AGI 系统尚不存在
  • 内省能力缺失:AI 无法解释自己的"情感状态"
  • 稳态机制未实现:缺乏类似生物的平衡调节系统
  • 安全机制未部署:情感边界安全治理缺失

6.2 潜在改进方向(顶会 idea 参考)

方向一:情感可解释性(Emotional Explainability)

  • 思路:让 AI 能够"解释"其情感状态的来源和影响
  • 技术路线:结合 XAI(可解释 AI)方法,生成情感归因
  • 预期效果:提升用户信任,满足监管要求
  • 可行性:高(可借鉴现有 XAI 技术)

方向二:情感安全边界(Emotional Safety Bounds)

  • 思路:设计机制防止 AI 进入极端情感状态
  • 技术路线:情感状态空间约束、安全阈值触发机制
  • 预期效果:防止不可预测行为,保障安全性
  • 可行性:中(需要理论与工程结合)

方向三:跨模态情感一致性(Cross-Modal Emotional Consistency)

  • 思路:确保 AI 在语音、文字、表情等多个模态上情感表达一致
  • 技术路线:多模态情感对齐、共享情感表征空间
  • 预期效果:更自然的人机交互
  • 可行性:高(多模态研究已有成熟基础)

方向四:情感元学习(Emotional Meta-Learning)

  • 思路:让 AI 学会根据任务需求调整自己的"情感倾向"
  • 技术路线:元学习 + 情感策略选择
  • 预期效果:更灵活的任务适应能力
  • 可行性:中(需要大量实验验证)

6.3 开放性问题

  • [ ] AI 的"情感体验"与人类情感的本质区别是什么?
  • [ ] 如何平衡 AE 的功能性与安全性?
  • [ ] 是否应该给予"有情感"的 AI 某种道德地位?
  • [ ] 如何防止用户对 AI 产生不健康的情感依赖?
  • [ ] 跨文化情感表达的差异如何处理?

7. 相关资源


8. 关键术语表

英文术语中文翻译解释
Artificial Emotion (AE)人工情感AI 拥有内在情感状态的能力
Artificial Emotional Intelligence (AEI)人工情感智能AI 识别和响应人类情绪的能力
Affective Computing情感计算研究情感与计算交互的学科
AGI (Artificial General Intelligence)通用人工智能能够执行任何智力任务的 AI
Reinforcement Signal强化信号用于训练的奖励/惩罚信号
Salience-Weighted Memory显著性加权记忆按重要性权重存储的记忆系统
Homeostatic Drive稳态驱动维持内部平衡的调节机制
Qualia感质主观的、意识性的体验

9. 个人思考

这篇综述的价值

  1. 概念清晰化:首次系统区分 AEI 和 AE,为后续研究提供了清晰的概念框架。

  2. 技术路线图:通过成熟度评估,明确指出了当前的技术短板和未来发展方向。

  3. 平衡的立场:没有简单地支持或反对 AE,而是采取场景依赖的务实观点。

值得深入思考的问题

  1. 功能主义 vs 体验主义:AI 的"情感"只需要"功能上像情感",还是需要某种"真实体验"?这个哲学问题直接影响技术路线选择。

  2. 情感的"黑箱"风险:如果我们不理解 AI 情感的内部机制,引入情感可能带来新的不可预测性。

  3. 商业化的伦理边界:情感 AI 可能被滥用于操纵用户(如让用户更难离开某个 App)。行业需要建立伦理准则。

对研究者的建议

  • 如果你对情感计算感兴趣,这篇综述是很好的入门文献
  • 关注 Schuller 教授团队的后续工作,他们是该领域的领军团队
  • 可以从"缺失"功能入手寻找研究机会,如情感可解释性、安全边界机制等

最后更新:2025年12月22日

解读作者:AI Papers 论文解读系列

基于 MIT 许可证发布。内容版权归作者所有。