欢迎来到电子通讯产品质量技术研究中心官方网站! 收藏本站

电话咨询热线:

021-5296-1817

情感计算:公司如何以及为什么会“设计”您的情绪

浏览次数:149 次

“问题不在于智能机器能否拥有任何情感,而在于机器实现智能时怎么能没有情感?”人工智能之父马文·明斯基在《情感机器》这本书中,将情感视作机器人的必备要素。
 
人工智能的情感研究正在“双向推进”,随着AI在人类日常中应用的深入,如果我们希望计算机真正智能并与我们自然交互,我们必须让计算机能够识别、理解、甚至表达情感。
 
我们不但要关注人工智能如何通过人类的表情、肢体动作等来识别人类的情感,还要关注如何让机器对周边的环境进行判断从而产生自己的情感。意思是除了识别人类的“喜怒哀乐”,机器人也要有自己的“喜怒哀乐”,这是一个双向推进的过程。
什么是情感计算?

情感(emotion) 一词源于希腊文“pathos”,最早用来表达人们对悲剧的感伤之情。达尔文(Darwin)认为,情感源于自然,存活于身体中,它是热烈的、非理性的冲动和直觉,遵循生物学的法则。理智则源于文明,存活于心理。《心理学大辞典》中定义“情感是人对客观事物是否满足自己的需要而产生的态度体验”。

情感计算最早起源于美国MIT 媒体实验室皮卡德(Picard)了解Richard Cytowic的一本关于联觉的书《The Man Who Tasted Shapes》。Cytowic在书中提出感知一定程度上由大脑边缘系统处理,这个部分处理注意、记忆和情感。

1995年情感计算的概念由Picard提出,并于1997年正式出版《Affective Computing(情感计算)》。在书中,她指出“情感计算就是针对人类的外在表现,能够进行测量和分析并能对情感施加影响的计算”,开辟了计算机科学的新领域,其思想是使计算机拥有情感,能够像人一样识别和表达情感,从而使人机交互更自然。

她是麻省理工学院(MIT)教授,在 MIT 的跨领域尖端科学实验室 Media Lab 从事机器学习与神经科学的交叉研究,一手创立了 Media Lab 情感计算研究部。她同时是两家初创公司 Affectiva 和 Empatica 的联合创始人,前者研发情绪识别、监测技术,后者生产整合这些技术的医疗传感器,例如医用可穿戴设备。但最重要的是,她的著作《Affective Computing》开创了计算机科学和人工智能学科中的新分支——“情感计算”。
蓬勃发展的“情感计算”领域依赖于收集大量的行为和情感数据,技术已经在生理和心理上变得更加亲密,从而产生了对可以推断人类情感状态的新技术的需求。
《Affective Computing》
情感计算系统正在开发中,以识别、解释和处理人类的经验和情感。它们都依赖于广泛的人类行为数据,这些数据由各种硬件捕获并由一系列复杂的机器学习软件应用程序处理。
基于AI的软件是每个系统解释和根据用户的情感暗示采取行动的能力的核心。这些系统识别行为数据中的细微差别并将其与关联的情感相关联。
用于收集行为数据的最明显的硬件类型是监视面部表情、眼睛运动、手势和姿势的相机和其他扫描设备。可以对这些数据进行处理,以识别人类评估可能难以一致识别的微妙微表达。
此外,高端音频设备还可以记录用户声音中的变化和纹理。一些保险公司正在尝试进行语音分析,以检测是否有人对他们的索赔人撒谎。使用IBM问答计算机系统Watson的团队开发了一种“音调分析器”,该音调分析器使用语言分析来从文本中检测三种音调:语言风格、情感和社交倾向。
虚拟现实设备(例如头戴式显示器)正在开发中,以创造越来越逼真的模拟体验。该技术使游戏能够根据用户的情感进行调整,从而创造出更加个性化和令人兴奋的模拟体验。
让机器“观色”:人脸表情识别(FER)

美国加州大学心理学教授 Mehrabian 曾提出,感情表达 = 7%的言词 + 38%的声音 + 55%的面部表情。表情作为人类情感表达的主要方式,其中蕴含了大量有关内心情感变化的信息,通过面部表情分析情感状态,相比获取其他情感信号更加自然可行,因而人脸表情识别一直是备受关注的研究课题。

简单来说,表情识别的过程主要分为4步,首先获取人脸图像库进行人脸检测和人脸配准,这两个方法为表情识别的预处理步骤;然后进行特征提取和表情分类,这是表情识别的关键步骤。
  1. 人脸检测:在人脸图像中找到并框出人脸部分
  2. 人脸配准:在人脸检测的基础上去除旋转、遮挡等因素的影响,准确定位人脸特征点
  3. 特征提取:提取图像上的特征点,判断该点是否属于某一类特征
  4. 表情分类:根据提取的图像特征判断该表情所属的类别
目前,虽然面部表情识别技术已经取得了极大的进展,但是仍存在很多亟须解决和优化的问题,如大范围的转变头部姿态、光照背景条件不稳定等。
全球公认最有效的表情分析工具:FACS

面部表情是指通过脸部肌肉、眼部肌肉和口部肌肉的变化而表现出的各种情绪,其中,眼部和口部附近的肌肉群是构成面部表情最丰富的部分,面部表情通过这三部分肌肉的变化传递人的情绪状态。
20世纪70年代,著名国际心理学家Ekman发现人类在表达同一情感时,面部肌肉运动具有一定的规律,不受性别、年龄、种族及受教育程度等因素的影响。随后他将人脸部表情划分为六大类:高兴(Happy)、悲伤(Sad)、恐惧 ( Fear) 、愤怒(Angry) 、厌恶( Disgust) 和惊讶( Surprise) ,并基于运动单元(Action Unit,AU)提出面部动作编码系统(Facial Action Coding System,FACS)。
通常来说,单一的情绪可能会导致一或多个面部表情,多种表情的组合可能会导致多种情绪的混合,脸部动作和情绪之间并没有一对一的对应关系,而FACS系统致力于通过特定的符号来“详细描述内心情感与面部表情的关系”,是目前公认的分析复杂表情的有效工具。
无论是Affectiva、Emotient,还是这个领域其他有名的创业公司诸如 Realeyes、Eyeris、Nviso、Kairos,都是建立在Ekman博士的研究基础上,捕捉表情特征进行表情识别。
公司如何使用情感计算?

许多公司正在寻求情感计算来获取有关消费者对其广告活动反应的大量数据。Realeyes是零售领域最著名的创新者之一,与可口可乐、Expedia、Mars、AT&T和LG等知名品牌合作,他们利用该技术来帮助这些公司评估、优化和比较产品的功效和内容。
Realeyes软件使用网络摄像头测量观众的情绪和注意力水平。它可以向全球认可的消费者小组展示品牌的内容,并通过监视他们的注意力水平和记录最大参与度的时刻来衡量受众对广告系列的反应。营销人员会获得基于注意力和情感参与度的总体评分,这使他们能够比较多种产品或将其与之前的广告系列进行比较。
微软的“人类理解与共情”小组正在研究各种项目,目的是在他们的产品中实现情感计算。这包括开发一种多模式情感感应平台,该平台将面部表情和身体姿势的计算机视觉分析与检测语音和情感的音频处理相结合。它们一起使系统能够生成更好地反映情感的对话计算模型。
情感计算中的道德问题是什么?

围绕AI技术的发展不可避免地存在恐惧和不确定性,情感计算也是如此。营销公司可能难以从受众那里收集大量个人数据,因为它们必须确保所有参与者都同意。这将使收集有关每天向大众宣传广告的信息变得困难。
但是不难想象,不久的将来,电视机将配备摄像头和麦克风,可以接收对节目和广告的反应,而这些反应将受到媒体行业的监控。这种可能性造成了巨大的隐私和数据保护问题,这对公司来说是最大的障碍。
情感计算先驱Picard强烈反对将情感计算用于不道德的目的。她在最近的一次采访中说,由于不向在未经人们同意的情况下收集数据的公司出售产品,她已经损失了巨额资金。
Picard对情感计算的希望在于它能够帮助人们更好地进行交流 —— 例如,情感计算可以帮助自闭症患者传达他们努力表达的情感。几年前,她的研究小组制作了一种手套,手掌上装有传感器以监测情绪反应。手套可以识别出该人何时感到沮丧,这可能有助于防止情绪困扰。该设备可用于监控孩子上学期间的压力。
情感计算已经并且将继续面临那些质疑其使用意图的人们的警惕。但是,如果安全且合乎道德地使用情感计算,它可能会成为我们日常生活的重要组成部分。
情感计算是一种工具 —— 任何工具都可以用于良好或邪恶目的。
0

QQ咨询

发送短信

拨打电话

联系我们