自20世纪70年代中期起,专家学者对顾客满意度进行了大量的研究,提出了许多理论模型。其中,奥立佛提出的 “期望一实绩”模型和情感模型,韦斯卜洛克(Robert A Westbrook)和雷利(Michael D Reilly)提出的 “顾客感知的价值差异”模型、ACSI理论模型是较著名的几个模型。
1“期望一实绩”模型
1980年,奥立佛提出了如图1-2所示的 “期望一实绩”模型。奥立佛认为:在消费过程中或消费后,顾客会根据自己的期望,评估产品和服务的实绩。如果实绩低于期望,顾客就会不满意;如果实绩符合或超过期望,顾客就会满意。1982年,美国学者邱吉尔(Gibert A Churchill)和塞普纳(Carol Surprenant)的实证研究结果表明:在许多情况下,期望和实绩都会影响顾客对期望与实绩比较结果的主观感受,也会直接影响顾客满意度。
图1-2 “期望一实绩”模型
2情感模型
根据奥立佛的观点,满意度是顾客在自己的需要得到满足之后产生的心理反应(包括产品和服务没有满足顾客的需要或超额满足顾客的需要而引起的顾客情感反应),在消费过程中或消费后,顾客会根据自己的期望、需要、理想以及其他可能的实绩标准,评估产品和服务。顾客对实绩的评估结果,以及顾客对评估结果的归因,都会影响顾客的情感,顾客的情感会直接影响顾客满意度。此外,美国路易斯安那州立大学助理教授杰亚特(RamaKJayanti)和杰克逊(AJacks)指出,顾客很难根据某些具体的属性评估服务实绩,因此 “期望一实绩”模型并不能全面解释顾客满意度的形成过程。由于顾客亲自参与服务过程,所以企业管理人员在衡量顾客满意度时应参考顾客在消费过程中的情感反应。芬兰学者李佳得(Verouica Liljaneler)和斯占得克(Tore Strandvik)也发现,顾客在消费过程中的情感直接影响顾客的满意程度。奥立佛在不断完善顾客满意度定义的基础上,于2000年提出了如图1-3所示的顾客满意度形成过程模型。
图1-3 顾客满意度形成过程模型
3“顾客感知的价值差异”模型
美国学者韦斯卜洛克和雷利于1984年提出了“顾客感知的价值差异”模型。他们认为:顾客满意度是顾客对自己感觉中的产品和服务实绩与自己需要的消费价值(需要、愿望、期望)进行比较之后产生的一种情绪反应。产品和服务的实绩越符合顾客需要的消费价值,顾客就越满意;产品和服务的实绩越不符合顾客需要的消费价值,顾客就越不满意。但是,韦斯卜洛克和雷利的实证研究方法存在一些的错误。他们的研究结果并不支持他们提出的 “顾客感知的价值差异会直接影响顾客满意程度”的假设。美国康奈尔大学博士汪纯本于1990年在美国对这个模型进行了实证检验,他的研究结果表明,顾客感知的价值差异是影响顾客满意度的重要因素。1991年,美国学者梅耶斯(JamesHMyers)对 “期望一实绩”模型和“顾客感知的价值差异模型”进行了一次比较研究,他的研究结果表明:与实绩和期望之差相比,顾客感知的价值差异对顾客满意度的影响更大。1993年,斯普兰(RichardASpreng)等人的实证研究结果表明:顾客感知的价值差异对顾客满意度有显著影响,而实绩与期望之差对顾客满意程度却没有显著的影响。
4ACSI理论模型
ACSI基于这样一个理论,即顾客满意度同顾客在产品购买前的期望和在产品购买中及购买后的感知有密切关系,并且,顾客的满意程度低或高将会导致两种基本结果:顾客抱怨和顾客忠诚。ACSI使用的是一种由多重指标(问题)支持的6种潜在变量组成的模型(图1-4)。
图1-4 ACSI模型
ACSI的模型显示在6个潜在变量中,顾客期望、顾客对质量的感知和顾客对价值的感知是3个前提变量;顾客满意度、顾客抱怨、顾客忠诚是3个结果变量,前提变量综合影响并决定着结果变量。展开来说就是,顾客满意度是由顾客在购买和使用产品的经历中,产生对产品质量和价值的实际感知,并将这种感知同购买前或使用前的期望值作比较而得到的感受和体验所决定的;若顾客满意度低就将导致顾客抱怨以至投诉,而顾客满意度高就会提高顾客的忠诚程度;如果重视并妥善处理好顾客的投诉,化解了顾客抱怨,同样可以提高顾客忠诚程度。
人们期盼着能拥有并使用更为人性化和智能化的计算机。在人机交互中,从人操作计算机,变为计算机辅助人;从人围着计算机转,变为计算机围着人转;计算机从认知型,变为直觉型。显然,为实现这些转变,人机交互中的计算机应具有情感能力。情感计算研究就是试图创建一种能感知、识别和理解人的情感,并能针对人的情感做出智能、灵敏、友好反应的计算系统。
情感被用来表示各种不同的内心体验(如情绪、心境和偏好),情绪被用来表示非常短暂但强烈的内心体验,而心境或状态则被用来描述强度低但持久的内心体验。情感是人与环境之间某种关系的维持或改变,当客观事物或情境与人的需要和愿望符合时会引起人积极肯定的情感,而不符合时则会引起人消极否定的情感。
情感具有三种成分:⑴主观体验,即个体对不同情感状态的自我感受;⑵外部表现,即表情,在情感状态发生时身体各部分的动作量化形式。表情包括面部表情(面部肌肉变化所组成的模式)、姿态表情(身体其他部分的表情动作)和语调表情(言语的声调、节奏、速度等方面的变化);⑶生理唤醒,即情感产生的生理反应,是一种生理的激活水平,具有不同的反应模式。
概括而言,情感的重要作用主要表现在四个方面:情感是人适应生存的心理工具,能激发心理活动和行为的动机,是心理活动的组织者,也是人际通信交流的重要手段。从生物进化的角度我们可以把人的情绪分为基本情绪和复杂情绪。基本情绪是先天的,具有独立的神经生理机制、内部体验和外部表现,以及不同的适应功能。人有五种基本情绪,它们分别是当前目标取得进展时的快乐,自我保护的目标受到威胁时的焦虑,当前目标不能实现时的悲伤,当前目标受挫或遭遇阻碍时的愤怒,以及与味觉(味道)目标相违背的厌恶。而复杂情绪则是由基本情绪的不同组合派生出来的。
情感测量包括对情感维度、表情和生理指标三种成分的测量。例如,我们要确定一个人的焦虑水平,可以使用问卷测量其主观感受,通过记录和分析面部肌肉活动测量其面部表情,并用血压计测量血压,对血液样本进行化验,检测血液中肾上腺素水平等。
确定情感维度对情感测量有重要意义,因为只有确定了情感维度,才能对情感体验做出较为准确的评估。情感维度具有两极性,例如,情感的激动性可分为激动和平静两极,激动指的是一种强烈的、外显的情感状态,而平静指的是一种平稳安静的情感状态。心理学的情感维度理论认为,几个维度组成的空间包括了人类所有的情感。但是,情感究竟是二维,三维,还是四维,研究者们并未达成共识。情感的二维理论认为,情感有两个重要维度:⑴愉悦度(也有人提出用趋近-逃避来代替愉悦度);⑵激活度,即与情感状态相联系的机体能量的程度。研究发现,惊反射可用做测量愉悦度的生理指标,而皮肤电反应可用做测量唤醒度的生理指标。
在人机交互研究中已使用过很多种生理指标,例如,皮质醇水平、心率、血压、呼吸、皮肤电活动、掌汗、瞳孔直径、事件相关电位、脑电EEG等。生理指标的记录需要特定的设备和技术,在进行测量时,研究者有时很难分离各种混淆因素对所记录的生理指标的影响。情感计算研究的内容包括三维空间中动态情感信息的实时获取与建模,基于多模态和动态时序特征的情感识别与理解,及其信息融合的理论与方法,情感的自动生成理论及面向多模态的情感表达,以及基于生理和行为特征的大规模动态情感数据资源库的建立等。
欧洲和美国的各大信息技术实验室正加紧进行情感计算系统的研究。剑桥大学、麻省理工学院、飞利浦公司等通过实施“环境智能”、“环境识别”、“智能家庭”等科研项目来开辟这一领域。例如,麻省理工学院媒体实验室的情感计算小组研制的情感计算系统,通过记录人面部表情的摄像机和连接在人身体上的生物传感器来收集数据,然后由一个“情感助理”来调节程序以识别人的情感。如果你对电视讲座的一段内容表现出困惑,情感助理会重放该片段或者给予解释。麻省理工学院“氧工程”的研究人员和比利时IMEC的一个工作小组认为,开发出一种整合各种应用技术的“瑞士军刀”可能是提供移动情感计算服务的关键。而目前国内的情感计算研究重点在于,通过各种传感器获取由人的情感所引起的生理及行为特征信号,建立“情感模型”,从而创建个人情感计算系统。研究内容主要包括脸部表情处理、情感计算建模方法、情感语音处理、姿态处理、情感分析、自然人机界面、情感机器人等。
情境化是人机交互研究中的新热点。自然和谐的智能化的人机界面的沟通能力特征包括:⑴自然沟通:能看,能听,能说,能触摸;⑵主动沟通:有预期,会提问,并及时调整;⑶有效沟通:对情境的变化敏感,理解用户的情绪和意图,对不同用户、不同环境、不同任务给予不同反馈和支持。而实现这些特征在很大程度上依赖于心理科学和认知科学对人的智能和情感研究所取得的新进展。我们需要知道人是如何感知环境的,人会产生什么样的情感和意图,人如何做出恰当的反应,从而帮助计算机正确感知环境,理解用户的情感和意图,并做出合适反应。因此,人机界面的“智能”不仅应有高的认知智力,也应有高的情绪智力,从而有效地解决人机交互中的情境感知问题、情感与意图的产生与理解问题,以及反应应对问题。
显然,情感交流是一个复杂的过程,不仅受时间、地点、环境、人物对象和经历的影响,而且有表情、语言、动作或身体的接触。在人机交互中,计算机需要捕捉关键信息,觉察人的情感变化,形成预期,进行调整,并做出反应。例如,通过对不同类型的用户建模(例如,操作方式、表情特点、态度喜好、认知风格、知识背景等),以识别用户的情感状态,利用有效的线索选择合适的用户模型(例如,根据可能的用户模型主动提供相应有效信息的预期),并以适合当前类型用户的方式呈现信息(例如,呈现方式、操作方式、与知识背景有关的决策支持等);在对当前的操作做出即时反馈的同时,还要对情感变化背后的意图形成新的预期,并激活相应的数据库,及时主动地提供用户需要的新信息。
情感计算是一个高度综合化的技术领域。通过计算科学与心理科学、认知科学的结合,研究人与人交互、人与计算机交互过程中的情感特点,设计具有情感反馈的人机交互环境,将有可能实现人与计算机的情感交互。迄今为止,有关研究已在人脸表情、姿态分析、语音的情感识别和表达方面取得了一定的进展。
目前情感计算研究面临的挑战仍是多方面的:⑴情感信息的获取与建模,例如,细致和准确的情感信息获取、描述及参数化建模,海量的情感数据资源库,多特征融合的情感计算理论模型;⑵情感识别与理解,例如,多模态的情感识别和理解;⑶情感表达,例如,多模态的情感表达(图像、语音、生理特征等),自然场景对生理和行为特征的影响;⑷自然和谐的人性化和智能化的人机交互的实现,例如,情感计算系统需要将大量广泛分布的数据整合,然后再以个性化的方式呈现给每个用户。
情感计算有广泛的应用前景。计算机通过对人类的情感进行获取、分类、识别和响应,进而帮助使用者获得高效而又亲切的感觉,并有效减轻人们使用电脑的挫败感,甚至帮助人们理解自己和他人的情感世界。计算机的情感化设计能帮助我们增加使用设备的安全性,使经验人性化,使计算机作为媒介进行学习的功能达到最佳化。在信息检索中,通过情感分析的概念解析功能,可以提高智能信息检索的精度和效率。
展望现代科技的潜力,我们预期在未来的世界中将可能会充满运作良好、操作容易、甚至具有情感特点的计算机。
在较长一段时期内,情感一直位于认知科学研究者的视线以外。直到20世纪末期,情感作为认知过程重要组成部分的身份才得到了学术界的普遍认同。当代的认知科学家们把情感与知觉、学习、记忆、言语等经典认知过程相提并论,关于情感本身及情感与其他认知过程间相互作用的研究成为当代认知科学的研究热点,情感计算( affective computing )也成为一个新兴研究领域。
众所周知,人随时随地都会有喜怒哀乐等情感的起伏变化。那么在人与计算机交互过程中,计算机是否能够体会人的喜怒哀乐,并见机行事呢?情感计算研究就是试图创建一种能感知、识别和理解人的情感,并能针对人的情感做出智能、灵敏、友好反应的计算系统,即赋予计算机像人一样的观察、理解和生成各种情感特征的能力。
目前情感计算研究面临的挑战还很多,例如,情感信息的获取与建模问题,情感识别与理解问题,情感表达问题,以及自然和谐的人性化和智能化的人机交互的实现问题。显然,为解决上述问题,我们需要知道人是如何感知环境的,人会产生什么样的情感和意图,人如何作出恰当的反应。而人类的情感交流是个非常复杂的过程,不仅受时间、地点、环境、人物对象和经历的影响,而且有表情、语言、动作或身体的接触。因此,在人和计算机的交互过程中,计算机需要捕捉关键信息,识别使用者的情感状态,觉察人的情感变化,利用有效的线索选择合适的使用者模型(依据使用者的操作方式、表情特点、态度喜好、认知风格、知识背景等构建的模型),并对使用者情感变化背后的意图形成预期,进而激活相应的数据库,及时主动地提供使用者需要的新信息。
情感计算研究的发展在很大程度上依赖于心理科学和认知科学对人的智能和情感研究取得新进展。心理学研究表明,情感是人与环境之间某种关系的维持或改变,当客观事物或情境与人的需要和愿望符合时会引起人积极肯定的情感,而不符合时则会引起人消极否定的情感。情感具有三种成分:主观体验(个体对不同情感状态的自我感受)、外部表现(在情感状态发生时身体各部分的动作量化形式,即表情)和生理唤醒(情感产生的生理反应)。从生物进化的角度我们可以把人的情绪分为基本情绪和复杂情绪。基本情绪是先天的,具有独立的神经生理机制、内部体验和外部表现,以及不同的适应功能。人有五种基本情绪,它们分别是当前目标取得进展时的快乐,自我保护的目标受到威胁时的焦虑,当前目标不能实现时的悲伤,当前目标受挫或遭遇阻碍时的愤怒,以及与味觉(味道)目标相违背的厌恶。而复杂情绪则是由基本情绪的不同组合派生出来的。
情感是一种内部的主观体验,但总是伴随着某种表情。表情包括面部表情(面部肌肉变化所组成的模式),姿态表情(身体其他部分的表情动作)和语调表情(言语的声调、节奏和速度等方面的变化)。这三种表情也被称为体语,构成了人类的非言语交往方式。面部表情不仅是人们常用的较自然的表现情感的方式,也是人们鉴别情感的主要标志。通过使用特定的仪器,我们可以对面部的微小表情变化进行研究,甚至可以区分真笑和假笑:人在真笑时面颊上升,眼周围的肌肉堆起,大脑左半球的电活动增加;而人在假笑时仅有嘴唇的肌肉活动,下颚下垂,大脑左半球的电活动不明显。脸部运动编码系统FACS通过不同编码和运动单元的组合,可以在脸部形成复杂的表情变化,其成果已经被应用于人脸表情的自动识别与合成。
人的姿态即身体表情,一般伴随着交互过程而发生变化,并表达着一些信息。
语调表情是通过语音的高低、强弱、抑扬顿挫来表达说话人的情感。在人际交往中,语音是人们最直接的交流通道。
在情感计算研究中还可以使用很多种生理指标,例如,皮质醇水平,心率,血压,呼吸,皮肤电活动,掌汗,瞳孔直径,事件相关电位,脑电EEG等。研究发现,惊反射可用作测量情感愉悦度的生理指标,而皮肤电反应可用作测量情感生理唤醒程度的生理指标。
很显然,开展认知科学研究不仅仅是为了满足人类智慧上的好奇心,更重要的是服务于人类,提高人类的生活质量。情感计算有广泛的应用前景。计算机通过对人类的情感进行获取、分类、识别和响应,进而可以帮助使用者获得高效而又亲切的感觉,并有效减轻人们使用电脑的挫败感,甚至帮助人们理解自己和他人的情感世界。计算机的情感化设计能帮助我们增加使用设备的安全性,使经验人性化,使计算机作为媒介进行学习的功能达到最佳化。
情感计算是一个高度综合化的研究和技术领域。通过计算科学与心理科学、认知科学的结合,研究人与人交互、人与计算机交互过程中的情感特点,设计具有情感反馈的人与计算机的交互环境,将有可能实现人与计算机的情感交互。情感计算研究将不断加深对人的情感状态和机制的理解,并提高人与计算机界面的和谐性,即提高计算机感知情境,理解人的情感和意图,作出适当反应的能力。
传统的人机交互,主要通过键盘、鼠标、屏幕等方式进行,只追求便利和准确,无法理解和适应人的情绪或心境。而如果缺乏这种情感理解和表达能力,就很难指望计算机具有类似人一样的智能,也很难期望人机交互做到真正的和谐与自然。由于人类之间的沟通与交流是自然而富有感情的,因此,在人机交互的过程中,人们也很自然地期望计算机具有情感能力。情感计算(Affective Computting)就是要赋予计算机类似于人一样的观察、理解和生成各种情感特征的能力,最终使计算机像人一样能进行自然、亲切和生动的交互。 有关人类情感的深入研究,早在19世纪末就进行了。然而,除了科幻小说当中,过去极少有人将“感情”和无生命的机器联系在一起。只有到了现代,随着数字信息技术的发展,人们才开始设想让机器(计算机)也具备“感情”。从感知信号中提取情感特征,分析人的情感与各种感知信号的关联,是国际上近几年刚刚兴起的研究方向(图1)。
人的情绪与心境状态的变化总是伴随着某些生理特征或行为特征的起伏,它受到所处环境、文化背景、人的个性等一系列因素的影响。要让机器处理情感,我们首先必须探讨人与人之间的交互过程。那么人是如何表达情感,又如何精确地觉察到它们的呢?人们通过一系列的面部表情、肢体动作和语音来表达情感,又通过视觉、听觉、触觉来感知情感的变化。视觉察觉则主要通过面部表情、姿态来进行;语音、音乐则是主要的听觉途径;触觉则包括对爱抚、冲击、汗液分泌、心跳等现象的处理。
情感计算研究的重点就在于通过各种传感器获取由人的情感所引起的生理及行为特征信号,建立“情感模型”,从而创建感知、识别和理解人类情感的能力,并能针对用户的情感做出智能、灵敏、友好反应的个人计算系统,缩短人机之间的距离,营造真正和谐的人机环境(图2)。 在生活中,人们很难保持一种僵硬的脸部表情,通过脸部表情来体现情感是人们常用的较自然的表现方式,其情感表现区域主要包括嘴、脸颊、眼睛、眉毛和前额等。人在表达情感时,只稍许改变一下面部的局部特征(譬如皱一下眉毛),便能反映一种心态。在1972年,著名的学者Ekman提出了脸部情感的表达方法(脸部运动编码系统FACS)。通过不同编码和运动单元的组合,即可以在脸部形成复杂的表情变化,譬如幸福、愤怒、悲伤等。该成果已经被大多数研究人员所接受,并被应用在人脸表情的自动识别与合成(图3)。
随着计算机技术的飞速发展,为了满足通信的需要,人们进一步将人脸识别和合成的工作融入到通信编码中。最典型的便是MPEG4 V2视觉标准,其中定义了3个重要的参数集:人脸定义参数、人脸内插变换和人脸动画参数。表情参数中具体数值的大小代表人激动的程度,可以组合多种表情以模拟混合表情。
在目前的人脸表情处理技术中,多侧重于对三维图像的更加细致的描述和建模。通常采用复杂的纹理和较细致的图形变换算法,达到生动的情感表达效果。在此基础上,不同的算法形成了不同水平的应用系统(图4,图5) 人的姿态一般伴随着交互过程而发生变化,它们表达着一些信息。例如手势的加强通常反映一种强调的心态,身体某一部位不停地摆动,则通常具有情绪紧张的倾向。相对于语音和人脸表情变化来说,姿态变化的规律性较难获取,但由于人的姿态变化会使表述更加生动,因而人们依然对其表示了强烈的关注。
科学家针对肢体运动,专门设计了一系列运动和身体信息捕获设备,例如运动捕获仪、数据手套、智能座椅等。国外一些著名的大学和跨国公司,例如麻省理工学院、IBM等则在这些设备的基础上构筑了智能空间。同时也有人将智能座椅应用于汽车的驾座上,用于动态监测驾驶人员的情绪状态,并提出适时警告。意大利的一些科学家还通过一系列的姿态分析,对办公室的工作人员进行情感自动分析,设计出更舒适的办公环境。 在人类的交互过程中,语音是人们最直接的交流通道,人们通过语音能够明显地感受到对方的情绪变化,例如通过特殊的语气词、语调发生变化等等。在人们通电话时,虽然彼此看不到,但能从语气中感觉到对方的情绪变化。例如同样一句话“你真行”,在运用不同语气时,可以使之成为一句赞赏的话,也可以使之成为讽刺或妒忌的话。
目前,国际上对情感语音的研究主要侧重于情感的声学特征的分析这一方面。一般来说,语音中的情感特征往往通过语音韵律的变化表现出来。例如,当一个人发怒的时候,讲话的速率会变快,音量会变大,音调会变高等,同时一些音素特征(共振峰、声道截面函数等)也能反映情感的变化。中国科学院自动化研究所模式识别国家重点实验室的专家们针对语言中的焦点现象,首先提出了情感焦点生成模型。这为语音合成中情感状态的自动预测提供了依据,结合高质量的声学模型,使得情感语音合成和识别率先达到了实际应用水平。 虽然人脸、姿态和语音等均能独立地表示一定的情感,但人在相互交流的过程中却总是通过上面信息的综合表现来进行的。所以,惟有实现多通道的人机界面,才是人与计算机最为自然的交互方式,它集自然语言、语音、手语、人脸、唇读、头势、体势等多种交流通道为一体,并对这些通道信息进行编码、压缩、集成和融合,集中处理图像、音频、视频、文本等多媒体信息。
目前,多模态技术本身也正在成为人机交互的研究热点,而情感计算融合多模态处理技术,则可以实现情感的多特征融合,能够有力地提高情感计算的研究深度,并促使出现高质量、更和谐的人机交互系统。
在多模态情感计算研究中,一个很重要的研究分支就是情感机器人和情感虚拟人的研究。美国麻省理工学院、日本东京科技大学、美国卡内基·梅隆大学均在此领域做出了较好的演示系统。目前中科院自动化所模式识别国家重点实验室已将情感处理融入到了他们已有的语音和人脸的多模态交互平台中,使其结合情感语音合成、人脸建模、视位模型等一系列前沿技术,构筑了栩栩如生的情感虚拟头像,并正在积极转向嵌入式平台和游戏平台等实际应用(图6)。 情感状态的识别和理解,则是赋予计算机理解情感并做出恰如其分反应的关键步骤。这个步骤通常包括从人的情感信息中提取用于识别的特征,例如从一张笑脸中辨别出眉毛等,接着让计算机学习这些特征以便日后能够准确地识别其情感。
为了使计算机更好地完成情感识别任务,科学家已经对人类的情感状态进行了合理而清晰的分类,提出了几类基本情感。目前,在情感识别和理解的方法上运用了模式识别、人工智能、语音和图像技术的大量研究成果。例如:在情感语音的声学分析的基础上,运用线性统计方法和神经网络模型,实现了基于语音的情感识别原型;通过对面部运动区域进行编码,采用HMM等不同模型,建立了面部情感特征的识别方法;通过对人姿态和运动的分析,探索肢体运动的情感类别等等。
不过,受到情感信息的捕获技术的影响,并缺乏大规模的情感数据资源,有关多特征融合的情感理解模型的研究还有待深入。随着未来的技术进展,还将提出更有效的机器学习机制。 情感计算与智能交互技术试图在人和计算机之间建立精确的自然交互方式,将会是计算技术向人类社会全面渗透的重要手段。未来随着技术的不断突破,情感计算的应用势在必行,其对未来日常生活的影响将是方方面面的,目前我们可以预见的有:
情感计算将有效地改变过去计算机呆板的交互服务,提高人机交互的亲切性和准确性。一个拥有情感能力的计算机,能够对人类的情感进行获取、分类、识别和响应,进而帮助使用者获得高效而又亲切的感觉,并有效减轻人们使用电脑的挫败感,甚至帮助人们便于理解自己和他人的情感世界。
它还能帮助我们增加使用设备的安全性(例如当采用此类技术的系统探测到司机精力不集中时可以及时改变车的状态和反应)、使经验人性化、使计算机作为媒介进行学习的功能达到最佳化,并从我们身上收集反馈信息。例如,一个研究项目在汽车中用电脑来测量驾车者感受到的压力水平,以帮助解决所谓驾驶者的“道路狂暴症”问题。
情感计算和相关研究还能够给涉及电子商务领域的企业带来实惠。已经有研究显示,不同的图像可以唤起人类不同的情感。例如,蛇、蜘蛛和枪的能引起恐惧,而有大量美元现金和金块的则可以使人产生非常强烈的积极反应。如果购物网站和股票交易网站在设计时研究和考虑这些因素的意义,将对客流量的上升产生非常积极的影响。
在信息家电和智能仪器中,增加自动感知人们的情绪状态的功能,可以提供更好的服务。
在信息检索应用中,通过情感分析的概念解析功能,可以提高智能信息检索的精度和效率。
在远程教育平台中,情感计算技术的应用能增加教学效果。
利用多模式的情感交互技术,可以构筑更贴近人们生活的智能空间或虚拟场景等等。
情感计算还能应用在机器人、智能玩具、游戏等相关产业中,以构筑更加拟人化的风格和更加逼真的场景。 由于缺乏较大规模的情感数据资源,情感计算的发展受到一定的限制,而且多局限在语音、身体语言等具体而零散的研究领域,仅仅依靠这些还难以准确地推断和生成一个人的情感状态,并进行有效的情感交互。目前,科学家们正在积极地探索多特征融合的情感计算理论模型。很多人认为,今后几年情感计算将在这些方面需要取得突破:
更加细致和准确的情感信息获取、描述及参数化建模。
多模态的情感识别、理解和表达(图像、语音、生理特征等)。
自然场景对生理和行为特征的影响。
更加适用的机器学习算法。
海量的情感数据资源库。 不久前,为了推动我国在这一领域的研究,探讨情感计算和智能交互技术的发展动态与趋势,促进我国科研人员在此领域的交流与合作,中国科学院自动化研究所、中国自动化学会、中国计算机学会、中国图象图形学会、中国中文信息学会、国家自然科学基金委员会和国家863计划计算机软硬件技术主题作为主办单位,在北京主办了第一届中国情感计算与智能交互学术会议。
事实证明,情感计算的概念尽管诞生不久,但已受到学术界和产业界的高度重视,相关领域的研究和应用正方兴未艾,国家自然科学基金委也将其列入重点项目的指南中。值得注意的是,近几年来,与情感计算有密切关系的普适计算和可穿戴式计算机的研究也已获得了蓬勃发展,并同样得到了国家的大力支持。这为情感信息的实时获取提供了极大的便利条件,也为情感计算在国内的发展提供了更好的发展平台。
人在加工外界输入的信息时,不仅能认识事物的属性、特性及其关系,还会产生对事物的态度,引起满意、不满意、喜爱等主观体验,这就是情绪或情感。人的认知和行为由情绪和情感影响,并在动机的支配下进行。
个人所具有的心理现象称为个体心理,个体心理异常复杂,包括认知,动机和情绪,能力和人格等。
心理反应包括情绪反应。
《知觉生长模型》认为:人在觉醒状态的一切反映,如感觉,知觉,注意,思考,想象,直觉,灵感,行为等等都是心理反应,情绪也是心理反应的一种形式,是专指个体对客观事物刺激作出含有情感的反应。
欢迎分享,转载请注明来源:浪漫分享网
评论列表(0条)