文档库 最新最全的文档下载
当前位置:文档库 › LVA语音情感深层分析系统

LVA语音情感深层分析系统

LVA语音情感深层分析系统
LVA语音情感深层分析系统

语音情感深层分析系统

从询问对象口中得到真实的信息一直是调查的重要环节。为此也出现了许多

种手段,从传统的询问讯,心理分析,测谎技术乃至药物。有经验的审讯人员可

以通过嫌疑人的一些下意识的动作(手指的搅动,眼珠的转动等)判断嫌疑人说

的是否是真实。但这种手段极大地依赖于侦查人员本身的素质,成为一个高明的

审讯人员需要大量的实践经验和长时间的学习,即使经过这些过程,也不是所有

人员都能成为高明审讯人员。而且这种方式受很多主观因素制约。审讯人员的感觉,嫌疑人的心理素质等等各种因素都会影响最终结果。

测谎仪通过测量嫌疑人的生理体征的变化(心率,血压,呼吸速率,皮电等)来判断嫌疑人是否有欺骗的行为,这种方法有一定的客观性。需要相关的辅助设备,对场地,人员的要求都比较严格导致其不能够大规模,普遍的使用。测谎仪

的测试的是生理变化,而生理变化的产生由很多因素引起。无辜的人有可能焦虑,恐惧,生理体征的变化。有经验的罪犯也会通过各种手段混淆测试结果。

语音情感深层分析系统技术建立在人类的发声机制深刻了解的基础上。人类

的发声机制是非常复杂的处理过程,相当数量的肌肉和身体器官参与,并且采用

一定的方式将其在精确的时间内同步。首先,大脑会理解一个给定的情景并且评

估由于说话而带来的影响。然后决定发言时,空气会从肺部被挤压向上到声带,

导致声带在特定频率振动产生声音,振动的空气继续流向大脑操纵的舌头,牙齿

和嘴唇而产生声音,成为我们能理解的单词或词组。大脑会严密的监测这个处理

过程,以保证所发出的声音唯一的表达了意图,能够被理解以及能够被倾听者听到。语音情感深层分析系统正是利用专有和独特的技术,发现以时声音为媒介的

大脑活动“痕迹”。这项技术基于这样的理念,一个人说话时的声音波形能够反

映出大脑对事件的认知和诠释的改变。

语音情感深层分析系统的核心源于信息生成算法,精确的检测从较高频率(RHFR)和较低频率范围(RLFR)内的微小的变化。绝大部分我们能够理解,听

到的以及能够分析的声音都处于这两个范围之内。基于独特的算法区分不同的压

力和类型、认知过程和情感反应。使用129个音频参数精确发现和测量声波中无

意识的变化并创建一个基调以便标示谈话者的情绪图谱。用来理解一个人在谈话

时的精神状态和情感结构。能够识别不同型的压力,认知过程和情感反应。通过

研究这些信息可以深刻理解个人思维;什么让他困惑;什么让他兴奋;他回答中

哪一部分是他不确定的;哪些信息是他格外关注,哪一部分是他比较敏感的问题。通过分析谈话中的关键声音属识别出性标示,可以识别出精神状态。分析各种不

同的压力类型,认知过程和情感反应。检测出欺骗的企图、犯罪意图和大致的可

信度。

语音深层分析系统不需要在谈话对象身体上安置感应器。只需要获得谈话人

清晰地语音即可。也不许要编制专门的试题。可以即时的分析询问;也可以谈话

录音后剪辑分析,使用5-8个问题,10分钟时间。通过后期降噪,剪辑和屏蔽通

过系统运行分析得出初始值再加以对案件

案例分析

徐某某各项指标如下:

案例1

办案人员询问行贿人徐某某

A.问:你有没有送过钱给周某?

答:有,送过的

问:在哪里送的?

答:在面店门口送的。

问:送了多少钱?

答:2万元

回答送了2万元显示“真相”,

问:再想想到底送了多少?

答:(停顿----)2万块,事实就是2万块。徐某某的回答显示“高度紧张”

-----

问:送2万元钱给周某就是为了拆迁时有一些违章建筑补偿?

答:是的,由于当时高频瓷厂违建补偿款是不给租户。当时承租合同里已经签定了的。后来我去找了周某让他去与高频瓷厂杜某沟通。

问到送2万元就是为了违章建筑补偿,徐某的回答显示“极度紧张、不确定、假供词”

初步结论:通过周某某的供述和系统测试的数据分析得出,

一:送给周某某的2万元应该是徐某某通过高频瓷厂的厂长杜某某介绍认识之后给的,主要是为了接近周某某。

二:徐某某在违章建筑补偿方面和周某某有不正当经济往来。通过对徐某某的询问中得知,徐某某在得到违建补偿款后表示过感谢。徐某某为了掩盖第二次送钱给周某某的事实,故意将第一次送钱的目的解释为对得到违章建筑补偿款帮助的感谢。

综合结论:1.徐某某行贿次数两次以上,

2.行贿金额高于2万。

3.违章建筑补偿款是询问突破方向。

基于方面类别的情感分析和推荐系统方法研究

基于方面类别的情感分析和推荐系统方法研究随着电子商务的飞速发展,推荐系统在其中扮演着越来越重要的角色,人们对于推荐系统的要求也越来越高,不仅要求其能够进行精 准的个性化推荐,还在推荐粒度以及可解释性等方面提出了更高的要求。而也得益于电商平台的飞速发展,其上丰富的评论信息为我们实现这些需求提供了可能,这也促进了融合评论信息的基于方面类别(aspect)情感分析的具有可解释性的推荐系统的发展。目前基于方面类别情感分析的推荐系统主要分为两个大的模块,第一模块是对于评论利用基于方面类别的情感分析(Aspect Based Sentiment Analysis,简称ABSA)技术抽取方面类别级别的信息特征,包含方面类别识别和基于方面类别的情感极性判别两个任务;第二个模块是将上一模块中抽取得到的特征或者表示与推荐系统进行融合。方面类别级别的特征会被分别加入到用户偏好和商品属性中丰富用户和商品的表示,从而进行更加准确,更加个性化的推荐。但是在主流的基于方面类别情感分析的推荐系统的各个模块和任务中仍存在一些问题,ABSA模块中,方面类别识别任务中过于关注模型集成和特征工程而缺乏对于问题 和数据特点的分析,基于方面类别的情感极性判别任务中缺乏结构信息的指导,在推荐模块中方面类别级别的信息和推荐系统结合方式过于简单,并且推荐的可解释性仍然比较粗糙乃至缺失等等,针对这些 问题,本文分别提出以下解决方法:1.对于方面类别识别任务中只关 注于模型集成和特征工程的现状,针对于任务和数据重新进行了分析并观察到了两个现象,首先是评论文本简短,不同的部分表意明确且

独立;其次是某些单词对于方面类别的识别具有决定性作用,但是受 限于数据规模、稀疏性等因素,无法发挥作用。根据这两个观察提出一种基于依存句法树的切分方法对于评论进行切分并分别进行方面 类别识别,并将对齐特征加入模型提高识别准确率。2.对于基于方面类别的情感分析中缺乏结构信息的问题,引进一种基于强化学习的文本表示方法来学习评论文本的结构信息。加入策略网络,针对不同的方面类别决策是否进行删词操作,只保留下和当前方面类别相关的描述文本,从而得到不同方面类别视角下的表示,然后分别进行情感极 性的判别,提高情感分类的准确率。3.针对于方面类别信息和推荐系统融合方式简单以及推荐的可解释性粗糙乃至缺失的问题,引入外部标准标注数据训练分类模型,并用其对于推荐评论进行标注得到方面类别和情感标签特征,然后利用卷积神经网络和注意力机制得到评论文本的抽象表示特征,并把方面类别识别作为辅助任务监督文本建模的过程。最后将这两类特征同时加入推荐系统丰富用户和商品的表示,同时可以根据用户和商品的方面类别和方面类别级别的情感标签的 统计信息得到方面类别级别的推荐理由,满足更细粒度的可解释性的需求。本文提出了基于依存句法树切分的方面类别的识别模型、基于强化学习的方面类别情感分类模型和基于方面类别情感分析的推荐 系统,并且在各自任务的标准数据集上分别进行了实验和针对性的比较,证明了这些改进的模型的有效性。

语料库

Background Information 语料库的概念 语料库是指按照一定的语言学规则,利用随机抽样的方法收集的有代表性的语言材料的总汇,它是语言材料的样本。 语料库通常指为语言研究机构收集的,具有一定容量的大型电子文本语料库。它是由口语语料和书面语的样本汇集而成,用来代表特定的语言或语言变体,或经过加工后带有语言学信息标注的文本的集合。 语料库的分类 按照语料库所涉及的语言种类,语料库课分为单语语料库,双语平行语料库(parallel corpus)和多语语料库(multilingual corpus); 按照语言涉及的题材,语料库可分为普通语料库(general corpus)和专门用途语料库(specialized corpus); 按语料的来源,又可分为口语语料库和书面语语料库; 按语料库是否被标注,语料库可分为生语料库或原始语料库(raw corpus)和熟语料库或标注语料库(annotated corpus) In linguistics, a corpus (plural corpora) or text corpus is a large and structured set of texts (now usually electronically stored and processed). They are used to do statistical analysis and hypothesis testing, checking occurrences or validating linguistic rules on a specific universe. A corpus may contain texts in a single language (monolingual corpus) or text data in multiple languages (multilingual corpus). Multilingual corpora that have been specially formatted for side-by-side comparison are called aligned parallel corpora. In order to make the corpora more useful for doing linguistic research, they are often subjected to a process known as annotation. An example of annotating a corpus is

语音情感识别中特征参数的研究进展

传感器与微系统(Transducer and Microsystem Technologies)2012年第31卷第2期 语音情感识别中特征参数的研究进展* 李杰1,周萍2 (1.桂林电子科技大学计算机科学与工程学院,广西桂林541004; 2.桂林电子科技大学电子工程与自动化学院,广西桂林541004) 摘要:语音情感识别是近年来新兴的研究课题之一,特征参数的提取直接影响到最终的识别效率,特征 降维可以提取出最能区分不同情感的特征参数。提出了特征参数在语音情感识别中的重要性,介绍了语 音情感识别系统的基本组成,重点对特征参数的研究现状进行了综述,阐述了目前应用于情感识别的特征 降维常用方法,并对其进行了分析比较。展望了语音情感识别的可能发展趋势。 关键词:语音;情感识别;特征参数;特征降维 中图分类号:TP391文献标识码:A文章编号:1000—9787(2012)02—0004—04 Research progress on feature parameters of speech emotion recognition* LI Jie1,ZHOU Ping2 (1.School of Computer Science and Engineering,Guilin University of Electronic Technology,Guilin541004,China;2.School of Electric Engineering and Automation,Guilin University of Electronic Technology,Guilin541004,China) Abstract:Speech emotion recognition is one of the new research projects,the extraction of feature parameters extraction influence the final recognition-rate efficiency directly,dimension reduction can extract the most distinguishing feature parameters of different emotions.The importance of feature parameters in speech emotion recognition is point out.The system of speech emotion recognition is introduced.The common methods of feature parameters is detailed.The common methods of dimension reduction which are used in emotion recognition are compared and analyzed.The development of speech emotion recognition in the future are prospected. Key words:speech;emotion recognition;feature parameter;dimension reduction 0引言 随着计算机技术的高速发展和人类对计算机依赖性的不断增强,人机交流变得越来越普遍,人机交互能力也越来越受到研究者的重视,语音情感识别就是人机交互与情感计算的交叉研究领域。语音中的情感之所以能够被识别与表达,是因为语音特征在不同情感状态下的表现不同。因此,很多研究者对特征与情感类别之间的对应关系产生了浓厚的兴趣并进行了深入的探讨。Murray I和Amott J L完成的实验得出了基频、能量、时长等韵律特征,以及语音质量特征与情感之间的定性关系[1],使得韵律学特征成为语音情感识别的常用特征。此后,研究者又加入了共振峰参数和语音学特征,如MFCC,使得韵律学特征与语音学特征结合识别情感。通常在利用这些基本特征进行研究时,还需要求出其派生特征和各种统计特征,如范围、均值和方差等,并把它们组成特征向量。由于到目前为止,声学特征与情感状态的对应关系缺乏统一的结论,为了尽可能保留有意义的信息,研究者只能在研究中保留这维数少则几十条多则上百条的特征向量。但根据模式识别的理论,高维特征集合不仅不会提高识别率,还会造成“维数灾难”[2]。大量的研究表明:语音情感识别的关键就在于从数量众多的特征中求得高效的情感声学特征组,这就需要用到特征降维技术。 目前,已有数篇综述文献总结了语音情感识别的研究成果[3 6],但主要都是针对识别算法的研究进展进行综述。本文从模式识别的角度对目前语音情感识别研究中所采用的特征降维技术进行总结,并对近几年提出的情感特征参数进行阐述。 1语音情感识别系统的概述 基于语音的情感识别大致分为预处理、特征提取和情感分类三步,大致框架如图1所示。特征提取作为情感分 收稿日期:2011—07—20 *基金项目:国家自然科学基金资助项目(60961002)4

基于神经网络模型的文本情感分析系统的研究与实现

基于神经网络模型的文本情感分析系统的研究与实现 进入21世纪,深度学习框架的提出使很多图像和语音领域的问题都得到了突破性的进展。在自然语言处理领域,深度学习模型也取得了不错的效果,特别是在文本分类任务上,一些典型的神经网络的应用将文本分类的准确率提升了很大的幅度。 从整体来看,在使用基于深度学习的神经网络模型进行文本分类的任务时候,有两个步骤是十分关键的:1将文本中词语转化成词向量;2将词向量序列合理地编码为句向量。现有的深度学习模型虽然在文本分类上取得了不错的效果,但是在这两个步骤中都存在着一些缺陷。 本文针对现有模型在这两个步骤中的缺陷,提出了如下两种改进的网络模型结构。一、在将词语转化为词向量过程中,已有的基于深度学习的模型都是直接使用word2vec等无监督的词向量生成策略,将词语看成是不可拆分的最小单元,通过词语之间共现的概率将词语映射到向量空间中去。 这类方法只是考虑了词之间的位置统计关系,并没有考虑到词语本身所包含的结构信息。无论是中文还是英文,词语本身的形成都具有一定的规律性,本文提出的基于构词法的神经网络文本情感分析模型,通过神经网络结构自动地从词语中提取出结构信息。 二、在将词向量序列编码为句向量过程中,已有的基于深度学习的模型都是单独使用卷积神经网络或者循环神经网络。但是卷积神经网络在提取情感特征方面存在局部性的缺陷,循环神经网络在提取情感特征方面存在序列偏置的缺陷,这些缺陷将会影响最终模型的分类性能。 本文针对这两种网络结构的特性,提出了基于情感信息收集-抽取架构的文

本情感分析网络,使用合理的方式将卷积神经网络和循环神经网络进行了有机组合。基于上述提出的两种改进的神经网络结构,本文研究与实现了面向微博的文本情感分析系统,全面介绍了整个系统的四个主要功能实体:1数据抓取与预处理模块;2数据分析模块;3数据存储模块;4数据展示模块。 同时详细介绍了这四个功能实体的内部设计细节,并在最后进行了系统的测试与前端展示。

【CN109767790A】一种语音情感识别方法及系统【专利】

(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 201910173689.0 (22)申请日 2019.02.28 (71)申请人 中国传媒大学 地址 100000 北京市朝阳区定福庄东街1号 (72)发明人 巩微 范文庆 金连婧 伏文龙  黄玮  (51)Int.Cl. G10L 25/63(2013.01) G10L 25/30(2013.01) G10L 25/45(2013.01) (54)发明名称 一种语音情感识别方法及系统 (57)摘要 本发明公开一种语音情感识别方法及系统。 所述识别方法包括:获取语音信号;预处理所述 语音信号,获得预处理语音信号;计算所述预处 理语音信号对应的语谱图;计算多个不同语段长 度的所述预处理语音信号的情感识别率,将所述 情感识别率最高对应的语段长度确定为最佳语 段长度;根据所述最佳语段长度对应的语谱图提 取所述语音信号的声学特征;将所述声学特征采 用卷积神经网络分类识别所述语音信号的情感。 采用基于语谱图和卷积神经网络的语音情感识 别方法提升了语音情感识别率。权利要求书3页 说明书6页 附图1页CN 109767790 A 2019.05.17 C N 109767790 A

1.一种语音情感识别方法,其特征在于,所述识别方法包括: 获取语音信号; 预处理所述语音信号,获得预处理语音信号; 计算所述预处理语音信号对应的语谱图; 计算多个不同语段长度的所述预处理语音信号的情感识别率,将所述情感识别率最高对应的语段长度确定为最佳语段长度; 根据所述最佳语段长度对应的语谱图提取所述语音信号的声学特征; 将所述声学特征采用卷积神经网络分类识别所述语音信号的情感。 2.根据权利要求1所述的一种语音情感识别方法,其特征在于,所述预处理所述语音信号,获得预处理语音信号具体包括: 将所述语音信号经过数字化处理,获得脉冲语音信号; 将所述脉冲语音信号采样处理,获得离散时间和连续幅值的脉冲语音信号; 将所述离散时间和连续幅值的脉冲语音信号量化处理,获得离散时间和离散幅值的脉冲语音信号; 将所述离散时间和离散幅值的脉冲语音信号进行预加重处理,获得预加重语音信号;将所述预加重语音信号进行分帧加窗处理,获得预处理语音信号。 3.根据权利要求1所述的一种语音情感识别方法,其特征在于,所述计算所述预处理语音信号对应的语谱图具体包括: 获取所述预处理语音信号的采样频率F s 、采样数据序列S g 和语段长度; 根据所述语段长度和窗函数的窗长N new 将所述预处理语音信号分为N段,获得N段语音信号; 根据所述语段长度和所述N段语音信号计算帧移N sfgtft ; 对第i帧语音信号S i 加窗处理,获得加窗语音信号S i ′, S i ′=S i ×hanning(N new ),其中i的取值为1,2,......,N; 将所述加窗语音信号S i ′进行傅里叶变换,获得傅里叶变换语音信号Z i ; 根据所述傅里叶变换语音信号Z i 的相位θi 计算所述第i帧语音信号S i 的能量密度函数|Z i |2;将所述窗函数进行N sfgtft 个帧移,获得第i+1帧语音信号S i+1的能量密度函数|Z i+1|2; 获得一个[N new /2]+1行、N列的矩阵R; 将所述矩阵R映射为灰度图,获得所述计算所述预处理语音信号对应的语谱图。 4.根据权利要求1所述的一种语音情感识别方法,其特征在于,所述将所述声学特征采用卷积神经网络分类识别所述语音信号的情感具体包括: 所述语谱图采用卷积神经网络的卷积层处理, 三维的所述语谱图转换为N个二维特征;其中,b j 为能够训练的偏差函数,k ij 为卷积核,x i 表示输入的第i段语谱图;y i 表示输出的第i段语谱图对应的二维特征; 将所述输出的第i段语谱图对应的二维特征y i 通过池化层处理,获得低分辨率声学特征y i ′; 所述卷积层与所述池化层之间设置有全连接层,所述全连接层中有激活函数,所述全 权 利 要 求 书1/3页2CN 109767790 A

基于语料库的中国大学生英语口语表达中的“中式 英 语” 探究

基于语料库的中国大学生英语口语表达中 的“中式英语” 探究 摘要:本文利用大学学习者英语口语语料库,选取全国大学英语考试口语考试部分27名考生的口语语料库作为研究对象,对其中出现的中式英语进行标注和分类。作者根据统计结果,从词法和句法两个层面分析我国大学生英语口语中出现的中式英语现象,探讨汉语母语作为中式英语出现的主要原因及对英语口语的影响,最后对中国大学生的英语日常学习及口语水平的提高提出相关建议,为广大高校师生提供借鉴意义。 关键词:中式英语中国大学生口语语料库 1.引言 中国大学生在他们的年纪已经获得用汉语思考和表达的能力,形成用汉语思考和表达的习惯。绝大部分中国人都是在掌握了母语之后才开始学习英语的,所以在学英语的过程中,总是从中国人的思维角度思考,不顾西方的语言习惯,这就造成中式英语的大量存在。由于不符合英语的表达习惯,中式英语在人际交流中有时会引起误解和困惑。因此,它作为一种特殊的语言现象,应该引起人们的注意。在中国,高校在校学生占英语学习者的很大一部分,他们毕业之后就

由英语学习者转变为英语使用者,所以他们在学校学得如何,直接影响他们在工作岗位上用得如何。 从现状看,我国大学毕业生的平均英语水平不能满足各行各业越来越高的需求,尤其是在口语表达和人际交流方面。在现行教育体制下,高校英语教学过于强调语法和词汇的讲解,而对学生语言能力的培养和英语文化的教授则有所忽略。其结果就是许多中国大学生在学了十多年英语之后,只是善于记忆单词和语法规则;他们能在笔试中得高分,但是一张嘴就是中式英语。 《牛津英语词典》对中式英语作了如下定义:中式英语是一种汉语和英语的混合体;尤其是汉语使用者使用的或中英双语语境中的一种英语变体,典型地夹杂一些汉语的词汇和结构,或是汉语语境中特有的英语术语。 总的说来,中式英语是指一种不符合英语文化习惯的畸形英语,由某些受汉语思维方式和文化背景影响而将母语的语言规则运用到英语中的中国人说出或写出。 2.研究方法 2.1研究对象和数据收集 “大学学习者口语语料库”由上海交通大学的杨惠中教授主持完成。该语料库容量达70万字,来源是全国大学英语考试口语考试部分的真实音视频材料。它按照考试来源地、专业、考试成绩和对话题目,采取随机抽样的方法组

语音情感识别

人机交互中的语音情感识别 一.研究内容及其意义 随着信息技术的高速发展和人类对计算机的依赖性不断增强,人机交互(Human-Computer Interaction)能力越来越受到研究者的重视。如何实现计算机的拟人化,使其能感知周围的环境和气氛以及对象的态度、情感的内容,自适应地为对话对象提供最舒适的对话环境,尽量消除操作者和机器之间的障碍,已经成为下一代计算机发展的目标。显然,人的大脑所表现出来的心智现象不仅仅体现在“智”的方面,而且还体现在“心”的方面。人工智能已经不仅仅把研究重点放在对人脑智能实现上,而且也开展了对情感和意识方面的研究。一般认为情感是通过语言、姿态、音乐和行为等表达模式来进行交流的,而其中语音信号中的情感信息处理的研究正越来越受到人们的重视。 包含在语音信号中的情感信息是一种很重要的信息资源,它是人们感知事物的必不可少的部分信息。例如,同样一句话,由于说话人表现的情感不同,在听着的感知上就可能会有较大的差别。然而传统的语音信号处理技术把这部分信息作为模式的变动和差异噪声通过规则化处理给去掉了。实际上,人们同时接受各种形式的信息,怎样利用各种形式的信息以达到最佳的信息传递和交流效果,是今后信息处理研究的发展方向。 语音之所以能够表达情感,是因为其中包含能体现情感特征的参数。研究认为,某种特定的情感状态所引起的语音参数变化在不同的人之间是大致相同的,仅有微小差别。因而,情感的变化能够通过语音的特征参数来反映,研究从语音中提取这些情感参数就显得非常重要。通常认为情绪所引起的生

理上的变化会对语音带来直接的影响,而与人的生理唤醒程度相关的特征参数(声学参数如音强、平均基音、语速等)能够更好地反映语音中的情感 ,如恐惧和生气所引起的生理颤动会带来相应的基频摆动;不高兴会导致声道的紧张从而引起语音信号频谱发生变化。另外,语音情感识别中所采用的识别方法也会对结果产生影响。 目前,关于情感信息处理的研究正处在不断的深入之中,而其中语音信号中的情感信息处理的研究正越来越受到人们的重视,如美国、日本、欧洲、韩国等许多国家的一些研究单位都在进行情感语音处理研究工作。语音情感识别有着非常广泛的应用前景。比如,用于自动远程电话服务中心,及时发现客户的不满情绪;用于远程教学和婴儿教育,及时识别学生的情绪并做出适当的处理,从而提高教学质量;也可以用于刑事侦察中自动检测犯罪嫌疑人的心理状态以及辅助测谎等。 二.国内外的研究现状 语音情感识别是语音信号处理领域崛起的新秀,相关研究至今已有二十余年的研究历史,对提升智能人机交互水平和丰富多媒体检索方式有着重要的实际意义。 在1972年Williams发现人的情感变化对语音的基因轮廓有很大的影响,这是国外最早开展的语音情感方面的研究之一。1990年MIT多媒体实验室构造了一个“情感编辑器”对外界各种情感信号进行采样,如人的语音信号、脸部表情信号等来识别各种情感[1]。1996年日本东京Seikei大学提出情感空间的概念并建立了语音情感模型。2000年,Maribor大学的Vladimir Hozjan研究了基于多种语言的语音情感识别[2]。2009年4月,日本产业技术综合研究所(AIST)研制

基于安卓的语音情感识别系统设计与实现

基于安卓的语音情感识别系统设计与实现 语音情感识别技术是当前情感计算与语音信号领域的热点问题。作为人机交互之中的一个重要组成部分,在疾病诊断、刑侦破案、远程教育等领域也有日趋广泛的应用。作为人机交互之中的一个重要组成部分,语音情感识别技术却由于情感本身的定义不确定性与表征情感的特征的模糊性,使得语音情感识别技术成为了一个难题。为了解决语音情感识别技术中识别率不高且还不能做到人机交互应用的难题,本文主要进行了以下几点研究:1.引入非线性特征Teager能量算子,并将Teager能量算子与MFCC(Mel-Frequency Cepstral Coefficients,梅尔频域倒谱系数)相结合提取NFD_Mel(Nonlinear Frequency Domain Mel,非线性梅尔频域参数),实验结果表明该特征可以从非线性的角度提取特征,并与传统特征相结合可以有效提高识别率,在德国柏林情感数据库识别率达到了82.02%,相比不采用 NFD_Mel的传统方法,识别率提高了3.24%。2.我们创新性地提出了一种基于倒谱分离信号的非特定人语音情感识别方法:声门与声道信号都包含了丰富的情感信息,由于个人声道的差异,通常声道信息则更 多的包含了个人特征,这对于我们非特定人的情感识别工作产生了很多的干扰。基于非特定人的情感识别效果则不如特定人。为了克服现有技术的不足,我们创新性地提出了一种基于倒谱分离信号的非特定人语音情感识别方法,该方法利用倒谱分离信号,保留全部的声带信 息并摒弃一部分的声道信息,同时寻找最佳分离点,最后对处理后的 信号在复倒谱重构并提取特征,可以有效提高非特定人语音情感识别

包含在语音信号中情感特征的分析

包含在语音信号中情感特征的分析 摘要:分析了含有欢快、愤怒、惊奇、悲伤等4种情感语音信号的时间构造、振幅构造、基频构造和共振峰构造的特征。通过与不带情感的平静的语音信号的比较,总结了不同情感语音信号情感特征的分布规律,为情感信号处理和识别提供了有实用价值的理论数据。关键词:情感特征语音信号时间构造振幅构造基频构造共振峰构造 语言是人类交际的最重要的工具。人类的话语中不仅包含了文字符合信息,而且还包含了人们的感情和情绪等信息。例如,同样一句话,往往由于说话人的情感不同,其意思和给听者的印象就会不同,所谓“听话听音”就是这个道理。传统的信息科学世界只是处理符号信息的“无神经”的知识世界。例如,传统的语音处理系统仅仅着眼于语音词汇传达的准确性,而完全忽略了包含在语音信号中的情感因素。所以它只是反映了信息的一个方面。与知识世界相对应且具有同等重要地位的感性科学世界,也是信息处理的重要组成部分。因此情感信号特征的人工处理,在信号处理和人工智能等领域具有重要意义。从语音信号提取情感特征,判断说话人的喜怒哀乐,是国外近几年刚刚兴起的研究课题。由于刚刚起步,这方面的研究成果还很少[5],就目前的研究水平来看,一般也都只限于通过分析情感语音信号的持续时间、发音速度、振幅、基频、频谱等变化特点,寻找能够反映情感特征的物理参数。本文针对含有欢快、愤怒、惊奇、悲伤等4种情感的语音信号,分析了它们的时间构造、振幅构造、基频构造和共振峰构造的特征。并且通过和不带感情的平静语音信号进行比较,找出了不同情感信号特征的分布规律。作为情感信号处理的初步研究,为汉语情感语音信号处理和情感识别提供了有实用价值的理论数据。1 情感分析用语音资料的选择适当选择用于情感分析的语音信号具有重要意义。然而,国内外现在还没有提出情感分析用语音资料的条件和标准[4]。在我们的情感分析实验中,对实验用语句的选择主要考虑了两个方面:第一,所选择的语句必须具有较高的情感自由度;第二,对同一个语句应该能施加各种情感进行分析比较。根据这两个原则,我们选用了如表1所示的4个语句作为情感分析用语音资料。并邀请了5名善于表演的男性话者用平静、欢快、愤怒、惊奇、悲伤等5种情感对每个句子各发音3遍,一共搜集了300个分析用语句。 录音是在安静的房间里并且使用索尼DAT设备完成的。录音数据使用创通公司PCI64位声卡通过11025Hz采样、16bit A/D变换转化成数字信号存储在PC机中。为了检验所搜集的实验用情感语音数据的有效性,我们做了一个听取实验。我们要求以上五名发音者以外的另三名实验者坐在电脑终端前,然后随机播放所搜集到的带有各种情感的语句,让实验者通过主观评价说出所放语音的情感类型。经过反复听取比较,对其中情感特征不明显的句子进行了删除和重新制作。2 分析实验和结果一般来说,语音中的情感特征往往通过语音韵律的变化表现出来[4]。例如,当一个人发怒的时候,讲话的速率会变快,音量会变大,音调会变高等,这些都是人们直接可以感觉到的。本文中,我们主要就含有欢快、愤怒、惊奇、悲伤等4种情感的语音信号的时间构造、振幅构造和基频构造等韵律特征和不含感情的平静语音信号进行比较,找出了不同情感信号特征的构造特点和差别。为了求出分析所需要的语音信号韵律特征参数,首先按12kHz的抽样频率对输入信号进行A/D变换,然后对抽样信号加上窗长21.33ms(256点),窗移10ms的汉明窗,最后根据不同的分析需要求出短时能量,基音频率等韵律特征参数。由于语音信号中的情感信息受到语句词汇内容的影响,所以为了使分析结果消除这方面的影响,一般都是通过分析情感语音和不带感情的平静语音的相对关系,找出这种相对特征的构造、特点和分布规律,用来处理和识别不同的情感语音信号。 2.1 时间构造的分析分析情感语音的时间构造主要着眼于不同情感语音的发话时间构造的差别,对由情感引起的持续时间等的变化进行分析和比较。本文中我们主要就发话持续时间长度(简称为T)以及平均发话速率和情感的关系进行了分析和比较。我们把上述300

服务机器人的语音情感识别与交互技术研究

万方数据

万方数据

1468 小型微型计算机系统2010年 4技术应用 4.1机器人平台介绍 本文将语音情感识别技术应用在国家”八六三“高技术 研究发展计划项目”家庭生活支援多机器人系统”的语音子 系统中,验证了语音情感特征提取和情感识别方法的有效性.该机器人的头部能够实现眼球的转动、眼睑的闭合、嘴的闭合、头部的转动等并能做出基本的表情.机器人的结构设计和系统设计完全根据生理学人体结构来设计,控制系统采用上下位机结构.机器人的移动部分使用两轮差动机构进行驱动,并且配有两个6自由度的手臂,可以进行复杂操作.上位机采 电源L 毪。 -——z==一 —包QQ翻 麦克风卜上位监控PC -—====—??J 摄像头卜 ............一 ———1—一I 工业现场总线 l 自囱审豳豳囱囱 图2机器人平台构成 Fig.2 Theslructureofrobot p/afform 用工业PC机,主要负责导航、身体的协调控制、语音情感的识别、语音识别和语音合成等工作;下位机是基于现场总线的集散式控制模块,主要负责传感器信息接收及初级处理、电机驱动和运动控制等工作.监控模块与各执行机构之间通过传感系统进行联系,上位机和下位机通过局域网进行连接和通信.用户可以通过网络、手机、无线麦克风等方式实现对该机器人的控制,以此满足各种家庭信息的需求.通过下位监控模块的感知,机器人上位监控程序针对不同的语音输人识别出不同的情感状态,从而做出不同的情感表达和交互.如图2为机器入平台构成. 图3实验系统主界面 Hg.3 Themaininterfaceofexperimentalsystem 4.2机器人语音情感识别系统实验过程 本实验主要完成机器人对语音信号的情感的识别,使人 与机器人之间可以完成情感和语音的交互,同时可使机器人听从人的指挥完成一定的任务.如图3为语音情感识别实验系统主界面. 在语音情感识别实验中,首先邀请8名大学生参加录音。 录音者均为表演专业学生.所录制语料经过4名非录音者进行听辨实验,去除了其中30%左右情感类型不明显的语料, 挑选出共计550条语料用于测试,其中包含高兴,伤心,生气, 害怕,惊讶5类情感语料各110句左右,组成了录制情感语音数据库,录制格式为llKHz,16bit的单声道WAV音频格式;然后进行语音信号的特征提取并通过本文隐马尔可夫模型识别方法对语音中的情感进行识别和计算;同时语音识别模块会识别出语音中包含的文字信息,这样机器人可以根据文字和情感信息来与用户进行更人性化的交流.4.3实验结果分析与比较 表l实验结果表明,伤心的识别率为86.4%,生气的识 别率为73.6%,其他三种情感的识别率略低,平均识别率为69.8%,还是比较理想的. 表1语音情感识别实验结果 Table1 Theresultof experiment 文献[14]研究了基音频率、振幅能量和共振峰等目前常 用的情感特征在语音情感识别中的作用,重点研究了加1。C 和AMFCC,将处理后的频谱特征参数同原有的BP人工神经网络模型有效地结合起来,形成完整的语音情感识别系统。取得了64.4%的平均识别率.该方法对于生气、高兴、伤心、害怕的识别率分别达到了64.5%、54.9%、83.3%、55.0%。而本 图4语音交互模块框图 Fig.4 The diagramofspeechinteractionmodule 文中的识别方法对这几种情感的识别率都有所提高,平均识 别率也提高了5.4%.文献[15]利用模糊熵理论来分析语音信号情感特征参数相对于识别情感模式的不确定度,提出了 一种利用模糊熵对情感参数有效性进行度量的方法,并将参 数有效性分析结合模糊综合判别对情感语音信号作情感识 万方数据

语音情感识别研究进展综述

软件学报ISSN 1000-9825, CODEN RUXUEW E-mail: jos@https://www.wendangku.net/doc/903677265.html, Journal of Software,2014,25(1):37?50 [doi: 10.13328/https://www.wendangku.net/doc/903677265.html,ki.jos.004497] https://www.wendangku.net/doc/903677265.html, +86-10-62562563 ?中国科学院软件研究所版权所有. Tel/Fax: ? 语音情感识别研究进展综述 韩文静1, 李海峰1, 阮华斌2, 马琳1 1(哈尔滨工业大学计算机科学与技术学院,黑龙江哈尔滨 150001) 2(清华大学计算机科学与技术系,北京 100084) 通讯作者: 韩文静, E-mail: hanwenjing07@https://www.wendangku.net/doc/903677265.html, 摘要: 对语音情感识别的研究现状和进展进行了归纳和总结,对未来语音情感识别技术发展趋势进行了展望. 从5个角度逐步展开进行归纳总结,即情感描述模型、具有代表性的情感语音库、语音情感特征提取、语音情感识 别算法研究和语音情感识别技术应用,旨在尽可能全面地对语音情感识别技术进行细致的介绍与分析,为相关研究 人员提供有价值的学术参考;最后,立足于研究现状的分析与把握,对当前语音情感识别领域所面临的挑战与发展趋 势进行了展望.侧重于对语音情感识别研究的主流方法和前沿进展进行概括、比较和分析. 关键词: 人机交互;情感计算;情感描述模型;情感语音库;情感声学特征;语音情感识别 中图法分类号: TP391文献标识码: A 中文引用格式: 韩文静,李海峰,阮华斌,马琳.语音情感识别研究进展综述.软件学报,2014,25(1):37?50.https://www.wendangku.net/doc/903677265.html,/ 1000-9825/4497.htm 英文引用格式: Han WJ, Li HF, Ruan HB, Ma L. Review on speech emotion recognition. Ruan Jian Xue Bao/Journal of Software, 2014,25(1):37?50 (in Chinese).https://www.wendangku.net/doc/903677265.html,/1000-9825/4497.htm Review on Speech Emotion Recognition HAN Wen-Jing1, LI Hai-Feng1, RUAN Hua-Bin2, MA Lin1 1(School of Computer Science and Technology, Harbin Institute of Technology, Harbin 150001, China) 2(Department of Computer Science and Technology, Tsinghua University, Beijing 100084, China) Corresponding author: HAN Wen-Jing, E-mail: hanwenjing07@https://www.wendangku.net/doc/903677265.html, Abstract: This paper surveys the state of the art of speech emotion recognition (SER), and presents an outlook on the trend of future SER technology. First, the survey summarizes and analyzes SER in detail from five perspectives, including emotion representation models, representative emotional speech corpora, emotion-related acoustic features extraction, SER methods and applications. Then, based on the survey, the challenges faced by current SER research are concluded. This paper aims to take a deep insight into the mainstream methods and recent progress in this field, and presents detailed comparison and analysis between these methods. Key words: human-computer interaction; affective computing; emotion representation model; emotional speech corpora; emotion-related acoustic feature; speech emotion recognition 人类之所以能够通过聆听语音捕捉对方情感状态的变化,是因为人脑具备了感知和理解语音信号中的能 够反映说话人情感状态的信息(如特殊的语气词、语调的变化等)的能力.自动语音情感识别则是计算机对人类 上述情感感知和理解过程的模拟,它的任务就是从采集到的语音信号中提取表达情感的声学特征,并找出这些 声学特征与人类情感的映射关系.计算机的语音情感识别能力是计算机情感智能的重要组成部分,是实现自然 ?基金项目: 国家自然科学基金(61171186, 61271345); 语言语音教育部微软重点实验室开放基金(HIT.KLOF.2011XXX); 中央 高校基本科研业务费专项资金(HIT.NSRIF.2012047) 收稿时间:2013-05-08; 定稿时间: 2013-09-02; jos在线出版时间: 2013-11-01 CNKI网络优先出版: 2013-11-01 13:49, https://www.wendangku.net/doc/903677265.html,/kcms/detail/11.2560.TP.20131101.1349.001.html

语料库

语料库、学习者语料库与外语教学 ① □李文中 0.概述语料库(corpora )是应用计算机技术对海量自然语言材料进行处理(包括预处理、语法自动附码、自动句法分析、语义分析等)、存储,以供自动检索(retrieval )、索引(concordance )以及统计分析的大型资料库。它是按照明确的设计标准为某一具体目标而建立的语言资料库(Atkins and Clear 1992:5,引自G ranger 1996)。如果作进一步区分,还可以把语料库与大型文档资源库(text archives )区别开来。前者具有明确语料选择比例和设计标准,而后者更注重语料容量和语料来源的多样性(Edwards 1993)。所谓自然语言是指任何人类在童年习得的语言(Leech 1987:1)。使用这一概念的意义在于,把人类自然语言同人工编制的人工语言(artificial languag 2es )(如C 语言、BASIC 、JAVA 、FORTRAN 等)区别开来;在对语言描述和研究中,自然出现的语料不同于研究者为某一目的而引出的材料(elicited data )。语料库的研究对象是人类语言自然运用(performance ),而不是内在语言能力(com petence )。语料库的应用主要在于以下几个方面:1)自然语言处理(包括自动语言识别、自动语法附码、句法分析、语义分析、知识表达、机器翻译等)。基于语料库方法可以提供有关语言结构和特征的可靠信息,而这些信息是内省法研究或心理测验获取的信息所不能比拟的。语料库是人们广泛深入理解语言所必需的工具(Edwards 1993,Leech 1991,1992,Svartvik 1992)。2)词典编纂。语料库能够提供更为完备和详尽的关于词义和词汇搭配信息(K jellmer 1984,Sinclair 1982,引自Edwards 1993)。3)语言学习与语言教学。早在本世纪60年代,美国Brown 大学创建了最早的语料库BROW N C ORPUS ,容量为100万词,广泛搜集了当时美国英语各种文体的语言材料。与此相呼应的是70年代初在欧洲同样容量的LOB 语料库,搜集了同年代的英国英语材料。基于这两个语料库,开展了大量的重要研究,研究的重点是对英语语法的描述和分析(Rundell 1996)。另外,70年代初还建成了50万词的英语口语语料库London 2Lund C orpus (LLC )。但对于大规模的词汇研究(如词典编纂)而言,100万词的容量显然不能满足要求。80年代初,由Birmingham 大学John Sinclair 主持建成了专门用于词典编纂的大型语料库BCET (Birmingham C ollection of English T exts )。该语料库最初容量为730万词,到80年代中期,其迅速扩充为2000万词。与此同时,朗曼公司词典部开始建立自己的语料库Longman 2Lancaster 语料库,容量达到3000万词。在我国,上海交通大学杨惠中教授在80年代末主持建成了容量为300万词的科技英语语料库(JDEST ,1997年扩充至360万词),主要用于大学英语教学大纲制定和教材开发。80年代建成的语料库还有Lancaster 的英语口语语料库(ESC ,1984—1987)、用于跨文化比较的PIXI 语料库。90年代初,包含英国书? 15?外语界1999年第1期(总第73期)①本文在写作过程中,承蒙Sylviane G ranger 教授惠寄有关资料以及对有关问题的讨论。C ornelis H.J.Vaes 寄来International Journal o f Corpus Linguistics 以供参考。M ike Scott 寄来有关索引软件M icroC oncord 使用手册。导师杨惠中教授阅读了初稿并提出了修改意见。在此一并致谢。

情感语音识别开题报告

太原理工大学信息工程学院 本科毕业设计(论文)开题报告 毕业设计(论文)题目 语音情感识别及其特征提取的研究 学生姓名付建梅导师姓名张雪英 专业通信工程 报告日期2011.4 班级0701 指导教 师意见 签字年月日 专业(教 研室)主 任意见 年月日系主任 意见 年月日

1. 国内外研究现状及课题意义 1.1课题研究意义 现在社会,人类跟计算机的交往越来越受到研究者的重视。自然和谐的人机界面的沟通应该能理解用户的情绪和意图,对不同用户、不同环境、不同任务给予不同的反馈和支持。情感计算研究就是试图创建一种能感知、识别和理解人的情感,并针对人的情感做出智能、灵敏、友好反应的计算系统,即赋予计算机像人一样地观察、理解和生成各种情感特征的能力,使计算机能够更加自动适应操作者。实现这些,首先必须能够识别操作者的情感,而后根据情感的判断来调整交互对话的方式。 情感计算研究内容主要包括脸部表情处理、情感计算建模方法、情感语音处理、姿态处理、情感分析、自然人机界面、情感机器人等。情感计算,受到越来越多的国内外学者和研究机构的重视。美国的各大信息技术实验室正加紧进行情感计算系统的研究。例如,麻省理工学院媒体实验室的情感计算小组研制的情感计算系统,通过记录人面部表情的摄像机和连接在人身体上的生物传感器来收集数据,然后由一个“情感助理”来调节程序以识别人的情感。目前国内的情感计算研究重点在于,通过各种传感器获取由人的情感所引起的生理及行为特征信号,建立“情感模型”,从而创建个人的情感计算系统。情感计算已经应用到生活中的各个领域:在信息家电和智能仪器中增加自动感知人们情绪状态的功能,可以提供更好的服务:在信息检索过程中,通过情感分析解析功能,则可提高智能信息检索的精度和效率:在远程教育平台中,情感计算技术的应用能提升教学效果;利用多模式的情感交换技术,还可以构筑更贴近人们生活的智能空间和虚拟场景。此外,情感计算还能应用在机器人、智能玩具、可视会议、唇读系统、可视电话系统的应用场合,在传输语音信号的时候能够显示视频动画,将有助于人类特别是听力有障碍的人对语音的理解。 正是基于以上课题对于科研、社会的重要意义,我的毕业论文的主要任务是建立带有情感的音视频数据库,研究音频信号中能体现情感的特征,分析哪些特征可以有效地表达情感,进行特征提取并进行情感识别实验。这些工作是为后面进行带有感情的音视频合成动画系统建立基础。 1.2国内外研究现状 语音信号处理中,语音识别作为一个重要的研究领域,已经有很长的研究历史,其中语音特征提取与情感识别又是其中的一个重要方面。 在1972 年,Williams 发现人的情感变化对语音的基音轮廓有很大的影响,这是国外最早开展的语音情感方面的研究之一。1990 年,麻省理工学院多媒体实验室构造了一个“情感编辑器”对外界各种情感信号进行采样,如人的语音信号、脸部表情信号等来识别各种情感。1996 年日本东京Seikei 大学提出情感空间的概念并建立了语音情感模型。2000 年,Maribor 大学的Vladimir Hozjan 研究了基于多种语言的语音情感识别。2009 年4月,日本产业技术综合研究所(AIST)研制一个具有丰富表情的新型女性机器人“HRP-4C”。通过对主人语音信号的识别,机器人可以做出喜、怒、哀、乐和惊讶的表情等。在国内,语音情感识别的研究起步较晚。2001 年,东南大学赵力等人提出语音信号中的情感识别研究。2003 年,北京科技大学谷学静等人将BDI Agent 技术应用与情感机器人的语音识别技术研究中。另外,2003 年12 月中科院自动化所等单位在北京主办了第一届中国情感计算及智能交互学术会议,2005 年10 月又在北京主办了首届国际情感计算及智能交互学术会议。

相关文档
相关文档 最新文档