文档库 最新最全的文档下载
当前位置:文档库 › 基于深度神经网络的语音端点检测

基于深度神经网络的语音端点检测

基于深度神经网络的语音端点检测
基于深度神经网络的语音端点检测

(完整版)深度神经网络及目标检测学习笔记(2)

深度神经网络及目标检测学习笔记 https://youtu.be/MPU2HistivI 上面是一段实时目标识别的演示,计算机在视频流上标注出物体的类别,包括人、汽车、自行车、狗、背包、领带、椅子等。 今天的计算机视觉技术已经可以在图片、视频中识别出大量类别的物体,甚至可以初步理解图片或者视频中的内容,在这方面,人工智能已经达到了3岁儿童的智力水平。这是一个很了不起的成就,毕竟人工智能用了几十年的时间,就走完了人类几十万年的进化之路,并且还在加速发展。 道路总是曲折的,也是有迹可循的。在尝试了其它方法之后,计算机视觉在仿生学里找到了正确的道路(至少目前看是正确的)。通过研究人类的视觉原理,计算机利用深度神经网络(Deep Neural Network,NN)实现了对图片的识别,包 括文字识别、物体分类、图像理解等。在这个过程中,神经元和神经网络模型、大数据技术的发展,以及处理器(尤其是GPU)强大的算力,给人工智能技术 的发展提供了很大的支持。 本文是一篇学习笔记,以深度优先的思路,记录了对深度学习(Deep Learning)的简单梳理,主要针对计算机视觉应用领域。 一、神经网络 1.1 神经元和神经网络 神经元是生物学概念,用数学描述就是:对多个输入进行加权求和,并经过激活函数进行非线性输出。 由多个神经元作为输入节点,则构成了简单的单层神经网络(感知器),可以进行线性分类。两层神经网络则可以完成复杂一些的工作,比如解决异或问题,而且具有非常好的非线性分类效果。而多层(两层以上)神经网络,就是所谓的深度神经网络。 神经网络的工作原理就是神经元的计算,一层一层的加权求和、激活,最终输出结果。深度神经网络中的参数太多(可达亿级),必须靠大量数据的训练来“这是苹在父母一遍遍的重复中学习训练的过程就好像是刚出生的婴儿,设置。.果”、“那是汽车”。有人说,人工智能很傻嘛,到现在还不如三岁小孩。其实可以换个角度想:刚出生婴儿就好像是一个裸机,这是经过几十万年的进化才形成的,然后经过几年的学习,就会认识图片和文字了;而深度学习这个“裸机”用了几十年就被设计出来,并且经过几个小时的“学习”,就可以达到这个水平了。 1.2 BP算法 神经网络的训练就是它的参数不断变化收敛的过程。像父母教婴儿识图认字一样,给神经网络看一张图并告诉它这是苹果,它就把所有参数做一些调整,使得它的计算结果比之前更接近“苹果”这个结果。经过上百万张图片的训练,它就可以达到和人差不多的识别能力,可以认出一定种类的物体。这个过程是通过反向传播(Back Propagation,BP)算法来实现的。 建议仔细看一下BP算法的计算原理,以及跟踪一个简单的神经网络来体会训练的过程。

最新神经网络最新发展综述汇编

神经网络最新发展综述 学校:上海海事大学 专业:物流工程 姓名:周巧珍 学号:201530210155

神经网络最新发展综述 摘要:作为联接主义智能实现的典范,神经网络采用广泛互联的结构与有效的学习机制来模拟人脑信息处理的过程,是人工智能发展中的重要方法,也是当前类脑智能研究中的有效工具。目前,模拟人脑复杂的层次化认知特点的深度学习成为类脑智能中的一个重要研究方向。通过增加网络层数所构造的“深层神经网络”使机器能够获得“抽象概念”能力,在诸多领域都取得了巨大的成功,又掀起了神经网络研究的一个新高潮。本文分8个方面综述了其当前研究进展以及存在的问题,展望了未来神经网络的发展方向。 关键词: 类脑智能;神经网络;深度学习;大数据 Abstract: As a typical realization of connectionism intelligence, neural network, which tries to mimic the information processing patterns in the human brain by adopting broadly interconnected structures and effective learning mechanisms, is an important branch of artificial intelligence and also a useful tool in the research on brain-like intelligence at present. Currently, as a way to imitate the complex hierarchical cognition characteristic of human brain, deep learning brings an important trend for brain-like intelligence. With the increasing number of layers, deep neural network entitles machines the capability to capture “abstract concepts” and it has achieved great success in various fields, leading a new and advanced trend in neural network research. This paper summarizes the latest progress in eight applications and existing problems considering neural network and points out its possible future directions. Key words : artificial intelligence; neural network; deep learning; big data 1 引言 实现人工智能是人类长期以来一直追求的梦想。虽然计算机技术在过去几十年里取得了长足的发展,但是实现真正意义上的机器智能至今仍然困难重重。伴随着神经解剖学的发展,观测大脑微观结构的技术手段日益丰富,人类对大脑组织的形态、结构与活动的认识越来越深入,人脑信息处理的奥秘也正在被逐步揭示。如何借助神经科学、脑科学与认知科学的研究成果,研究大脑信息表征、转换机理和学习规则,建立模拟大脑信息处理过程的智能计算模型,最终使机器掌握人类的认知规律,是“类脑智能”的研究目标。 类脑智能是涉及计算科学、认知科学、神经科学与脑科学的交叉前沿方向。类脑智能的

(完整版)深度神经网络全面概述

深度神经网络全面概述从基本概念到实际模型和硬件基础 深度神经网络(DNN)所代表的人工智能技术被认为是这一次技术变革的基石(之一)。近日,由IEEE Fellow Joel Emer 领导的一个团队发布了一篇题为《深度神经网络的有效处理:教程和调研(Efficient Processing of Deep Neural Networks: A Tutorial and Survey)》的综述论文,从算法、模型、硬件和架构等多个角度对深度神经网络进行了较为全面的梳理和总结。鉴于该论文的篇幅较长,机器之心在此文中提炼了原论文的主干和部分重要内容。 目前,包括计算机视觉、语音识别和机器人在内的诸多人工智能应用已广泛使用了深度神经网络(deep neural networks,DNN)。DNN 在很多人工智能任务之中表现出了当前最佳的准确度,但同时也存在着计算复杂度高的问题。因此,那些能帮助DNN 高效处理并提升效率和吞吐量,同时又无损于表现准确度或不会增加硬件成本的技术是在人工智能系统之中广泛部署DNN 的关键。 论文地址:https://https://www.wendangku.net/doc/4112676701.html,/pdf/1703.09039.pdf 本文旨在提供一个关于实现DNN 的有效处理(efficient processing)的目标的最新进展的全面性教程和调查。特别地,本文还给出了一个DNN 综述——讨论了支持DNN 的多种平台和架构,并强调了最新的有效处理的技术的关键趋势,这些技术或者只是通过改善硬件设计或者同时改善硬件设计和网络算法以降低DNN 计算成本。本文也会对帮助研究者和从业者快速上手DNN 设计的开发资源做一个总结,并凸显重要的基准指标和设计考量以评估数量快速增长的DNN 硬件设计,还包括学界和产业界共同推荐的算法联合设计。 读者将从本文中了解到以下概念:理解DNN 的关键设计考量;通过基准和对比指标评估不同的DNN 硬件实现;理解不同架构和平台之间的权衡;评估不同DNN 有效处理技术的设计有效性;理解最新的实现趋势和机遇。 一、导语 深度神经网络(DNN)目前是许多人工智能应用的基础[1]。由于DNN 在语音识别[2] 和图像识别[3] 上的突破性应用,使用DNN 的应用量有了爆炸性的增长。这些DNN 被部署到了从自动驾驶汽车[4]、癌症检测[5] 到复杂游戏[6] 等各种应用中。在这许多领域中,DNN 能够超越人类的准确率。而DNN 的出众表现源于它能使用统计学习方法从原始感官数据中提取高层特征,在大量的数据中获得输入空间的有效表征。这与之前使用手动提取特征或专家设计规则的方法不同。 然而DNN 获得出众准确率的代价是高计算复杂性成本。虽然通用计算引擎(尤其是GPU),已经成为许多DNN 处理的砥柱,但提供对DNN 计算更专门化的加速方法也越来越热门。本文的目标是提供对DNN、理解DNN 行为的各种工具、有效加速计算的各项技术的概述。 该论文的结构如下:

深度神经网络及目标检测学习笔记

深度神经网络及目标检测学习笔记 https://youtu.be/MPU2HistivI 上面是一段实时目标识别的演示,计算机在视频流上标注出物体的类别,包括人、汽车、自行车、狗、背包、领带、椅子等。 今天的计算机视觉技术已经可以在图片、视频中识别出大量类别的物体,甚至可以初步理解图片或者视频中的内容,在这方面,人工智能已经达到了3岁儿童的智力水平。这是一个很了不起的成就,毕竟人工智能用了几十年的时间,就走完了人类几十万年的进化之路,并且还在加速发展。 道路总是曲折的,也是有迹可循的。在尝试了其它方法之后,计算机视觉在仿生学里找到了正确的道路(至少目前看是正确的)。通过研究人类的视觉原理,计算机利用深度神经网络(DeepNeural Network,NN)实现了对图片的识别,包括文字识别、物体分类、图像理解等。在这个过程中,神经元和神经网络模型、大数据技术的发展,以及处理器(尤其是GPU)强大的算力,给人工智能技术的发展提供了很大的支持。 本文是一篇学习笔记,以深度优先的思路,记录了对深度学习(Deep Learning)的简单梳理,主要针对计算机视觉应用领域。 一、神经网络 1.1 神经元和神经网络 神经元是生物学概念,用数学描述就是:对多个输入进行加权求和,并经过激活函数进行非线性输出。 由多个神经元作为输入节点,则构成了简单的单层神经网络(感知器),可以进行线性分类。两层神经网络则可以完成复杂一些的工作,比如解决异或问题,而且具有非常好的非线性分类效果。而多层(两层以上)神经网络,就是所谓的深度神经网络。 神经网络的工作原理就是神经元的计算,一层一层的加权求和、激活,最终输出结果。深度神经网络中的参数太多(可达亿级),必须靠大量数据的训练来设置。训练的过程就好像是刚出生的婴儿,在父母一遍遍的重复中学习“这是苹

(完整word版)深度学习-卷积神经网络算法简介

深度学习 卷积神经网络算法简介 李宗贤 北京信息科技大学智能科学与技术系 卷积神经网络是近年来广泛应用在模式识别、图像处理领域的一种高效识别算法,具有简单结构、训练参数少和适应性强的特点。它的权值共享网络结构使之更类似与生物神经网络,降低了网络的复杂度,减少了权值的数量。以二维图像直接作为网络的输入,避免了传统是被算法中复杂的特征提取和数据重建过程。卷积神经网络是为识别二维形状特殊设计的一个多层感知器,这种网络结构对于平移、比例缩放、倾斜和其他形式的变形有着高度的不变形。 ?卷积神经网络的结构 卷积神经网络是一种多层的感知器,每层由二维平面组成,而每个平面由多个独立的神经元组成,网络中包含一些简单元和复杂元,分别记为C元和S元。C元聚合在一起构成卷积层,S元聚合在一起构成下采样层。输入图像通过和滤波器和可加偏置进行卷积,在C层产生N个特征图(N值可人为设定),然后特征映射图经过求和、加权值和偏置,再通过一个激活函数(通常选用Sigmoid函数)得到S层的特征映射图。根据人为设定C层和S层的数量,以上工作依次循环进行。最终,对最尾部的下采样和输出层进行全连接,得到最后的输出。

卷积的过程:用一个可训练的滤波器fx去卷积一个输入的图像(在C1层是输入图像,之后的卷积层输入则是前一层的卷积特征图),通过一个激活函数(一般使用的是Sigmoid函数),然后加一个偏置bx,得到卷积层Cx。具体运算如下式,式中Mj是输入特征图的值: X j l=f?(∑X i l?1?k ij l+b j l i∈Mj) 子采样的过程包括:每邻域的m个像素(m是人为设定)求和变为一个像素,然后通过标量Wx+1加权,再增加偏置bx+1,然后通过激活函数Sigmoid产生特征映射图。从一个平面到下一个平面的映射可以看作是作卷积运算,S层可看作是模糊滤波器,起到了二次特征提取的作用。隐层与隐层之间的空间分辨率递减,而每层所含的平面数递增,这样可用于检测更多的特征信息。对于子采样层来说,有N 个输入特征图,就有N个输出特征图,只是每个特征图的的尺寸得到了相应的改变,具体运算如下式,式中down()表示下采样函数。 X j l=f?(βj l down (X j l?1) +b j l)X j l) ?卷积神经网络的训练过程 卷积神经网络在本质上是一种输入到输出的映射,它能够学习大量的输入和输出之间的映射关系,而不需要任何输入和输出之间的精确数学表达式。用已知的模式对卷积网络加以训练,网络就具有了输

BP神经网络及深度学习研究-综述(最新整理)

BP神经网络及深度学习研究 摘要:人工神经网络是一门交叉性学科,已广泛于医学、生物学、生理学、哲学、信息学、计算机科学、认知学等多学科交叉技术领域,并取得了重要成果。BP(Back Propagation)神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。本文将主要介绍神经网络结构,重点研究BP神经网络原理、BP神经网络算法分析及改进和深度学习的研究。 关键词:BP神经网络、算法分析、应用 1 引言 人工神经网络(Artificial Neural Network,即ANN ),作为对人脑最简单的一种抽象和模拟,是人们模仿人的大脑神经系统信息处理功能的一个智能化系统,是20世纪80 年代以来人工智能领域兴起的研究热点。人工神经网络以数学和物理方法以及信息处理的角度对人脑神经网络进行抽象,并建立某种简化模型,旨在模仿人脑结构及其功能的信息处理系统。 人工神经网络最有吸引力的特点就是它的学习能力。因此从20世纪40年代人工神经网络萌芽开始,历经两个高潮期及一个反思期至1991年后进入再认识与应用研究期,涌现出无数的相关研究理论及成果,包括理论研究及应用研究。最富有成果的研究工作是多层网络BP算法,Hopfield网络模型,自适应共振理论,自组织特征映射理论等。因为其应用价值,该研究呈愈演愈烈的趋势,学者们在多领域中应用[1]人工神经网络模型对问题进行研究优化解决。 人工神经网络是由多个神经元连接构成,因此欲建立人工神经网络模型必先建立人工神经元模型,再根据神经元的连接方式及控制方式不同建立不同类型的人工神经网络模型。现在分别介绍人工神经元模型及人工神经网络模型。 1.1 人工神经元模型 仿生学在科技发展中起着重要作用,人工神经元模型的建立来源于生物神经元结构的仿生模拟,用来模拟人工神经网络[2]。人们提出的神经元模型有很多,其中最早提出并且影响较大的是1943年心理学家McCulloch和数学家W. Pitts 在分析总结神经元基本特性的基础上首先提出的MP模型。该模型经过不断改进后,形成现在广泛应用的BP神经元模型。人工神经元模型是由人量处理单元厂泛互连而成的网络,是人脑的抽象、简化、模拟,反映人脑的基本特性。一般来说,作为人工神经元模型应具备三个要素: (1)具有一组突触或连接,常用表示神经元i和神经元j之间的连接强度。 w ij (2)具有反映生物神经元时空整合功能的输入信号累加器。

深度神经网络语音识别系统快速稀疏矩阵算法

深度神经网络语音识别系统快速稀疏矩阵算法 一. 背景 1.1语音识别、深度神经网络与稀疏矩阵运算 深度神经网络(DNN)已经广泛应用在当代语音识别系统中,并带来识别率的极大提高。一个典型的深度神经网络如图1所示,其中包含一个输入层,多个隐藏层,一个输出层,每层有若干个结点,每个结点的输入由前一层的结点的输出经过线性叠加得到,并通过一个线性或非线性的激励函数,形成该结点的输出。 图1 DNN结构 在进行语音识别系统模型训练和识别时,语音数据被分成短时语音帧,这些语音帧经过信号处理之后形成一系列语音特征向量,输入到DNN的输入层,经过神经网络的各个隐藏层,最后进入输出层,形成识别器可用的概率值。 可见,在进行DNN操作时,主要计算为输入向量在整个神经网络的前向传导。这些传导运算可以抽象为矩阵运算。具体而言,将第t层结点的所有结点输出表示成一个向量OU t ,将第t层到第t+1层之间的网络联接系数表示成A t, 则第t+1层结点的输入IN t+1可以表示成IN t+1 = A t x OU t 其输出表示为OU t+1 = f (IN t), 其中f为激励函数。 当前语音识别系统中所用的神经网络一般为5-10层,每层结点数为1000到10000,这意味着网络矩阵A t 相当庞大,带来巨大的计算压力。如何快速进行矩阵运算,是一个急需解决的问题。 稀疏矩阵为减小计算量提供了可能。通过将矩阵中绝大部分元素置零,一方面可以节约随储空间,同时可以极大减小计算总量。然则,稀疏矩阵本身的存储和数据索取都需要相应的空间和时间,简单对矩阵依其元素值的大小进行稀疏化并不会提高计算效率。本发明提出一种通过改变稀疏矩阵的拓朴结构对稀疏矩阵进行快速计算的方法。 在下文中的背景知中,我们将简单的介绍一下稀疏矩阵的存储方式和对拓朴结构进行修正过程中需要用到的遗传算法。

深度神经网络知识蒸馏综述

Computer Science and Application 计算机科学与应用, 2020, 10(9), 1625-1630 Published Online September 2020 in Hans. https://www.wendangku.net/doc/4112676701.html,/journal/csa https://https://www.wendangku.net/doc/4112676701.html,/10.12677/csa.2020.109171 深度神经网络知识蒸馏综述 韩宇 中国公安部第一研究所,北京 收稿日期:2020年9月3日;录用日期:2020年9月17日;发布日期:2020年9月24日 摘要 深度神经网络在计算机视觉、自然语言处理、语音识别等多个领域取得了巨大成功,但是随着网络结构的复杂化,神经网络模型需要消耗大量的计算资源和存储空间,严重制约了深度神经网络在资源有限的应用环境和实时在线处理的应用上的发展。因此,需要在尽量不损失模型性能的前提下,对深度神经网络进行压缩。本文介绍了基于知识蒸馏的神经网络模型压缩方法,对深度神经网络知识蒸馏领域的相关代表性工作进行了详细的梳理与总结,并对知识蒸馏未来发展趋势进行展望。 关键词 神经网络,深度学习,知识蒸馏 A Review of Knowledge Distillation in Deep Neural Networks Yu Han The First Research Institute, The Ministry of Public Security of PRC, Beijing Received: Sep. 3rd, 2020; accepted: Sep. 17th, 2020; published: Sep. 24th, 2020 Abstract Deep neural networks have achieved great success in computer vision, natural language processing, speech recognition and other fields. However, with the complexity of network structure, the neural network model needs to consume a lot of computing resources and storage space, which seriously restricts the development of deep neural network in the resource limited application environment and real-time online processing application. Therefore, it is necessary to compress the deep neural network without losing the performance of the model as much as possible. This article introduces

深度神经网络

1. 自联想神经网络与深度网络 自联想神经网络是很古老的神经网络模型,简单的说,它就是三层BP网络,只不过它的输出等于输入。很多时候我们并不要求输出精确的等于输入,而是允许一定的误差存在。所以,我们说,输出是对输入的一种重构。其网络结构可以很简单的表示如下: 如果我们在上述网络中不使用sigmoid函数,而使用线性函数,这就是PCA模型。中间网络节点个数就是PCA模型中的主分量个数。不用担心学习算法会收敛到局部最优,因为线性BP网络有唯一的极小值。

在深度学习的术语中,上述结构被称作自编码神经网络。从历史的角度看,自编码神经网络是几十年前的事情,没有什么新奇的地方。 既然自联想神经网络能够实现对输入数据的重构,如果这个网络结构已经训练好了,那么其中间层,就可以看过是对原始输入数据的某种特征表示。如果我们把它的第三层去掉,这样就是一个两层的网络。如果,我们把这个学习到特征再用同样的方法创建一个自联想的三层BP网络,如上图所示。换言之,第二次创建的三层自联想网络的输入是上一个网络的中间层的输出。用同样的训练算法,对第二个自联想网络进行学习。那么,第二个自联想网络的中间层是对其输入的某种特征表示。如果我们按照这种方法,依次创建很多这样的由自联想网络组成的网络结构,这就是深度神经网络,如下图所示:

注意,上图中组成深度网络的最后一层是级联了一个softmax分类器。 深度神经网络在每一层是对最原始输入数据在不同概念的粒度表示,也就是不同级别的特征描述。 这种层叠多个自联想网络的方法,最早被Hinton想到了。 从上面的描述中,可以看出,深度网络是分层训练的,包括最后一层的分类器也是单独训练的,最后一层分类器可以换成任何一种分类器,例如SVM,HMM等。上面的每一层单独训练使用的都是BP算法。相信这一思路,Hinton早就实验过了。 2. DBN神经网络模型 使用BP算法单独训练每一层的时候,我们发现,必须丢掉网络的第三层,才能级联自联想神经网络。然而,有一种更好的神经网络模型,这就是受限玻尔兹曼机。使用层叠波尔兹曼机组成深度神经网络的方法,在深度学习里被称作深度信念网络DBN,这是目前非

大数据分析的深度神经网络方法

章毅 四川大学计算机学院2016.03.25 重庆

提纲 大数据简介 大脑新皮层的神经网络结构 大脑新皮层神经网络的记忆 大数据分析GPU深度神经网络计算平台

大数据商业应用诞生 全世界兴起大数据分布式存储与并行计Google Brain 计划,激起大规模神经网络在深度神经网络在语音大数据、图像大数据领域接连取得巨大突破 G. E. Hinton 教授在《Science 》发表文章,基于深度神经网络的大数据分析方法在学术界和工工信部白皮书指出:大数据分析是大数据研究的重要环节,其中大数据分“大数据” 一词诞生 2000 1997 2004 2006 2011 2012 2014 2015 我国大数据产业兴起 2013 美国奥巴马政府发布了大数据计划,将大数据战略上升为美国国家意志 国务院发布大数据发展行动纲要,大数据正式上升为我国国家意志

体量浩大Volume 多源异构Variety 生成快速Velocity 价值稀疏Value 大数据的基本特点大数据的目标实现大数 据转换为 价值 大数据的概念 问题:怎样实现大数据的目标?

大数据 关键技术 价值 大数据分析是大数据转化为价值的桥梁 问题:怎样设计大数据分析方法? 展示平台 ?大数据知识展示 ?大数据产品 数据平台 ?大数据采集,标记 ?大数据存储,管理 大数据分析是大数据转 换为价值的最重要的环 节,否则,大数据仅仅 是一堆数据而已。

?每秒信息传递和交换1000亿次,PB 级数据 ?同步处理声音、温度、气味、图像等数据 ?50亿本书的存储容量 ?每秒人眼数据量140.34GB ? 在识别、判断、预测等智能行为方面展现出十分强大的能力 ?优秀的大数据处理器 人类大脑是天然的大数据处理器! 进入大脑的信息被编码为某种数据,进而由大脑神经网络处理

【CN109977794A】一种用深度神经网络进行人脸识别的方法【专利】

(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 201910164908.9 (22)申请日 2019.03.05 (71)申请人 北京超维度计算科技有限公司 地址 100142 北京市海淀区西四环北路160 号9层一区907 (72)发明人 张心宇 张颢 向志宏 杨延辉  (74)专利代理机构 北京亿腾知识产权代理事务 所(普通合伙) 11309 代理人 陈霁 (51)Int.Cl. G06K 9/00(2006.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种用深度神经网络进行人脸识别的方法 (57)摘要 本发明涉及一种用深度神经网络进行人脸 识别的方法,其特征在于,包括以下步骤:通过第 一相机采集人脸区域的2D RGB图片,以及通过第 二相机实时采集人脸区域的3D点云;对于采集的 2D RGB图片进行脸部区域的截取和缩放,减少距 离的影响;对于采集的3D点云,投影到二维平面, 用灰度信息代替深度信息,形成二维深度图;并 进行脸部区域的截取;将截取过的D2D RGB图片 输入到2D特征提取网络,以及将截取过的脸部区 域二维深度图输入3D特征提取网络,进行特征向 量提取;根据提取的特征向量,结合环境信息进 行人脸识别。本发明结合2D和3D人脸识别技术, 既保证了正常使用情况(正脸无遮挡)下的正确 率,又提高了系统应对恶劣使用条件下的鲁棒性 和系统的安全性。权利要求书1页 说明书4页 附图2页CN 109977794 A 2019.07.05 C N 109977794 A

神经网络算法的应用

神经网络算法的应用 别以为名字中带“网络”二字,神经网络就是一种设备,事实上神经网络是一种模拟人脑结构的算法模型。其原理就在于将信息分布式存储和并行协同处理。虽然每个单元的功能非常简单,但大量单元构成的网络系统就能实现非常复杂的数据计算,并且还是一个高度复杂的非线性动力学习系统。1 神经网络的结构更接近于人脑,具有大规模并行、分布式存储和处理、自组织、自适应和自学能力。神经网络的用途非常广泛,在系统辨识、模式识别、智能控制等领域都能一展身手。而现在最吸引IT巨头们关注的就是神经网络在智能控制领域中的自动学习功能,特别适合在需要代入一定条件,并且信息本身是不确定和模糊的情况下,进行相关问题的处理,例如语音识别。 神经网络的发展史 神经网络的起源要追溯到上世纪40年代,心理学家麦克库罗克和数理逻辑学家皮兹首先提出了神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人就是神经网络研究的先驱。随着计算机的高速发展,人们以为人工智能、模式识别等问题在计算机面前都是小菜一碟。再加上当时电子技术比较落后,用电子管或晶体管制作出结构复杂的神经网络是完全不可能的,所以神经网络的研究一度陷于低潮当中。到了20世纪80年代,随着大规模集成电路的发展,让神经网络的应用成为了可能。而且人们也看到了神经网络在智能控制、语音识别方面的潜力。但是这一技术的发展仍然缓慢,而硬件性能的发展以及应用方式的变化,再加上谷歌、微软、IBM等大公司的持续关注,神经网络终于又火了起来。本该在上世纪80年代就出现的诸多全新语音技术,直到最近才与我们见面,神经网络已经成为最热门的研究领域之一。 机器同声传译成真 在国际会议上,与会人员来自世界各地,同声传译就成了必不可少的沟通方式。但是到目前为止,同声传译基本上都是靠人来完成的,译员在不打断讲话者演讲的情况下,不停地将其讲话内容传译给听众。用机器进行同声传译,这个往往只出现在科幻电影中的设备,却成为了现实。 在2012年底天津召开的“21世纪的计算-自然而然”大会上,微软研究院的创始人里克·雷斯特在进行主题演讲时,展示了一套实时语音机器翻译系统。这个系统在里克.雷斯特用英文演讲时,自动识别出英文字词,再实时翻译成中文,先在大屏幕上显示出来,同时用电脑合成的声音读出。最令人惊奇的是,与常见的合成语音声调非常机械不同。在演示之前,雷斯特曾经给这套系统输入过自己长达1个多小时的录音信息,所以由电脑合成的中文语音并不是机械声,而是声调听上去和雷斯特本人一致。 这套实时语音机器翻译系统就是基于神经网络算法,由微软和多伦多大学历时两年共同研发。这个被命名为“深度神经网络”的技术,模仿由不同层次神经元构成的人脑,组成一个多层次的系统。整个系统共分为9层,最底层用来学习将要进行分析的语音有哪些特征,上一层就将这些分析进行组合,并得出新的分析结果,这样经过多次分析处理之后,增加识别的准确性。而最上面的一层用来分析出听到的声音究竟是哪个音组,再通过和已注明音组的语音库里的数据进行比对,从而将正确的结果反馈出来。经过如此复杂精密的处理之后,系统对于语音的识别能力就会有显着的提升,其性能优于以往的办法。 根据微软的测试,运用了这种“深度神经网络”技术的实时语音翻译器,相比旧系统出错率至少降低30%,最好的情况下能达到8个单词仅错1个,这是一个非常不错的成绩了。这个实时语音翻译器已经能支持包括普通话在内的26种语言,不过这个实时语音翻译器目前还不成熟,使用之前必须先在系统中输入1个小时以上的音频资料,让系统识别发言人声

深度神经网络的关键技术及其在自动驾驶领域的应用

ISSN 1674-8484 CN 11-5904/U 汽车安全与节能学报, 第10卷第2期, 2019年 J Automotive Safety and Energy, Vol. 10 No. 2, 2019 1/13 119—145 深度神经网络的关键技术及其在自动驾驶领域的应用 李升波1,关?阳1,侯?廉1,高洪波1,段京良2,梁?爽3,汪?玉3,成?波1, 李克强1,任?伟4,李?骏1 (1. 清华大学车辆与运载学院,北京100084,中国;2. 加州大学伯克利分校机械系,加州 94720,美国; 3. 清华大学电子工程系,北京100084,中国; 4. 加州大学河滨分校电子计算机系,加州92521,美国) 摘?要:?智能化是汽车的三大变革技术之一,深度学习具有拟合能力优、表征能力强和适用范围广的 特点,是进一步提升汽车智能性的重要途径。该文系统性总结了用于自动驾驶汽车的深度神经网络(DNN)技术,包括发展历史、主流算法以及感知、决策与控制技术应用。回顾了神经网络的历史及现状, 总结DNN的“神经元-层-网络”3级结构,重点介绍卷积网络和循环网络的特点以及代表性模型; 阐述了以反向传播(BP)为核心的深度网络训练算法,列举用于深度学习的常用数据集与开源框架,概 括了网络计算平台和模型优化设计技术;讨论DNN在自动驾驶汽车的环境感知、自主决策和运动控 制3大方向的应用现状及其优缺点,具体包括物体检测和语义分割、分层式和端到端决策、汽车纵 横向运动控制等;针对用于自动驾驶汽车的DNN技术,指明了不同问题的适用方法以及关键问题的 未来发展方向。 关键词:?智能汽车;自动驾驶;深度神经网络(DNN);深度学习;环境感知;自主决策;运动控制 中图分类号:?TP 18;U 463.6 文献标志码:?A DOI:?10.3969/j.issn.1674-8484.2019.02.001 Key technique of deep neural network and its applications in autonomous driving LI Shengbo1, GUAN Yang1, HOU Lian1, GAO Hongbo1, DUAN Jingliang2, LIANG Shuang3, WANG Yu3, CHENG Bo1, LI Keqiang1, REN Wei4, LI Jun1 (1. School of Vehicle and Mobility, Tsinghua University, Beijing 100084, China; 2. Mechanical Engineering, University of California Berkeley, Berkeley, CA 94720, USA; 3. Electronic Engineering, Tsinghua University, Beijing 100084, China; 4. Electrical and Computer Engineering, University of California Riverside, Riverside, CA 92521, USA) Abstract: Autonomous driving is one of the three major innovations in automotive industry. Deep learning is a crucial method to improve automotive intelligence due to its outstanding abilities of data fitting, feature representation and model generalization. This paper reviewed the technologies of deep neural network (DNN) 收稿日期?/?Received?:?2019-01-19。 基金项目?/?Supported?by?: “十三五”国家重点研发计划(2016YFB0100906);国家自然科学基金面上项目(51575293);国家自然科学基金优秀青年科学基金项目(U1664263);国家自然科学基金重点项目(51622504);北京市自然科学基金杰出青 年科学基金项目(JQ18010);汽车安全与节能国家重点实验室开放基金课题(KF1828)。 第一作者?/?First?author?:?李升波(1982—),男(汉),山东,副教授。E-mail: lishbo@https://www.wendangku.net/doc/4112676701.html,。

智能决策系统的深度神经网络加速与压缩方法综述

第10卷一第2期一2019年4月指挥信息系统与技术C o mm a n d I n f o r m a t i o nS y s t e ma n dT e c h n o l o g y V o l .10一N o .2A p r .2019 发展综述 d o i :10.15908/j .c n k i .c i s t .2019.02.002智能决策系统的深度神经网络加速与压缩方法综述? 黄一迪一刘一畅 (中国科学院大学计算机科学与技术学院一北京100049 )摘一要:深度神经网络凭借其出色的特征提取能力和表达能力,在图像分类二语义分割和物体检测 等领域表现出众,对信息决策支持系统的发展产生了重大意义.然而,由于模型存储不易和计算延 迟高等问题,深度神经网络较难在信息决策支持系统中得到应用.综述了深度神经网络中低秩分 解二网络剪枝二量化二知识蒸馏等加速与压缩方法.这些方法能够在保证准确率的情况下减小深度 神经网络模型二加快模型计算,为深度神经网络在信息决策支持系统中的应用提供了思路. 关键词:深度神经网络;低秩分解;网络剪枝;量化;知识蒸馏 中图分类号:T P 301.6一一文献标识码:A一一文章编号:1674G909X (2019)02G0008G06R e v i e wo fA c c e l e r a t i o na n dC o m p r e s s i o n M e t h o d s f o rD e e p N e u r a lN e t w o r k s i n I n t e l l i g e n tD e c i s i o nS y s t e m s HU A N G D i 一L I U C h a n g (S c h o o l o fC o m p u t e r S c i e n c e a n dT e c h n o l o g y ,U n i v e r s i t y o fC h i n e s eA c a d e m y o f S c i e n c e s ,B e i j i n g 100049,C h i n a )A b s t r a c t :F o r t h e e x c e l l e n t f e a t u r e e x t r a c t i o na b i l i t y a n de x p r e s s i o na b i l i t y ,t h ed e e p n e u r a l n e t Gw o r kd o e sw e l l i n t h e f i e l d s o f i m a g e c l a s s i f i c a t i o n ,s e m a n t i c s e g m e n t a t i o na n do b j e c t d e t e c t i o n ,e t c .,a n d i t p l a y s a s i g n i f i c a n t r o l eo nt h ed e v e l o p m e n to f t h e i n f o r m a t i o nd e c i s i o ns u p p o r t s y s Gt e m s .H o w e v e r ,f o r t h e d i f f i c u l t y o fm o d e l s t o r a g e a n dh i g hc o m p u t a t i o nd e l a y ,t h e d e e p n e u r a l n e t w o r k i sd i f f i c u l t t ob ea p p l i e d i nt h e i n f o r m a t i o nd e c i s i o ns u p p o r t s y s t e m s .T h ea c c e l e r a t i o n a n dc o m p r e s s i o n m e t h o d s f o r t h ed e e p n e u r a l n e t w o r k ,i n c l u d i n g l o w Gr a n kd e c o m p o s i t i o n ,n e t Gw o r k p r u n i n g ,q u a n t i z a t i o n a n dk n o w l e d g e d i s t i l l a t i o n a r e r e v i e w e d .T h em e t h o d s c a n r e d u c e t h e s i z e o fm o d e l a n d s p e e du p t h e c a l c u l a t i o nu n d e r t h e c o n d i t i o no f e n s u r i n g t h e a c c u r a c y ,a n dc a n p r o v i d e t h e i d e a o f t h e a p p l i c a t i o n i n t h e i n f o r m a t i o nd e c i s i o ns u p p o r t s y s t e m s .K e y w o r d s :d e e p n e u r a ln e t w o r k ;l o w G r a n k d e c o m p o s i t i o n ;n e t w o r k p r u n i n g ;q u a n t i z a t i o n ;k n o w l e d g e d i s t i l l a t i o n 一?基金项目:装备发展部 十三五 预研课题(31511090402)资助项目.收稿日期:2018G11G26引用格式:黄迪,刘畅.智能决策系统的深度神经网络加速与压缩方法综述[J ].指挥信息系统与技术,2019,10(2):8G13. HU A N GD i ,L I U C h a n g .R e v i e wo f a c c e l e r a t i o na n d c o m p r e s s i o nm e t h o d s f o r d e e p n e u r a l n e t w o r k s i n i n t e l l i Gg e n t d e c i s i o n s y s t e m s [J ].C o mm a n d I n f o r m a t i o nS y s t e ma n dT e c h n o l o g y ,2019,10(2):8G13.0一引一言 近年来,深度神经网络在人工智能领域表现非 凡,受到学界和业界的广泛关注,尤其在图像分类二 语义分割和物体检测等领域中,表现出了出色的特征提取和表达能力,如N e a g o e 等[1]提出过一种机器学习方法,可用于航空影像中军用地面车辆识别,为信息决策支持系统的改进提供了可能[2].然而,由于深度神经网络的模型复杂二计算量大和延时高等问题,将其应用于智能决策系统的技术

单帧图像超分辨率重建的深度神经网络综述

2019年第3期 信息通信2019 (总第 195 期)INFORMATION&COMMUNICATIONS(Sum.N o 195)单帧图像超分辨率重建的深度神经网络综述 康士伟,孙水发,陈晓军,魏晓燕 (三峡大学水电工程智能视觉监测湖北省重点实验室,湖北宜昌443002) 摘要:随着硬件计算能力的显著提升,深度神经网络广泛应用于计算机视觉和图像处理的各个领域,获得了突出成果,受 这种方法启发,单顿图像超分辨率重建(Super-resolution Reconstruction,SR)也引入深度学习思想,并且重建效果远远超越 传统算法,成为研究的热点并迅速成为主流技术。将对深度神经网络的单帧图像超分辨率重建技术分为两类(基于传统深度神经网络的单帧图像超分辨率重建和基于生成对抗网络的单帧图像超分辨率重建和)进行阐述,以此为基础,对单 帧图像超分辨率技术的发展趋势进行展望。 关键词:单帧图像;超分辨率重建;计算机视觉;图像处理;生成对抗网络 中图分类号:TP391 文献标识码:A文章编号:1673-1131(2019)03-0024-04 A Review on Single Image Super-resolution Reconstruction Based on Deep Neural Network Kang Shiwei,Sun Shuifa,Chen xiaojun,Wei Xiaoyan (China Three Gorges University Hubei Key Laboratory of Intelligent Vision Based Monitoring for Hydroelectric Engineering,Yichang443002, China) Abstract:With the significant improvement of hardware computing power,deep neural networks are widely used in various fi-elds of computer vision and image processing,and have achieved outstanding results.Inspired by this,the field of single image Super-resolution Reconstruction(SR)is also introduced deep learning ideas,and performance beyond traditional algorithms,be-come a research hotspot and become mainstream technology.In this paper,the existing image super-resolution reconstruction techniques based on deep neural networks are divided into two categories(traditional deep neural single image super-resolution reconstruction and generation adversarial networks for single image super-resolution reconstruction)for description,Based on this,we will look into the development of image super-resolution technology. K ey words:single image;super-resolution reconstruction;computer vision;image processing;generation adversarial network 〇引言 在获得图像时会受到天气、成像设备像素较低,和背景运 动变化等影响,因此在实际成像时会存在许多不确定因素,获得 的图像质量比较差、娜率比较低,导致达不到要求后续图像处 理、分析的要求。图像超分辨率重建w(Super-Resolution Resto-ration,SR)是用低分辨率 (Low Resolution,LR) 图像或视频序 列重建出对应的高分辨率(High Resolution,HR)图像的过程, 以获得较高分辨率的图片用于卫星遥感图像、医学图像、视频 监控、无人驾驶等计算机视觉和图像处理领域。图像超分辨 率重建可分为单帧图像超分辨率重建和视频超分辨率重建,本文着重阐述单幀图像超分辨率重建(Single Image Sper-res-olution Rconstruction,SISR) 单帧图像超辨率重建是一个病态反问题,因为低分辨率 图像对应多个高分辨率结果。传统算法如插值、重建和浅层 学习算法在图像重建过程中往往会出现高频细节丢失、边缘 模糊等问题,为了解决这个问题,在其他领域表现突出的深度 神经网络被Dong?等人引入单帧图像超分辨率重建中,这种 方法能很好地映射出低分辨率图像和高分辨率图像的关系,并且在放大倍数较大时都具有较好的重建效果,成为当前的 研究热点。 本文将把基于深度神经网络的单帧图像超分辨率重建分为两类进行阐述,S卩:基于传统深度神经网络的单帧图像超分 辨比率重建和基于生成对抗网络的单帧图像超分辨率重建。基于传统深度神经网络的图像超分辨率重建追求峰值信噪比 (Peak signal-to-noise Ratio,PSNR)和结构性相似性(Structural Similarity Index,SSIM)的提升,而基于生成对抗网络的图像超分辨率追求重建出的图像具有更好的高频特征细节,使其更 加符合人眼主观视觉效果,更具真实感。对单帧图像超分辨 率重建网络进行梳理、分析及总结后,我们将展望其发展。 1基于传统深度神经网络的单帧图像超分辨比率重建 深度神经网络是一种多层端到端人工神经网络,基于深度 神经网络的单帧图像超分辨率重建算法有以下优势:①可直 接输入多维数据进行网络训练;②具有局部权值共享的优点,可以降低训练参数;③具有强力的特征学习能力以及建模能力。所以可以更好地重建出高分辨率图像。基于传统深度神 经网络的单帧图像超分辨率重建可以分为以下几类:深度卷 积神经网络、深度递归神经网络,下面将分类详细阐述其网络 架构和原理,并用峰值信噪比和结构相似性作为评价标准对其性能进行分析。 1.1基于深度卷积神经网络的单帧图像超分辨率重建 SRCNN121(Super-Resolution Convolutional Neural Network)由D o n g等人首次提出用于解决超分辨率重建问题。该网络 含有三个卷积层:图像块提取和表示层、非线性映射层和重构 层,如图1所示。 n n块礅构 图1SR C N N网络结构 此网络先对低分辨率图像进行双三次插值放大为目标大 小,然后用卷积神经网络进行非线性映射,最后重建出高分辨 24

相关文档
相关文档 最新文档