首页 > 其他分享 >深度学习

深度学习

时间:2023-06-21 20:03:12浏览次数:31  
标签:算力 模型 学习 神经网络 深度 数据

受人类大脑内部复杂的神经元网络的启发,深度学习模拟生物神经网络,构建出包括输入层和输出层在内的人工神经网络。

下图,左边是视觉系统大致的通路,信息从视网膜到LGN的大细胞层到脑皮层;中间是听觉皮层,信息从耳蜗一直传到听觉皮层;右边是典型的人工神经网络。以上三种均属于层次化的结构。

深度学习_深度学习

当将数据输入该网络的输入层后,在输出层就会显现出相应的处理结果。在输入层和输出层之间,可能存在很多中间层(又称隐藏层),从而能够更深入地刻画所处理对象的特征,并具备更强大的函数模拟能力。几十年前,计算机算力有限,只能支撑一两层中间层。近年来,随着算力增强,可以训练出有成千上万层中间层的网络,“深度学习”即由此得名。

深度学习_数据_02


深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。

深度学习与人脑的区别

与人脑相比,深度学习(AI“脑”)有下面特征:

对比项

人脑

深度学习

学习需要的数据

很少

海量

量化优化

例如从一百万张脸中找到一张

不擅长

擅长

千人千面的个性化定制

例如推荐任何人最有可能购买的产品

不擅长

擅长

抽象概念、分析推理、洞见

擅长

不擅长

创造力

擅长

不擅长

表:人脑和AI“脑”的差别和擅长

深度学习的发展史

神经网络的层数直接决定了它对现实的刻画能力,最初由于算力等原因,隐含层只有一层,对稍微复杂一些的函数都无能为力,随着技术和算力的进步,为此,多加了一些隐含层,深度学习由此诞生。

早期的深度学习又有两个常用的方法,即卷积神经网络 - CNN循环神经网络 - RNN,前者专门解决图像问题,最大利用图像的局部信息,将局部特征拼接起来,从而得到整幅图的特征,类似于通过拼图来还原图像;后者则专门解决时间序列问题,用来提取时间序列信息,其最重要的特征是具有时间“记忆”的能力,就像人只有记住前面的对话内容,才能决定之后该说什么一样。

此外,生成模型也是深度学习领域内较为重要的一类模型。生成对抗网络 - GAN是一种让两个神经网络相互博弈从而完成学习的生成模型,其由一个生成器和一个判别器组成。比如说,生成器生成了一只虚拟狗,判别器需要将其与真实世界中的狗作对比,并判断虚拟狗是否“过关”,生成器和判别器相互对抗、不断学习,最终目的是使虚拟狗无限接近于真实的狗,让它通过判别器的检验。

自此,三大模型流派形成 —— CNN,RNN和GAN,语言模型属于RNN模型之流。但RNN模型依旧有其缺陷,对于相隔越久的信息,它的记忆力就越差,那么对于过去很久但有用的信息,它就很容易遗漏。为了提高RNN的记忆力,人们又开发了Self-attention自注意力模型,运用抓大放小的思想,不管重要的东西在哪,都更注重对它的加权,强化对它的注意力,让模型牢牢将其印入“脑海”。

在上述各类模型的基础上,ChatGPT的核心结构 —— Transformer模型横空出世。
由若干个编码器(Encoder)和解码器(Decoder)组成,同时盒子里还具备并行(Multi-headed)和自注意力(Self-attention)机制,自注意力机制负责挑选出重要的有用的信息,并行机制则负责对这些信息进行并发处理,有了这两大特性。

随后的发展就是大家所熟知的,GPT3、ChatGPT、GPT4的登场。

深度学习与传统的机器学习的区别

与传统的机器学习相比,深度学习更擅长处理大规模、高维度和非线性的数据,因此在计算机视觉、自然语言处理和语音识别等领域取得了巨大成功。

以下是深度学习和传统机器学习的主要区别:

特征

传统机器学习

深度学习

数据量

通常需要更少的数据

需要更大的数据

特征提取

需要手工设计特征

自动学习特征

模型复杂度

通常较简单

可以处理更复杂的模型

过拟合问题

容易受到过拟合的影响

通过正则化和数据增强等方法可以有效地避免过拟合的问题

训练速度

相对较快

相对较慢

调参

需要手动调整模型参数和超参数

自动调整模型参数和超参数,例如使用基于梯度的优化算法进行训练

应用领域

处理传统的结构化数据,例如表格数据

处理非结构化数据,例如图像、语音、文本等

算法

传统的机器学习算法,例如决策树、朴素贝叶斯、支持向量机等

深度学习算法,例如卷积神经网络、循环神经网络、自编码器等

库和框架

scikit-learn、TensorFlow、PyTorch等

TensorFlow、PyTorch等

计算资源

可以在常规的计算机上运行

需要更高端的计算资源,例如GPU和TPU等

总之,深度学习是一种适用于大规模、高维度和非线性数据的机器学习方法,可以自动学习特征和调整模型参数,从而实现更准确的预测和分类任务。

深度学习为何最近才火起来?

第一篇阐述深度学习的学术论文发表于1967年,但这项技术却花了近50年的时间才得以蓬勃发展,之所以经历了这么长的时间,是因为深度学习需要海量的数据强大的算力,才能训练多达几千层的神经网络。如果把算力比作AI的引擎,那么数据就是AI的燃料,直到最近10年,算力才变得足够高效,数据才变得足够丰富。

早期时都是浅层神经网络,直到2006年才首次实现5层隐层网络的训练。2006年Hinton首次把ANN提升到了5层,解决了深度神经网络的训练问题;2012年Hinton在ImageNet挑战赛中引进深度学习算法,在随后几年内,深度学习成功地大幅降低了图片识别错误率,随后行业迎来爆发式发展,深度学习的商用进程得以加速。

深度学习_深度学习_03

图:不断增加层数的深度学习使得图像识别错误率快速下降。

人脑神经元之间是网状连接,为啥深度学习采用了更简单的分层架构?

神经网络通常采用分层架构,即将神经元按照不同的功能分为输入层、输出层和若干个隐藏层。神经网络采用分层架构的原因是为了实现对输入数据的多层次的抽象和变换,从而提高网络的表达能力和泛化能力。

  • 对于图像分类任务,神经网络可以通过多个隐藏层来逐渐提取图像中的边缘、纹理、形状、物体等高级特征,然后根据这些特征来判断图像的类别。就类似最前面人脑视觉,听觉的处理流程一样过滤掉一些不重要的,关注重要的,继而可以提炼和抽象对象的特征。 参看卷积神经网络 - CNN
  • 对于自然语言处理任务,神经网络可以通过多个隐藏层来逐渐捕捉词语、句子、段落等不同层次的语义信息,然后根据这些信息来实现机器翻译、文本摘要等功能。 参看循环神经网络 - RNN

总之,神经网络采用分层架构是为了利用多个隐藏层来实现对输入数据的多层次的抽象和变换,从而提高网络的表达能力和泛化能力。

神经网络为什么难以解释?

神经网络是一种非线性映射,它的内部结构和计算过程很复杂,难以用简单的语言或逻辑来描述。

  • 神经网络的权值和激活值通常没有明确的语义,它们只是一些数值,不容易和人类的知识或直觉相联系。
  • 神经网络的训练过程涉及到大量的数据和随机性,它的行为和结果可能受到数据分布,初始化,优化算法等多种因素的影响,难以预测和控制。

因此,要解释神经网络,就需要采用一些特殊的方法或技术,比如提取规则,可视化隐藏语义,计算属性值,举例说明等等。这些方法各有优缺点,也有不同的适用范围和难度,而且模型越大,涉及领域越多,越难提炼出解释。

总结

深度学习是机器学习的一个分支,它使用多层的人工神经网络来学习数据的表征和特征,从而实现复杂的非线性映射。

深度学习可以处理各种类型的数据,如图像,语音,文本等,也可以用来解决各种类型的问题,如分类,回归,生成等。

随着GPT大模型的惊艳亮相影响,受人类神经系统和大脑信息处理的启发的深度学习也展现了更多的可能性和创新性。

标签:算力,模型,学习,神经网络,深度,数据
From: https://blog.51cto.com/u_15588078/6531137

相关文章

  • 深度学习-强化学习-图神经网络-自然语言处理等AI课程超级大列表-最新版
        本篇文章内容整理自网络,汇集了大量关于深度学习、强化学习、机器学习、计算机视觉、语音识别、强化学习、图神经网络和自然语言处理相关的各种课程。之前分享过一次,经过一年的更新,又补充了很多2019、2020年的最新资源,补充了一些主题,提供给不间断学习,充实自己的朋友,借下面Hi......
  • 深度学习概述
    深度学习概述1.深度学习定义深度学习(Deep learning)起源于人工神经网络,它的定义:通过组合低层特征形成更加抽象的高层特征或类别,从而从大量的输入数据中学习有效特征表示,并把这些特征用于分类、回归和信息检索的一种技术。何谓为深度:网络学习得到的函数中,非线性运算组合水平的数量。......
  • 深度学习一些亟待研究问题整理
    亟待研究的一些问题自己整理的问题:1.深度结构是如何对输入进行表达的。2.寻找更好的输入特征向量(需要提取的特征)和更好的深度组合结构;3.比较降噪编码器和RBM在预训练和微调时,预测能力的差别,分析产生的原因。4.分析RBM在无监督训练时如何提取输入数据的特征。5.进一步探索新的网络拓......
  • 深度学习阅读笔记(四)之卷积网络CNN
    卷积神经网络  17.《基于卷积神经网络的木材缺陷识别》(具体应用)(1)主要内容:采用卷积神经网络(CNN)来建立木材缺陷识别系统。详细介绍了CNN网络的基本结构和技术特点。详细介绍了实验CNN网络模型的构件。(2)采用方法:卷积神经网络(CNN)(3)特点:权值共享,下采样,局部感受野(4)优点:卷积神经网络在处......
  • 深度学习论文阅读笔记(三)之深度信念网络DBN
    深度神经网络   12.《受限波尔兹曼机简介》(1)主要内容:主要介绍受限玻尔兹曼机(RBM)的基本模型、学习算法、参数设置、评估方法、变形算法等,探讨了RBM在未来值得研究的方向。(2)RBM的基本模型和学习算法(描述比较清楚):对比散度学习算法(Gibbs采样),(3)RBM参数设置(叙述比较详细):1)小批量数据处理......
  • 深度学习阅读笔记(二)之自动编码器SAD
    一、自动编码器(DAE)   7. 《深度自动编码器的研究与展望》   主要内容:讲述了自动编码器的发展由来。阐述了DAE的基本概念和原理;网络模型的构建和训练方法。并对DAE进行了分类,指出了DAE存在的问题和对DAE未来发展的展望。  (1)自动编码器比传统BP网络的优势:免去了人工提取数据......
  • 深度学习学术论文阅读笔记(一)之经典学术论文阅读笔记
    深度学习算法主要分类三大类:自动编码器,深度神经网络和卷积神经网络。下面是对这三种网络分类进行的初步调研。深度学习6篇非常重要的文章:  1.《Learning multiple layers of representation》 / G E. Hinton(1)主要内容:论述采用多层网络表达(深度学习网络:卷积网络,堆叠自动编......
  • opencv学习笔记(五)
    Sobel算子:Sobel算子是一种常用的图像梯度算子,用于检测图像中的边缘。它基于离散的差分运算,通过计算图像在水平和垂直方向上的梯度来确定边缘的强度和方向。importcv2importnumpyasnp#读取图像image=cv2.imread('input.jpg',cv2.IMREAD_GRAYSCALE)#计算水平方向......
  • MongoDB学习笔记
    MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。它支持的数据结构非常松散,是类似json的bson格式,因此可以存......
  • 从实验中学习ResNet模型:在视频处理任务中取得显著进展
    目录引言技术原理及概念实现步骤与流程示例与应用优化与改进结论与展望"从实验中学习ResNet模型:在视频处理任务中取得显著进展"在视频处理任务中,ResNet模型已经取得了显著进展。ResNet模型是一种深度残差块神经网络,它是由ResNet系列模型发展而来的,被广泛用于图像和视频处理领域。在......