首页 > 其他分享 >山东大学2023-2024深度学习期末回忆及参考答案

山东大学2023-2024深度学习期末回忆及参考答案

时间:2024-06-17 13:31:41浏览次数:12  
标签:训练 模型 测试数据 2024 神经网络 参数 2023 数据 参考答案

文章目录


考试并不难,就是背多分。只要你在平时的学习中认真复习,掌握好每一个知识点,考试时就能游刃有余。

名词解释(3*8=24分)

分布式表示

分布式表示(Distributed Representation)是一种表示方法,在这种方法中,信息是通过多个神经元的激活模式来表示的,而不是通过单个神经元的激活。它在自然语言处理和机器学习中广泛应用,特别是在词嵌入(word embeddings)中,每个词被表示为一个高维向量。

超参数

超参数(Hyperparameter)是指在机器学习模型训练之前设置的参数,这些参数的值不能通过训练数据直接学习到,而是需要通过实验或经验来确定。常见的超参数包括学习率、批量大小、网络层数等。

共现矩阵

共现矩阵(Co-occurrence Matrix)是一种矩阵,用于表示词语在一定窗口大小内的共现频率。在自然语言处理中,共现矩阵可以帮助捕捉词语之间的语义关系,是构建词嵌入的一种方法。

截断BPTT

截断BPTT(Truncated Backpropagation Through Time)是一种训练循环神经网络(RNN)的技术。由于RNN在处理长序列时会遇到梯度消失或爆炸的问题,截断BPTT通过限制反向传播的时间步数来缓解这些问题,从而提高训练效率和稳定性。

attention机制

Attention机制(Attention Mechanism)是一种在神经网络中用于提高模型性能的方法。它通过为输入序列中的每个元素分配不同的权重,使模型能够更好地关注重要的信息。Attention机制在机器翻译、图像描述生成等任务中取得了显著效果。

梯度确认

梯度确认(Gradient Checking)是一种验证反向传播算法正确性的方法。通过数值计算梯度并与反向传播计算的梯度进行比较,可以检查模型的梯度计算是否正确,从而确保模型的训练过程是可靠的。

疑惑度

疑惑度(Perplexity)是衡量语言模型性能的一种指标。它表示模型对测试数据的困惑程度,数值越低表示模型越好。具体来说,疑惑度是模型预测测试集上每个词的平均概率的倒数的指数。

还有一个忘了

名词解释基本不难,就是贝多芬

简答(6题)

1、说出训练数据测试数据验证数据的作用,为什么要分训练数据和测试数据?

训练数据、测试数据、验证数据的作用
  • 训练数据:用于训练机器学习模型,通过不断调整模型参数,使模型能够从数据中学习到规律。
  • 测试数据:用于评估模型的性能,测试数据是模型在训练过程中未见过的数据,能够反映模型的泛化能力。
  • 验证数据:用于调参和选择模型,帮助确定最佳的超参数和模型结构,避免过拟合。
为什么要分训练数据和测试数据

分开训练数据和测试数据是为了评估模型的泛化能力。训练数据用于模型学习,而测试数据用于评估模型在未见过的数据上的表现。如果不分开,模型可能会过拟合训练数据,无法在实际应用中表现良好。

2、为什么激活函数要非线性函数?

1. 引入非线性特性

如果没有非线性激活函数,神经网络的每一层实际上只是对输入进行线性变换。多个线性变换的组合仍然是线性变换,这样的网络无法表示复杂的非线性关系。非线性激活函数使得神经网络能够学习和表示复杂的非线性模式,从而解决更复杂的问题。

2. 增加模型的表达能力

非线性激活函数使得神经网络能够近似任何函数(根据通用近似定理),从而大大增加了模型的表达能力。这样,神经网络可以更好地拟合训练数据,并在实际应用中表现得更好。

3. 允许层间的相互作用

非线性激活函数使得每一层的输出不仅仅是前一层输入的线性组合,而是通过非线性变换后得到的结果。这种非线性变换使得不同层之间可以进行复杂的相互作用,从而捕捉到数据中的复杂模式和特征。

常见的非线性激活函数
  • Sigmoid:将输入映射到0到1之间,适用于输出概率的情况。
  • Tanh:将输入映射到-1到1之间,常用于隐藏层。
  • ReLU(Rectified Linear Unit):将负值映射为0,正值保持不变,计算简单且在实践中效果良好。

3、说出神经网络的学习过程

1. 初始化
  • 权重初始化:随机初始化网络的权重参数,通常使用小的随机值。
  • 偏置初始化:初始化偏置参数,通常为零或小的随机值。
2. 前向传播(Forward Propagation)
  • 输入数据:将训练数据输入到网络的输入层。
  • 计算激活值:通过每一层的神经元,计算加权和并应用激活函数,逐层传递直到输出层。
  • 输出结果:得到网络的预测输出。
3. 计算损失(Loss Calculation)
  • 损失函数:使用损失函数(如均方误差、交叉熵等)计算预测输出与真实标签之间的误差。
  • 损失值:得到一个标量值,表示当前网络预测的误差大小。
4. 反向传播(Backpropagation)
  • 计算梯度:从输出层开始,逐层向后计算损失函数对每个参数的梯度。
  • 链式法则:利用链式法则(链规则)计算每一层的梯度,传播误差到每一层。
5. 参数更新(Parameter Update)
  • 优化算法:使用优化算法(如梯度下降、Adam等)更新网络的权重和偏置参数。
  • 学习率:根据学习率调整参数,减小损失函数的值。
6. 迭代训练(Iteration)
  • 重复步骤2-5:对所有训练数据进行多次迭代(称为epoch),不断调整网络参数,直到损失函数收敛或达到预设的训练轮数。
7. 验证和测试(Validation and Testing)
  • 验证集:在训练过程中使用验证集评估模型性能,调整超参数,防止过拟合。
  • 测试集:在训练完成后,使用测试集评估模型的泛化能力,得到最终的性能指标。
8. 模型保存和部署(Model Saving and Deployment)
  • 保存模型:将训练好的模型参数保存,以便后续使用。
  • 部署模型:将模型部署到实际应用环境中,进行预测和推理。

7到8应该可以不答

4、说出batch normolization的优点

  • 可以使学习快速进行(可以增大学习率)
  • 不那么依赖初始值(对于初始值不用那么神经质)
  • 抑制过拟合(降低Dropout等的必要性)

5、dropout

Dropout是一种正则化技术,用于防止神经网络过拟合。在训练过程中,Dropout随机地将一部分神经元的输出设为零,从而使得网络在每次训练迭代中使用不同的子网络进行训练。这种方法可以有效地减少神经元之间的相互依赖,提高模型的泛化能力。

Dropout的作用
  1. 防止过拟合
    • Dropout通过随机丢弃神经元,减少了神经元之间的相互依赖,从而防止模型过拟合训练数据,提高了模型在测试数据上的表现。
  2. 提高泛化能力
    • 由于每次训练迭代中使用不同的子网络,Dropout使得模型在不同的训练数据上表现更加鲁棒,从而提高了模型的泛化能力。
  3. 简化模型集成
    • Dropout可以看作是对多个子网络进行集成的过程。训练过程中不同的子网络相当于多个不同的模型,最终的模型相当于这些子网络的集成,从而提高了模型的性能。
  4. 减少训练时间
    • 虽然Dropout增加了每次训练迭代的计算量,但由于它有效地防止了过拟合,减少了对复杂模型和长时间训练的需求,从而在整体上减少了训练时间。

6、说出word2vec的瓶颈,提出改进方法

word2vec存在的问题
  • 随着词汇量的增大,输入层的one-hot表示的向量大小会增大,此外,还计算one-hot表示和权重矩阵Win的
    乘积也要花费人量的计算资源。
    • 引入embedding层
  • 随着词汇量的增加,中间层和权重矩阵Wout的乘积以及Softmax层均需要大量的计算。
    • 引入负采样Negative Sampling
  1. embedding
    a.正向传播:将矩阵的某个特定行抽出来,将该行的神经元原样传给下一层;
    b.反向传播:从上一层传过来的梯度将原样传给下一层
  2. 负采样:就是从一堆负样本中采样出一部分负样本,用于模型的训练。
    a.将多分类转换为二分类问题—负采样的关键
    b.选择正例及一部分负例,将二者的损失加起来作为最终的损失。
    c.进行负采样?根据语料库中各个单词的出现次数求出概率分布,然后根据概率分布进行采样。

大题(两大题,三小题)

1、一个全连接层,输入是256*256的RBG图像,中间层10,输出1000,计算除偏置外的参数数量,写出计算过程。

2、写出卷积神经网络的三个特征

稀疏连接、权重共亨、平等表达。

1. 稀疏连接(Sparse Connectivity)

在卷积神经网络中,每个神经元只与上一层的局部区域(称为感受野)连接,而不是与所有神经元连接。这种稀疏连接减少了参数数量,提高了计算效率,并且有助于捕捉局部特征。

2. 权重共享(Weight Sharing)

在卷积层中,同一个卷积核(滤波器)在整个输入图像上滑动,应用于不同的位置。这意味着同一个卷积核的权重在不同位置共享,从而大大减少了参数数量。这种权重共享使得卷积神经网络能够有效地检测图像中的局部模式,无论它们出现在图像的哪个位置。

3. 平移不变性(Translation Invariance)

由于卷积操作和池化操作的特性,卷积神经网络对输入图像的平移具有一定的鲁棒性。即使图像中的特征发生了平移,卷积神经网络仍然能够有效地识别这些特征。这种平移不变性使得卷积神经网络在处理图像数据时具有很强的适应性。

3、SGD慢的根本原因,给出其他三个更新权重的方法

根本原因是梯度方向并没有指问最小值的方问。

Momentum、AdaGrad、Adam

1、LSTM画图

2、三个不同门的作用

  • 输出门:管理下一个隐藏状态ht的输出的门
  • 遗忘门:忘记不必要记忆的门
  • 输入门:判断新增信息 g的各个元素的价值有多大。输入门不会不经考虑就添加新信息,而是会对要添加的信息进行取舍。

3、RNNLM的优化方法

  • LSTM层的多层化:鲁加多个LSTM层
  • 使用Dropout抑制过拟合(由于加深层会过拟合):增加训练数据;降低模型复杂度;正则化
  • 权重共享:在embedding层和Affine层实现权重共享

希望每一位同学都能在考试中发挥出色,取得理想的成绩。

答案生成基于chatgpt与学长笔记深度学习期末复习 (flowus.cn)

标签:训练,模型,测试数据,2024,神经网络,参数,2023,数据,参考答案
From: https://blog.csdn.net/Ban_Xiang/article/details/139740602

相关文章

  • 2024 第六届机器人与计算机视觉国际会议(ICRCV 2024)即将召开!
    2024第六届机器人与计算机视觉国际会议(ICRCV2024)将于2024年9月20日-22日在中国·无锡召开,由IEEE,IEEERAS,南京理工大学联合主办。会议旨在为行业内专家和学者分享技术进步和业务经验,聚焦机器人与计算机视觉的前沿研究,提供一个合作交流的平台。会议官网:ICRCV2024|......
  • 2024.06 别急记录
    1.Ynoi2009-rprsvq首先有方差\(=\dfrac{n-1}{n^2}\suma_i^2-\dfrac2{n^2}\suma_ia_j\)。还有结论:对于大小为\(n\)的集合\(S\),所有\(\dbinomnt\)个大小为\(t\)的子集中,含有给定大小为\(k\)的子集的集合个数为\(\dbinom{n-k}{t-k}\)。那么一个序列\(a_1,...,a......
  • 完全指南:2024年必试的8款开源看板工具
    开源看板系统有哪些?本文将盘点国内外主流的8款看板系统:PingCode、Kanboard、Worktile、Wekan、OpenProject、TAIga、Focalboard。今天想和大家探讨的是开源看板系统。作为一个热衷于项目管理和效率提升的爱好者,我在这方面也是小有研究。开源看板系统以其成本效益高和灵活性强而......
  • 2024 最新谷歌邮箱 Gmail 账号注册完整指南 (多种方法 实时更新)
    Gmail是目前国内外是最常见、使用最广泛的邮箱,基本上持有谷歌邮箱的人可以”横行互联网“。针对很多人反映自己在注册谷歌账号时总是失败,本文整理了截止2024年6月亲测可用的所有注册方法,以图文结合的形式详细手把手带你注册Gmail新账户。 本文将包括:注册Gmail的主......
  • [转]32th@C++ 20新特性之线程与jthread@20240617
    C++20新特性之线程与jthread为什么要引入jthread在C++11中,已经引入了std::thread。std::thread为C++标准库带来了一流的线程支持,极大地促进了多线程开发的便利性。但std::thread也存在一些明显的不足和短板,主要有以下几点。1、生命周期管理的复杂性。std::thread对象必须在它......
  • 2024年互联网技术与商务智能国际会议(ICITBI 2024)
    2024InternationalConferenceonInternetTechnologyandBusinessIntelligence【1】大会信息会议简称:ICITBI2024大会时间:2024-07-09大会地点:中国·三亚截稿时间:2024-06-25(以官网为准)审稿通知:投稿后2-3日内通知会议官网:www.iacitbi.com投稿邮箱:iacitbi@sub-pape......
  • 洛谷 B3867 [GESP202309 三级] 小杨的储蓄 题解
     题目题目-[GESP202309三级]小杨的储蓄-洛谷题目描述小杨共有 ......
  • CVPR2024 分割Segmentation相关论文37篇速览
    Paper1MFP:MakingFullUseofProbabilityMapsforInteractiveImageSegmentation摘要小结:最近的交互式分割算法中,将先前的概率图作为网络输入,以帮助当前分割轮次的预测。然而,尽管使用了先前的掩膜,概率图中包含的有用信息并没有很好地传播到当前预测中。在本文中,为......
  • Flink面试必问题:时间和窗口处理面试题及参考答案(3万字长文)
    目录Flink中的事件时间(EventTime)和处理时间(ProcessingTime)有什么区别?Flink的容错机制是如何实现的?Flink中的窗口(Window)是什么?Flink支持哪些类型的窗口?如何定义一个滚动窗口(TumblingWindow)?如何定义一个滑动窗口(SlidingWindow)?如何定义一个会话窗口(SessionWindow)?Flin......
  • 证照之星XE个人破解版2024最新证照之星百度网盘免费下载
    随着社会的进步,证件照的用处越加宽广,例如:、结婚证件照、驾驶证照片、毕业证照片等等;当工作人员每天面对如此庞大的照片数量时,都尝试着去网上下载证照之星破解版,企图能够快速且专业的处理掉这些照片,这边是不建议这样做的。对于一些不会用PS,又想自己做证件照的时候,证照之星是一......