通过面试的过程,你可以了解到这个岗位的具体要求和技术细节,从而能够更好地规划自己日后的学习计划。
11.6号早上7点半醒来,忽然想到要视频面试很慌。在小红书上搜了一下要准备的问题,(好难。)
1. “ 然后cnn的一些基础知识准备准备就行了,LSTM确保懂。
还有什么过拟合呀、激活函数之类的基础知识也记一下,评测指标auc啥的怎么计算也看看,大概就这些不会很难,代码题应该也不难,二叉树、各类排序看一看就行。
k-means算法大概能写出伪代码就行,这是我mentor'当年考我的哈哈哈。
组里有几个方向,活体,对抗攻击,水印啥的“
2. CNN:
a. 包括:
卷积层:负责进行卷积操作,提取图像特征
池化层:用于对卷积层的输出进行下采样,减少参数量的同时保留重要的特征
激活函数:引入非线性变换,增加网络的表达能力
全连接层:对网络的输出进行分类或回归。
b. 卷积神经网络中的池化操作是什么,有哪些常用的池化方法:池化操作时通过对特征映射进行降采样,减少特征维度的过程。
常用的池化方法:包括最大池化和平均池化。
最大池化选取局部区域中的最大值作为池化后的值,而平均池化取局部区域中的平均值。
c. 如何防止CNN出现过拟合现象:
防止CNN过拟合的常见方法包括使用正则化技术(如L1和L2正则化)、使用Dropout层随机丢弃部分神经元(Dropout层的引入可以有效地提高神经网络的泛化能力,减少过拟合的发生。它已被广泛应用于深度学习模型中,特别是在图像分类、自然语言处理等任务中。)、数据增强(如旋转、平移、缩放等)、早停等。
下次面试经验:1. 在知道自己要准备什么知识的当下就去准备这个知识;2. 准备好简历中的项目。3. 心态:100分有2分或者3分就去做。不做是0分,那只要有2分、3分就去做。不是一件事只有80分、90分才去做。4. 设定每日大概的计划,今天复习什么知识、明天复习什么知识,提前找好面试地点。5. 搞清楚视频面试中写代码用什么本地IDE。(jupyter-lab)5. 视频面试地点选择:1就业中心可以预约面试间,提前拿面试通知去填纸质表格打印交,一天只能约一个小时,可以约的时间是老师上班时间。2校车跑沙河。3宿舍协商。4外面开房 5校外自习室
3. LSTM(请解释一下长短期记忆网络的原理和作用):
Long Short term memory,是一种循环神经网络的变体,旨在解决传统的循环神经网络(RNN),尤其是基于反向传播算法的训练,在处理长序列数据时,经常会遇到梯度消失和梯度爆炸的问题。LSTM网络通过引入记忆单元和门控机制,能够有效地捕捉和记忆长期依赖关系。
a. LSTM的关键组成部分(LSTM中的门控单元有哪些,它们的作用是什么?):
输入门:控制输入信息的重要性,决定是否将新信息纳入记忆单元
遗忘门:控制记忆单元中的信息丢弃,决定是否忘记过去的记忆。
输出门:控制从记忆单元中提取的信息,决定输出给下一层的内容。
b. LSTM与传统的循环神经网络(RNN)有什么区别:
* LSTM引入了记忆单元和门控机制,能够有效地处理长期依赖关系,而传统RNN在处理长序列时容易出现梯度消失或爆炸的问题。
(
-
梯度消失(Gradient Vanishing):在反向传播算法中,梯度是通过链式法则进行计算的。在RNN中,反向传播会将梯度通过时间步展开传递,从当前时间步向前传递。当网络较深或序列较长时,梯度会经过多次乘法运算,有可能因为层数较多或激活函数的导数较小而逐渐衰减。这导致早期时间步的梯度变得非常小,使得模型无法正确学习早期时间步的信息。
-
梯度爆炸(Gradient Exploding):与梯度消失相反的问题是梯度爆炸。当反向传播时,梯度可能因为层数较多或激活函数导数较大而逐渐增加。如果梯度增长得过快,超过了计算机的数值表示范围,就会导致梯度爆炸。梯度爆炸的问题可能会导致权重更新过大,导致模型不稳定。
)
* LSTM通过门控机制可以选择性地存储、遗忘和输出信息,控制信息的流动和更新。
* LSTM能够更好地捕捉序列数据中的长期依赖关系,适用于处理具有长时间依赖的任务。
c. LSTM的训练过程中有哪些常用的优化方法:
* 梯度下降法及其变种,如批量梯度下降法、随机梯度下降法和小批量梯度下降法。
* 自适应学习率方法:如动量法、Adagrad、RMSprop和Adam等。
* 正则化方法,如L1正则化和L2正则化,用于防止过拟合。
* 提前停止训练(早停),根据验证集误差的变化来确定何时停止训练,避免过拟合。
4. K-means算法的大概伪代码:
输入: 数据集X, 聚类个数k
输出: 聚类中心点和数据点的分类结果
1. 随机选择k个样本作为初始的聚类中心点
2. 当聚类中心点不再改变或达到迭代次数时,终止循环
a. 对于每个数据点x,计算与各个聚类中心点之间的距离,并将其分配到距离最近的聚类中心点所对应的类别中
b. 更新聚类中心点 - 对于每个聚类中心点,计算其所属类别中所有数据点的平均值作为新的聚类中心点 ‘
3. 返回最终的聚类中心点和数据点的分类结果。
5. 激活函数在神经网络中的作用:
6. LSTNet算法是一种结合了卷积神经网络和长短期记忆网络(LSTM)的模型,用于时间序列预测。它提出了一种两层结构的架构,通过卷积层来捕捉时间序列的局部模式,并通过LSTM层来处理长期依赖关系。
1.卷积组件:LSTNet的第一层是一个无池化的卷积网络,旨在提取时间维度上的短期模式和变量之间的局部依赖关系。
2.循环组件:LSTNet的循环层负责捕捉复杂的长期依赖关系。为了优化训练过程并利用输入时间序列信号的周期性特点,引入了一种新颖的循环结构,称为循环跳跃(Recurrent-skip)。
3.自回归模型:为了解决神经网络模型对规模变化不敏感的问题,LSTNet并行地结合了传统的自回归线性模型。这使得非线性深度学习模型在处理违反规模变化的时间序列数据时更加鲁棒。
标签:11,梯度,速成,面试,池化,中心点,聚类,LSTM From: https://www.cnblogs.com/Jocelynn/p/17811746.html