节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
暑期实习基本结束了,校招即将开启,这两天又有很多大厂的算法岗(CV、NLP、搜广推、大模型、AIGC等方向)面试真题整理出来了。
这里特别整理了部分比亚迪的最新面试题,希望对你有所帮助。特别说明,比亚迪是招聘超级大户~
-
介绍RANSAC
-
CLIP原理及变体
-
SD1.5和SDXL的区别
-
XGB相对于GBDT的改进
-
GAN和Diffusion优缺点
-
自注意力机制的参数量计算
-
介绍YOLOv5、v6、v7、v8的区别
-
Instruct 和 prompt 有什么区别?
-
你怎么看特斯拉FSD端到端大模型上车?
-
介绍现在大火的BEV范式?还有Occupancy
我还特别整理15道 Transformer 高频面试题(不会的,可用进群)
-
介绍Transformer和ViT
-
介绍Transformer的QKV
-
介绍Layer Normalization
-
Transformer训练和部署技巧
-
介绍Transformer的位置编码
-
介绍自注意力机制和数学公式
-
介绍Transformer的Encoder模块
-
介绍Transformer的Decoder模块
-
Transformer和Mamba(SSM)的区别
-
Transformer中的残差结构以及意义
-
为什么Transformer适合多模态任务?
-
Transformer的并行化体现在哪个地方?
-
为什么Transformer一般使用LayerNorm?
-
Transformer为什么使用多头注意力机制?
-
Transformer训练的Dropout是如何设定的?
技术交流&资料
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了算法面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流