最近这一两周看到不少互联网公司都已经开始秋招提前批了。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
合集:
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们
AIGC 高频面试题
最近 AIGC 相关的面试题猛增,特别是爆火的LLM、多模态、扩散模型等考察的知识点越来越多。有球友跟我反馈,上周面试了 阿里的AIGC 岗位,差点崩溃。。。
在这里我特别整理了一些代表性面试题,下图中的题目,你会几题?!
Diffusion
-
常见的采样方式以及原理?
-
扩散模型中添加的是高斯噪声,能否使用其他噪音的加噪方式?
-
如何加速Diffusion?
-
DDPM和DDIM的关系?推演DDPM公式。
-
GAN和Diffusion的区别?
-
训练Stable Diffusion时为什么要使用offset Noise?
-
介绍一下classifier-free guidance和classifier guidance的区别?
-
实现DDPM是否需要什么条件?
-
为什么DDPM加噪声的幅度不是一致的?
AIGC 高频题
-
细致讲从 DALLE 1 如何发展到 DALLE 3,每个算法的核心原理,每次的创新是什么
-
介绍MoE和变体
-
介绍LoRA和变体
-
介绍CLIP的模型架构与损失函数。谈谈AE,VAE和VQ-VAE的区别。
-
Stable Diffusion是如何训练的?
-
介绍一下最新版的 SD 和 Dall-E 两者的异同。
-
谈谈Stable Diffusion中的交叉注意力机制。
-
如何改善GAN的模式坍塌?
-
谈谈Lora/Dreambooth/Textual Inversion, 原理以及差异。
-
介绍一下CLIP的核心原理,模型怎么训练的?
-
CLIP 有哪些变体?
-
谈谈CLIP编码特征的优点缺点。
技术交流&资料
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了算法面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流
精选
- 轻松构建聊天机器人,大模型 RAG 有了更强大的AI检索器
- 一文搞懂大模型训练加速框架 DeepSpeed 的使用方法!
- 保姆级学习指南:《Pytorch 实战宝典》来了
- MoE 大模型的前世今生
- 从零解读 SAM(Segment Anything Model)
- AI 绘画爆火背后:扩散模型原理及实现
- 从零开始构建和训练生成对抗网络(GAN)模型
- CLIP/LLaVA/LLaVA1.5/VILA 模型全面梳理!
- 从零开始创建一个小规模的稳定扩散模型!
- Stable Diffusion 模型:LDM、SD 1.0, 1.5, 2.0、SDXL、SDXL-Turbo 等
- 文生图模型:AE、VAE、VQ-VAE、VQ-GAN、DALL-E 等 8 模型
- 一文搞懂 BERT(基于Transformer的双向编码器)
- 一文搞懂 GPT(Generative Pre-trained Transformer)
- 一文搞懂 ViT(Vision Transformer)
- 一文搞懂 Transformer
- 一文搞懂 Attention(注意力)机制
- 一文搞懂 Self-Attention 和 Multi-Head Attention
- 一文搞懂 Embedding(嵌入)
- 一文搞懂 Encoder-Decoder(编码器-解码器)