01
背景
本弱鸡 211 本硕,nlp,无论文有实习(老板没资源且放养),本科有 acm 经历(1 铜),面试 pcg 日常实习。
02
技术一面(时长1h)
Q1:了解什么机器学习算法,讲一下原理?
当时只记得实体识别用到了隐马尔可夫模型,讲了讲怎么怎么定义观测状态和隐藏状态、前向传播、解码和应用场景。
Q2:讲一下 Bert 的结构和怎么训练的,怎么用 bert 做下游任务?
八股,双向 transformer encoder 结构,预训练任务包括 MLM 和 NSP,详细讲了讲。下游任务做过文本分类、关系提取等,用 cls 做预测;也可以做摘要生成等任务。
Q3:有没有了解过 LLM,有自己调过吗,了解 RLHF 过程吗?
自己训练过 llama3 和 glm(8、9B),跑过 sft 和 dpo,有看过一些技术报告。当时用 deepspeed 跑的,然后讲了讲 RLHF 三个过程,最后 PPO 四个模型的作用。
Q4:有了解强化学习吗?能不能详细说说 PPO 是什么?
只通过 RLHF 了解过一点,好像跟面试官想要的答案不一致,跳过。
Q5:怎么扩展大模型的最大输入长度?
改变 transformer 结构(GQA,MQA,flash attention等),旋转位置编码 RoPE 等(只看过论文,自己用的很少,就想到啥说啥)
Q6:有了解过模型训练方法吗(当时没理解到该说啥,结果是问有没有了解过模型并行、流水线并行这些),有了解过 megatron 吗?
没用过(感觉要凉)
Q7:有了解过文生图吗?(这不是面试 nlp 吗,后续面试官说是部门里也有相关工作,像看看适合什么,从这感觉面试要挂了)
有了解过一些项目,diffusion 和 clip 原理,之前有自己跑过 unet+diffusion+vae 做文生图任务,讲了下为什么这么做。
Q8:手撕快排
当天晚上收到了参加二面的邮件,小激动。
03
二面
二面没有手撕代码,问了问项目:
-
讲一下微调大模型是怎么做的,数据集怎么构建,数据怎么处理
-
看项目中用了 RAG,讲一下设计流程
-
其中文本 chunk 怎么做的,为什么这么做
-
中间有没有遇到什么困难,怎么提高召回,如果文本输入大模型后效果不好怎么办
-
怎么提高大模型的外推性
-
有了解过文生图任务吗(怎么又问这个)
然后草草结束,一天后流程结束(挂了,继续努力)
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】
标签:211,AI,免费,......,学习,本硕,CSDN,文末,模型 From: https://blog.csdn.net/m0_70486148/article/details/145111155