首页 > 其他分享 >美团大模型一面面经,问了这些问题(很大程度凉哈哈)

美团大模型一面面经,问了这些问题(很大程度凉哈哈)

时间:2024-11-04 11:18:57浏览次数:3  
标签:tuning 一面面 AI 美团 微调 LangChain 哈哈 LLM 模型

美团大模型一面

一、大模型基础面试题

目前主流的开源模型体系有哪些
prefix LM 和 causal LM 区别是什么?
涌现能力是啥原因?
大模型LLM的架构介绍?
在这里插入图片描述

二、大模型进阶面试题

lama输入句子长度理论上可以无限长吗?
什么是 LLMs 复读机问题?
为什么会出现 LLMS 复读机问题?
如何缓解 LLMS 复读机问题?
LLMS 复读机问题llama 系列问题什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
各个专业领域是否需要各自的大模型来服务?
如何让大模型处理更长的文本?

三、大模型微调面试题

如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
为什么SFT之后感觉LLM傻了?
SFT 指令微调数据 如何构建?
领域模型Continue PreTrain 数据选取?领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
领域模型Continue PreTrain,如何让模型在预训练过程中就学习到更多的知识?
进行SFT操作的时候,基座模型选用Chat还是Base?
领域模型微调 指令&数据输入格式 要求?
领域模型微调 领域评测集 构建?
领域模型词表扩增是不是有必要的?
如何训练自己的大模型?
训练中文大模型有啥经验?
指令微调的好处?
预训练和微调哪个阶段注入知识的?想让模型学习某个领域或行业的知识,是应该预训练还
是应该微调?
多轮对话任务如何微调模型?
微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
微调模型需要多大显存?
大模型LLM进行SFT操作的时候在学习什么?
预训练和SFT操作有什么不同
样本量规模增大,训练出现OOM错
大模型LLM进行SFT 如何对样本进行优化?模型参数迭代实验

四、大模型langchain面试题

基于LLM+向量库的文档对话 基础面
基于LLM+向量库的文档对话 优化面
基于LLM+向量库的文档对话 工程示例面
LLMS 存在模型幻觉问题,请问如何处理?
基于LLM+向量库的文档对话 思路是怎么样?
基于LLM+向量库的文档对话 核心技术是什么?
基于LLM+向量库的文档对话 prompt 模板 如何构建?
痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
痛点2:在基于垂直领域 表现不佳
痛点3:langchain 内置 问答分句效果不佳问题
痛点4:如何 尽可能召回与query相关的Document问题
痛点5:如何让LLM基于query和context得到高质量的response避坑记录
本地知识库问答系统(Langchain-chatGLM)什么是 LangChain?
LangChain 包含哪些 核心概念?
什么是 LangChain Agent?
如何使用 LangChain?
LangChain 支持哪些功能?
什么是 LangChain model?
LangChain 包含哪些特点?
LangChain 如何使用?
LangChain 存在哪些问题及方法方案?

五、大模型参数高效微调(PEFT)面试题

什么是 LoRA?
LoRA 的思路是什么?
LORA 的特点是什么?
QLORA 的思路是怎么样的?
QLORA 的特点是什么?
AdaLoRA的思路是怎么样的?
LORA权重是否可以合入原模型?
ChatGLM-6B LORA后的权重多大?
LORA 微调优点是什么?
LORA微调方法为啥能加速训练?
如何在已有LORA模型上继续训练?为什么需要 提示学习(Prompting)?什么是 提示学习(Prompting)?提示学习(Prompting)有什么优点?提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?
为什么需要 P-tuning v2?
为什么需要 P-tuning?
为什么需要 指示微调(Prompt-tuning)?指示微调(Prompt-tuning)与 Prefix-tuning区别 是什么?
指示微调(Prompt-tuning)与fine-tuning区别 是什么?
为什么需要 前缀微调(Prefix-tuning)?
为什么 需要 适配器微调(Adapter-tuning)?
微调方法是啥?如何微调?

六、大模型推理面试题

为什么大模型推理时显存涨的那么多还一直占着?
大模型在gpu和cpu上推理速度如何?
推理速度上,int8和fp16比起来怎么样?
大模型有推理能力吗?
大模型生成时的参数怎么设置?
有哪些省内存的大语言模型训练/微调/推理方法?
如何让大模型输出合规化
应用模式变更

如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等,

标签:tuning,一面面,AI,美团,微调,LangChain,哈哈,LLM,模型
From: https://blog.csdn.net/2401_85328934/article/details/143480006

相关文章

  • 记一次美团的测试开发面经(一面)
    hello大家好,第一次发布文章,记录了一次大厂的测试开发面试经历,请大家多多指教~1、自我介绍惯例开局一段自我介绍;介绍毕业学校、工作内容、做过的项目、技术栈等2、项目,技术栈怎么使用讲了自己的前后端技术栈,然后平台项目等3、流量回放平台怎么搭建首先需要一个任务管理系......
  • 美团面试:Mysql如何选择最优 执行计划,为什么?
    文章很长,且持续更新,建议收藏起来,慢慢读!疯狂创客圈总目录博客园版为您奉上珍贵的学习资源:免费赠送:《尼恩Java面试宝典》持续更新+史上最全+面试必备2000页+面试必备+大厂必备+涨薪必备免费赠送:《尼恩技术圣经+高并发系列PDF》,帮你实现技术自由,完成职业升级,薪......
  • 美团外卖代付搭建系统!分两种系统
    搭建微suqihangxiaoyuan卖代付、美团代付+京东代付+拼多多代付三合一代付系统搭建!系统带倒计时!代付系统三合一搭建,功能强大!系统自带倒计时手机端h5页面自助下单商品代付代付人头像信息展示,h5搭建更加耐用,长期使用抗feng!外卖小程序,有外卖好友代付功能,跟美团代付一模一样,如......
  • 美团商家端登录滑块 分析
    声明:本文章中所有内容仅供学习交流使用,不用于其他任何目的,抓包内容、敏感网址、数据接口等均已做脱敏处理,严禁用于商业用途和非法用途,否则由此产生的一切后果均与作者无关!有相关问题请第一时间头像私信联系我删除博客!前言美团这个版本变动有点太快了之前弄的时候好像1.60,......
  • 美团商家电话采集神器 批量导出美团商户联系方式软件
    文章分享作者:1143561141(v同q)使用Python编写美团商家电话采集神器,批量导出美团商户联系方式软件引言:美团商家电话采集神器是一款利用Python编写的脚本工具,旨在批量采集美团商家的联系方式,并将结果导出为Excel文件。本文将介绍如何使用Python编写此工具,并提供相应的代码示例。......
  • 哈哈哈!力扣80题击败100%
    实在没想到能击败100%,忍不住嘚瑟一下:这道题是leetcode第26题的姐妹篇,也是删除有序数组中的重复元素,但是重复元素需要保留两个。增加的这个小小要求可是不容易搞。按照第26题的思路,不外乎双指针,设置一个起始指针(简称后指针)作为参照元素的索引号,以另外一个指针(简称前指针)控制......
  • 【面试经验】美团搜索推荐算法工程师面经(已OC)
    一共只面了两轮,9.3一面,9.9二面,没有HR面,9.20OC一面/技术面2024/9/3晚上20:00-21:00自我介绍腾讯实习介绍实习过程中做的比较好的部分有哪些华为框架以及NPU使用过程中遇到的问题LongLoRA和LoRA区别大模型和推荐你觉得有哪些可结合的点?商品的理解、描述等介绍快手......
  • 【面试经验】美团 大模型算法工程师 一面面经
    预训练数据收集流程隐私过滤是怎么做的怎么用OCR算法解决读取pdf公式语料以及双栏pdf的问题预训练数据集构建中的亮点数据质量评估方式垂域评测集的构建方式微调评测集是怎么做的,全参微调还是lora,lora原理图文模型是怎么做的没有八股,coding是旋转图像和编辑距离二选......
  • 【面试经验】美团搜推算法日常(已oc)
    一面手撕重排链表,k个最小元素秒了,面试官后续引导我大根堆优化,没get到,说没关系前面的算我做出来了论文环节,问的不细,大体问了下思路SGD、AdaGrad、Adam的区别,各自适用场景用过什么损失函数实际用过什么attention:GAT,targetattention和selfattention结束后马上电话......