首页 > 其他分享 >年底多跑一些大模型面试,你就会发现…

年底多跑一些大模型面试,你就会发现…

时间:2024-12-28 11:26:35浏览次数:3  
标签:微调 AI 模型 年底 学习 面试 3.3 LLM

在这里插入图片描述

面试题大全超详细解析大模型(LLMS)

(背完这些题,offer直接拿到手软)
大模型(LLMS)进阶面

一、什么是生成式大模型?
二、大模型是怎么让生成的文本丰富而不单调的呢?
三、LLMS 复读机问题
3.1 什么是 LLMs 复读机问题?
·3.2 为什么会出现 LLMs 复读机问题?
3.3 如何缓解 LLMS 复读机问题?
3.3.1 Unlikelihood Training
3.3.椾呇般 引入噪声
3.3.3 Repetition Penalty
·3.3.4 Contrastive Search
3.3.5 Beam Search
·3.3.6 TopK sampling
3.3.7 Nucleus sampler
3.3.8 Temperature+
3.3.9 No repeat ngram size
3.3.10 重复率指标检测
3.3.11 后处理和过滤
3.3.12 人工干预和控制
·四、llama 系列问题
4.1 llama 输入句子长度理论上可以无限长吗?
五、什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
六、各个专业领域是否需要各自的大模型来服务?
七、如何让大模型处理更长的文本?

大模型(LLMS):微调面

1.如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
2.为什么SFT之后感觉LLM傻了?

  1. SFT 指令微调数据 如何构建?
    4.领域模型Continue PreTrain 数据选取?
    5.领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
    6.领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
    7.进行SFT操作的时候,基座模型选用Chat还是Base?
    8.领域模型微调 指令&数据输入格式 要求?
    9.领域模型微调 领域评集 构建?
    10.领域模型词表扩增是不是有必要的?
    11.如何训练自己的大模型?
    12.训练中文大模型有啥经验?
    13.指令微调的好处?
    14.预训练和微调哪个阶段注入知识的?
    15.想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
    16.多轮对话任务如何微调模型?
    17.微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
    18.微调模型需要多大显存?
    19.大模型LLM进行SFT操作的时候在学习什么?
    20.预训练和SFT操作有什么不同
    21.样本量规模增大,训练出现00M错
    22.大模型LLM进行SFT 如何对样本进行优化?
    23.模型参数迭代实验
    24.微调大模型的一些建议
    25.微调大模型时,如果 batch size 设置太小 会出现什么问题?
    26.微调大模型时,如果 batch size 设置太大 会出现什么问题?
    27.微调大模型时,batch size 如何设置问题?
    28.微调大模型时,优化器如何?
    29.哪些因素会影响内存使用?
    30.进行领域大模型预训练应用哪些数据集比较好?

标签:微调,AI,模型,年底,学习,面试,3.3,LLM
From: https://blog.csdn.net/2401_85328934/article/details/144785695

相关文章

  • 2024,AI大模型的那些高光时刻~
    英伟达具身智能负责人JimFan大佬发起2024年TopAIMoments征集,说说你心目中的高光时刻~有网友分享了自己的心中AI高光时刻:第一篇论文被@IJCAIconf接受(AutoAgents:arXiv:2309.17288)Karpathy的“让我们复现GPT-2(124M)”-训练了我的第一个GPT级别的模型。karpathy......
  • 2025年NLP神器 - Hugging Face - 预训练模型微调demo
    第一个完整的使用HuggingFaceTransformers对预训练模型进行微调的demoiscoming!整体步骤为:加载数据集loaddatasetfromdatasetsimportload_datasetraw_datasets=load_dataset("glue","mrpc")对数据集做分词tokenizefromtransformersimportAutoModelForSequ......
  • 【大模型入门必看】揭露大模型本质的12本书:读完让你惊叹不已!
    敢不敢用一年时间读完这12本书,模型入门必看的12本书!建议收藏!!第一本:《基于GPT-3,ChatGPT,GPT-4等Transformer架构的自然语言处理》主要内容了解用于解决复杂语言问题的新技术。将GPT-3与T5、GPT-2和基于BERT的Transformer的结果进行对比使用TensorFlow、PyTorch和GPT-3......
  • 《大语言模型》:人工智能时代的知识盛宴,大模型中文书籍震撼发售!
    你是否读过大语言模型综述文章_ASurveyofLargeLanguageModels_?这是学术界首篇系统介绍大语言模型技术的综述性文章,成为了很多人入门大模型的必读论文,目前引用次数已经突破3700次,获得了学术界的广泛关注。其中绘制的模型演进图、技术统计表被广泛传播、使用。为了进一......
  • 创建用于预测序列的人工智能模型,用Keras Tuner探索模型的超参数。
    上一篇:《创建用于预测序列的人工智能模型(五),调整模型的超参数》序言:在完成初步的模型研发后,接下来的重点是探索和优化超参数。通过合理调整超参数(如学习率、动量参数、神经元数量等),可以进一步提高模型的性能和准确性。这一过程需要结合工具(如KerasTuner)进行自动化测试和优化,从......
  • 模型 易得性偏差(关键决策)
    系列文章分享 模型,了解更多......
  • Java面试题2025
    目录第一章面试技巧篇1、面试过程最关键的是什么?2、面试时该怎么说?1)语言表达清楚2)所述内容不犯错3、面试技巧3.1?常见问题3.2?两个注意事项3.3?自我介绍第二章数据结构、设计模式与手写代码(北京)1、怎么理解时间复杂度和空间复杂度?2、数组和链表结构简单对比?3......
  • 【2024最新Java面试宝典】—— SpringBoot面试题(44道含答案)_java spingboot 面试题
    1.什么是SpringBoot?SpringBoot是Spring开源组织下的子项目,是Spring组件一站式解决方案,主要是简化了使用Spring的难度,简省了繁重的配置,提供了各种启动器,使开发者能快速上手。2.为什么要用SpringBoot快速开发,快速整合,配置简化、内嵌服务容器3.SpringBoot与Sp......
  • java面试题-集合篇
    Collection1.Collection有哪些类?Java集合框架中的Collection接口是所有集合类的基础接口,定义了一些基本的集合操作,如添加元素、删除元素、判断是否包含某个元素等。常见的集合类包括List、Set和Queue。ListList接口定义了按照索引访问和操作元素的方法。它允许元素重复,......
  • 基于BiLSTM和随机森林回归模型的序列数据预测
    本文以新冠疫情相关数据集为案例,进行新冠数量预测。(源码请留言或评论)首先介绍相关理论概念:序列数据特点序列数据是人工智能和机器学习领域的重要研究对象,在多个应用领域展现出独特的特征。这种数据类型的核心特点是元素之间的顺序至关重要,反映了数据内在的时间或空间关联......