SOTA (State-of-the-Art)
在深度学习领域,SOTA指的是“当前最高技术水平”或“最佳实践”。它用来形容在特定任务或领域中性能最优的模型或方法。随着研究进展,SOTA会不断被新的研究成果所超越。
非端到端模型
非端到端模型指的是模型架构中包含多个分离的组件或步骤,每个部分可能独立训练或优化,最终通过组合这些部分的输出来得到最终结果。与端到端模型相比,非端到端模型的各部分可能需要更多的手工设计和调整。
端到端模型
端到端模型强调从输入到输出的直接映射,无需中间的人工设计特征或步骤。整个模型作为一个整体进行训练,使得模型能够自动学习到输入到输出的最佳转换,简化了模型结构,往往能更好地捕捉数据中的复杂关系。
迁移学习
迁移学习是指将一个任务上训练好的模型的知识应用到另一个相关但不同的任务上,以减少新任务所需的训练数据量和时间。这可以是通过微调预训练模型实现,或是直接利用模型的特征表示。
微调
微调是迁移学习的一种常用策略,指的是在预训练模型的基础上,针对特定下游任务进行进一步的训练,仅更新部分或全部层的权重,以适应新任务的特定需求。
监督学习
监督学习是一种机器学习方法,其中模型在带有标签的训练数据上进行学习。目标是学习一个映射函数,将输入数据映射到正确的输出标签。常见的监督学习任务包括分类和回归。
非监督学习
非监督学习是指在没有明确标签的输入数据上进行学习,目的是发现数据中的结构、模式或潜在特征。典型任务包括聚类和降维。
半监督学习
半监督学习结合了监督学习和非监督学习,使用既有标签又有未标签的数据进行训练。其目的是利用未标签数据增强模型的泛化能力,减少对昂贵的标注数据的依赖。
泛化(Generalization)
泛化能力是指模型在未见过的数据上的表现,即模型能否将学到的规律应用于新情况。良好的泛化是机器学习追求的目标,避免过拟合是提升泛化能力的关键。
正则化(Regularization)
正则化是防止模型过拟合的技术,通过向损失函数中添加惩罚项来限制模型复杂度。常见的正则化方法有L1正则化(促进稀疏解)和L2正则化(减小权重值)。
吞吐量
在深度学习中,吞吐量通常指的是模型每秒处理数据(如图像、文本)的能力,是衡量模型效率和系统性能的重要指标。
大模型
大模型指的是参数量巨大的深度学习模型,如数亿至数千亿参数。这些模型因其规模而具有强大的表达能力,能够学习到更复杂的特征和关系,但也需要大量数据和计算资源来训练。
指令微调、增量微调
指令微调:针对特定指令或任务的微调,使模型能更好地理解和执行特定类型的指令。
增量微调:在已有模型微调的基础上,对模型进行额外的小规模训练,以逐步改进特定方面的性能或适应新数据,而非完全重新微调。
175B、60B、540B
这些数字代表模型的参数量,单位是十亿(Billion)。例如,“175B”模型有1750亿个参数,表明模型规模巨大,通常与大模型的概念相关联。
强化学习
强化学习是一种学习框架,其中智能体通过与环境交互,根据执行动作获得的奖励来学习如何做出决策,目的是最大化长期奖励。
基于人工反馈的强化学习(RLHF)
基于人工反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)是一种强化学习方法,通过人类评估者的反馈来指导智能体学习,使智能体行为更加符合人类偏好。
涌现
在复杂系统和深度学习中,涌现是指系统级别的行为或属性,这些行为或属性不能直接从系统组成部分的性质推断得出,而是系统相互作用的结果。例如,在深度学习网络中,高级抽象特征的出现可以视为一种涌现现象。
思维链
思维链不是标准术语,但可以理解为在深度学习和人工智能中,一系列连续的思维或推理步骤,尤其是那些试图模拟人类思考过程的模型中,通过多阶段的决策和信息处理,形成一个逻辑上连贯的思维序列。
标签:学习,泛化,..,SOTA,模型,微调,RLHF,训练 From: https://www.cnblogs.com/farwish/p/18282406