首页 > 其他分享 >一文彻底搞懂大模型 - LLM四阶段技术

一文彻底搞懂大模型 - LLM四阶段技术

时间:2024-09-01 16:24:56浏览次数:7  
标签:Prompt 一文 训练 AI 模型 Agent LLM 搞懂

最近这一两周看到不少互联网公司都已经开始秋招提前批了。

不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。

最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。

喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们

技术交流

在这里插入图片描述

在探讨大模型(LLM)的四阶段技术时,我们可以从Prompt Engineering(提示工程)、AI Agent(人工智能代理)、Fine-tuning(微调)以及Pre-training(预训练)这四个关键阶段来详细阐述,这四个阶段技术层层递进。

图片

LLM四阶段技术

阶段一:Prompt Engineering

什么是Prompt Engineering?Prompt Engineering,即提示工程,是指设计和优化输入给大型语言模型(LLM)的文本提示(Prompt)的过程。这些提示旨在引导LLM生成符合期望的、高质量的输出。

图片

Prompt Engineering的核心要素在于通过明确的指示、相关的上下文、具体的例子以及准确的输入来精心设计提示,从而引导大语言模型生成符合预期的高质量输出。

图片

Prompt Engineering

为什么需要Prompt Engineering?通过不断优化prompt,我们可以建立更加清晰、有效的沟通渠道,充分发挥LLM在语言理解和生成方面的优势。

提升沟通技巧,挖掘LLM潜力。大语言模型(LLM)本身已具备极高的性能与复杂性,但还有很大潜力需要挖掘。Prompt如同钥匙一般,能够精确引导模型生成特定需求的输出。

图片

Prompt Engineering

阶段二:AI Agent

什么是AI Agent?大模型Agent是一种构建于大型语言模型(LLM)之上的智能体,它具备环境感知能力、自主理解、决策制定及执行行动的能力。

图片

AI Agent

Agent是能够模拟独立思考过程,灵活调用各类工具,逐步达成预设目标。在技术架构上,Agent从面向过程的架构转变为面向目标的架构,旨在通过感知、思考与行动的紧密结合,完成复杂任务。

图片

AI Agent

Agent关键技术-LLM:在Agent技术中,大语言模型(LLM)作为核心计算引擎,不仅限于文本生成,还能够进行对话、完成任务、推理,并展示一定程度的自主行为。

图片

Agent关键技术-Function Calling:Function Calling在智能助手和自动化流程中的应用场景中,LLM通过调用外部API或预设函数来集成多样化服务与复杂操作,以满足用户请求并自动化执行流程。

图片

Function Calling

  • 在构建智能助手时,LLM可能需要根据用户的请求调用外部服务(如天气查询API、数据库查询等),并将结果整合到其响应中。

  • 在自动化流程中,LLM可以通过调用预设的函数来执行一系列复杂的操作,如数据处理、文件生成等。

图片

Function Calling

Agent关键技术-RAG:通过引入RAG,LLM Agent能够在需要时查询外部知识库,如专业数据库、学术论文、行业报告等,从而增强其知识广度和深度。

图片

RAG

为什么需要AI Agent?AI Agent作为LLM能力的整合者与定制化服务提供者,通过NLP和HCI技术增强交互体验,使用户能够轻松享受LLM带来的智能服务。

  1. 整合LLM能力:AI Agent作为平台,能够无缝整合LLM的文本生成、理解、推理等能力。通过Agent,用户可以直接与LLM进行交互,而无需深入了解LLM的复杂性和技术细节。

  2. 定制化服务:AI Agent可以根据不同用户的需求和场景,定制化地利用LLM的能力。例如,在客户服务领域,Agent可以根据用户的查询和问题,利用LLM生成准确的回答和解决方案;在个性化推荐系统中,Agent可以分析用户的偏好和行为,利用LLM生成定制化的推荐内容。

  3. 增强交互体验:AI Agent通过自然语言处理(NLP)和人机交互(HCI)技术,能够提供更自然、流畅的交互体验。用户可以通过自然语言与Agent进行对话,而Agent则能够理解和回应用户的意图和需求,从而增强用户的满意度和忠诚度。

图片

AI Agent

阶段三:Fine-tuning

什么是Fine-tuning?Fine-Tuning是指使用特定领域的数据集对预训练的大型语言模型进行进一步训练的过程。通过微调,模型可以学习到特定领域的知识和模式,从而在相关任务上表现更好。

在预训练模型的基础上,针对特定任务或数据领域,通过在新任务的小规模标注数据集上进一步训练和调整模型的部分或全部参数,使模型能够更好地适应新任务,提高在新任务上的性能。

图片

为什么需要Fine-tuning?尽管预训练模型已经在大规模数据集上学到了丰富的通用特征和先验知识,但这些特征和知识可能并不完全适用于特定的目标任务。

图片

微调通过在新任务的少量标注数据上进一步训练预训练模型,使模型能够学习到与目标任务相关的特定特征和规律,从而更好地适应新任务。

图片

阶段四:Pre-training

什么是Pre-training?预训练是语言模型学习的初始阶段。在预训练期间,模型会接触大量未标记的文本数据,例如书籍、文章和网站。目标是捕获文本语料库中存在的底层模式、结构和语义知识。

图片

预训练利用大量无标签或弱标签的数据,通过某种算法模型进行训练,得到一个初步具备通用知识或能力的模型。

  1. 无监督学习:预训练通常是一个无监督学习过程,模型在没有明确指导或标签的情况下从未标记的文本数据中学习。

  2. 屏蔽语言建模:模型经过训练可以预测句子中缺失或屏蔽的单词、学习上下文关系并捕获语言模式。

  3. Transformer 架构:预训练通常采用基于 Transformer 的架构,该架构擅长捕获远程依赖关系和上下文信息。

图片

Pre-training

为什么需要Pre-training :预训练是为了让模型在见到特定任务数据之前,先通过学习大量通用数据来捕获广泛有用的特征,从而提升模型在目标任务上的表现和泛化能力。

图片

Pre-training

预训练技术通过从大规模未标记数据中学习通用特征和先验知识,减少对标记数据的依赖,加速并优化在有限数据集上的模型训练。

图片

标签:Prompt,一文,训练,AI,模型,Agent,LLM,搞懂
From: https://blog.csdn.net/2401_84033492/article/details/141785471

相关文章

  • PoLLMgraph: Unraveling Hallucinations in Large Language Models via State Transit
    本文是LLM系列文章,针对《PoLLMgraph:UnravelingHallucinationsinLargeLanguageModelsviaStateTransitionDynamics》的翻译。PoLLMgraph:通过状态转换动力学揭示大型语言模型中的幻觉摘要1引言2相关工作3PoLLMgraph4实验5结论局限性摘要尽管近......
  • 可重复读隔离级别真的完全解决不可重复读问题了吗?读已提交隔离级别能避免不可重复读问
    一文带你搞懂MySQL事务的各个疑惑,不要再在脑子里一团浆糊啦!!事务的四大特性MySQL的三种日志事务的原子性是如何保证的?事务的隔离性是如何保证的?事务的持久性是如何保证的?数据库事务的隔离级别各隔离级别都各自解决了什么并发问题?什么是MVCC?读已提交和可重复读隔离级别实......
  • 面试SQL题的水到底有多深?一文带你揭晓
    不谋万世者,不足谋一时;不谋全局者,不足谋一域目录0面试现状1面试SQL题目的难度及特点1.1题目场景化1.2题目算法化1.3方法多元化2破局之道3总结数字化建设通关指南主要内容:(1)SQL进阶实战技巧(2)数仓建模实战技巧和个人心得0面试现状  最近有不少参加面......
  • SimpleTranslationAIAgent:基于C#与LLM的翻译AI Agent
    基于C#与LLM通过简单对话即可实现文件到文件的翻译任务该软件是MIT协议完全开源免费的,但是调用LLM的API可能需要费用,但是没关系,赛博菩萨硅基流动与智谱AI等都有免费的模型可调了。这个TranslationAIAgent只是一个简单的AIAgent示例应用,可能很多人都不需要它。开源出来主要是......
  • [Python办公]一文入门图论Graphs,轻松处理最短路径等问题!
            [Python办公]一文入门图论Graphs,轻松处理最短路径等问题!        图论是研究图这种数学结构的性质和应用的学科。图(Graphs)由节点(或顶点)和连接这些节点的边组成,它是一种强大的数据结构,广泛应用于各种领域。以下举例用最短距离来入门图论。入门问题: ......
  • ScaleLLM: 高性能推理系统助力大型语言模型部署
    ScaleLLM:革新大型语言模型推理的新利器在人工智能快速发展的今天,大型语言模型(LLMs)已成为推动技术进步的重要力量。然而,这些庞大的模型在实际部署中常常面临效率和资源消耗的挑战。为了解决这一难题,ScaleLLM应运而生,为LLM推理带来了全新的可能性。什么是ScaleLLM?Scale......
  • 一文说透 String 的 HashCode
    首先需要明确版本,不同版本的实现是不同的。JDK1.8以前底层的实现是char[]。publicinthashCode(){inth=hash;if(h==0&&value.length>0){charval[]=value;for(inti=0;i<value.length;i++){h=31*......
  • RouteLLM:通过智能查询路由优化 AI 响应
    在当今人工智能驱动的世界中,优化人工智能的使用至关重要。不同的AI系统在能力和成本上各不相同,因此需要智能管理解决方案。RouteLLM是一个创新的框架,旨在动态地将用户查询路由到最合适的AI模型,确保成本效益和高质量的响应。什么是RouteLLM?RouteLLM作为AI查询的流量......
  • 一文读懂:使用混合精度(Mixed-Precision)技术加速LLM
    训练和推理使用那些大型语言模型,真是挺烧钱的,主要是因为它们太能吃计算资源和内存了。不过啊,我最近发现,用点儿小技巧,就是低精度格式,咱们可以大幅提升训练和推理的速度,快到三倍呢,而且一点儿都不影响模型的准确度。咱们主要聊的虽然是大型语言模型,但这些技巧其实挺万能的,用在......
  • LLM论文研读: MindSearch
    1. 背景近日中科大与上海人工智能实验室联合推出的MindSearch思索,引起了不小的关注,github上的星标,短短几周时间,已经飙到了4.2K。看来确实有些内容,因此本qiang~研读了论文及代码,针对其中的原理与创新思想进行了熟悉与了解。2. 简介2.1 技术团队中科大以及上海人工智能实验室......