首页 > 其他分享 >AI大语言模型LLM学习-Token及流式响应

AI大语言模型LLM学习-Token及流式响应

时间:2024-09-06 22:50:00浏览次数:6  
标签:输出 LLM AI token 流式 Token langchain llm

token是什么?


比较官方的token解释:

Token是对输入文本进行分割和编码时的最小单位。它可以是单词、子词、字符或其他形式的文本片段。

  • token 是自然语言处理的最细粒度。简单点说就是,LLM的输入是一个个的 token,输出也是一个个的 token。
  • token 是由LLM处理的基本数据单元。在文本的背景下,一个token 可以是一个单词、单词的一部分(子词)或甚至是一个字符,这取决于token 化过程。

LLM的流式输出

单个LLM调用的运行时间通常比传统资源请求运行得更长,当构建需要多个推理步骤的复杂的链式或代理时,这种情况会更加复杂为了解决这个问题,我们可以采用流式输出,输出一旦生成,就可以立即显示。

  • 所谓的流式输出,就是类似打字机式的方式,一个字或一个词的输出,给用户一种答案逐渐出现的动画效果。市面上的LLM模型案例基本上都是以流式输出的方式展示给用户的。
  • 本文只介绍流式输出的概念,之后的文章会分别介绍流式WebAPI的搭建,基于VUE3前端技术构建问答页面。

实践


如果没有看过上一篇文章,可以前去了解下:
AI大语言模型LLM学习-入门篇

  • 依赖安装
pip install langchain
  • 代码
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
api_key = "api_key(平台注册获得)"

model = "qwen2-72b-instruct"

llm = ChatOpenAI(
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    api_key=api_key,
    model=model,
    streaming=True,
)
prompt_template = ChatPromptTemplate.from_messages([
    ("system", "你是一个很出色的历史老师,给我讲讲历史人物的故事吧。"),
    ("user", "{input}")
])

#使用|操作符将prompt_template和llm连接在一起,创建一个chain对象。
chain =prompt_template | llm

while True:
    question = input("\n请输入你需要了解的历史人物,按q退出:")
    if question == "q":
        break
    else:
        # 使用流式输出
        for token in chain.stream({"input": question}):
            print(token.content, end="")
  • 运行效果:
    在这里插入图片描述

在langchain中查看StreamingStdOutCallbackHandler的源码,可以找到几个核心的方法:
on_llm_start(self, serialized: Dict[str, Any], prompts: List[str], **kwargs: Any)
on_llm_new_token(self, token: str, **kwargs: Any)
on_llm_end(self, response: LLMResult, **kwargs: Any)

在这里插入图片描述
根据on_llm_new_token这个方法名,大家就会明白为啥市面上的问答型AI都是以打字机式的方式进行输出,第一次遇到这种打字机模式,我在心里暗骂那帮前端程序员:会做几个特效就NB了,现在在此向这帮前端程序员表达我深深的歉意。

标签:输出,LLM,AI,token,流式,Token,langchain,llm
From: https://blog.csdn.net/fengqiuhuang123/article/details/141949949

相关文章

  • 常见的raid有哪些,使用场景是什么
    RAID(冗余独立磁盘阵列)是一种将多个物理硬盘组合成一个逻辑单元的技术,以提高数据的可靠性、性能或两者兼而有之。以下是一些常见的RAID级别及其使用场景:1.RAID0特点:数据条带化,没有冗余。所有数据均分散在多个硬盘上。提供最高的读写性能。使用场景:适用于对性能......
  • 带你1分钟玩转AI大模型微调推理,更有限时福利等你领
    本文分享自华为云开发者联盟微信公众号《如何1分钟玩转AI大模型微调推理?(文末有福利)》想要低成本用好大模型,必然离不开对它的微调(FineTuning)。那么,为什么大模型需要微调呢?举个例子:一个通用大模型涵盖了许多语言信息,我们和它可以进行流畅的对话。但是如果想要它正确回答“布......
  • jsp仓储管理系统9e8ai 本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上
    jsp仓储管理系统9e8ai本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表项目功能客户,库存人员,入库人员,出库人员,商品类别,商品信息,仓区信息,商品入库,商品出库开题报告内容一、项目背景与意义随着电子商......
  • RAG与LLM原理及实践(14)---RAG Python 前端构建技术Flask
    目录背景Flask简介     Flask的特点flask安装Flaskpythonserver端处理app资源映射router概念Flask客户端处理Jinja2 概述具体语法实例python后端 代码前端相关代码代码解释运行check启动日志背景本专栏之前的文章都在描述RAG后台的......
  • AI产品经理:掌握核心技能:成为AI产品经理的完全指南(附赠福利)
    1.AI产品经理是什么回答这个问题前我们首先得理清楚什么是AI产品经理,它和传统的互联网产品经理有什么区别。1.1AI产品经理职责主要职责一方面是规划如何将成熟的AI技术应用在各个领域不同场景中,提升原有场景的效率或效果等;另一方面是基于业务方的需求如何用现有的AI技......
  • 如何成为AI产品经理?AI产品经理成长秘籍:关键技能与职业发展路径全解析
    点点说在前面:本篇文章由KingJames来分享关于AI产品经理的必备技能和成长策略。KingJames之前做过AI咨询,对接公司内部AI产品经理,外部对接过很多甲方AI产品经理,也曾手持多家公司AI产品经理的offer。快读完这则诚意满满的大佬干货帖吧!—1—AI产品经理是什么回答这个问......
  • AI产品经理:零经验转行AI产品经理:从入门到精通的全面指南
    本篇文章来自于一个YouTube视频的内容,对于如何成为AI产品是一个很好的入门贴,这篇文章也是通过AI协助编辑过来的。通过这次编辑,也初步尝试了各大Chatbot的能力,总体体验,拥有长上下文能力的kimibot的体验最好,能将4000+字的英文完整翻译并进行初步的排版。但是通过这个......
  • LLM大模型:从新手到专家:AI大模型学习与实践完全指南
    一、初聊大模型1、什么是大模型?大模型,通常指的是在人工智能领域中的大型预训练模型。你可以把它们想象成非常聪明的大脑,这些大脑通过阅读大量的文本、图片、声音等信息,学习到了世界的知识。这些大脑(模型)非常大,有的甚至有几千亿个参数,这些参数就像是大脑中的神经元,它们通过......
  • 使用centos7搭建RAID磁盘阵列,RAID0,RAID1,RAID5,ARID10,讲述RAID0、1、5、10的原理。
    1.RAID概念磁盘阵列(RedundantArraysofIndependentDisks,RAID),有“独立磁盘构成的具有冗余能力的阵列”之意。磁盘阵列是由很多价格较便宜的磁盘,以硬件(RAID卡)或软件(MDADM)形式组合成一个容量巨大的磁盘组,利用多个磁盘组合在一起,提升整个磁盘系统效能。利用这项技术,将数据切割......
  • 【待做】【Linux系列】使用fail2ban配置动态防火墙
    一、安装二、测试三、基本配置四、相关命令原创戒一双LINUX开源玩家前面说的防火墙基本是静态的情况,在实际运行中我们可能需要动态调整防火墙策略,此时可以考虑使用Fail2ban。Fail2ban可以通过创建规则,自动更改防火墙配置,在尝试登录失败达到一定次数后禁止特定IP,......