首页 > 其他分享 >5分钟明白LangChain 的输出解析器和链

5分钟明白LangChain 的输出解析器和链

时间:2024-05-27 09:02:43浏览次数:14  
标签:解析器 输出 prompt invoke parser LangChain output instructions

本文介绍 LangChain 的输出解析器OutputParser的使用,和基于LangChain的LCEL构建

1. 输出解析器OutputParser

1.1、为什么需要OutputParser

常规的使用LangChain构建LLM应用的流程是:Prompt 输入、调用LLM 、LLM输出。有时候我们期望LLM给到的数据是格式化的数据,方便做后续的处理。

这时就需要在Prompt里设置好要求,然后LLM会在输出内容后,再将内容传给输出解析器,输出解析器会解析成我们预期的格式。

1.2、代码实践

调用系统自带的输出解析器

示例1:将调用 LLM 的结果,解析为逗号分隔的列表。比如询问某个城市有N个景点。

from langchain_openai import ChatOpenAI
from langchain.output_parsers import CommaSeparatedListOutputParser
from langchain.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "{parser_instructions}"),
    ("human", "列出{cityName}的{viewPointNum}个著名景点。")
])

output_parser = CommaSeparatedListOutputParser()
parser_instructions = output_parser.get_format_instructions()
# 查看解析器的指令内容
print(parser_instructions)

final_prompt = prompt.invoke({"cityName": "南京", "viewPointNum": 3, "parser_instructions": parser_instructions})

model = ChatOpenAI(model="gpt-3.5-turbo",
                   openai_api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
                   openai_api_base="https://api.aigc369.com/v1")
response = model.invoke(final_prompt)
print(response.content)

ret = output_parser.invoke(response)
print(ret)


自定义格式的输出解析器

除了使用自带的一些输出格式,还可以使用自定义的输出格式。使用步骤如下:

  • 定义数据结构类,继承pydanticBaseModel
  • 使用输出解析器PydanticOutputParser
  • 后续是常规操作:生成prompt、调用LLM执行、将输出按照Parser解析

示例2:比如给LLM一段书籍的介绍,让他按照指定的格式总结输出。

from typing import List

from langchain.output_parsers import PydanticOutputParser
from langchain.prompts import ChatPromptTemplate
from langchain.schema import HumanMessage
from langchain_core.pydantic_v1 import BaseModel, Field
from langchain_openai import ChatOpenAI


class BookInfo(BaseModel):
    book_name: str = Field(description="书籍的名字")
    author_name: str = Field(description="书籍的作者")
    genres: List[str] = Field(description="书籍的体裁")


output_parser = PydanticOutputParser(pydantic_object=BookInfo)
# 查看输出解析器的内容,会被输出成json格式
print(output_parser.get_format_instructions())

prompt = ChatPromptTemplate.from_messages([
    ("system", "{parser_instructions} 你输出的结果请使用中文。"),
    ("human", "请你帮我从书籍的概述中,提取书名、作者,以及书籍的体裁。书籍概述会被三个#符号包围。\n###{book_introduction}###")
])

book_introduction = """
《朝花夕拾》原名《旧事重提》,是现代文学家鲁迅的散文集,收录鲁迅于1926年创作的10篇回忆性散文, [1]1928年由北京未名社出版,现编入《鲁迅全集》第2卷。
此文集作为“回忆的记事”,多侧面地反映了作者鲁迅青少年时期的生活,形象地反映了他的性格和志趣的形成经过。前七篇反映他童年时代在绍兴的家庭和私塾中的生活情景,后三篇叙述他从家乡到南京,又到日本留学,然后回国教书的经历;揭露了半殖民地半封建社会种种丑恶的不合理现象,同时反映了有抱负的青年知识分子在旧中国茫茫黑夜中,不畏艰险,寻找光明的困难历程,以及抒发了作者对往日亲友、师长的怀念之情 [2]。
文集以记事为主,饱含着浓烈的抒情气息,往往又夹以议论,做到了抒情、叙事和议论融为一体,优美和谐,朴实感人。作品富有诗情画意,又不时穿插着幽默和讽喻;形象生动,格调明朗,有强烈的感染力。
"""

model = ChatOpenAI(model="gpt-3.5-turbo",
                   openai_api_key="sk-BuQK7SGbqCZP2i2z7fF267AeD0004eF095AbC78d2f79E019",
                   openai_api_base="https://api.aigc369.com/v1")
final_prompt = prompt.invoke({"book_introduction": book_introduction,
                              "parser_instructions": output_parser.get_format_instructions()})
response = model.invoke(final_prompt)
print(response.content)
result = output_parser.invoke(response)
print(result)

2. 利用LCEL构建链

2.1、LCEL是啥

LCEL是LangChain 表达式语言(LangChain Expression Language)的简称。使用LCEL可以快速将各种组合到一起,那又是啥呢?

在LangChain里只要实现了Runnable接口,并且有invoke方法,都可以成为。实现了Runnable接口的类,可以拿上一个链的输出作为自己的输入。

比如以上代码的ChatPromptTemplateChatOpenAIPydanticOutputParser等,都实现了Runnable接口,且都有invoke方法。

LCEL提供了多种方式将链组合起来,比如使用管道符 |,这种方式既方便书写,表达力也很强劲。

2.2、使用区别

不使用LCEL

不使用LCEL时,代码写起来是,各种invoke满天飞。比如这样:

final_prompt = prompt.invoke({"book_introduction": book_introduction,
                              "parser_instructions": output_parser.get_format_instructions()})
response = model.invoke(final_prompt)
result = output_parser.invoke(response)

使用LCEL

使用LCEL时,代码简洁,并且表达力强许多,比如这样:

chain = prompt | model | output_parser
ret = chain.invoke({"book_introduction": book_introduction,
                    "parser_instructions": output_parser.get_format_instructions()})

3、总结

本文主要聊了LangChain的输出解析器 和 使用LCEL构建链,希望对你有帮助!

======>>>>>> 关于我 <<<<<<======

本篇完结!欢迎点赞 关注 收藏!!!

原文链接:https://mp.weixin.qq.com/s/VapTZbsDDPzfu9eqMzeToQhttp://www.mangod.top/articles/2024/05/27/1716768844603.html

标签:解析器,输出,prompt,invoke,parser,LangChain,output,instructions
From: https://www.cnblogs.com/mangod/p/18214717

相关文章

  • clion中解决控制台输出中文时的乱码问题
    1.项目编码配置都建议设置为utf-8编码  2.按住Ctrl+Shift+Alt+/,选中Registry…,然后取消run.processes.with.pty  3.重新运行程序,乱码消除(不行的话,关闭clion,再打开试试) ......
  • AI菜鸟向前飞 — LangChain系列之十四 - Agent系列:从现象看机制(上篇)
    上一篇介绍了Agent与LangGraph的基础技能Tool的必知必会AI菜鸟向前飞—LangChain系列之十三-关于Tool的必知必会前面已经详细介绍了Prompt、RAG,终于来到Agent系列(别急后面还有LangGraph),大家可以先看下这张图:   看完我这系列就都懂了:)牛刀初试    由于本篇是入......
  • AI菜鸟向前飞 — LangChain系列之十二 - RAG(下篇):Index和Retriever
    AI菜鸟向前飞—LangChain系列之十-RAG(上篇)AI菜鸟向前飞—LangChain系列之十一-RAG(中篇)先分享个问题的解法#在使用Chroma实例化过程中,可能会出现如下报错AttributeError:typeobject'hnswlib.Index'hasnoattribute'file_handle_count'当使用代码遇到如上问......
  • 复习递归------拆开了输出整数
    问题1:题目概述    这次带来的例题是一道简单题,题目概述如下:     题目要求输入一个整数n,然后从高位到低位输出每位的数字,假设我输入123,则输出必须为123。就是那么简单(数字之间用空格分开)。问题2:思路     我们之前说过递归二要素是停止条件和规......
  • 大模型开发:第一批用 LangChain 的程序员,早就已经碾压同事了。。
    今年招聘市场确实是好点了,我发现群友都在讨论,得赶快学点AI大模型。他们有的是想正式转到一些新兴的AI行业,需要系统的学习训练。更多的是想跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。这也可以理解,ChatGPT推出仅一年半的时间,就将生成式AI推......
  • AP5127 DC-DC降压恒流IC 输入12-24 输出9V 2A LED车灯方案
    AP5127是一款PWM工作模式,高效率、外围简单、内置功率管,适用于12-100V输入的高精度降压LED恒流驱动芯片。输出功率可达25W,电流2.5A。AP5127可实现全亮/半亮功能切换,通过MODE切换:全亮/半亮/循环模式。AP5127工作频率固定在140KHZ,同时内置抖频电路,可以降低对其......
  • C语言---数组中逆序输出--新
    #include<stdio.h>intmain(){//下面的是输入intarr[10]={0};//创建一个大小为10的数组for(inti=0;i<10;i++){scanf("%d",&arr[i]);//循环输入i的值}//为什么是i从9开始,不是从0开始//因为总共10个数,所以最大数......
  • GCC词法语法分析——AST输出及图示
    gcc提供了-fdump-tree-original、-fdump-tree-all等选项,可以输出gcc处理源代码过程中的AST及GIMPLE中间表示信息。例如使用-fudmp-tree-original就可以输出GCC进行词法/语法解析后所生成的AST信息,然而该AST信息过于繁杂,不便于分析,本文通过在GCC源代码中增加一些调试语句,从而输......
  • QCC30xx如何实单声道MONO输出
    有客户提出需要将QCC30xx的输出改为单声道输出(我们的QCC30xx是双声道输出,如果采用单声道输出,我们需要进行混音操作)。客户采用目前最新的SDK上将INCLUDE_STEREO屏蔽掉,直接进行编译,会报一系列的问题,编译不过。 也有很多客户尝试在各个模式下强制将通道输出设置为mono模式......
  • 使用本地大语言模型和Langchain手搓免费的AI搜索问答助手
    1概述大语言模型虽然已经有了很多的背景知识,但针对模型训练之后新产生的内容,或者领域内的知识进行提问,大模型本身通常无法准确给出回应,一个常用的解决方法是,借助检索增强生成(RAG),将能够用于回答问题的相关上下文给到大模型,利用大模型强大的理解和生成能力,来缓解这个问题。本文主......