首页 > 其他分享 >LangChain补充二:LCEL和Runnable更加方便的创建调用链

LangChain补充二:LCEL和Runnable更加方便的创建调用链

时间:2024-07-18 10:52:44浏览次数:7  
标签:value Runnable langchain runnable LangChain LCEL import class

https://www.alang.ai/langchain/101/lc05

一:LCEL入门

LangChain 的设计围绕着让 AI 应用开发者能够方便地将多个流程连缀成一个 AI 应用的业务逻辑,包括 Chain 与 Agent。每个流程都被封装成一个 runnablelangchain_core.runnables,包括提示语模板、模型调用、输出解析器、工具调用等。

(一)调用链流程

以下面例子为例: 应用逻辑有三个流程:promptchatmodeloutputparser。用|来将它们连接成一个调用链。| 的工作逻辑类似于 Linux 里的管道操作符前一流程的输出被作为下一流程的输入。然后,通过invoke调用chain得到结果
# 用 Pydantic 定义输出的 JSON 格式
from langchain_core.pydantic_v1 import BaseModel, Field
from langchain_core.output_parsers import JsonOutputParser
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate

# Define your desired data structure.
class Joke(BaseModel):
    setup: str = Field(description="question to set up a joke")
    punchline: str = Field(description="answer to resolve the joke")
    

chatmodel = ChatOpenAI()

joke_query = "Tell me a joke."

# Set up a parser + inject instructions into the prompt template.
parser = JsonOutputParser(pydantic_object=Joke)

prompt_template = ChatPromptTemplate.from_messages(
    [
      ("system", "Answer the user query.\n{format_instructions}"),
      ("user", "{query}")
    ])

chain = prompt_template | chatmodel | parser

chain.invoke(
    {"query": joke_query,
     "format_instructions": parser.get_format_instructions()
    })
整体调用链流程图如下:

1.prompt_template是一个提示语模板,它接受输入的参数,生成一个 ChatPromptValue

2.当 prompt_value 被作为 ChatModel 的输入时,它将被转换成一个 BaseMessage。然后模型做出预测,在 LangChain 中,它返回的是 AIMessage

3.模型的输出被作为输出解析器的输入,我们这里使用的是StrOutputParser,它将 AIMessage 解析为 string

(二)chain中各个流程被封装成runnable

1.prompt模板

class BasePromptTemplate(
    RunnableSerializable[Dict, PromptValue], Generic[FormatOutputType], ABC
)
/ \
 |
 |
 |
class BaseChatPromptTemplate(BasePromptTemplate, ABC)
/ \
 |
 |
 |
class ChatPromptTemplate(BaseChatPromptTemplate)

2.模型调用

class BaseLanguageModel(
    RunnableSerializable[LanguageModelInput, LanguageModelOutputVar], ABC
)
/ \
 |
 |
 |
class BaseChatModel(BaseLanguageModel[BaseMessage], ABC)
/ \
 |
 |
 |
class BaseChatOpenAI(BaseChatModel)
/ \
 |
 |
 |
class ChatOpenAI(BaseChatOpenAI)

3.输出解析器

class BaseOutputParser(
    BaseLLMOutputParser, RunnableSerializable[LanguageModelOutput, T]
)
/ \
 |
 |
 |
class BaseTransformOutputParser(BaseOutputParser[T])
/ \
 |
 |
 |
class BaseCumulativeTransformOutputParser(BaseTransformOutputParser[T])
/ \
 |
 |
 |
class JsonOutputParser(BaseCumulativeTransformOutputParser[Any])
其中RunnableSerializable是继承自Runnable:
class RunnableSerializable(Serializable, Runnable[Input, Output]):
所有的runnable类都可以用管道操作符连接起来

(三)runnable原理简析:无非就是重写了“|”方法

在init方法中将传递的列表划分为first、last和middle;在调用steps时,全部返回

重写“|”方法,将所有的流程放入steps中,执行invoke时,循环调用对应流程的invoke,将当前流程的输出作为下一个流程的输入

二:Runnable入门

从前面简析中,我们可以了解Runnable的大概流程。这里以__or__里面的coerce_to_runnable方法入手,看看它做了什么来引入runnable里面的其他部分:

1.RunnableLike是一个Union集合,可以是里面的所有类型:

Runnable、Callable(传参是[input]列表,输出是Output)、Mapping(Key是字符串,Val是any);其中Input、Output是任意类型

2.在coerce_to_runnable中判断了参数类型

  • 是Runnable直接返回;
  • 如果是异步生成器函数(定义为async def,函数中包含yield)调用RunnableGenerator;
  • 如果是其他的可回调函数,调用RunnableLambda将之转换为Runnable;
  • 如果是字典类型会调用RunnableParallel,并行运行字典里面的映射(执行value),返回输出的Runnable;注意:虽然RunnableLike表示map传递的value可以是any,但是在RunnableParallel里面还是限制了的,所以我们如果传递字典作为Runnable,那么value需要符合是Runnable、Callable、Map之一才行

(一)LCEL主要组成单元

1.RunnableSequence的概念

其实我们前面看重写_or_方法里面就是调用的RunnableSequence,顺序执行系列流程,前一个的输出作为下一个的输入。使用“|”运算符或通过构造将可运行项列表传递给RunnableSequence

2.RunnableParallel的使用

RunnableParallel并行执行系列流程,为每个流程提供相同的输入。可以通过构造或者使用字典的方式来进行实例化。RunnableParallel原语本质上是一个dict,value是runnables类型的(或可以转换为runnables,如函数-->RunnableLambda)。它并行运行所有的value,每个value都使用RunnableParallel的整体输入(前一个流程的输出)进行调用。最后的返回值是一个dict,每个value的结果都在其相应的key下。
from langchain_core.runnables import RunnableLambda

def add_one(x: int) -> int:
    return x + 1

def mul_two(x: int) -> int:
    return x * 2

def mul_three(x: int) -> int:
    return x * 3

runnable_1 = RunnableLambda(add_one)
runnable_2 = RunnableLambda(mul_two)
runnable_3 = RunnableLambda(mul_three)

sequence = runnable_1 | {  # this dict is coerced to a RunnableParallel
    "mul_two": runnable_2,
    "mul_three": runnable_3,
}
# Or equivalently:
# sequence = runnable_1 | RunnableParallel(
#     {"mul_two": runnable_2, "mul_three": runnable_3}
# )
# Also equivalently:
# sequence = runnable_1 | RunnableParallel(
#     mul_two=runnable_2,
#     mul_three=runnable_3,
# )

sequence.invoke(1)

(二)其他Runnable子类补充

1.RunnableLambda的使用

对比RunnableGenerator来看,RunnableLambda不适合支持流式的处理,下面使用一个将模型输入大小写翻转的例子:
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.messages import AIMessage

def parse(ai_message: AIMessage) -> str:
    """Parse the AI message."""
    return ai_message.content.swapcase()

chatmodel = ChatOpenAI()
chain = chatmodel | parse
res = chain.invoke("hello")
print(res)
我们既可以通过前面案例的RunnableLambda进行构造,也可以直接传递func来进行实例化

2.RunnableGenerator的使用(更适合流式的处理)

from typing import Iterable
from langchain_openai import ChatOpenAI
from langchain_core.runnables import RunnableGenerator
from langchain_core.messages import AIMessageChunk

def streaming_parse(chunks: Iterable[AIMessageChunk]) -> Iterable[str]:
    for chunk in chunks:
        yield chunk.content.swapcase()

streaming_parse = RunnableGenerator(streaming_parse)
chatmodel = ChatOpenAI()
chain = chatmodel | streaming_parse

for chunk in chain.stream("tell me about yourself in one sentence"):
    print(chunk, end="|", flush=True)
接收Chat model的输出AIMessageChunk迭代器,遍历对每次Chat model的流式返回进行处理,即streaming_parse方法是对每一块chunk进行处理,前面的RunnableLambdaparse方法是对LLM返回的完整数据进行处理。

3.RunnablePassthrough的使用

RunnablePassthrough通常和RunnableParallel一起使用(作为dict的value);RunnablePassthrough通常用于将输入数据不变的传递:
runnable = {"pass":RunnablePassthrough(),"modify":lambda x:x["num"]+1} | llm | outputParser
runnable.invoke({"num":1})
第一步就是RunnableParallel调用并行执行,对于"pass"其value就是输入,"modify"其value是修改后的,第一步结果是
{'passed': {'num': 1}, 'modified': 2}

补充1:RunnablePassthrough是传递了所有的invoke参数到RunnableParallel的每一个value中,通过python的itemgetter方法,单独获取某一个值即可实现传递单独参数到RunnableParallel的对应value中去

vectorstore = FAISS.from_texts(
    ["harrison worked at kensho"], embedding=OpenAIEmbeddings()
)
retriever = vectorstore.as_retriever()

template = """Answer the question based only on the following context:
{context}

Question: {question}

Answer in the following language: {language}
"""
prompt = ChatPromptTemplate.from_template(template)

chain = (
    {
        "context": itemgetter("question") | retriever, #通过question去检索最符合的片段
        "question": itemgetter("question"),
        "language": itemgetter("language"),
    }
    | prompt
    | model
    | StrOutputParser()
)

chain.invoke({"question": "where did harrison work", "language": "italian"})

补充2:RunnablePassthrough可以通过assign静态方法对输入的数据进行修改

runnable = RunnableParallel(
    extra=RunnablePassthrough.assign(mult=lambda x: x["num"] * 3),
    modified=lambda x: x["num"] + 1,
)

runnable.invoke({"num": 1})
相当于对extra的value-->{"num": 1},新增了一个key:mult,extra的value变为{"num": 1,"mult":3}

(三)用 Graph 形式查看 Chain

我们可以将 Chain 的调用过程打印出来查看。我们使用grandalf库完成这一任务,需先用如下命令安装 pip install grandalf
from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI, OpenAIEmbeddings

vectorstore = FAISS.from_texts(
    ["harrison worked at kensho"], embedding=OpenAIEmbeddings()
)
retriever = vectorstore.as_retriever()
template = """Answer the question based only on the following context:
{context}

Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
model = ChatOpenAI()

retrieval_chain = (
    {"context": retriever, "question": RunnablePassthrough()}
    | prompt
    | model
    | StrOutputParser()
)

retrieval_chain.invoke("where did harrison work?")

retrieval_chain.get_graph().print_ascii()

三:Runnable扩展

除了上面的子类之外,作为LCEL最重要的部分,还包括很多其他东西,陆续补充在这里

(一)RunnableWithMessageHistory的使用

RunnableWithMessageHistory包装另一个Runnable并为其管理聊天消息历史;它负责读取和更新聊天消息历史记录。

class Runnable(Generic[Input, Output], ABC)
/ \
 |
 |
 |
class RunnableSerializable(Serializable, Runnable[Input, Output])
/ \
 |
 |
 |
class RunnableBindingBase(RunnableSerializable[Input, Output])
/ \
 |
 |
 |
class RunnableWithMessageHistory(RunnableBindingBase)
具体来说,RunnableWithMessageHistory在将消息传递给Runnable之前加载会话中以前的消息,并在调用Runnable之后将生成的响应保存为消息。RunnableWithMessageHistory还通过用session_id保存每个会话来实现启用多个会话,因此它希望在调用Runnable时在配置中传递session_id,并使用它来查找相关的会话历史记录。 第五期 LangChain学习中有提及其使用方法,实践中主要如下:
from langchain_core.runnables.history import RunnableWithMessageHistory


with_message_history = RunnableWithMessageHistory(
    # 要管理上下文的runnable(chain/agent)
    runnable,  
    # 回调函数,传入session id,返回上文
    get_session_history,  
    # 其他的参数,包括I/O参数,历史上下文参数
    ...  
)

with_message_history.invoke(
    # I/O参数
    {"ability": "math", "input": "What does cosine mean?"},
    # 指定“session_id”的配置,它控制要加载的会话
    config={"configurable": {"session_id": "abc123"}},
)
因此我们只需要考虑两个方面:1.如何去加载、存储历史消息?2.被管理的Runnable是什么,输入/输出有限制吗?
  1. 如何去加载、存储历史消息?

构造RunnableWithMessageHistory时,需要传入get_session_history函数,函数接收session_id并返回BaseChatMessageHistory对象。 session_id:对话的标识符,通过不同的session_id我们可以同时维护多个不同的会话 BaseChatMessageHistory:是一个可以加载和保存消息对象的类,通过session_id找到该实例对象,然后调用方法进行会话信息的存储和加载。从第五期 LangChain学习可以看到常用的消息存储方式都是继承至BaseChatMessageHistory
class SQLChatMessageHistory(BaseChatMessageHistory)
class InMemoryChatMessageHistory(BaseChatMessageHistory, BaseModel)
要实现我们自定义的BaseChatMessageHistory,前文也有提及:
class InMemoryHistory(BaseChatMessageHistory, BaseModel):
    messages: List[BaseMessage] = Field(default_factory=list)

    def add_messages(self, messages: List[BaseMessage]) -> None:
        self.messages.extend(messages)
        print("-------------------")
        print(self.messages)
        print("-------------------")

    def clear(self) -> None:
        self.messages = []

#这里全局变量来存储聊天消息历史记录
store = {}
  1. 被管理的Runnable是什么,Runnable的输入/输出有限制吗(不要太在意)

RunnableWithMessageHistory只能包装某些类型的Runnables,这些Runnable一般为下面的类型 对于输入,需要是下面之一(方便存储):
  • 一系列的BaseMessages
  • 一个字典,其中一个key对应的value是一系列的BaseMessages
  • 一个字典,其中一个key对应的value是最新字符串消息/一系列的BaseMessages,另一个单独的key携带历史消息
就是有输入就行呗

标签:value,Runnable,langchain,runnable,LangChain,LCEL,import,class
From: https://www.cnblogs.com/ssyfj/p/18308244

相关文章

  • LangChain补充一:一些小且有用的点
    一:LangChain表达式语言LCEL(LangChainExpressionLanguage)chain:我们可以将包括大模型调用在内的一组操作组成“链条”,即所谓“调用链”(一)概念LangChain提供的LangChainExpressionLanguage(LCEL)让开发可以很方便地将多个组件连接成AI工作流(或者说是调用链)。如下是一......
  • LangChain补充五:Agent之LangGraph的使用
    一:LangGraph入门https://www.51cto.com/article/781996.htmlhttps://blog.csdn.net/weixin_41496173/article/details/139023846https://blog.csdn.net/wjjc1017/article/details/138518087https://langchain-ai.github.io/langgraph/https://langchain-ai.github.io/langg......
  • LangChain补充四:Agent知识点和案例补充
    https://www.alang.ai/langchain/101/lc07一:基本流程和概念(一)概念LangChainAgent的核心思想是,使用大语言模型选择一系列要执行的动作。在Chain中,一系列动作是硬编码在代码中的。在Agent中,大语言模型被用作推理引擎,以确定要采取的动作及其顺序。它包括3个组件:规划:将任......
  • LangChain让LLM带上记忆
    最近两年,我们见识了“百模大战”,领略到了大型语言模型(LLM)的风采,但它们也存在一个显著的缺陷:没有记忆。在对话中,无法记住上下文的LLM常常会让用户感到困扰。本文探讨如何利用LangChain,快速为LLM添加记忆能力,提升对话体验。LangChain是LLM应用开发领域的最大社区和......
  • 把LangChain跑起来的3个方法
    使用LangChain开发LLM应用时,需要机器进行GLM部署,好多同学第一步就被劝退了,那么如何绕过这个步骤先学习LLM模型的应用,对Langchain进行快速上手?本片讲解3个把LangChain跑起来的方法,如有错误欢迎纠正。Langchain官方文档地址:https://python.langchain.com/基......
  • LangChain 快速入门:构建你的第一个智能应用
    引言随着大型语言模型(LLM)的崛起,开发人员现在可以利用这些强大的工具来创建一系列创新的应用程序,从自动文档摘要到聊天机器人,再到智能客服系统。LangChain是一个开源框架,旨在简化与LLM的交互,帮助开发者轻松地构建和部署基于LLM的应用程序。本文将带你快速入门LangChain,通......
  • LangChain与RESTful API的交响曲:开发集成新篇章
    LangChain与RESTfulAPI的交响曲:开发集成新篇章在软件开发中,API(应用程序编程接口)是系统间交互的桥梁。RESTfulAPI作为API的一种风格,以其简洁、无状态和可缓存性而广受欢迎。LangChain作为一个多功能的语言处理工具链,其是否支持RESTfulAPI开发取决于其设计目标和集成的组......
  • 函数式编程的交响曲:探索LangChain对函数式编程特性的支持
    函数式编程的交响曲:探索LangChain对函数式编程特性的支持引言在现代软件开发中,函数式编程(FunctionalProgramming,FP)以其独特的优势,如无副作用、易于并行处理等,逐渐受到开发者的青睐。LangChain作为一个多语言编程工具链,其设计理念在于支持多种编程范式,包括函数式编程。......
  • 探索Web开发的无限可能:LangChain支持的Web框架全景
    探索Web开发的无限可能:LangChain支持的Web框架全景引言在现代Web开发中,选择合适的Web框架对于项目的成功至关重要。LangChain作为一个多语言编程工具链,提供了对多种编程语言的Web框架支持,使得开发者可以根据项目需求和技术栈偏好选择合适的框架。本文将详细介绍LangChain......
  • 释放LangChain潜能:精通性能优化的高级技巧
    释放LangChain潜能:精通性能优化的高级技巧引言LangChain作为一个多语言编程工具链,提供了强大的功能来简化开发流程和增强代码的执行效率。然而,随着项目规模的扩大和需求的增长,性能优化成为保持LangChain项目竞争力的关键。本文将深入探讨LangChain的性能优化技巧,包括代码......