首页 > 其他分享 >LLM分类模式驱动一

LLM分类模式驱动一

时间:2024-08-11 23:23:23浏览次数:11  
标签:parser prompt 分类 模式 OpenAI LLM 驱动 model LM

  今天给大家带来的文章是LLM分类模式驱动,希望能对学习LLM的同学们有所帮助。

文章目录

1. 前言

  随着这两年大语言模型的应用,各种语言模型已经在很多领域带来了许多颠覆性的成果,但是在融入各种程序环境时,大语言模型也遇到了一些阻碍。为了解决这些问题,行业内陆续出现了十几种不同的流行框架,通过各种不同的抽象交互方式来和语言模型进行交互。为了给大家提供一个清晰的框架图谱,大佬们提出了一个分类模型,从执行功能角度,确定出五种语言模型的抽象家族。今天我们着重看一下其中的模式驱动生成。详细内容可参考论文《A Guide to Large Language Model Abstractions》)。

2. 模式驱动生成

  对于受控生成的一种更精细的抽象是基于模式驱动的生成(Schema-Driven Generation)。在这种方法中,语言模型(LM)和其所属的编程接口之间的边界受到预定义的模式或对象规范语言(通常为JSON)的约束。这与GuidanceLMQL不同,后者需要用户指定JSON的结构框架及其内部内容的限制才能生成JSON输出。与受控生成相比,基于模式的方法更容易与现有的编程逻辑集成。然而,对生成内容类型的控制粒度可能更有限。这些库被放置在Prompt Constraint Layer中,因为符合模式是限制LM输出的一种方式。

  在Outlines的其他库中,如MarvinInstructor,以及最近的LangChainLlamaindex中,这一步骤进一步抽象化。用户可以使用数据验证库Pydantic来指定数据结构作为特定LM的输出模式(模型级抽象)。在内部,这些库通过预定义的提示(Prebuilt Prompts)将模式编码为自然语言指令,要求LM以正确的可解析格式输出。然而,对于MarvinInstructor,它们还提供了利用底层LLM供应商提供的更高级功能的支持(例如OpenAI的函数调用功能,以强制可解析性)。这些库预计还将采用OpenAI的新JSON模式,以减少输出不可解析的可能性。

  • 实例代码一如下所示:
import instructor
from openai import OpenAI
from pydantic import BaseModel

# This enables response_model keyword
# from client.chat.completions.create
client = instructor.patch(OpenAI())

class UserDetail(BaseModel):
   name: str
   age: int

user = client.chat.completions.create(model="gpt-3.5-turbo", response_model=
   UserDetail,messages=[{"role": "user", "content": "Extract Jason is 25 years old"}]
)

assert isinstance(user, UserDetail)
assert user.name == "Jason"
assert user.age == 25

  例如,Instructor提供了OpenAI API的替代客户端,可以接受使用Pydantic指定的响应模型(示例2所示)。在其实现中,它支持三种查询LM的模式,即json、函数调用和工具使用,每种模式对应于OpenAI支持的等效API。为了引导LM进行解析过程,Instructor内部有一些提示来指导LM的模式和输出格式。

  在LangChain中,当偶尔发生验证错误时,支持更复杂的重试解析器,但输出不是通过OpenAI的函数调用API进行提示,而是更多地通过自然语言指令进行提示。

  • 实例代码二如下所示:
llm = OpenAI(temperature =0)
class Action(BaseModel):     
   action: str = Field(description="action to take")     
   action_input: str = Field(description="input to the action")   
parser = PydanticOutputParser(pydantic_object=Action)

# the parser provides natural language formatting instruction for use in LLM. 
# The process is centered around prompts.

prompt = PromptTemplate(template="Answer the user query.      
     \n{format_instructions}\n{query}\n", 
     input_variables=["query"],
     partial_variables={"format_instructions": parser.get_format_instructions()}
)
prompt_value = prompt.format_prompt(query="who is leo di caprios gf?")
model_response = model(prompt_value.to_string())

# the parsing aspect and the querying aspect is detached in LangChain
parsed_model = parser.parse(model_response)

# if the parsing process results in an exception, users could use the retry parser that internally appends the parsing error and prompts the LM to retry it again
retry_parser = RetryWithErrorOutputParser.from_llm(parser=parser, llm=llm)
retry_parser.parse_with_prompt(model_response, prompt_value)

  实例代码二详细地介绍了LangChain的解析和重试机制。这个例子突出展示了LangChain在字符串和提示操作方面的重点关注,并展现了他们提供的一些实用且灵活的工具。

  除了输出数据模式之外,一些库还在LLM交互的上下文中添加了对功能模式(Function Level Abstraction)的支持,它们允许程序员使用自然语言来标注函数的架构签名,从而表达函数的核心目的。这个想法最早出现在2023年初的DSP项目中,它是DSPy框架的前身。在DSP中,用户可以指定函数的输入和输出类型(例如:“Question, Thoughts -> Answer”),这包括了对参数的人类易懂的描述和相关前缀。输入和输出类型的集合形成了一个DSP模板,可以用来生成一个可调用的 Python 函数。Marvin最近通过其“AI Function”进一步简化了这种模式,程序员可以注明输入输出类型及函数说明,这些信息将用于根据运行时的输入生成提示,并从大语言模型中提取答案。

  • 实例代码三如下所示:
@ai_fn
def generate_recipe(ingredients: list[str]) -> list[str]:
    """From a list of `ingredients`, generates a
    complete instruction set to cook a recipe.
    """

generate_recipe(["lemon", "chicken", "olives", "coucous"])
generate_recipe.prompt(
    "I need a recipe using Lemon Chicken Olives and Coucous"
)

  实例代码三描述了Marvin的AI函数。在这个例子中,被标注的函数会在运行时被捕获,其 Python 类型签名、描述和输入都会被送入大语言模型来提取输出。类型提示在这里起到确保类型安全的校验作用。这种方法还允许以自然语言的方式调用函数。

  在DSPy中,开发人员可以类似地指定自然语言签名,以声明方式定义LLM需要解决的某个(子)任务,该任务由整体任务的简要描述以及输入和输出字段的描述引出。

  • 实例代码四如下所示:
class BasicQA(dspy.Signature):
    """Answer questions with short factoid answers."""
    question = dspy.InputField()
    answer = dspy.OutputField(desc="often between 1 and 5 words")

# Define the predictor.
generate_answer = dspy.Predict(BasicQA)

# Call the predictor on a particular input.
pred = generate_answer(question=dev_example.question)

# Or use the Short Hand 
qa = dspy.Predict("question -> answer")
qa(question="Where is Guaraní spoken?")

  实例代码四展示了DSPy如何利用自然语言签名来创建遵循特定签名的由大语言模型驱动的函数。

标签:parser,prompt,分类,模式,OpenAI,LLM,驱动,model,LM
From: https://blog.csdn.net/herosunly/article/details/141114123

相关文章