-
LangChain官方示例教程(Build a Simple LLM Application):python.langchain.com/docs/tutori…
- 将该官方示例教程适当调整及优化
- 依赖
shell
代码解读
复制代码
pip install langchain
# 接入ollama本地大模型
pip install langchian-ollama
# 接入兼容OpenAI接口的国产大模型
pip install langchain-openai
提示词
输入
- 提示词主要有三种角色,LangChain有相应的Message类
python
代码解读
复制代码
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
# 原始写法
messages = [
{"role": "system", "content": "将下面的内容翻译成 英语"},
{"role": "user", "content": "你好,吃了吗?"},
{"role": "assistant", "content": "Hello, have you eaten yet?"},
]
# 使用消息类
messages = [
SystemMessage(content="将下面的内容翻译成 英语"),
HumanMessage(content="你好,吃了吗?"),
AIMessage(content="Hello, have you eaten yet?"),
]
# 另一种写法
messages = [
("system", "将下面的内容翻译成 英语"),
("human", "你好,吃了吗?"),
("ai", "Hello, have you eaten yet?"),
]
- Message类的常用方法
python
代码解读
复制代码
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
message = AIMessage(content="Hello, have you eaten yet?")
# 以下两个方法,SystemMessage、HumanMessage、AIMessage均适用
# 打印输出
message.pretty_print()
# Message继承Pydantic,可以使用Pydantic方法
print(message.model_dump_json())
模板
- 使用"{xxx}"占位
python
代码解读
复制代码
from langchain_core.prompts import ChatPromptTemplate
# 输入
inputs = {"language": "英语", "text": "你好,吃了吗?"}
# 定义模板
template = ChatPromptTemplate(
[("system", "将下面的内容翻译成 {language} "), ("human", "{text}")]
)
# 填充模板
result = template.invoke(inputs)
# result结果如下:
# messages = [
# SystemMessage(content="将下面的内容翻译成 英语", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="你好,吃了吗?", additional_kwargs={}, response_metadata={}),
# ]
接入大模型
实例化大模型
- 详情看之前的文档:LangChain接入本地/国产大模型
- ollama本地大模型
python
代码解读
复制代码
from langchain_ollama import ChatOllama
# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
- 兼容OpenAI接口的大模型
python
代码解读
复制代码
from langchain_openai import ChatOpenAI
# 兼容OpenAI接口的国产大模型(如:阿里云、火山、腾讯云等)
llm = ChatOpenAI(
openai_api_base="各个大平台兼容OpenAI的地址",
openai_api_key="xxx-xxx",
model_name="模型名称/endpoint等"
)
- 调用方式
python
代码解读
复制代码
from langchain_ollama import ChatOllama
from langchain_core.messages import HumanMessage
# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 提示词
messages = [HumanMessage(content="你好,吃了吗?")]
result = llm.invoke(messages)
主线(模板+大模型)
python
代码解读
复制代码
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
# 输入
inputs = {"language": "英语", "text": "你好,吃了吗?"}
# 模板
template = ChatPromptTemplate(
[("system", "将下面的内容翻译成 {language} "), ("human", "{text}")]
)
# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 调用
# result = template.invoke(inputs)
# result = llm.invoke(result)
# LangChain写法
chain = template | llm
result = chain.invoke(inputs)
输出转换
输出转换器
- 转换成特定格式可以更好得进行业务串联
python
代码解读
复制代码
from langchain_core.output_parsers import StrOutputParser, JsonOutputParser
from langchain_core.messages import AIMessage
# 模拟大模型返回的文本消息
message = AIMessage(content='{"name": "Alice", "age": 30}')
# 字符串输出解析器
str_parser = StrOutputParser()
result = str_parser.invoke(message)
print(type(result)) # <class 'str'>
print(result) # {"name": "Alice", "age": 30}
# Json输出解析器(代码中呈现为字典)
json_parser = JsonOutputParser()
result = json_parser.invoke(message)
print(type(result)) # <class 'dict'>
print(result) # {'name': 'Alice', 'age': 30}
主线(模板+大模型+输出)
python
代码解读
复制代码
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
# 输入
inputs = {"language": "英语", "text": "你好,吃了吗?"}
# 模板
template = ChatPromptTemplate(
[("system", "将下面的内容翻译成 {language} "), ("human", "{text}")]
)
# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 输出转换器
parser = StrOutputParser()
# 调用
# result = template.invoke(inputs)
# result = llm.invoke(result)
# result = parser.invoke(result)
# LangChain写法
chain = template | llm | parser
result = chain.invoke(inputs)
其他补充
模板
- "placeholder"可替换列表
python
代码解读
复制代码
from langchain_core.prompts import ChatPromptTemplate
template = ChatPromptTemplate(
[("system", "你是导游,回答用户提出的问题"), ("placeholder", "{conversation}")]
)
inputs = {
"conversation": [
("human", "福州"),
("ai", "福州是一个....."),
("human", "什么季节去合适?"),
],
}
# 填充模板
messages = template.invoke(inputs)
# messages = [
# SystemMessage(content="你是导游,回答用户提出的问题", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="福州", additional_kwargs={}, response_metadata={}),
# AIMessage(content="福州是一个.....", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="什么季节去合适?", additional_kwargs={}, response_metadata={}),
# ]
- 多个占位符则使用字典一一对应即可
python
代码解读
复制代码
from langchain_core.prompts import ChatPromptTemplate
template = ChatPromptTemplate(
[("system", "你是{role},回答用户提出的问题"), ("placeholder", "{conversation}")]
)
inputs = {
"role": "导游",
"conversation": [
("human", "福州"),
("ai", "福州是一个....."),
("human", "什么季节去合适?"),
],
}
messages = template.invoke(inputs)
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】
标签:教程,LangChain,模型,langchain,content,result,这篇,import,代码 From: https://blog.csdn.net/Everly_/article/details/144883101