LangChain 是一个用于开发由大型语言模型 (LLMs) 驱动的应用程序的框架。
在使用LangChain框架前,先导入LangChain
# 这里根据你使用的AI进行引入,我使用的是智谱清言的AI
from langchain_community.chat_models import ChatZhipuAI
# 这里导入的是消息类型
from langchain_core.messages import AIMessage, HumanMessage, SystemMessage
import os
在第二行我导入的是ChatZhipuAI,不同的AI导入方法不同,以下是几个常用AI的导入方式
- OpenAI - from langchain_openai import ChatOpenAI
- Ollama - from langchain_ollama import ChatOllama
在导入AI库后,我们要导入我们的APIKey
os.environ["ZHIPUAI_API_KEY"] = "将你的APIKey放到这个字符串中"
上面的代码是智谱清言的APIKey导入方式,不同的AI有不同的导入方式
然后创建一个AI的实例对象
chat = ChatZhipuAI( # ChatZhipuAI是我使用的AI,每个人使用的AI都不同 根据情况调整
model="glm-4-flash", # 模型名称
temperature=0.5 # 模型温度
)
函数根据AI的不同函数也不同,请根据情况替换
model参数为想要调用的模型,我这里调用的是智谱清言的免费模型GLM-4-Flash
temperature参数是模型的温度参数,这个值越高代表模型回复的越不统一
messages = [
SystemMessage(content="你是一个AI机器人"), # 模型的提示词
HumanMessage(content="你好") # 用户的输入
]
接下来定义一个消息列表,SystemMessage是AI的提示词,HumanMessage包裹的则是人类的输入,通常情况下content后面接一个input函数就可以实现人和AI对话的效果
response = chat.invoke(messages)
最后,让变量chat里的AI读取我们定义好的消息列表,得到输出的response,读取response.content即可得到AI的输入内容
response.content
我们用Print打印出来看一下
你好
标签:Python,模型,入门教程,LangChain,content,AI,导入,import
From: https://blog.csdn.net/m0_58222309/article/details/145057566