Chat Completions AP
Chat 模型将消息列表作为输入,并返回模型生成的消息作为输出
-个 Chat Completions APl 调用的示例看起来如下
# penA api base地址:"https://api.openai.com/v1"
# 老版本(v1以下的版本)0PENAI API BASE
# 新版本(V1及以上的版本)0PENAI BASE URL
import os
from openai import OpenAI
client = OpenAI(
# This is the default and can be omitted
api_key=os.environ.get("OPENAI API KEY"),
base_url=os.environ.get("OPENAI API BASE"))
chat_completion = client.chat.completions.create(
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "您好,我叫老王"},
{"role": "assistant", "content": "Say this is a test"},
],
model="gpt-3.5-turbo")
print(chat_completion.choices[0].message.content)
messages 参数
主要输入是 messages 参数。消息必须是消息对象的数组
role(角色)
system(系统)
指令/角色扮演。系统消息有助于设置助手的行为。例如,您可以修改助手的个性或提供有关它在整个对话中应如何行为的具体指示。然而请注意,系统消息是可选的,而且没有系统消息时模型的行为可能与使用通用消息(如"You are a helpful assistant.")类似。
user(用户)
用户消息是助手需要响应的请求或评论。用户消息可以是任何内容,但是如果您想要模拟与助手的对话,则应该尽可能接近自然语言。
assistant(助手)
助手消息存储以前的助手回应,但也可以由您编写,以提供期望行为的示例。
通常,对话以系统消息开始,然后是用户和助手消息的交替。
当用户指示涉及到先前消息时,包括对话历史很重要。
由于模型没有过去请求的记忆,所有相关的信息必须作为每个请求中的对话的一部分提供。
Chat Completions 响应格式
-个 Chat Completions AP!响应的示例看起来如下
助手的回复可以通过以下方式提取:
# curl/requests
response['choices'][0]['message']['content']
# python-openai
response.choices[0].message.content
使用python requests库与OpenAl大模型聊天
不常用
import requests
import os
headers = {
'Authorization': f'Bearer {os.environ.get("OPENAI API KEY")}'}
payload = {
"model": 'gpt-3.5-turbo',
"messages": [
{
"role": "user",
"content": "hello"
}
],
}
url = f'{os.environ.get("OPENAI API BASE")}/chat/completions'
response = requests.post(url, headers=headers, json=payload).json()
标签:模型,OpenApi,content,助手,API,聊天,Chat,os,消息 From: https://www.cnblogs.com/edeny/p/18619742