首页 > 数据库 >如何使用pgvector为RDS PostgreSQL构建专属ChatBot?

如何使用pgvector为RDS PostgreSQL构建专属ChatBot?

时间:2024-04-11 17:22:48浏览次数:34  
标签:PostgreSQL RDS doc ChatBot 知识库 embedding prompt

背景

越来越多的企业和个人希望能够利用 LLM 和生成式人工智能来构建专注于其特定领域的具备 AI 能力的产品。目前,大语言模型在处理通用问题方面表现较好,但由于训练语料和大模型的生成限制,对于专业知识和时效性方面存在一些局限。在信息时代,企业的知识库更新频率越来越高,而企业所拥有的垂直领域知识库(如文档、图像、音视频等)可能是未公开或不可公开的。因此,对于企业而言,如果想在大语言模型的基础上构建属于特定垂直领域的 AI 产品,就需要不断将自身的知识库输入到大语言模型中进行训练。

目前有两种常见的方法实现:

  • 微调(Fine-tuning):通过提供新的数据集对已有模型的权重进行微调,不断更新输入以调整输出,以达到所需的结果。这适用于数据集规模不大或针对特定类型任务或风格进行训练,但训练成本和价格较高。

  • 提示调整(Prompt-tuning):通过调整输入提示而非修改模型权重,从而实现调整输出的目的。相较于微调,提示调整具有较低的计算成本,需要的资源和训练时间也较少,同时更加灵活。

基于 RDS PostgreSQL 构建 ChatBot 的优势如下:

  • 借助 RDS PostgreSQL 的 pgvector 插件,可以将实时内容或垂直领域的专业知识和内容转化为向量化的 embedding 表示,并存储在 RDS PostgreSQL 中,以实现高效的向量化检索,从而提高私域内容的问答准确性。

  • 作为先进的开源 OLTP 引擎,RDS PostgreSQL 能够同时完成在线用户数据交互和数据存储的任务,例如,它可以用于处理对话的交互记录、历史记录、对话时间等功能。RDS PostgreSQL 一专多长的特性使得私域业务的构建更加简单,架构也更加轻便。

  • pgvector 插件目前已经在开发者社区以及基于 PostgreSQL 的开源数据库中得到广泛应用,同时 ChatGPT Retrieval Plugin 等工具也及时适配了 PostgreSQL。这表明 RDS PostgreSQL 在向量化检索领域具有良好的生态支持和广泛的应用基础,为用户提供了丰富的工具和资源。

本文将以 RDS PostgreSQL 提供的开源向量索引插件(pgvector)和 OpenAI 提供的 embedding 能力为例,展示如何构建专属的 ChatBot。

快速体验

阿里云提供云速搭 CADT 平台模板,该方案模板已预部署了 ECS 以及 RDS PostgreSQL 数据库,并且预安装了前置安装包,能够帮助您快速体验专属 ChatBot,您可以前往云速搭CADT控制台,参考大模型结合RDS PostgreSQL数据库构建企业级专属Chatbot进行体验。

前提条件

  • 已创建 RDS PostgreSQL 实例且满足以下条件:

  • 实例大版本为 PostgreSQL 14 或以上。

  • 实例内核小版本为 20230430 或以上。

  • 说明

  • 如需升级实例大版本或内核小版本,请参见升级数据库大版本升级内核小版本

  • 本文展示的专属的 ChatBot 基于 RDS PostgreSQL 提供的开源插件 pgvector,请确保已完全了解其相关用法及基本概念,更多信息,请参见高维向量相似度搜索(pgvector)

  • 本文展示的专属的 ChatBot 使用了 OpenAI 的相关能力,请确保您具备Secret API Key,并且您的网络环境可以使用 OpenAI,本文展示的代码示例均部署在新加坡地域的 ECS 中。

  • 本文示例代码使用的 Python 语言,请确保已具备 Python 开发环境,本示例使用的 Python 版本为3.11.4,使用的开发工具为PyCharm 2023.1.2

相关概念

嵌入

嵌入(embedding)是指将高维数据映射为低维表示的过程。在机器学习和自然语言处理中,嵌入通常用于将离散的符号或对象表示为连续的向量空间中的点。

在自然语言处理中,词嵌入(word embedding)是一种常见的技术,它将单词映射到实数向量,以便计算机可以更好地理解和处理文本。通过词嵌入,单词之间的语义和语法关系可以在向量空间中得到反映。

OpenAI 提供 Embeddings 能力。

实现原理

本文展示的专属 ChatBot 的实现流程分为两个阶段:

第一阶段:数据准备

  1. 知识库信息提取和分块:从领域知识库中提取相关的文本信息,并将其分块处理。这可以包括将长文本拆分为段落或句子,提取关键词或实体等。这样可以将知识库的内容更好地组织和管理。

  2. 调用 LLM 接口生成 embedding:利用 LLM(如 OpenAI)提供的接口,将分块的文本信息输入到模型中,并生成相应的文本 embedding。这些 embedding 将捕捉文本的语义和语境信息,为后续的搜索和匹配提供基础。

  3. 存储 embedding 信息:将生成的文本 embedding 信息、文本分块以及文本关联的 metadata 信息存入 RDS PostgreSQL 数据库中。

第二阶段:问答

  1. 用户提问。

  2. 通过 OpenAI 提供的 embedding 接口创建该问题的 embedding。

  3. 通过 pgvector 过滤出 RDS PostgreSQL 数据库中相似度大于一定阈值的文档块,将结果返回。

流程图如下:

操作步骤

第一阶段:数据准备

本文以创建RDS PostgreSQL实例文档的文本内容为例,将其拆分并存储到 RDS PostgreSQL 数据库中,您需要准备自己的专属领域知识库。

数据准备阶段的关键在于将专属领域知识转化为文本 embedding,并有效地存储和匹配这些信息。通过利用 LLM 的强大语义理解能力,您可以获得与特定领域相关的高质量回答和建议。当前的一些开源框架,可以方便您上传和解析知识库文件,包括 URL、Markdown、PDF、Word 等格式。例如LangChain和 OpenAI 开源的ChatGPT Retrieval Plugin。LangChain 和 ChatGPT Retrieval Plugin 均已经支持了基于 pgvector 扩展的 PostgreSQL 作为其后端向量数据库,这使得与 RDS PostgreSQL 实例的集成变得更加便捷。通过这样的集成,您可以方便地完成第一阶段领域知识库的数据准备,并充分利用 pgvector 提供的向量索引和相似度搜索功能,实现高效的文本匹配和查询操作。

  1. 连接PostgreSQL实例

  2. 创建测试数据库,以rds_pgvector_test为例。

CREATE DATABASE testdb;
  1. 进入测试数据库,并创建 pgvector 插件。
CREATE EXTENSION IF NOT EXISTS vector;
  1. 创建测试表(本文以rds_pg_help_docs为例),用于存储知识库内容。
CREATE TABLE rds_pg_help_docs (
  id bigserial PRIMARY KEY, 
  title text,           -- 文档标题
  description text,         -- 描述
  doc_chunk text,       -- 文档分块
  token_size int,       -- 文档分块字数
  embedding vector(1536));  -- 文本嵌入信息
  1. 为 embedding 列创建索引,用于查询优化和加速。
CREATE INDEX ON rds_pg_help_docs USING ivfflat (embedding vector_cosine_ops) WITH (lists = 100);
  1. 说明

  2. 向量列创建索引的更多说明,请参见高维向量相似度搜索(pgvector)

  3. 在 PyCharm 中,创建项目,然后打开 Terminal,输入如下语句,安装如下依赖库。

pip install openai psycopg2 tiktoken requests beautifulsoup4 numpy
  1. 创建.py文件(本文以knowledge_chunk_storage.py为例),拆分知识库文档内容并存储到数据库中,示例代码如下:

说明

1.如下示例代码中,自定义的拆分方法仅仅是将知识库文档内容按固定字数进行了拆分,您可以使用LangChain和 OpenAI 开源的ChatGPT Retrieval Plugin等开源框架中提供的方法进行拆分。知识库中的文档质量和分块结果对最终的输出的结果有较大的影响。

import openai
import psycopg2
import tiktoken
import requests
from bs4 import BeautifulSoup
EMBEDDING_MODEL = "text-embedding-ada-002"
tokenizer = tiktoken.get_encoding("cl100k_base")
# 连接RDS PostgreSQL数据库
conn = psycopg2.connect(database="<数据库名>",
                        host="<RDS实例连接地址>",
                        user="<用户名>",
                        password="<密码>",
                        port="<数据库端口>")
conn.autocommit = True
# OpenAI的API Key
openai.api_key = '<Secret API Key>'
# 自定义拆分方法(仅为示例)
def get_text_chunks(text, max_chunk_size):
    chunks_ = []
    soup_ = BeautifulSoup(text, 'html.parser')
    content = ''.join(soup_.strings).strip()
    length = len(content)
    start = 0
    while start < length:
        end = start + max_chunk_size
        if end >= length:
            end = length
        chunk_ = content[start:end]
        chunks_.append(chunk_)
        start = end
    return chunks_
# 指定需要拆分的网页
url = 'https://help.aliyun.com/document_detail/148038.html'
response = requests.get(url)
if response.status_code == 200:
    # 获取网页内容
    web_html_data = response.text
    soup = BeautifulSoup(web_html_data, 'html.parser')
    # 获取标题(H1标签)
    title = soup.find('h1').text.strip()
    # 获取描述(class为shortdesc的p标签内容)
    description = soup.find('p', class_='shortdesc').text.strip()
    # 拆分并存储
    chunks = get_text_chunks(web_html_data, 500)
    for chunk in chunks:
        doc_item = {
            'title': title,
            'description': description,
            'doc_chunk': chunk,
            'token_size': len(tokenizer.encode(chunk))
        }
        query_embedding_response = openai.Embedding.create(
            model=EMBEDDING_MODEL,
            input=chunk,
        )
        doc_item['embedding'] = query_embedding_response['data'][0]['embedding']
        cur = conn.cursor()
        insert_query = '''
        INSERT INTO rds_pg_help_docs 
            (title, description, doc_chunk, token_size, embedding) VALUES (%s, %s, %s, %s, %s);
        '''
        cur.execute(insert_query, (
            doc_item['title'], doc_item['description'], doc_item['doc_chunk'], doc_item['token_size'],
            doc_item['embedding']))
        conn.commit()
else:
    print('Failed to fetch web page')
  1. 运行 python 程序。

登录数据库使用如下命令查看是否已将知识库文档内容拆分并存储为向量数据。

SELECT * FROM rds_pg_help_docs;

第二阶段:问答

  1. 在 python 项目中,创建.py文件(本文以chatbot.py为例),创建问题并与数据库中的知识库内容比较相似度,返回结果。
import openai
import psycopg2
from psycopg2.extras import DictCursor
GPT_MODEL = "gpt-3.5-turbo"
EMBEDDING_MODEL = "text-embedding-ada-002"
GPT_COMPLETIONS_MODEL = "text-davinci-003"
MAX_TOKENS = 1024
# OpenAI的API Key
openai.api_key = '<Secret API Key>'
prompt = '如何创建一个RDS PostgreSQL实例'
prompt_response = openai.Embedding.create(
    model=EMBEDDING_MODEL,
    input=prompt,
)
prompt_embedding = prompt_response['data'][0]['embedding']
# 连接RDS PostgreSQL数据库
conn = psycopg2.connect(database="<数据库名>",
                        host="<RDS实例连接地址>",
                        user="<用户名>",
                        password="<密码>",
                        port="<数据库端口>")
conn.autocommit = True
def answer(prompt_doc, prompt):
    improved_prompt = f"""
    按下面提供的文档和步骤来回答接下来的问题:
    (1) 首先,分析文档中的内容,看是否与问题相关
    (2) 其次,只能用文档中的内容进行回复,越详细越好,并且以markdown格式输出
    (3) 最后,如果问题与RDS PostgreSQL不相关,请回复"我对RDS PostgreSQL以外的知识不是很了解"
    文档:
    \"\"\"
    {prompt_doc}
    \"\"\"
    问题: {prompt}
    """
    response = openai.Completion.create(
        model=GPT_COMPLETIONS_MODEL,
        prompt=improved_prompt,
        temperature=0.2,
        max_tokens=MAX_TOKENS
    )
    print(f"{response['choices'][0]['text']}\n")
similarity_threshold = 0.78
max_matched_doc_counts = 8
# 通过pgvector过滤出相似度大于一定阈值的文档块
similarity_search_sql = f'''
SELECT doc_chunk, token_size, 1 - (embedding <=> '{prompt_embedding}') AS similarity 
FROM rds_pg_help_docs WHERE 1 - (embedding <=> '{prompt_embedding}') > {similarity_threshold} ORDER BY id LIMIT {max_matched_doc_counts};
'''
cur = conn.cursor(cursor_factory=DictCursor)
cur.execute(similarity_search_sql)
matched_docs = cur.fetchall()
total_tokens = 0
prompt_doc = ''
print('Answer: \n')
for matched_doc in matched_docs:
    if total_tokens + matched_doc['token_size'] <= 1000:
        prompt_doc += f"\n---\n{matched_doc['doc_chunk']}"
        total_tokens += matched_doc['token_size']
        continue
    answer(prompt_doc,prompt)
    total_tokens = 0
    prompt_doc = ''
answer(prompt_doc,prompt)
  1. 运行 Python 程序后,您可以在运行窗口看到类似如下的对应答案:

说明

您可以对拆分方法以及问题 prompt 进行优化,以获得更加准确、完善的回答,本文仅为示例。

总结

如果未接入专属知识库,OpenAI 对于问题“如何创建一个 RDS PostgreSQL 实例”的回答往往与阿里云不相关,例如:

在接入存储在 RDS PostgreSQL 数据库中的专属知识库后,对于问题“如何创建一个 RDS PostgreSQL 实例”,我们将会得到只属于阿里云 RDS PostgreSQL 数据库的相关回答。

根据上述实践内容,可以看出 RDS PostgreSQL 完全具备构建基于 LLM 的垂直领域知识库的能力。

背景

越来越多的企业和个人希望能够利用 LLM 和生成式人工智能来构建专注于其特定领域的具备 AI 能力的产品。目前,大语言模型在处理通用问题方面表现较好,但由于训练语料和大模型的生成限制,对于专业知识和时效性方面存在一些局限。在信息时代,企业的知识库更新频率越来越高,而企业所拥有的垂直领域知识库(如文档、图像、音视频等)可能是未公开或不可公开的。因此,对于企业而言,如果想在大语言模型的基础上构建属于特定垂直领域的 AI 产品,就需要不断将自身的知识库输入到大语言模型中进行训练。

目前有两种常见的方法实现:

  • 微调(Fine-tuning):通过提供新的数据集对已有模型的权重进行微调,不断更新输入以调整输出,以达到所需的结果。这适用于数据集规模不大或针对特定类型任务或风格进行训练,但训练成本和价格较高。

  • 提示调整(Prompt-tuning):通过调整输入提示而非修改模型权重,从而实现调整输出的目的。相较于微调,提示调整具有较低的计算成本,需要的资源和训练时间也较少,同时更加灵活。

 

基于 RDS PostgreSQL 构建 ChatBot 的优势如下:

  • 借助 RDS PostgreSQL 的 pgvector 插件,可以将实时内容或垂直领域的专业知识和内容转化为向量化的 embedding 表示,并存储在 RDS PostgreSQL 中,以实现高效的向量化检索,从而提高私域内容的问答准确性。

 

  • 作为先进的开源 OLTP 引擎,RDS PostgreSQL 能够同时完成在线用户数据交互和数据存储的任务,例如,它可以用于处理对话的交互记录、历史记录、对话时间等功能。RDS PostgreSQL 一专多长的特性使得私域业务的构建更加简单,架构也更加轻便。

 

  • pgvector 插件目前已经在开发者社区以及基于 PostgreSQL 的开源数据库中得到广泛应用,同时 ChatGPT Retrieval Plugin 等工具也及时适配了 PostgreSQL。这表明 RDS PostgreSQL 在向量化检索领域具有良好的生态支持和广泛的应用基础,为用户提供了丰富的工具和资源。

 

本文将以 RDS PostgreSQL 提供的开源向量索引插件(pgvector)和 OpenAI 提供的 embedding 能力为例,展示如何构建专属的 ChatBot。

快速体验

阿里云提供云速搭 CADT 平台模板,该方案模板已预部署了 ECS 以及 RDS PostgreSQL 数据库,并且预安装了前置安装包,能够帮助您快速体验专属 ChatBot,您可以前往云速搭CADT控制台,参考大模型结合RDS PostgreSQL数据库构建企业级专属Chatbot进行体验。

前提条件

  • 已创建 RDS PostgreSQL 实例且满足以下条件:

  • 实例大版本为 PostgreSQL 14 或以上。

 

  • 实例内核小版本为 20230430 或以上。

 

  • 说明

 

 

  • 本文展示的专属的 ChatBot 基于 RDS PostgreSQL 提供的开源插件 pgvector,请确保已完全了解其相关用法及基本概念,更多信息,请参见高维向量相似度搜索(pgvector)

 

  • 本文展示的专属的 ChatBot 使用了 OpenAI 的相关能力,请确保您具备Secret API Key,并且您的网络环境可以使用 OpenAI,本文展示的代码示例均部署在新加坡地域的 ECS 中。

 

  • 本文示例代码使用的 Python 语言,请确保已具备 Python 开发环境,本示例使用的 Python 版本为3.11.4,使用的开发工具为PyCharm 2023.1.2

 

相关概念

嵌入

嵌入(embedding)是指将高维数据映射为低维表示的过程。在机器学习和自然语言处理中,嵌入通常用于将离散的符号或对象表示为连续的向量空间中的点。

在自然语言处理中,词嵌入(word embedding)是一种常见的技术,它将单词映射到实数向量,以便计算机可以更好地理解和处理文本。通过词嵌入,单词之间的语义和语法关系可以在向量空间中得到反映。

OpenAI 提供 Embeddings 能力。

实现原理

本文展示的专属 ChatBot 的实现流程分为两个阶段:

第一阶段:数据准备

  1. 知识库信息提取和分块:从领域知识库中提取相关的文本信息,并将其分块处理。这可以包括将长文本拆分为段落或句子,提取关键词或实体等。这样可以将知识库的内容更好地组织和管理。

  2. 调用 LLM 接口生成 embedding:利用 LLM(如 OpenAI)提供的接口,将分块的文本信息输入到模型中,并生成相应的文本 embedding。这些 embedding 将捕捉文本的语义和语境信息,为后续的搜索和匹配提供基础。

  3. 存储 embedding 信息:将生成的文本 embedding 信息、文本分块以及文本关联的 metadata 信息存入 RDS PostgreSQL 数据库中。

第二阶段:问答

  1. 用户提问。

  2. 通过 OpenAI 提供的 embedding 接口创建该问题的 embedding。

  3. 通过 pgvector 过滤出 RDS PostgreSQL 数据库中相似度大于一定阈值的文档块,将结果返回。

流程图如下:

 

 

操作步骤

第一阶段:数据准备

本文以创建RDS PostgreSQL实例文档的文本内容为例,将其拆分并存储到 RDS PostgreSQL 数据库中,您需要准备自己的专属领域知识库。

数据准备阶段的关键在于将专属领域知识转化为文本 embedding,并有效地存储和匹配这些信息。通过利用 LLM 的强大语义理解能力,您可以获得与特定领域相关的高质量回答和建议。当前的一些开源框架,可以方便您上传和解析知识库文件,包括 URL、Markdown、PDF、Word 等格式。例如LangChain和 OpenAI 开源的ChatGPT Retrieval Plugin。LangChain 和 ChatGPT Retrieval Plugin 均已经支持了基于 pgvector 扩展的 PostgreSQL 作为其后端向量数据库,这使得与 RDS PostgreSQL 实例的集成变得更加便捷。通过这样的集成,您可以方便地完成第一阶段领域知识库的数据准备,并充分利用 pgvector 提供的向量索引和相似度搜索功能,实现高效的文本匹配和查询操作。

  1. 连接PostgreSQL实例

  2. 创建测试数据库,以rds_pgvector_test为例。

 
CREATE DATABASE testdb;
      复制代码  
  1. 进入测试数据库,并创建 pgvector 插件。

 

 
CREATE EXTENSION IF NOT EXISTS vector;
      复制代码  
  1. 创建测试表(本文以rds_pg_help_docs为例),用于存储知识库内容。

 

 
CREATE TABLE rds_pg_help_docs (  id bigserial PRIMARY KEY,   title text,           -- 文档标题  description text,         -- 描述  doc_chunk text,       -- 文档分块  token_size int,       -- 文档分块字数  embedding vector(1536));  -- 文本嵌入信息
      复制代码  
  1. 为 embedding 列创建索引,用于查询优化和加速。

 

 
CREATE INDEX ON rds_pg_help_docs USING ivfflat (embedding vector_cosine_ops) WITH (lists = 100);
      复制代码  
  1. 说明

 

  1. 向量列创建索引的更多说明,请参见高维向量相似度搜索(pgvector)

  2. 在 PyCharm 中,创建项目,然后打开 Terminal,输入如下语句,安装如下依赖库。

 

 
pip install openai psycopg2 tiktoken requests beautifulsoup4 numpy
      复制代码  
  1. 创建.py文件(本文以knowledge_chunk_storage.py为例),拆分知识库文档内容并存储到数据库中,示例代码如下:

 

说明

  1.  

    如下示例代码中,自定义的拆分方法仅仅是将知识库文档内容按固定字数进行了拆分,您可以使用LangChain和 OpenAI 开源的ChatGPT Retrieval Plugin等开源框架中提供的方法进行拆分。知识库中的文档质量和分块结果对最终的输出的结果有较大的影响。

 

 
import openaiimport psycopg2import tiktokenimport requestsfrom bs4 import BeautifulSoupEMBEDDING_MODEL = "text-embedding-ada-002"tokenizer = tiktoken.get_encoding("cl100k_base")# 连接RDS PostgreSQL数据库conn = psycopg2.connect(database="<数据库名>",                        host="<RDS实例连接地址>",                        user="<用户名>",                        password="<密码>",                        port="<数据库端口>")conn.autocommit = True# OpenAI的API Keyopenai.api_key = '<Secret API Key>'# 自定义拆分方法(仅为示例)def get_text_chunks(text, max_chunk_size):    chunks_ = []    soup_ = BeautifulSoup(text, 'html.parser')    content = ''.join(soup_.strings).strip()    length = len(content)    start = 0    while start < length:        end = start + max_chunk_size        if end >= length:            end = length        chunk_ = content[start:end]        chunks_.append(chunk_)        start = end    return chunks_# 指定需要拆分的网页url = 'https://help.aliyun.com/document_detail/148038.html'response = requests.get(url)if response.status_code == 200:    # 获取网页内容    web_html_data = response.text    soup = BeautifulSoup(web_html_data, 'html.parser')    # 获取标题(H1标签)    title = soup.find('h1').text.strip()    # 获取描述(class为shortdesc的p标签内容)    description = soup.find('p', class_='shortdesc').text.strip()    # 拆分并存储    chunks = get_text_chunks(web_html_data, 500)    for chunk in chunks:        doc_item = {            'title': title,            'description': description,            'doc_chunk': chunk,            'token_size': len(tokenizer.encode(chunk))        }        query_embedding_response = openai.Embedding.create(            model=EMBEDDING_MODEL,            input=chunk,        )        doc_item['embedding'] = query_embedding_response['data'][0]['embedding']        cur = conn.cursor()        insert_query = '''        INSERT INTO rds_pg_help_docs             (title, description, doc_chunk, token_size, embedding) VALUES (%s, %s, %s, %s, %s);        '''        cur.execute(insert_query, (            doc_item['title'], doc_item['description'], doc_item['doc_chunk'], doc_item['token_size'],            doc_item['embedding']))        conn.commit()else:    print('Failed to fetch web page')
      复制代码  
  1. 运行 python 程序。

 

登录数据库使用如下命令查看是否已将知识库文档内容拆分并存储为向量数据。

 

 
SELECT * FROM rds_pg_help_docs;
      复制代码  

 

 

第二阶段:问答

  1. 在 python 项目中,创建.py文件(本文以chatbot.py为例),创建问题并与数据库中的知识库内容比较相似度,返回结果。

 

 
import openaiimport psycopg2from psycopg2.extras import DictCursorGPT_MODEL = "gpt-3.5-turbo"EMBEDDING_MODEL = "text-embedding-ada-002"GPT_COMPLETIONS_MODEL = "text-davinci-003"MAX_TOKENS = 1024# OpenAI的API Keyopenai.api_key = '<Secret API Key>'prompt = '如何创建一个RDS PostgreSQL实例'prompt_response = openai.Embedding.create(    model=EMBEDDING_MODEL,    input=prompt,)prompt_embedding = prompt_response['data'][0]['embedding']# 连接RDS PostgreSQL数据库conn = psycopg2.connect(database="<数据库名>",                        host="<RDS实例连接地址>",                        user="<用户名>",                        password="<密码>",                        port="<数据库端口>")conn.autocommit = Truedef answer(prompt_doc, prompt):    improved_prompt = f"""    按下面提供的文档和步骤来回答接下来的问题:    (1) 首先,分析文档中的内容,看是否与问题相关    (2) 其次,只能用文档中的内容进行回复,越详细越好,并且以markdown格式输出    (3) 最后,如果问题与RDS PostgreSQL不相关,请回复"我对RDS PostgreSQL以外的知识不是很了解"    文档:    \"\"\"    {prompt_doc}    \"\"\"    问题: {prompt}    """    response = openai.Completion.create(        model=GPT_COMPLETIONS_MODEL,        prompt=improved_prompt,        temperature=0.2,        max_tokens=MAX_TOKENS    )    print(f"{response['choices'][0]['text']}\n")similarity_threshold = 0.78max_matched_doc_counts = 8# 通过pgvector过滤出相似度大于一定阈值的文档块similarity_search_sql = f'''SELECT doc_chunk, token_size, 1 - (embedding <=> '{prompt_embedding}') AS similarity FROM rds_pg_help_docs WHERE 1 - (embedding <=> '{prompt_embedding}') > {similarity_threshold} ORDER BY id LIMIT {max_matched_doc_counts};'''cur = conn.cursor(cursor_factory=DictCursor)cur.execute(similarity_search_sql)matched_docs = cur.fetchall()total_tokens = 0prompt_doc = ''print('Answer: \n')for matched_doc in matched_docs:    if total_tokens + matched_doc['token_size'] <= 1000:        prompt_doc += f"\n---\n{matched_doc['doc_chunk']}"        total_tokens += matched_doc['token_size']        continue    answer(prompt_doc,prompt)    total_tokens = 0    prompt_doc = ''answer(prompt_doc,prompt)
      复制代码  
  1. 运行 Python 程序后,您可以在运行窗口看到类似如下的对应答案:

 

说明

 

您可以对拆分方法以及问题 prompt 进行优化,以获得更加准确、完善的回答,本文仅为示例。

 

 

总结

如果未接入专属知识库,OpenAI 对于问题“如何创建一个 RDS PostgreSQL 实例”的回答往往与阿里云不相关,例如:

 

 

在接入存储在 RDS PostgreSQL 数据库中的专属知识库后,对于问题“如何创建一个 RDS PostgreSQL 实例”,我们将会得到只属于阿里云 RDS PostgreSQL 数据库的相关回答。

根据上述实践内容,可以看出 RDS PostgreSQL 完全具备构建基于 LLM 的垂直领域知识库的能力。

标签:PostgreSQL,RDS,doc,ChatBot,知识库,embedding,prompt
From: https://www.cnblogs.com/aliyunyaochidatabase/p/18129674

相关文章

  • [code notes] subquery parsing in postgresql
    TheSQLselectafrom(selectafromt);Overviewfrom(selectafromt)willmaptooneRangeTblEntrystructoftheoutterquery.fromtwillmaptooneRangeTblEntrystructoftheinnerquery.RangeTblEntryentriestogethercreatearangetablelist.......
  • openGauss与PostgreSQL对比测试SSL之自签名CA证书单向认证测试
    openGauss与PostgreSQL对比测试SSL之自签名CA证书单向认证测试本文测试自签名CA证书的单向认证:客户端只验证服务器证书的有效性,而服务器端不验证客户端证书的有效性。服务器加载证书信息并发送给客户端,客户端使用根证书来验证服务器端证书的有效性。服务端证书的客户......
  • jdbc结合druid连接池访问postgreSQL数据库
    jdbc结合druid连接池访问postgreSQL数据库连接mysql的话也是一个道理,就是把对应的依赖和数据库驱动换一下一.在pom.xml里面加上对应的依赖<!--druid数据源--><dependency><groupId>com.alibaba</groupId><artifactId>druid-spring......
  • 用postgresql做抽样查询
    9.5之前需要写函数,暂不考虑,下面以tablesample方法为主方式一:在数据量较小的情况下使用select*fromtb_defectorderbyrandom()limit100缺点是没办法再排序,而且是全表扫描,性能较差方式二:select*fromtb_defecttablesamplesystem(0.01);system抽样方式是随机抽取表......
  • postgresql中查询COMMENT注释的语句
    tb_car表中DDL语句中有COMMENTCOMMENTONCOLUMNpublic.tb_car.car_idIS'主键';COMMENTONCOLUMNpublic.tb_car.car_index_codeIS'车辆编码';COMMENTONCOLUMNpublic.tb_car.plate_noIS'车牌号码';用如下语句查询SELECTcol.table_name,col.column_na......
  • NLP简单项目实战——ChatBOT(二)
    二、Seq2Seq(一)Seq2Seq原理        Seq2seq模型中的encoder接收一个长度为M的序列,得到1个contextvector,之后decoder把这一个contextvector转化为长度为N的序列作为输出,从而构成一个MtoN的模型,能够处理很多不定长输入输出的问题(二)Seq2Seq实现    1.实现......
  • openGauss数据与PostgreSQL的差异对比
    openGauss数据与PostgreSQL的差异对比前言openGauss数据库已经发布2.0.1版本了,中启乘数科技是一家专业的专注于极致性能的数据库服务提供商,所以也关注openGauss数据库的特性。因为openGauss是从PostgreSQL发展出来的,所以我们详细讲解对比一下openGauss与原生Po......
  • (二)PostgreSQL常用的配置文件
    PostgreSQL常用的配置文件1postgresql.conf参数文件postgresql.conf是PostgreSQL数据库的主要配置文件,用于控制数据库实例的行为和特性,一般在$PGDATA目录下。这个文件包括了众多的配置选项,比如内存使用限制、连接设置、日志记录规则等。根据系统资源和应用需求对这些......
  • postgresql 截取第二个特定字符
    在开发PostgreSQL数据库应用程序时,经常需要在查询语句中截取字符串。在某些情况下,需要截取字符串中的特定字符。例如,从URL中获取域名,从文本中获取文件名等。本文将介绍如何在PostgreSQL中截取字符串中的第二个特定字符。我们将使用SUBSTRING和POSITION函数来实现这一目......
  • PostgreSQL 将分组后的字段合并成一个 JSON 对象
    在PostgreSQL数据库中,有时需要将分组后的字段合并成一个JSON对象,并将其保存到一个新的字段中。本文将介绍如何使用PostgreSQL中的json_agg函数来实现这一目标。假设我们有一个销售订单表格,其中包含订单编号、产品名称和销售数量等字段。现在我们需要按照订单编号分组,并将......