首页 > 其他分享 >大模型应用开发——问答系统回答准确性评估的三类方法

大模型应用开发——问答系统回答准确性评估的三类方法

时间:2024-07-24 14:29:48浏览次数:15  
标签:bleu 三类 模型 准确性 score rouge import 问答 accuracy

在开发了基于文档的问答系统之后,需要评估系统对问题回答的准确性,将系统的回答与正确答案进行比对并给出评分。

我们实践了以下三类方法,最终对比发现,在评估系统回答的准确性时,用大模型来评估最有效。本文旨在给出大模型的prompt供参考,可以根据自己的需求调整。

另两类方法仅作简单介绍。

方案一:用大模型评估系统回答与正确答案的相似度。

大模型prompt

prompt1 = '''
你是一个天文学领域专家。

你将收到一个问题、正确答案和模型回答。

你的任务是通过将模型回答与正确答案进行比较,判断模型回答的准确程度,给出准确程度accuracy。

其中,accuracy的范围为0-1,模型回答越接近标准答案分数越高。

评价标准和步骤如下:

-1.详细阅读提交的问题。
-2.思考这个问题,并阅读给定的正确答案,确保理解了问题的内容以及正确答案的含义。
-3.阅读模型的回答。
-4.比较模型的回答与正确答案,理解模型回答中的信息和正确答案的相似程度以及不同之处。
-5.评价模型的回答,给出accuracy。如果模型的回答完全正确,无误差,给1分。如果模型的回答部分正确,但有一些信息缺失,可以给予中等的分数。如果模型的回答部分正确,部分错误,可以给定偏低的分数。如果模型的回答完全错误,或者与给定的正确答案无关,可以给0分。
-6.根据我的示例对待打分的问答对打分。
-7.不要给出思考过程,直接给出结果accuracy。

我的示例如下:
问题:空间站多功能光学设施的主要任务是什么?
正确答案:空间站多功能光学设施的主要任务是大规模天文巡天。空间站多功能光学设施是我国载人航天工程规划建设的大型空间天文望远镜,口径2米,兼具大视场和高像质的优异性能,并具备在轨维护升级的能力。其观测模式包括位置切换观测模式和OTF观测模式,其中OTF观测模式主要用于大面积天区的高效成图观测。
模型回答:空间站多功能光学设施的主要任务是大规模天文巡天。
accuracy:0.6


待打分的问答对:
问题:

{{question}}

正确答案:

{{correct_answer}}

模型回答:

{{model_answer}}

模型结果:
-accuracy:

'''

后续无论是用文心一言还是chatgpt都可以用这个prompt来实现,注意文心一言的系统指令是写在字段“system”里的。

以下给出用文心一言来判断的参考代码:

# 设置百度文心一言的API密钥和端点
API_KEY = "your_api_key"
SECRET_KEY = "your_secret_key"

import requests
import requests
import json
import time

# 配置文心一言的密钥和端点
def get_access_token():
    """
    使用 AK,SK 生成鉴权签名(Access Token)
    :return: access_token,或是None(如果错误)
    """
    url = "https://aip.baidubce.com/oauth/2.0/token"
    params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
    return str(requests.post(url, params=params).json().get("access_token"))

# 大模型评估回答准确率
def evaluate_accuracy(question, correct_answer, model_answer):
    url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions?access_token=" + get_access_token()
    content= "判断模型回答的准确程度"
    prompt = prompt1.replace("{{question}}", question).replace("{{correct_answer}}", correct_answer).replace("{{model_answer}}", model_answer)
    payload = json.dumps({
        "messages": [
            {
                "role": "user",
                "content": content
            }
        ],
        "temperature": 0.95,
        "top_p": 0.8,
        "system":prompt
    })
    headers = {
        'Content-Type': 'application/json'
    }
    start_time = time.time()
    response = requests.request("POST", url, headers=headers, data=payload)
    x = json.loads(response.text)
    print("耗时", time.time() - start_time)
    print(question)
    print(x)
    if response.status_code == 200:
        return x['result']
    else:
        print(f"Error: {response.status_code}")
        print(response.content)
        return None

# 如果想要将大模型评估的结果提取出具体的准确率分数,可以用下面这个函数,将上面函数的x['result']作为本函数的入参
import re
def extract_accuracy(row):
    try:
        match = re.search(r'accuracy[\s::]+([0-9.]+)', row)
        if match:
            return float(match.group(1))
        else:
            return np.nan
    except Exception as e:
        return np.nan

方案二:Semantic Textual Similarity (STS)语义相似度检测

可以自行搜索原理,参考代码如下:

from sentence_transformers import SentenceTransformer, util

# 初始化模型
model = SentenceTransformer('paraphrase-MiniLM-L6-v2')

def compute_sts(sentence1, sentence2):
    # 计算句子的嵌入
    embedding1 = model.encode(sentence1, convert_to_tensor=True)
    embedding2 = model.encode(sentence2, convert_to_tensor=True)
    
    # 计算余弦相似度
    similarity = util.pytorch_cos_sim(embedding1, embedding2).item()
    return similarity

# 示例使用
sentence1 = "量数据缺乏或完备度、准确度不够的分子光谱,在实验室进行测定。"
sentence2 = "在实验室进行测定。"
sts_score = compute_sts(sentence1, sentence2)
print(f"STS Score: {sts_score}")

方案三:BLEU/ROUGE/Exact Match/BERTScore等基于字符串匹配的方法

这里给出BLEU、ROUGE、bert_score的参考代码:

from sklearn.metrics import accuracy_score
from nltk.translate.bleu_score import sentence_bleu
from rouge import Rouge
from bert_score import score as bert_score
import numpy as np

# 定义方法
def evaluate_responses(predictions, references):
    # 初始化评估指标
    bleu_scores = []
    rouge = Rouge()
    rouge_scores = []
    exact_matches = []

    for pred, ref in zip(predictions, references):
        # BLEU Score
        bleu_score_value = sentence_bleu([ref.split()], pred.split())
        bleu_scores.append(bleu_score_value)

        # ROUGE Score
        rouge_score_value = rouge.get_scores(pred, ref)[0]
        rouge_scores.append(rouge_score_value)

        # Exact Match
        exact_match = 1 if pred == ref else 0
        exact_matches.append(exact_match)

    # BERTScore
    P, R, F1 = bert_score(predictions, references, lang="zh", verbose=True)
    bert_scores = F1.tolist()

    # 计算平均得分
    avg_bleu = np.mean(bleu_scores)
    avg_rouge = {key: np.mean([score[key]['f'] for score in rouge_scores]) for key in rouge_scores[0]}
    avg_exact_match = np.mean(exact_matches)
    avg_bert_score = np.mean(bert_scores)

    results = {
        "BLEU": avg_bleu,
        "ROUGE": avg_rouge,
        "Exact Match": avg_exact_match,
        "BERTScore": avg_bert_score
    }

    return results


# 示例使用
predictions = ["这是系统生成的答案", "另一个系统答案"]
references = ["这是标准答案", "另一个标准答案"]
results = evaluate_responses(predictions, references)
print(results)

标签:bleu,三类,模型,准确性,score,rouge,import,问答,accuracy
From: https://blog.csdn.net/phyllis0065/article/details/140543243

相关文章

  • 搭建基于 ChatGPT 的问答系统第三章-评估输入分类
    需要学习提示词工程的同学请看面向开发者的提示词工程这是搭建ChatGP问答系统第二章,第一章内容请查看搭建基于ChatGPT的问答系统第一章-综述搭建基于ChatGPT的问答系统第二章-提问范式与Token第三章评估输入——分类在本章中,我们将重点探讨评估输入任务的重要性,这......
  • llm大语言模型用于电影问答
    项目:https://github.com/jiangnanboy/movie_llm_agent本项目利用chatglm6b实现一个中文版的简单电影问答功能,目的是探索llmagent与图数据库neo4j进行交互的能力,主要根据用户的意图与neo4j进行交互。Toolsagent使用几个tools与neo4j进行交互:Person_Tool:根据人物(演员)......
  • 初识Flutter问答&学习步骤
    大家好,我是有用就点赞学习Flutter=Flutter(UI库)+Dart(语言)编写Flutter应用的语言是?Dart语言Flutter里的组件叫?Widget组件Flutter是哪家公司推出的?Google什么是自渲染?(跨端一致性)1)一次编写,四处运行就是跨端的真谛。2)目前的场景:Android、IOS、PC、......
  • 7月11号问答
    问题零:docker的⽹络模式有哪些,默认是⽹络模式是什么Docker网络模式配置说明host模式–net=host容器和宿主机共享Networknamespace。容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。网络性能比较好,但是dockerhost上已经使用的端口就不能再用了,网络的隔离......
  • Iceberg v2表写入和微批治理冲突,如何保证治理准确性
    一、背景微批治理任务分多个job治理一张表,还有一个Flink程序每5分钟一次写入iceberg表,如治理任务划分了20个job治理一张表,在治理期间存在新的数据更新,如何保证治理准确性 二、猜想待验证1、治理和写入时快照和文件变化snapshot_idmanifest_file备注    ......
  • zabbix“专家坐诊”第246期问答
    问题一Q:有哪位大哥知道这是啥情况,6.4主动检查接口显示未知?A:看看agent配置文件的主采集有没有填写正确IP。Q:我刚刚客户端重新授权,发现可以预警了,但是还是灰色的,我尝试输入错误的密码,可以预警,但是这个灰色有点奇怪,在6.0版本上没有这个问题,我现在部署了6.4的会有这个问题。A:不影......
  • zabbix“专家坐诊”第245期问答
    问题一Q:vfs.dev.discovery拿的是哪里的文件,我看源码里面获取的是/proc/parttions里面的信息,但是我没有这个device,是怎么获取出来的?A:检查下系统内核版本或者agent程序版本,如果未定义KERNEL_2_4的情况下,读的是后面这个文件。Q:这两个文件我都看过,也没有cdrom这个磁盘,这个是麒麟V......
  • C#题目问答
    目录1.整数转换,整数和字符串,字符串和整数之间的转换怎么实现?2.日期转换,获取当前日期,字符串转日期,日期转字符串怎么实现?3.举例一维、二维、三维数组。4.需求:有个88笔费用记录,总额3亿,金额在300万~800万之间,随机数如何实现?并记录总耗时。5.简述常见的集合类型的存储结构和它......
  • 字符串相似度算法完全指南:编辑、令牌与序列三类算法的全面解析与深入分析
    在自然语言处理领域,人们经常需要比较字符串,这些字符串可能是单词、句子、段落甚至是整个文档。如何快速判断两个单词或句子是否相似,或者相似度是好还是差。这类似于我们使用手机打错一个词,但手机会建议正确的词来修正它,那么这种如何判断字符串相似度呢?本文将详细介绍这个问题。字......
  • Python实现基于先验MASK的视频问答(先验注意力机制的视频问答即之江数据集问答方案)
    !!!有需要的小伙伴可以通过文章末尾名片咨询我哦!!! ......