首页 > 其他分享 >大模型相关

大模型相关

时间:2024-08-03 16:28:14浏览次数:8  
标签:responses 模型 指令 need 相关 筛选 数据 your

1. 回复中包含推理或解释

system prompt
1. You are an AI assistant that helps people find information. Provide a detailed answer so user don’t need to search outside to understand the answer.
2. You are an AI assistant that helps people find information. User will you give you a question. Your task is to answer as faithfully as you can. While answering think step-bystep and justify your answer.

2. 判断规范

 Judging Guidelines
The core part of this annotation is to evaluate and compare the two candidate responses given the
conversation history and the user request. A typical annotation process includes the following:
1. You are supposed to understand the context and the user intent by reading the
conversations and thinking over the user request.
2. You need to read and compare the two model responses carefully and find their key
differences.
3. Frequently, you may need external tools to verify information in the responses if you lack
the necessary background or feel unsure about something.
4. Based on these, you will indicate your preference between two candidate responses based
on several aspects such as Helpfulness, Truthfulness, and Harmlessness. You need to
provide your overall assessment. In the annotation UI, these are in the form of radio
buttons.
5. You also need to specify your confidence level in the corresponding judgment.
6. You have the option to skip evaluating instances, but we encourage you to first attempt to
answer an instance to the best of your abilities.

MoDS: Model-oriented Data Selection for Instruction Tuning(papergithub介绍

MoDS方法主要通过质量、多样性、必要性三个指标来进行数据的筛选。整个过程分3个阶段:

  • 质量筛选:收集混合开源数据集mixData,采用OpenAssistant的reward-model-debertav3-large-v2模型(一个基于DeBERTa架构设计的奖励模型)对数据进行质量打分。,当评分超过α时,则认为数据质量达标,构建一份高质量数据集-Data1。
  • 多样性筛选:通过K-Center-Greedy算法进行数据筛选,在最大化多样性的情况下,使指令数据集最小。获取种子指令数据集(Seed Instruction Data)-SID。
  • 必要性筛选:从混合数据集mixData中筛选出大模型推理结果不佳的指令。以下是筛选步骤:a. 使用SID数据集对模型进行一个初始训练;b. 用训练好的初始模型对整个高质数据集-Data1中的指令进行结果预测;c. 利用奖励模型对结果进行评分,当分值小于β时,说明初始模型在这些指令上需要提升,获取必要性数据集-Data2;d. 对Data2进行多样性筛选,获取增强指令数据集(Augmented Instruction Data)-AID。

最终,利用种子指令数据集和增强指令数据集(SID+AID)一起对模型进行指令微调,获得最终模型

 

标签:responses,模型,指令,need,相关,筛选,数据,your
From: https://www.cnblogs.com/end/p/18340679

相关文章

  • 如何增强LangChain和FAISS多查询检索的相关性
    我正在为一个专注于冥想和灵性的项目开发一个使用LangChain和FAISS的多查询检索系统。我当前的设置涉及生成用户查询的变体以改进文档检索。但是,我遇到一个问题,即检索到的文档通常与查询主题无关。对于嵌入,我使用“经济嵌入文本”模型。我已将335本PDF书籍嵌入到......
  • 前端RSA密钥生成和加解密——window.crypto使用相关
    转自简书,原文地址,本文介绍window.crypto关于RSA方面的API。cryptoAPI支持常用的rsa、aes加解密,这边介绍rsa的应用。浏览器兼容性window.crypto需要chrome37版本,ie11,safari11才支持全部API而基本的加解密在safari7就可以。生成公私钥crypto.subtle.generateKey(algorith......
  • MATLAB(16)评价模型
    一、前言    在MATLAB中实现各种评价模型,如模糊评价、层次分析法(AHP)、综合评价模型、主成分分析(PCA)、数据包络分析(DEA,也称为数据包络分析或DataEnvelopmentAnalysis)和神经网络模型评价,需要编写相应的代码或使用MATLAB的内置函数和工具箱。下面我将为每种方法提供一......
  • MATLAB(15)分类模型
    一、前言    在MATLAB中,实现不同类型的聚类(如K-means聚类、层次聚类、模糊聚类)和分类(如神经网络分类)需要用到不同的函数和工具箱。下面我将为每种方法提供一个基本的示例代码。二、实现1.K-means聚类%假设X是数据矩阵,每行是一个样本,每列是一个特征X=[randn......
  • MATLAB预测模型(1)
    一、前言    在MATLAB中,解决和预测微分方程通常涉及到使用数值方法,因为许多微分方程的解析解是难以找到的。MATLAB提供了多种函数和工具箱来处理这类问题,其中ode45是最常用的一个,用于求解非刚性微分方程的初值问题。二、实现    以下是一个使用ode45来求解......
  • MATLAB预测模型(2)
    一、前言    在MATLAB中,进行线性回归、非线性回归以及统计回归预测可以通过多种方法实现,包括使用内置函数和自定义函数。下面,我将分别给出线性回归、非线性回归和基于统计回归进行预测的基本示例代码。二、实现1.线性回归    MATLAB中的polyfit函数可以......
  • 【Linux或者Windows中相关网络工具使用介绍】nc、ping、ifconfig、ipaddr、tcpdump、l
    在实际的网络排错、运维诊断、或者是开发过程中,熟练运用Linux或者Windows当中的有关网络工具,能够助力我们更迅速更精准地定位故障。因而,今天给大家分享几款必掌握的网络利器。1.nc命令在Linux中,nc命令即netcat命令,它被称为网络工具中的“瑞士军刀”,是一个功能强大的......
  • 开源模型应用落地-LangChain实用小技巧-ChatPromptTemplate的各种花样(三)
    一、前言  在当今的自然语言处理领域,LangChain框架因其强大的功能和灵活性而备受关注。掌握一些实用的小技巧,能够让您在使用LangChain框架时更加得心应手,从而更高效地开发出优质的自然语言处理应用。二、术语2.1.LangChain  是一个全方位的、基于大语言模型这......
  • LLM 大模型文档语义分块、微调数据集生成
    1、LLM大模型文档语义分块参考:https://blog.csdn.net/m0_59596990/article/details/140280541根据上下句的语义相关性,相关就组合成一个分块,不相关就当场两个快语义模型用的bert-base-chinese:https://huggingface.co/google-bert/bert-base-chinese代码:对水浒传的分......
  • 模型量化技术综述:揭示大型语言模型压缩的前沿技术
    大型语言模型(LLMs)通常因为体积过大而无法在消费级硬件上运行。这些模型可能包含数十亿个参数,通常需要配备大量显存的GPU来加速推理过程。因此越来越多的研究致力于通过改进训练、使用适配器等方法来缩小这些模型的体积。在这一领域中,一个主要的技术被称为量化。在这篇文章中,我......