首页 > 其他分享 >GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!

时间:2023-07-01 10:01:26浏览次数:42  
标签:GLM WebGLM 模型 WebGPT 搜索 答案 链接 加强版


夕小瑶科技说 原创
作者 | 小戏、ZenMoore

大模型生成答案不可靠?一种很直接的思路就是结合传统的搜索引擎的“知识”来对大模型进行一次检索增强

其实早在 InstructGPT 面世以前,OpenAI 就发布了可以用作搜索结果聚合的模型 WebGPT,WebGPT 基于 GPT-3 试图模仿人类的“搜索行为”以使用搜索引擎获得聚合的搜索答案,从而在比如开放域长问答上收获了非常不错的结果

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_搜索

借鉴 WebGPT 结合搜索引擎能力的思路,清华大学唐杰老师团队为目前国内开源大模型的佼佼者 ChatGLM 接上了网线,推出了 ChatGLM 的联网加强版 WebGLM,作为一个基于 GLM-10B 的联网增强版问答系统,WebGLM 可以更加精确高效的完成问答与检索的任务,甚至在实验中可以以 10B 的参数量性能逼近 175B 的 WebGPT 的表现

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_chatgpt_02


目前,WebGLM 公布了代码地址如下,想体验的朋友可以戳链接到达~

论文题目:

WebGLM: Towards An Efficient Web-Enhanced Question
Answering System with Human Preferences

论文链接:

https://arxiv.org/pdf/2306.07906.pdf

项目主页:

https://github.com/THUDM/WebGLM

大模型研究测试传送门

GPT-4能力研究传送门(遇浏览器警告点高级/继续访问即可):
https://gpt4test.com

一个官方的使用介绍如下图所示:

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_chatgpt_03

譬如,如果询问疫情何时结束,WebGLM 会“引经据典”的援引不同的网页链接对问题进行回答,可以看到回复还是相当专业,并且也都列出了真实的参考链接,大大增强了模型回复的可信度。

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_人工智能_04

而再看一个例子,关于更“软”一点的问题“如何平衡工作与生活”,WebGLM 也可以很好的处理。

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_chatGLM_05

对标 WebGPT,一个网络增强的问题系统一般涉及三个组件,分别是 Retriever,Generator 与 Scorer。Retriever 主要使用大模型来作为一个增强的检索器,在整个 WebGLM 中,检索器的使用分为了两个阶段:

  • 粗粒度搜索:整体分为搜索、获取与提取三个阶段,搜索通过使用用户输入的问题,使用 Google API 获取主要候选网页的 URL,获取阶段根据得到的 URL 并行爬取相应的 HTML 的内容,在提取阶段基于 HTML2TEXT 得到页面的文本内容分为段落列表。
  • 细粒度搜索:在粗粒度搜索中,仍然有可能会有大量内容与搜索问题无关,因此 WebGLM 综合预训练的 Contriever 检索器与 ChatGLM 对粗粒度搜索的内容进行“提纯”。

在整个过程中,时间主要消耗在获取网页的步骤中,因此 WebGLM 通过使用并行异步的技术大幅加快了页面的加载时间。

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_chatgpt_06

而 Generator 部分主要负责从检索器得到的参考页面中生成出高质量的问题答案,这也是作为基于 Web 增强的 GLM 的核心功能。在 WebGPT 中,OpenAI 聘请了一组全职的专家构造包含问题、答案以及有效参考链接的三元组数据集,而在 WebGLM 中,作者团队使用大模型的上下文学习能力构造了一个包含四万五千条过滤数据与八万三千条未过滤数据的问答数据集 WebGLM-QA。

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_人工智能_07

数据集生成应用了大模型出色的上下文学习能力,作者称为 Bootstrapped Generator,步骤方法如上图所示。生成主要分为 Prompt Formulation、Instruction Inducting 以及 Few-shot In-Context Learning 三个阶段,在 Prompt Formulation 中,作者比较了几种 Prompt 方法确定了最优 Prompt,在 Instruction Inducting 中作者采用了 LLM 自我设计指示的方法,以生成问题答案,而在 Few-shot In-Context Learning 中,利用一次学习的方法选择一次展示进行推理,完成数据集的构建。

最后,为了与人类的目标与偏好对齐,WebGLM 又构建了 Scorer 部分,通过使用人类反馈的强化学习来为 WebGLM 生成的答案进行评分,并依据评分对模型进行微调与舍弃了部分样本。整体模型架构如下图所示:

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_搜索_08

在实验部分,通过主要对答案与参考链接进行评估。在答案评估部分,主要使用流畅性、正确性、真实性、客观性、冗余性与引证准确度六个指标进行评估,在参考链接评估部分,主要使用相关性、密度、真实性、有毒性以及社会偏差五个指标进行评估

通过 15 位人类专家在 272 个问题上进行打分,可以得到:

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_chatGLM_09

对标 WebGPT-175B,WebGLM 仅仅略显逊色,但其性能远高于 Perplexity.ai 与 WebGPT-13B,甚至在流畅性、真实性与冗余度方面均取得了最高的性能,并在正确率得分中接近了 WebGPT-175B

此外,作者为了检验 WebGLM 答案的质量,通过将 WebGLM、WebGPT-175B、WebGPT-13B 和 Perplexity.ai 生成的答案进行打乱,再混入人类编写的答案寻找真实人类评估者对答案的质量进行评估,评估以“擂台赛”的方式进行,直接比较得到 A 答案与 B 答案的优劣,构建了一次问答生成的“图灵测试”。结果显示,WebGLM 对标人类也具有 43% 的胜率,几乎与 WebGPT-175B 的 45% 胜率打成平手

GLM 大加强,清华团队推出 GLM 联网加强版 WebGLM!_chatGLM_10


标签:GLM,WebGLM,模型,WebGPT,搜索,答案,链接,加强版
From: https://blog.51cto.com/xixiaoyao/6598107

相关文章

  • ChatGLM-6B第二代模型开源,拿下LLM模型中文能力评估榜单第一名
    ChatGLM-6B自3月14日发布以来,深受广大开发者喜爱。截至6月24日,来自Huggingface上的下载量已经超过300w。为了更进一步促进大模型开源社区的发展,我们再次升级ChatGLM-6B,发布ChatGLM2-6B。在主要评估LLM模型中文能力的C-Eval榜单中,截至6月25日ChatGLM2模型以71.1的......
  • Hugging News #0626: 音频课程更新、在线体验 baichuan-7B 模型、ChatGLM2-6B 重磅发
    每一周,我们的同事都会向社区的成员们发布一些关于HuggingFace相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「HuggingNews」,本期HuggingNews有哪些有趣的消息,快来看看吧!重要更新最新音频课程现已发布近期,我们......
  • GLM/MLM/CMLM
    GLM(GeneralizedLinearModel)、MLM(MixedLinearModel)和CMLM(CompressedMixedLinearModel)都是统计模型,常用于基因组关联分析(Genome-WideAssociationStudy,GWAS)中。GLM(GeneralizedLinearModel):广义线性模型是一种常见的线性回归模型扩展,用于分析因变量与一个或多个自变量之......
  • ChatGPT小型平替之ChatGLM-6B本地化部署、接入本地知识库体验
    本文期望通过本地化部署一个基于LLM模型的应用,能让大家对构建一个完整的应用有一个基本认知。包括基本的软硬环境依赖、底层的LLM模型、中间的基础框架及最上层的展示组件,最终能达到在本地零编码体验的目的。一、ChatGLM-6B模型介绍https://github.com/THUDM/ChatGLM-6B[Star......
  • ChatGLM项目启动选项参数
    项目启动选项usage:langchina-ChatGLM[-h][--no-remote-model][--modelMODEL][--loraLORA][--model-dirMODEL_DIR][--lora-dirLORA_DIR][--cpu][--auto-devices][--gpu-memoryGPU_MEMORY[GPU_MEMORY...]][--cpu-memoryCPU_MEMORY][--load-in-8bit][--bf16]......
  • 在 Windows 下部署 ChatGLM-6B 过程记录
    1、为git安装lfs模块下载模型文件前,需要安装gitlfs模块以支持大文件的下载。下载地址:https://git-lfs.com/验证:gitlfsinstall2、下载模型文件gitclonehttps://huggingface.co/THUDM/chatglm-6b-int43、......
  • ChatGLM-6B云服务器部署教程
    目录一、准备服务器1.购买服务器2.开机进入终端3.进入终端二、部署ChatGLM1.执行命令2.本地代理访问地址2.1结果如下2.2api接口一样操作三、Fastapi流式接口1.api_fast.py1.2将api_fast.py上传到服务器2.准备插件3.访问地址CSDN链接地址:https://blog.csdn.net/Yh_yh_new_Yh/ar......
  • 在MacM1上运行ChatGLM-6B推理
    1.简介ChatGLM6B是清华大学和智谱合作的一个62亿参数的大语言模型。基于清华的GLM模型开发。和Meta的LLaMA模型还不是一种模型。由于LLaMA缺乏中文语料,中文能力不佳。在中文大模型中,ChatGLM6B参数较小,运行硬件要求较低。而表现可谓出色。所以这里作为一个基础模型先让他运行......
  • DR5插件加强版 for Mac(ps磨皮滤镜) v5.0中文版
    dr5中文版是一款功能强大的ps磨皮插件集合版,整合了dr5磨皮美妆功能和工笔画功能,实现一个面板上集成众多修图功能,帮助用户一键磨皮降噪美白、局部平滑、表面平滑、改变色调、斑点祛除、液化校正、美白牙齿、眼睛增强等等,专注人像修饰,是您日常修图必备插件。DR5插件加强版下载Del......
  • ChatGLM简介和SSE聊天接口测试效果
    开发公司智谱AI是由清华大学计算机系技术成果转化而来的公司,致力于打造新一代认知智能通用模型。公司合作研发了双语千亿级超大规模预训练模型GLM-130B,并构建了高精度通用知识图谱,形成数据与知识双轮驱动的认知引擎,基于此模型打造了ChatGLM(chatglm.cn)。此外,智谱AI还推出了认知大......