首页 > 其他分享 >qwen-glossary-240520

qwen-glossary-240520

时间:2024-05-20 18:19:04浏览次数:28  
标签:语言 千问 glossary max 模型 qwen 240520 通义

Reference

通义简介

  • 通义千问

    • 通义千问是由阿里云自主研发的大语言模型,用于理解和分析用户输入的自然语言,在不同领域、任务内为用户提供服务和帮助。您可以通过提供尽可能清晰详细的指令来获取符合您预期的结果。
    • 文字创作:撰写故事、公文、邮件、剧本和诗歌等。
    • 文本处理:润色文本和提取文本摘要等。
    • 编程辅助:编写和优化代码等。
    • 翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。
    • 对话模拟:扮演不同角色进行交互式对话。
    • 数据可视化:图表制作和数据呈现等。
  • 通义千问VL

    • 通义千问VL是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM),可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,支持中文多模态对话及多图对话,并具有更好的性能,是首个支持中文开放域的通用定位模型和首个开源448分辨率的大规模视觉语言模型。
    • 看图做题;
    • 图文识别;
    • 增强分辨率;
模型名称 模型描述
qwen-turbo 通义千问超大规模语言模型,支持中文、英文等不同语言输入。
qwen-plus 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。
qwen-max 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型,也是当前通义千问2.5产品版本背后的API模型
qwen-max-0428 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月28号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。
qwen-max-0403 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月3号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。
qwen-max-0107 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年1月7号的历史快照稳定版本,仅推荐特定需求客户访问。
qwen-max-1201 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2023年12月1号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。
qwen-max-longcontext 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
qwen-dl-max 通义千问千亿级别超大规模语言模型,支持基于长文档、多文档(100个以内)等多个场景的对话功能。
qwen-vl-plus 通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。
qwen-vl-max 通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。

通义千问

  • 通义千问-Max
    • 通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型。
  • 通义千问-Max-0428
    • 通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型与当前的qwen-max版本对齐,为qwen-max的2024年4月28号的历史快照,预期维护到下个快照版本发布时间(待定)后一个月。
  • 通义千问-Max-长文本
    • 通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。支持28k超长上下文输入,随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型。
  • 通义千问-Plus
    • 通义千问超大规模语言模型的增强版,支持中文英文等不同语言输入。
  • 通义千问-Turbo
    • 通义千问超大规模语言模型,支持中文英文等不同语言输入。
  • 通义千问-文档大模型-Max
    • qwen-dl-max
    • qwen-dl是通义千问模型家族中,提供具备强大长文本处理能力的模型系列,当前首先推出qwen-dl-max,并通过与OpenAI兼容的模式提供API服务。
  • 通义千问-摘要增强版
    • bailian-summary
    • 在大模型通用能力基础上,专门增强了大模型的「文本摘要和总结」能力。
  • 通义千问-Max-1201
    • 【计划于2024年4月22日下线】通义千问超大规模语言模型,支持中文、英文等不同语言输入,模型支持8k tokens上下文,API限定用户输入为6k tokens。
  • 通义法睿-Plus-长文本
    • farui-plus
    • 通义法睿是以通义千问为基座经法律行业数据和知识专门训练的法律行业大模型产品,综合运用了模型精调、强化学习、 RAG检索增强、法律Agent技术,具有回答法律问题、推理法律适用、推荐裁判类案、辅助案情分析、生成法律文书、检索法律知识、审查合同条款等功能
  • 通义千问1.5-开源版-110B
    • qwen1.5-110b-chat
    • 通义千问1.5对外开源的110B规模参数量是经过人类指令对齐的chat模型

qwen-vl

  • 通义千问VL-Plus(qwen-vl-plus),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。
  • 通义千问VL-Max(qwen-vl-max),即通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。

通用文本向量

  • 通用文本向量-v1
    • 通用文本向量,是通义实验室基于LLM底座的多语言文本统一向量模型,面向全球多个主流语种,提供高水准的向量服务,帮助开发者将文本数据快速转换为高质量的向量数据。
  • 通用文本向量-v2
    • 通用文本向量,是通义实验室基于LLM底座的多语言文本统一向量模型,面向全球多个主流语种,提供高水准的向量服务,帮助开发者将文本数据快速转换为高质量的向量数据。
  • 通用文本向量-async-v1
    • 通用文本向量的批处理接口,通过这个接口客户可以以文本方式一次性的提交大批量的向量计算请求,在系统完成所有的计算之后,大模型服务平台会将结果信息存储在结果文件中供客户下载解析。
  • 通用文本向量-async-v2
    • 通用文本向量的批处理接口,通过这个接口客户可以以文本方式一次性的提交大批量的向量计算请求,在系统完成所有的计算之后,大模型服务平台会将结果信息存储在结果文件中供客户下载解析。

Moonshot

  • Moonshot-v1-8k 是 Moonshot AI 推出了一款千亿参数的语言模型,具备优秀的语义理解、指令遵循和文本生成能力。支持 8K 上下文窗口,适合长文本的理解和内容生成场景。随着性能的迭代,模型会持续更新。
  • Moonshot-v1-32k 是 Moonshot AI 推出了一款千亿参数的语言模型,具备优秀的语义理解、指令遵循和文本生成能力。支持 32K 上下文窗口,适合长文本的理解和内容生成场景。随着性能的迭代,模型会持续更新。
  • Moonshot-v1-128k 是 Moonshot AI 推出了一款千亿参数的语言模型,具备优秀的语义理解、指令遵循和文本生成能力。支持 128K 长上下文窗口,适合超长文本的理解和内容生成场景。随着性能的迭代,模型会持续更新。

Glossary

  • system : 系统人设,例如“你是一个AI助手”。
  • top_p : 控制核采样方法的概率阈值,取值越大,生成的随机性越高。
  • temperature :控制生成随机性和多样性,范围(0,2)。建议该参数和top_p只设置1个。
  • stop:用于控制生成时遇到某些内容则停止。您可传入多个字符串。
  • enable_search:是否参考搜索的结果,默认false。

标签:语言,千问,glossary,max,模型,qwen,240520,通义
From: https://www.cnblogs.com/suanec/p/18202568

相关文章

  • LLM实战:LLM微调加速神器-Unsloth + Qwen1.5
    1.背景上一篇介绍了基于训练加速框架Unsloth,微调训练Llama3的显卡资源占用及训练时间对比。近期Unsloth新增了Qwen1.5的模型适配,因此本qiang~马不停蹄地又进行了一次实验对比。对Unsloth的简介,感兴趣的客观可以查阅上一篇《LLM微调加速神器:Unsloth+LLama3》。2.实战本着......
  • 【datawhale打卡】深入剖析大模型原理——Qwen Blog
    教程及参考文档QwenBlog科普神文,一次性讲透AI大模型的核心概念Largelanguagemodels,explainedwithaminimumofmathandjargon0.前置知识由于我没有LLM基础,所以直接上手看文档看的是一头雾水。然后就去补了一下基础知识,这里算是一点简单的个人理解和总结吧。LLM......
  • Qwen-VL环境搭建&推理测试
    引子这几天阿里的Qwen2.5大模型在大模型圈引起了轰动,号称地表最强中文大模型。前面几篇也写了QWen的微调等,视觉语言模型也写了一篇CogVLM,感兴趣的小伙伴可以移步https://blog.csdn.net/zzq1989_/article/details/138118608?spm=1001.2014.3001.5501。前面也写过一篇智谱AI的视觉......
  • text-generation-webui 推理模型Qwen1.5-7B-Chat相关报错问题解决
    推理代码text-generation-webui推理模型Qwen1.5-7B-Chatsysinfo nvcc--versioncuda11.8importtorch>>>print(torch.__version__)1路径错误2依赖没安装ImportError:Thismodelingfilerequiresthefollowingpackagesthatwerenotfoundinyourenvironme......
  • 检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统
    检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统什么是RAGLLM会产生误导性的“幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。正是在这样的背景下,检索增强生成技术(Retrieval-AugmentedGeneration,RAG......
  • vllm 通过不同的chat_template推理部署常见qwen、chatglm、llama3等开源大模型
    vllm版本4.0.0镜像vllmgithub官方镜像gpuv10032ga80080gopenaiapi方式出现的问题通过chat-template聊天模板解决1推理部署qwen系列模型测试我是谁问题:回答内容含有分词符,回答有杂论冗余内容模型文件没有默认聊天模板vllm官方也没有聊天模板找不到不过......
  • Qwen1.5微调
    ​引子由于工作上需要,一直在用Qwen做大模型推理,有个再训练的需求,特此琢磨下Qwen的训练。OK,我们开始吧。一、安装环境查看显卡驱动版本根据官网推荐OK,docker在手,天下我有。dockerpullqwenllm/qwen:cu117dockerrun-it--rm--gpus=all-v/mnt/code/LLM_Service/:/work......
  • 开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(二)
    一、前言  经过开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(一)的实践,相信大家已经成功地运行起一个性能良好的sglangAPI服务。现在,在充裕的服务器资源配置下,接下来可以继续进行一些优化工作。二、术语2.1.sglang  SGLangisastructuredge......
  • 开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(一)
    一、前言   SGLangisastructuredgenerationlanguagedesignedforlargelanguagemodels(LLMs).ItmakesyourinteractionwithLLMsfasterandmorecontrollablebyco-designingthefrontendlanguageandtheruntimesystem。简单来说就是,SGLang简化了LLM......
  • 开源模型应用落地-qwen1.5-7b-chat-LoRA微调代码拆解
    一、前言  本篇文章将解析QWen1.5系列模型的微调代码,帮助您理解其中的关键技术要点。通过阅读本文,您将能够更好地掌握这些关键技术,并应用于自己的项目中。   开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)二、术语介绍2.1.LoRA微调  LoRA(Low-RankAdap......