首页 > 其他分享 >开源超闭源!通义千问Qwen2发布即爆火,网友:GPT-4o危

开源超闭源!通义千问Qwen2发布即爆火,网友:GPT-4o危

时间:2024-06-11 12:21:48浏览次数:20  
标签:72B 千问 Qwen2 模型 Instruct 4o 开源 AI

 鱼羊发自凹非寺量子位公众号 QbitAI

  开源大模型全球格局,一夜再变。

  这不,全新开源大模型亮相,性能全面超越开源标杆 Llama 3。王座易主了。不是“媲美”、不是“追上”,是全面超越。发布两小时,直接冲上 HggingFace 开源大模型榜单第一。

  这就是最新一代开源大模型 Qwen2,来自通义千问,来自阿里巴巴。

  在十几项国际权威测评中,Qwen2-72B 得分均胜过 Llama3-70B,尤其在 HumanEval、MATH 等测试代码和数学能力的基准中表现突出。

  不仅如此,作为国产大模型,Qwen2-72B 也“毕其功于一役”,超过了国内一众闭源大模型:

  Qwen2-72B 相比于自家前代模型 Qwen1.5-110B 实现了整体性能的代际提升,而在上海 AI Lab 推出的 OpenCompass 大模型测评榜单上,Qwen1.5-110B 已经超过了文心4、Moonshot-v1-8K 等一众国内闭源模型。随着 Qwen2-72B 的问世,这一领先优势还在扩大。

  有网友便感慨说:这还只是刚开始。开源模型很可能在未来几个月,就能击败 GPT-4o 为代表的闭源模型。

  Qwen2 的发布,可以说是一石激起千层浪。

  上线仅 1 天,下载量已经超过 3 万次。

  网友们还发现,除了 72B 和指令调优版本,这次同步开源的 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B,开源许可都换成了 Apache 2.0——

  就是说可以更加自由地商用。这是 Llama 3 系列都没做到的。

  在 AI 大模型领域,时间和速度都不同了。

  因为距离阿里推出 Qwen1.5-110B 模型刷新 SOTA,全球开源大模型形成双雄格局,才刚过去 1 个月时间。

  而现在,Qwen2 独领风骚,全球开源第一,国产大模型第一——连不开源的大模型都超越了。

  Qwen2 挑战高考数学真题

  还是先来整体梳理一下 Qwen2 的基本情况。

  根据官方技术博客介绍,Qwen2 的特点和相比 Qwen1.5 的主要升级包括:

  • 发布 5 个尺寸的预训练和指令微调模型,包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 以及 Qwen2-72B。其中 Qwen2-57B-A14B 是一个 MoE 模型。
  • 在中文英语的基础上,对 27 种语言进行了增强。有阿拉伯语开发者表示,Qwen 已经成为 4 亿阿拉伯语用户喜欢的大模型,稳居阿拉伯语开源模型榜单第一。

  • 在 MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench 等国际权威测评中,Qwen2-72B 斩获十几项世界第一,超过 Llama 3。
  • 代码和数学能力显著提升。
  • 增大了上下文长度支持,最长实现 128K tokens 上下文长度支持(Qwen2-7B-Instruct 和 Qwen2-72B-Instruct)。

  纸面数据上,Qwen2 在开源大模型中已经达成全球最强,那么实际表现又会如何?

  我们用新鲜出炉的高考数学真题上手实测了一波。

  先来个简单题:已知集合A={x-5<x^3<5},B={-3,-1,0,2,3},则A∩B=()

  左边是 Qwen2-72B-Instruct,右边是 Llama-3-70B-Instruct。除了 Llama 3 原版的老问题不咋支持中文外,两边的答案都是正确的。

  那么就稍微上点难度:当x∈[0, 2π]时,曲线y=sinx 与y=2sin (3x-π/6) 的交点个数为?

  Qwen2-72B-Instruct 依然没有被难住,一通计算后给出正确答案:交点个数为 6 个。

  而 Llama-3-70B-Instruct 则计算错误,扣 5 分。

  Qwen2 在数学能力方面,已经到了高考考场接受真题检验的水平。

  通义千问此番升级,官方和评测数据还突出了代码能力的提升,我们也有 LeetCode 中等难度真题浅测了一下:给你一个按照非递减顺序排列的整数数组 nums,和一个目标值 target。请你找出给定目标值在数组中的开始位置和结束位置。如果数组中不存在目标值 target,返回 [-1, -1]。你必须设计并实现时间复杂度为 O (log n) 的算法解决此问题。

  Qwen2-72B-Instruct 给出的 python 实现如下:

  defsearchRange (nums, target):defbinary_search_left (nums, target):

  left, right =0, len (nums) whileleft < right:

  mid = (left + right) //2ifnums[mid] < target:

  left = mid +1else:

  right = midreturn left

  defbinary_search_right (nums, target):

  left, right =0, len (nums) whileleft < right:

  mid = (left + right) //2ifnums[mid] <= target:

  left = mid +1else:

  right = midreturn left

  left, right = binary_search_left (nums, target), binary_search_right (nums, target) return[left, right -1]ifleft <= right -1andnums[left] == targetandnums[right -1] == targetelse[-1,-1]

  一开始没有定义 Solution 类导致报错,不过直接把报错信息反馈给 Qwen2,它自己就能完成 debug:

  顺利通过测试。

  全尺寸模型标配 GQA

  这波实测,你给通义千问打几分?

  值得关注的是,这次阿里官方的技术博客中,还透露出了不少Qwen 变强的技术细节

  首先,是GQA(Grouped Query Attention)的全面加持。

  GQA,即分组查询注意力机制,主要思想将输入序列划分成若干个组,在组内和组间分别应用注意力机制,以更好地捕捉序列内的局部和全局依赖关系。

  GQA 能够有效降低计算复杂度,同时很容易实现并行化从而提高计算效率。

  在 Qwen1.5 系列中,只有 32B 和 110B 模型使用了 GQA。而 Qwen2 则全系列用上了这一注意力机制。也就是说,无论是高端玩家还是爱好者入门,这回都能在 Qwen2 各个尺寸模型中体验到 GQA 带来的推理加速和显存占用降低的优势。

  另外,针对小模型(0.5B 和 1.5B),由于 embedding 参数量较大,研发团队使用了 tie embedding 的方法让输入和输出层共享参数,以增加非 embedding 参数的占比。

  其次,在上下文长度方面,Qwen2 系列中所有 Instruct 模型,均在 32K 上下文长度上进行训练,并通过 YARN 或 Dual Chunk Attention 等技术扩展至更长的上下文长度。

  其中,Qwen2-7B-Instruct 和 Qwen2-72B-Instruct 支持 128K 上下文。72B 版本的最长上下文长度可以达到 131072 个 token。

  Qwen2-57B-A14B-Instruct 能处理 64K 上下文,其余两个较小的模型(0.5B 和 1.5B)则支持 32K 的上下文长度。

  大海捞针的实验结果如下。可以看到,Qwen2-72B-Instruct 在处理 128K 上下文长度内的信息抽取任务时,表现称得上完美。

  除此之外,在数据方面,Qwen2 继续探索 Scaling Law 的路线。

  比如数学能力的提升,就是研究团队给模型喂了大规模高质量数学数据的结果。

  在多语言能力方面,研究团队也针对性地在训练数据中增加了 27 种语言相关的高质量数据。

  博客还透露,接下来,通义千问研究团队还将继续探索模型及数据的 Scaling Law,还会把 Qwen2 扩展为多模态模型。

  重新认识中国开源大模型

  更强的性能、更开放的态度,Qwen2 刚一发布,堪称好评如潮。

  而在此前,生态方面,Qwen 系列下载量已突破 1600 万次。海内外开源社区也已经出现了超过 1500 款基于 Qwen 二次开发的模型和应用。

  已经有开发者感受到了:在开源路线上,现在中国大模型正在成为引领者

  Qwen2 的最新成绩单,至少印证了两个事实。

  其一,中国开源大模型,从性能到生态,都已具备跟美国最强开源大模型 Llama 3 全面对垒的硬实力。

  其二,如图灵奖得主 Yann LeCun 所预言,开源大模型已经走在了超越闭源模型的道路上,拐点已现。

  事实上,这也是包括阿里在内,开源大模型玩家的明牌——

  大模型的持续优化和进步,一方面依赖于强大的 AI 研发能力、领先的基础设施能力,也就是人工智能和云的强强联合。

  以阿里为例,作为中国云厂商份额第一,依托于强大的云计算能力,能为 AI 训练、AI 应用提供稳定高效的 AI 基础服务体系,同时在人工智能方面有长期的积累。

  另一方面也需要来自外界的不断反馈和技术推动。

  开源社区的技术反哺,从 Qwen2 上线第一天,GitHub 上的 Issues 数量就可见一斑。

  在技术领域,开源就是我为人人、人人为我,是全球科技互联网繁荣发展至今最核心的精神要素。

  不论任何一个时代,不管哪种新兴技术浪潮,没有程序员、工程师不以开源感到骄傲,甚至快乐。

  阿里高级算法专家、开源负责人林俊旸,曾对外分享过通义千问进展飞快的“秘籍”:

  快乐。

  因为面向全球开发者服务,面向其他开发者交流,给别人带去实实在在的帮助,这样通义千问大模型的打造者们快乐又兴奋,关注着每一个开发者的反馈,激动于全新意想不到的落地应用。

  这也是科技互联网世界曾经快速发展的核心原因,黄金时代,开源才是约定俗成的,不开源反而要遭受质疑。

  然而时移世易,在大模型时代,由于研发成本、商业模式和竞争多方面的原因,闭源的光芒一度掩盖了开源,Close 成了宠儿。

  所以 Meta 的 Llama 也好,阿里通义千问的 Qwen 也好,复兴传统,重新证明科技互联网领域不变的精神和内核。

  这种精神和内核,在通义千问这里,也拥有不言自明的可持续飞轮。

  阿里巴巴董事长蔡崇信已经对外分享了思考,在全球云计算和 AI 的第一梯队中,有领先的云业务又有自研大模型能力的,仅谷歌和阿里两家。其他有云服务的微软、亚马逊,都是合作接入大模型;其他自研大模型的 OpenAI、Meta,没有领先的云服务。

  全球唯二,中国唯一。

  而在开源生态的推动中,技术迭代会更快,云计算的服务延伸会越广,技术模型和商业模式,飞轮闭环,循环迭代,在固有基础设施的基础上垒起新的基础设施,形成稳固持续的竞争力。

  但开源大模型,最大的价值和意义依然回归开发者,只有足够强大的开源大模型,AI for All、AI 无处不在才不会成为纸上空谈。

  所以通义千问 Qwen2,此时此刻,登顶的是全球开源性能最高峰,引领的是开源对闭源的超越阶段,象征着中国大模型在新 AI 时代中的竞争力。

  但更值得期待的价值是通过开源大模型,让天下没有难开发的 AI 应用、让天下没有难落地的 AI 方案。完整兑现 AI 价值,让新一轮 AI 复兴,持续繁荣,真正改变经济和社会。

标签:72B,千问,Qwen2,模型,Instruct,4o,开源,AI
From: https://www.cnblogs.com/chinasoft/p/18241839

相关文章

  • 全球Web数据库管理工具推荐(ChatGPT 4o的推荐是什么样?)
    在现代数据管理和开发中,Web数据库管理工具变得越来越重要。这些工具不仅提供了直观的用户界面,还支持跨平台操作,方便用户在任何地方进行数据库管理。目录1.SQLynx2.phpMyAdmin3.Adminer4.DBeaver5结论以下是几款推荐的Web数据库管理工具,每款工具都有其独特的特......
  • ValueError: Tokenizer class Qwen2Tokenizer does not exist or is not currently po
    ValueError:TokenizerclassQwen2Tokenizerdoesnotexistorisnotcurrentlyported.解决方案:全面解析问题概述当您使用Qwen模型或Qwen技术相关库时,遇到ValueError:TokenizerclassQwen2Tokenizerdoesnotexistorisnotcurrentlyported.错误时,这意味着......
  • 阿里通义千问 Qwen2 大模型开源发布
    阿里通义千问Qwen2大模型开源发布Qwen2系列模型是Qwen1.5系列模型的重大升级。该系列包括了五个不同尺寸的预训练和指令微调模型:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。在中文和英文的基础上,Qwen2系列的训练数据中还增加了其他27种语......
  • ollama gpu 集成测试qwen2 7b 模型
    昨天测试了下基于ollamacpu模式运行的qwen2对于小参数0.5b以及1.5b的速度还行,但是你的cpu核数以及内存还是需要大一些今天测试下基于gpu的qwen27b模型,以下简单说明下安装ollama如果我们申请的机器包含了GPU,ollama的安装cli还是比较方便的,会直接帮助我们进行gpu驱......
  • ollama qwen2 运行&openai 兼容api 测试
    qwen2模型已经发布了,各种新闻都说很不错,所以通过ollama测试下安装ollamaclicurl-fsSLhttps://ollama.com/install.sh|sh启动服务ollamaserve拉取qwen2:1.5b模型使用了api模式clicurl-XPOSThttp://localh......
  • [AI资讯·0609] SamAltman建立了庞大投资帝国,通义千问Qwen2发布即爆火,OpenAI泄密者公
    AI资讯奥特曼28亿「投资帝国」曝光!不要OpenAI股份,当CEO最不赚钱开源超闭源!通义千问Qwen2发布即爆火,网友:GPT-4o危OpenAI泄密者公布165页文件:2027年实现AGI、计算集群将耗资千亿美元清华系细胞大模型登Nature子刊!能对人类2万基因同时建模奥特曼百万年薪挖角谷歌TPU人才,欲砸7万......
  • ChatGPT-4o提示词的九大酷炫用法,你知道几个?
    ChatGPT-4o提示词的九大酷炫用法,你知道几个?......
  • GPT-4o多模态处理能力解析:AI技术的新高度
     GPT-4o模型在2024年5月14日被宣布推出,具有多项引人注目的特点与功能。能够支持文本、音频和图像的任意组合输入,并生成相应的文本、音频和图像输出。它在视觉和音频理解方面尤其出色,可以实时对音频、视觉和文本进行推理。相比之前的模型,GPT-4o在速度上有了显著的提升,例如,它可......
  • 国产大模型参加高考,同写2024年高考作文,及格分(通义千问、Kimi、智谱清言、Gemini Advan
    大家好,我是章北海今天高考,上午的语文结束,市面上又要来一场大模型参考的文章了。我也凑凑热闹,让通义千问、Kimi、智谱清言一起来写一下高考作文。公平起见,不加任何其他prompt,直接把题目甩过去。感觉写的都很一般,通篇口水文,都能拿个及格分吧。有点好奇,就加了几个国外选手参赛:Ge......
  • ChatGPT-4o在临床医学日常工作、数据分析与可视化、机器学习建模中的技术
    2022年11月30日,可能将成为一个改变人类历史的日子——美国人工智能开发机构OpenAI推出了聊天机器人ChatGPT-3.5,将人工智能的发展推向了一个新的高度。2023年11月7日,OpenAI首届开发者大会被称为“科技界的春晚”,吸引了全球广大用户的关注,GPT商店更是显现了OpenAI旨在构建AI生态......