首页 > 其他分享 >科技云报道:开源才是大模型的未来?

科技云报道:开源才是大模型的未来?

时间:2023-12-25 14:05:54浏览次数:38  
标签:AI 模型 商业化 开源 闭源 LLaMA 报道

科技云报道原创。

一年前,ChatGPT横空出世;7个多月后,Meta宣布开源LLaMA 2,并且可免费商用。

这一天,也成为大模型发展的分水岭。短时间内,LLaMA 2对一些闭源的大模型厂商造成了致命性的打击。

随后,全球头部厂商和创业公司纷纷加入开源浪潮中。目前,国内也有近一半的大模型选择了开源的方式:

  • 今年7月,智谱AI宣布开源大模型ChatGLM-6B和ChatGLM2-6B,这两个模型的下载量已经先后超过300万和120万。
  • 8月,阿里宣布开源通义千问70亿参数模型Qwen-7B,一个多月下载量破100万;12月,阿里持续开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。
  • 9月,百川智能宣布开源Baichuan-7B、13B两款大模型,其下载量目前已经突破500万,200多家企业申请部署开源大模型。
  • 11月,元象XVERSE宣布开源650亿参数高性能通用大模型XVERSE-65B;
  • 11月底,浪潮信息发布完全开源且可免费商用的源2.0基础大模型,包含1026亿、518亿、21亿不同参数规模......

仅仅在过去的一个月内,国内最大开源模型的参数纪录就已经被刷新了N次。性能参数、性价比、可靠性,正成为抢占先机的关键词,而开源似乎也成为大模型发展的主流趋势。

科技云报道:开源才是大模型的未来?_企业级

有业内人士认为,未来90%的企业会倾向基于开源大模型发展。那么,开源是否真的是大模型的未来?

开源大模型快速赶超

开源大模型的核心理念是开放源代码,允许公众访问、使用、修改和分发模型的源代码。

面对市场竞争,开源大模型的免费使用是非常有吸引力的获客手段;同时,低成本的试错也有助于开源大模型更快触达潜在用户群体,降低企业认知和决策难度,加速创新。

从技术角度看,大模型涉及许多技术问题,单靠一家企业很难解决。开源大模型鼓励全球开发者社区的参与和贡献,这种集体智慧能够加速技术的迭代和创新,如GitHub上的众多AI项目就证明了这一点。

不仅如此,开源代码使得研究人员和用户能够审查模型的工作原理和决策过程,从而提高大模型的透明度和可信赖性。这对于解决AI的公平性、偏见和伦理问题至关重要。

事实上,自从LLaMA 2开源后,业界开始意识到大模型技术没有任何护栏。

基于成本的考虑,许多企业选择放弃支付上千万元的调用闭源大模型API的费用,转而部署和微调LLaMA 2。

创业者们的目光从解构、增强LLaMA 2转向了构建行业专有大模型,又掀起了一波LLaMA 2+司法、LLaMA 2+医疗等一系列的行业开源大模型。据不完全统计,LLaMA 2开源后,国内就涌现出了十几个开源行业大模型。

一份从谷歌内部泄露出来的备忘录(标题是《我们没有护城河》)证实了这种观点:

“我们无法赢得这场军备竞赛,OpenAI 也一样。当我们争吵不休的时候,第三个派系(开源)却在悄悄地吃掉我们的午餐”。

谷歌备忘录作者发现,自从LLaMA开源后,立刻出现了大量的创新,重大开发成果之间的间隔也在缩短。

Meta是一个明显的赢家,他们有效地获得了整个星球的免费劳动力,大多数开源创新都发生在他们的架构之上,没有什么能阻止他们将其直接整合到他们的产品中。

“当免费、不受限制的替代品在质量上具有可比性时,人们就不会为受限制的模型付费”,备忘录里写道。

最近,Meta首席AI科学家Yann LeCun转发了方舟投资(ARK Invest)制作的一张趋势图,描绘了开源社区与闭源模型在生成式AI上的发展。

“开源人工智能模型正走在超越专有模型的路上”,他感概道。

有网友甚至表示,我们正在接近一个临界点。以目前开源社区项目的发展速度,开源大模型将在未来12个月内达到GPT-4的水平。

未来1-2年,开源力量可能在与闭源大模型分庭抗礼。

开源大模型的商业化挑战

尽管开源已成为现阶段大模型发展的一种主流趋势,开源大模型的发展速度也远快于封闭生态系统,但并非所有的厂商都选择开源路线,也并不代表厂商会一直开源所有的大模型。

比如,以开源切入大模型赛道的百川智能,在发布完Baichuan-7B、Baichuan-13B开源大模型后,参数更大的Baichuan-53B大模型则选择了闭源。

由此可见,开源或闭源并非大模型的唯一发展路径。在当下,能够闭源的大模型一定是可以提供足够高的价值,帮用户更好地完成高性能的大模型训练、推理和部署,通过调用API的方式来帮助用户降低门槛。

这也是OpenAI等AI巨头闭源的思路,因其自身技术的绝对领先优势,使得其价值也非常的大。

相比之下,开源大模型除了快速迭代、证明自己的价值,还面临着更多的挑战,比如:

由于源代码的公开性,开源大模型可能更容易受到恶意攻击或滥用,确保数据安全和用户隐私需要额外的努力和监管。

同时,来自商业模式的不确定性,如何在保持开放的同时实现可持续的商业发展,始终是开源需要解决的重要问题。

回顾历史,红帽在开源商业化成功的道路上已做出了示范。作为最早通过提供企业级 Linux 发行版和相关服务的公司,红帽通过订阅模式为客户提供技术支持、更新和定制化服务。

红帽的商业化路径具体而言:在最上游的开源社区,参与开源技术贡献,做大做强生态;提取开源社区中的上游技术产品,沉淀到自己小开源社区;再将其认为最有价值的技术检验、测试、打包,形成新的产品组合,完成闭源出售给客户。

同样将开源成功商业化的公司还有MongoDB, Databricks, Cloudera, GitLab, Docker, MySQL AB......这些案例都表明,开源软件可以通过提供增值服务、技术支持、企业级特性、云服务等方式实现商业化,同时保持与开源社区的互动和合作。

尽管珠玉在前,但并不代表开源大模型商业化是一件容易的事。

在如此多的开源大模型竞争压力下,如何提高自身大模型在用户中的知名度和接受度,让用户从免费使用转向付费服务,同时还要防止竞争对手可能基于相同的代码库创建自己的产品或服务,都考验着开源大模型厂商的能力和速度。

开源与闭源大模型的协同演化

实际上,开源大模型和闭源大模型各有优劣,且在不同的应用场景和需求下各有其适用性,两者并非绝对的对立面,而是可以在某些方面相互借鉴和融合。

开源是为了保持社区的繁荣和多样性,能够保证技术、产品能够源源不断补充新鲜的血液和产生新的变化。

闭源的商业化版本是用来满足商业化的需求,即安全、低成本、高效、持续有价值的服务。对比商业版本,开源版本一定是滞后的,包括技术的迭代、维护等等。

因此,两者的优势并不在同一个位置,也很难断言哪一个模式将完全主导大模型的未来。相反,可以预见的是,开源和闭源大模型将在以下几个方面实现协同演化:

一是,共享与竞争并存。

开源大模型和闭源大模型将在某些领域展开激烈的竞争,如自然语言处理、计算机视觉等。同时,它们也可能在其他领域共享成果和技术,推动整个AI行业的进步。

二是,混合模式的出现。

为了兼顾创新速度、透明度、安全性和商业利益,一些公司可能会选择采用混合模式,即开放基础模型的源代码,但保留高级功能或特定应用的闭源。

这种模式既可以吸引开发者和用户的参与,又可以保护公司的核心竞争力。

三是,标准化与监管的加强。

随着AI技术的发展和应用的普及,政府和行业组织可能会加强对开源和闭源大模型的标准化和监管工作,以确保模型的安全、公平和透明。

这将进一步规范市场行为,促进开源和闭源大模型的健康发展。

结语

当然,无论是开源还是闭源,重要的是持续创新、提升透明度和安全性,以及实现AI技术的社会价值和经济价值的最大化。比起断定谁会是大模型的未来,不如去关注如何合理利用这两种模式,去塑造一个更加智能、开放、安全和可持续的AI未来。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

标签:AI,模型,商业化,开源,闭源,LLaMA,报道
From: https://blog.51cto.com/u_16125291/8966758

相关文章

  • 中工互联加入元脑生态,携手浪潮信息加速工业大模型落地
    近日,中工互联(北京)科技集团有限公司(简称“中工互联”)与浪潮信息签署元脑生态战略合作协议。双方将充分发挥各自优势打造联合解决方案,推动工业大模型实践,加速人工智能在智能工厂、智慧能源、综合能源优化等工业领域的落地。中工互联是一家工业大模型、工业软件、工业互联网平台及工业......
  • 共建共享,创新同行!飞桨星河社区助力大模型时代开发者砥砺前行
    大模型引领AI新浪潮,助力人工智能实现从感知理解到生成创造的飞跃。飞桨星河社区,覆盖深度学习初学者、在职开发者、企业开发者、高校教师、创业者等,是国内最大的AI开发者社区,以飞桨和文心大模型为核心,集开放数据、开源算法、云端GPU算力及大模型开发工具于一体,为开发者提供模型与应......
  • PMP塔克曼阶梯模型
    塔克曼阶梯模型布鲁斯·塔克曼(BruceTuckman)的团队发展阶段(StagesofTeamDevelopment)模型可以被用来辨识团队构建与发展的关键性因素,并对团队的历史发展给以解释。团队发展的五个阶段是:组建期(Forming)、激荡期(Storming)、规范期(Norming)、执行期(Performing)和休整期(Adjourni......
  • 《安富莱嵌入式周报》第329期:圣诞前夕,各种软件井喷式更新,开源600Wh的UPS低压电源,各种
    周报汇总地址:http://www.armbbs.cn/forum.php?mod=forumdisplay&fid=12&filter=typeid&typeid=104 圣诞前夕,各种软件井喷式发布新版本视频版:https://www.bilibili.com/video/BV19Q4y1u7Es 1、开源600Wh的UPS低压电源https://pop.fsck.pl/projects/secondlife-ups-Mk......
  • 大模型加持下,AI招聘的“下一站”
    导读随着生成式AI进入企业招聘领域,很多人都会心生疑虑:“什么?刚才为我面试的竟然不是真人?AI确定能招人?靠谱吗?用机器人招人,我是不是要失业了?”其实,在传统以流程为中心的ATS (ApplicantTrackingSystem)中,企业通过自动化提高招聘效率,降低HR的负担,确保招聘的公平性和透明度。而随着TR......
  • 利用Prompt学习更多示例,提高大模型性能
    随着人工智能技术的不断发展,大型语言模型(如GPT-3、BERT等)在自然语言处理领域的应用越来越广泛。然而,这些模型通常需要大量的训练数据才能达到较高的性能。为了解决这个问题,一种有效的方法是使用prompt学习,即通过向模型提供示例来引导其生成输出。在prompt学习中,关键在于如何选择和......
  • Prompt Tuning:大模型微调的实战技巧
    随着深度学习技术的不断发展,大模型在各个领域的应用越来越广泛。然而,训练和调整大模型需要大量的时间和计算资源。为了解决这个问题,研究人员提出了PromptTuning方法,这是一种基于预训练模型进行微调的技术。本文将重点介绍PromptTuning大模型微调实战中的重点词汇或短语。一、大模......
  • Prompt-Tuning:大模型微调技术
    随着深度学习技术的不断发展,大模型(如GPT、BERT等)在各种自然语言处理(NLP)任务中取得了显著的成功。然而,训练和部署大模型需要大量的计算资源和时间,这限制了其在一些资源有限场景中的应用。为了解决这个问题,研究人员提出了各种大模型微调技术,以减少模型的大小和计算复杂度,同时保持模型......
  • css 盒模型
    说一下css盒模型参考回答:简介:就是用来装页面上的元素的矩形区域。CSS中的盒子模型包括IE盒子模型和标准的W3C盒子模型。box-sizing(有3个值哦):border-box,padding-box,content-box.标准盒子模型:区别:从图中我们可以看出,这两种盒子模型最主要的区别就是width......
  • 倾斜摄影三维模型数据在行业应用分析
    倾斜摄影三维模型数据在行业应用分析 倾斜摄影三维模型数据是一种重要的地理信息资源,可以广泛应用于各个行业和场景,以解决不同领域的问题。以下将详细探讨几个典型的行业或场景,它们利用倾斜摄影三维模型数据解决问题的应用。1、地理测绘与土地管理:倾斜摄影三维模型数据可用于......