首页 > 其他分享 >日本联合研究团队发布 Fugaku-LLM——证明大型纯 CPU 超算也可用于大模型训练

日本联合研究团队发布 Fugaku-LLM——证明大型纯 CPU 超算也可用于大模型训练

时间:2024-05-12 09:33:27浏览次数:24  
标签:运算 模型 LLM 显卡 Fugaku 超算 CPU

相关:

https://mbd.baidu.com/newspage/data/landingsuper?context={"nid"%3A"news_10139665591063236146"}



研究团队表示其充分挖掘了富岳超算的性能,将矩阵乘法的计算速度提高了 6 倍,通信速度也提升了 3 倍,证明大型纯 CPU 超算也可用于大模型训练。

Fugaku-LLM 模型参数规模为 13B,是日本国内最大的大型语言模型。
其使用了 13824 个富岳超算节点在 3800 亿个 Token 上进行训练,其训练资料中 60% 为日语,其他 40% 包括英语、数学、代码等部分。

该模型的研究团队宣称 Fugaku-LLM 模型可在交流中自然使用日语敬语等特殊表达。
具体到测试成绩上,该模型在日语 MT-Bench 模型基准测试上的平均得分为 5.5,排在基于日本语料资源的开放模型首位,并在人文社科类别中得到了 9.18 的高分。
目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平台公开,外部研究人员和工程师可在遵守许可协议的前提下将该模型用于学术和商业目的。



个人观点:

这是一个有意义的尝试,要知道我们国家是没有国产的顶尖的成型的显卡及其配套软件的,虽然目前国产了一些软硬件,但是效果也是一直有限,但是我国在CPU领域的积累还是可以的,虽然在家用领域打不过英特尔和AMD,但是服务器领域也是够用的了,而且我国的CPU硬件的现有库存也是足够用的。如果使用大规模的CPU运算可以和显卡运算取得相似的运算结果和性能表现,那么这对于我们国家来说是多了一个战略储备,如果美国真的完全切断我国的高性能计算显卡的供货我们或许也可以选择CPU方式运行。

CPU方式运行最大的问题就是空间占地和耗能,如果真的到了被美国完全切断显卡供应,我们真的可以为每个超算中心单独配一个发电厂,至于场地嘛,东部沿海地区确实不好弄,不过搞到中西部地区却是没啥问题的,而且这样弄还可能带动当地经济发展呢。

其实,在我看来,最大的问题是造价、耗电、运算性能的扩张规律是否可以满足,可以这么理解这个scale规则,如果美国人用100个显卡干的事情我们可以用10000个CPU同样完成,那么这个事情我们是可以干的,但是如果美国的显卡的性能和运算需求是平方级别的增长呢,比如下一代的运算用新的显卡同样需要100个显卡,但是用旧型号的需要10000个显卡,那么我们用CPU是不是就要10000 * 10000个CPU了呢,可以这个问题主要还是看这个scale规则。不过不管怎么说,在万级的运算节点上进行运算还是我们国家能承受的,而且我也不认为显卡的发展会有这么大的速度,因此目前来看使用CPU运算替代显卡计算是可以作为战略储备的,这就和几十年前美国人用计算机算核物理和导弹弹道,但是我们国家依然使用手动的纸笔计算造出了核武器、导弹和人造卫星,当然这个过程是极为痛苦的,但是作为战略储备这条路是可以考虑的。



image



标签:运算,模型,LLM,显卡,Fugaku,超算,CPU
From: https://www.cnblogs.com/devilmaycry812839668/p/18187478

相关文章

  • LLM生态下爬虫程序的现状与未来
    最近出现一批与LLM有关的新的爬虫框架,一类是为LLM提供内容抓取解析的,比如JinaReader和FireCrawl,可以将抓取的网页解析为markdown这样的对LLM友好的内容,例如markdown,这类本质上还是传统的爬虫解决方案。还有一类是通过LLM+agent工作流方式来构建的下一代爬虫程序,比如Skyvern、......
  • LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关
    LLM大模型学习必知必会系列(二):提示词工程-PromptEngineering以及实战闯关prompt(提示词)是我们和LLM互动最常用的方式,我们提供给LLM的Prompt作为模型的输入,并希望LLM反馈我们期待的结果。虽然LLM的功能非常强大,但LLM对提示词(prompt)也非常敏感。这使得提示词工程成......
  • LLM 大模型学习必知必会系列(一):大模型基础知识篇
    LLM大模型学习必知必会系列(一):大模型基础知识篇魔搭ModelScope开源的LLM模型魔搭ModelScope欢迎各个开源的LLM模型在社区上做开源分享。目前社区上已经承载了来自各个机构贡献的不同系列的LLM模型。并且社区的开发者也在这些模型的基础上,贡献了许多创新应用,并在M......
  • LLM2Vec介绍和将Llama 3转换为嵌入模型代码示例
    嵌入模型是大型语言模型检索增强生成(RAG)的关键组成部分。它们对知识库和用户编写的查询进行编码。使用与LLM相同领域的训练或微调的嵌入模型可以显著改进RAG系统。然而,寻找或训练这样的嵌入模型往往是一项困难的任务,因为领域内的数据通常是稀缺的。但是这篇论文LLM2Vec,可以将......
  • WPF Behavior Interaction Triggers EventTrigger EventName CallMethodAction Target
    //xaml<Windowx:Class="WpfApp92.MainWindow"xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"xmlns:d="http://schemas.mic......
  • 【攻防靶场系列】WEB LLM 学习及实操(一)
    什么是LLM❓大型语言模型(LLM)是一种AI算法,可以处理用户输入并通过预测单词序列来创建合理的响应。他们在巨大的半公开数据集上接受训练,使用机器学习来分析语言的组成部分如何组合在一起。如何检测LLM漏洞❓确定LLM(语言模型)的输入,包括直接输入(如提示)和间接输入(如训练数......
  • 6 Ways For Running A Local LLM
    6WaysForRunningALocalLLMhttps://semaphoreci.com/blog/local-llm1.HuggingFaceandTransformersfromtransformersimportAutoModelForCausalLM,AutoTokenizerimporttorchtokenizer=AutoTokenizer.from_pretrained("microsoft/DialoGPT-medium&q......
  • python airllm调用本地大模型
    官方demohttps://github.com/lyogavin/Anima/blob/main/air_llm/examples/run_all_types_of_models.ipynb这里使用百川本地fromairllmimportAirLLMLlama2,AutoModelMAX_LENGTH=128#默认会去抱脸网下载,很慢,而且需要xx上网#model=AutoModel.from_pretrained("baichua......
  • 首届超算互联网峰会!天翼云弹性高性能计算E-HPC亮相!
    4月11日,首届超算互联网峰会暨国家超算互联网平台上线仪式在天津顺利举办,来自部委、省级科技厅、中国科学院、中国工程院、计算产业链相关企业等专家、代表数百人共聚一堂,见证了这一历史性时刻。天翼云作为副理事长单位受邀参会,围绕超算领域的前沿技术和应用,与业内专家共同探讨互联......
  • 做LLM推理时,常见的显卡如何选择?
    在选择显卡进行大型语言模型推理时,主要要看下面几个指标:VRAM(视频随机存取存储器):VRAM的容量直接影响您能够加载的模型的大小。大型语言模型需要大量的内存来存储权重和进行计算。至少12GBVRAM是推荐的起点,更大的模型可能需要24GB或更多。CUDA核心数CUDA核心数越多,表示......