首页 > 其他分享 >一文详细了解初学者怎么入门大语言模型(LLM)?

一文详细了解初学者怎么入门大语言模型(LLM)?

时间:2024-08-27 11:57:12浏览次数:12  
标签:tensor AI 模型 torch 学习 初学者 LLM 入门

关于如何入门LLM,大多数回答都提到了调用API、训练微调和应用。但是大模型更新迭代太快,这个月发布的大模型打榜成功,仅仅过了一个月就被其他模型超越。训练微调也已经不是难事,有大量开源的微调框架(llamafactory、firefly等),你只要懂部署,配置几个参数就能启动训练。甚至现在有大量云上项目,你根本不需要部署,直接上传数据,就能启动。

这我让想起来之前的算法工程师都被调侃成调参师,新出一个大模型,下载下来跑一遍,运行一遍AutoTokenizer.from_pretrained(model_path),对于自己理解和入门大模型没有任何意义。

对于初学者如何入门,我的建议是从一个开源大模型入手,全面了解它的运行原理以及如何应用。可以将大模型比作一辆车,我开车无需理解车是如何做的,但是车出问题了,了解原理能够帮我们快速找到其中的问题。

为了更好入门大模型,我建议按照以下顺序学习,分为编程基础准备、大模型原理理解和大模型应用三个部分。

一、编程基础准备

1.熟练Python编程语言

我一般使用numpy用于数据处理,matplotlib**用于画图分析(比如分析位置编码、注意力矩阵),numpy很多函数与pytorch类似放后面讲,这里主要讲常用的matplotlib画图函数,学好matplotlib库有利于我们以可视化的角度去理解一些大模型原理。

  • plt.bar(x,y,width)

在这里插入图片描述

举个例子,画直方图分析llama3 8B中参数分布情况,可以发现有2个峰值,分别是embedding层和最后输出logits层,两者参数量一致。

  • plt.plot(x,y,width)

在这里插入图片描述

举个例子,画点图分析llama3 8B中的位置编码RoPE。在同一位置m下,可以发现向量中的元素,在i比较小的时候变化较快,i较大的时候变化较慢。

  • plt.colorbar(x,y)

在这里插入图片描述

举个例子,画热力图分析llama3 8B中的Attenion矩阵。我的intput为“The boy didn’t cross the street because he was too ”,要预测下一个词。观察第10行(分析注意力矩阵都是以行为单位)可以发现"he"这个toke与"boy"这个token关联度很高,而不是“street”这个token。

所以说画图很重要,深度学习本质上都是矩阵运算,单看数字看不出什么结论,需要结合画图等可视化工具分析。

2.熟悉pytorch等深度学习框架

目前主流大模型基本上都是用pytorch写的,pytorch语法太多了,下面介绍在LLM中常用的pytorch语法(排序不分先后)

(1).torch.nn.Embedding(num_embeddings, embedding_dim...)

其中num_embeddings代表词表的大小,embedding_dim代表词向量的维度。embedding.weight的size为[num_embeddings,embedding_dim]。举个例子,输入索引i,输出embedding.weight 的第 i 行。

(2).torch.matmul(x,y)x*ytorch.dot(x,y)torch.mul(x,y)之间的区别

其中torch.matmul(x,y)代表矩阵相乘torch.mul(x,y)x*y均代表矩阵对应元素相乘torch.dot(x,y)代表向量之间的点积

(3).torch.full(size, fill_value)

torch.full([2,3],2.0)
#tensor([[2,2,2],
         [2,2,2]])

(4).torch.triu(x)

import torch
a = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
b = torch.triu(a)
print(b)

# tensor([[1, 2, 3], 
          [0, 5, 6], 
          [0, 0, 9]])

用于注意力机制中的mask计算

(5). torch.outer(x,y)

x = torch.arange(1,5)
y = torch.arange(1,4)
print(torch.outer(x,y))
# tensor([[ 1,  2,  3],
        [ 2,  4,  6],
        [ 3,  6,  9],
        [ 4,  8, 12]])

一般用于大模型位置编码计算中,比如正弦余弦位置编码、相对位置编码、 旋转位置编码等。

(6). torch.view_as_complex(x)

x=torch.randn(4, 2)
# tensor([[ 0.0024,  1.5686],
          [-1.2883,  1.0111],
          [ 0.8764,  0.1839],
          [ 0.8543, -0.0061]])
torch.view_as_complex(x)
# tensor([0.0024+1.5686j, -1.2883+1.0111j,  0.8764+0.1839j,  0.8543-0.0061j])

大模型位置编码有两种计算方法,一种是在实数域**计算、一种是复数域计算。该函数一般用于复数域计算。

(7). torch.view_as``_real(x)

x= torch.tensor([ 0.0024+1.5686j, -1.2883+1.0111j,  0.8764+0.1839j,  0.8543-0.0061j])
torch.view_as_real(x)
# tensor([[ 0.0024,  1.5686],
        [-1.2883,  1.0111],
        [ 0.8764,  0.1839],
        [ 0.8543, -0.0061]])

同上

(8). 弄清楚torch.reshape(input,shape)torch.view(input,shape)

我建议从内存分配的角度来理解reshape。无论一个张量 shape 怎么改变,它的分量在内存中的存储顺序也是不变的。

import numpy as np
a = np.arange(6)

# 其中order="C"、"F"、"A"分别代表不同读取顺序,
print(np.reshape(a, (2, 3), order='C'))
#[[0 1 2]
 [3 4 5]]
print(np.reshape(a, (2, 3), order='F'))
#[[0 2 4]
 [1 3 5]]
print(np.reshape(a, (2, 3), order='A'))
#[[0 1 2]
 [3 4 5]]

(9). 弄清楚torch.transpose(tensor,dim0,dim1)torch.permute(dim0, dim1, dim2, dim3)

两者均代表矩阵的转置,在二维的时候很容易想明白转置之后的情况,但是高维度的时候就糊涂了。举个例子:

arr = torch.arange(16)
arr = arr.reshape(2,2,4)
# tensor([[[ 0,  1,  2,  3],
         [ 4,  5,  6,  7]],
        [[ 8,  9, 10, 11],
         [12, 13, 14, 15]]])
arr = arr.transpose(1,2)
# tensor([[[ 0,  4],
         [ 1,  5],
         [ 2,  6],
         [ 3,  7]],

        [[ 8, 12],
         [ 9, 13],
         [10, 14],
         [11, 15]]])

上面这个三维数组例子,我定义为(batch,H,W),transpose(1,2)等效于长和宽转置。类似这样的例子我们已经练习过很多次了。

不过如何理解arr.transpose(0,1)?,batch和H维度转置没有物理含义。这需要借用矩阵stride概念来理解。

如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等,

标签:tensor,AI,模型,torch,学习,初学者,LLM,入门
From: https://blog.csdn.net/2401_85377976/article/details/141598716

相关文章

  • 计算机网络信息安全,零基础入门到精通,收藏这一篇就够了!
    01网络安全概述安全性威胁计算机网络通讯过程中,主要有两种威胁。•主动攻击•被动攻击具体攻击的位置如下图。从汽车电子的角度举个例子,大部分的软件工程师,应该都干过下面两件事。•被动攻击大家都做过的,“对标,抄袭”买来对标的车,找个一分二的线,不知道从哪弄来的......
  • 从0开始构建LLM应用程序,超详细分步指南!
    大型语言模型(LLM)正迅速成为现代人工智能的基石。然而,目前尚未有既定的最佳实践,所以研究者们没有明确的路线图可遵循,经常陷入困境需要重新开始。在过去两年里,我帮助多个组织利用LLM构建创新应用。通过这段经历,我开发出了一种久经考验的方法来创建创新解决方案(受LLM.org.il社......
  • 10种常见的黑客攻击、满足你的黑客梦,零基础入门到精通,收藏这一篇就够了
    1.跨站脚本(XSS)跨站脚本攻击是最为常见的一类网络攻击,它针对的是网站的用户,而不是web应用本身。恶意黑客在有漏洞的网站里注人一段代码,然后网站访容执行这段代码。此类代码可以人侵用户账户,激活木马程序,或者修改网站内容,诱骗用户给出私人信息。​设置web应用防火墙(W......
  • Vulkan入门系列17 - 多重采样( Multisampling)
    一:概述        我们的程序现在可以加载多个级别的纹理,从而解决了在渲染远离观察者的物体时出现的伪影问题。现在图像变得平滑多了,但仔细观察,你会发现绘制的几何图形边缘呈现锯齿状。这在我们早期渲染一个四边形的程序中尤为明显:        这种不希望有的效果......
  • Datawhale AI+X 深度学习入门(一)
    一.机器学习的定义和核心1.机器学习就是让机器具备找一个函数的能力。机器具备找函数的能力以后,它可以做很多事。2.在机器学习领域里面,除了回归跟分类以外,还有结构化学习(structuredlearning)。机器不只是要做选择题或输出一个数字,而是产生一个有结构的物体,比如让机器画一张图,写......
  • 【Git保姆级使用教程】Git从入门到精通超级详细的使用教程,一套教程带你搞定Git(高见龙
    目录Git下载与安装设置GitGit的用户设置使用Git新增初始Repository将文件交给Git管控(将文件加入暂存区)查看Git文件记录查找commit记录更改提交commit的记录撤销提交commit将某些文件取消Git版控Git中删除或更改文件名Git查看某个文件的某一行代码是谁写的.git目录中......
  • 机器学习/数据分析--通俗语言带你入门决策树(结合分类和回归案例)
    ......
  • Python 3.11 从入门到实战1(环境准备)
            本篇文章是python3.11的学习开篇,我们的目标是:通过这一套资料学习下来,获得python基础学习与实例、实践相结合,使我们完全掌握python。并做到独立完成项目开发的能力。    今天的谈论的比较简单,也是后续学习的基础。python安装和工具pycharm的安装。pyth......
  • 基于大语言模型的智能体入门学习
    基于大语言模型的智能体入门学习一、大模型开发背景1、大模型工作原理:2、大模型的固有缺陷不具备知识出现幻觉:使用外接知识库给LLM提供知识无法解决复杂逻辑任务:多个LLM各司其职不擅长数学运算:使用外接工具如计算器等3、现有开发范式检索增强生成(RAG)AIAgent4、调用open......
  • 一文读懂 LLM 如何进行微调?
    ​你知道吗,咱们用那些已经训练好的大型语言模型,其实有好多不同的玩法。最常见的有三种:一种是用模型提取的特征来训练新的小模型;另一种是直接给模型看新任务的例子,让它学着怎么回答,这招叫做提示;最后一种就是调整模型里面的一些参数,可能是全部,或者就那么几个,来让它更好地完成任务......