关于如何入门LLM,大多数回答都提到了调用API、训练微调和应用。但是大模型更新迭代太快,这个月发布的大模型打榜成功,仅仅过了一个月就被其他模型超越。训练微调也已经不是难事,有大量开源的微调框架(llamafactory、firefly等),你只要懂部署,配置几个参数就能启动训练。甚至现在有大量云上项目,你根本不需要部署,直接上传数据,就能启动。
这我让想起来之前的算法工程师都被调侃成调参师,新出一个大模型,下载下来跑一遍,运行一遍AutoTokenizer.from_pretrained(model_path)
,对于自己理解和入门大模型没有任何意义。
对于初学者如何入门,我的建议是从一个开源大模型入手,全面了解它的运行原理以及如何应用。可以将大模型比作一辆车,我开车无需理解车是如何做的,但是车出问题了,了解原理能够帮我们快速找到其中的问题。
为了更好入门大模型,我建议按照以下顺序学习,分为编程基础准备、大模型原理理解和大模型应用三个部分。
一、编程基础准备
1.熟练Python编程语言
我一般使用numpy用于数据处理,matplotlib**用于画图分析(比如分析位置编码、注意力矩阵),numpy很多函数与pytorch类似放后面讲,这里主要讲常用的matplotlib画图函数,学好matplotlib库有利于我们以可视化的角度去理解一些大模型原理。
plt.bar(x,y,width)
举个例子,画直方图分析llama3 8B中参数分布情况,可以发现有2个峰值,分别是embedding层和最后输出logits层,两者参数量一致。
plt.plot(x,y,width)
举个例子,画点图分析llama3 8B中的位置编码RoPE。在同一位置m下,可以发现向量中的元素,在i比较小的时候变化较快,i较大的时候变化较慢。
plt.colorbar(x,y)
举个例子,画热力图分析llama3 8B中的Attenion矩阵。我的intput为“The boy didn’t cross the street because he was too ”,要预测下一个词。观察第10行(分析注意力矩阵都是以行为单位)可以发现"he"这个toke与"boy"这个token关联度很高,而不是“street”这个token。
所以说画图很重要,深度学习本质上都是矩阵运算,单看数字看不出什么结论,需要结合画图等可视化工具分析。
2.熟悉pytorch等深度学习框架
目前主流大模型基本上都是用pytorch写的,pytorch语法太多了,下面介绍在LLM中常用的pytorch语法(排序不分先后)
(1).torch.nn.Embedding(num_embeddings, embedding_dim...)
其中num_embeddings代表词表的大小,embedding_dim代表词向量的维度。embedding.weight
的size为[num_embeddings,embedding_dim]。举个例子,输入索引i
,输出embedding.weight
的第 i 行。
(2).torch.matmul(x,y)
、 x*y
、 torch.dot(x,y)
与 torch.mul(x,y)
之间的区别
其中torch.matmul(x,y)
代表矩阵相乘,torch.mul(x,y)
与x*y
均代表矩阵对应元素相乘, torch.dot(x,y)
代表向量之间的点积。
(3).torch.full(size, fill_value)
torch.full([2,3],2.0)
#tensor([[2,2,2],
[2,2,2]])
(4).torch.triu(x)
import torch
a = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
b = torch.triu(a)
print(b)
# tensor([[1, 2, 3],
[0, 5, 6],
[0, 0, 9]])
用于注意力机制中的mask计算
(5). torch.outer(x,y)
x = torch.arange(1,5)
y = torch.arange(1,4)
print(torch.outer(x,y))
# tensor([[ 1, 2, 3],
[ 2, 4, 6],
[ 3, 6, 9],
[ 4, 8, 12]])
一般用于大模型位置编码计算中,比如正弦余弦位置编码、相对位置编码、 旋转位置编码等。
(6). torch.view_as_complex(x)
x=torch.randn(4, 2)
# tensor([[ 0.0024, 1.5686],
[-1.2883, 1.0111],
[ 0.8764, 0.1839],
[ 0.8543, -0.0061]])
torch.view_as_complex(x)
# tensor([0.0024+1.5686j, -1.2883+1.0111j, 0.8764+0.1839j, 0.8543-0.0061j])
大模型位置编码有两种计算方法,一种是在实数域**计算、一种是复数域计算。该函数一般用于复数域计算。
(7). torch.view_as``_real(x)
x= torch.tensor([ 0.0024+1.5686j, -1.2883+1.0111j, 0.8764+0.1839j, 0.8543-0.0061j])
torch.view_as_real(x)
# tensor([[ 0.0024, 1.5686],
[-1.2883, 1.0111],
[ 0.8764, 0.1839],
[ 0.8543, -0.0061]])
同上
(8). 弄清楚torch.reshape(input,shape)
和torch.view(input,shape)
我建议从内存分配的角度来理解reshape。无论一个张量 shape
怎么改变,它的分量在内存中的存储顺序也是不变的。
import numpy as np
a = np.arange(6)
# 其中order="C"、"F"、"A"分别代表不同读取顺序,
print(np.reshape(a, (2, 3), order='C'))
#[[0 1 2]
[3 4 5]]
print(np.reshape(a, (2, 3), order='F'))
#[[0 2 4]
[1 3 5]]
print(np.reshape(a, (2, 3), order='A'))
#[[0 1 2]
[3 4 5]]
(9). 弄清楚torch.transpose(tensor,dim0,dim1)
和torch.permute(dim0, dim1, dim2, dim3)
两者均代表矩阵的转置,在二维的时候很容易想明白转置之后的情况,但是高维度的时候就糊涂了。举个例子:
arr = torch.arange(16)
arr = arr.reshape(2,2,4)
# tensor([[[ 0, 1, 2, 3],
[ 4, 5, 6, 7]],
[[ 8, 9, 10, 11],
[12, 13, 14, 15]]])
arr = arr.transpose(1,2)
# tensor([[[ 0, 4],
[ 1, 5],
[ 2, 6],
[ 3, 7]],
[[ 8, 12],
[ 9, 13],
[10, 14],
[11, 15]]])
上面这个三维数组例子,我定义为(batch,H,W),transpose(1,2)
等效于长和宽转置。类似这样的例子我们已经练习过很多次了。
不过如何理解arr.transpose(0,1)
?,batch和H维度转置没有物理含义。这需要借用矩阵stride概念来理解。
如何学习AI大模型?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等,