• 2024-07-04SMS多表面同步透镜设计
    SMS多表面同步透镜设计SMS多表面同步透镜设计一、设计原理1、Snell定律的矢量形式折射定律又称Snell定律,主要包括两个方面:一是入射光线、法线和折射光线共面,二是入射角和折射角满足以下关系:\[n_1sin{\theta_1}=n_2sin{\theta_2}\]式中,\(n_1\)是入射光所在介质的折射率,\(
  • 2024-07-02SMS多表面同步透镜设计
    SMS多表面同步透镜设计一、设计原理1、Snell定律的矢量形式折射定律又称Snell定律,主要包括两个方面:一是入射光线、法线和折射光线共面,二是入射角和折射角满足以下关系:n1
  • 2024-06-17AI 大模型训练中,通常会采用哪些方法?(输入篇)
    某种程度来说大模型训练的核心算法就是300到400行代码,如果真正理解了并不难。下面我将带大家分析常规大模型训练有几个阶段以及在训练中一般会用到哪些方法。由上图可以看出,大模型训练主要有四个阶段:预训练、有监督微调、奖励建模、强化学习。开始的第一个阶段是预训练阶
  • 2024-06-06autotrain学习-环境搭建、模型和数据集下载、训练全过程
    autotrain学习-环境搭建、模型和数据集下载、训练全过程1.参考链接2.创建容器3.安装autotrain4.解决没有真实权值的问题(不下载真实的权值)5.下载SFT微调数据集6.下载opt-125m模型(忽略权值文件)7.下载后的目录结构8.SFT训练A.生成配置文件(使用之前下载好的模型和数据集
  • 2024-05-30大模型中用到的归一化方法总结
    大模型中的归一化主要是为了解决LLM训练不稳定的问题LLM中归一化方法可以按照归一化方法来分,主要分为LayerNorm,BatchNorm,RMSNorm以及DeepNorm按照归一化位置来分类,包括postNorm和preNorm1.BatchNormBatchNorm主要对数据的一定的特征维度在batch数据中进行归一,一般来说应用
  • 2024-05-295.29 matlab
    %定义目标函数f=@(x)(x(1)+10*2)^2+5*(x(3)-x(4))^2+(x(2)-2*x(3))^4+10*(x(1)-x(4))^4;%初始值和终止准则x0_list=[-2,2,-3,3;-3,-1.5,0.5,-1.5];%确保每个初始点有四个元素tol=1e-5;%梯度和海森矩阵函数(这里仅为示例,需要您根据实际情
  • 2024-05-17Transformer中的layer norm(包含代码解释)
    https://blog.csdn.net/weixin_42596778/article/details/134848578 layerNorm的代码实现:importtorch#1.使用torch的layernorm来进行操作,然后看一下ln后的矩阵是什么样子#创建了一个2*3*4的随机矩阵batch_size,seq_size,dim=2,3,4embedding=torch.randn(bat
  • 2024-04-163.0 常见operators算子
    1.1卷积相关1)卷积2)反卷积(只能做到近似恢复,无法完全恢复原图像) 参考:https://blog.csdn.net/qq_27261889/article/details/863040611.2线性变换相关1)Linear2)矩阵相乘类:【mm:二维矩阵相乘;bmm:三维矩阵相乘;matmul:多维矩阵相乘,只要两个矩阵能够broadcast即
  • 2024-04-07Pytorch张量的数学运算:向量基础运算
    文章目录一、简单运算二、广播运算1.广播的基本规则2.广播操作的例子三、运算函数参考:与凤行  张量的数学运算是深度学习和科学计算中的基础。张量可以被视为一个多维数组,其在数学和物理学中有广泛的应用。这些运算包括但不限于加法、减法、乘法、除法、内积、
  • 2024-04-07归一化技术比较研究:Batch Norm, Layer Norm, Group Norm
    归一化层是深度神经网络体系结构中的关键,在训练过程中确保各层的输入分布一致,这对于高效和稳定的学习至关重要。归一化技术的选择(Batch,Layer,GroupNormalization)会显著影响训练动态和最终的模型性能。每种技术的相对优势并不总是明确的,随着网络体系结构、批处理大小和特定任务
  • 2024-04-01【机器人】具有扰动抑制功能的有限时间基于方位角的领航者-跟随者编队控制(Matlab代码实现)
     
  • 2024-03-25Pre-trained Model
    Whatispre-training?Self-supervisedlearningonthelargesetofunlabeleddata.Pre-trainedModelArchitecturePre-trainingtaskTaskTypeExampleEncoder-only(AutoEncoder)MaskedLanguageModelNLUBERTFamilyDecoder-only(AutoRegression)
  • 2024-03-24空战博弈编程实现——2 初探JSBSIM
    [原][JSBSIM]aircraft飞机xml脚本-南水之源-博客园(cnblogs.com)1安装python版本jsbsim发布·JSBSim-Team/jsbsim·GitHubJsbsim::Anaconda.orgcondainstall-cconda-forgejsbsim2安装jsbsim.exe安装exe之后使用命令符进入所在文件夹,查看相关信息JSBSi
  • 2024-03-21[基础] DiT: Scalable Diffusion Models with Transformers
    名称DiT:ScalableDiffusionModelswithTransformers时间:23/03机构:UCBerkeley&&NYUTL;DR提出首个基于Transformer的DiffusionModel,效果打败SD,并且DiT在图像生成任务上随着Flops增加效果会降低,比较符合scalinglaw。后续sora的DM也使用该网络架构。Method网络结构整
  • 2024-02-28BB方法与最速下降法的对比程序
    1importnumpyasnp2importmatplotlib.pyplotasplt3plt.rcParams['font.sans-serif']=['MicrosoftYaHei']45deff(y):#目标函数6f_x=y[0]**2+10*y[1]**27returnf_x89defdf(y):#函数梯度10df_y=np.array([2*y[0]
  • 2024-02-18[Some Tricks] 自动取模类
    consti128o=1;template<i64mod,i64invpow=mod-2>structModular{u64M=(o<<64)/mod;i64query(i64x){u64x_=1ull*x;u64q=1ull*(((i128)(M)*(i128)(x_))>>64);u64r=x_-q*(1ull*mod
  • 2024-02-02神经网络优化篇:详解测试时的 Batch Norm(Batch Norm at test time)
    Batch归一化将的数据以mini-batch的形式逐一处理,但在测试时,可能需要对每个样本逐一处理,来看一下怎样调整的网络来做到这一点。回想一下,在训练时,这些就是用来执行Batch归一化的等式。在一个mini-batch中,将mini-batch的\(z^{(i)}\)值求和,计算均值,所以这里只把一个mini-batch中的样
  • 2024-02-01神经网络优化篇:详解Batch Norm 为什么奏效?(Why does Batch Norm work?)
    BatchNorm为什么奏效?为什么Batch归一化会起作用呢?一个原因是,已经看到如何归一化输入特征值\(x\),使其均值为0,方差1,它又是怎样加速学习的,有一些从0到1而不是从1到1000的特征值,通过归一化所有的输入特征值\(x\),以获得类似范围的值,可以加速学习。所以Batch归一化起的作用的原因,直
  • 2024-01-31神经网络优化篇:将 Batch Norm 拟合进神经网络(Fitting Batch Norm into a neural network)
    将BatchNorm拟合进神经网络假设有一个这样的神经网络,之前说过,可以认为每个单元负责计算两件事。第一,它先计算z,然后应用其到激活函数中再计算a,所以可以认为,每个圆圈代表着两步的计算过程。同样的,对于下一层而言,那就是\(z_{1}^{[2]}\)和\(a_{1}^{[2]}\)等。所以如果没有应用Bat
  • 2024-01-18torch之norm、normal、mean和std
    一、norm这个是计算范式对应的公示是: 正常没有指定p的值的时候默认是2如下所示a=torch.arange(1,6,dtype=torch.float32)print(torch.norm(a))#这里p没有指定,则默认是2print(torch.norm(a,1))#这里p指定为1print(torch.norm(a,float('inf')))#这里p指定为in
  • 2023-12-30Predict potential miRNA-disease associations based on bounded nuclear norm regularization
    PredictpotentialmiRNA-diseaseassociationsbasedonboundednuclearnormregularization  2023/12/816:00:57PredictingpotentialmiRNA-diseaseassociationsisachallengingtaskinbioinformaticsandcomputationalbiology.Oneapproach
  • 2023-12-25GPT-2 《Language Models are Unsupervised Multitask Learners》解读
    背景GPT1采用了pre-train+fine-tuning训练方式,也就是说为了适应不同的训练任务,模型还是需要在特定任务的数据集上微调,仍然存在较多人工干预的成本。GPT-2想彻底解决这个问题,通过zero-shot,在迁移到其他任务上的时候不需要额外的标注数据,也不需要额外的模型训练。 训练数据
  • 2023-12-20Derivative norm vector repect to time 《PBM by Pixar》 Appendix D.2 code
    目录1Derivativenormalvectorrepecttotime1.1DerivativevectornormrepecttotimeXRefVectorCalculus1DerivativenormalvectorrepecttotimeLet'sdenotetheunitnormalvectoras:\[\mathbf{n}=\frac{\mathbf{e}_a\times\mathbf{e}_b}{
  • 2023-12-18matlab中norm与svd函数用法
    格式:n=norm(A,p)功能:norm函数可计算几种不同类型的矩阵范数,根据p的不同可得到不同的范数以下是Matlab中help norm 的解释:NORMMatrixorvectornorm.Formatrices...NORM(X)isthe2-normofX.NORM(X,2)isthesameasNORM(X).NORM(X,1)
  • 2023-12-18矩阵范数(matrix norm)
    向量范数是很常见的,在很多教科书里都能见到。矩阵范数是对向量范数的一种推广。下面转载一篇讲解矩阵范数的文章,里面有对弗罗贝尼乌斯范数的定义,比较适合扫盲。原文如下:矩阵范数(matrixnorm)是数学上向量范数对矩阵的一个自然推广。矩阵范数的特性以下 K 代表实数或复数域。现