• 2024-11-21优化算法
    优化算法Batch梯度下降法每次对整个训练集进行计算,这在数据集很大时计算效率低下,因为每次更新权重前必须先处理整个训练集。可以将训练集划分为多个小子集,称为mini-batch。每次只使用一个mini-batch来计算梯度并更新参数。取出\(x^{(1)}\)到\(x^{(1000)}\),将其组成第一个mi
  • 2024-11-18LLM 并行处理实战:提升处理效率的关键技术
    核心要点掌握LLM应用中的并行处理策略实现高效的批量处理机制构建可扩展的文档处理系统优化系统性能和资源利用并行处理的适用场景在LLM应用中,以下场景特别适合使用并行处理:批量文档处理多模型并行推理大规模数据分析实时流处理批处理策略设计1.基础架构fro
  • 2024-11-16手写体识别Tensorflow实现
    简介:本文先讲解了手写体识别中涉及到的知识,然后分步讲解了代码的详细思路,完成了手写体识别案例的讲解,希望能给大家带来帮助,也希望大家多多关注我。本文是基于TensorFlow1.14.0的环境下运行的手写体识别Tensorflow实现1MNIST数据集处理2神经网络3Softmax函数3.1什么
  • 2024-11-14mysql batch insert 慢的问题排查过程
    1,发现线上的queue入库很慢因为我发现2024-11-1412:24:22.897[][Thread-47]INFO com.hp.nova.runner.Task3NewStructRedisQueueRunner.run[93]:eisrq.getType()======3...............2024-11-1412:25:57.653[][Thread-47]INFO com.hp.nova.runner.Task3NewSt
  • 2024-11-14深度学习中batch_size和epoch的区别
    batch_size和epoch是机器学习,尤其是在深度学习中,常见的两个超参数。它们的作用和意义有所不同,理解它们的区别有助于你更好地控制模型的训练过程。以下是它们的详细解释:1.BatchSize(批大小)batch_size是指在一次迭代中输入到神经网络中的样本数量。换句话说,它决定了每
  • 2024-11-08大模型--训练 加速之 流水线并行Pipeline Parallelism-10
    目录1.参考2.概述3.目标4.模型并行4.流水线并行4.1切分micro-batch4.2re-materialization(activecheckpoint)5.实验效果5.1GPU数量VS模型大小ofModelParameter表示模型的参数量5.2GPU数量VS训练速度5.3Gpipe下时间消耗分布1.参考https://zhuanlan.zhihu.com/p/6
  • 2024-11-07使用AMD GPU进行图像分类的ResNet模型
    ResNetforimageclassificationusingAMDGPUs—ROCmBlogs2024年4月9日,作者:LoganGrado。在这篇博客中,我们演示了如何使用ROCm在AMDGPU上训练一个简单的ResNet模型来进行CIFAR10数据集的图像分类。在AMDGPU上训练ResNet模型非常简单,仅需安装ROCm和适当的PyTorch库,无
  • 2024-11-06李沐《动手学深度学习》线性回归python代码实现
    一、手动实现线性回归#线性回归的手动实现%matplotlibinlineimporttorchimportrandomfromd2limporttorchasd2l#随机按照参数w和b外加一些噪音来创造训练数据集data和labelsdefsynthetic_data(w,b,num_examples):X=torch.normal(0,1,(num_example
  • 2024-11-05w~大模型~合集20
    我自己的原文哦~ https://blog.51cto.com/whaosoft/12456838#谷歌公布AI布局布线PCB和芯片Layout工程师要失业了?虽然近年来各大EDA公司都在积极的将AI引入到自己的芯片设计工具当中。但是早在2020年,谷歌就发布了题为《ChipPlacementwithDeepReinforcementLearning》预
  • 2024-11-03自然语言处理进阶手册--藏头诗生成器
    藏头诗生成器诗词生成原理首先观察以下诗句,你觉得写得怎么样,有什么发现吗?‘深宫娥向秦人间’,‘度江水辽天帝自’,‘学士大征鞍马嘶’,‘习气秪鬻不回首’‘深坞帛头泷吏问’,‘度春水一望一相’,‘学养养子君一枝’,‘习不见一年一夜’没错,这是两首“七言绝句”
  • 2024-11-02数据处理工具
    PyTorch数据处理工具箱torch.utils.dataDataset抽象类,其他数据集类定义时需继承自该类,并覆写两个方法:getitem__和__lenDataLoader定义一个新的迭代器,实现批量batch读取,打乱shuffle数据和并行加速等功能random_split将数据集随机拆分成给定长度的非重叠的新数据集*sample
  • 2024-10-30十五、PyTorch常用工具模块
      在训练神经网络过程中,需要用到很多工具,其中最重要的三部分是:数据、可视化和GPU加速。本章主要介绍Pytorch在这几方面的工具模块,合理使用这些工具能够极大地提高编码效率。1.1数据处理  在解决深度学习问题的过程中,往往需要花费大量的精力去处理数据,包括图像、文本、语音
  • 2024-10-29T-GCN解读(论文+代码)
    一、引言     提出交通预测是一个具有挑战性的任务,原因在于其复杂的时空依赖性。    首先,交通流量随着时间动态变化,主要体现在周期性和趋势性上。左图是交通流量一周内的周期变化,右图是交通流量在一天内随着时间推移发生的变化。      除了随
  • 2024-10-27基于pytorch搭建CNN
    先上代码importtorchimporttorch.nnasnnimporttorch.optimasoptimimporttorch.nn.functionalasFfromtorchvisionimportdatasets,transformsimportmatplotlib.pyplotaspltimportnumpyasnpimportpandasaspdimportmatplotlibmatplotlib.use('
  • 2024-10-25Go批量读取channel的数据
    packagemainimport("fmt""time")funcbatchProcessor(ch<-chanstring,batchSizeint,flushIntervaltime.Duration){varbatch[]stringtimer:=time.NewTimer(flushInterval)for{
  • 2024-10-22面试面经|大模型面试八股含答案,非常详细收藏我这一篇就够了
    基础知识1.transformer八股文a.Self-Attention的表达式b.为什么上面那个公式要对QK进行scalingscaling后进行softmax操作可以使得输入的数据的分布变得更好,你可以想象下softmax的公式,数值会进入敏感区间,防止梯度消失,让模型能够更容易训练。c.self-attention一定要这样
  • 2024-10-19CS 551 Systems Programming
    CS551SystemsProgramming,Fall2024ProgrammingProject1Out:10/13/2024Sun.Due:10/26/2024Sat.23:59:59Inthisprojectyouraregoingtoimplementacustommemorymanagerthatmanagesheapmemoryallocationatprogramlevel.Herearethereasonswh
  • 2024-10-18Stats渲染数据统计窗口
    Statistics窗口,全称叫做RenderingStatisticsWindow,即渲染统计窗口(或渲染数据统计窗口),窗口中罗列出关于渲染、声音、网络状况等多种统计信息,下面详细的解释一下这些项的意义。FPS(TimeperframeandFPS)framesperseconds表示引擎处理和渲染一个游戏帧所花费的时间,该数字主
  • 2024-10-17如何调整batch size和学习率之间的关系?
    一般来说,我们batchsize大一些,则learningrate也要大一些。且有一个数学关系,当我们改变batch_size的时候,可能遵循这样的规律:newlearningrate=oldlearningra
  • 2024-10-11《Pytorch深度学习实践》P3梯度下降法 笔记+代码+图像:梯度下降、随机梯度下降、小批量随机梯度下降
    目录梯度下降(BatchGradientDescent)随机梯度下降(StochasticGradienDescent,SGD)小批量随机梯度下降(Mini-batchGradientDescent)梯度下降(BatchGradientDescent)介绍:使用所有的训练样本计算梯度,并且在每次迭代中更新权重。原理:假设有一个损失函数,它依赖于参数。通过最
  • 2024-10-09深度学习——生成对抗网络(GAN)
    ✅作者简介:2022年博客新星第八。热爱国学的Java后端开发者,修心和技术同步精进。
  • 2024-10-04基于Python的自然语言处理系列(22):模型剪枝(Pruning)
            在深度学习领域,尤其是当模型部署到资源有限的环境中时,模型压缩技术变得尤为重要。剪枝(Pruning)是一种常见的模型压缩方法,通过减少模型中不重要的参数,可以在不显著降低模型性能的情况下提升效率。在本文中,我们将详细介绍如何在PyTorch中使用剪枝技术,并通过一些实
  • 2024-10-017、超参数调试、Batch正则化
    1、调整过程  在训练神经网络时,超参数的调试十分重要,下面分享一些指导原则。     通常来说,①学习因子α是最重要的超参数,也是需要重点调试的超参数。②动量梯度下降因子beta、各隐藏层神经元个数hiddenunits和mini-batchsize的重要性仅次于alpha。③然后就是神经网络
  • 2024-09-30LSTM模型改进实现多步预测未来30天销售额
    关于深度实战社区我们是一个深度学习领域的独立工作室。团队成员有:中科大硕士、纽约大学硕士、浙江大学硕士、华东理工博士等,曾在腾讯、百度、德勤等担任算法工程师/产品经理。全网20多万+粉丝,拥有2篇国家级人工智能发明专利。社区特色:深度实战算法创新获取全部完整项目