• 2024-07-02李沐动手学深度学习V2-chap_preliminaries
    李沐动手学深度学习V2文章内容说明本文主要是自己学习过程中的随手笔记,需要自取课程参考B站:https://space.bilibili.com/1567748478?spm_id_from=333.788.0.0课件等信息原视频简介中有CSV文件修改读取成张量tensor数据预处理首先(创建一个人工数据集,并存储在CSV(逗号分隔值
  • 2024-07-02焦点损失:深度学习中的目标检测优化神器
  • 2024-07-02快速调用 GLM-4-9B-Chat 语言模型
    一、确认本机显卡配置二、下载大模型国内可以从魔搭社区下载,下载地址:https://modelscope.cn/models/ZhipuAI/glm-4-9b-chat/files  三、运行官方代码 importtorchfromtransformersimportAutoModelForCausalLM,AutoTokenizerdevice="cuda"tokenizer=Aut
  • 2024-07-01动手学深度学习5.6 GPU-笔记&练习(PyTorch)
    以下内容为结合李沐老师的课程和教材补充的学习笔记,以及对课后练习的一些思考,自留回顾,也供同学之人交流参考。本节课程地址:17使用和购买GPU【动手学深度学习v2】_哔哩哔哩_bilibili本节教材地址:5.6.GPU—动手学深度学习2.0.0documentation(d2l.ai)本节开源代码:...>d
  • 2024-07-01经典的卷积神经网络模型 - AlexNet
    经典的卷积神经网络模型-AlexNetflyfishAlexNet是由AlexKrizhevsky、IlyaSutskever和GeoffreyHinton在2012年提出的一个深度卷积神经网络模型,在ILSVRC-2012(ImageNetLargeScaleVisualRecognitionChallenge2012)竞赛中取得了显著的成果,标志着深度学习在计
  • 2024-07-01使用不同函数打印torch.nn模型——print(model),named_children(),named_modules():
    创建模型创建一个具有三级嵌套的模型,结构如图:importtorchimporttorch.nnasnn#定义子子模块classSubSubModule(nn.Module):def__init__(self):super(SubSubModule,self).__init__()self.conv=nn.Conv2d(3,3,kernel_size=3,padding=1)
  • 2024-07-01colab上比较DINO
    !gitclonehttps://github.com/facebookresearch/dino.git!pipinstalltimmimporttorchimporttimmfromPILimportImagefromtorchvisionimporttransforms#加载模型model=torch.hub.load('facebookresearch/dino:main','dino_vits8')mo
  • 2024-07-01colab上比较clip
    !pipinstalltorchtorchvisionftfyregex!pipinstallgit+https://github.com/openai/CLIP.gitimporttorchimportclipfromPILimportImagefromioimportBytesIOimportrequests#加载模型device="cuda"iftorch.cuda.is_available()else"
  • 2024-07-01Diffusers代码学习:加载适配器
    有几种用于个性化扩散模型以生成特定主题的图像或特定风格的图像的训练技术。每种训练方法都会产生不同类型的适配器。一些适配器生成一个全新的模型,而其他适配器只修改一组较小的嵌入或权重。这意味着每个适配器的加载过程也不同。DreamBooth仅在一个主题的几个图像上微调整
  • 2024-06-30深度学习CUDA Out of Memory原因总结和方法
    CUDAOutofMemory原因总结和方法原因总结显存不足:深度学习模型(尤其是大型模型)在训练或推理时需要大量的显存。如果显存容量不足,会导致CUDAOutofMemory错误。批处理大小过大:在训练过程中,批处理(batch)大小设置过大时,会占用过多的显存,导致显存溢出。模型过大:模型
  • 2024-06-30深度学习实战之找最大数字
    文章目录前言问题描述生成训练集定义神经网络进行训练模型评估预测前言之前学习了深度学习的概念与基本过程,今天用一个简单的深度学习框架实现最大数字的找寻,理解深度学习的的基本流程。问题描述假设有一个5维数组,
  • 2024-06-30开源语音转文本Speech-to-Text大模型实战之Wav2Vec篇
    前言近年来,语音转文本(Speech-to-Text,STT)技术取得了长足的进步,广泛应用于各种领域,如语音助手、自动字幕生成、智能客服等。本文将详细介绍如何利用开源语音转文本大模型进行实战,从模型选择、环境搭建、模型训练到实际应用,带您一步步实现语音转文本功能。一、模型选择目前,市
  • 2024-06-30Transformer详解encoder
    目录1.InputEmbedding2.PositionalEncoding3.Multi-HeadAttention4.Add&Norm5.Feedforward+Add&Norm6.代码展示(1)layer_norm(2)encoder_layer=1最近刚好梳理了下transformer,今天就来讲讲它~        Transformer是谷歌大脑2017年在论文attention
  • 2024-06-3010分钟安装好torch的GPU版本(Windows)
    pytorch-gpu1.确定cuda版本2.确定Python版本3开始下载-cu118-cp383.1下载cuda3.2下载torchvision4.下载好了5.开始安装6.开始验证1.确定cuda版本nvcc-V版本为11.8,一会下载的版本为cu1182.确定Python版本确定python版本为为3.8,一会下载为cp38
  • 2024-06-30动手学深度学习(Pytorch版)代码实践 -计算机视觉-48全连接卷积神经网络(FCN)
    48全连接卷积神经网络(FCN)1.构造函数importtorchimporttorchvisionfromtorchimportnnfromtorch.nnimportfunctionalasFimportmatplotlib.pyplotaspltimportliliPytorchaslpfromd2limporttorchasd2l#构造模型pretrained_net=torchvision.
  • 2024-06-30动手学深度学习(Pytorch版)代码实践 -计算机视觉-47转置卷积
    47转置卷积importtorchfromtorchimportnnfromd2limporttorchasd2l#输入矩阵X和卷积核矩阵K实现基本的转置卷积运算deftrans_conv(X,K):h,w=K.shapeY=torch.zeros((X.shape[0]+h-1,X.shape[1]+w-1))foriinrange(X.shape
  • 2024-06-24mlp
    importtorchfromd2limporttorchasd2lfromtorchimportnnbatch_size=100train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size=batch_size)input_size=784hidden_size=300output_size=10W1=nn.Parameter(torch.randn(input_siz
  • 2024-06-24torch.sub
    torch.sub是PyTorch中用于执行逐元素减法的函数。它可以用于张量之间的减法运算,或者用来从一个张量中减去一个标量。以下是一些使用torch.sub的示例:示例1:两个张量之间的减法importtorch#创建两个张量tensor1=torch.tensor([5.0,6.0,7.0])tensor2=torch.tens
  • 2024-06-23non_blocking=True 与 torch.cuda.synchronize()
    需要注意的是:GPU和CPU之间是异步执行的,CPU向GPU下达指令以后会立刻执行之后的代码,CPU不会等待GPU执行完成一、non_blocking=True 目的:压缩gpu的效果,避免CPU与GPU设备数据传输时间开销带来的计算效率低下在PyTorch中, non_blocking 是一个布尔类型的参数,用于指定是否启用
  • 2024-06-23softmax-regression
    importtorchfromd2limporttorchasd2lbatch_size=50train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)help(d2l.load_data_fashion_mnist)Helponfunctionload_data_fashion_mnistinmoduled2l.torch:load_data_fashion_mnist(batch
  • 2024-06-23加油站视频监控智能识别分析 CNN
    加油站视频监控智能识别分析根据AI视频识别的加油站智能监控解决方案:加油站视频监控智能识别分析依据加油站现场已经存在的高清摄像头搜集加油站视频在此基础上加油站视频监控智能识别加油站监控画面中的人的行为或者车的视频图象。智能识别工作人员行为状态,是否存在违规操作,系
  • 2024-06-22Transformers--4-37-中文文档-四十五-
    Transformers4.37中文文档(四十五)原文:huggingface.co/docs/transformersOWL-ViT原文:huggingface.co/docs/transformers/v4.37.2/en/model_doc/owlvit概述OWL-ViT(VisionTransformerforOpen-WorldLocalization)是由MatthiasMinderer、AlexeyGritsenko、AustinSton
  • 2024-06-22Transformers--4-37-中文文档-四十四-
    Transformers4.37中文文档(四十四)原文:huggingface.co/docs/transformersLayoutLMv3原文链接:huggingface.co/docs/transformers/v4.37.2/en/model_doc/layoutlmv3概述LayoutLMv3模型由YupanHuang、TengchaoLv、LeiCui、YutongLu、FuruWei在LayoutLMv3:Pre-trai
  • 2024-06-22Transformers--4-37-中文文档-四十三-
    Transformers4.37中文文档(四十三)原文:huggingface.co/docs/transformersGIT原始文本:huggingface.co/docs/transformers/v4.37.2/en/model_doc/git概述GIT模型是由JianfengWang、ZhengyuanYang、XiaoweiHu、LinjieLi、KevinLin、ZheGan、ZichengLiu、CeLiu、L
  • 2024-06-22Transformers--4-37-中文文档-四十一-
    Transformers4.37中文文档(四十一)原文:huggingface.co/docs/transformersAltCLIP原文链接:huggingface.co/docs/transformers/v4.37.2/en/model_doc/altclip概述AltCLIP模型是由陈忠志、刘光、张博文、叶福龙、杨庆红、吴乐德在AltCLIP:AlteringtheLanguageEncoder