• 2024-11-21【机器学习】解锁AI密码:神经网络算法详解与前沿探索
  • 2024-11-21【基于PyTorch的简单多层感知机(MLP)神经网络(深度学习经典代码实现)】
    importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#准备数据集batch_size=64transform=transforms.Compose([transforms.
  • 2024-11-20RNN (循环神经网络 - 从mlp到rnn - 困惑度 - 梯度剪裁) + 代码实现 —— 笔记3.4《动手学深度学习》
    0.前言课程全部代码(pytorch版)已上传到附件本章节为原书第8章(循环神经网络),共分为7节,本篇是第4-6节:RNNRNN从零实现RNN简洁实现本节(4-6节)的代码位置为:chapter_recurrent-neural-networks/rnn.ipynbchapter_recurrent-neural-networks/rnn-scratch.ipynbchapte
  • 2024-11-20PyTorch基础学习01_创建张量&常见属性&数据转换&图像
    目录一、PyTorch——经典的深度学习框架1、 PyTorch简介2、其他常见深度学习框架3、安装二、Tensor概述1、张量概念2、数据类型三、Tensor创建1、基本创建方式 2、创建线性和随机张量3、创建全0、全1张量 4、创建指定值张量5、创建单位张量 四、Tensor常见属
  • 2024-11-20【神经网络基础】
    神经网络基础1.损失函数1.损失函数的概念2.分类任务损失函数-多分类损失:3.分类任务损失函数-二分类损失:4.回归任务损失函数计算-MAE损失5.回归任务损失函数-MSE损失6.回归任务损失函数-SmoothL1损失2.网络优化方法1.梯度下降算法2.反向传播算法(BP算法)3.梯度下降优
  • 2024-11-20深入解析 PyTorch 的 BatchNorm2d:原理与实现
    在深度学习中,BatchNormalization是一种常用的技术,用于加速网络训练并稳定模型收敛。本文将结合一个具体代码实例,详细解析PyTorch中BatchNorm2d的实现原理,同时通过手动计算验证其计算过程,帮助大家更直观地理解BatchNorm的工作机制。1.BatchNormalization的基本原理1.
  • 2024-11-19Flask上传服务器,conda环境配置(都怪torch)
    Flask上传服务器,conda环境配置(都怪pytorch)问题:有个任务,将一个flask的服务换到另一个服务器上,之前的服务器一直用国内的镜像源可以直接下载镜像,当这个服务器设置相同的镜像源也下载不了,一直卡在solvingenvironment这一步。找到一个方法,可以直接复制整个虚拟环境到另一个服务器上
  • 2024-11-19【FreedomMan原创】本地离线部署通义千问2-VL多模态大模型推理【图生文】
    开发环境、工具windows10专业版idea2020.1.4、anaconda3、python3.11.10机器配置I5-1240P、16GRAM模型名称通义千问Qwen/Qwen2-VL-2B-Instruct-GPTQ-Int8代码调用示例本机无cudn显卡,使用cpu推理调用fromtransformersimportQwen2VLForConditionalGeneration,Auto
  • 2024-11-18在深度学习模型中添加灵敏度和精确度评价指标
    在深度学习模型中添加灵敏度和精确度评价指标引言在深度学习的图像分割任务中,评价模型性能的指标至关重要。常用的指标如IoU(IntersectionoverUnion)和Dice系数能够有效地衡量模型的分割效果。然而,单一的评价指标往往无法全面反映模型的性能。因此,本文将介绍如何在深度学
  • 2024-11-18【AI绘画】Alpha-VLLM 的 Lumina-Next:新一代图像生成器
    简介Lumina-Next-T2I是在Lumina-T2I成功基础上发展起来的尖端图像生成模型。它采用了带有2B参数模型的Next-DiT和Gemma-2B文本编码器,推理速度更快,生成样式更丰富,并增强了多语言支持。模型架构Lumina-Next-T2I的生成模型建立在Next-DiT骨干之上,文本编码器是
  • 2024-11-18LLM的不同精度详解和显存占用,FP16,FP32,BF16
    目录前言1、FP162、BF163、FP324、不同精度的显存占用5、不同精度之间的转换总结前言本文主要介绍LLM的三种不同精度FP16,FP32,BF16的概念和计算,并用pytorch进行演示;不同精度下的显存占用,以及不同精度的相互转换。1、FP16FP16也叫 float16,全称是Half-precisionflo
  • 2024-11-17Python如何根据给定模型计算权值
    在机器学习和深度学习中,模型的权值(或参数)通常是通过训练过程(如梯度下降)来学习和调整的。然而,如果我们想根据一个已经训练好的模型来计算或提取其权值,Python提供了许多工具和库,其中最常用的是TensorFlow和PyTorch。一、使用TensorFlow示例在TensorFlow中,模型的权值(或参数)是
  • 2024-11-17SFMA(提取全局和局部特征 并进行简单的融合)
    importtorchimporttorch.nnasnnimporttorch.nn.functionalasFclassDMlp(nn.Module):'''用来提取局部特征'''def__init__(self,dim,growth_rate=2.0):super().__init__()hidden_dim=int(dim*
  • 2024-11-17PCFN
    importtorchimporttorch.nnasnnimporttorch.nn.functionalasFclassPCFN(nn.Module):'''使用带有GELU的激活函数的1*1卷积对扩展的隐藏空间进行跨信道交互。然后将隐藏特征分割成两块对其中一块使用3*3卷积核GELU激活函数编码局部上下文将处理后的结
  • 2024-11-17YOLOv7-0.1部分代码阅读笔记-torch_utils.py
    torch_utils.pyutils\torch_utils.py目录torch_utils.py1.所需的库和模块2.deftorch_distributed_zero_first(local_rank:int): 3.definit_torch_seeds(seed=0): 4.defdate_modified(path=__file__): 5.defgit_describe(path=Path(__file__).parent): 6.def
  • 2024-11-16装pytorch
    main装anaconda【手把手教你安装PyTorch傻瓜式操作一次成功】手把手教你安装PyTorch傻瓜式操作一次成功_哔哩哔哩_bilibili装pytorch、pycharm因为是核显、所以得用CPU版本【全程复制粘贴教你安装CPU版本torch】全程复制粘贴教你安装CPU版本torch_哔哩哔哩_bilibili
  • 2024-11-16【深度学习】二、多层感知机(MLP)
    目录1什么是多层感知机1.1基本概念1.2 数学解释2多层感知机的结构3多层感知机的应用4代码实现4.1代码4.1.1 手动实现4.1.2运行结果4.2简洁实现4.2.1代码4.2.2运行结果4.3面向对象4.3.1代码4.3.2运行结果参考资料本人为小白,欢迎补充!1什么是
  • 2024-11-15模型剪枝:剪枝粒度、剪枝标准、剪枝时机、剪枝频率
    模型剪枝模型剪枝:将模型中不重要的权重和分支裁剪掉。将权重矩阵中一部分元素变为零元素。减去不重要的突触(Synapses)或神经元(Neurons)。剪枝类型非结构化剪枝非结构化剪枝:破坏了原有模型的结构。怎么做:非结构化剪枝并不关心权重在网络中的位置,只是根据某种标准(例如,权重的绝
  • 2024-11-14【简单的基于循环神经网络(RNN)的模型(深度学习经典代码实现)】
    importtorch#Code–Parametersinput_size=4hidden_size=4num_layers=1batch_size=1seq_len=5#Code–PrepareDataidx2char=['e','h','l','o']x_data=[1,0,2,2,3]y_data=[3,1,2,3,2]one_hot
  • 2024-11-14【基于PyTorch的简单多层感知机(MLP)神经网络(深度学习经典代码实现)】
    importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#准备数据集batch_size=64transform=transforms.Compose([transforms.
  • 2024-11-14PyTorch 手写字符识别
    PyTorch手写字符识别我们使用MNIST数据集对建立的卷积神经网络进行了训练,并加载测试集进行测试,最终的识别精度达到了99%。但是官方和网上的测试流程只是演示最终的测试结果,没有很直观的告诉我们怎么在项目中使用他。我们学习机器学习和人工智能的目的不是跑一个官网的演示程
  • 2024-11-14【Pytorch】神经网络介绍|激活函数|使用pytorch搭建方法
    神经网络神经网络介绍概念神经网络人工神经网络ANN也称神经网络NN是一种模仿生物神经网络结构和功能的计算模型人脑可以看作是一个生物神经网络,由众多神经元连接而成,神经网络可以看作是模拟生物神经元的过程输入层inputLayer:输入x的那一层输出层output
  • 2024-11-14PyTorch——从入门到精通:PyTorch简介与安装(最新版)【PyTorch系统学习】
    前言        在这个由数据驱动的时代,深度学习已经成为了推动技术进步的核心力量。而PyTorch,作为当今最流行的深度学习框架之一,以其动态计算图、易用性和灵活性,受到了全球开发者和研究者的青睐。为了帮助更多的学习者和开发者掌握这一强大的工具,我决定在CSDN开设一个专
  • 2024-11-13PyTorch 应用实战
    PyTorch作为深度学习非常重要的框架之一,在科研和开发领域有着非常广泛的使用,是我们学习和研究LLM必备的工具之一。本文主要介绍三个PyTorch的实战案例,方便大家快速了解和体验PyTorch。一、PyTorch简介PyTorch是一个开源的Python深度学习框架,它具有灵活、高效、易于学
  • 2024-11-1351c视觉~合集6
    我自己的原文哦~  https://blog.51cto.com/whaosoft/11603901#CSWin-UNet将自注意力机制集成到UNet中!CSWin-UNet:U型分割方法,显著提高计算效率和感受野交互!本文提出了CSWin-UNet,这是一种新颖的U型分割方法,它将CSWin自注意力机制集成到UNet中,以实现水平和垂直条纹的自注意力