• 2024-08-19人工神经网络:竞争型学习
    Ciallo~(∠・ω<)⌒★我是赤川鹤鸣。这是我的第一篇关于人工智能技术的博客。内容大多数为本人的思考和学习笔记,希望对你有所帮助。现今,以反向传播为主的神经网络,在处理诸如分类任务时,通常由事先已经规定的分类来决定标签的分类数,进而确定网络架构。例如,如果我们对MNIST数
  • 2024-08-19torch.stack 堆叠函数帮助理解多维数组
    概论在PyTorch中,torch.stack函数用于在指定的维度上将一组张量堆叠起来。这个操作会在指定维度上创建一个新的维度,并将输入张量在该维度上进行堆叠。假设有两个形状相同的张量a和b,它们的形状都是(2,3,4),那么在不同的dim参数下使用torch.stack会产生不同的结果。以
  • 2024-08-19深度学习-pytorch-basic-001
    importtorchimportnumpyasnptorch.manual_seed(1234)<torch._C.Generatorat0x21c1651e190>defdescribe(x):print("Type:{}".format(x.type()))print("Shape/Size:{}".format(x.shape))print("Values:{}"
  • 2024-08-18使用深度强化学习产生多维动作空间,智能体更新如何处理
    在编写客制的深度强化学习环境时,有时候需要使用到智能体多维动作空间的应用。比如说,我们设计的环境是一个打砖块游戏,这时智能体需要产生一个[左,右,不动]的动作概率分布,智能体动作空间只产生一个维度:[0.2,0.4,0.4]此时,我们需要设计板来打砖块,而且是一个智能体,这时候智能体产生的动
  • 2024-08-18零基础学习人工智能—Python—Pytorch学习(五)
    前言上文有一些文字打错了,已经进行了修正。本文主要介绍训练模型和使用模型预测数据,本文使用了一些numpy与tensor的转换,忘记的可以第二课的基础一起看。线性回归模型训练结合numpy使用首先使用datasets做一个数据X和y,然后结合之前的内容,求出y_predicted。#pipinstallmatp
  • 2024-08-17PyTorch--双向长短期记忆网络(BiRNN)在MNIST数据集上的实现与分析
    文章目录前言完整代码代码解析1.导入库2.设备配置3.超参数设置4.数据集加载5.数据加载器6.定义BiRNN模型7.实例化模型并移动到设备8.损失函数和优化器9.训练模型10.测试模型11.保存模型常用函数前言本代码实现了一个基于PyTorch的双向长短期记忆网络(BiRNN),用于对MNI
  • 2024-08-17Dataset and DataLoader
    刘二大人_第八节课代码:importmatplotlib.pyplotaspltimporttorchimportnumpyasnpfromtorch.utils.dataimportDataset#抽象类,不可实例化fromtorch.utils.dataimportDataLoader#helpusloadingdatainPyTorchimportosos.environ["KMP_DUPLICATE_LI
  • 2024-08-16第三章:线性神经网络
    3.1线性回归3.1.1基本元素训练数据集/样本/标签/特征3.1.1.1线性模型一个线性模型有权重,偏移量,权重决定特征对预测值的影响,偏移量则是当特征为0时说明预测值为多少3.1.1.2损失函数损失函数能够量化目标的实际值与预测值之间的差距(损失函数以及部分函数前面的二分之一用
  • 2024-08-16PyTorch--实现循环神经网络(RNN)模型
    文章目录前言完整代码代码解析导入必要的库设备配置超参数设置数据集加载数据加载器定义RNN模型实例化模型并移动到设备损失函数和优化器训练模型测试模型保存模型小改进神奇的报错ValueError:LSTM:Expectedinputtobe2Dor3D,got4Dinstead前言首先,这篇
  • 2024-08-16掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
    PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别:1、torch.matmultorch.matmul是PyTorch中用于矩阵乘法的函数。它能够处理各种不同维度的张量,并根据张量的维度自动调整其操作方式。torch
  • 2024-08-15大模型微调实战演练:使用代码剖析 Transformers Pipelines工作原理
    在自然语言处理(NLP)领域,Transformers模型已经成为了主流技术之一。无论是文本分类、情感分析,还是机器翻译,Transformers都展现了强大的性能。今天,我们来详细解析一下TransformersPipelines的运行原理,帮助大家更好地理解其内部机制。一、基本流程TransformersPipeline
  • 2024-08-15深度学习梯度下降算法,链式法则,反向传播算法
    多层神经网络的学习能力比单层网络强得多。想要训练多层网络,需要更强大的学习算法。误差反向传播算法(BackPropagation)是其中最杰出的代表,它是目前最成功的神经网络学习算法。现实任务使用神经网络时,大多是在使用BP算法进行训练,值得指出的是BP算法不仅可用于多层前馈神经网
  • 2024-08-148-加载数据集
    数据的读取方式1、如果数据量比较小,直接读入内存,通过data[i]获取2、如果数据量很大,我们不能直接读入内存,比如数据有很多文件,我们可以将文件名存储到一个文件,通过names[i]获取文件名,然后再去读取数据dataloader加载器多线程的错误问题在linux多线程是通过fork创建的,但
  • 2024-08-14一个单机多卡训练模型的例子
    """Mydemotrainscript."""importargparseimportloggingimportosimportrandomimporttimeimportnumpyasnpimporttorchfromtorchimportnn,optim,Tensorfromtorch.utils.dataimportDataLoader,Datasetdefparse
  • 2024-08-147-处理多维特征的输入
    行是样本,列是feather特征:激活函数:损失函数和优化器:写代码步骤:np.loadtxt()方法:numpy.loadtxt(fname,dtype=float,comments='#',delimiter=None,converters=None,skiprows=0,usecols=None,unpack=False,ndmin=0,encoding='bytes',max_rows=None,*,like=No
  • 2024-08-13关于Pytorch中net.eval()和torch.no_grad()的意义理解
    Q:defevaluate_accuracy(net,data_iter):#@save"""计算在指定数据集上模型的精度"""ifisinstance(net,torch.nn.Module):net.eval()#将模型设置为评估模式metric=Accumulator(2)#正确预测数、预测总数withtorch.no_grad():
  • 2024-08-135-用PyTorch实现线性回归
    下面是损失函数下面是优化器下面通过model.parameters()可以获得model中所有的参数点击查看代码importtorchfromtorchimportdevicex_data=torch.tensor([[1.0],[2.0],[3.0]])y_data=torch.tensor([[2.0],[4.0],[6.0]])classLinearModel(torch.nn.
  • 2024-08-12PyTorch:从零实现一个双向循环神经网络
    从零实现一个双向循环神经网络(Bi-directionalRecurrentNeuralNetwork,Bi-RNN)从零开始,可以帮助我们深入理解RNN的机制。以下是实现步骤:定义RNN单元:实现一个简单的RNN单元,能够处理单个时间步长的数据。定义双向RNN:实现前向和后向的RNN,组合它们的输出。定义损失函
  • 2024-08-12成功安装torch但使用却Error loading “..\Lib\site-packages\torch\lib\fbgemm.dll“
    OSError:[WinError126]找不到指定的模块。Errorloading"..\lib\fbgemm.dll"1.问题不大,实际上是fbgemm.dll缺少了一个依赖文件。可以用Dependencies来查看。下载地址:https://github.com/lucasg/Dependencies/releases选择你电脑喜欢的配置下载一个release.zip下
  • 2024-08-12使用Mask R-CNN实现图像分割
    使用MaskR-CNN实现分割步骤1.导入依赖项import osimport torchimport numpy as npimport matplotlib.pyplot as pltfrom PIL import Imagefrom torch.utils.data import Dataset, DataLoaderfrom torchvision.transforms import Compose, ToTe
  • 2024-08-12零基础学习人工智能—Python—Pytorch学习(四)
    前言接续上一篇的optimizer的学习。optimizer代码和上一篇文章的一样,如下:importtorchimportnumpyasnpimporttorch.nnasnnX=torch.tensor([1,2,3,4],dtype=torch.float32)Y=torch.tensor([2,4,6,8],dtype=torch.float32)w2=torch.tensor(0.0,requ
  • 2024-08-11pytorch_geometric的Planetoid出现“TypeError: expected np.ndarray (got matrix)”的问题和解决方法
    问题和解决方案运行GCN的例子的时候,出现了这个错误:out=torch.from_numpy(out).to(torch.float)TypeError:expectednp.ndarray(gotmatrix)解决方案:在torch_geometric.io.planetoid.py中添加importnumpyasnp,将out=torch.from_numpy(out).to(torch.float)
  • 2024-08-11一步一步微调小模型
    本文记录一下,使用自顶向下的编程法一步步编写微调小语言模型的代码。微调一个语言模型,本质上是把一个已经预训练过的语言模型在一个新的数据集上继续训练。那么一次微调模型的任务,可以分为下面三个大个步骤(不包含evaluation):加载已经预训练好的模型和新的数据集预处理模型和
  • 2024-08-117-3FM模型
    FM算法全称为因子分解机(FactorizationMachine)。它是广告和推荐领域非常著名的算法,在线性回归模型上考虑了特征的二阶交互。适合捕捉大规模稀疏特征(类别特征)当中的特征交互。FM及其衍生的一些较有名的算法的简要介绍如下:FM(FactorizationMachine):在LR基础上用隐向量点
  • 2024-08-11Pytorch入门:tensor张量的构建
    tensor数据结构是pytorch的基础与核心,本文主要介绍三种常用的tensor张量的构建方式。1.从已有其他数据转换为tensor数据常用方法有如下两种:torch.tensortorch.Tensor上述两种方法有细微的差别,具体通过示例来进行展示运行结果为 首先,torch.tensor会对转换前容器内元素