首页 > 其他分享 >关于图神经网络框架Pytorch_geometric实战应用,并给出详细代码实现过程

关于图神经网络框架Pytorch_geometric实战应用,并给出详细代码实现过程

时间:2024-11-01 15:45:12浏览次数:6  
标签:index self torch 神经网络 Pytorch edge geometric data

大家好,我是微学AI,今天给大家介绍一下关于图神经网络框架 Pytorch_geometric实战应用,并给出详细代码实现过程,本文展示了如何利用该框架进行图神经网络的搭建与训练。文章涵盖了从数据预处理、模型构建、参数调优到模型评估等各个环节,旨在帮助读者深入理解并掌握Pytorch_geometric的使用方法,进一步推动图神经网络在各类实际应用场景中的普及与发展。
在这里插入图片描述

文章目录

一、图神经网络框架 Pytorch_geometric 简介

随着深度学习技术的发展,针对非欧几里得数据(例如图结构数据)的研究变得越来越重要。在这样的背景下,PyTorch Geometric (简称torch_geometric) 应运而生,作为一个基于 PyTorch 的扩展库,它专注于提供高效且易于使用的工具来实现图神经网络(GNNs)。本节将对 torch_geometric 进行全面介绍,涵盖其适用的 Python 版本范围、安装方式及与其它相关库的关系等内容。

1.1 概览

1.1.1 什么是图神经网络?

在深入探讨 torch_geometric 之前,有必要先简单了解一下什么是图神经网络。图神经网络是一种能够直接处理图形数据的人工智能模型,它们通过模拟节点间的信息传递过程来学习整个图的表示或特定节点的特征。这种特性使得 GNN 在社交网络分析、推荐系统、化学分子预测等多个领域有着广泛的应用前景。

1.1.2 PyTorch Geometric 简介

torch_geometric 是由德国慕尼黑工业大学的研究者开发的一个开源项目,旨在简化图神经网络的构建过程。该项目不仅提供了大量的预定义操作符用于快速搭建复杂的 GNN 结构,还包含了一系列现成的数据集以及基准测试函数,极大地促进了该领域的研究与发展。

1.2 系统要求与兼容性

为了确保 torch_geometric 能够正常运行,用户需要预先安装好合适的 Python 环境及其他依赖项。根据官方文档建议,推荐使用最新稳定版本的 Python 3.x(如 3.8 或以上),因为这些版本通常会得到更好的支持并且拥有更多的安全更新。此外,考虑到不同操作系统之间的差异性,开发者还应保证所选平台已正确配置了 C++ 编译器及相关开发工具包,以便顺利完成某些核心组件的编译工作。

值得注意的是,虽然 torch_geometric 主要依赖于 PyTorch,但它也支持与其他流行的科学计算库集成使用,比如 NumPy、SciPy 等,这为数据处理和可视化提供了极大的灵活性。同时,对于那些已经熟悉 TensorFlow 或 Keras 的用户来说,torch_geometric 提供了一个名为 tf_geometric 的姊妹项目,可以在保持代码一致性的同时迁移至 TensorFlow 生态圈内。

1.3 安装指南

安装 torch_geometric 有多种方法,但最常见的方式是通过 pip 包管理器进行安装。首先,确保你的环境中已安装了最新版本的 PyTorch 和 torchvision,然后执行以下命令:

pip install torch-scatter torch-sparse torch-cluster torch-geometric

这条命令将自动下载并安装所有必要的依赖项。如果你遇到了任何问题,或者想要手动控制每个包的安装流程,可以访问 官方 GitHub 页面 查看详细的安装说明。

1.3.1 高级设置

对于希望获得更佳性能表现的专业人士而言,还可以考虑启用 CUDA 支持以利用 GPU 加速计算过程。为此,你需要安装带有 CUDA 支持的 PyTorch 版本,并确保相应的 NVIDIA 驱动程序已经就位。接着,再次运行上述安装命令时添加 --extra-index-url https://pytorch-geometric.com/whl/cuXXX 参数(其中 XXX 替换为你的显卡对应的 CUDA 版本号)即可完成相应配置。

1.4 与其他库的关系

尽管 torch_geometric 本身功能强大且自成体系,但在实际应用中往往还需要与其他工具配合使用。例如,在进行大规模实验时可能需要用到分布式训练框架 Horovod;而在探索模型内部机制时,则离不开像 TensorBoard 这样的可视化工具。幸运的是,由于继承了 PyTorch 的优良传统,torch_geometric 与这些外部软件之间保持着良好的互操作性,从而使得开发者能够轻松地将其融入到现有的工作流之中。

此外,随着社区不断壮大,越来越多的第三方插件也开始涌现出来,进一步丰富了 torch_geometric 的生态链。无论是专门用于解决特定任务的小型模块,还是面向特定行业的定制化解决方案,都表明了这个年轻的项目正逐渐成长为一个成熟且多元化的平台。

总之,作为当今最为活跃和发展迅速的图神经网络开发工具之一,PyTorch Geometric 不仅为研究人员提供了一套完整的从理论到实践的技术栈,同时也为推动该领域向更深更广的方向发展做出了巨大贡献。希望通过本章节的介绍,读者能够对该框架有一个基本的认识,并激发起进一步探索的兴趣。

二、Pytorch_geometric 中的数据结构

在深入学习图神经网络的过程中,理解和掌握数据如何被表示是至关重要的。PyTorch Geometric 提供了一套非常强大的工具来帮助研究人员和开发者处理图形数据。这部分将详细介绍 PyTorch Geometric 内部用于表示图及其组成部分的主要数据结构,包括但不限于节点特征、边信息以及整个图的组织方式。

2.1 数据结构概述

PyTorch Geometric 主要通过 Data 类来封装一张图的所有相关信息。一个 Data 对象不仅能够保存节点和边的基本属性,还可以存储额外的信息,比如标签或权重等。这种灵活性使得该框架非常适合各种基于图的应用场景。

2.1.1 单个图的样子

为了更好地理解一个 Data 实例是如何构建的,我们先来看一下创建最简单形式下的图需要哪些基本信息:

  • 节点:每个节点可以拥有自己的特征向量。
  • :用来定义图中两个节点之间的连接关系,通常以一对数字的形式给出,即源节点ID和目标节点ID。
  • 可选属性:如节点或边的标签、权重等。

下面是一段使用 PyTorch Geometric 创建一个简单的无向图的例子:

import torch
from torch_geometric.data import Data

# 假设有一个具有3个节点的图
x = torch.tensor([[2, 1], [5, 6], [3, 7]], dtype=torch.float)  # 节点特征
edge_index = torch.tensor([[0, 1, 1, 2],
                           [1, 0, 2, 1]], dtype=torch.long)  # 边索引

data = Data(x=x, edge_index=edge_index)

print(data)

这里,x 是一个形状为 (3, 2) 的张量,代表了三个节点各自有两个特征;而 edge_index 则是一个 (2, 4) 形状的张量,它描述了四条边的存在(注意,在这个例子中每条边都被记录了两次因为这是一个无向图)。最后,我们将这些信息一起传给 Data 构造函数生成了一个完整的图对象。

2.1.2 节点特征与边索引

  • 节点特征 (x): 这是图中最基本也是最重要的部分之一。对于很多实际问题而言,每个节点都携带有一些固有的属性或者特征,例如社交网络中用户的年龄、性别等个人信息。在上述代码示例中,我们就给定了这样一个二维特征矩阵。

  • 边索引 (edge_index): 此参数定义了图中的连通性结构。其每一列代表一条边,其中第一行存放的是这条边起点的位置索引,第二行则是终点位置索引。如果希望表示有向边,则只需确保所有边的方向一致即可。

除了以上提到的核心组件之外,Data 类还支持更多高级功能,比如添加全局属性、设置边权值等,这为更复杂的图模型提供了极大的便利性。

2.1.3 多图批处理

当训练深度学习模型时,通常我们会一次性处理一批样本而不是单独处理每一个样本。同样地,在处理多个图时也需要一种有效的方法来进行批量操作。为此,PyTorch Geometric 提供了 Batch 类来方便地对多图进行打包。

假设我们现在有两个独立的小型图,并且想要将它们组合成一个批次进行下一步处理:

from torch_geometric.data import Batch

# 创建第二个图
x2 = torch.tensor([[8, 9], [10, 11]], dtype=torch.float)
edge_index2 = torch.tensor([[0, 1], [1, 0]], dtype=torch.long)
data2 = Data(x=x2, edge_index=edge_index2)

# 将两张图放入同一个批次
batch = Batch.from_data_list([data, data2])
print(batch)

通过这种方式,即使是不同大小或拓扑结构的图也可以轻松地被统一管理起来,这对于开发高效的图神经网络算法非常重要。

通过以上介绍,我们已经了解到了Pytorch_geometric是如何灵活地利用Data类来表示单个图以及如何利用Batch类来高效处理多个图的数据。接下来的部分将继续探讨更多关于链接拆分及负采样的知识,进一步丰富您对这一强大库的认识。

三、链接拆分与负采样

在图神经网络(GNN)的研究与应用中,处理大规模图数据时往往会遇到计算资源的限制。Pytorch_geometric 提供了多种方法来有效地管理这一挑战,其中之一便是通过链接拆分与负采样技术。本章将详细介绍这两种方法的作用原理,并通过具体的代码示例展示如何在 Pytorch_geometric 中实现它们。
在这里插入图片描述

3.1 链接拆分:分割大图以提高训练效率

当面对具有大量节点和边的大规模图时,直接使用整个图进行训练可能会导致内存不足或计算时间过长的问题。为了解决这个问题,我们可以采用链接拆分技术,即把原图划分为较小的部分,使得每个部分都可以单独作为模型输入进行处理。这样不仅可以减少单次迭代所需的内存消耗,还能并行处理不同的子图从而加快训练速度。

3.1.1 创建链接拆分对象

Pytorch_geometric 库内提供了 LinkNeighborLoader 类用于实现基于邻居的链接拆分。该类可以根据指定的策略从原始图中抽取子图,支持自定义参数如抽样层数、每层邻居数量等来控制生成子图的大小。

from torch_geometric.data import Data
from torch_geometric.loader import LinkNeighborLoader

# 假设我们有一个简单的无向图
edge_index = torch.tensor([[0, 1, 1, 2],
                           [1, 0, 2, 1]], dtype=torch.long)
data = Data(edge_index=edge_index)

# 定义一个 LinkNeighborLoader 对象
loader = LinkNeighborLoader(
    data,
    num_neighbors=[-1],  # 在这里设置想要抽样的邻居数
    batch_size=1,
    edge_label_index=data.edge_index,
    shuffle=True
)

for sample in loader:
    print(sample)

上述代码片段展示了如何初始化一个 LinkNeighborLoader 实例,并通过遍历它来获取一系列子图样本。这里的 -1 参数表示对于每一层都尽可能多地选取邻居;而在实际应用中,根据可用硬件条件调整此值可以进一步优化性能。

3.2 负采样:增强模型学习能力的关键步骤

除了链接拆分外,另一个重要概念是负采样。其主要目的是为了给模型提供足够多的“非连接”样本,以便于学习到更鲁棒的特征表示。在没有负采样的情况下,模型只能从已存在的正例链接中学习,这可能不足以捕捉所有潜在模式,尤其是在稀疏图上。

3.2.1 负采样的作用及原理

负采样通过随机选择那些在原图中不存在的边作为假阳性例子加入训练集。这样做有助于改善模型区分真实链接与虚假链接的能力。理想状态下,经过良好设计的负采样方案能够帮助提升推荐系统、知识图谱补全等多种应用场景下 GNN 模型的表现。

3.2.2 在 Pytorch_geometric 中实施负采样

虽然 Pytorch_geometric 并没有内置专门用于执行负采样的函数,但用户可以通过组合使用其他工具轻松实现这一点。例如,利用 NumPy 或者 Pandas 来创建不相连节点对列表,然后将其转换成适合 Data 对象格式的数据结构。

import numpy as np
import pandas as pd
from torch_geometric.data import Data

def negative_sampling(data, num_neg_samples):
    """ 生成指定数量的负样本 """
    edges = data.edge_index.numpy().T.tolist()
    all_pairs = [(i, j) for i in range(data.num_nodes) for j in range(i+1, data.num_nodes)]
    neg_edges = [pair for pair in all_pairs if pair not in edges][:num_neg_samples]

    return np.array(neg_edges).T

# 为上面创建的数据添加负样本
neg_edge_index = negative_sampling(data, 5)
print("Negative Edges:\n", neg_edge_index)

这段脚本首先列出所有可能的节点对,接着排除掉那些实际上存在于图中的边,最后从中随机挑选出指定数量的负样本。请注意,在大型图上直接枚举所有可能性可能是不可行的,因此实践中往往需要采用更加高效的算法来完成这项任务。

总之,链接拆分与负采样都是处理大规模图数据不可或缺的技术手段。通过合理运用这些技巧,研究人员不仅能够在有限的计算资源下开展研究工作,而且还能显著提高最终模型的质量。希望本文能为你理解和应用这些概念提供有价值的参考。

四、数据预处理与数据集获取

在图神经网络的研究和应用中,有效的数据预处理不仅能够提升模型的学习效率,还能显著改善最终结果的质量。本节将重点讨论如何使用Pytorch_geometric进行数据预处理,包括节点特征的行归一化等,并介绍如何通过该库轻松获取不同类型的数据集,特别是以著名的Cora数据集为例来展示整个流程。

4.1 数据预处理的重要性及方法概述

数据预处理是机器学习项目中不可或缺的一环,在图神经网络领域也不例外。它通常涉及清洗数据、标准化或归一化数值型特征、转换类别变量等形式。对于图结构数据来说,除了上述常见操作外,还可能需要针对图特有的属性做专门处理,比如调整边权重或者对特定类型的节点进行标记。

4.1.1 节点特征的行归一化

当处理图上的节点特征时,一个常见的问题是不同特征之间的尺度差异较大,这可能会导致某些特征主导了模型的学习过程。为了解决这个问题,我们可以采用行归一化(也称为L2正则化)技术,使得每个样本点的所有特征值向量长度统一为1,从而消除因特征尺度不同所带来的负面影响。

实现步骤:
  • 导入必要的库:首先确保安装了torchtorch_geometric库。
import torch
from torch_geometric.data import Data
  • 创建示例数据:假设我们已经有了一个包含节点特征x的数据对象data
# 假设 x 是形状为 (num_nodes, num_features) 的张量
x = torch.randn(100, 32)
data = Data(x=x)
  • 执行行归一化
norms = (x ** 2).sum(dim=1).sqrt().unsqueeze(-1)
x_normalized = x / norms
data.x = x_normalized

这里,我们先计算出每一行(即每个节点)特征值的欧几里得范数(即长度),然后用原始特征除以对应的范数,实现了归一化处理。

4.2 PyTorch Geometric 中的数据集加载

Pytorch_geometric 提供了非常便捷的方式来访问多种公开可用的数据集,这些数据集覆盖了从社交网络到生物信息学等多个领域的应用案例。其中,Cora 是一个广泛用于文本分类任务的经典引文网络数据集。

4.2.1 加载 Cora 数据集

要使用Corra数据集,只需要简单地调用几个函数即可快速完成数据加载工作:

from torch_geometric.datasets import Planetoid

dataset = Planetoid(root='/tmp/Cora', name='Cora')
print(f"Dataset: {dataset}")

这里使用的Planetoid类是专门为这类基于引用关系的任务设计的。参数root指定了保存数据的位置,而name则用来指定具体哪个数据集被加载。运行上述代码后,dataset就包含了所有相关信息,如节点特征矩阵、边列表以及标签等。

4.2.2 探索数据内容

一旦成功加载了数据集,接下来可以进一步探索其内部结构:

data = dataset[0]  # 获取第一个图对象
print(data)
print(f'Number of nodes: {data.num_nodes}')
print(f'Number of edges: {data.num_edges}')
print(f'Node feature size: {list(data.x.shape)}')
print(f'Edge index shape: {list(data.edge_index.shape)}')

这段代码可以帮助理解Cora数据集中各部分的具体含义及其维度信息。

通过以上步骤,我们不仅完成了对图神经网络数据的基本预处理,同时也掌握了如何利用Pytorch_geometric高效地访问并准备实际问题中的数据资源。接下来的部分将在此基础上进一步探讨具体的模型构建与训练过程。

五、实战应用与代码示例

本章节将通过一个完整的项目来展示如何使用 PyTorch Geometric 构建图神经网络模型,包括数据处理、模型定义(采用不同类型的卷积层)、训练过程以及评估方法。此外,还会介绍如何执行邻居采样以加速大型图上的训练过程。

5.1 准备工作:环境配置与数据加载

首先确保已经安装了 PyTorch 和 PyTorch Geometric。如果还没有安装,可以按照官方文档提供的指南进行设置。这里我们假设你已经完成了必要的软件环境准备。

5.1.1 导入所需库

import torch
from torch_geometric.data import Data, DataLoader
from torch_geometric.datasets import Planetoid
import torch.nn.functional as F
from torch_geometric.nn import GCNConv, SAGEConv, GATConv, FastRGCNConv

5.1.2 加载Cora数据集

Cora 是一个广泛用于测试图神经网络算法的小型学术论文引用网络。每个节点代表一篇论文,边表示从一篇论文到另一篇的引用关系。我们将使用这个数据集来进行演示。

dataset = Planetoid(root='/tmp/Cora', name='Cora')
data = dataset[0]
print(data)

上述代码会下载 Cora 数据集并打印出第一个样本的信息,其中包括了节点特征 x、标签 y 以及邻接矩阵形式的边信息 edge_index

5.2 模型构建:选择合适的卷积层

根据不同的任务需求和个人偏好,可以选择多种卷积层实现图上的信息传递。下面给出几个常见选项的简单示例。

5.2.1 使用GCNConv

图卷积网络 (Graph Convolutional Networks, GCNs) 是最早被提出的一种基于谱域的方法之一,它在许多基准测试中都表现良好。

class GCN(torch.nn.Module):
    def __init__(self):
        super(GCN, self).__init__()
        self.conv1 = GCNConv(dataset.num_node_features, 16)
        self.conv2 = GCNConv(16, dataset.num_classes)

    def forward(self, data):
        x, edge_index = data.x, data.edge_index
        x = self.conv1(x, edge_index)
        x = F.relu(x)
        x = F.dropout(x, training=self.training)
        x = self.conv2(x, edge_index)
        return F.log_softmax(x, dim=1)

5.2.2 尝试SAGEConv

图样条聚合器 (GraphSAGE) 提供了一种可扩展的方式来学习大规模图结构中的节点嵌入。与传统的全连接层相比,GraphSAGE 更加关注于局部邻居信息。

class GraphSAGE(torch.nn.Module):
    def __init__(self):
        super(GraphSAGE, self).__init__()
        self.conv1 = SAGEConv(dataset.num_node_features, 16)
        self.conv2 = SAGEConv(16, dataset.num_classes)

    def forward(self, data):
        x, edge_index = data.x, data.edge_index
        x = self.conv1(x, edge_index)
        x = F.relu(x)
        x = F.dropout(x, training=self.training)
        x = self.conv2(x, edge_index)
        return F.log_softmax(x, dim=1)

5.2.3 应用GATConv

注意力机制允许模型动态地为不同邻居分配权重,从而更好地捕捉图内复杂的依赖关系。图形注意力网络 (GATs) 就是这样一个引入了自注意力概念的例子。

class GAT(torch.nn.Module):
    def __init__(self):
        super(GAT, self).__init__()
        self.conv1 = GATConv(dataset.num_node_features, 8, heads=8, dropout=0.6)
        # On the Pubmed dataset, use heads=8 in conv2.
        self.conv2 = GATConv(8 * 8, dataset.num_classes, heads=1, concat=False, dropout=0.6)

    def forward(self, data):
        x, edge_index = data.x, data.edge_index
        x = F.dropout(x, p=0.6, training=self.training)
        x = F.elu(self.conv1(x, edge_index))
        x = F.dropout(x, p=0.6, training=self.training)
        x = self.conv2(x, edge_index)
        return F.log_softmax(x, dim=1)

5.3 训练流程设计

对于所有上述模型,我们可以使用几乎相同的训练逻辑。这包括定义优化器、损失函数以及主循环内的前向传播和反向传播步骤。

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = GCN().to(device)  # 或者换成其他任何一种定义好的模型
data = data.to(device)
optimizer = torch.optim.Adam(model.parameters(), lr=0.01, weight_decay=5e-4)

model.train()
for epoch in range(200):
    optimizer.zero_grad()
    out = model(data)
    loss = F.nll_loss(out[data.train_mask], data.y[data.train_mask])
    loss.backward()
    optimizer.step()

    if (epoch + 1) % 20 == 0:
        print(f'Epoch {epoch+1}, Loss: {loss.item()}')

这段脚本展示了基本的训练过程,但请注意,在实际应用中可能还需要考虑更复杂的调度策略(比如学习率衰减)或者正则化技术等。

5.4 邻居采样加速训练

当处理非常大的图时,直接对整个图进行操作可能是不切实际的。此时可以通过邻居采样的方式来减少计算量。PyTorch Geometric 提供了方便的数据加载器来支持这一功能。

5.4.1 创建NeighborSampler

from torch_geometric.loader import NeighborLoader

loader = NeighborLoader(
    data,
    num_neighbors=[10] * 2,
    batch_size=128,
    shuffle=True,
    input_nodes=data.train_mask,
)

这里设置了两跳邻居每次采样10个节点,可以根据实际情况调整这些参数值。

5.4.2 修改训练循环以适应采样器

model.train()
for epoch in range(200):
    for batch in loader:
        optimizer.zero_grad()
        out = model(batch)
        loss = F.nll_loss(out, batch.y)
        loss.backward()
        optimizer.step()

    if (epoch + 1) % 20 == 0:
        print(f'Epoch {epoch+1}, Loss: {loss.item()}')

通过这种方式,即使面对巨大的图结构也能高效地完成训练任务而不至于内存溢出。

以上就是关于如何利用 PyTorch Geometric 实现图神经网络的一些应用。希望对你们有所帮助!

标签:index,self,torch,神经网络,Pytorch,edge,geometric,data
From: https://blog.csdn.net/weixin_42878111/article/details/143433337

相关文章

  • 诺贝尔物理学奖的新篇章:机器学习与神经网络的光辉时刻
    文章目录前言一、从理论到实践:机器学习的物理基础二、跨学科融合:开启智能时代的新纪元三、技术创新:推动科学研究的革命四、社会影响:促进公平与可持续发展五、伦理与挑战:确保技术的健康发展六、未来展望:开启智能时代的无限可能结语前言在科学界的璀璨星河中,诺贝尔奖......
  • Ubuntu20.04版本安装pytorch(宝宝级攻略)
     前言在学习深度学习时,安装pytorch是必要的,现在想出一个宝宝级的攻略,希望能够帮助大家节约时间。如果大家通过我的攻略安装成功,请在评论区打出“好用“希望能够帮助到更多人。1.安装前的准备1.检查你的Ubuntu是否安装了显卡驱动程序Ubuntu20.04版本的NVIDIA显卡驱动程序......
  • 深度学习——卷积神经网络
    一、卷积神经网络        卷积神经网络(ConvolutionalNeuralNetworks,简称CNN)是一种深度学习模型,它在图像和视频识别、分类和分割等任务中表现出色。CNN的设计灵感来源于生物的视觉皮层机制,特别是它如何响应图像边缘和纹理等局部特征。1.卷积神经网络的应用领域  ......
  • 为什么神经网络loss值很小但实际预测结果差很大
    当我们使用神经网络进行训练时,可能会遇到loss值很小但实际预测效果很差的情况。这可能是由:1.过拟合;2.不合适的数据分割;3.评估指标选择不当;4.模型结构或参数设置不当;5.数据问题导致的标签错误等原因造成的。1.过拟合过拟合是神经网络训练中常见的问题,意味着模型在训练数据上表......
  • 【深度学习】从公式推导来深入理解误差反向传播算法2:《深度学习入门基于Python的理论
    《深度学习入门基于Python的理论与实现》中实现了2层全连接神经网络的代码对MNIST数据集的28x28像素0-9手写数字灰度图像进行分类,本文将重点对代码中的two_layer_net类的gradient函数中的误差反向传播的代码进行公式推导验证。验证小批量数据的交叉熵损失函数对第2层权重......
  • Python基于TensorFlow实现卷积神经网络-双向长短时记忆循环神经网络加注意力机制回归
    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后关注获取。1.项目背景随着大数据时代的到来,对复杂数据结构的理解和预测成为许多领域的重要课题。在这些领域中,无论是视频分析、语音识别还是自然语言处理,都面临着需......
  • Python深度学习进阶与前沿应用(注意力机制详解、生成式模型详解、自监督学习模型详解、
    近年来,伴随着以卷积神经网络(CNN)为代表的深度学习的快速发展,人工智能迈入了第三次发展浪潮,AI技术在各个领域中的应用越来越广泛。注意力机制、Transformer模型(BERT、GPT-1/2/3/3.5/4、DETR、ViT、SwinTransformer等)、生成式模型(变分自编码器VAE、生成式对抗网络GAN、扩散模型Di......
  • 《神经网络、机器学习和深度学习:开启智能时代的三把密钥》
    神经网络、机器学习和深度学习是人工智能领域中非常重要的概念,它们之间既有联系又有区别。神经网络原理神经元模型:神经网络的灵感来源于人类大脑的神经元结构。在人工神经网络中,每个神经元接收来自其他神经元或输入层的多个输入信号,并对这些输入进行加权求和。每个输入......
  • 让卷积神经网络来辨识马和人
    上一篇:《设计卷积神经网络CNN为什么不是编程?》序言:我们已经踏入了设计人工智能(AI)模型的大门,有一个重要概念请大家务必记住:人工智能模型=架构+特征。任何一个AI模型都是先设计出架构,再通过数据训练获得特征。整合了特征的架构才算是一个完整的人工智能模型,如果没有特征的支撑......
  • 2024年信号处理与神经网络应用国际学术会议(SPNNA 2024) 2024 International Conferenc
    @目录一、会议详情二、重要信息三、大会介绍四、出席嘉宾五、征稿主题六、咨询一、会议详情二、重要信息大会官网:https://ais.cn/u/vEbMBz提交检索:EICompendex、IEEEXplore、Scopus三、大会介绍2024年信号处理与神经网络应用国际学术会议(SPNNA2024)将于2024年12月13日......