首页 > 其他分享 >mindspore框架实现ckpt模型导出ONNX格式

mindspore框架实现ckpt模型导出ONNX格式

时间:2024-08-02 10:25:00浏览次数:15  
标签:network format ONNX ckpt export file input mindspore

mindspore框架保存及加载模型

  1. 详细流程:昇思-保存及加载模型

  2. 关键步骤
    在这里插入图片描述

  3. 关键代码

from mindspore import export, load_checkpoint, load_param_into_net
from mindspore import Tensor
import numpy as np
from MobileNet2GarbageCls.MobileNetv2 import *

# 有了CheckPoint文件后,可导出模型file_format='MINDIR','AIR','ONNX'
backbone = MobileNetV2Backbone()  # last_channel=config.backbone_out_channels
head = MobileNetV2Head(input_channel=backbone.out_channels, num_classes=7)  # num_classes=7
network = mobilenet_v2(backbone, head)  # 我的模型
pretrained_ckpt = './sleepClassify/Models/save_mobilenetV2_sleepCls0.824.ckpt'  # 睡岗分类
load_checkpoint(pretrained_ckpt, network)  # 将参数加载到网络中
# 1. 导出MindIR格式
input = np.random.uniform(0.0, 1.0, size=[32, 3, 224, 224]).astype(np.float32)
# export(network, Tensor(input), file_name='MobileNet2_sleep_0824', file_format='MINDIR')

# 2. 导出AIR格式:ValueError: Only support export file in 'AIR' format with Ascend backend.
# export(network, Tensor(input), file_name='MobileNet2_sleep_082', file_format='AIR')

# 3. 导出ONNX格式;mindspore框架目前ONNX格式导出仅支持ResNet系列、BERT网络。
export(network, Tensor(input), file_name='MobileNet2_sleep_0824', file_format='ONNX')

标签:network,format,ONNX,ckpt,export,file,input,mindspore
From: https://blog.csdn.net/beauthy/article/details/140828857

相关文章

  • 昇思MindSpore 应用学习-基于 MindSpore 实现 BERT 对话情绪识别
    基于MindSpore实现BERT对话情绪识别模型简介BERT全称是来自变换器的双向编码器表征量(BidirectionalEncoderRepresentationsfromTransformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言......
  • YOLOv8n部署到RK3588开发板全流程(pt→onnx→rknn模型转换、板端后处理检测)
    YOLOv8n部署到RK3588开发板全流程文章目录前言一、模型训练二、配置用于pt模型转onnx模型的环境三、pt→onnx模型转换四、配置onnx转rknn模型的虚拟环境五、onnx转rknn模型六、RK3588板端部署前言小白博主,第一次写博客记录自己YOLOv8n部署RK3588开发板的全流程,记......
  • pytorch中自定义onnx新算子并导出为onnx
    importtorchfromtorch.autogradimportFunctionimporttorch.onnx#Step1:DefinecustomPyTorchoperatorclassMyCustomOp(Function):@staticmethoddefforward(ctx,input):returninput+1@staticmethoddefsymbolic(g,input):......
  • 《昇思 25 天学习打卡营第 23 天 | 基于MindSpore的GPT-2文本摘要 》
    《昇思25天学习打卡营第23天|基于MindSpore的GPT-2文本摘要》活动地址:https://xihe.mindspore.cn/events/mindspore-training-camp签名:Sam9029概述文本摘要任务旨在从给定的文本中生成简短的摘要,同时保留关键信息。本案例使用MindSpore框架实现基于GPT-2模型......
  • ONNXRuntime_C++安装教程
    1打开VisualStudio2017,新建空项目helloworld 2浏览输入onnxruntime,安装第一个,版本选择1.18.1 3配置PATH环境变量4配置项目包含目录 5配置库目录6配置链接器 配置opencVhttps://blog.csdn.net/qq_27825451/article/details/103036687 无法启动应用......
  • 将 PyTorch ONNX 模型转换为 TensorRT 引擎 - Jetson Orin Nano
    我正在尝试从JetsonOrinNano上的ViT-B/32UNICOM存储库转换VisionTransformer模型。该模型的VisionTransformer类和源代码在此处我使用以下代码将模型转换为ONNX:importtorchimportonnximportonnxruntimefromunicom.vision_trans......
  • 在 MacOS 上使用 chromadb 添加文档时出现 ONNXRuntimeError
    我正在尝试使用Chromadb运行Python脚本。创建集合,添加一些向量并得到。但出现错误。脚本:importchromadbclient=chromadb.Client()collection=client.create_collection(name="example")collection.add(documents=["Skyisunlimited.","Treeisaplant......
  • 华为MindSpore入门
    总体介绍MindSpore是华为开发的全场景AI计算框架,旨在提供高效、灵活、安全的深度学习平台,适用于端、边、云等多种场景。作为一个开源项目,MindSpore支持多种硬件平台,提供简洁易用的API,使开发者能够快速构建、训练和部署深度学习模型。主要特点:全场景支持:适用于端、边、......
  • 基于MindSpore实现BERT对话情绪识别
    本文分享自华为云社区《【昇思25天学习打卡营打卡指南-第二十四天】基于MindSpore实现BERT对话情绪识别》,作者:JeffDing。模型简介BERT全称是来自变换器的双向编码器表征量(BidirectionalEncoderRepresentationsfromTransformers),它是Google于2018年末开发并发布的一种新型......
  • 昇思25天学习打卡营第 12 天 | mindspore 实现 ResNet50 图像分类
    1.背景:使用mindspore学习神经网络,打卡第12天;主要内容也依据mindspore的学习记录。2.ResNet介绍:mindspore实现ResNet50图像分类;ResNet基本介绍:ResidualNetworks是微软研究院KaimingHe等人于2015年在DeepResidualLearningforImageRecognition......