首先说下mindspore,作为华为的主打软件产品,该计算框架可用性一直较差,不同版本不同计算硬件下的代码往往都不是完全兼容的,也就是说你在mindspore的官网上找到的VGG预训练模型的代码是mindspore-1.5.0的版本在ascend平台的,如果你用mindspore-gpu-1.9.0的版本就无法运行,这是mindspore最常见的错误问题,因此mindspore在VGG16前向传播的性能表现为零,因为根本就无法运行官方的源代码,除非你手动去修改mindspore的框架代码,这事情我去年是会这么干的,今年我说啥也不会干了。如果你给一个开源的产品提了N多的意见,结果过好久一看,啥变化没有,如果非说有变化那就是变得越来越差了,那估计换谁也都不会支持了。
TensorFlow这里使用的是1.14.0版本,由于TensorFlow在1.x和2.x之间上的巨大差异,以及2.x版本的较差使用性,因此这里使用的是TensorFlow的作为经典的版本1.14.0,当然并没有使用TensorFlow的最新版本来比较对于TensorFlow来说并不很公平,但是TensorFlow2.x版本的相关代码和技术博客基本已经从互联网上绝迹,作为一个几乎要濒临灭绝的计算框架在这里使用旧版本也是实属无奈。相关代码参考:
【转载】 Tensorflow如何直接使用预训练模型(vgg16为例)
Pytorch
=====================================
运行硬件平台:
CPU: 5.0Ghz下的因特尔10700k
GPU: RTX2070SUPER
其他参数:
batch_size=32
迭代次数:500
对比结果:
mindspore-gpu-1.9.0版本的性能表现:0分(根本无法运行)
TensorFlow-gpu-1.14.0版本的性能表现:用时170秒
标签:1.14,VGG16,代码,pytorch,前向,版本,TensorFlow,mindspore From: https://www.cnblogs.com/devilmaycry812839668/p/16971804.html