首页 > 其他分享 >深度学习随笔[tensorflow] 多维矩阵的乘法

深度学习随笔[tensorflow] 多维矩阵的乘法

时间:2023-01-05 14:05:38浏览次数:63  
标签:www 博客 softmax https 多维 tensorflow zhihu com 乘法


​​最新openCV-Python安装教程(python:3.9||opencv-python:4.5.5)_Mr.zzc的博客

​pycharm导入opencv后无智能提示 - 知乎​​  版本问题,选择3.4.14.51可以,选择3.4.18.65不行

​Python入门必看!零基础也能学 - 哔哩哔哩​

​Python 基础教程 | 菜鸟教程​

​Python 3 教程 | 菜鸟教程​


​损失函数|交叉熵损失函数


https://zhuanlan.zhihu.com/p/35709485​

 ​​Softmax 函数的特点和作用是什么? - 知乎在看到LDA模型的时候突然发现一个叫softmax函数。维基上的解释和公式是:“softmax function is a genera…

深度学习随笔[tensorflow] 多维矩阵的乘法_损失函数

https://www.zhihu.com/question/23765351​​​​小白都能看懂的softmax详解_bitcarmanlee的博客-CSDN博客_softmax1.softmax初探在机器学习尤其是深度学习中,softmax是个非常常用而且比较重要的函数,尤其在多分类的场景中使用广泛。他把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分类的概率之和也刚好为1。 首先我们简单来看看softmax是什么意思。顾名思义,softmax由两个单词组成,其中一个是max。对于max我们都很熟悉,比如有两个变量a,b。如果a>b,则max为.

 ​​交叉熵损失函数(Cross Entropy Error Function)与均方差损失函数(Mean Squared Error)_bitcarmanlee的博客-CSDN博客1.均方差损失函数(Mean Squared Error)均方差损失函数是预测数据和原始数据对应点误差的平方和的均值。计算方式也比较简单MSE=1N(y^−y)2MSE = \frac{1}{N}(\hat y - y) ^ 2MSE=N1(y^−y)2其中,N为样本个数。2.交叉熵损失函数(Cross Entropy Error Function)在分类问题中,尤其是在神经网络中,

​为什么e^x 的导数是还是其自身?


https://zhuanlan.zhihu.com/p/48678377​

​CNN 入门讲解:什么是卷积(Convolution)


https://zhuanlan.zhihu.com/p/30994790​

​如何通俗易懂地解释卷积?


https://www.zhihu.com/question/22298352​

​ 一文让你理解什么是卷积神经网络https://www.jianshu.com/p/1ea2949c0056https://www.jianshu.com/p/1ea2949c0056​

​​马同学高中数学马同学高等数学​https://www.zhihu.com/column/matongxue​​​​https://www.zhihu.com/column/c_1365350688877232128​​​ ​

马同学机器学习https://www.zhihu.com/column/c_1282080133600567296​​

​矩阵乘法的本质是什么?https://www.zhihu.com/question/21351965https://www.zhihu.com/question/21351965​

​一文搞懂RNN(循环神经网络)基础篇https://zhuanlan.zhihu.com/p/30844905https://zhuanlan.zhihu.com/p/30844905​

​如何有效地阅读PyTorch的源代码?https://www.zhihu.com/question/58253344


https://www.zhihu.com/question/58253344​

​ PyTorch 源码解读https://www.zhihu.com/column/c_1316816403623084032


https://www.zhihu.com/column/c_1316816403623084032​

​Pytorch源码解析


https://www.zhihu.com/column/c_1211624024561876992​

​【官方双语/合集】线性代数的本质 - 系列合集_哔哩哔哩_bilibili通过直观的动画演示,理解线性代数的大部分核心概念翻译:@Solara570 @rjdimo资助页面:www.patreon.com/3blue1brownEssence of linear algebra http://bit.ly/2kDa5o0https://www.bilibili.com/video/BV1ys411472E?spm_id_from=333.999.0.0​

 ​​【官方双语/合集】微积分的本质 - 系列合集_哔哩哔哩_bilibili《微积分的本质》合集。更多信息请见各分集简介和评论置顶https://www.bilibili.com/video/BV1qW411N7FU?spm_id_from=333.999.0.0​


R-CNN

​​R-CNN史上最全讲解_江南綿雨的博客-CSDN博客_r-cnn​​

YOLO

​写给小白的YOLO介绍 - 知乎​

​You Only Look Once: Unified, Real-Time Object Detection​​ 论文

NMS(非极大抑制)

​​物体检测中常用的几个概念迁移学习、IOU、NMS理解_zhang_shuai12的博客

​​目标检测中NMS(非极大抑制)的概念理解_花花少年的博客

​​目标定位和检测系列(3):交并比(IOU)和非极大值抑制(NMS)的python实现_Meringue_zz的博客

​​【目标检测】IoU(交并比)详解及代码实现_姚路遥遥的博客

TensorRT 

​https://docs.nvidia.com/deeplearning/tensorrt/archives/tensorrt-700/tensorrt-api/c_api/​

标签:www,博客,softmax,https,多维,tensorflow,zhihu,com,乘法
From: https://blog.51cto.com/u_15930680/5991012

相关文章