• 2024-07-02【Python机器学习】模型评估与改进——带交叉验证的网格搜索
    虽然将数据划分为训练集、验证集、测试集的方法是可行的,也相对常用,但这种方法对数据的划分相当敏感,为了得到对泛化性能的更好估计,我们可以使用交叉验证来评估每种参数组合的性能,而不是仅将数据单次划分为训练集与验证集。代码表示如下:fromsklearn.svmimportSVCfromsklear
  • 2024-06-22强化学习(Reinforcement Lrarning,RL)03:贝尔曼方程
    强化学习(ReinforcementLrarning,RL)03:贝尔曼方程强化学习(ReinforcementLrarning,RL)03:贝尔曼方程1.状态价值1.1状态价值函数(StateValueFunction)1.2最优策略(OptimalPolicy)2.贝尔曼方程2.1贝尔曼方程(BellmanEquation)2.2贝尔曼方程的推导2.3贝尔曼方程矩阵形式(Matr
  • 2024-06-19计算理论导论
    计算模型DFA(确定性有限状态自动机)一个DFA被如下五元组定义\((Q,\Sigma,\delta,q_0,F)\),\(Q\)是状态集\(\Sigma\)是输入字符集\(\delta:Q\times\Sigma\toQ\)是转移函数\(q_0\)是起始状态\(F\subseteqQ\)是接受状态集NFA(非确定性有限状态自动机)一个NFA被
  • 2024-06-15信息学中的概率统计
    离散型随机变量常见分布(1)01分布\[P(X=k)=p^k(1-p)^{1-k}\](2)二项分布记作\(X\simB(n,p)\)\[P(X=k)=\binom{n}{k}p^k(1-p)^{n-k}\](3)几何分布称\(X\)为服从参数为\(p\)的几何分布\[P(X=k)=(1-p)^{k-1}p\](4)Pascal分布(负二项分布)\[P(X=k)=\binom{k-1}{r-1}p^r
  • 2024-06-13调和级数
    定义调和级数:\(\sum\limits^{\infty}_{i=1}{\frac{1}{i}}\)\(f_n=\sum\limits^{n}_{i=1}{\frac{1}{i}}\)计算\(f_n=1+\frac{1}{2}+\frac{1}{3}+\frac{1}{4}+\frac{1}{5}+\frac{1}{6}+\frac{1}{6}+\dotsm+\frac{1}{n}<1+\frac{1}
  • 2024-06-13使用 JavaScript 中的 DeviceOrientationEvent
    在前端开发中,DeviceOrientationEvent是一个非常有用的API,它允许我们访问设备的物理方向信息,如设备的倾斜和旋转。这个API可以在移动设备上获取设备的方向,可以用来创建各种有趣和交互性强的应用程序,比如游戏、增强现实体验等。本文将介绍如何使用DeviceOrientationEventAP
  • 2024-06-12基于龙格库塔算法的SIR病毒扩散预测matlab仿真
    1.程序功能描述     基于龙格库塔算法的SIR病毒扩散预测,通过龙格库塔算法求解传染病模型的微分方程。输出易受感染人群数量曲线,感染人群数量曲线,康复人群数量曲线。 2.测试软件版本以及运行结果展示MATLAB2022a版本运行                     
  • 2024-06-12【机器学习】支持向量机(个人笔记)
    目录SVM分类器的误差函数分类误差函数距离误差函数C参数非线性边界的SVM分类器(内核方法)多项式内核径向基函数(RBF)内核源代码文件请点击此处!SVM分类器的误差函数SVM使用两条平行线,使用中心线作为参考系\(L:\w_1x_1+w_2x_2+b=0\)。我们构造两条线,一条在上面,一条在
  • 2024-06-0911.2 第二型曲线积分
    引入向量场是指分布在空间中的一个向量值函数:给定空间的坐标输出一个(可以看作位于这一点坐标的)向量。典型的例子有力场,电场。设想一个质点在力场\(\boldsymbol{F}\)的作用下,自\(\Gamma\)的起点\(\boldsymbol{A}\)运动到终点\(\boldsymbol{B}\),我们要来计算力场所做
  • 2024-06-0911.1 第一型曲线积分
    定义11.1.1设\(\Gamma\)是\(\mathbf{R}^3\)中的一条可求长曲线,\(f:\Gamma\rightarrow\mathbf{R},\Gamma\)的两个端点分别记为\(\boldsymbol{A}\)和\(\boldsymbol{B}\).在\(\Gamma\)上依次取一列点\(\left\{\boldsymbol{r}_i:i=0,1,\cdots,n\right\}\),使
  • 2024-06-07[ICML2022]Open-Sampling Exploring Out-of-Distribution Data for Re-balancing Long-tailed Datasets
    引入开集样本训练模型有点像dropout,“破坏”某些模型参数防止尾部类的过拟合Motivation长尾学习中的训练数据集分布不平衡的问题,解决方法之一是重采样。重采样主要对于尾部类重复采用,但这种做法往往会导致尾部类的过拟合。为了缓解过拟合[2](Rethinkingthevalueoflabelsf
  • 2024-06-06RL Introduction
    MDPMarkovDecisionProcess是一个五元组\(<S,A,T,R,\gamma>\)\(S\)是状态空间\(A\)是动作空间\(T:S\timesA\timesS\to\mathbb{R}\)是状态转移概率,\(T(s,a,s')\)表示在状态\(s\)下采取动作\(a\)转移到状态\(s'\)的概率\(R:S\timesA\timesS\to
  • 2024-06-06西湖大学赵世钰老师【强化学习的理论基础】02基本概念
    文章目录概念介绍state(状态)Action(动作)Statetransition(状态转移)Policy(策略)reward(奖励)Trajectory(轨迹)andreturnDiscountedreturn(折扣回报)Episode(回合)一般是有终止点的轨迹Markovdecisionprocess(MDP)-一个对应三个单词的过程要素马尔可夫的过程概念介绍例子:网格
  • 2024-04-29【笔记】Burnside 引理
    (轨道公式)$$|G|=|G_x|\cdot|O_x|$$对于\(G\)在\(\Omega\)上的群作用,\(\forallx\in\Omega\),定义\(O_x:=\{g(x)\midg\inG\}\),称为\(x\)的\(G\)-轨道。定义\(G_x:=\{g\inG\midg(x)=x\}\),称为\(x\)的稳定子群,它的确是\(G\)的子群。而轨道有如下性质
  • 2024-03-24Learning Imbalanced Datasets with Label-Distribution-Aware Margin Loss
    省去冗长的数学证明,直接看文章的贡献:提出了新的Loss函数以及延迟re-weighting的trick。并在多个数据集,包括情感分类、图像分类进行实验。Motivation&Methods:LDAM(Label-Distribution-AwareMargie)Losstailclasses的信息基本上较少,而且部署的模型通常很大,因此对tailclasse
  • 2024-03-21贝尔曼方程【Bellman Equation】
    强化学习笔记主要基于b站西湖大学赵世钰老师的【强化学习的数学原理】课程,个人觉得赵老师的课件深入浅出,很适合入门.第一章强化学习基本概念第二章贝尔曼方程文章目录强化学习笔记一、状态值函数贝尔曼方程二、贝尔曼方程的向量形式三、动作值函数参考资料第
  • 2024-03-20MK Glow - Bloom & Lens & Glare
    MKGlow(Ultimate)是一种使用简单、功能丰富且效果超级迅速的后处理效果,可以模拟明亮表面的光照散射。除了散光效果之外,还提供一些高度自定义的特效,比如镜头表面、镜头眩光和强光。该着色器兼容传统、轻便、通用和高分辨率渲染管线。两大直观工作流程:阈值:根据像素亮度、阈值和
  • 2024-03-14再探强化学习
    主要记录一下自己仔细学习RL时的感悟。记录一下防止遗忘Q-learning和DQN都是基于值函数的(如\(V\)和\(Q\)函数),而策略梯度(policygradient)则是基于策略的。后者显式的训练一个策略,对这个策略使用梯度下降等方法。actor-critic本质上是对policygradient的改进。核心
  • 2024-03-13Conv层与BN层融合
    Conv层与BN层融合目录Conv层与BN层融合简介要求原理BN层参数BN层计算公式Conv和BN计算合并pytorch-BN融合ONNX-BN融合参考资料简介当前CNN卷积层的基本组成单元标配:Conv+BN+ReLU三剑客,可以将BN层的运算融合到Conv层中,把三层减少为一层减少运算量,加速推理。本质上是修改了
  • 2024-03-13每日导数83
    同构、隐零点已知函数\(f(x)=x\lnx+(t-1)x-t\)(1)当\(t=0\),讨论\(f(x)\)的极值(2)若\(F(x)=f(x)-\dfrac{e^x}{e^t}\)有两个不同的极值点,求\(t\)的取值范围解(1)\(f(x)=x\lnx-x\),\(f^{\prime}(x)=\lnx\),则得到\(f(x)\)有唯一的极值点,并且是\(x=1\)极小值点,并且\(f(1)=-1\)
  • 2024-03-12每日导数82
    简单的但难于计算的二次函数形双参问题已知函数\(f(x)=x^2-ax+2\lnx\)(1)讨论\(f(x)\)单调性(2)已知\(f(x)\)有两个极值点\(x_1,x_2\)且\(x_1<x_2\),证明:$2f(x_1)-f(x_2)\geq-3\ln2$解(1)\(f^{\prime}(x)=2x-a+\dfrac{2}{x}=\dfrac{2x^2-ax+2}{x}\)记\(y=2x^2-ax+2,\Del
  • 2024-03-07[Unity/Gamma校正]通俗解释Gamma空间
    经常接触纹理制作或是shader编写应该多多少少都听说过Gamma校正Gamma校正本身很好理解,\(Gamma\=\Linear^{2.2}\)通过\(pow2.2\)这条曲线,将线性的颜色值映射到非线性 耳熟能详的案例是中灰值 人眼对灰度的感知不是线性的,如果线性地显示深度会觉得中灰偏亮这是因为人
  • 2024-03-04「马尔可夫决策过程」学习笔记
    马尔可夫决策过程个人在学习「马尔可夫过程」时(基于这本教材,强烈推荐),做了些总结,并将遇到了一些感到困惑自我解答了,在此整理并记录一下。1.马尔可夫性质简单的一句话:当前状态只取决于上一时刻的状态。这个视频很生动地解释了这一性质。2.马尔可夫过程「马尔可夫过程」
  • 2024-03-03动手学强化学习(五):时序差分算法
    第5章时序差分算法5.1简介第4章介绍的动态规划算法要求马尔可夫决策过程是已知的,即要求与智能体交互的环境是完全已知的(例如迷宫或者给定规则的网格世界)。在此条件下,智能体其实并不需要和环境真正交互来采样数据,直接用动态规划算法就可以解出最优价值或策略。这就好比对于
  • 2024-03-01动手学强化学习(三):马尔可夫决策过程
    转载自:https://hrl.boyuai.com/chapter/1/马尔可夫决策过程3.1简介马尔可夫决策过程(Markovdecisionprocess,MDP)是强化学习的重要概念。要学好强化学习,我们首先要掌握马尔可夫决策过程的基础知识。前两章所说的强化学习中的环境一般就是一个马尔可夫决策过程。与多臂老胡机问题