• 2024-06-013DS MAX备忘笔记(命令-面和元素)
    面层级轮廓(2d):缩放轮廓不改变边之间的关系插入(2d):复制已有轮廓并放缩,且连接对应的点(插入的距离均匀,直接放缩面距离不均匀)挤出(3d):可选挤出方向、挤出后面之间是否还连接 倒角(3d): 挤出+插入(二维面上自动等距边界放缩),(直接缩放挤出的面不等距)桥:l 直接多选面,点桥:元素间—
  • 2024-05-22Unity控制物体有放缩弹一弹的效果
     usingUnityEngine;usingSystem.Collections;//控制有放缩弹一弹的效果publicclassScaleController:MonoBehaviour{boolismax=false;publicfloatscaleSpeed=0.003f;//可调速度publicfloatscalemax=2,scalemin=1.5f;//可调范
  • 2024-01-121.12学习进度
    Shape类有一个具体方法moveTo和一个抽象方法zoom,其中moveTo将图形从当前位置移动到新的位置,各种具体图形的moveTo可能会有不一样的地方。zoom方法实现对图形的放缩,接受一个浮点型的放缩倍数参数,不同具体图形放缩实现不一样。继承Shape类的具体图形类型包括直线类Li
  • 2023-10-03数列
    起因坐车两小时准备来道简单的数列题,然后发现不会做()时隔两个月再回来看看((然后和数列求导放缩的一起写了待我写完政治(虚弱题目设数列{\(a_n\)}的前n项和\(S_n=pn^2+qn\).若\(a_1^2\)+\(a_3^2\)\(\leq\)10,求\(a_3\)+\(a_4\)+\(a_5\)的最大值,并求此时\(p\)、\(q\)的值.解法
  • 2023-09-25GraphMAE阅读笔记
    GraphMAE阅读引言在摘要里,本论文提出了自监督学习有着巨大的潜力自监督学习又分为对比学习和生成学习目前比较成功的是对比学习,因为在对比学习中,有高质量的数据增强以及可以通过额外的策略来稳定训练过程而对于生成式的自监督学习,它们旨在重建数据本身的特征和信息,对图来说,图
  • 2023-08-03考研数学欧几里得六点档整理
    时间内容类型7/4计算技巧7/5分部积分的一个绝妙用法计算技巧7/6对称区间定积分的计算二级结论7/7变限积分的积分的破题法题型归纳7/8变限积分的连续性与可导性二级结论7/9变限积分的奇偶性和周期性二级结论7/10求极限的第一要义——拆分
  • 2023-06-21术劣 | 初稿
    bydjslatestupdate:2023.04.09劣质文档。可能轻微烂尾。目前只有纯术劣的部分,应该还有一部分题是术劣和其他东西进行有机结合的,这种东西高庙上好像有一堆,到时候看了再整吧。\(\rmI\)にちじょうの涂山苏苏|generalsolution数列这一对象本身可能具有无穷的自由度,
  • 2023-04-27前端项目使用vw视口单位进行适配时字体大小的解决方案
    使用视口单位vw来实现响应式排版。1vw等同于视口宽度的百分之一,即如果你用vw来设定字体大小的话,字体的大小将总是随视口的大小进行改变。问题在于,当做上面的事情的时候,因为文本总是随着视口的大小改变大小,用户失去了放缩任何使用vw单位的文本的能力。所以你永远都不要只用viewpo
  • 2023-04-20深度学习基础入门篇[六]:模型调优,学习率设置(Warm Up、loss自适应衰减等),batch size调优技巧,基于方差放缩初始化方法。
    深度学习基础入门篇[六]:模型调优,学习率设置(WarmUp、loss自适应衰减等),batchsize调优技巧,基于方差放缩初始化方法。1.学习率学习率是训练神经网络的重要超参数之一,它代表在每一次迭代中梯度向损失函数最优解移动的步长,通常用$\eta$表示。它的大小决定网络学习速度的快慢。在网络
  • 2023-02-15【OpenCV】图片尺寸放缩示例程序
    这次示例程序分别演示了用resize、pyrUp、pyrDown来让源图像进行放大缩小操作#include<opencv2/opencv.hpp>#include<opencv2/imgproc/imgproc.hpp>#include<opencv2/highgu
  • 2023-02-01柯西不等式也是重要的消元方式(涉及2次放缩)
    已知\(a\),\(b\in\textbf{R}\),函数\(f(x)=\text{e}^x-a\sinx\),\(g(x)=b\sqrtx\).若\(y=f(x)\)和\(y=g(x)\)有公共点.求证:\(a^2+b^2>\text{e}\).分析:\(\text{e}^x-a\sinx=
  • 2023-01-16【Python学习】图片放缩
    使用图片对模型进行训练时,对图片的大小有一定的要求,因此需要对图片进行放缩。安装包PILpipinstallPillow简单介绍基本使用方法#ImportsPILmodulefromPILi
  • 2022-12-18math_常用放缩不等式及其变形@指数@对数@三角函数@一次函数
    文章目录​​三角函数@对数@分式​​​三角函数@对数@分式是显然的(范围内,分母大的反而小)记住这一对,有利于记忆这个不等式链代换得到并且容易发现,都可以在时,趋于无穷
  • 2022-11-10菜鸡学Unity 之 Unity中对游戏物体的常用操作旋转移动放缩
    LZ-Says:愿时光依旧,美好前方~前言本小节,我们一起来看下Unity中对游戏物体的常用操作旋转移动放缩这些基本骚操作吧~基本骚操作全程都可以简单操纵鼠标完成,当然,直接有效是
  • 2022-10-20P2737 [USACO4.1]麦香牛块Beef McNuggets 数学题 + 放缩思想
    ​​https://www.luogu.org/problem/show?pid=2737#sub​​先说一个结论:对于两个数p,q,且gcd(p,q)=1(这个很重要,是条件来的)。他们不能组合成的最大的数字是pq-p-q任何
  • 2022-10-14VGG模型-文献阅读笔记
    论文简介该论文提出深度神经网络的深度对于大规模图像识别模型的表现有显著提升。模型使用3*3的小型卷积过滤器和较小的卷积层步幅,并且其神经网络层数达到了16-19层。基于
  • 2022-09-22高等数学 | 证明“指数 $\gg$ 多项式”的一个通式
    首先,有限项多项式可以放缩成\(f(x)\leMx^m\)。然后,去证\(\lim_{n\rightarrow\infty}\frac{Mn^m}{a^n}=0\),其中a>1。将\(a^n\)写作\((1+b)^n\),其中b>0。然后,因为
  • 2022-08-27数据标准化
    Mix-MaxNormalization通常被简称为mormalization(标准化)。这种方法将数据放缩到一个固定的区间,通常是0到1之间。  ConstantNormalization将数据除以一个固定的数,