DZ
  • 2024-09-27大唐剩事
    一些唐话,想起来就记注:有的话时间久远我可能记不清,要是实在没得记就咕了,有意见你就在评论区说,反正我不听9.27忘了大概什么时候前情提要HDK:小心我把你挂到树上去于是第二天CTH被挂在了树上9.261.2.下午二体育没去上DrRatio:怎么不去上体育?丁真:他们要办奥运会
  • 2024-09-10AE & VAE
    一、AE自编码器自编码器模型结构图编码器网络可以将原始高维网络转换为潜在的低维代码解码器网络可以从低维代码中恢复原始数据,并且可能具有越来越大的输出层自编码器针对从代码重建数据进行了显式优化。一个好的中间表示不仅可以捕获潜在变量,而且有利于完整的解
  • 2024-09-03暑假
    8.23非常好补课,使我的假期+=∞本来说的是10点再走的结果有领导来视察为了大局着想只好提前2hrun了
  • 2024-08-27T240827【定理3.3 Cauchy积分定理的 Goursat 证明】
    [T240819]Cauchy积分定理:设\(f(z)\)在\(z\)平面上的单连通区域\(D\)内解析,\(C\)为\(D\)内的任一条周线,则\[\int_Cf(z)~\mathrmdz=0\]证:【Goursat证明】Step1:若\(C\)为\(D\)内任一三角形\(\Delta\).假设\(|\int_{\Delta}f(z)~\mathrmdz|=M\),下证
  • 2024-07-24林史·语其九(91-100)
    #91沟槽的中文输入法#92DZ:zyz呢DZ:他*的他过来把脸贴着门敲我们宿舍门玻璃,我说这头发怎么这么长,看着有点像zyzDZ:结果真他*是#93#94CTH:给我讲一个表面温馨但是实际上很恐怖的故事Qinyun:明天没有模拟赛#95HDK:我草,完了lbtl:咋HDK:我蚊帐里有蚊子Qinyu
  • 2024-07-18吴恩达深度学习课程笔记Lesson03
    第三周:浅层神经网络(Shallowneuralnetworks)文章目录第三周:浅层神经网络(Shallowneuralnetworks)3.1神经网络概述(NeuralNetworkOverview)3.2神经网络的表示(NeuralNetworkRepresentation)3.3计算一个神经网络的输出(ComputingaNeuralNetwork'soutput)3.4多样
  • 2024-06-206.19
    小剧场抽签-“woc,大凶”-“看看有多大”上厕所Dr:GGrun你知道这个厕所冲了会堵吗GGRun:知道啊,所以我不冲Dr:算了你还是冲吧关门DZ(看着教室的门没关):我去关个门(3minslater,回来了)“你去干啥了”DZ:去关门了啊陶片求证换了个班其实和没换没啥区别本来也
  • 2024-06-18bresenham_3d绘制3维直线,可设置直线粗细
    1importmatplotlib.pyplotasplt2frommpl_toolkits.mplot3dimportAxes3D3importnumpyasnp4importnibabelasnib56defbresenham_3d(p0,p1,thickness):7'''8Bresenham'sLineAlgorithmin3Dwithad
  • 2024-06-186.14 ~ 6.16
    6.14集训完后的第一天,然后被告知下午要分班,把信奥和数奥这俩人最少的放到了一个班;无所谓,分就分吧。只是有点可惜我刚占的5个柜子然后发现以教室中线为轴,信奥全在左半边,把我放在了第一排。大概长这样南1南2过道南3南4GGrunluobotianlewwppccxyinqinyun
  • 2024-06-06要将dz_book_codebatch表的id字段从现有的大值(如3051571883xxxxxx1)重新设置为从1开始自增,可以按照以下步骤操作
    --备份数据CREATETABLEdz_book_codebatch_backupLIKEdz_book_codebatch;INSERTINTOdz_book_codebatch_backupSELECT*FROMdz_book_codebatch;--创建新表CREATETABLEdz_book_codebatch_newLIKEdz_book_codebatch;--设置自增初始值ALTERTABLEdz_book_codebatch_
  • 2024-04-22返老还童
    可能是因为好久没有机房里这么多人过了,感觉很热闹啊。这些天开始尝试学一些多项式和生成函数之类的东西,发现数学方面比自己想的差很多。开始担心自己学东西很慢,来不及学完东西,有人劝我说你还有一年,byd我只有一年了!昨天体活又起晚了,让7:25到位我7:30起的,发现还有另一
  • 2024-04-09数据结构——递增有序链表的插入
    题目:实验目的:1、掌握线性表的基本知识2、深入理解、掌握并灵活运用线性表。3、熟练掌握线性表的存储结构及主要运算的实现已知顺序表L递增有序,将X插入到线性表的适当位置上,保证线性表有序。。输入格式:第1行输入顺序表长度,第2行输入递增有序的顺序表,第3行输入要插入的数据元
  • 2024-03-29EM求解高斯混合模型GMM 原理+公式推导+代码
    1简介EM(Expectation-Maximum)算法也称期望最大化算法,它是为了解决在方程无法获得解析解的情况下,通过迭代给出数值解。核心:EM算法是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计(因此在往下面看之前,我希望你对贝叶斯的基本理论有所了解)2极大似然估计(1)问题背
  • 2024-03-25闲话
    dz前天语录(虽迟但到)中午吃饭dz坐郭航语旁边dz:中午我不回宿舍了郭:知道了,你跟我说干嘛dz:你不是班长吗我就跟你说一下郭:那我不同意dz:不同意就不同意呗,反正我跟你说了放张好图不败的英雄-唐俊迪/张志林为了心中的梦浴血奋战像一阵狂风黑夜会释放光明不败的英雄
  • 2024-03-17小集训
    因为本来写闲话的初衷之一是为了让自己不颓而最近闲话写得少了+颓的多了鉴定为不写闲话导致的开胃小菜gugeguge(看到某人在吃东西):把门打开,知道门上写的啥吗某人:嗯guge:给这些东西都扔了,然后再把门上的字抄50遍…………(过了一会)某人:老师我写完了guge:这下记住了吧某
  • 2024-03-13深度学习--自编码器(AE)、变分自编码器(VAE)
    提示:仅供自己学习、复习需要,有任何问题可在评论区提出。深度学习--自编码器一、自编码器AE二、变分自编码器VAE1.为什么要有VAE2.VAE推导一、自编码器AE自编码器是一种无监督的特征学习,其目的是利用无标签数据找到一个有效的低维的特征提取器。那什么是特征学习
  • 2024-02-24【深度学习】Logistic回归算法和向量化编程。全md文档笔记(代码文档已分享)
    本系列文章md笔记(已分享)主要讨论深度学习相关知识。可以让大家熟练掌握机器学习基础,如分类、回归(含代码),熟练掌握numpy,pandas,sklearn等框架使用。在算法上,掌握神经网络的数学原理,手动实现简单的神经网络结构,在应用上熟练掌握TensorFlow框架使用,掌握神经网络图像相关案例。具体
  • 2023-12-2312.23
    上午集训奥,早想开了,现在放不放假的无所谓,元旦别给我整活就行早上去把洛谷禁了的二机房,待了一个早读差点没趋势,还好我们在huge的一长篇演讲中发现了允许我们去一机房的有用信息写昨天那道题的强化版,森林,但是差点没写出来,用昨天的代码随便加了点啥上去有80pts,然后就是发现了梯子
  • 2023-11-21神经网络入门篇:直观理解反向传播(Backpropagation intuition)
    详细推导反向传播下图是逻辑回归的推导:回想一下逻辑回归的公式(参考公式1.2、公式1.5、公式1.6、公式1.15)公式1.38:\[\left. \begin{array}{l} {x}\\ {w}\\ {b} \end{array} \right\} \implies{z={w}^Tx+b} \implies{\alpha=\sigma(z)} \implies{{L}\left(a,y
  • 2023-11-20神经网络入门篇:神经网络的梯度下降(Gradient descent for neural networks)
    神经网络的梯度下降在这篇博客中,讲的是实现反向传播或者说梯度下降算法的方程组单隐层神经网络会有\(W^{[1]}\),\(b^{[1]}\),\(W^{[2]}\),\(b^{[2]}\)这些参数,还有个\(n_x\)表示输入特征的个数,\(n^{[1]}\)表示隐藏单元个数,\(n^{[2]}\)表示输出单元个数。在这个例子中,只介绍过的
  • 2023-11-1811.17~11.18暨noip2023游寄
    11.17我们DZ不负众望又干了点nt事,但是为了按时间顺序记叙,所以说放到最后再讲上午平常的起床+吃饭,然后就发手机啥的,坐大巴去德州东再坐会高铁去秦皇岛,这些简单记一下就行了重点来了先拜谢一下__int_R__在大巴上的时候tkth拉int_R回粥,然后他在自己号整了几抽出了个6星,又在tkth
  • 2023-11-1611.16
    今天没有ex丁真语录了但是我们有丁真纪行(吃早饭ing)DZ:(将奶甩在桌子上)tkth:你在干啥DZ:我在拿它发泄(tkth会记住的(Minecraft:StoryMode里的东西))(过了一会,中间忘了)tkth:(将DZ的奶甩在桌子上,无逝发生)DZ:(用附了抢夺/时运Ⅴ的手将tkth的奶也甩在桌子上,然后那袋奶就被他甩爆了,哇,爆
  • 2023-11-1511.15
    (本来只是觉得丁真爆典好玩所以记一下,但这玩意爆率咋这老高)ex丁真语录tkth:醋的英语咋说啊DZ:fat(还挺6的)某人:你**在干啥啊DZ:fat(更6了)某些人:。。。DZ:fat—>胖—>粗—>醋(莫名感到一阵冷意)(后来又加了句)其实sorewater也行玩汤的时候就不多说了,唐的太厉害了,要不然闲话真
  • 2023-11-07神经网络基础篇:详解向量化逻辑回归(Vectorizing Logistic Regression)
    向量化逻辑回归讨论如何实现逻辑回归的向量化计算。这样就能处理整个数据集,甚至不会用一个明确的for循环就能实现对于整个数据集梯度下降算法的优化首先回顾一下逻辑回归的前向传播步骤。所以,如果有\(m\)个训练样本,然后对第一个样本进行预测,需要这样计算。计算\(z\),正在使
  • 2023-11-01神经网络基础篇:详解逻辑回归 & m个样本梯度下降
    逻辑回归中的梯度下降本篇讲解怎样通过计算偏导数来实现逻辑回归的梯度下降算法。它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。但是在本博客中,将使用计算图对梯度下降算法进行计算。必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。