首页 > 其他分享 >高斯消元学习笔记

高斯消元学习笔记

时间:2024-03-25 13:57:56浏览次数:14  
标签:wiki 3x 191 笔记 学习 114 bmatrix 高斯消

注:此篇一直在讲高斯-约旦消元法。

https://oi-wiki.org/math/numerical/gauss/

相信大家都读过上面那个wiki。

大家其实都看得挺懵的对吧。

今天我就来教一下大家高斯消元。

技术指导:milk,周百万,TB

\(\LaTeX\) 指导:不是你觉得这文章 \(\LaTeX\) 很好吗?所以没有指导。

首先小学知识“加减消元”大家会吧。

那么,加减消元,计算机会吗?

当然,虽然不像我们这样做,但是,我们可以换一种思路。

矩阵记得吗?

把这个方程组弄成一个矩阵。

如:

\[2x_1+3x_2=114 \]

\[3x_1+2x_2=191 \]

把它变成

\[\begin{bmatrix} 2&3&|&114\\ 3&2&|&191 \end{bmatrix} \]

竖线前面是各项系数,后面是结果。

代码实现:

标签:wiki,3x,191,笔记,学习,114,bmatrix,高斯消
From: https://www.cnblogs.com/cppom/p/-/gaosi

相关文章

  • 容斥原理学习笔记
    一个很重要的东西首先为了方便我们规定\[0^0=1\]也就是说\[0^n=\left[n=0\right]\]你们可能会说:“啊火神这个\([]\)是啥啊?”\[[P]称为Iverson括号,P是一个命题,若P为真则[P]=1,否则[P]=0。\]OIer话:类似bool。这个规定超级有用,有用在哪你们待会就知道了。朴素集合论“......
  • 多媒体笔记
    人类感知信息的途径:视觉占65%,听觉占20%,嗅觉、味觉、触觉占15%信息量。 3D视频比2D视频多了深度一维。 视频图像压缩的基本依据:1)空间冗余;2)频率冗余;3)视觉冗余;4)熵冗余;5)时间冗余。 视频图像压缩的基本方法:1)帧内预测编码;2)变换编码;3)量化编码;4)熵编码;5)帧间预测编码。 ......
  • 矩阵乘法学习笔记
    还是那句话,作者\(\LaTeX\)超级差。定义首先矩阵定义扔出来:域\(K\)上的一个\(n×m\)的矩阵可以看作一个\(n×m\)的数表。记为:\[A_{n×m}=\begin{bmatrix}A_{1,1}&\cdots&A_{1,m}\\\vdots&\ddots&\vdots\\A_{n,1}&\cdots&A_{n,m}\end{bmatrix}\]矩阵加法soeasy.......
  • 嵌入式学习开发第一章
    嵌入式开发入门:第一章Linux操作系统Linux操作系统的安装与常见命令的使用文章目录嵌入式开发入门:第一章Linux操作系统Linux操作系统的安装与常见命令的使用前言一、嵌入式系统是什么?二、Linux操作系统的安装(Ubuntu)1下载所需资源1-1下载虚拟机1-2下载ubuntu镜像文件......
  • 深度学习 - PyTorch基本流程 (代码)
    直接上代码importtorchimportmatplotlib.pyplotaspltfromtorchimportnn#创建dataprint("****CreateData****")weight=0.3bias=0.9X=torch.arange(0,1,0.01).unsqueeze(dim=1)y=weight*X+biasprint(f"NumberofXsamples:{len......
  • 莫队学习笔记
    模板。然后我不会做。然后我去看题解,看莫队学习笔记,看不懂。然后我摆烂了。然后去玩按住shift让光标左右动的无聊游戏。我最开始选中了标红点的部分。多选中了左边的一个点,少选中了右边的一个点。然后我会莫队了?......
  • 深度学习(18)--注意力机制详解
    目录一.什么是注意力机制(AttentionMechanism)二.什么是注意力(Attention)三.自注意力机制(Self-AttentionMechanism)3.1.对输入数据进行Embedding操作3.2.q,k操作3.3.v操作 3.4.代码实现四.多头自注意力机制(Multi-headSelf-AttentionMachanism) 4.1.q,k操作4.2.v......
  • 吴恩达机器学习笔记第六章逻辑回归分析以及代码实现
    第六章对线性代数和导数的要求比之前几章是要高一些的,对于对应的数学知识点我会在下方顺便仔细地指出来并在能力范围内给予一定的推导,尽量保证各位能明白不用再查来查去的,不用重蹈我的覆辙......
  • 吴恩达机器学习实践笔记,第四章的多元梯度下降的实现
    https://blog.csdn.net/out_look520/article/details/107695529这个链接里面有需要的数据集,有需要的兄弟姐妹们自己解决哟,我下面的数据就是从那个博主那里拿的今天实践了一下多元梯度下降哈,其实道理和原来二元的一样,也是采用下面这个式子只是θ的数量多了一些而已,废话不多......
  • 舒服了,学习了,踩到一个 Lombok 的坑!
    你好呀,我是歪歪。踩坑了啊,最近踩了一个lombok的坑,有点意思,给你分享一波。我之前写过一个公共的服务接口,这个接口已经有好几个系统对接并稳定运行了很长一段时间了,长到这个接口都已经交接给别的同事一年多了。因为是基础服务嘛,相对稳定,所以交出去之后他也一直没有动过这部分代......