首页 > 其他分享 >【机器学习】线性回归的基本概念

【机器学习】线性回归的基本概念

时间:2024-04-06 15:03:07浏览次数:24  
标签:表示 机器 回归 线性 theta omega 基本概念 乘法

机器学习 多元线性回归


文章目录


前言

本文作为自己学习人工智能的开端,学习并掌握及机器学习的相关内容,逐渐了解机器学习,掌握相关的技术,从零开始,逐渐成长


一、基本概念

线性回归是机器学习中有监督机器学习下的一种算法,回归问题主要关注的是因变量(需要预测的值,可以是一个或者多个)和一个或多个数值型的**自变量(预测变量)**之间的关系。
需要预测的值:即目标变量,target,y,连续值预测变量
影响目标变量的因素:X1…Xn,可以是连续值也可以是离散值
因变量和自变量之间的关系:也就是模型,model,是我们要求解的

1. 连续值

连续的,不间断变化的值,表现在坐标系上可以表示为连续的不间断的线

2. 离散值

间断的,表现在坐标系上可以表示为各自独立的点。

3. 简单线性回归

  y = ω x + b \ y={\omega}x+b  y=ωx+b为对应的公式。
- 其中 y y y是目标变量,也就是未来要预测的值
- x x x是影响 y y y的因素,w,b是公式上的参数也就是要求的模型

4. 最优解

Actual value:真实值,一般用y来表示。
Predicted value:预测值,是把已知的 x x x带入到公式里面和猜出来的参数w,b计算得到的,一般用 y y y表示
Error:误差,预测值与真实值的差距,一般采用 ε {\varepsilon} ε表示
最优解:尽可能的找到一个模型使得整体的误差最小,整体的误差通常叫做损失Loss
Loss:整体的误差,Loss通过损失函数Loss function计算得到

5. 多元线性回归

现实生活中,往往影响结果y的因素不止一个,这时x就从一个变成了n个, X 1 X_1 X1​… X n X_n Xn​同时简单线性回归的公式也就不再适用了,多元线性回归公式如下:
y = ω 1 X 1 + ω 2 X 2 + . . . + ω n X n + b y = {\omega}_1X_1 + {\omega}_2X_2 + ... + {\omega}_nX_n + b y=ω1​X1​+ω2​X2​+...+ωn​Xn​+b
b是截距,也可以用 w 0 w_0 w0​表示
y = ω 1 X 1 + ω 2 X 2 + . . . + ω n X n + ω 0 y = {\omega}_1X_1 + {\omega}_2X_2 + ... + {\omega}_nX_n + {\omega}_0 y=ω1​X1​+ω2​X2​+...+ωn​Xn​+ω0​
y = ω 1 X 1 + ω 2 X 2 + . . . + ω n X n + ω 0 ∗ 1 y = {\omega}_1X_1 + {\omega}_2X_2 + ... + {\omega}_nX_n + {\omega}_0 * 1 y=ω1​X1​+ω2​X2​+...+ωn​Xn​+ω0​∗1
使用向量来表示,X表示所有的变量,是一维变量,W表示所有的系数(包含 w 0 w_0 w0​),是一维向量,根据向量乘法规律,可以这么写
y = W T X y = W^TX y=WTX

二、正规方程

1.最小二乘法矩阵表示

y i y_i yi​表示真实值, h θ ( x i ) h_\theta(x_i) hθ​(xi​)表示预测的值,模型、算法,线性回归,方程
最小二乘法可以将误差方程转化为有确定解的代数方程组(其方程式的数目正好等于未知数的个数),从而可以求接触这些未知参数。这个有确定解的代数方程组称为最小二乘法估计的正规方程。公式如下:
θ = ( X T X ) − 1 X T y \theta = (X^TX)^{-1}X^{T}y θ=(XTX)−1XTy
W = ( X T X ) − 1 X T y W = (X^TX)^{-1}X^Ty W=(XTX)−1XTy
最小二乘法的公式表示:
J ( θ ) = 1 2 ∑ i = 0 n ( h θ ( x i ) − y i ) 2 J(\theta) = \frac{1}{2}\sum_{i=0}^{n}(h_{\theta}(x_i)-y_i)^2 J(θ)=21​i=0∑n​(hθ​(xi​)−yi​)2
其中:
y = h θ ( X ) = X θ y=h_{\theta}(X)=X\theta y=hθ​(X)=Xθ表示全部数据,是矩阵,X表示多个数据,进行矩阵乘法时,放在前面
y i = h θ ( X ( i ) ) = θ T x ( i ) y_i=h_\theta(X^{(i)}) = \theta^Tx^{(i)} yi​=hθ​(X(i))=θTx(i)表示第i个数据,是向量,所以进行乘法时,其中一方需要进行转置
因为最大似然公式中有个负号,所以最大总似然成了最小化负号后面的部分,到这里,我们就已经推导出来了。
使用矩阵表示:
J ( θ ) = 1 2 ∑ i = 0 n ( h θ ( x i ) − y ) ( h θ ( x i ) − y ) J(\theta) = \frac{1}{2}\sum_{i = 0}^{n}(h_\theta(x_i) - y)(h_\theta(x_i) - y) J(θ)=21​i=0∑n​(hθ​(xi​)−y)(hθ​(xi​)−y)
J ( θ ) = 1 2 ( X θ − y ) ( X θ − y ) J(\theta) = \frac{1}{2}(X\theta -y )(X\theta - y) J(θ)=21​(Xθ−y)(Xθ−y)

2.多元一次方程举例

  1. 二元一次方程组如下:
    { x + y = 14 2 x − y = 10 \begin{cases} x+y=14\\ 2x-y=10 \end{cases} {x+y=142x−y=10​
    3.三元一次方程组如下:
    { x − y + z = 100 2 x + y − z = 80 3 x − 2 y + 6 z = 256 \begin{cases} x - y + z = 100 \\ 2x + y - z = 80 \\ 3x -2y + 6z = 256 \end{cases} ⎩ ⎧​x−y+z=1002x+y−z=803x−2y+6z=256​

标签:表示,机器,回归,线性,theta,omega,基本概念,乘法
From: https://blog.csdn.net/myqueen_way/article/details/137202783

相关文章

  • 【Mathematical Model】基于Python实现随机森林回归算法&特征重要性评估&线性拟合
    ​    前段时间在做遥感的定量反演,所以研究了一下回归算法,由于之前发的几篇博文都是定义好基础方程进行拟合的,不太满足我的需求。所以研究了一下随机森林回归的算法,之前使用随机森林都是做分类,这次做了回归算法也算是补全了RF算法的空缺了。今天抽空给大家分享一下使用P......
  • 线性回归与Logistic回归(代码实现)
    线性回归一维线性回归最小二乘法,偏导数为0importtorchfromtorch.autogradimportVariableimportmatplotlib.pyplotaspltimportnumpyasnpimporttorch.nnasnnimporttorch.optimasoptimx_train=np.array([[3.3],[4.4],[5.5],[6.71],[6.93],[4.168],......
  • 人工智能基础概念5:使用L1范数惩罚进行Lasso回归(正则化)解决机器学习线性回归模型幻觉和
    一、引言在老猿CSDN的博文《人工智能基础概念3:模型陷阱、过拟合、模型幻觉》中介绍了通过L1或L2正则化来限制模型的复杂度来解决过拟合的问题,老猿当时并不了解这背后的原理,这2天通过查阅资料终于明白了相关知识,在此一L1正则化来分享一下相关原理。二、相关概念2.1、......
  • 线性表基本操作物理实现
    #include<stdio.h>//顺序表的初始化及插入操作实战#defineMaxSize50typedefintElemType;//为什么这样设计,一旦用这种方式下面写代码,方便后续顺序表存储的不是整形方便修改,统一修改typedefstruct{ElemTypedata[MaxSize];intlen;//顺序表长度}Sqlist;/......
  • 机器学习知识点全面总结
    机器学习按照模型类型分为监督学习模型、无监督学习模型两大类。1、有监督学习有监督学习通常是利用带有专家标注的标签的训练数据,学习一个从输入变量X到输入变量Y的函数映射。Y=f(X),训练数据通常是(n×x,y)的形式,其中n代表训练样本的大小,x和y分别是变量X和Y的样本值。......
  • 机器学习的技术原理、应用与挑战
    在数字化浪潮的推动下,机器学习作为人工智能的核心技术之一,正以前所未有的速度改变着我们的生活和工作方式。机器学习通过模拟人类的学习过程,使计算机能够从数据中提取有用信息,并做出预测或决策。本文将深入探讨机器学习的技术原理、应用领域以及面临的挑战,以展现其深度和专......
  • 机器学习 Chapter1 绪论
    Chapter1绪论文章目录Chapter1绪论1.1简介1.2常用算法&实际应用1.3历史与应用1.4模型评估与选择1.1简介机器学习定义:​AcomputerprogramissaidtolearnfromexperienceEwithrespecttosomeclassoftasksTandperformanceP,ifit’spe......
  • 河南大学-机器学习-朴素贝叶斯分类
    实验目的掌握决策树算法原理;   2.编程实现朴素贝叶斯算法算法,并实现分类任务实验内容1.使用sklearn的朴素贝叶斯算法对鸢尾花数据集进行分类,要求:(1)划分训练集和测试集(测试集占20%)(2)对测试集的预测类别标签和真实标签进行对比(3)输出分类的准确率2.动手编写朴素......
  • 机器学习快速入门 第一阶段:基础名词
    欢迎大家步入机器学习的大门,这是一门很有意思的课程,希望大家从了解到喜欢最先了解的两个内容:监督学习&非监督学习监督学习和非监督学习是机器学习中两个非常重要的范式,它们各有特点和适用场景。监督学习(SupervisedLearning)监督学习是一种机器学习方法,它在训练过程中利用......
  • 机器学习快速入门 第二阶段:高级学习算法(1)
    第二阶段的高级学习算法课程包含58节,我按照相似度,将其分为九个模块,因篇幅较多,分成两个文章来讲,便于大家理解与掌握在本文中我们讲前四部分,目录如下:目录:神经网络的基础神经元和大脑 -这是对人工神经网络的生物学灵感来源的介绍。神经网络中的层 -详细介绍了神经网络中......