首页 > 其他分享 >深度学习 回归问题

深度学习 回归问题

时间:2024-08-25 15:57:58浏览次数:11  
标签:current gradient 梯度 回归 学习 points iterations 深度 new

1. 梯度下降算法

深度学习中, 梯度下降算法是是一种很重要的算法.

梯度下降算法与求极值的方法非常类似, 其核心思想是求解 x ′ x' x′, 使得 x ′ x' x′ 在取 x ⋆ x^{\star} x⋆ 时, 可以使得 l o s s 函数 loss函数 loss函数 的值最小.

其中, 在求解 x ′ x' x′ 的过程中, 采用的是迭代的方法, 不断迭代逼近 $ x^{\star}$. 最基本的公式为:
x ′ = x − l r × ▽ x x' = x - lr \times \triangledown x x′=x−lr×▽x

其中 ▽ x \triangledown x ▽x为 l o s s ′ ∣ x loss'|_{x} loss′∣x​ , l r lr lr 为学习率, 以上述公式为基础,发展出了更多的求解器.

2. 噪声

在现实世界中, 数据总是会存在误差.
y = w ∗ x + b + ϵ ϵ ∼ N ( 0.01 , 1 ) y = w * x + b + \epsilon \enspace\enspace \epsilon \sim {N(0.01, 1)} y=w∗x+b+ϵϵ∼N(0.01,1)

l o s s = ( W X + b − y ) 2 loss = (WX + b - y)^2 loss=(WX+b−y)2

3. 回归与分类

3.1 线性回归

预测范围为实数区间.

3.2 逻辑回归

加了压缩函数后, 压缩了预测范围[0, 1].

3.3 分类

如手写数字识别.

4. 优化

y = w x + b + ϵ y = wx + b + \epsilon y=wx+b+ϵ中, 通过已有的 x i x_i xi​ y i y_i yi​求解 w w w ϵ \epsilon ϵ, 可以优化为以下问题:

在这里插入图片描述

5. 回归问题实践

5.1 计算给定点的误差

代码如下所示:

def compute_error_for_line_given_points(b, w, points):
    totalError = 0
    for i in range(0, len(points)):
        x = points[i, 0]  # 获取当前点的x坐标
        y = points[i, 1]  # 获取当前点的y坐标
        # 计算预测值与实际值之间的差的平方,并累加到总误差中
        totalError += (y - (w * x + b)) ** 2
        # 返回平均误差
    return totalError / float(len(points))

5.2 计算梯度下降的梯度, 更新b和w

在这里插入图片描述

代码如下所示:

def step_gradient(b_current, w_current, points, learningRate):
    b_gradient = 0
    w_gradient = 0
    N = float(len(points))  # 点的总数
    for i in range(0, len(points)):
        x = points[i, 0]
        y = points[i, 1]
        # 计算b和w的梯度
        # 梯度计算
        b_gradient += -(2 / N) * (y - (w_current * x + b_current))
        w_gradient += -(2 / N) * x * (y - (w_current * x + b_current))
    # 使用学习率更新b和w
    new_b = b_current - (learningRate * b_gradient)
    new_w = w_current - (learningRate * w_gradient)
    return [new_b, new_w]

5.3 执行梯度下降算法, 迭代b和w

代码如下所示:

def gradient_descent_runner(points, starting_b, starting_m, learning_rate, num_iterations):
    b = starting_b
    m = starting_m  # 通常w用于表示斜率,但这里用m,可能是为了与初始变量名保持一致
    for i in range(num_iterations):
        b, m = step_gradient(b, m, np.array(points), learning_rate)
    return [b, m]

5.4 完整代码

import torch  # 导入torch库,但在此代码中未直接使用
import numpy as np  # 导入numpy库,用于处理数值数据


# 计算给定直线(由参数b和w定义)对于一组点的误差
def compute_error_for_line_given_points(b, w, points):
    totalError = 0
    for i in range(0, len(points)):
        x = points[i, 0]  # 获取当前点的x坐标
        y = points[i, 1]  # 获取当前点的y坐标
        # 计算预测值与实际值之间的差的平方,并累加到总误差中
        totalError += (y - (w * x + b)) ** 2
        # 返回平均误差
    return totalError / float(len(points))


# 计算梯度下降中的梯度,并更新直线参数b和w
def step_gradient(b_current, w_current, points, learningRate):
    b_gradient = 0
    w_gradient = 0
    N = float(len(points))  # 点的总数
    for i in range(0, len(points)):
        x = points[i, 0]
        y = points[i, 1]
        # 计算b和w的梯度
        # 梯度计算
        b_gradient += -(2 / N) * (y - (w_current * x + b_current))
        w_gradient += -(2 / N) * x * (y - (w_current * x + b_current))
    # 使用学习率更新b和w
    new_b = b_current - (learningRate * b_gradient)
    new_w = w_current - (learningRate * w_gradient)
    return [new_b, new_w]


# 执行梯度下降算法以优化直线参数
def gradient_descent_runner(points, starting_b, starting_m, learning_rate, num_iterations):
    b = starting_b
    m = starting_m  # 通常w用于表示斜率,但这里用m,可能是为了与初始变量名保持一致
    for i in range(num_iterations):
        b, m = step_gradient(b, m, np.array(points), learning_rate)
    return [b, m]


# 主函数,用于运行梯度下降算法
def run():
    points = np.genfromtxt("data.csv", delimiter=",")  # 从CSV文件加载数据点
    learning_rate = 0.0001  # 设置学习率
    initial_b = 0  # 初始截距
    initial_m = 0  # 初始斜率(这里用m代替w)
    num_iterations = 1000  # 设置迭代次数
    # 在开始梯度下降之前,计算并打印初始误差
    print("Starting gradient descent at b = {0}, w = {1}, error = {2}"
          .format(initial_b, initial_m,
                  compute_error_for_line_given_points(initial_b, initial_m, points)))
    print("Running...")
    # 执行梯度下降
    [b, m] = gradient_descent_runner(points, initial_b, initial_m, learning_rate, num_iterations)
    # 打印梯度下降后的结果和最终误差
    print("After {0} iterations b = {1}, w ={2}, error = {3}"
          .format(num_iterations, b, m,
                  compute_error_for_line_given_points(b, m, points))
          )


if __name__ == '__main__':
    run()  # 调用主函数

标签:current,gradient,梯度,回归,学习,points,iterations,深度,new
From: https://blog.csdn.net/Network_Engineer/article/details/141498991

相关文章

  • AC 自动机 学习笔记
    前言本来时今年寒假学的,当时回家比较早没学完也没学明白,打模拟赛却多次用到,所以重学一下。原理与定义即字典树(trie树)加\(fail\)指针,\(fail\)指针等同于kmp的\(next\)数组,匹配前缀的最长后缀,\(fail\)指针单独拎出来构成一颗失配树(fail树)。插入同trie树,全部插完后......
  • CMake构建学习笔记5-libtiff库的构建
    libtiff是一个开源库,用于读写TIFF(TaggedImageFileFormat)文件。使用CMake进行构建的关键指令如下所示:#配置CMakecmake..-G"$Generator"-Ax64`-DCMAKE_BUILD_TYPE=RelWithDebInfo`-DCMAKE_PREFIX_PATH="$InstallDir"`-DCMAKE_INSTALL_PREFIX="$In......
  • 消息队列-RabbitMQ学习笔记(一)
    1.什么是消息队列消息队列(MessageQueue,简称MQ)是一种用于在应用程序之间传递消息的技术,通常在分布式系统中使用。它提供了一种异步通信机制,使得应用程序可以通过发送和接收消息来进行数据交换。消息队列可以用来存储消息,这就涉及到消息队列的三个关键字:存储、消息、队列......
  • 常用Git命令学习
    基本配置1.配置用户信息gitconfig--globaluser.name"用户名"gitconfig--globaluser.email"邮箱"配置文件存放在C:\Users\用户名.gitconfig注意:如果使用了–global选项,该命令只需要执行一次就可以永久生效2.查看配置信息#查看所有的全局配置项gitconfig......
  • TensorFlow实现Softmax回归
    原理模型相比线性回归,Softmax只多一个分类的操作,即预测结果由连续值变为离散值,为了实现这样的结果,我们可以使最后一层具有多个神经元,而输入不变,其结构如图所示:为了实现分类,我们使用一个Softmax操作,Softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持可......
  • 机器学习详解-第二章-实践方法论-学习笔记-[DataWhale X 李宏毅苹果书 X AI夏令营]
    在调整模型的过程中可能会遇到许多问题,这里为了处理这些问题(前期初学情况),从而给出了一个章节用于学习相关的技巧。1.模型偏差模型偏差可能会影响模型训练,我们在训练的时候,将所有的函数集合在一起得到一个函数的集合,但是这个函数的集合大小是我们不确定的,可能会因为太小,其中的......
  • 算法的学习笔记—包含 min 函数的栈(牛客JZ30)
    ......
  • 每天五分钟深度学习:从数学角度分析逻辑回归算法损失函数的来源
    本文重点前面的课程中,我们只得到了逻辑回归算法模型的损失函数(如下所示),但是你是否知道它为什么是逻辑回归算法的损失函数?本文对其进行拆分,从0到1构建该损失函数,从数学角度分析为什么它是逻辑回归的损失函数.逻辑回归在逻辑回归算法中,我们需要预测y^,也就是说目标函数如下所......
  • MySQL入门学习-对系统数据库的常用查询
        通常情况下,MySQL中的系统数据库有information_schema、mysql和performance_schema。这些数据库提供了有关数据库服务器的各种信息,例如表结构、用户权限、性能指标等。一、使用这些系统数据库进行常用查询的示例:1.查询表结构信息:  -使用information_sch......
  • MySQL入门学习-服务器优化.Sys数据库
    一、关于MySQL入门学习中服务器优化和Sys数据库的一些常见方面:1.服务器优化:  -硬件优化:    确保服务器具有足够的内存、CPU资源和快速的磁盘I/O。  -操作系统优化:    合理配置操作系统参数,如文件描述符限制、内核参数等。  -数据库......