一、前言简介
我相信你一定听过一个说法,那就是机器学习模型可以被视为函数的一种表示方式。它们通常是由多个函数组成的,这些函数通过参数连接在一起。我们让机器从数据中提取模式、规律和关联,然后使用这些信息来做出预测、分类、聚类等任务。所以从本质上来说,在机器学习中我们其实就是要找一个超级函数,我们已知的数据就是输入的参数,它通过算法和统计方法使计算机能够从大量的数据中学习,通过逼近拟合真实的超级函数,来根据学习到的知识做出决策或执行任务。
以 classification(分类)任务来说,机器学习就是通过一堆训练集,然后根据 loss function 来查找到最拟合逼近真实函数的求解函数 func(),从而实现分类的输出。
所以说嘛,机器学习也没有那么难~(bushi,你可以秒懂它。
二、Logitic Regression(逻辑回归)和 Neuron Network(神经元网络)
我们还是以上面的分类问题类进行举例,在分类方法中,需要了解逻辑回归的概念。逻辑回归(Logistic Regression)虽然名字中带有"回归"一词,但实际上它是一种用于分类问题的统计学习方法,而不是回归问题。逻辑回归用于预测二分类问题,即将输入数据分为两个类别中的一个。
逻辑回归通过将线性函数的输出映射到一个介于0和1之间的概率值,来表示输入数据属于某个类别的概率。这个映射使用了逻辑函数(也称为sigmoid函数),它具有S形的曲线,这使得模型的输出在0和1之间变化。逻辑回归的公式如下:
其中,P(Y=1|X) 是给定输入特征 X 条件下属于类别 1 的概率,beta_0, beta_1, beta_n 是模型的参数,X_1, X_2, X_n 是输入特征。模型的目标是通过调整参数,使得预测的概率尽可能接近实际观测值。在训练过程中,逻辑回归使用最大似然估计等方法来找到最佳的参数值,以使模型的预测结果与实际观测值之间的差异最小化。一旦训练好了逻辑回归模型,它可以用于预测新的数据点所属的类别。
那这个分类模型函数中怎么求解参数 beta_0, beta_1....beta_n 的呢?这里其实就是模型训练方法的求解,一般来说针对逻辑回归问题都是使用最大似然估计,来进行拟合确定曲线。
举个
标签:机器,入门,梯度,分类,学习,参数,就是,函数 From: https://www.cnblogs.com/blackbinbin/p/17662270.html