化为一个任务就是我们所说的学习。因为模型并不是为特定的任务而构建的,即模型没有描述该任务的工作规则。
以温度计的示例为例,我们假设2个温度计线性地测量温度。这个假设就是我们为任务隐式编码的规则:硬编码输入输出函数的形状。除了直线上的数据点,我们无法近似其他东西。随着问题维度的增长,即多输入和多输出,输入输出关系变得复杂(假设输入输出函数的形状不太可能起作用)。
物理学家或应用数学家的工作往往是从第一原理出发,对一种现象进行功能性描述,然后从测量中估计未知的参数,从而得到一个精确的、真实世界的模型。
另一方面,深度神经网络是一组函数,能够近似出大范围的输入输出关系,而不需要我们对某一现象构建解释模型。在某种程度上,我们放弃解释,以换取解决日益复杂的问题的可能性。换句话说,我们有时缺乏能力、信息或计算资源来为我们所呈现的事物建立一个明确的模型,所以数据驱动是我们前进的唯一途径
Specifically, we resort to a little known but powerful theorem, the universal operator approximation theorem. This theorem states that a NN with a single hidden layer can approximate accurately any nonlinear continuous functional (a mapping from a space of functions into real numbers) and (nonlinear) operator(a mapping from a space of functions into another space of functions)
具体来说,我们求助于一个鲜为人知的,但强大的定理,通用算子逼近定理。该定理指出,一个具有单隐层的神经网络可以精确地逼近任何非线性连续泛函和(非线性)算子
统计学的处境十分独特,它既不像数学、逻辑等形式科学那样,用演绎推理从某些真命题中导出新的真命题,也不像物理、化学等自然科学那样,用归纳推理从“观测”中推断关于世界的认知。对我而言,统计学是一门横亘于演绎和归纳之间的一个学科,它试图回答的是一个非常根本的问题:何以在最大程度上保证归纳推理的有效性?
于是我会这样定义统计学:定义:统计学是一门以演绎推理(数学)为手段来研究归纳推理的学科。
统计学不属于数学,因为他的很多方法并不由纯粹的演绎推理得来。统计学和数学的关系类似于物理学和数学的关系——两者都以数学为工具来解决自身领域内的问题。但它的研究范式却和物理完全不同。统计学所做的是“用演绎推理来为归纳推理找到一些理想的策略”。我们想要找到找到一些好的“归纳”的策略,让他们在“演绎”的意义上具有很好的性质,所以我们才关心unbiasedness,关心invariance,关心asymptotic normality。
不保真性是根植于归纳推理中的瑕疵。就算我们观测到了1000只黑色的乌鸦,也无法确信无疑地说“天下的乌鸦都是黑的”,但如果使用统计学的工具,我们可以确信无疑地说“我们能以95%以上的置信度认为世界上的乌鸦都是黑的”——我们竟然从不保真的归纳数据中得到了保真的结论!(尽管事实上这还要依赖某些关于数据分布的假设)。我认为这种对归纳推理的规范化是统计学的核心之一。
在这个定义下,“统计学”这个名词是非常inclusive的。inference是归纳推理,prediction也是归纳推理。按这个概念分的话,机器学习完全是统计学的一部分。至于data science,我也觉得统计学早该改名叫data science了,除了这个两个专业开设的课程不同之外,他们本质上完全是一回事儿(尽管研究手段和传统统计区别很大)
标签:输入输出,深度,学习,统计学,数学,归纳推理,演绎推理,我们 From: https://www.cnblogs.com/guanghui-hua/p/18046449