确定性计算,符号主义(早期人工智能)
不确定性计算:建模、机器学习(世界的随机性、不确定性和动态性 - 需要模式识别(学习)的能力,从数据中总结规律)
智能即学习。人类的学习,是有类比思维的,得出方法论、哲学;机器的学习,只是在训练特征参数,没有灵性。
机器学习常见的问题
机器学习的经典模型,决策树
信息熵,表示信息量的大小。越不确定的信息,信息熵越大,信息的“纯度”越低。
信息增益,经过某个分支后,信息熵的减小量。某个分支的信息增益越大,则该分支对样本集划分所获得的“纯度”越大,信息不确定性减少的程度越大。
仿生派:如果我们想要学飞翔,就得向“飞鸟”来学习。
神经网络:模拟人脑神经元的连接来达到学习功能,通过逐层抽象将输入数据逐层映射为概念等高等语义。
神经网络 & 深度学习。模拟神经元信号传递,分层构建模型、分层训练学习。
神经元的功能:
激活函数:决定激活下游的哪些神经元的函数???
反向传播:求解出神经网络模型中权重层对代价函数的偏导数,然后我们就可以使用梯度下降法来更新模型权重。
几种经典神经网络:
卷积神经网络(CNN),对空间拓扑相关的数据建模。一般应用是图片识别、智能驾驶等
循环神经网络(RNN),对顺序敏感的序列数据进行建模。一般应用是预测计算、自然语言处理等
标签:入门,人工智能,信息熵,建模,学习,神经网络,越大,神经元 From: https://www.cnblogs.com/morningao/p/18534644