首页 > 其他分享 >心理学认知对AI研发的影响

心理学认知对AI研发的影响

时间:2022-11-12 12:11:41浏览次数:51  
标签:AI 模型 认知 心理学 算法 人工智能 人类

人工智能复制人的行为是没有意义的。人类的情感有其生物根源,人工智能没有理由去继承。但我们也需要人工智能系统不那么死板,以提高工作效率。人类行为的深度、复杂性、大量的思维捷径对人工智能是一个巨大的挑战。我们需要心理学来建立人工智能和其用户之间的有效合作。
——Philippe Hocquet

AI的认知

人类的认知可分为4大部分,而这已经衍生出相匹配的AI解决方案:

感觉

AI利用计算机硬件或外部传感器以感受外部数据,如:
AIStorm开发了“内嵌AI的传感器”,使用“电荷域处理”专利技术,以较低的功率、尺寸,克服了其他模拟解决方案的物理噪声和带宽限制。这种方法为“内嵌AI的传感器”处理图像或音频增强提供了更大发展空间。

知觉

AI的物体识别模型能概括出物体的印象,如:
ImageAI库的物体检测——非常方便和强大的方法来对图像执行对象检测并从图像中提取每个对象。对象检测类为RetinaNet,YOLOv3和TinyYOLOv3提供支持,可选择调整最先进的性能或实时处理。
而大部分AI的识别步骤都要从具体的形象,转换成抽象的关键词,这背后离不开NLP自然语言处理领域的关键词提取算法:
文本排名、多词关键词评分策略、扩展排名、位置排名

记忆

AI训练后的模型及数据集会存储在硬盘中,但需求比我们日常使用更严格:

1. 可扩展性

人工智能可以在很短的时间内处理大量的数据--这是一个重要的属性,因为需要大量的数据集来提供精确的算法。这种数据量推动了巨大的存储需求。例如,微软需要连续5年的语音数据来教计算机说话。特斯拉正在用13亿英里的驾驶数据教汽车驾驶。管理这些数据集需要一个可以无限制扩展的存储系统。

2. 成本效率

一个有用的存储系统必须同时具有可扩展性和经济性,这两个属性在企业存储中并不总是并存的。从历史上看,高度可扩展的系统在成本/容量的基础上更加昂贵。如果大型人工智能数据集超出了存储预算,便不可行。

3. 混合架构

不同的数据类型有不同的性能要求,而硬件必须反映这一点。存储系统必须包括正确的存储技术组合,以同时满足对规模和性能的需求,而不是单一的方法,这将达不到要求。

4. 并行架构

对于无限制增长的数据集,并行访问架构是必不可少的。否则,系统将形成限制增长的阻塞点。

思维

AI利用训练的模型,通过复杂的函数关系,运算出人们想要的结果。思维就体现在设计AI的算法上,如机器学习领域相关的算法:
线性回归、逻辑回归、决策树、支持向量机算法、朴素贝叶斯算法、KNN算法、k-means、随机森林算法、降维算法、梯度增强算法和AdaBoosting算法

心理学启发AI的研发

机器学习和心理学中的黑匣子问题

汽车工程师如果能够查看引擎盖下并看到所涉及的组件,那么他们就不难解释汽车的功能。对于计算机工程师和现代深度神经网络来说,情况并非如此。经过数百万次训练迭代后,一旦模型在给定任务上达到能力,表征模型的参数和操作集将非常复杂,以至于没有人可以通过“幕后”来有意义地说明它是如何做出决定的。毫不夸张的说,给一个人50年的时间都读不完训练模型的完整参数列表,——我们目前无法有意义地理解人工智能的行为作为其内部运作的函数。

黑匣子问题的这种表述与认知心理学家在过去150年中倡导的“认识论”挑战相同。这得追溯到19实际中叶,心理学家已经使用行为实验来推断“无形心理过程”的性质,例如Donders记录响应时间并使用减法来确定感知处理和反应选择的阶段(Donders,1868)。在过去的一个半世纪里,认知心理学已经发现了强大的感知、注意力、记忆、语言和决策模型,但要得出这些模型,并没有,也不能直接观察这些模型的内部过程,必须通过侧面实验,加上逐步完善的推论才得到结论。从实验数据推断人类行为认知模型,是AI面临的相同的黑盒问题的另外一个版本。

由于深度神经网络驱动的人工智能已经达到了一个复杂的程度,要想表达一个模型是如何做出决定的,可能很困难甚至不可能。当模型做出对人类福祉有影响的决定时,这种黑箱问题尤其令人担忧。为此,一个名为可解释人工智能(XAI)的新兴领域诞生了,XAI旨在提高机器学习的可解释性、公平性和透明度——把认知心理学的方法和严谨性转化为对人工黑箱的研究,将重点放在”可解释性”。

虽然计算机科学家通过在黑匣子的“引擎盖”下“修补”理论和代码,来解释人工智能,但认知心理学家已经开发出一种行为科学,无需打开黑匣子即可工作。使用实验方法,认知心理学采用精心设计的刺激(输入)并测量相应的行为(输出),以对人类思维的结构和功能进行因果推断。

与其改变人工智能架构或为人工智能如何做出决定生成事后解释,研究人员得以在不干扰人工智能黑匣子的情况下开发令人满意的思维模型。除了为人工智能的思维算法提供模型以解释他们的决策和过程之外,XAI 的实验方法可以为推进新设计提供指导性见解。

认知架构

曾经,由于缺乏关于使用计算作为语言识别建模的革命性概念,人工智能的思维建模能力受到质疑。为了获得对人类思维本质的更好和深入的见解,首要目标是发展机器和人类水平的终极智能。

智能代理,是一个可以观察周遭环境并作出行动以达致目标的自主实体,通常指一个软件程序。著名的“图灵测试”中,虽然结果上智能代理和人类智能不分伯仲。但由于信息不完整,这些智能代理还是会面临无法处理的极端情况。

因此,对这些情况的数据进行编码成为模拟人类智能的一种很有限方法。这些概念限制了过去的研究人员和科学家设计预编程的智能代理,但这也使智能代理具备根据可用信息做出决策的初步能力。同时这揭示了重新评估过去解决方案的必要性,以便可以提升未来的决策过程。
这导致了对人类思维学习和解决问题的方式的更基本的理解。这反过来又促进了设计智能系统的必要性,该系统将具有与人类思维相同的智能水平。

技术进步扩大了人工智能的范围,衍生出更自然的人机互动。比如,语音识别和手写识别是认知科学人工智能中常见的2个领域。

1. ACT-R(理性思维的适应性控制)

ACT-R是一种计算机模拟或认知架构,旨在定义基本且不可简化的感知和认知操作。受心理学理论的启发,人类执行的每项任务都是组合或一系列离散操作。因此,ACT-R可以被认为是一种指定人脑组织方式以处理认知生产模块的方法。与SOAR一样,这种认知架构依赖于特殊代码语言的计算实现。研究人员需要下载 ACRT-R 代码并将其加载到 Common Lisp 发行版中,以便作为 ACT-R 解释器获得访问权限。这样做将能够指定人类认知,然而,这将采用基于ACT-R语言的脚本的形式。成功执行整个过程后,人们可能会对人类行为进行自动的逐步模拟。此外,除了视觉和听觉编码之外,还可以考虑记忆编码、心理意象操作等认知操作。它的陈述性记忆系统被设计成一种模拟人类记忆的方式。同时,这种架构允许对自然语言的理解和生产进行建模。通过使用ACT-R,也可以完成诸如捕获人们如何能够解决代数方程之类的复杂任务。

2. 激发创造力

目前大多数与决策过程中模拟人类水平智能有关的论文都强调了模仿创造力的重要性。事实上,过去的经验和知识是决策的基础,也是变革建议的基础。然而,创造力被描述为人类的一种天赋能力,通过它,可以解决问题、思考、干扰和发展。创造力分为三种类型,即具体,抽象和艺术。然而,工程应用领域的创造力主要是具体的,因为这种类型的是关于在充满条件和限制的环境中产生创新、新的和独特的解决方案。

时间成功地实现了这些曾经的“假设”。例如,人工智能能够做出明智的创造性决策,并非重建了人类的思想,而是与人类互动并激发创造力。越来越多地使用人工智能来增强人类的能力,确保了超级创造力,并以一种在短时间内取得更好结果的方式协助人类思维。这个人与机器的时代已经成为现实,每天以人为中心的流程现在都是自动完成的,不再需要人类手动操作。

比如近期大火的AI绘画,只需输入几个关键词,便能生成一张精美的插画,能生成各种画风,AI的画作水平可以与10年画龄的热门艺术插画师相匹敌,间接导致很多绘画圈的商业画手“间接下岗”——更少的劳动力画更多的画。

总结

心理学中,对人类认知过程的总结,为XAI等人工智能架构或模型的提供了宝贵的参考。人类是地球上最特殊的存在——拥有高级智慧。我们常说“思维的火花”,就是人类在认知过程中的学习与随机碰撞而产生的。了解了人类自己,就是掌握了“产生智慧”的“智慧”。

技术是一把双刃剑,就目前而言,AI发展的同时也激发了人类社会的“下岗”焦虑,知识更迭开始取决于AI的学习速度,这是值得人类所忧虑的。另一方面,AI取代人类劳动力的同时,也解放了生产力,使得人类得以从繁复的劳动中解放出来,得以有空闲去探索未知的领域与奥秘。

未来变幻莫测,我们更应该不忘初心,用自己的智慧为自己的人生书写一部难忘的史诗。

标签:AI,模型,认知,心理学,算法,人工智能,人类
From: https://www.cnblogs.com/nolca/p/16883432.html

相关文章