沃顿商学院商业人工智能笔记(九)
P82:19_更广泛的隐私和伦理问题.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
所以让我们讨论一下关于使用数据科学和人工智能的一些更广泛的问题。
一般来说,在工作场所管理人际关系。这些是伦理问题,也是隐私问题。
所以让我们谈谈这些问题以及它们的表现。
所以让我们回到之前的招聘例子,简单一点。
这是我从我们的同事杰夫·波尔特借来的一个小故事。
假设你在组织内做招聘决策,这就是某个人。
为你工作的副总裁,这个人将成为一名主管。
你有一个内部候选人,某个在你单位工作的人,你喜欢这个人。
还差得远。你认为他们挺不错。人力资源人员说,你知道的。
还有另一个候选人和你的候选人做同样的工作。
但在组织的另一个部分。所以你不认识这个人。
但他们的经验基础大致相同。所以你的候选人就是另一个人。
所以你面试了另一个人,他们表现不错,而你意识到你可能会。
你对现在与你合作的人有偏见,你的候选人。
你认为另一个人似乎不错,但你仍然更喜欢你的第一候选人。
你可能认识到,这也许只是因为你对这个熟悉。
然后人力资源打电话给你,他们说,我们有这个算法来预测。
谁将在这份工作中取得成功。你的候选人与最佳表现者的算法匹配度是82%。
而我们希望你关注的另一个候选人得分是92%。你将如何决定?
你有一个已经认识的候选人,你对他们更喜欢一些,但你知道这可能是偏见。
另一个候选人看起来大致相同。
你面试过他们,他们看起来还不错,但他们在算法中的得分更高。
你会选择哪个?我问过很多不同的人这个问题。
我学到的一件事是,几乎每个人都选择自己的候选人。
然后我稍微改一下,问如果不是82到92呢。
因为分数是80到95,几乎每个人都做出同样的决定。
他们选择的是他们已经了解的候选人。那么这个结论是什么呢?
我把它提高到100%。你知道的。
这看起来像是完美的匹配,但人们仍然想继续。
几乎每个人都想选择他们最熟悉的候选人。
我认为这个教训反映了人们想要参与的事实。
他们觉得自己应该能够选择他们想要的人。
如果另一方面你是公司的CEO,并且你在领导它,你可能会说。
我们想要的是这个职位的最佳人选,而不是你个人喜欢的某个人。
嗯,这是我们引入数据时将要面对的斗争的一种例子。
科学。我们有一些情况下,人们以前有发言权,也许他们觉得应该。
你要剥夺他们的发言权。
当我们查看例如晋升、职位分配或排班等问题时,其中之一。
这最严重影响的是主管的决策。
这是主管在其他情况下拥有大量控制权的时刻。
我们之前学到的管理知识之一是良好的关系。
与主管的关系是建立在某种交换基础上的。
主管说如果你能帮我解决这个问题,我会看看我能为你做什么。
晋升或者我会看看我能为你做什么,比如加薪等。
如果你把决策交给算法,它们可能会在某些维度上进行优化,但你。
开始侵蚀主管和下属之间的关系,在这种情况下也许。
你正在削弱整个系统,至少在以前的工作方式下是这样。
还有一些其他问题,我们来谈谈其中一些。
其中一个是算法会基于它们所查看的整个样本生成分数。
但是如果你按一些人口属性把样本拆分开,你可能会发现。
算法对不同群体给出系统性不同的分数。因此,例如。
用于做假释决策的算法,我对此并不知情。
直到大约一年前,但现在美国很多地方,许多政府正在使用。
算法试图决定谁应该获得假释,谁不应该。
所以这里的衡量标准是再犯率。假释者是否成功融入正常社会,还是再次跌入。
违反假释条件而重新入狱?这正是你认为算法会非常擅长的事情,因为。
结果的衡量在这里非常清楚。当他们查看这些指标时。
在这些算法中,他们发现非裔美国人和白人的分数系统性不同。
所以你可能会说,“好吧,我们知道了,我们会处理这个问题。”
我们需要一个针对非裔美国人的独立模型,以及一个针对白人的独立模型。
问题是法律不允许你这样做,因为你在以不同的方式对待人。
基于种族。因此,至少在这一点上,法院和法律已经表示“不能这样做”。
这是一个更普遍的问题,那就是法律在实践上滞后得相当严重。
在这种情况下,大多数关于算法可能做什么的问题与什么对抗。
法律规定或以各种方式存在的冲突尚未裁决。但现在。
也许在某个时刻,法律会说:“是的,拥有不同的事情是可以的。”
算法,但在这个时候你不能这么做。“所以有许多这些问题让我们碰到了算法的运作方式。
和我们可能认为比较客观的更公平的事情。
现在我们听到的最多的是隐私问题,因为为了使用。
数据科学,我们需要数据,并且需要大量的数据。所以让我们在这里考虑一些例子。
数据科学中的一件事情,或者一个相当受欢迎的工具是测量。
被称为离职风险或我们以前称之为离职率。当人们会辞职?
你可以使用数据科学估计一个人辞职的概率。顺便提一下。
这并不新鲜,早在1960年代,就有软件大致在公司内部做同样的事情。
但你现在可以做得更好。最好的这些离职风险模型使用社交媒体。
这意味着什么?好吧,如果你更新了你的LinkedIn个人资料,例如。
这是一个代理,表明人们正在开始寻找新工作。你在社交媒体上发布的内容。
在Facebook或其他地方,如果你开始发布信息。
这表明你开始关注,离职风险上升。查看你的电子邮件流量。
例如,看到它的发展方向,你的情绪,分析。
如果我们开始监听你或阅读你的电子邮件,看到关于公司的负面内容。
我们可能能够相当好地衡量你的离职风险,构建。
从中生成一个机器学习模型。问题是很多人觉得这很 creepy。去做那件事。
我们在监听你的电子邮件,也许在监听你的电话,我们在。
阅读你的社交媒体,所有这些事情。好吧,也许是。如果你看,例如。
在阅读电子邮件时,这似乎是公司相当敏感的事情。
尽管关于,我认为我看到的一些数据表明,大约40%的雇主承认。
他们在阅读。实际上,几乎所有人都在监控电子邮件。
他们在寻找几年前开始的关键词,当时他们在关注冒犯性的内容。
电子邮件并且不断改变冒犯性定义。所以他们在扫描它。
真的在阅读它。好吧,可能不是。许多人在这么做。
但是如果40%的人说他们正在监控电子邮件流量,当你问IT人员,在公司里。
三分之二的人表示他们的公司在阅读电子邮件。
所以这是对什么算作阅读的一个小争论。
另一个复杂性是,一旦你开始将某些东西用于就业目的。
像社交媒体,我很可能会发现那件事。
因此,互联网所做的其中一件事是使员工筛查变得相当合理。
透明的意思是,一旦我完成与你公司的面试,我。
在线上,我告诉人们问题是什么,所有这些事情。
所以人们会学会这个。一旦我意识到你在查看我的Facebook页面,一些雇主会要求。
访问请求你添加他们为好友,以便他们可以查看你的Facebook页面。
一旦我知道这种情况就要发生,我就会改变我Facebook页面上的内容。
我的春假照片被删除,取而代之的是我辅导孩子的照片。
然后它就不再那么有用,或者至少用法不再完全相同。
因此,在获取真实信息方面存在一种竞争。
雇主和供应商继续试图找到关于你的揭示性信息。
不是那种游戏行为。但一旦我了解到你正试图这样做。
我开始尝试去规避这个问题。因此,这一切都与隐私问题有关。
在这个期间,尤其是疫情期间,这些问题得到了提升。
一些公司有员工在家工作。而这些公司中的一些在所谓的Tattleware上进行了大量投资。
间谍软件,基本上是在你工作时监视你,以确保。
他们确实在工作。他们可能在统计你的击键次数等。
他们可以看到你要去哪里。实际上,他们是在查看你是否在电脑上闲逛。
嗯,其他数据表明,大约三分之一的员工会遮挡电脑摄像头。
这样雇主就无法判断他们是否真的坐在办公桌前。
其他数据表明,员工开始使用手机与同事进行交流。
即使在同一建筑内,雇主也无法监控他们的谈话。
所以这是一种小博弈,双方都在努力争取隐私。
作为员工,试图根据雇主的要求进行监控。这一隐私问题,当然。
导致了一些法规,其中最著名的是。
欧洲联盟的一般数据保护条例。
员工享有一系列权利。雇主在尝试跨管辖区移动员工数据时尤其面临这些问题。
所以如果你有遍布全球的员工,其中一些在欧盟,你想要采取。
从他们那里获取数据以构建有关员工的一般模型以及员工流动情况。
和那些事情一样,你会碰到这些法规。
在讨论中可能最受欢迎的权利是被称为。
被遗忘的权利。被遗忘的权利基本上意味着雇主不应保留旧数据。
特别是关于客户,但也涉及员工。
如果你是雇主,你需要大量数据来构建这些机器学习模型。
如果你不得不在某个时候开始丢弃数据,这将减少你的数据量。
加利福尼亚州现在有自己版本的基本上与欧盟数据保护权利相同的法规。
不久我们就会看到各州的情况。在美国。
这些法规不断涌现。伊利诺伊州已经有一些。
因此,隐私问题对伦理问题很重要,但现在也对法律问题很重要。
这可能是数据科学面临复杂性时最明显的情况。
劳动力中,这些公平性问题嵌入在法律和法规中。
[沉默]。
P83:20_数据局限性.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
我们在这些视频中试图传达的是人工智能机器学习的真实潜力。
改善我们管理人员的方式。与此同时。
我们可以使用这些模型的程度存在许多重要限制。
我现在想重点关注一些技术限制。好的,具体来说。
我想谈谈我们从这些模型中真正可以期待多大的准确性。
模型及其问题,特别是数据不准确的角色,尤其是。
未测量因素的角色。基于此,我们应如何思考这些算法能为我们做什么。
他们无法做到的。
让我们先谈谈我们真的可以期待多大的准确性。
所以当你听到一些人谈论机器学习时,他们会给你一种印象:如果。
如果我们正确使用这些模型,我们将能够几乎完美地预测人们的行为。
人们会如何行为。这仅仅是有正确算法的问题。这并不完全正确。
我认为很多这种印象来源于两个方面。
我认为一种最终颇具误导性的数据表现方式。
我认为这也有点类似于人工智能在其他任务中的成功。
所以人工智能在某些应用中非常强大。
但以某种方式,也许并不能告诉我们它在管理方面的成功程度。
尤其是预测人类行为。让我谈谈每一个方面。
当我们描述算法的准确性时,实际上有多种方式。
我们可以做到这一点。而这些角色中,描述算法的一些方式最具误导性。
或更糟,深具误导性。我最喜欢的例子是,你常常会听到人们告诉你有流失率。
模型对谁将离开和谁不会离开的预测准确率为90%。
或95%的准确性。当你听到这个,你会想,这真了不起。
他们确实知道人们能做什么。这真有点《少数派报告》的感觉。可能并不是。
现在我想展示一下我的惊人能力。
所以我将向你提出一个模型,用于预测谁将离开。
你的组织将在下个月内完成这项工作。准确率至少为95%。
至少对大多数组织而言。实际上,我们现在将进行这项服务,不会收取额外费用。
这里是你可以用来预测谁将在下个月内离开的模型。
准确率至少为95%。所以我希望你创建一个Excel电子表格。
在每一行写下你所有员工的名字。
我想要第二列,并希望在那一列中,每个单元格都会有。
是对这个人下个月是否会离职的估计。
我希望你在那一列的每个单元格中填入零。
所以我们预测这些员工下个月都不会离职。
只要下个月你员工的离职率低于5%,大多数情况下相当准确。
组织,只要离职率低于5%。下个月。
那么这个模型至少会有95%的准确率,对吧?
因为我们几乎预测所有员工都不会离职,而他们确实没有。
没有离职的人。好吧,太好了。我们有一个95%准确的模型。它有用吗?不,不,它没有。
你不想做的就是把平均离职率应用到所有人身上。
通过这样做,组织意识到大多数人下个月不会离职。
这没有帮助,对吧?我们真正想要的是一个能够解释人们之间差异的模型。
离职的人和不离职的人。现在,我们能否得到一个模型来解释95%的差异?
对吧?那些在下个月离职的人的概率将接近。
离职的概率接近零,而那些留下的人将更接近于一。
我们能把这些差异接近95%吗?不,坦率地说。
我会说,如果我们能解释30%的人之间的差异。
留下的人,我们的表现会很好。招聘也类似,对吧?
当我们考虑招聘时,实际上是我们对人们表现的预测。
将来,对吧?我们能通过我们的招聘测试解释多少人表现的差异?
大多数证据表明,候选人之间的差异在30%到50%之间。
我认为没有太多证据表明更复杂的算法会有帮助。
让我们变得更好。好的。所以我认为我们需要理解在所有这些方面获得强大结果的能力。
算法的能力是有限的。我们可以更好地解释谁会离职。
我们可以更好地解释谁会表现良好,而不仅仅是凭运气。
我们能达到95%吗?绝对不可能。那么这些系统为什么不更准确?
[BLANK_AUDIO]。
P84:21_我们的系统为何不够准确.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
在这里,比较我们使用机器学习的问题是有帮助的。
比如说,谁会离开,面临机器学习实际存在的问题。
识别效果要好得多。所以,尽管机器学习让人兴奋。
已经有一系列应用程序,使其真正颠覆了性能。
我认为最好的例子可能是语音识别。
实际上,当我准备录制这些视频时,我写了一堆笔记。
实际上,我在我的电脑上使用语音识别。我知道你在想什么。
你可能在想,他有笔记。但无论如何,当我在做这个时。
我在对计算机口述,老实说,几乎没有错误。
这基本上就像我在对一个人进行口述一样好。
我已经玩弄语音识别软件超过25年。
它以前远没有那么好。你知道,它以前每10个词就会出错一次。
现在它每100个词才出错一次。对。这确实是99%以上的准确率。对。
与索尼所谈论的同样类型的机器学习算法。
那么,为什么这与营养预测如此不同?好吧。
我认为部分原因是在一种情况下的语音识别中,你正在处理某些东西。
这已经发生了。我说了一个词,然后你试图将其分类到某个类别。
那个词是什么?与预测未来有些不同。
部分原因是,当你在做这种分类任务时,你有点需要所有的。
所需的信息。因此,当你进行语音识别时。
我说一个词,然后计算机试图对其进行分类。让我们来看看。比如说,海龟。
我不知道为什么。听起来是个好词。说海龟。像披萨一样的小型两栖生物。
根据一些说法。好的。所以当我说海龟时,我们需要什么来进行分类?
我们需要音频文件。所以我们需要我用声音产生的声波数据。
我们还需要知道我在说哪种语言。从某种意义上说,长句子。
通常,了解每个词周围的上下文是有用的。但实际上,在这种情况下。
仅仅一个词,海龟,通常计算机能很好地识别它。
它确实拥有进行此操作所需的所有数据。现在让我们思考一个流失预测。好的。
我们需要什么来做出真正准确的流失预测?所以,你知道的。
我们讨论了许多有助于这里的数据。所以人口统计信息。
了解他们在这个职位上工作多久,了解工作是什么,了解。
他们的绩效评估,申请的职位,社交媒体上的帖子。
这类事情。所以我们可以把所有这些都放进去。我们认为这是我们需要知道的全部,以做出完全准确的预测吗?
他们是留还是走?没有。我的意思是,我们可以想象所有其他可能影响去留的信息。
他们是留下还是离开。那么,你知道,我们还想知道些什么呢?
他们下个月会和经理发生争执吗?好吧。
他们是否有一个没有告诉我们的回校计划?你知道的。
他们是否会被提供更好的工作?我们在模型中没有考虑这个。
更好的工作是否会薪水更高,通勤更方便,对职业更有利?这会解释。
即使保持所有这些因素不变,其他事情也可能重要。例如。
他们是否可能因为健康原因不得不离开?我们在模型中没有考虑这个。
他们是否可能决定离职去照顾家人,或许因为他们觉得。
想要追随伴侣或更靠近家人?还有什么可能导致他们离开?好吧。
你知道,也许他们一直想创办自己的公司,结果发现。
现在是做这件事的好时机。也许朋友一直想创办公司。
他们做到了,现在这个人已经去加入他们了。这其中有一些个性因素。
所以即便把所有这些因素保持不变,我们可以想象有人。
容易感到无聊并喜欢改变生活的人更可能离开。
那些真正厌恶风险的人会更不可能离开。
也许即使保持所有这些因素不变。我们并不知道所有事情。
也许他们暗恋某位同事。
他们无法考虑在没有他们的情况下去其他地方工作,因此他们不打算离开。
有这么多不同的事情。人类行为复杂得很。
在个性层面,有很多不同的个性方面。
可能会影响决策的因素,我们不太可能测量到所有这些。但即便如此。
外部有很多因素影响他们的行为,他们的表现。
你可能会把它描述为一种开放系统。即便我完全理解你。
这也不够,因为我还需要。
需要理解你与组织中所有其他人的互动。
然后我还需要理解你与所有外部机会的互动。
组织中,有很多因素影响你是否离开。很多。
我们无法测量,并且我们永远不会真正测量。并不仅仅是你是否离开。
所以当我们考虑一些其他事情时,再次,招聘,我们试图预测表现。
所有这些外部因素也会影响你的表现。
有太多你想知道的事情,你永远无法得知。所以没有这些数据。
在这些复杂的因素和互动中塑造你。
这使得很难做出非常准确的预测。谢谢。[BLANK_AUDIO]。
P85:22_测量问题.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
所以在将机器学习应用于人类行为时,一个真正的核心问题是我们从来没有。
我们没有所有我们想要的指标。但即便如此,我们还有第二个问题。
这我在这些视频的过程中提到过几次。
这就是我们所拥有的指标往往可能是不准确的。
所以当我们试图理解人们的表现,他们将如何行为,他们会做什么。
所有这些各种事情。他们在想什么,他们的态度。
他们的心理状态非常重要。我在评估参与感时谈了很多这个。
我试图强调的事情之一是,有很多有用的事情。
我们可以做的是真正开始理解他们的参与感。但所有这些方法都有缺陷。
所以我们谈了很多, people真的想告诉我们他们的感受吗?
因此,人们可能非常有策略性。还有其他事情。
如果你考虑调查,当我们调查人们时,他们可能会误解问题。
如果你谈论分析文本,人们可能会回答稍微不同的问题。
这可能会影响他们所描述的情感。
当我们试图研究人们的态度时还有其他问题。
我们真正想知道的是相对稳定的态度。当他们在普通日子里进来时。
他们对工作的感受如何?但每当我们衡量它时,我们都是在某一时刻进行测量。
这可能无法反映他们明天的感受。
每当你做调查时也会有问题,有些人会以不同的方式填写。
方法。有些人喜欢填写极端值。一切都是一。
这是糟糕的或七分,这是伟大的。会有更多的衡量。
一切都是三或四。所以我们想要衡量的一些核心内容。
我们总是用空气来测量它。我们这样做。我们在调查中遇到这些问题。
我们在情感分析上遇到了这些问题。不管怎样,我们试图了解这些态度。
所以如果我们在数据中只对人们的想法有一个非常粗略的估计,这也。
这将使我们更难做出准确的预测。因此使用这些模型。
我们必须适度谦虚。它们可以非常有用。
但我们总是必须记住,每个模型都是基于不完整的数据。
有很多关于人们的事情我们希望能够衡量,但我们就是无法做到。
而且它们也基于不准确的数据。因此我们所有的衡量方式都比没有要好。
但我们必须记住,它们总是嘈杂的指标。
我们从来无法真正清楚地掌握人们在想什么,他们在做什么。
[BLANK_AUDIO]。
P86:23_那么为什么使用分析.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
所以你可能会觉得这个视频的部分有点消极。对,我在告诉你。
我们通常只能期待这些模型提供有限的准确性。
如果我们能解释30%到50%的离职或表现变化。
我们做得很好。现在,它说:“好吧,问题是。”
我们是否在浪费时间,花那么多时间思考使用人工智能和就业的问题?
但实际上,当我们这样做时,结果并不好。“我不认为我们在浪费时间。”
我最喜欢的例子来自《点球成金》。
我不知道你们中有多少人读过《点球成金》这本书或看过电影。
这对许多人力分析工作来说是一个基础文本,就像我们的。
《伊利亚特》,如果你觉得自己真的很自负。对吧。
这本书算是第一本思考我们如何应用分析的书之一。
以及各种不同的建模来理解人们。这基本上是。
这本书和电影的基础是关于一个叫做奥克兰运动家的球队。
他们正在挣扎,试图弄清楚谁是合适的人。
雇佣他们并应用分析来试图弄清楚哪些团队成员应该加入。
而不是那种通常的侦察技巧。我为什么提起这些?
电影中有个精彩的时刻,布拉德·皮特靠着椅子说:“各位绅士。”
我们现在就像是在二十一点桌上的牌计数员,我们要把赌场的赔率翻转。
说实话,当布拉德·皮特说这句话时听起来好多了。
但我认为基本观点很重要。所以,我不知道你们中有多少人对牌计数感兴趣?
你知道这有什么用。它基本上是一种在玩二十一点时扭曲赔率的方法。
这是一种经常在赌场玩的纸牌游戏。同样,当你在赌牌时。
你真正想知道的就是哪些牌。
你会得到什么牌,庄家会得到什么牌。我是说,如果你真的知道。
然后你可以完美地下注,因为你可以投入大量资金。
在你的牌比庄家的牌更好时下注,而在你的牌。
情况会变得更糟。现在,你永远无法知道这一点。
但事实证明,因为在任何时候,牌局中只有有限数量的牌在玩。
如果你知道哪些牌已经发出,哪些牌最近被使用过。
这些牌不再出现。所以这让你对剩下的牌有了感觉。
那么,未来你或庄家更可能会收到什么样的牌?
事实证明,有时当某些牌在局中更常见时。
未来的牌堆中,你更可能获胜。当其他牌在即将到来的牌堆中更常见时。
如果你知道那样,你更有可能会输。所以知道这些。
你并不知道确切会得到什么牌,但你知道。
你更有可能得到什么牌。好的。所以这可以指导你的下注,对吧?
所以如果你有效地实施牌数统计,你仍然会输掉很多手牌。
会有很多时候你下注,结果发现你的牌更糟。
比起庄家。但是重点是你会比你输的频率更高。
这是在你有利的情况下倾斜几率。如果你这样做得持续。
如果你做到成功的事情,胜率将会大幅上升。
你应该实际上预期平均赚钱而不是亏损。因此。
赌博场所通常对你实际这样做持负面态度。他们并不喜欢这个,对吧?
但重点是你并不需要对每一张牌都正确。
你只需要对哪些牌出现得更频繁比你错的次数更正确。
当涉及在HR决策中实施AI时,这个想法是相似的,对吧?
模型不会是完美的。会有一群我们期待表现良好的人。
他们表现不好。会有一群我们认为表现不佳而因此拒绝的人。
他们最终会被证明是优秀的雇佣,对吧?
但我们实际上并不需要系统是完美的。
我们只需要它们比其他选择更好。因此,再次考虑招聘时。
我们知道,如果不加干预,很多我们雇佣的人因为我们期待他们表现良好而实际上并没有。
我们必须假设一些被拒绝的人也会表现出色。
我们需要问自己的问题不是,AI模型完美吗?
我们想问自己的是,这是否比其他选择更好,对吧?
所以在所有这些应用中,我们真正想做的就是偏向。
偏向于做出正确决定的几率,好的?
我们知道,当我们在做这些决策时使用人类判断,它是相当有缺陷的。
在许多应用中,当我们构建模型时,它们的预测比我们在不干预的情况下做得更好。
当我们做出更好的预测时,是的,我们的一些决定会证明是错误的。
但它们中的较少一部分会证明是错误的,而不是我们做决定时会发生的。
这些决策是不加干预的,好的?如果我们能偏向于做出正确决定的几率。
我们最终会更加成功。这就是为什么投资于构建这些模型通常是值得的。
将它们应用于我们如何管理人员。[BLANK_AUDIO]。
P87:24_偏见从何而来.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
在人力资源系统中使用人工智能带来了许多问题和挑战。
但也有许多新兴解决方案来应对一些这些挑战。
最大的问题之一是偏见问题,这可能是你听说过的。
这在媒体上非常受欢迎。它的观点是,当你将机器学习算法应用于数据时。
它们可能会产生不平等、不公平的预测或推荐,针对某些群体。
我们早先谈到过机器学习算法的观点,它们基本上。
所做的是学习你提供的例子的映射。
但这意味着,如果你提供的例子包含某种固有的偏见,如果它们。
例如,包含人类本身存在偏见的决策,机器。
随后学习模仿这种偏见。当前机器学习的一个重要焦点是学习如何识别这种偏见并。
扩展可能消除这种偏见。但考虑到机器学习算法的工作方式。
如果以往的决策编码了历史偏见,算法必然也会学习到偏见。
所以例如,如果我们正在训练一个模型或建立一个推荐晋升的模型。
而该模型基本上是使用以往成功的数据建立的,以往人们的例子。
在公司内被晋升到更高职位的人,这些历史数据反映了。
雇主的历史偏见,以及我们使用的模型,我们正在构建的模型可以。
学习识别这种偏见,这正是我们希望在行业中解决的问题。
学习如何识别并消除这些机器学习系统中的偏见。
所以偏见进入这些系统的一个方式是使用训练数据,使用。
包含历史例子的偏见,偏见本身就存在于其中。
这并不是偏见出现的唯一方式。还有一种叫做数据充分性偏见。
所以考虑使用视频数据或音频数据的访谈例子来制作。
一些关于候选人适配性的预测。结果显示,许多系统在被喂入更多数据时工作得更好。
结果显示,我们喂入这些系统的许多数据集,恰好。
对某些群体的数据比其他群体多得多。
所以如果我们在不同的人口统计群体、性别和种族之间存在差异。
性别群体在数据集中表现不佳,我们可能只会做得更差。
在准确预测该群体结果方面,这可能会对该群体造成不利影响。
这导致另一种基于历史决策的偏见。
但只是基于我们拥有的数据的数量和质量。
现在这种偏见可能会随时出现,甚至是无意中。
最近一个相当有趣的例子是在广告 STEM 职位方面。
所以科学和数学职位。最近对这些工作的关注当然在于它们的曝光。
工作机会面向男性和女性。事实证明,如果雇主使用那些常用来分享信息的引擎。
在大规模人群中,也就是说广告引擎,比如说 Facebook 引擎。
Google 引擎,这些是优化过的信息获取引擎。
需要看到这些信息的人。雇主们认为这可能是有用的。
能够将职位空缺信息输入这些引擎可能是有价值的,这样更多可能合适的人能够看到。
对于这个工作来说,人们可以看到它。这是一个非常合理的想法。
结果证明,这些引擎的优化方式影响了信息的传递。
以这样的方式进行优化,这实际上可能会无意中导致这些职位空缺不成比例地被转发。
对某些群体来说。因此,在这种情况下,雇主没有恶意。
建造这个引擎的公司没有恶意,但由于算法的运行方式。
它向男性和女性展示不同的信息,因为这是一个人力资源或工作上下文。
它开始产生对某些群体在劳动市场上的不利结果。
所以这是一个普遍存在的问题,即使人们没有明确的意图也会出现。
对他们的决策施加偏见,接下来的视频我们将开始讨论原因。
这是一个难以管理的问题。谢谢。[BLANK_AUDIO]
P88:25_偏见很难管理.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
相对容易理解为什么偏见会在算法系统中出现,但。
管理这些系统中出现的偏见可能相当困难。
原因在于,当考虑如何处理偏见时,通常涉及。
价值判断需要整体视角。现在不清楚这是技术问题还是数据问题。
当你思考我们如何解决在一个。
在组织背景中,这通常确实需要对组织的整体视角和思考。
深入思考组织优先事项。这,当然。
可以跨越多个不同的决策者,而不仅仅是单个开发者或数据科学家。
这就是为什么处理这个问题变得复杂的原因。一个相当高调的例子是ProPublica和北点的例子。
这是一个例子,北点开发了一个算法,你正在被。
用于做保释决定。该算法在这个案例中被用来预测某人是否可能。
再次犯罪或不。ProPublica是一个新闻组织。
查看这个算法并声称,黑人被不公平地拘留。
北点表示,在那些实际上犯罪的人中,他们被拘留。
在相等的比率下。事实证明,如果你看这两个不同的陈述,黑人被。
不公平地被拘留,而在那些犯罪者中,他们被同等拘留。
事实证明,他们在陈述中都是正确的,但他们基本上在说不同的。
关于价值的事情。他们所问的基本上是让有罪的人自由更糟糕吗。
是让有罪的人自由还是不公平地惩罚无辜?这当然是一个非常古老的问题。
这被称为黑石比率,历史悠久。
这是一个深刻的哲学问题,如果我们问一百个人他们对此的看法。
我们会得到多种不同的例子。然而,它说明这并不是一个数据科学家问题或算法。
这是一个问题。它实际上是一个更深层次的问题,需要在价值观方面优先考虑。
社会或在商业方面。在人力资源的例子中。
我们可能在思考机器学习算法如何评估。
候选人或评估组织内的人员,这可能对生产力产生影响。
这可能对偏见和不平等产生影响,但需要权衡成本和收益。
这些不同事物具有非常深刻的组织影响,并需要进行多项权衡。
需要对组织优先事项进行整体的视角。 [BLANK_AUDIO]。
P89:26_偏见很难修复.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
我们讨论了偏见管理的挑战性。
修复这一问题可能相当复杂,原因多种多样。
所以即使我们知道想要修复机器学习系统中的偏见。
修复这种偏见相关问题可能很复杂。
这有许多原因。第一是存在权衡。
所以当我们考虑解决偏见时,往往会付出其他成本。
影响我们关心的其他绩效指标,如准确性。
所以在贷款等各种上下文中,比如给人们贷款,或者医疗保健。
因此,满足某些群体对公平性的认知。
通常可能需要为其他群体牺牲一些利益。
我们在许多机器学习的不同应用中看到了这一点。
许多人研究过这类权衡。当然。
理想情况是尽可能地最小化这种权衡。
因此我们可以实现构建既公平又准确的系统的双重目标。
这通常是个难事。这是人们经常遇到的一种工程权衡。
在考虑如何消除系统中的偏见时。
另一个出现的问题是获取更好的训练数据很困难。
所以我们之前谈到偏见往往会出现在系统中。
因为训练数据本身就有偏见。嗯。
有时候获得更好的训练数据并不是那么容易。
我们谈到了数据充分性偏差,意味着你实际上没有足够的数据。
有时候某些人口统计群体的训练数据不足。
解决这一问题有时并不容易。如果你在谈论某些特定类型的数据。
以更好或更具代表性的方式填充数据库并不是那么容易。
你可能服务的不同群体之间。某些组织中会出现实际问题。
这就涉及到谁应该处理偏见问题。
我们之前谈到了这一点,需要对组织有一个整体的看法。
需要做出决策,基本上要考虑多个组织优先事项。
因此我们考虑这些决定时会涉及深刻的、哲学性的权衡,道德权衡。
基于价值的权衡。甚至不清楚在组织中谁应该负责做出这些决定。
而这本身可能在思考偏见时成为瓶颈或障碍。
这对开发人员来说是个需要处理的问题吗?
这对高级管理层来说是个需要处理的问题吗?
其实应该由谁来考虑处理与偏见相关的问题?
我们看到了针对这一类型问题的多个回应。
一些新职位,如首席数据官和人工智能委员会。
这些基本上是被明确委托的职位群体。
考虑数据的任务,它在组织中的角色以及带来的问题。
但关于谁应该处理偏见的更大问题往往难以回答。
这通常成为思考我们应该从哪里以及如何开始处理的主要障碍。
在一个组织系统中存在偏见。[沉默]。
P9:8_机器学习概述.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
你好,再次见面。在这节课中,我们将讨论机器学习及其不同类型的。
机器学习。正如我提到的,机器学习是人工智能的一个子领域。
它主要关注如何让计算机从数据中学习,而不需要。
明确编程它们。而且它们通常用于预测任务。例如,我们。
可能会有关于过去信用卡交易的数据。我们可能对预测是否感兴趣。
一笔新交易是否是欺诈性的。因此,我们可能会查看过去的数据以做出。
这个决策。或者我们可能对判断一封电子邮件是否是垃圾邮件感兴趣。
基于过去的数据。我们可能会关注对无司机驾驶的图像进行分析的任务。
汽车和判断汽车前面的物体是另一辆车还是一个人。
或树或者其他东西。我们可能对识别语音和理解语音感兴趣。
比如Alexa或Siri。简而言之,有许多使用机器学习的预测任务。
学习。这些技术在从医疗保健到各种行业中都有应用。
从金融到制造业,再到人力资源等。现在,理解这一点很重要。
机器学习并不是单一的技术。实际上有一大堆技术。
所有这些都属于机器学习的范畴。实际上,有很多种类型。
机器学习的一个方面。例如,考虑机器学习的一种方式是从。
监督技术、无监督技术和强化学习技术。监督。
机器学习的概念是基于过去的数据构建一个预测模型。这些数据有。
明确标记的输入和输出数据。例如,我们可能有关于电子邮件的数据。
过去和清晰的标签,标识哪些过去的电子邮件是垃圾邮件,哪些不是。
一些不是的。因此我们可能想从中学习。所以这是一个分类任务。
使用带有清晰输入和输出标签的过去数据来学习如何标记未来的数据。
数据。与之相对的是无监督技术有很多输入数据,但没有清晰的。
输出上的标签。因此,这些技术是在输入数据中寻找模式。例如。
你可能会有异常检测,这个概念是找到某些数据点。
看起来像异常值,换句话说,它们与其他所有数据看起来不同。
同样,我们之前谈到的聚类是将数据分组的概念。
将一组数据点分成不同的组,使得同一组内的数据点尽可能相似。
彼此之间的数据点在不同组中是如何相互不同的。因此。
这是基于数据,但我们没有明确标记的输出来指导我们如何最佳。
实际上将数据分成不同的聚类。最后,我们有强化学习。
学习,这个想法是让机器学习系统通过获取新数据来获得。
行动和观察数据以学习并改善其未来行动。我们将会看。
更详细地看每一种技术。让我们从监督学习开始。正如我提到的。
监督学习的理念是从数据中学习,其中你有明确标记的输出。
并标记输入。这些输入可以称为特征或协变量,输出则是。
通常被称为模型的目标。这是我们试图预测的内容。例如。
正如我提到的,我们有邮件数据,而我们试图预测的输出是是否。
一封邮件是垃圾邮件还是不是。输入或协变量的特征是实际的。
邮件中的文本。通过监督学习,想法是我们有明确标记的通过。
数据,这些数据有正确的答案,意味着某些数据已被标记为垃圾邮件。
某些其他数据已被标记为不是垃圾邮件。现在我们需要学习如何。
对未来的电子邮件进行分类。同样,你可能希望根据预测下周的销售。
历史数据。我们可能会使用关于季节、年份月份、天气的数据等。
其他模式来预测未来销售。我们的训练数据实际上是过去的数据,这些数据。
所有这些模式,月份、季节、天气,以及过去实现的实际销售。
现在我们正试图根据这些数据进行未来的预测。我们来看另一个例子。
监督学习的案例。在最近的一项研究中。
我同事和我对分析一些公司在Facebook上发布的社交媒体帖子感兴趣。
因此,我们收集了超过100,000条由大型品牌在Facebook上提交的帖子的数据。
我们想要识别与最高参与度相关的帖子类型。
那是我们情感帖子与更大关联。
参与度或幽默帖子,或向消费者展示交易和促销的帖子或其他类型。
帖子的内容。现在,标记100,000条帖子并标记每条帖子是否幽默是非常昂贵的。
情感或不情感,或是否提供价格折扣,等等。因此,我们希望自动化这一过程。
过程。因此,我们使用监督机器学习技术来做到这一点。为此,我们首先需要。
数据,一个有明确标记的输入和输出的训练数据集。
输入对我们是可用的。这些是公司在其帖子中使用的词。
输出本质上是一个标签,用来说明帖子是情感性的、幽默的还是其他。
为此,我们抽取了5,000个帖子样本,并让人类对这些帖子进行标记。
这5,000个帖子中的每一个都由一位。
被人类标记为幽默、情感性的,或者提供价格折扣的帖子。
分享了一个显著的事实等等。这些标签随后被用作训练数据集。
学习了哪些词汇能够预测帖子是。
帖子是情感性的或幽默的,然后该算法用于进行预测。
其余的近100,000个帖子没有被人工标记。这本质上是。
监督机器学习的理念,即你需要一个训练数据集,并从中学习。
然后将其应用于未来的数据。在我们的研究中发现,我们的机器学习。
算法表现良好,准确率通常超过90%,95%,有时甚至超过99%。
在能够预测帖子是幽默的或不是幽默的方面的准确率是百分之。
是情感性的或非情感性的。在任何商业应用中,如果你有高质量的训练数据集。
可以应用这些技术来预测未来。关键在于数据的收集。
高质量数据。这是监督机器学习中最重要的活动。
有。
一些非常优秀的现成算法可以应用于预测。
如果你有高质量的机器学习训练数据集。下一组机器学习。
这些技术是无监督学习技术。无监督学习技术也会接收数据。
但它们没有明确标记的输出。例如,我们使用的聚类算法。
如前所述,它们倾向于将我们的数据聚类到不同的组中,但没有被告知。
事先对理想聚类的理解,即它们没有标记的输出。
类似地,另一个例子是异常检测。异常检测算法查看一系列。
数据并识别出与其他数据看起来不同的数据点。在这里再次,有一个。
有大量输入数据,但没有明确标记的输出。
另一个例子是潜在的狄利克雷分配(LDA)。
这是一个常用的主题建模技术,意指识别出哪些类型的。
某个文档可能涵盖的主题。通常,对于LDA,你会有一个输入数据集。
由大量文档组成。LDA背后的想法是每个文档可能涵盖。
一小组主题,每个主题往往会频繁使用相同的词汇。
例如,我们可能会拿一个大型数据集,包含所有主要发布的新故事。
报纸和在线新闻媒体,并将其作为输入提供给LDA算法。
LDA试图识别这些文档所涵盖的主题,但并没有被给定。
清晰标记的输出,意味着算法并未被告知这是关于政治的文档。
这是关于体育的文档,等等。正如我所说,LDA假设每个文档涵盖非常少的。
每个主题都有几个频繁使用的词。当它接受一个训练。
数据集或输入数据集时,LDA可能会识别出某个主题倾向于使用特定的。
词频繁出现。例如,它可能会说这是一个倾向于使用该词的主题。
奥巴马、特朗普、演讲等词频繁出现,但它并不会。
不会像比萨或棒球那样频繁使用这些词。这显然,我们可以推断出这是主题。
政治的主题,而这是算法自己识别出的内容。现在,给定任何文档。
LDA查看文档中使用的词的种类,并识别出哪些主题。
它所涵盖的主题。因此,给定一个文档,LDA可能会说某个主题涵盖体育或某个主题涵盖政治。
等等。一旦LDA使用大型数据集进行训练。
它现在可以应用于任何新文档。
它可以自动对这些文档进行分类,并识别出其中的主题。
在这个例子中,你可以看到一个LDA可能分析的段落,它查看文档中使用的某些词。
通过这些词,它识别出这些词相关的特定主题。
例如,艺术、教育或儿童,然后识别出该文档所涉及的一组主题。
现在除了无监督学习,我们还有强化学习的概念。
强化学习通常不需要大型训练数据集。相反。
算法通过测试或尝试各种行为或策略,并观察发生了什么来学习。
利用这些观察来学习一些东西。这是一种非常强大的方法,已经被广泛使用。
在多种基于机器人应用中也有应用。它也是由某家公司创建的软件的核心。
Google开发的一个称为Alpha Zero的围棋软件的高级版本。
Alpha Go。Alpha Go使用的训练数据集基于过去的围棋比赛,而Alpha Zero没有。
训练数据集。相反,它是通过与自己对弈学习围棋的,一旦它进行了。
数百万局自我对弈,这实际上是它用来发展的训练数据集。
这个游戏的最佳策略。当然,在许多场景中,实验并不总是免费的。
因此,你必须平衡实验的成本与利用我们已有知识之间的关系。
让我们通过一个称为多臂强盗的强化学习算法来探讨这一点。
为了说明强盗算法的工作原理,我们考虑一个有两个不同选择的场景。
我们设计的广告文案,我们希望尝试与客户互动。我们不知道。
哪种广告文案在吸引客户并促使他们点击广告方面更有效。
我们希望理想情况下找出哪则广告更好用。一种找出这个的方式。
进行所谓的A/B测试。也就是说,我们可能将广告A展示给一半用户,将广告B展示给另一半用户。
用户,并且我们可能会这样做一段时间,比如一天。
然后我们观察哪则广告的点击率更高,我们可能会在那之后使用该广告。
在你看到的这个图表中,我们有两个广告,广告A和广告B。
广告A的点击率为5%,而广告B的点击率为。
点击率为10%,但我们事先并不知道。因此我们可能最终会将广告A展示给一些。
用户并将广告B展示给一些用户。如果我们以随机方式向大量用户展示这些广告。
用户数量,随着时间推移,我们了解到广告A的点击率为5%。
广告B的点击率为10%,因此我们可以从那时起使用广告B。
但这种学习是有代价的,因为在这个学习阶段,一些人看到了广告A,而一些人看到了广告B。
我们的广告经历的平均点击率是7.5%,这低于我们希望的。
如果我们选择了表现更好的广告,我们所获得的。
现在一种带宽算法可以做得更好。
可以提高性能。它的做法是,它一开始就像任何A/B测试一样。
算法意味着它以相等的次数展示广告A和广告B,但它开始观察。
正在发生的事情并在学习。例如,它开始观察到广告B的表现优于广告A。
随着它学习这一点,它开始比广告A更频繁地展示广告B。它仍然会展示广告A。
几次,所以它仍然允许自己学习并纠正自己,以防广告A实际上会。
表现更好。但随着时间推移,它会越来越倾向于广告B,因此如果你观察到。
在一天结束时,或者在这个例子中,在一千个会话结束时,这则使用带宽。
基于算法的分配策略最终具有远高于7的点击率。
5%,通过A/B测试获得的,虽然与广告B的10%不完全相等,但接近。
足够,因为它能够实验、学习并利用这些知识来。
也能改善结果。因此,总之,强化学习算法本质上是一个算法。
采取行动后观察发生了什么,然后随着时间的推移改善其性能。
很高兴再次见到你。
P90:27_一些修复偏见的方法.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
鉴于机器学习系统中与偏见相关问题的严重性。
行业已经作出回应,有多种方法可以考虑开始修复偏见。
一些来自行业,一些来自试图构建这些系统的组织。
一种方法是改善训练数据。因此,我们可能知道训练数据本身是有偏见的。
但可以在训练数据中采取一些措施。
有时这满足其他性能指标,但可以改善多样性。
因此,数据可以被更改或操纵,以反映更为多样的结果。
所以这是一个方法,改善训练数据本身可以帮助减轻一些与偏见相关的问题。
在构建这些系统时出现的问题。以类似的方式。
我们可以考虑给一些观察结果加权。因此,数据中的某些观察结果。
数据中的一些例子更好地反映了组织在公平性方面想要达到的目标。
从偏见的角度来看。因此,这些观察结果可以加权,以更大程度上教会机器学习算法。
这是一个更好地反映我们希望做出的决策的例子。
现在非常常见的一种做法就是打开系统并提供更多信息。
关于在每个阶段发生的事情,以便更容易识别偏见,并可能在源头处理。
这方面的一个例子是一些工具,帮助你处理管道多样性,可能在每个阶段显示给你。
管道的确切样子,可能出现的多样性问题。
另一个例子,我们将在另一个环节中讨论更多,是可解释模型。
这些是提供大量信息的机器学习模型,关于它是如何做出决策的。
这两种方式都反映了为你提供更多信息的工具的不同方法。
关于偏见可能在系统内部不同点产生的地方。
一些建议,一些组织建议在决策做出后提供更多的信息。
我们可以回过头来评估决策,并寻找可能驱动该决策的因素。
一个例子是谷歌尝试使用营养信息,也就是他们所称的营养卡片。
所以这些基本上是关于机器学习决策的信息表或信息。
也许在不同数据集上使用不同的性能指标。这种方法。
再次提供更多信息,以便我们更好地理解偏见特征。
我们可以更好地理解它在不同数据集上的表现。
我们可以更好地识别出在特定系统中可能出现偏见的地方,因为我们有更多的信息可供利用。
我们知道算法的构成以及在不同环境中输出的样子。
新的方法是对构建算法的人进行培训,使他们更好地应对与偏见相关的问题。
一些雇主采取了主动,努力提供培训。
以一种方式来帮助数据科学家或工程师更好地装备自己,方便他们整合。
算法帮助理解偏见可能产生的来源。
如何识别偏见、思考以及解决这些类型的问题。
然后是一个更组织化、更广泛的方法来思考这些问题。
这回到一个问题,即到底是谁的工作来管理偏见。
是创建AI委员会。这些只是组织内的一个小组。
这可能涉及来自组织不同部分的利益相关者,来探讨有关AI的问题。
作为一个小组,从不同的角度来审视AI相关的问题。
得出关于如何思考偏见以及在组织层面上处理偏见的结论。
[空白音频]。
P91:28_什么是可解释的AI.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
另一个在HR中应用AI时可能出现的挑战和解决方案涉及可解释的AI。
那么什么是可解释的AI?可解释的AI与方法有关,这些方法可以让人类专家理解算法是如何以及为什么做出决策的。
这与一些类型的机器学习形成对比,后者更像是一个黑箱。
因此,一些类型的机器学习会输入数据并得出决策。
我们已经谈论过这个,但进行逆向工程并尝试理解或解释,好的。
嗯,我看到这个决策是由算法做出的。
为什么它会得出这个决策而不是另一个?有时候这可能非常难以追踪。
在许多行业和上下文中,这会造成一些相当显著的问题。
我们将与我们讨论过的一些其他方法进行对比。
我们谈到过基于规则的系统,即人类的专业知识是通过开发者放入算法或软件中的。
这看起来许多时候像一棵树,这些系统往往相对容易解释。
如果你考虑一下决策树,考虑一下你是如何最终到达决策树的某个特定底点的。
很容易追踪树中的不同节点,以弄清楚它是如何得出这个决策的。
这种决策树输出往往相对容易解释。
相比之下,一旦你进入深度学习的世界,这涉及一种称为神经网络的技术。
深度学习的输出可能更难以解释。
因此,它在处理数据和做出预测方面非常有效。
预测或推荐某个特定行动。
但如果我们想回头了解为什么那个系统做出了那个特定的推荐。
这可能是一个相当显著的障碍。对于这些深度学习系统来说,总是有可能的。
在下一个视频中,我们将讨论这在许多上下文中为什么重要。[BLANK_AUDIO]。
P92:29_解释性重要的示例.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
可解释性或解释性,有时被称为可解释性,在许多情况下都可能很重要。
在不同的背景下,有时如果你只是试图做出预测,可能没有那么重要,但是在。
在许多商业环境中,能够理解算法为何做出该决策非常重要。
这确实很重要。例如,考虑一个医疗背景,其中你有一个深度学习系统。
以推荐患者是否应该接受治疗。
当你有一位高度专业化的医生与这种评估意见不一致时,这就不是问题。
如果系统只是给出不同的结果,这通常是很容易解决的。
医生想知道你是如何得出那个决定的,以及依据是什么。
这需要纳入决策流程中。因此,这就是一个可解释性非常重要的例子。
事实证明,在人力资源领域,可解释性尤其重要,因为这里。
人力资源领域有许多指导方针和法律保护,要求人力资源组织或。
组织的人力资源部门需要能够清晰明确地记录他们是如何做出决策的。
例如,EEOC(平等就业机会委员会)有关于你雇佣的员工类型的规定。
这些规定要求你能够记录你所做的各种决策。
你不能简单地将数据输入深度学习系统,然后让它做出决策。
如果你所做的预测在这样的环境中不可持续。
你确实希望有非常清晰的文档,说明你是如何得出某一决策的。
确保你遵循与就业保护法相关的指导方针。
有着悠久的历史基础。因此,这些限制使得使用不可解释的系统非常困难。
如果你不能退后一步问自己,为什么会做出这个决定,或者为什么会这样。
如果你无法退后一步并调整系统以便满足决策,那就会有问题。
你需要满足这些指导方针,这使事情变得更加困难。
这是一个可解释性重要的例子,这就是为什么人力资源尤其需要关注这个问题。
可解释性或解释性往往会产生很大的影响。
另一个在HR领域产生重大影响的地方与新数据隐私有关。
在许多不同领域新兴的法律。
考虑一下欧洲联盟的通用数据保护条例(GDPR)。
加州也有类似的CCPA法律。这些法律对雇主使用提供的数据施加了限制。
潜在申请者也会受到影响。因此,当它提到一些法律规定时,当你使用自动化。
决策过程中,你需要能够解释你是如何得出决策的。
能够提供在做出最终决定时所使用的逻辑。
因此,在缺乏可解释的系统时,遵守标准变得非常困难。
这些法律规定的指导方针。因此,说明性在考虑人力资源技术采用时是一个关键问题。
幸运的是,很多资源正在投入到这个问题上。
很多公司,尤其是大型科技公司,越来越重视这个问题。
有许多新工具正在出现,提供更可解释的人工智能支持。
政府通过各个机构也在投入资源以建立更多的。
不同产业的可解释人工智能系统。
在下一个视频中,我们将讨论一些挑战和权衡。
在使系统更加可解释时出现的问题。[BLANK_AUDIO]。
P93:30_解释性与性能之间的权衡.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
我们已经讨论过可解释性对多种类型的重要性。
在商业背景中。我们希望能够理解算法得出某个决策的原因。
那么,为什么我们不总是让算法可解释呢?结果证明存在权衡。
通常在可解释性和性能之间存在权衡。
所以,就像公平或偏见一样,有时当你想让一个算法。
更可解释的模型会以性能为代价。实际上存在这种情况。
你几乎可以把这些视为一个光谱,具有不同的机器。
常用的学习模型,越可解释的模型,预测能力越低。
他们的预测能力有多强。有些预测性较低的模型,有时反而是最容易解释的。
那些非常高、非常预测性的深度学习模型,神经网络模型。
通常很难解释。当然,我们希望找到实现两者的方法。
我们希望找到一种方法,在可解释性和预测之间找到最佳平衡。
但这当然是很难做到的。因此在实践中。
精确的预测模型通常需要平衡模型的可辩护能力。
组织通常试图在拥有一个高预测性和高度可解释的模型之间找到平衡。
预测模型,但也能够回过头去为其辩护,比如说。
贷款处理或类似的事情。或者重要的是能够回头去解释,比如说。
客户或其他利益相关者需要解释为什么做出这个决定。
不过,这确实提出了一个困难的问题,因为这两者都涉及很多上下文。
可解释性非常重要,准确性也是如此。再次回到医疗背景。
很难简单地说这两者都很重要。
你希望能够向医疗保健中所有不同的利益相关者解释决策。
以及患者。但是,当然也是这样。
当你希望得到非常准确的预测时。
你正在处理影响人们健康的事情。所以很难说。
这不是一个简单的问题,关于如何使这些模型可解释。
这取决于组织背景或商业背景的权衡。一些应用程序。
如果你在考虑预测用户点击或买卖金融资产。
如果你能够回头去解释决策,那就没那么重要。
你对人的影响并不一样,因此你是否能够解释就没那么重要。
能够回过头去解释算法为何做出预测决策。
在这种情况下,你可能希望使用高度预测性的模型。它不需要可解释。
对于员工晋升这样的事情,准确预测确实很重要。
你希望能够回过头来理解算法为何做出这样的决策。
因此,对于这种类型的应用,组织可能会努力在可解释性和其他因素之间取得平衡。
模型和一个能够做出良好预测决策的模型。[BLANK_AUDIO]。
P94:31_一些可解释AI的方法.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
我们谈到可解释AI在某些商业背景下非常重要,人力资源是其中之一。
其中之一,同样公司和政府都在投入资源进行开发。
更加可解释的方法。所以让我们谈谈其中的一些。
只是让你了解人们如何思考这些问题中的一些。
所以我们将讨论几个。其中之一被称为SHAP。
这个方法的作用是观察不同的信息片段。
输入预测模型的信息,这些不同的特征正在被使用。
用于进行预测。输出将告诉你每个特征对预测的贡献。
预测。所以想象一下,你对一个申请者或员工有一堆信息。
在公司试图对那位员工做出决策时,它会做出决定。
然后它可以告诉你每个信息片段的影响。
访问对于最终做出的决策至关重要。另一个叫做LIME的例子。
这个基本上是从一个非常。
复杂且非常难以解释或说明。
但它可以生成一个更简单的比较,这对于看起来相似的人是准确的。
针对相关的候选人。因此,这种类型的方法可能会说。
它可能是一个非常复杂的整体模型。
在所有被使用的人中并不是可解释的。
但它可能会说,如果我将员工X与实际上非常相似的员工Y进行比较。
但在这一点上有所不同,那么我们可以创建一个更简单的解释来进行说明。
这两者之间的差异导致了对一个人和另一个人的决策。
所以它创建了一个在局部准确的更简单模型,即使整个模型,即全局模型。
模型相对难以解释。另一种使用替代树的方法。
这种方法生成一个更简单的模型来模拟。
更复杂模型的表现,但易于解释。
我们谈到了一些模型类型,如决策树,它们是。
从根本上易于解释。
所以替代树方法可能会使用一个行为非常类似的更简单的模型。
在大多数维度上更复杂的模型。
也许不是100%,但在大多数维度上更容易解释。
因此,这两者可以同时使用,以实现某些预测的好处,但也可以。
一些解释的好处。然后有新的技术出现,比如自动编码器,它基本上会。
数据并将其简化为一小部分特征,使模型输出更易于理解。
用于解释它所使用的前向预测。
这些只是一些不同的方法,公司正在投资以深入了解。
关于建立更好的技术和工具,以达到那个理想的平衡点。
或者试图在拥有高度预测性的模型和其他方面之间实现那个理想的平衡点。
还需要可解释性。因此,像IBM这样的公司有许多倡议。
微软等公司正在投入大量精力开发解决方案和平台,使公司能够使用。
以更可解释的方式使用AI。谢谢。[BLANK_AUDIO]。
P95:32_人力资源中的区块链.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
机器学习在HR方面具有巨大潜力。
这是因为他们可以综合关于候选人的多个变量。
为员工做出良好决定或提出好的建议。
它还可以发现我们之前可能不知道的新关系。
我们可以想象多种新应用,传统上有新的数据类型。
以前未在HR流程中使用的,可以现在整合到基于机器学习的系统中。
因此,可能是关于员工选择的非常细致的数据。
或者可以整合到这个决策中的行动。
然而,出现的一个问题与数据所有权有关。
所以我们将讨论一个外围问题,它与机器学习不是直接相关的部分。
机器学习的有效性与其实施的效果密切相关。
这与数据存储有关。我们将特别讨论区块链。
这当然是一项受到广泛关注的技术。
在其他背景下,比如比特币,区块链在HR领域也有潜力。
以解决一些与数据所有权相关的问题。因此,AI解决方案当然。
需要大量数据。同样,也可能出现新的商业模式。
当使用非常细致的员工选择数据时,可能出现的新应用。
或员工行动来预测他们是否会。
适合公司的候选人以及他们在公司表现如何。同样。
在公司内部为员工提供使用非常细致数据的应用。
或者他们执行的行动或任务,考虑职业发展等。
与此同时,各地的担忧也在增加。
关于数据所有权和数据隐私的问题。现在是一个热点问题。
这不会很快消失。对谁应该拥有员工数据有很多担忧。
谁应该拥有私人数据,以及你对自己数据的控制程度。
所以当我们考虑进入一个机器学习越来越多做决定的世界时。
数据越来越丰富,问题出现了,我们该如何存储这些数据,谁拥有这些数据?
这就是区块链作为这一问题潜在解决方案出现的地方。它可以解决。
至少,这是这个问题的一部分。区块链是任何两方交换信息的一种方式。
在没有第三方的情况下交换信息,拥有数据或持有数据。
所以每当我们谈论与HR过程相关的信息交换或提供时。
我们经常谈论让第三方为我们保管信息或记录。
但这是一种凭证化或基于技能的证书。如果只是大学。
基本上可以保证我们拥有那所大学的学位。
我们有一个第三方为我们保存数据。如果这是我们学习的平台。
或者在上面学习课程,它可能是一个保存数据的平台。
所以出现了一些问题,围绕数据最佳存储的位置。
这有很多原因。其中一个是存在许多监管问题。
正在出现的一些问题。例如,全球数据保护条例GDPR相关的问题。
在欧盟。有市场失灵的潜在可能。
我们可能认为有些类型的数据对于人力资源决策非常有用。
但那里的商业模式并不存在。所以也许没有公司出现。
愿意成为该信息仲裁者的。
所以我们不能总是依赖第三方,以确保数据的安全和有效性。
这将用于促进人力资源决策。
在机器学习流程中。因此,区块链可以在这里发挥作用,因为它本质上是。
这是一种不可篡改的数据存储技术。
我所说的意思是,任何输入区块链的信息交易。
一旦确认,就无法更改。这是区块链设计的基础。
因此,那些信息可以被视为真相。
所以这意味着使用像区块链这样的技术。
它不需要任何中央权威。
或所有者进行验证。一般来说,当我们有一组数据时。
想想银行信息,我们需要一个中央权威或所有者来验证该信息。
基本上作为对该信息的信任保证。
区块链是一种旨在解决这一问题的工具或技术。
这有潜力成为一个数据存储解决方案,可以将私密数据结合在一起。
这对于人力资源决策是有用的,基于人工智能的预测。在下一个视频中。
我们会多谈谈。
关于区块链本身为何如此变革性的原因。[ Silence ], [BLANK_AUDIO]。
P96:33_区块链为何如此颠覆性.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
通常,区块链为什么是一种潜在的变革性技术?
让我们首先谈谈区块链试图解决的问题。
我们有良好的数据存储技术。数据库已经存在很长时间。
它们确实是现代信息化经济中最重要的技术之一。
我们为什么需要一个替代方案?数据库工作方式存在各种限制。
区块链开始解决的关键限制之一是数字位,当然。
数据库中的数据可以被写入和重写。当我说“限制”时,当然。
这也是一个特性。这就是数据库的设计目的。
但数据库的一个特征或功能是这些数字位可以被写入。
并且可以重写。它们可以被更改。你可以追溯并更改数据库中的信息。
你在数据库中看到的任何信息的有效性都需要交易方之间的信任。
这要求你信任数据库的拥有者。
它要求你有一个集中式的可信中介来存储这些信息。
金融机构,例如,你知道数据是有效的,因为其中之一。
机构所服务的目的之一是提供这种信任级别。
这意味着我们需要依赖这些机构来持有高度个人化的数据。
在某些情况下,这可能是不可接受的。我们可能希望以某种方式存储高度个人化的数据,确保能够验证。
但这并不一定依赖于机构来持有这些数据。
这是我们在社会上关于数据隐私讨论的中心。
这对个人和经济中的各种利益相关者意味着什么。
区块链是一种软件协议,以算法方式实现信任。
它基本上试图解决这个问题。它以算法方式实现信任,因此你不需要一个集中式机构或。
中介可以介入并说:“嘿,你可以相信这些信息,因为我说你可以信任它。”
你不需要那种级别。你不需要机构扮演那个特定的角色。
区块链可以在算法层面实现那种信任。
这意味着个人可以使用区块链来存储个人数据。
公司可以利用区块链进行人力资源分析。
不涉及任何中央第三方,数据在整个过程中都可以被信任。
我们知道,因为它在区块链中,基于区块链的设计方式,我们知道。
数据可以被信任。这实际上可能是一个重大的变革。
从某种意义上说,我们谈论的只是数据技术或数据存储方式的变化。
为什么这如此重要?好吧,再次强调,数据库在许多方面是大多数信息型企业的生产车间。
数据存储方式的改变对组织可能产生非常大的影响。
各种经济机构。例如。
在作为信任的中介中拥有巨大的经济价值。
想想汽车租赁公司或酒店。很多时候,他们的核心角色之一是成为一个你可以信任的机构。
在考虑租车或寻找住宿时,你可以信任的对象。
能够绕过在信任中扮演中心角色的一些机构,可以带来。
影响非常大。过去与这类区块链应用相关的一个例子。
政府签发的身份证件。我们考虑政府签发的身份证件。
政府基本上表示这是我们国家的公民,你可以。
我们信任我们作为政府所支持的。 这有时会带来许多问题。
例如,针对失败国家的公民。
他们在全球范围内使用身份证明非常困难。
拥有一种能够让我们信任彼此提供的数据的技术,而无需依赖。
基于集中机构的做法可能有重大影响。在人力资源方面。
存在许多机构,至少部分原因是为了让你可以信任。
他们确实在真实维护数据。例如,大学提供凭证。
他们提供学位,并提供学位的验证。
学习平台提供有关技能和证书等信息。
许多这样的机构部分存在是为了让你信任你对潜在事物的了解。
公司中的员工。
像区块链这样的技术作为集中存储某些数据的地方的出现。
数据对人力资源中的机器学习应用访问数据的方式有影响,而无需。
遇到我们可能担心的其他问题,如果存在一个集中。
提供这些数据的经纪人。这里潜在的最大好处是,我们越来越多地获取细致数据。
例如,考虑可能详细记录员工个人生产力的数据。
也许是日常任务或某人如何处理代码的一些细致数据。
检查开源代码库,非常细致的数据可能会提供丰富的信息。
关于人们的表现。这种数据是我们可能不愿意交给第三方的。
我们可能不信任第三方处理这种数据,但对人力资源来说可能有用。
所以区块链是一个潜在的中介,可以用于保存这些数据。
仍然用于机器学习应用,以一种仍然保护隐私和数据的方式。
所有权权益。 [ 静默 ]。
P97:34_区块链如何工作.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
我们一直在用相当抽象的术语讨论区块链,作为一种。
可以让人们以受信任的方式存储数据,而无需第三方中介。
从高层次来看,讨论它如何工作的内容是有用的。
让你了解区块链上实际发生的事情以及它如何提供价值。
区块链可以被视为账本或电子表格。
如果我们考虑以这种格式存储数据,并希望它是可信的。
我们希望能够完全信任数据,我们需要知道基本情况。
两件事情,仅这两件事情。
一是交易,放入数据库的信息是经过验证的。
例如,如果两个人之间有一笔交易,那么这笔交易。
是由两个参与方验证的,确保最初输入的信息。
数据库是合法的。然后第二点是它从未。
我们从未回过头来更改、更新或删除那条虚假信息。
如果我们知道这两件事,我们可以确信在区块链中看到的信息。
是正确的。所以第一个是最初的信息是有效的并经过验证,第二个是没有人。
回过头来更改那条信息。这就是区块链所实现的目标。
实际上,第一个是我们长期以来一直在进行的验证,但区块链。
第二点是区块链所实现的目标。确保。
确保我们可以确信没有人回去伪造、更新或删除数据。
所以区块链再次是账本电子表格,但与单一的稍有不同。
电子表格。它本质上是存储在整个。
网络中的这些称为节点。因此,在网络的所有参与节点上。
这些网络的信息被记录在一个顺序的区块链中,这也是它被称为区块链的原因。
每个区块都记录了自上一个区块以来世界上发生的变化。
因此,当前世界的状态是通过查看整个序列来计算的。
这些区块,而不仅仅是最后一个区块。因此,整个区块序列共同解释了世界的状态。
它有一个系统,使用网络中的一堆电子表格。
信息以区块的序列记录,所有这些共同表达了世界的状态。
我们有设计点来理解区块链如何提供价值。
一是任何交易,任何放入区块链的信息都是经过验证的。
一种加密形式。因此,假设我们使用区块链来保存关于技能的信息。
关于我在线获得的一些技能。因此,这笔交易可能是在我和提供该技能基础教育的供应商之间进行的。
因此,该交易本身是通过一种加密形式进行验证的,双方都参与其中。
意思是我自己和平台可能会说这个人具备技能,这笔交易。
然后由网络确认,并存储在区块链中。因此,这是设计的第一个要点。
所有这些交易在首次录入时都会被验证。
然后第二个设计要点是区块链本身被设计得极为。
很难伪造数据或通过回溯更改数据来欺骗系统。
因此,与数据库不同,在数据库中更改数据相对简单,而区块链的设计。
区块链的特性实际上是非常昂贵的,甚至是禁止性的昂贵。
在大多数情况下,无法返回并尝试伪造、假冒或更改过去的数据。
因此,第二个设计要点真正提供了数据验证的保障。
是真实的,并且始终保持真实。因此正因为如此。
区块链最终是一种数据存储技术,可以防止任何。
条目被修改或重写的形式。如果信息在第一时间就经过验证。
它从未被更改。因此,我们知道它必须是真实的。
我们不再需要第三方来说,嘿,这是一条有效的信息。
我们知道,正因为系统的设计,呈现的信息。
对我们来说,至少在合理范围内必须是正确的。
事实再次表明,这解决了许多问题。
因此,区块链中的信息本质上是可以信任的。
因此,它不需要第三方来持有数据。正如我们上次讨论的那样。
这可能会带来多项变化。
在不同的行业中,信任经纪人的角色是什么,以及它们所带来的价值。
在工作流程的各个不同点提供。[沉默],[空白音频]。
P99:36_AI的影响.zh_en - GPT中英字幕课程资源 - BV1Ju4y157dK
在这一部分中,我们将讨论人工智能的影响,特别是社会。
层级效应。尤其是我们将讨论工作以及人们对人工智能崛起的担忧。
智能将消除工作,消除这边、那边的工作等等。
这些是引人注意的预测。其中一些极为戏剧化。我的意思是。
我们几年前听说过,未来几年有40%的工作将会消失。
等等。最重要的一点是,至少到目前为止,所有这些预测。
引人注意的预测,有些是错误的。但是,尽管如此,它们仍然引起了很多关注。
所以我们想谈谈我们所知道的事情,但也要思考这些预测,因为。
它们不会消失。我们将继续看到它们。
所以我们在这一部分中想做的部分是了解我们应该如何。
我们思考这些预测时的想法。
首先要知道的事情是,可能花几分钟时间来谈谈预测。
未来。有些事情我们做得相当好。例如,精算科学。
我的房子着火的可能性有多大?好吧,我们可以相当准确地估算。
因为周围有足够多的房子,而且有一些房子烧毁了。
而且情况相对相似,我们可以基于我房子的属性进行评估。
相当准确地预测在某个特定时期内它可能会烧掉的机会。
经济预测大致上也做类似的事情。
我们假设未来将与过去相似。因此我们建立了一个模型。
在某种程度上,像机器学习模型,试图预测某些东西。
像经济增长、国民生产总值增长,基于一系列因素。
如果这个模型在过去运作得很好,那么我们将其带入未来。
通过输入今天模型中的变量测量来看看这对。
增长率。 当然,这些问题的关键在于,如果未来与过去不一样。
预测模型的效果并不好。这是一个问题。
如果我们看一个主题的预测,而这个主题没有足够的数据来建立预测模型。
模型、近期事件,例如,或者政治反应会如何。
民主党人会如何应对这种情况,类似这样的事情。
然后我们进入询问人们的领域,市场调研和民意调查,你知道的,询问。
试图弄清楚选举将如何进行,民意调查数据相当不错,我们如何。
你会投票吗?市场调研相当不错。如果这个产品存在,你会买吗?
对吧?问题是,有时我们在询问一些更大的事件。
这种情况并不常见。还有一些民意调查无法奏效的事情,对吧?
这类似于新技术的引入。这些都是专家判断的问题。
我们在Worden的同事菲尔·塔特洛克研究这些已有几十年,他进行了研究。
进行大规模实验。而他最近也进行了一些实验,试图理解什么样的人。
哪种属性的人在专家判断方面表现良好。例如,预测。
美国会向左转吗?某个特定国家会选举出不同的议会吗?
中东会有战争的可能性吗?这种事情。
这是他发现的,擅长这一点的人。首先,高度自信的人。
这些深谙主题的专家,他们知道很多关于这个话题的事。
而受到理论指导的人表现得更差。
表现更好的人是那些质疑假设的人,那些考虑反对意见的人。
争论,以及那些在其他地方寻找类似情况的人。
他们表现得更好。因此,当你关注某人或某个组织的预测时。
你想做的就是开始往下看,并说。
他们是否在论证中考虑了反对意见?
他们是否质疑所使用模型中内建的假设?
他们是否至少能够清晰地表达这些假设?他们是否在寻找其他地方类似的情况?
如果他们的判断相对可靠,那么可能值得倾听,如果不是的话。
如果做了这些事情,按照菲尔的估计,成功的机会很大。
这就像是猴子投掷飞镖,谁说这只是随机的描述。
那么,预测来自哪里?关于当代社会,有一点要记住。
私营部门对关注度有很大的竞争。
这意味着如果你能引起注意,就会有资金支持。而资金往往也会获胜。
所以如果这些是那些在向你推销东西的人做出的预测,他们有自己的利益。
在特定的故事中。而让我指出一些事情。
我还没见过一份顾问报告说。
未来基本上会与现在保持一致。而我从未见过有人说,你知道的。
这里没什么好担心的。原因是这些不会被销售。
这些信息不会引起关注,即使它们是正确的。
让我给你举几个我曾经历过的工作场所的例子。
一个是在2000年代初期。当时有许多组织预测即将出现劳动力短缺。
当然,这种情况从未发生。这是因为他们误解了。
最初他们误解了来自普查的一些人口数据。
然后其他人开始站出来说,是的,劳动力短缺即将到来。
每个人都对即将到来的劳动力短缺发表了报告。当然,这种情况从未发生。
而了解人口统计学的人知道这不会发生。
但这并没有阻止公司制定关于如何处理的计划。
这个即将到来的劳动力短缺因为大家都在谈论它。
让我们谈谈另一个流行的话题。这是千禧一代及其代际差异。
国家科学院在过去的夏天发布了一份报告,研究了这个问题。
他们基本上得出的结论是这一切都不是真的。
没有证据表明千禧一代作为一个独特的群体甚至存在。
关于他们出生前后的人。这一代故事根本没有依据。
然而,它依然存在。它之所以持续存在是因为听起来很酷,听起来很有趣。
听起来像是我们有点知道的事情,尽管没有证据表明这是真的。
我们拥有的所有证据表明这不是真的。
就在几年前,我们非常担心无人驾驶卡车要来了。
消除卡车司机。我知道有些公司已指派人力资源人员去弄清楚。
他们要如何处理所有失业的卡车司机,因为技术在发展。
消除卡车。预测是这将迅速发生。
当然,自那以后我们没有听到任何关于它的消息。
也许部分是因为其他新闻更重要,但我们在这一方面也没有看到进展。
那么,让我们谈谈关于人工智能的一般预测,但先退一步。
跟随我的同事菲尔·塔特洛克一点点,看看我们从类似的情况中知道什么。
在过去的几代中,我们花了很多时间研究……的影响。
引入信息技术。这对工作产生了什么影响?
那么,整体经济中,这是否消除了工作?没有。
经济中的工作总数继续增长。我们稍后会谈谈原因。
你可能会问,那特定职业呢?当然可以看到一些这样的情况。
在我有生之年中我看到的最大变化是打字员的工作消失了。
但打字员的工作消失的原因并不是因为文字处理取代了打字。
正是文字处理促使管理层决定即使是高管也应该自己操作。
打字。因此,这是一个被软件推动的管理决策。
但这将是一个关键点,最大的变化发生在技术推动管理层。
对工作组织做出不同的决策。
但关于IT还有一件事需要记住,这在未来肯定会成立。
IT并非专门设计用来消除工作的。
在许多情况下,它的设计目的就是引入之前不存在的新功能。
例如,早些时候,当你可以在线购买和订购东西时,其中一件事。
你没有看到的是软件向你提供推荐。
也就是说,购买这个的人也会购买那个。你考虑过获得所需工具来把这个组合起来吗?
你总是得到的那些建议在之前并不存在,也没有消除任何工作。
那里的信息技术增加了功能,应用信息技术于现有工作所产生的效果并不一定。
消除那些工作。这是我们需要认真思考的问题。
如果我们考虑这个工作的方式,比如考虑信息技术。
更广泛地说,人工智能的作用并不是为了消除工作,即使在机器人技术的背景下。
机器人似乎是为了消除工作而设计的。
在组装线上,可以用机器人代替人。
结果显示,这种情况并没有发生,至少在我们目前看到的研究中。
如果你查看引入机器人的数量以及工作的数量。
它们并没有抵消这一点。部分原因是机器人所做的事情是帮助接管一项任务。
员工的工作。机器人正在组装线上提升轮胎。
他们早期进行了焊接工序的消除,但这里有一个很好的故事值得记住。
这是丰田在美国超越通用汽车机器人的胜利。
在1980年代,通用汽车决定尽可能消除生产。
工人们在组装厂的工作很少,因为你无法信任工人及其。
质量很差。他们在机器人技术上投入了巨额资金。
花费430亿美元在组装厂引入机器人。
丰田进入美国并接管了加州弗里蒙特的通用汽车工厂。
以前制造老式汽车的工厂,现在丰田开始为通用汽车制造卡罗拉。
它们被称为novos,但它们是丰田用美国工人生产的丰田卡罗拉。
使用自1970年代以来的旧设备,但采用精益生产。
与此同时,通用汽车花费430亿美元来自动化其工厂。
因为精益生产比通用汽车的生产更高效、更便宜且质量更高。
机器人并不是总能胜过员工,即使在质量等方面也是如此。
生产力。部分原因是人们真的非常适应。
即使我们考虑简单的、低技能的任务,你会想到设备和信息技术。
机器人可以做这些工作,但还有很多事情是机器人可以做的,我们并没有让他们去做。
而原因之一是劳动力相对便宜。
我们可以让机器人清扫所有的地板,而不是清洁工。
清洁工的成本仍然相对便宜,让他们来做更容易,而不是试图让。
机器人要完成这项工作,因为机器人仍然相对昂贵。无人驾驶汽车也是如此。
其实是否存在无人驾驶汽车的市场?这里的答案并不那么清晰。
当然,有些人会希望使用它们,但我们来看看最畅销的车辆。
在美国。它们都是卡车。我们都在电视上看到过卡车广告。
电视上的卡车广告都是一些强壮的家伙戴着牛仔帽驾驶卡车。
在建筑工地上反弹,最后拉动一些很大的东西感兴趣吗?
假设你能制造一辆无人驾驶卡车。谁会买这辆卡车?
吸引那些卡车广告的人中,有人会对。
一辆由机器人斯基皮驾驶的卡车,广告中坐在他旁边的是某人。
有人一边做指甲,一边让斯基皮驾驶穿越建筑工地。
买卡车的人想自己开车。
买跑车的人想自己开车。
我说的是无人驾驶汽车没有市场,但这并不是无限的。
市场。一个大问题就是,尽管可以通过机器人和人工智能来实现某些事情。
智能并不意味着有市场。
或者这是否意味着做起来会足够便宜,尤其是在劳动力仍然。
相当便宜吗?
我们听到的最常见的声明之一是,人工智能是不同的。这次是不同的。
问题是回到我们的同事菲尔·泰特洛克以及他对什么使事情的看法。
进行良好预测的关键是每当你听到某件事是独特的声明时,应该是非常慷慨的,对吧?
这完全不同于我们以前见过的任何事情。你想质疑这一点,对吧?
我们之前提到的一个值得质疑的事情是,人工智能可能是什么。
现在数据科学能够做的是专注于一个任务,对吧?
所以看看放射科医生。例如,有一些著名的研究表明放射科医生。
如果你比较放射科医生对某一种特定疾病(如乳腺癌)的筛查,算法做得比放射科医生更好。
他们做得并不是极其出色,但确实做得更好,明白了吗?现在。
这是否会消灭放射科医生?那么你没听到的第二部分发现是放射科医生。
与算法合作时,效果甚至比单独工作更好,对吧?
第三点要记住的是,放射科医生除了阅读,还做很多其他事情。
X光。他们当然也负责诊断。
他们的部分决策基于屏幕所告诉他们的信息。
他们所做的一部分工作也是进行放射治疗,对吧?
所以很可能他们的某些任务会被自动化,但这并不意味着。
这并不意味着他们所做的一切都会自动化。例如,无人驾驶卡车,对吧?
美国大多数卡车司机是送货司机。
他们的工作是开车到你家,或许一个机器人司机可以做到,但然后。
他们会出来,卸下你的包裹,把它们放在台阶上,让你签名。
某些事情,我们没有一个机器人能做到这些,对吧?
这里要记住的另一件事是,管理决策在信息技术方面非常重要。
被定义,并引入了数据科学工具。
所以让我们稍微回溯一下数控技术的引入。
机器和在工程决策中使用计算机。我们有机器、技工和机器。
一些工作可能会被CNC机器接管,对吧?
它们需要被编程,而我们在20年前看到它们首次引入时。
雇主做出的决定是什么?我们是要雇佣工程师来编程这些机器,还是要教会他们?
教会已经在做这种工作的技工如何编程机器,好的?
如果你教技工如何编程机器,你不会失去那么多技工的工作。
如果雇佣工程师来编程,那么你将失去所有技工的工作。
你还在招聘并创造更多的技工工作。这个结果是管理层的决策。
对吧?那么我们已经知道信息技术对工作和生产力的影响是什么?
重大影响在于管理者如何利用信息技术重组工作组织,对吧?
在那时,你会获得巨大的生产力提升。仅靠信息技术并不能做到。好的。
[空白音频]。
标签:人工智能,这些,我们,学习,算法,沃顿,区块,数据,商学院 From: https://www.cnblogs.com/apachecn/p/18475450