人工智能(AI)经常被谈论为工人潜在的令人难以置信的生产力提升或替代工作。在当前的头条新闻中,您将看到许多好莱坞作家和演员在许多问题上罢工,包括使用人工智能技术取代人类作家以及未来取代演员。另一方面,您可能会在社交媒体网站上看到帖子和视频,创作者正在倡导其他人开始使用人工智能工具“快速致富”风格的计划来赚钱。通常,这些文章或社交媒体帖子正在耸人听闻这些技术对某个领域的相对初学者产生的影响。通常,这些文章和帖子中讨论的工具是大型通用模型,这些模型被宣传为通用的并且能够处理多个不同的任务。大多数炒作中谈论的并不是大多数使用人工智能模型的公司实际上基于其系统的内容。有了所有这些信息,你应该害怕人工智能成为一个问题吗?取代艺术家?抢走你的工作?
要理解这些问题,重要的是要了解您的日常生活中已经在使用哪些AI用例。公司已经构建并将继续构建的大多数实际“AI”的范围更窄,这使得模型在设计要处理的特定任务上优于那些大型模型。这些更集中的模型是使用称为机器学习(ML)的技术构建的,通常用于大多数人认为理所当然的任务。
最简单的 ML 使用精选数据来调整统计模型。为了了解这种使用的广泛程度,我将举几个例子来说明这些模型的使用地点。
- 信用卡公司使用客户交易的大型数据集和一小部分显示欺诈的记录来训练 ML 模型,以确定给定帐户的新交易是欺诈性的还是正常的。
- 电子邮件提供商使用大型电子邮件数据集,将电子邮件分类为主要、促销和社交类别,以训练 ML 模型以确定新电子邮件适合哪个类别。
- 电子商务网站使用用户已购买商品的大型数据集来训练 ML 模型,以建议用户接下来可能有兴趣查看或购买哪些商品。
- 拼车公司使用旅行、司机和用户的大型数据集来训练 ML 模型,确定 2 个地方之间的乘车价格应该是多少
这些例子中的大多数都发生在你身边,为消费者提供价值,而不会抢走一个人的工作或造成问题。话虽如此,在没有适当的道德考虑的情况下应用ML,监督和护理可能会导致或至少加剧问题。
ML事故的一些例子是:
- 根据历史犯罪数据训练的模型最终会延续偏见——人工智能正在把人送进监狱——并弄错了 |麻省理工学院技术评论
- 根据历史房地产价格训练的模型在一年内损失了 Zillow 881.881 亿美元 — Zillow 关闭的炒房业务在 2021 年损失了 <>.<> 亿美元 — 华尔街日报
ML的这两个问题突出了AI和ML已经存在并将在未来继续存在的2个潜在问题。
第一个问题是AI和ML需要训练数据(示例)和大量的训练数据。这通常意味着模型使用现有偏差进行训练,然后将这些偏差反映在它们输出的结果中,或者更简单地说:垃圾输入意味着垃圾输出。
第二个问题是,人工智能和机器学习模型的结果经常被“数据驱动”的领导者视为无可置疑的,因为他们接受过数据训练,他们必须比人更了解。这种情况通常并非如此,需要监督,尤其是当发生模型未经过训练处理的边缘情况时。更简单地说,训练用于仅使用上涨市场来预测市场的模型永远不会预测下跌市场,虽然如果不加以控制,它在大多数情况下可能会预测很多,但当市场条件放缓或变化时,它可能会产生可怕的后果。
因此,总结“我应该害怕人工智能吗?”这个问题,答案取决于人工智能是如何实现的,以及围绕它的控制措施是什么。对于许多狭隘的用例,您可能已经在日常生活中与AI进行了积极的互动。在人工智能在高质量数据上训练的情况下,在仔细考虑其模型的影响和效果的团队的监督下,你不应该太担心人工智能。当团队不小心训练模型并在没有适当监督或道德考虑的情况下实施它们时,可能会出现更大的问题,这可能值得担心人工智能。
标签:训练,人工智能,ML,模型,害怕,AI,使用,应该 From: https://blog.51cto.com/u_15720252/6926568