每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
视频链接:
NVIDIA的CEO黄仁勋采访
NVIDIA的CEO黄仁勋近日透露,公司计划将员工人数扩展至5万人,并部署多达1亿个AI助手。NVIDIA正在通过AI的力量提升人类产出,力图将员工数量大幅增加。黄仁勋在BG2播客中谈到了这一愿景,称NVIDIA正在打造一支“AI大军”。
NVIDIA的目标不仅仅是通过技术成就与苹果和微软齐名,还希望通过庞大的员工队伍成为真正的科技巨头。随着公司持续发展,黄仁勋表示,NVIDIA计划扩展员工队伍,并利用AI助手处理那些繁琐和优先级较低的任务,从而提高员工的工作效率。
他还进一步解释了AI助手的作用:AI将成为员工的助力,帮助公司提高生产力。AI不仅可以协同人类工作,还可以自主招募其他AI解决问题,甚至会在Slack等工作平台中与人类和其他AI共同交流。黄仁勋认为,这样的“AI与人类共存”模式将成为未来的工作形态。
在被问及AI是否会对人类就业造成影响时,黄仁勋强调,这项技术的设计初衷是与人类共存,而不是取代人类。NVIDIA计划以可持续的方式增加员工数量,AI助手将有助于提升企业的整体输出,提供有关公司收益和表现的“精准数据”。他相信,随着AI的加入,公司的生产力将大幅提升,从而带来更多的就业机会,而不是裁员。
黄仁勋还表示,AI将改变每一个工作岗位,并对人们的工作方式产生深远影响。当企业通过人工智能变得更高效时,其表现将转化为更好的收益和增长。总的来看,AI助手的出现将使员工专注于高优先级任务,仿佛每位员工都成为了“AI代理的CEO”,从而推动生产力的进一步提升。
NVIDIA对未来的就业市场提出了自己的愿景,表明人类将与AI共存,而非抗衡。这预示着我们正走向一个人与AI共同协作的新时代。
NVIDIA的CEO黄仁勋近日在播客节目“Bg2 Pod”中对埃隆·马斯克大加赞赏,称马斯克的初创公司xAI在19天内建造了一台超级计算机,这项工作本应耗费数年时间。他形容这是一项“超人般”的壮举,并称“据我所知,全球只有一个人能做到这一点。埃隆在工程、建筑、大型系统和资源调配方面的理解是无与伦比的,简直令人难以置信。”
xAI使用了10万块NVIDIA H100 GPU,构建了名为“Colossus”的超级计算机。马斯克早前在X(原推特)上透露,从项目启动到训练集群上线共耗时122天。而他还在6月与乔丹·彼得森的访谈中提到,从硬件安装到开始训练仅用了19天,这是“迄今为止最快的速度”。
黄仁勋对xAI的工程、软件、网络和基础设施团队也表示了高度赞扬,称他们“非常出色”。他还进一步解释道:“要建造一台拥有10万GPU的超级计算机,这无疑是目前全球速度最快的超级计算机之一。”黄仁勋指出,通常建造一台这样的超级计算机需要三年时间进行规划,然后再花一年时间让设备投入使用。
xAI于2023年成立,并于8月发布了其最新版本的AI聊天机器人Grok-2。今年早些时候,xAI还宣布完成了60亿美元的新一轮融资。
甲骨文联合创始人兼董事长拉里·埃里森也曾透露,9月时他与马斯克、黄仁勋在帕洛阿尔托的Nobu餐厅共进晚餐。当时马斯克和黄仁勋“苦苦恳求”黄提供更多GPU,甚至开玩笑地对他说:“请接受我们的钱……我们需要你拿走更多的钱。”最终,他笑言,“一切顺利,成功了。”
Apple研究人员发文质疑AI的“推理”能力
机器学习模型到底是如何工作的?它们是否真的像人类理解的那样“思考”或“推理”?这个问题不仅是实践层面的,更是哲学层面的。最近的一篇论文引发了广泛讨论,答案似乎是——至少目前来说,答案很可能是否定的。
苹果公司的AI研究团队发布了一篇名为《理解大型语言模型在数学推理中的局限性》的论文 (https://arxiv.org/pdf/2410.05229),该论文引发了广泛讨论。尽管涉及的符号学习和模式再现等概念较为复杂,但论文的核心观点非常容易理解。
假设提出一个简单的数学问题:
“奥利弗星期五摘了44个猕猴桃,星期六摘了58个,星期天摘了相当于星期五两倍的猕猴桃。奥利弗总共有多少个猕猴桃?”
显而易见,答案是44 + 58 + (44 * 2) = 190。虽然大型语言模型在算术方面并不完美,但它们通常可以正确回答这类问题。然而,如果加上一些随机的无关信息,比如:
“奥利弗星期五摘了44个猕猴桃,星期六摘了58个,星期天摘了相当于星期五两倍的猕猴桃,但其中有5个稍微小了一些。奥利弗总共有多少个猕猴桃?”
这实际上还是同一个数学问题,小猕猴桃依然是猕猴桃,小学生都能理解这一点。然而,最先进的语言模型却容易被这种额外的细节搞糊涂。以GPT-o1-mini的回答为例:
“……星期天有5个猕猴桃比平均值小,我们需要从星期天的总数中减去它们:88(星期天的猕猴桃) – 5(小猕猴桃)= 83个猕猴桃。”
这个例子仅是几百个经过轻微修改的问题中的一个,但大多数类似的问题都会导致模型的成功率大幅下降。
为什么会这样?
为什么一个能够正确解决问题的模型会因为无关的细节而迷失?研究人员认为,这种可靠的失败模式表明模型实际上并没有真正理解问题。虽然它们的训练数据允许它们在某些情况下给出正确答案,但一旦需要进行真正的“推理”,例如是否需要考虑小猕猴桃的数量,模型便会给出奇怪且不直观的结果。
研究人员在论文中指出:
“我们研究了这些模型在数学推理中的脆弱性,并展示了它们的表现随着问题中条款数量的增加而显著恶化。我们推测这种下降是因为当前的大型语言模型不具备真正的逻辑推理能力,它们只是试图重现在训练数据中观察到的推理步骤。”
这种观察与人们常归因于语言模型的特性相一致。比如,当“我爱你”之后常跟着“我也爱你”时,语言模型可以轻松重复这些句子——但它并不是真的“爱”你。同样,虽然它可以遵循它见过的复杂推理链,但当出现稍微偏离的情况时,它的表现就会崩溃,表明它并不是在真正推理,而是在复制它观察到的模式。
一位OpenAI研究员在对该论文表示肯定的同时提出异议,认为通过提示工程可以解决这些失败案例中的错误。然而,论文作者Farajtabar指出,虽然更好的提示设计可能会对简单偏差有效,但模型可能需要成倍增加的上下文数据来应对复杂的干扰——这些干扰对于一个孩子来说几乎是微不足道的。
这是否意味着LLM无法推理?
答案并不明朗。也许当前的大型语言模型并不能“推理”,但它们是否永远无法推理?没人知道。这些概念尚未完全定义,而问题出现在AI研究的最前沿,技术状态几乎每天都在变化。也许LLM“推理”的方式是我们尚未识别或控制的。
这个问题为未来的研究开辟了一个充满可能性的前沿领域,但也提醒我们,面对AI产品的宣传时要谨慎。AI究竟能做到宣传中所说的那些事吗?如果能,它是如何做到的?随着AI成为日常软件工具,这类问题已经不仅仅是学术讨论,而是关乎实际应用的现实问题。
标签:猕猴桃,AI,模型,跟踪报道,黄仁勋,内哥,NVIDIA,推理 From: https://blog.csdn.net/2301_79342058/article/details/143077584