高智慧人工智能的两面性,利用AI和被AI利用
前言:人工智能的热度持续升温,似乎已无处不在,但大家对它的感知却并不显著。这种状况有点像美国 2024 年的总统大选,投票前人们彼此不清楚支持谁,直到最终计票才发现,原来大家心里支持的就是川普。我们总期待着一个更强大的人工智能,甚至幻想它在所有方面都超越人类。但事实上,我们也都明白,人工智能只是工具。我们并不渴望一个能够超越人类几百万年进化成果的工具。若人工智能真的凌驾于人类之上,它还能如何服务人类呢?因此,现在正是大规模应用人工智能的时机,而不是等它拥有超越人类的一切能力时再开始使用。若等到那时,不仅人类可能无力驾驭它,反而可能被它所制约,成为“工具的工具”。
回归本文的主题:微软工程师们准备在 2024 年 11 月把 Orion(GPT-5)部署到 Azure 上。它的确已经准备好上线了,但暂时不会对大众开放。
当 OpenAI 在 2023 年 3 月左右宣布他们在开发 GPT-5 时,大家产生了不少疑虑,一些著名人士甚至签署了一份请愿书,要求停止开发。确认签署的包括 AI 先锋 Yoshua Bengio(图灵奖得主)、AI 研究人员 Stuart Russell 和 Gary Marcus、苹果联合创始人 Steve Wozniak、美国前总统候选人 Andrew Yang,以及《原子科学家公报》主席 Rachel Bronson(反对会毁灭人类的核战争)。Tesla、Twitter 和 SpaceX 的 CEO、OpenAI 的前联合创始人 Elon Musk 也签了名,另外还有 Stability AI 的 CEO Emad Mostaque。
尽管 GPT-4 让 AI 能力有了显著提升,但它仍然有一些显著的局限性。它并没有引发大规模失业或是宣告人类的毁灭,这也意味着签署请愿书的那些人可能有点儿多虑了。
Orion 的阴影浮现:审慎的乐观
GPT-4 发布已经一年多了,而大家对 GPT-5(代号 Orion)的担忧也有所减轻。现在 Orion 终于准备向世界亮相了。与之前的发布不同,它一开始不会通过 ChatGPT 广泛开放。OpenAI 计划先让与其紧密合作的公司优先使用,以便他们开发自己的产品和功能。尽管在 OpenAI 内部,Orion 被视为 GPT-4 的继任者,但目前还不确定它会不会被公开称为 GPT-5。
有报告称 GPT-5 的性能会比之前强 100 倍,虽然这种“强大”的具体含义还不明确。然而,有些局限性是它永远也无法克服的。
首先,我们来看看最新 GPT 版本中存在的一些持续问题。
GPT-4o 的局限性与担忧:
• 语言局限性:尽管 GPT-4o 在多语言能力上有所提升,但在非英语语言上仍然有困难,尤其是那些缺乏高质量数据的语言,可能会导致应答和翻译效果不佳。
• 数据质量问题:一个值得关注的问题是训练数据质量较低,尤其是在中文等语言中,这可能让模型提供不准确或离谱的回答,因为低质量内容太多。
• 事实准确性:即使用户使用了特定的提示词,模型有时也会给出错误或误导性信息,这让人对它的可信度产生怀疑。
• 部分指令执行:即使用户给出一长串清晰简单的指令,LLMs 也可能只执行部分内容。对 AI 来说,这是一个复杂的新型指令集。模型可能会完成它在训练中识别的部分指令,但会跳过或简化其他部分。在得到反馈后,它可能会纠正之前遗漏的内容,但可能会忽略它之前已经完成的部分。
• 资源密集:训练和运行像 GPT-4o 这样的大语言模型需要大量计算资源,这限制了它的可获得性,也因其高能耗引发了环保问题。
• 社会偏见:GPT-4o 可能会无意中延续训练数据中的偏见,导致不公正或歧视性的回答,从而影响公众意见并加剧社会问题。
• 拟人化倾向:用“推理”和“理解”这样的词来描述 AI 模型,容易让人产生不切实际的期望和误解。虽然这样描述让用户更容易理解 LLM,但必须承认,这些模型只是根据模式预测词语,而不是像人类一样真正理解提示。
• 外部红队测试不足:目前的 70 多位专家可能还不足以有效应对所有潜在用户的多样化需求和相关风险。
• 缺乏透明度:OpenAI 没有提供足够的信息,比如关于可持续性指标、即将发布的功能、发布日期或产品路线图等关键方面的信息。
• 高级模型访问限制:可能只有少部分用户能访问到最强大的模型版本,且高昂的成本也让很多用户望而却步。
Orion:前进一步,还是老问题?
OpenAI 对 Orion 的计划充满了神秘感,关于其发布日期和功能的报告也互相矛盾(不过,这种神秘感对某些人来说反而更有吸引力)。尽管预计 Orion 会解决 GPT-4o 的一些缺点,但某些根本性的挑战可能依然存在。
对 Orion 的预期改进
• 事实校对增强:Orion 的一个改进可能是更好的事实校对能力。虽然像 GPT-4 这样的模型偶尔会给出不准确或自相矛盾的回答,Orion 希望通过引用更可靠的数据源并优化响应验证流程来减少这些错误。
• 视频处理增强:GPT-4 在视频内容的处理和理解上能力有限,应用在多媒体场景中有不少限制。而 Orion 预计会大幅提升视频理解和处理能力,可能支持实时视频分析、总结,甚至生成。
• 上下文记忆:Orion 预计会有更好的记忆能力,能够在更长的对话中保持上下文,从而让互动更连贯、更加考虑上下文关联,使模型能够记住对话中的细节并在长时间交流中加以应用。
• 高级多模态能力:尽管 GPT-4 引入了基本的多模态功能,可以处理文本和图像,Orion 可能会在此基础上进一步提升,能够无缝整合多种输入类型,比如文本、图像、视频,甚至音频。
• 伦理和偏见控制:像 Orion 这样的未来模型有望实施更复杂的机制来减少偏见和处理伦理复杂的情况。
• 企业的定制和微调:Orion 可能会允许企业在微调模型上有更多控制,使其能够更好地满足企业的特定需求。OpenAI 可能会提供更高级的 API 和工具,方便公司在客服、市场等场景中根据需要定制语言生成、调整语气和定制模型应答,从而实现更多用途。
• 实时语言翻译改进:Orion 预计会在 GPT-4 的语言翻译基础上进一步提升,力求实现实时的、情境准确的多语言翻译。
未来仍会面临的挑战
未来版本的 GPT 模型预计仍会面临一些问题:
• 数据质量问题:模型依赖于网络规模的数据,而这些数据通常带有偏见和错误,这是一个持久性问题。
• 非英语语言的挑战:尽管在改善非英语语言的响应质量上有努力,但由于高质量训练数据和技术人员稀缺,这些语言的表现可能仍然有限。
• 部分指令执行:即使是简单清晰的指令对 LLM 来说也会变得复杂,特别是当包含多项约束时。LLM 可能会选择它们识别的最接近的模式,往往忽略一些指令。这个局限性可能无法彻底解决。
• 资源密集性:驱动 GPT 模型的 Transformer 架构需要大量资源,这一问题预计会持续。根据报道,如果新数据中心依赖核能,可能会带来全球变暖加速或核废料风险增加等环境灾难。
• 社会偏见的延续:模型的训练数据主要来源于网络,如果不优先考虑高质量、无偏见的资源,这些偏见可能会进一步加深,突显 OpenAI 在数据采集实践中的局限性,也需要更仔细地挑选训练数据。
未来发展路径
为了解决这些局限性,确保 AI 的负责任发展,可能需要采取以下几步:
• 新的语言模型:我们需要一个资源高效的新语言模型,能够有效地学习而无需为每种语言的所有使用场景和细微差别收集大量数据。
• 高质量数据:为了减轻偏见和错误,必须投入创建和策划多样化的高质量数据集,包括谨慎选择数据来源,去除偏见,确保数据的完整性。
• 透明度与责任:OpenAI 和其他 AI 开发者应该在研究开发过程中优先考虑透明度。通过分享模型的局限性、偏见和潜在影响的信息,可以增强公众信任,并引发关于 AI 在社会中作用的讨论。
• 用户教育:教育公众 AI 的能力和局限性有助于管理期望,防止误用。
• 监管监督:政府和国际组织在 AI 开发和部署的监管中扮演重要角色。通过建立适当的监管制度,可以在创新和安全之间取得平衡,监管重点应放在数据隐私、算法公平性和责任上。
为了实现平衡的增长,我们必须确保 AI 的发展是合作的,而不是被少数人主导。公平竞争和透明是推动进步的关键,而不是盲目地宣传。通过真实地讨论挑战和问题,我们可以为人类造福,合理利用 AI 的力量。
标签:语言,AI,模型,现实,Orion,终于,GPT,OpenAI From: https://blog.csdn.net/JellyAI/article/details/143663353