美国《福布斯》双周刊网站发布:
至少一家美国法院将裁定在互联网上训练的生成式人工智能模型构成版权侵犯。该问题将开始向美国最高法院提起诉讼。
如今,一个重大且未被充分认识的法律风险笼罩在整个生成人工智能领域:世界领先的生成人工智能模型是在大量受版权保护的内容上进行训练的,这一事实可能会引发巨额责任并改变该行业的经济状况。
无论是 GPT-4 或 Claude 2 中的诗歌、DALL-E 3 或 Midjourney 中的图像,还是 Pika 或 Runway 中的视频,生成式 AI 模型都能够产生令人惊叹的复杂输出,因为它们接受过世界上许多数字数据的训练。大多数情况下,人工智能公司免费从互联网上获取这些数据,并随意使用它来开发他们的模型。
但是,数以百万计最初真正创造了所有这些知识产权的人——那些写书、写诗、拍照、画画、拍摄视频的人——对知识产权是否以及如何被拥有发言权? AI从业者使用?他们是否有权获得人工智能模型所创造的部分价值?
这些问题的答案将取决于法院对“合理使用”这一关键法律概念的解释。合理使用是一个已经存在了几个世纪的完善的法律原则。但它在新兴的生成人工智能领域的应用产生了复杂的新理论问题,而没有明确的答案。
“机器学习领域的人们不一定意识到合理使用的细微差别,同时,法院裁定某些引人注目的现实世界示例不受合理使用保护,但这些相同的示例看起来像是人工智能正在淘汰,”斯坦福大学研究员彼得·亨德森说。“这一领域的诉讼结果存在不确定性。”
这些问题将如何得到解决?通过个案和法院裁决。
将合理使用原则应用于生成人工智能将是一项复杂的任务,需要创造性思维和主观判断。问题双方都会有可信的论据和站得住脚的结论。
因此,如果明年至少有一家美国法院裁定 GPT-4 和 Midjourney 等生成式人工智能模型确实侵犯版权,并且构建这些模型的公司应对其知识产权所有者负责,请不要感到惊讶。模型经过训练。
这不会解决问题。美国其他司法管辖区的其他法院,面对不同的事实模式,很可能会得出相反的结论:生成式人工智能模型受到合理使用原则的保护。
该问题将开始一直提交到美国最高法院,最终将提供决定性的法律解决方案。(通往国家最高法院的道路漫长而曲折;不要指望最高法院明年会就这个问题做出裁决。)
与此同时,大量诉讼将会接踵而至,大量和解将通过谈判达成,世界各地的律师将忙于处理各种判例法。数十亿美元将悬而未决。
NVIDIA AI 和法律伦理主管NIKKI POPE表示:
AI 安全将成为核心议题:头部 AI 企业之间的合作将加快稳健且安全的 AI 系统的研发速度。预计各个行业将采用新的标准化安全协议和最佳实践来保障生成式 AI 模型的一致且高度安全性。
企业将更加关注 AI 系统的透明度和可解释性,并将使用新的工具和方法阐释复杂 AI 模型的决策过程。由于整个生成式 AI 生态系统都会将安全问题作为核心,预计 AI 技术将变得更加可靠、可信且符合人类的价值观。
Hanzo CEO Julien Masanes预测:
2024年,我们将看到重点从仅仅展示人工智能(AI)的能力转变为将其实际整合到业务运营中。公司将试图摆脱“试验性停滞”的常见陷阱,即组织陷入无休止的AI测试循环而不进行全面实施。Masanès建议,摆脱这一陷阱的关键是优先考虑基于其实际价值、采用度和可行性的AI应用,重点是针对核心业务成果,如客户获取或服务改进。AI在电子发现(eDiscovery)中的实际应用是有效评估法律操作中的相关性,无缝集成到现有工作流程中,提高决策速度。企业将采用这种战略方法,专注于现实世界的应用和逐步变化,标志着从AI实验到进化转型的过渡。
TypeLaw的首席执行官Chris Dralla预测:
2024年将有第一份由生成型AI撰写的诉状提交给美国最高法院。而且法院不会意识到这是由AI撰写的诉状。
公司已经使用TypeLaw AI自动化来格式化和编辑提交给最高法院的诉状,而使用生成式AI来起草的诉状已经很合乎人类的逻辑思维方式。
未来律师将花费更少的时间准备法庭辩论,因为AI可以处理案件的技术和程序方面,律师将会花更多时间思考案件本身。
标签:预测,AI,模型,生成式,诉状,2024,人工智能,使用 From: https://blog.51cto.com/u_16417045/9254517