微信搜索关注公众号网络研究观获取更多。
今年早些时候,欧洲议会议员批准了欧盟的《人工智能法案》 ,这是支持负责任地使用人工智能的立法领域的一个重要里程碑。
目标是推动以人为本、值得信赖的人工智能的应用,同时支持创新。
该法案的主要要求包括:
● 禁止将人工智能技术用于潜在的有害目的
● 根据人工智能工具的风险高、低或低而有不同的义务
● 围绕标记人工智能内容和向生成人工智能提供商披露训练数据的透明度要求
作为全球首部全面的人工智能法规,这项具有里程碑意义的立法将在未来两年内生效,全球每家企业都应该了解这一点。这不仅是因为它会影响在欧盟 27 个成员国开展业务的任何组织。还因为就像 GDPR 一样, 它很可能为在其他地区引入类似的人工智能特定立法奠定基础。
作为一家在欧盟境内运营的 SaaS 公司,我们完全支持新欧盟人工智能法案所体现的原则,该法案旨在确保负责任地开发和部署人工智能技术。我们致力于遵守这些原则,在我们所有人工智能驱动的解决方案中优先考虑透明度、问责制以及对数据隐私和数据安全的保护。
我们尊重《欧盟人工智能法案》在保护个人和促进合乎道德的人工智能实践方面的目标,但我们主张制定切实可行的法规,同时负责任地推动行业发展,以推动欧盟最先进的人工智能技术。
那么,当我们开始探索该法案的更广泛影响时,负责任的人工智能使用在实践中到底意味着什么?使用任何人工智能解决方案所带来的独特数据隐私问题,以及 Celonis 为确保以合乎道德和负责任的方式使用人工智能而采取的措施。
负责任的人工智能使用围绕数据隐私
人工智能处理大量潜在敏感信息并提取见解的能力可能引发的各种道德问题和数据隐私问题。
当用于训练人工智能的历史数据具有固有偏见时,就会产生有偏见或歧视性的输出。当数据反映社会偏见、错误或过时的规范时,通常会发生这种情况。
此外,人工智能对数据处理不知情的问题还涉及与人工智能技术相关的隐私问题。大多数人不知道人工智能系统如何广泛地分析他们的数据,因此他们不知道这些系统访问的个人信息的深度和广度。例如,人工智能算法可以分析社交媒体活动、在线搜索,甚至个人通信,以分析和预测用户的习惯和偏好。
最后,还有一个问题,那就是删除个人数据极其困难。它在学习过程中深深植根于系统中。人工智能模型不会只被输入数据,处理一次然后就忘掉它。数据塑造了算法的理解,因此真正删除它意味着重新训练整个系统。如果用户请求删除他们的个人数据,通常需要付出巨大努力才能从复杂的深度学习模型中找到并删除数据。这也意味着某些个人数据可能在更长的时间内面临数据泄露的风险。
一般隐私原则必须适用于支持人工智能的系统,因为 GDPR 等隐私立法当然也适用于人工智能系统。隐私专家必须积累对新技术的知识和理解,以便在其组织内提供适当的指导,特别是随着生成式人工智能等技术得到越来越广泛的应用。在数据隐私专业知识和人工智能系统的使用之间建立这种联系是企业确保负责任地使用人工智能最重要的步骤之一。
负责任地使用人工智能的 5 项关键行动
为了确保人工智能技术能够以保护个人信息和尊重个人隐私权的方式使用,R需要结合技术进步、法规和道德考量。如今每家企业都应该采用五项关键策略来负责任地使用人工智能:
1. 使用多样化且具有代表性的训练数据
2. 将个人数据的使用限制在预期目的所必需的范围内
3. 尽可能匿名化个人数据
4. 实施技术来检测和减轻潜在的偏见
5. 对参与人工智能开发的员工进行有关其道德影响的教育
Celonis 对负责任的 AI 的态度
在与法律、信息安全、数据隐私和道德部门的跨部门合作中,我们开发了一套人工智能治理模型,并将其融入我们的开发流程中。这使我们能够构建不仅技术先进而且尊重人权的人工智能系统。除了监测法律发展和关注一般性讨论外,我们还密切倾听客户的意见,以了解他们对我们的服务和产品的具体需求。
负责任的 AI 原则,包括:
● 公平性:减轻潜在的偏见和歧视性结论,以便人工智能系统对使用和受其影响的个人保持公平。
● 透明度和可解释性:在适用且合理预期的情况下,透明度和对系统如何运作的解释以及对用户考虑其角色和预期知识的潜在影响。
● 安全性和可靠性:以安全的方式提供和采用人工智能,同时在各种情况下保持所需的性能水平。
● 数据隐私:提供和采用符合Celonis 全球隐私政策的人工智能,以保护个人数据和个人权利。
● 职责:评估、监控和记录有关 AI 的信息。
现在,欧盟的《人工智能法案》已经获得批准,企业应该密切关注该法案的执行时间表的更新,以及属于每个风险类别的用例的说明。
标签:任地,人工智能,负责,尊重,隐私,法案,数据 From: https://blog.csdn.net/qq_29607687/article/details/139225620