原创 | 文 BFT机器人
不知道大家最近有没有关注美国电影,有一部关于人工智能反抗人类统治的名为《AI创始者》科幻电影即将在美国好莱坞上映,该电影讲述的是一个原本为人类服务的人工智能,有了自主意识,开始反抗人类的统治,结果在洛杉矶引爆了核弹而引起的一场人类与人工智能的拉锯战。那么关于这部电影,人类是否感到人工智能所带来的的威胁才会以此为题材进行拍摄,来给人类作为提醒呢?
人工智能在未来是造福的制造者还是恐怖的制造者呢?在国内时间为10月27日,据了解,美国人工智能公司OpenAI宣布组织一对名为Preparedness的安全团队,专门针对人工智能所带来的的威胁问题,为评估和减轻人工智能(AI)相关的“灾难风险”。 关于人工智能安全问题,其实OpenAI的创始人Sam Altman在很早之前已经提出了AI对人类造成“灭绝性”灾难的担忧。在近年的五月,他曾联合其他著名的人工智能研究人员发表了一则称“减轻人工智能带来的灭绝性风险应成为全球优先事项”的声明。
OpenAI针对AI安全问题上做了很多的努力,包括在构建越来越安全的AI系统方面,OpenAI在发布任何新系统之前,都会进行严格的测试并邀请外部专家进行反馈,通过强化学习和人类反馈等技术改进模型行为,并建立安全和监测系统。例如,在最新模型GPT-4完成培训后,花了6个多月的时间在整个公司进行测试,以使其在公开发布之前变得更安全、更一致。其次,OpenAI认为,只有让更多的人使用他们的AI工具,才能发现和解决潜在的问题。他们提供了一个开放的API平台,让开发者和用户可以轻松地调用GPT-4等模型,并收集他们的反馈和建议。
同时,他们也设立了一个专门的团队,负责处理用户报告的问题,并及时更新安全指南和政策。最后,OpenAI还注重保护儿童。他们安全工作的一个关键重点是保护儿童。总的来说,OpenAI正积极与各国政府就可能采取的最佳监管形式进行接触,努力构建越来越安全的AI系统,从实际使用中学习,以改进保障措施以及注重保护儿童等方面来解决AI安全问题。
OpenAI还进一步提出,要管理前沿AI模型带来的灾难性风险的必答关键性问题:
- 前沿AI模型在现在和将来被滥用时有多危险?
- 如何才能建立一个强大的框架来监测、评估、预测和防范前沿AI模型的危险能力?
- 前沿 AI 模型权重被盗,恶意行为者会如何选择利用它们?
OpenAI对于AI管理安全问题还作出强调:我们相信,前沿AI模型的能力将超越目前最先进的模型,有可能造福全人类。不过,它们也构成了越来越严重的风险……我们需要确保对高性能AI模型的安全具备必要的理解和基础设施。
OpenAI的联合创始人兼首席科学家Ilya Sutskever在媒体采访中,对AI安全问题也作出了自己的意见和规划,他表示他的首要任务并非制作“下一个GPT或DALL-E”,而是研究如何阻止“超级 AI”的失控。他还认为ChatGPT可能是有意识的,世界需要清醒地认识到AI真正的力量。
“总有一天,人类会选择与机器融合。”
我想对于现在大多数普通人来说,人工智能的威胁他们已经预感存在了,随着人工智能替代越来越多的人力作业,人们几乎是已经对此感到恐惧与担忧。在未来,随着时代的发展需要,人工智能只会越来越普及和先进,如果AI没有得到有效的监管和控制,人工智能技术的发展可能会给人类带来灾难性的后果。
因此,我们需要采取积极的措施和方法,以确保人工智能技术的发展能够与人类的利益和价值观保持一致。这包括加强人工智能技术的监管、制定有效的政策和法律框架、建立人工智能伦理准则等措施。
END
作者 | 春花
排版 | 春花
审核 | 橙橙
注:若您对该文章内容有任何疑问,请与我们联系,将及时回应。
标签:制造者,安全,AI,模型,人工智能,OpenAI,人类 From: https://blog.51cto.com/bftrobot/8102175