首页 > 其他分享 >告密者斯诺登:永远不要信任 OpenAI 或其 ChatGPT 等产品|TodayAI

告密者斯诺登:永远不要信任 OpenAI 或其 ChatGPT 等产品|TodayAI

时间:2024-06-17 12:28:54浏览次数:25  
标签:AI Nakasone 员工 安全 OpenAI 公司 ChatGPT TodayAI

为什么 OpenAI 变得越来越难以信任

OpenAI,一家以开发先进人工智能技术而闻名的公司,正面临越来越多的信任危机。近期,一些令人不安的迹象使人们对这家公司的透明度和安全性产生了质疑。

首先,在 OpenAI 的旧金山办公室外,有一些身份不明的秘密保安人员,这些人的出现给当地社区带来了不安。据《旧金山标准报》报道,邻近宠物店的收银员表示,OpenAI 的办公室有一种“秘密的氛围”,并且有员工看到类似秘密保安的男子站在大楼外,却不透露他们的雇主是 OpenAI 。一位邻近企业的员工说:“ OpenAI 不是一个坏邻居,但他们很秘密。”

最近,OpenAI 宣布任命前美国国家安全局(NSA)局长 Paul Nakasone 进入董事会。Nakasone 不仅领导过 NSA ,还曾是美国网络司令部的负责人。OpenAI 表示,Nakasone 的聘用代表了公司对安全和保障的承诺,并强调了随着人工智能的发展,网络安全的重要性。

Nakasone 在一份声明中说:“ OpenAI 对其使命的奉献与我在公共服务中的价值观和经验高度一致。我期待为 OpenAI 确保通用人工智能的安全和造福全球人民的努力做出贡献。”

然而,批评人士对 Nakasone 的聘用表示担忧。他们认为,这一任命可能象征着对监视的进一步推动。美国告密者斯诺登(Edward Snowden)在 X 平台(前身为 Twitter )上发文称,Nakasone 的聘用是“对地球上每个人权利的有计划的背叛”。他写道:“他们完全暴露了:永远不要信任 OpenAI 或其产品(如 ChatGPT 等)。”他在另一条评论中提到,“人工智能与过去二十年来积累的大规模监视数据的交集,将把真正可怕的权力置于少数不受监管者的手中。”

另一方面,弗吉尼亚州的民主党参议员、参议院情报委员会主席 Mark Warner 对 Nakasone 的聘用表示支持,称这是一个“巨大的收获”。Warner 对 Axios 表示:“在广泛的安全社区中,没有人比他更受尊敬。”

OpenAI 可能需要 Nakasone 的安全专业知识,尤其是在安全问题上。四月,OpenAI 解雇了前董事会成员 Leopold Aschenbrenner ,原因是他发送了一份详细描述“重大安全事件”的备忘录。他描述公司的安全措施“严重不足”,无法防止外国势力的盗窃。不久之后,OpenAI 的“超级对齐”安全团队——专注于开发与人类利益兼容的人工智能系统的团队——在公司的两位最著名的安全研究员辞职后突然解散。

其中一位离职的研究员 Jan Leike 表示,他与 OpenAI 领导层在公司核心优先事项上已经有很长时间的分歧。OpenAI 的首席科学家 Ilya Sutskever 起初成立了“超级对齐”安全团队,但他对离职的原因更加谨慎。不过公司内部人士表示,他因为在未遂的 CEO Sam Altman 罢免行动中的角色而处于不稳定状态。Sutskever 不赞同 Altman 对人工智能发展的激进方法,这导致了他们之间的权力斗争。

随着这些问题的出现,OpenAI 的透明度和安全性受到越来越多的质疑。公司是否能在保持创新的同时,重建公众信任,仍是一个悬而未决的问题。

OpenAI 员工声称被噤声,要求警告权以提高 AI 安全性


 

前些日子,OpenAI 的一群现任和前任员工,以及来自 Anthropic 和 Google DeepMind 的几位同事,联合发起了一项倡议,呼吁“警告权”,以便向 AI 领导层和公众就 AI 安全问题发出警告。他们对公司责任、过度扩张和 AI 工作人员被噤声表示担忧。

这些员工希望通过强有力的举报人保护措施、安全的匿名报告途径,以及废除限制现任和前任 AI 员工发言的保密协议和非贬损协议,来保障发声的自由。他们还要求 AI 公司支持开放批评的文化,只要商业机密能够得到保护。

这项倡议得到了 AI 领域“教父”Yoshua Bengio 和 Geoffrey Hinton 以及知名 AI 科学家 Stuart Russell 的联署支持。倡议者坚信 AI 将为人类带来前所未有的利益,但同时也警示技术风险,包括行业内权力集中和对担忧员工的噤声。

“OpenAI 首席执行官 Sam Altman 曾表示,‘你不应该相信一家公司,当然也不应该相信一个人来管理 AI’,我们对此表示赞同,”前 OpenAI 员工兼联盟成员 William Saunders 在声明中说。“在处理潜在危险的新技术时,应该有途径与独立专家、政府和公众分享关于风险的信息。”

Saunders 补充道,“如今,最了解前沿 AI 系统工作原理及其部署风险的人们,由于可能的报复和过于广泛的保密协议,无法完全自由地发言。”

这项倡议的宣布正值 Vox 的一篇报道之后,该报道揭示了 ChatGPT 的创造者 OpenAI 威胁要收回员工的已授予股权——许多硅谷员工会接受这些股权以替代更高的薪水——如果他们不签署严格的保密协议。对此报道,OpenAI 首席执行官 Sam Altman 表示他不知道有关“用已授予股权换取沉默”的条款,并表示“真心感到尴尬”。然而,Vox 的后续报道显示,Altman 和其他 OpenAI 高管签署了文件,暗示他们直接知晓这一非常规条款。

“为了让 OpenAI 和其他 AI 公司在安全性、安全性、治理和道德方面对自己的承诺负责,”前 OpenAI 员工、目前 Alignment Research Center 研究员 Jacob Hilton 在推特线程中写道,“公众必须相信员工不会因发声而遭到报复。”Hilton 补充说,目前为止,AI 公司向公众提供保证的主要方式是通过自愿的公开承诺。但这本质上非常脆弱,因为“公众没有好的方式判断公司是否真正坚持这些承诺,公司也没有透明的动机。”

OpenAI 最近完全解散了其“超级对齐”安全团队,这当然不会增加人们对该公司优先考虑安全和道德努力的信心。在其他地方,谷歌的不安全搜索 AI 也在最近几周遇到了麻烦。

对于“警告权”信件,OpenAI 发言人告诉《纽约时报》,这家 AI 公司“为我们提供最有能力和最安全的 AI 系统的记录感到自豪,并相信我们在解决风险方面的科学方法。”他补充说,“鉴于这项技术的重要性,我们同意严格的辩论至关重要,我们将继续与政府、民间社会和世界各地的其他社区接触。”他还指出,OpenAI 设有匿名诚信“热线”。

谷歌发言人根据《纽约时报》的报道,拒绝回应。Futurism 也联系了 Anthropic,但未得到回应。

对于任何新兴技术来说,安全和道德都是重要的考虑因素。鉴于 AI 公司领导层经常谈论他们的技术可能会毁灭整个世界、影响选举或对人类造成其他短期到长期的破坏,这在利润丰厚且高度集中的 AI 泡沫中显得尤为真实。但安全也可能意味着进展放缓,这在硅谷的 AI 竞赛中非常不利——而这封信表明,这一现实反映在 AI 公司的内部,那里可能并不总是有关于 AI 安全和可能风险的真正和富有成效的对话自由。

标签:AI,Nakasone,员工,安全,OpenAI,公司,ChatGPT,TodayAI
From: https://blog.csdn.net/ponderai/article/details/139740391

相关文章

  • ChatGPT学习之旅 (6) 聊聊AI人设
    大家好,我是Edison。上一篇:Prompt终极用法通过前面5篇内容我们了解了从基础到高级的Prompt用法,今天我们来聊聊AI的人设!打造人设的步骤:只要3步在Prompt实践中,我们了解到需要给AI打造一个人设,这样它才能比较精确地get到场景。其实,人设的本质就是有效地给AI洗脑,引导GPT专注于解决......
  • (26-4-01)基于OpenAI和LangChain的上市公司估值系统:OpenAI API和Langchain探索(1)OpenAI
    10.5 OpenAIAPI和Langchain探索接下来使用OpenAIAPI与Langchain对解析后的文档进行总结,从中提取有价值的信息。这将帮助我们更好地理解文档中的内容,包括业务情况、风险因素、财务状况分析等,并提供更简洁的概括信息。10.5.1 OpenAI接口编写文件openai_interface.py,实......
  • 【AI 大模型】AI 发展和业务分类 ( 人工智能发展阶段 | AI 业务分类 | ChatGPT 分析 |
    文章目录一、AI发展和业务分类1、人工智能ArtificialIntelligence发展阶段2、AI业务涉及到的问题3、AI业务分类二、ChatGPT分析1、ChatGPT原理2、ChatGPT训练3、ChatGPT可以解决的问题4、ChatGPT不能解决的问题一、AI发展和业务分类1、人工智能......
  • ChatGPT高效使用小技巧
    如果你还是不会ChatGPT使用方法的话,请点赞、关注、评论,我将会持续更新我的使用小技巧技巧1:让ChatGPT扮演专家角色ChatGPT的大量训练数据源自互联网,这赋予它几乎所有人类在互联网上公开发表过的知识。然而,由于ChatGPT的训练目的是预测下一个可能的单词,它通常生成的文本趋于普......
  • 最新支持ChatGPT3.5/GPT4.0网站源码,AI系统源码,ChatGPT运营网站系统,支持GPTs应用、AI绘
    一、文章前言SparkAi创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。支持GPT-4o大模型、文档分析、识图图片理解、GPTs应用、GPT语音对话、联网提问、GPT-4全模型、DALL-E3文生图、GPT4-All联网搜索模型、思维导图、......
  • ChatGPT三法助我搞科研
    世界顶级期刊《Nature》2024年4月8号发了一文:ThreewaysChatGPThelpsmeinmyacademic中文意思是:ChatGPT三法助我搞科研。作者DritjonGruda是《PersonalityandIndividualDifferences》和《PsychologyofLeadersandLeadership》学术杂志的编辑。这篇文章主要讨论了利......
  • AI大佬吴恩达+OpenAI团队编写:面向大模型入门者的 LLM CookBook 汉化版
    粉丝们久等了!!!我又来更LLM大模型的必备读物啦!这次给大家推荐的是AI圈无人不知的吴恩达大佬+OpenAI团队一起编写的大模型入门文档,也就是这本:大型语言模型(LLM)的权威文档<面向开发者的LLM入门PDF>在Github上已经高达56.8kstar了,这含金量啧啧啧朋友们如果有需要这份《LLMC......
  • AI大佬吴恩达+OpenAI团队编写:面向大模型入门者的 LLM CookBook 汉化版
    粉丝们久等了!!!我又来更LLM大模型的必备读物啦!这次给大家推荐的是AI圈无人不知的吴恩达大佬+OpenAI团队一起编写的大模型入门文档,也就是这本:大型语言模型(LLM)的权威文档<面向开发者的LLM入门PDF>在Github上已经高达56.8kstar了,这含金量啧啧啧朋友们如果有需要这份《LLMC......
  • OpenAI函数调用:使用Assistants API函数工具的一个示例
    AreyoulookingtoexpandGPT'scapabilities?CheckoutthistutorialforacompleteexampleofanAIAssistantthatcansendemailswheneverweaskitto.您是否希望扩展GPT的功能?查看这个教程,它提供了一个完整的示例,展示了一个AI助手如何在我们要求时发送电子邮......
  • 从概念到现实:ChatGPT 和 Midjourney 的设计之旅
    在现代技术的世界中,人工智能(AI)正迅速演化,并对我们的生活产生深远的影响。其中,ChatGPT和Midjourney是两个备受瞩目的项目,它们的设计之旅告诉我们如何将抽象概念转化为现实应用。本文的第一部分将关注ChatGPT,探讨它的发展历程、技术细节和对话生成方面的应用。ChatGPT是由OpenAI......