当前位置: 代码网 > 科技>人工智能>智能机器人 > OpenAI 又一吹哨人离职!拉响安全警报,风险隐患实在太大

OpenAI 又一吹哨人离职!拉响安全警报,风险隐患实在太大

2024年05月27日 智能机器人 我要评论
OpenAI 离职潮中,又一研究员官宣离职,并且还发出了“警告”信息。她在 2019 年加入 OpenAI,参与过 GPT-4 和 DALL・E 2 的开发工作,还在 2020 年领导了 OpenAI 第一个全公司范围的“红队”测试。

openai 离职潮中,又一研究员官宣离职,并且还发出了“警告”信息:

ilya 和 jan leike 的担忧正是我的担忧,还有一些额外的问题。

我们需要做更多事来改进决策流程等基础性的事务,包括问责制、透明度、文档、策略执行、如何谨慎使用技术,以及减轻不平等、权利和环境影响的措施。

主人公名叫 gretchen krueger(简称格姐),是 openai 的 ai 策略研究员。

她在 2019 年加入 openai,参与过 gpt-4 和 dall・e 2 的开发工作,还在 2020 年领导了 openai 第一个全公司范围的“红队”测试。

此番出走,除了提到 openai 的决策透明度问题,她还隐约暗示:

一般来说,科技公司剥夺那些寻求追究其责任的人的权力的方法之一,就是在那些提出担忧或挑战其权力的人之间制造分裂。我非常关心防止这种情况发生。

算上 ilya 和 jan leike,格姐已经是这个月第 3 位从 openai 离开的安全相关人员 —— 她提交辞呈还是在 ilya 和 jan leike 确认离职之前。

本月第 3 位离职的 openai 安全成员

先来简单回顾整个事情。

格姐是 openai 的 ai 策略研究员,关于这个岗位的职责,有网友帮大家在评论区科普了。

由于感受到 openai 存在巨大安全风险,格姐于 5 月 14 日通知公司自己即将离职。

在这之后,openai 首席科学家 ilya 正式宣布他将离开公司去追求“下一个计划”。

紧随 ilya 离职的,还有斥责 openai“产品优先于安全”的超级对齐负责人 jan leike。

那么,到底是什么风险使得格姐早就想跑呢?

总结下来其实很简单,但也很关键:openai 在安全问题决策上不够透明缺乏对决策人的问责

(ai 透明度等)问题对所有人都很重要,它们影响着未来如何被规划、由谁来规划。

我想强调的是,这些担忧不应该被误读为狭隘、投机或脱节的。它们并非如此。

另外,格姐还特意提及了为了保留对 openai 的批评权、放弃 85% 家庭资产的 openai 前员工 daniel kokotajio,表示感谢他的勇气,使她有机会说出想说的。

此前,openai 被曝离职需签封口协议,“不签字就会影响股权”。

这件事的最新进展由格姐的另一位前同事 jacob hilton 曝出:

在 vox 的深度调查发表之后,openai 已经联系了前员工们,解除了此前签署的保密协议。

回到安全的话题上,格姐还是给老东家保留了体面:

openai 仍在领导这些重要的工作。我也将继续对此保持关注和兴奋。

不过格姐的出走,还是引发更多网友的好奇:

  • 当 ilya 等人还在的时候,openai 如何决定重大安全问题?

  • 当一批重要安全成员离开后,openai 当前又如何决定安全问题?

谁决定 openai 的安全路线?

在关注谁握有最终决策权之前,我们先来看看 openai 的安全团队有哪些。

从官网公布的信息来看,openai 目前的安全团队主要分为三大块。

  • 超级对齐团队:拿出 20% 总算力,瞄准如何控制还不存在的超级智能

  • safety systems 团队:专注于减少现有模型和产品(例如 chatgpt)的滥用

  • preparedness 团队:绘制前沿模型的新兴风险

首先,作为核心的超级对齐团队由 ilya 和 jan leike 在 2023 年 7 月发起。

结果不到 1 年,两位灵魂人物接连出走,超级团队分崩离析。

其次,safety systems 成立于 2020 年,该团队下面有 4 个部门,包括安全工程团队、风险管理团队、监控与响应团队以及政策与合规团队。

它曾负责了 gpt-3 和 gpt-4 的安全性评估。

当初领导它的 dario amodei,后来离开 openai 创办了 anthropic。

而且 dario amodei 之所以离职,原因恰恰在于想建立一个更可信的模型

最后,openai 于 2023 年 10 月宣布建立 preparedness 团队。

该小组由麻省理工可部署机器学习中心主任 aleksander madry 领导,旨在“跟踪、预测和防范未来人工智能系统的危险”,包括从 ai“说服和欺骗”人类的能力(如网络钓鱼攻击),到恶意代码生成能力。

目前该团队主要进行模型能力评估、评价和内部红队(即对模型进行渗透测试的攻击方)。

说了这么多,但 ——

不管 openai 有多少安全团队,其风险评估的最终决策权仍掌握在领导层手中。

宫斗风波之前,openai 核心管理团队中共有四名成员:ceo sam altman、总裁 greg brockman、首席科学家 ilya sutskever、cto mira murati。

虽然一开始 ilya 发动“宫变”让 sam altman 短暂下台,但很快奥特曼“熹妃回宫”,反而是 ilya“消失”了 6 个月。

且回归后的 sam altman 身边基本都是自己人了,包括最新顶替 ilya 的 jakub。

不过关于安全问题的决策权,虽然领导层是决策者,但董事会拥有推翻决策的权利。

目前 openai 的董事会成员包括,salesforce 共同首席执行官、董事会主席 bret taylor,经济学家 larry summers、quora 首席执行官 adam d’angelo、前比尔及梅琳达・盖茨基金会 ceo sue desmond-hellmann、前索尼娱乐总裁 nicole seligman、instacart 首席执行官 fidji simo 以及奥特曼本人。

参考链接:

  • [1]https://x.com/gretchenmarina/status/1793403475260551517

  • [2]https://futurism.com/the-byte/openai-cryptic-warning

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com