OpenAl解散AGI团队 老将辞职引发关注

admin 阅读:71 2024-10-25 12:08:23 评论:0
OpenAI长期政策研究员迈尔斯·布伦戴奇宣布辞职,他负责的通用人工智能(AGI)准备工作组也被解散并入其他团队。布伦戴奇在OpenAI工作了六年多,是公司中少数坚持遏制人工智能风险的老员工之一。OpenAI章程中定义AGI为“在大多数经济价值较高的工作中,能够胜过人类的高度自主系统”。布伦戴奇的任务是确保安全、可靠、有益地开发、部署和管理能力日益增强的人工智能系统。然而,在离职声明中,布伦戴奇直言无论是OpenAI还是其他前沿实验室,都没有为实现AGI做好准备,世界还远未准备好迎接强大的AGI。他认为现有差距巨大,打算在职业生涯剩余时间里致力于人工智能政策方面的工作。布伦戴奇计划加入一个非营利组织,以便更自由地发表文章,独立从事人工智能政策研究。他在OpenAI内部感受到越来越多的限制,特别是在发布文章审查方面的限制变得太多。此前,OpenAI首席执行官山姆·奥尔特曼曾试图解雇海伦·托纳,原因是她对OpenAI的安全承诺提出过多批评。布伦戴奇的辞职标志着OpenAI内部关注人工智能安全和治理的声音正在消亡,剑桥大学潜在风险研究中心研究员海顿·贝尔菲尔德称其为“一个时代的终结”。2019年OpenAI首次成立盈利部门时,一些老员工就对此表示担忧,但最终接受了转变。然而,随着时间推移,情况发生了显著变化。特别是在2023年11月奥尔特曼被短暂解雇后,员工们对OpenAI的文化和领导层产生了质疑。尽管奥尔特曼复职,但这一事件只是OpenAI内部动荡的开始。自那时起,OpenAI失去了大量关注AGI安全的员工。前超级对齐团队负责人伊利亚·苏茨克沃尔和扬·莱克在离职时也公开批评了OpenAI的安全文化。莱克表示,在过去几年里,OpenAI的安全文化已让位于光鲜亮丽的产品。布伦戴奇表达了对整个行业在AGI安全问题上的担忧,呼吁国会大力资助美国人工智能安全研究所,并提倡通过国际合作解决未来AGI非常棘手的安全问题。

本文 htmlit 原创,转载保留链接!网址:https://web.bjnsf.org/zuowen/8388.html

可以去百度分享获取分享代码输入这里。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

发表评论
搜索
排行榜
标签列表