[返回电脑前线首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[版主管理]
OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密
送交者: gonewithsmoke[☆★★★声望勋衔15★★★☆] 于 2024-04-12 9:31 已读 11984 次 1 赞  

gonewithsmoke的个人频道

【导读】OpenAI内斗「第二弹」来了?外媒惊曝,OpenAI超级对齐团队关键人物忽然被解雇了,理由是有泄密行为。而且,此人还是Ilya的重要盟友和亲信。而身处风暴中心的Ilya,依然未曾露面……

惊天大瓜!

据外媒报道,OpenAI超级对齐团队的2名研究员,因泄露「机密」被正式开除!

而这也是今年3月Sam Altman重掌董事会席位后,OpenAI首次对外公开的人事变动。


被解雇的研究员之一Leopold Aschenbrenner,曾在新成立的超级对齐团队工作。

同时,他也是OpenAI首席科学家Ilya Sutskever的支持者,OpenAI内斗风波后,Ilya至今尚未在公开场合露面。

另一位被解雇的员工Pavel Izmailov,曾负责推理方面的研究,在安全团队亦有贡献。


Leopold Aschenbrenner(左), Pavel Izmailov(右)

值得一提的是,被解雇的这俩人,都是去年OpenAI超级对齐团队新论文的作者。 


不过,目前尚不清楚,两位被解雇员工具体泄露了哪些信息。 

团队关键人物开除为哪般

OpenAI的发展情况,仍然是稳中向好,势如破竹,最近一次员工股票出售中,它的估值甚至一度高达860亿美元。

而超级对齐团队(Superalignment),是OpenAI内部一个颇具话题性的部门。

AI发展到最后,如果成为超级智能,好处是或许能帮我们解决核聚变问题,甚至开拓其他星球,但反过来,这么厉害的它,开始危害人类了怎么办?

为此,在去年夏天,Ilya Sutskever成立了这个团队,来研发控制和指导超级智能的技术。


Aschenbrenner,恰恰就是超级智能对齐团队的关键人物之一。

一个争议就是:这个团队真的有存在的必要吗?

OpenAI内部,员工对此意见不一。

此前的内斗风波,跟这个理念的争议也脱不了干系。

作为OpenAI联合创始人、重大技术突破负责人,Ilya曾与其他董事会成员一起,决定解雇Sam Altman,原因是他缺乏坦诚。

而Altman宫斗归来、重返CEO之职后,Ilya离开了董事会,从此似乎销声匿迹,引来众多网友的猜疑。


又是「有效利他主义」

耐人寻味的是,事件中的众多人物,都有「有效利他主义」(Effective Altruism),有着千丝万缕的关联。

对齐团队关键人物Aschenbrenner,便是有效利他主义运动的一员。

该运动强调,我们应该优先解决AI潜在的风险,而非追求短期的利润或生产力增长。


说到这里,就不能不提大名鼎鼎的币圈大佬、如今沦为阶下囚的FTX创始人Sam Bankman-Fried了,他也是有效利他主义的忠实拥趸之一。 


19岁时毕业于哥大的Aschenbrenner,曾在SBF创建的慈善基金Future Fund工作,该基金致力于资助能够「改善人类长远前景」的项目。 

一年前,Aschenbrenner加入了OpenAI。 

而把Altman踢出局的其他董事会成员,也都被发现和有效利他主义有干系。 


比如,Tasha McCauley是Effective Ventures的董事会成员,后者即是有效利他中心的母组织。 

而Helen Toner曾在专注于有效利他的Open Philanthropy项目工作。 

去年11月Altman重任CEO时,二人也都来开了董事会。 

这样看来,此次Aschenbrenner被开除究竟是因为泄密,还是因为其他原因,就值得探究了。 

总之,Sam Altman看来是跟有效利他主义主义的这帮人杠上了——毕竟他们的理念,实在是Altman理想中AGI(甚至ASI)的最大绊脚石。 

Leopold Aschenbrenner


Leopold Aschenbrenner还在大三时,便入选了Phi Beta Kappa学会,并被授予John Jay学者称号。 

19岁时,更是以最优等成绩(Summa cum laude)从哥伦比亚大学顺利毕业。 

期间,他不仅获得了对学术成就授以最高认可的Albert Asher Green奖,并且凭借着「Aversion to Change and the End of (Exponential) Growth」一文荣获了经济学最佳毕业论文Romine奖。 

此外,他还曾担任政治学的Robert Y. Shapiro教授和经济学的Joseph E. Stiglitz教授的研究助理。 


Leopold Aschenbrenner来自德国,现居风景优美的加利福尼亚旧金山,志向是为后代保障自由的福祉。 

他的兴趣相当广泛,从第一修正案法律到德国历史,再到拓扑学,以及人工智能。目前的研究专注于实现从弱到强的AI泛化。 


Pavel Izmailov


Pavel Izmailov在莫斯科国立大学获得数学与计算机科学学士学位,在康奈尔大学获得运筹学硕士学位,并在纽约大学获得计算机科学博士学位。 


他的研究兴趣广泛,包括机器学习 核心领域内的多个主题,不过主要还是致力于深入理解深度神经网络是如何运作的。 
提升AI的推理和问题解决能力深度学习模型的可解释性,涵盖大语言模型和计算机视觉模型利用AI进行科学发现大规模模型的分布外泛化和鲁棒性技术AI对齐概率深度学习、不确定性估计和贝叶斯方法

此外,他所在团队关于贝叶斯模型选择方面的工作,更是在2022年的ICML上获得了杰出论文奖。 


加入OpenAI之前,他曾在亚马逊、谷歌等大厂实习 

从2025年秋季开始,Izmailov将加入纽约大学,同时担任Tandon CSE系助理教授和Courant CS系客座教授,并加入NYU CILVR小组。 

用GPT-2监督GPT-4

在这项研究中,OpenAI团队提出了一个创新性模型对齐方式——用小模型监督大模型。 

Leopold Aschenbrenner对此解释道,直觉告诉我们,超人类人工智能系统应该能「感知」自己是否在安全地操作。 

但是,人类能否仅通过「弱监督」就从强大的模型中提取出这些概念呢? 



在未来,AI系统可以处理极其复杂的任务,比如生成一百万行代码。 

但是人类需要为其行为设置一些限制,不如「不要撒谎」或「不要逃离服务器」。 

而目前,大模型这个黑盒,人类根本无法理解它们的行为,那我们如何实现这些限制? 

通常情况下,我们会用人类的标注来训练AI系统。 

但是,相比于那些比我们聪明得多的AI系统,人类只能算是「弱监督」。 

也就是说,在复杂的问题上,人类提供的只是不完整或有缺陷的标注。 

好在,强大的模型已经能够明显地,表示出像「这个行动是否危险」这样的概念。 

如此一来,人类就可以要求它说出自己知道的内容,包括那些我们无法直接监督的复杂情况。 


为此,团队设计了一个巧妙的实验——当我们用一个小模型来监督大模型时,会发生什么? 

强大的模型是否会模仿比它弱的监督者,甚至包括它的错误呢?还是说,它能够泛化到更深层次的任务或概念? 

结果,他们惊喜地发现,果然可以利用深度学习的出色泛化能力来获得帮助。 

像GPT-2这种数到十都不会的弱鸡模型,都可以来监督能参加高考的GPT-4,让它恢复到接近完美标注的80%性能。 



不过,目前这种方法只在某些情况下有效,所以如果我们只是简单地应用当前对齐技术(比如RLHF)的话,在超人类模型的扩展上可能遇到困难。 


但作者认为,超越弱监督者的泛化是一个普遍现象,而人类可以通过简单的方法大幅提高泛化能力。 

针对这项研究,未来探索的方向可能包括: 
寻找更好的方法;加深科学理解:我们何时以及为什么能看到良好的泛化?采用类似的设置:实验设置与未来超级对齐问题之间还存在重要的不同——我们能解决这些问题吗?

这项研究让作者最兴奋一点是,他们可以在对齐未来超人类模型的核心挑战上,取得迭代的实证进展。

很多以前的对齐工作要么陷入理论,要么虽然是实证的,但并未直接面对核心挑战。

比如,在对齐领域有一个长期的观点是「引导」。(不是直接对齐一个非常聪明的模型,而是首先对齐一个稍微聪明的模型,然后用它来对齐一个中等聪明的模型,依此类推) 

现在,虽然还远远不够,但OpenAI研究人员已经可以直接进行测试了。 


参考资料: 

https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking?rc=epv9gi 

喜欢gonewithsmoke朋友的这个贴子的话, 请点这里投票,“赞”助支持!
[举报反馈]·[ gonewithsmoke的个人频道 ]·[-->>参与评论回复]·[用户前期主贴]·[手机扫描浏览分享]·[返回电脑前线首页]
帖子内容是网友自行贴上分享,如果您认为其中内容违规或者侵犯了您的权益,请与我们联系,我们核实后会第一时间删除。

所有跟帖:        ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名:密码:[--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助

打开微信,扫一扫[Scan QR Code]
进入内容页点击屏幕右上分享按钮

楼主本栏目热帖推荐:

>>>>查看更多楼主社区动态...






[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 版主申请 ] [ Contact us ]