今天小编分享的科技经验:新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生,欢迎阅读。
时隔两个月,字节模型遭攻击事件又有新后续。
今年 10 月份,字节商业化内部模型商业化内部模型训练遭实习生攻击一事闹得满城风雨,后这位名为田柯宇的实习生便被开除并被要求赔偿字节的侵权损失 800 万元及合理支出 2 万元。
本以为这个瓜会以字节的 " 雷霆手段 " 告一段落,没想到就在刚刚,事件迎来了大扭转。田柯宇和字节合作的论文竟然被人工智能顶级会议 NIPS 被评为了 Best Paper。
网友们也是纷纷下场吃瓜:
有人感叹:有点小说那意思了,昨日的我你爱答不理,今日的我你高攀不起。
也有人劝字节及时止损,抓紧请 " 老师 " 回家。
更有人支持田柯宇直接下场创业。
不过也不乏理智的网友:优秀永远也不能成为作恶的通行证。
字节「雷霆手段」始末
两个多月前,网上流传出一则消息," 字节大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了 8000 多张卡,带来的损失可能超过千万美元。"
10 月 19 日,官方发布公告对这件事进行了澄清,确有商业化技术团队实习生发生严重违纪行为,涉事实习生已于 2024 年 8 月被公司辞退,并将其行为同步给行业联盟和所在学校,交由校方处理。
紧接着 11 月 5 日,字节还专门发布了面向内部全员的《企业纪律与职业道德委员会通报》,对这件事件进行了更详细地披露。
通报提到,2024 年 6 月至 7 月,集团商业产品与技术部门前实习员工田某某,因对团队资源分配不满,通过编写、篡改代码等形式恶意攻击团队研究项目的模型训练任务,造成资源损耗。字节方已与其解除实习協定,同步阳光诚信联盟及企业反舞弊联盟,并同步至其就读学校处理。
AI 科技评论了解到,这名实习生本科毕业于北京航空航天大学軟體学院,研究生就读于北京大学,师从王立威教授。研究兴趣为深度学习的优化与算法。自 2019 年起,他在商汤和字节跳动实习研究,具体包括超参数优化、强化学习算法、自监督的新型算法。
而就在事件处理期间,他却多次对外否认,声称当时攻击训练任务的人不是自己,而是其他的实习生,甚至还报警称自己遭到了造谣。
这一举动直接惹怒的老东家字节,直接一纸诉状把他告上法庭,要求其索赔公司的侵权损失 800 万元及合理支出 2 万元。
然而让人感到抽象的是,而时至今日,田柯宇的领英主页上还明晃晃的写着几个大字:勿信谣勿传谣
「作恶者」搞出大新闻
12 月 4 日凌晨,田柯宇获得 Best Paper 的消息在网上不胫而走。
AI 科技评论第一时间去核实了信源的可靠性,确认田柯宇的论文确实是被 NeurIPS 评为了 Best Paper,并且早在 2023 年,田柯宇的一项工作就曾被 ICLR 评选为 Spotlight 论文。
在这篇 Best Paper 中,田柯宇和其所在团队首次提出了一种新的影像生成框架,这个框架在影像合成的质量、多样性、数据效率和推理速度方面首次超越了强大的扩散模型,并且具有很好的扩展性和零样本任务泛化能力,并且这个项目已经在 Github 上积累了 4.4k 多颗星。
人工智能超级顶会 NeurIPS
让田柯宇又火了一把的 NeurIPS,是被称为「人工智能超级顶会」的存在。
NeurIPS 全称为神经信息处理系统大会,是机器学习领網域公认的顶级会议,与 ICML(国际机器学习会议)和 ICLR(国际学习表征会议)齐名,被认为是难度最大、水平最高、影响力最强的会议之一。在中国计算机学会的国际学术会议排名中,NeurIPS 被列为人工智能领網域的 A 类会议。
除此之外,雷峰网还了解到,NeurIPS 的最佳论文奖评选标准也非常严格,NeurIPS 2024 共收到 15671 篇有效论文投稿,比去年增长了 27%,但最终接收率低于 2023 年,仅有 25.8%。
而那些获得 NeurIPS 最佳论文奖的研究者,往往代表了神经科学和人工智能领網域的前沿成就,他们的工作不仅在学术界产生重大影响,也在工业界引起广泛关注,成为引领研究趋势的关键力量。
最佳论文奖之外,NeurIPS 另外一个重磅奖项为时间检验奖(Test-of-Time Award),颁发给那些在 NeurIPS 会议上发表的论文,这些论文在 10 年后仍然显示出深远的影响和持久的价值。今年有两篇论文获得这一奖项,分别为 Ilya Sutskever 的 Seq2Seq 和 Ian Goodfellow 的生成对抗网络 GAN。
至于字节会如何应对这件事,还是一言不发?我们拭目以待。
获奖地址:https://neurips.cc/virtual/2024/poster/94115
论文地址:https://arxiv.org/abs/2404.02905
项目开源地址:https://github.com/FoundationVision/VAR