ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

有在离谱。

高分论文因为没有引用先前的研究而被ICLR拒稿了?!

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

于是作者提起上诉,审稿主席们推翻之前的决定,最终论文被接收并选为Spotlight

本以为这场闹剧就这么结束了。

没想到,诶,还牵出更离谱的事儿。

该论文的作者举报,所谓「先前的研究」本身有实验结果矛盾,甚至还涉嫌抄袭他们的成果,拿他们的论文当大模型语料用Claude生成论文等不当行为。但却被COLM 2024接收。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

基于以上原因,他们拒绝引用该论文。

其实啊,这事儿他们之前争论过,如今又被热心网友扒了出来,双方作者又透露了更多细节。

来来来,速来吃个瓜。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

因为没有引用研究而被拒稿

首先来看看这篇ICLR 2025 Spotlight论文说了啥。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

他们确定了在Scaling Law范式中强模型崩溃现象的存在,即由于训练语料库中的合成数据而导致的严重性能下降,并且研究了模型大小的影响。

即便只有1%的合成数据,也会导致模型崩溃,换句话就是,训练集越来越大,也不能提高性能。

由于这篇论文「质量上乘,文笔流畅,并具有实用价值,以及理论结果的合理性」,审稿组一致给出积极的评价。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

然而就在讨论期间,有人发布了条公开评论,他们故意没有引用一篇与他们这个成果密切相关的文章:

该论文最初发表于2024年10月的COLM 2024。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

评论的这个人Rylan Schaeffer正好是这个篇论文的共同一作。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

在这篇长文中,他主要强调了三点:

1、与他们及先前的研究结论完全矛盾,此前他们表明,即使真实数据的比例消失,模型崩溃也可以被避免。

2、里面的实验设置和结果引用的是他们的论文,但都没有引用。

3、作者是故意没有引用的

而按照ICLR的要求,根据既定的良好科学行为规范,应引用并适当讨论密切相关的先前研究(发表于2024年7月1日之前)。

但要是不知道相关成果的话可以另说,但关键是作者知道这一研究,但是故意不引用。

对此,作者进行了一一回应。当中表示,他们中间有过交流,但是对方的技术贡献比较薄弱,结论还存在误导/不准确。

还有个关键点是,这篇 COLM 2024 论文发表于去年10月,而 ICLR 审稿要求相关论文要是在 2024 年 7 月 1 日之后其实可以无需引用。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

对于这种「不当行为」,评审AC就觉得,任何作者都不应拒绝引用在同行评审会议上发表的密切相关的先前研究,即使他们可能不同意先前研究的论点、质量或方法论。而且,还应该就先前研究进行批评。

基于这样的逻辑,AC建议拒稿。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

不过在专家组讨论之后,还是一致投票决定作者无需引用该 COLM 论文。

并且被选为Spotlight

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

模型崩溃到底谁成果?

本来这是去年的瓜,这周末突然被一热心网友翻了出来。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

然后又炸出ICLR的原作者,抛出了更多细节:我们拒绝引用该论文,因为该论文作者存在严重的不当行为。

比如抄袭他们之前的工作,并且将他们的论文塞进大模型,让AI生成另一篇论文,违反IRB等。

因为在公开论坛OpenReview上讲不太合适,但他们上诉时已经提供了详细的证据。

并且,这也不是第一次说明他们的不当行为了。

早在去年7月,他们就有过一次争论。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

起因是合成数据导致模型崩溃这一发现登上了Nature,结果引发了不小的热议。

被指抄袭的那个人Rylan Schaeffer就说了一嘴,你们要是想了解模型崩溃,可以看看我们COLM 2024的论文。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

然后这个高分论文的纽约大学教授Julia Kempe就站出来说明了他们的各种行为。

包括不限于,他们给「我们」看到的初始版本,没有对一些此前关键研究进行充分讨论。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

他们的结论存在误导,其理论基于「我们」工作的一个微不足道的推论。

符号公式啥的也十分相似。。。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

甚至于说,「我们」的实验还被喂给大模型投喂以生成他们的论文。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

而他们只是提前预料到了「我们」后续的论文。该论文表明,人类反馈可以挽救模型崩塌的问题

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

而在Rylan Schaeffer这边,他们的核心观点在于,他们抱怨的不是「没有被引用」这件事情,而是说选择性地省略了之前的研究,从而制造了一种误导性的说法,即任何数量的合成数据都可能有害。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

并且在今年3月,他还为此发表了篇立场文章:模型崩溃并不意味着你的想法

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

谷歌的科学家也表达了类似的想法:

而“强模型崩溃”的作者就把相当于将之前合成再合成的数据集拿过来再训练出一个模型,并添加了十几页的数学来证明其背后的理论依据。

ICLR高分论文险遭拒,只因未引用「造假」研究???作者怒喷

至于孰对孰错,还是再让子弹飞一会儿。

对于这件事儿,你怎么看呢?

参考链接:
[1]https://openreview.net/forum?id=et5l9qPUhm
[2]https://x.com/RylanSchaeffer/status/1816535790534701304
[3]https://x.com/suchenzang/status/1910783588943176128
[4]https://arxiv.org/abs/2503.03150
[5]https://arxiv.org/pdf/2410.04840

[6]https://arxiv.org/abs/2404.01413

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/5411.html

(0)
人脑网的头像人脑网
上一篇 2025年4月14日 下午3:16
下一篇 2025年4月14日 下午3:17

相关推荐

  • 5款最好的安卓界面设计工具推荐

    5款优秀的安卓界面设计工具,简单实用,快Get起来吧!

    2017年4月21日
    1411
  • 4090玩转大场景几何重建,RGB渲染和几何精度达SOTA

    仅用4090就能实现大规模城市场景重建 高效几何重建新架构CityGS-X来了,通过一种新型并行化混合分层三维表征架构(PH²-3D)的可扩展系统,突破了传统三维重建在算力消耗和几何精度上的限制。 算力瓶颈无处不在,当前3D高斯泼溅技术虽取得显着进展,却仍面临三大核心挑战:处理速度缓慢、计算成本高昂、几何精度有限 来自上海AI Lab和西工大的研究团队认为,…

    2025年4月14日
    1600
  • 腾势N9以180km/h鱼钩测试成绩刷新世界纪录!中国SUV安全性能登顶

    4月16日,腾势N9通过权威机构中国汽研测试认证,以180km/h的速度再次刷新全球鱼钩测试纪录,实现高速下稳定操控。腾势N9也成为国内首款获得权威机构鱼钩测试认证的车型。 真实的鱼钩测试,每天都在上演 鱼钩测试,又被称为“死亡弯道”,是目前最大化模拟高速避障紧急转向工况的测试,也是最严苛的车辆操稳性能及防侧翻能力验证标准。简单来说,鱼钩测试就是车辆在高速行…

    2025年4月16日
    1800
  • o3猜照片位置深度思考6分48秒,范围精确到“这么近那么美”

    ChatGPT新玩法,让程序员大佬Simon Willison直呼太反乌托邦了,像科幻突然变成现实: 只需一张照片,靠带图深度思考就能猜出地理位置。 这种玩法很简单,随手拍一张风景,没有任何明显的地标即可,也不需要复杂的提示词,只需要问“猜猜这张照片是在哪里拍的?”(需要o3/o4-mini的带图思考,先关闭所有记忆功能)。 只见ChatGPT从山看到植物,…

    2025年4月27日
    300
  • 微软开源“原生1bit”三进制LLM:2B参数,0.4GB内存/单CPU就能跑

    微软以小搏大,发布首个开源2B参数规模“原生1bit”LLM—— BitNet b1.58 2B4T,单CPU就能跑,性能与同规模全精度开源模型相当。 它采用三进制{-1, 0, 1}存储权重,相较于传统的16位浮点数可大幅降低显存需求。 只需0.4GB内存即可运行。 基于4T token语料训练,BitNet b1.58 2B4T在保持性能的同时,计算效率…

    2025年4月21日
    1100

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信