商城首页欢迎来到中国正版软件门户

您的位置:首页 >我熬秃头写的论文,你用ChatGPT一秒审完?这场学术丑闻,彻底激怒了科学家

我熬秃头写的论文,你用ChatGPT一秒审完?这场学术丑闻,彻底激怒了科学家

  发布于2026-04-25 阅读(0)

扫一扫,手机访问

全球最顶尖的 AI 学术会议,正在被 AI “攻陷”

这事儿听起来像个地狱笑话,但很不幸,它正在成为现实。一组最新数据揭示了一个颇为讽刺的局面:在即将到来的 ICLR 2026 会议上,竟有超过1.5 万份审稿意见被判定完全由 AI 代写。

想象一下这个场景:你耗费心血完成的论文,审稿人或许压根没细读,就直接交给 ChatGPT 生成了一堆看似全面、实则空洞的“正确废话”,更离谱的是,对方还可能煞有介事地批评你文中根本不存在的“数据错误”。

曾经代表学术严谨与信任的“同行评审”机制,正悄然演变成一场由 AI 生成内容注水的游戏。

具体数据显示,约 21% 的评审意见被判定为“全自动生成”,甚至连投稿论文本身也已混入大量 AI “枪手”。面对这场史无前例的信任危机,ICLR 组委会终于不再沉默,祭出了一系列堪称史上最严厉的应对措施。

怀疑成真:研究者收到“诡异”评审报告

“评审意见异常啰嗦,看似列了不少要点,却要求进行非标准的统计分析。”美国卡内基梅隆大学的 AI 研究员格雷厄姆·诺伊比格的吐槽,道出了许多投稿人的共同困惑。在社交媒体上,数十名学者纷纷附议,指出评审中间出现了“幻觉”引用,反馈内容冗长而模糊,让人摸不着头脑。

丹麦哥本哈根大学的德斯蒙德·埃利奥特团队,则遭遇了更令人啼笑皆非的评审——审稿人竟围绕论文中完全不存在的数值结果展开评论,并据此打出了最低分,导致论文命运悬于一线。团队中的博士生凭直觉判断:这很可能出自大型语言模型的手笔。

数据揭秘:数万份评审惊现 AI“魅影”

怀疑终需实证。在诺伊比格公开提出质疑后,专业 AI 文本检测公司 Pangram Labs 介入并展开了大规模扫描,对象是 ICLR 2026 收到的 19490 篇投稿和 75800 份评审意见。

扫描结果令人咋舌:

· 约 21% 的同行评审,总计 15,899 份,被判定为完全由 AI 生成。

· 超过一半的评审意见中,都检测到了 AI 使用的迹象。

· 投稿论文也未能幸免:1%(199 篇)被判定为完全 AI 生成,另有 9% 的投稿中包含超过 50% 的 AI 生成文本。

“人们之前只是隐&隐怀疑,但缺乏具体证据。”Pangram 首席执行官马克斯·斯佩罗指出,他们的分析为这场风波提供了坚实的数据支撑。

会议硬核回应:用 LLM 糊弄?直接重罚

面对大规模 AI 滥用,ICLR 2026 组织方反应迅速,发布了一份措辞强硬的官方声明。会议高级项目主席巴拉特·哈里哈兰坦承,这是会议首次在如此大规模上遭遇此类问题。

会议的具体措施堪称雷霆手段:

· 论文投稿:用 AI 不声明=直接拒稿
会议方明确规定,大量使用大语言模型撰写论文却不进行声明,将导致稿件被直接拒绝。“利用 LLM 胡编乱造、虚构文献、逻辑混乱?这些行为都将被视为违反学术道德准则。”会议已启动 AI 检测工具与领域主席人工核查的双轨机制,态度非常明确。

· 同行评审:AI 写可以,内容你全责
针对评审环节,声明划清了责任红线:使用 LLM 辅助撰写评审可以,但评审人必须对内容的准确性和严谨性负全部责任。一旦出现“胡扯、虚构引用”等情况,将直接记为违规,后果可能包括评审人自己投稿的论文被直接拒稿。

· 作者遇到问题评审?立即举报
· 严厉处罚:结果全部公开
在接下来的1-2周内,领域主席和高级领域主席将对论文与评审进行严格审查,所有处理结果都将公开。会议方的表态毫不含糊:“我们早已预判 LLM 可能会带来问题。现在,是时候动真格了。”

背后困局:评审压力与学术诚信的拉锯

这场风波也折射出 AI 学术界繁荣表象下的结构性隐忧。

· 评审负荷过重:数据显示,ICLR 2026 的每位评审平均需要在短短两周内完成 5 篇论文的审阅。“这远远超出了过去的工作量。”

· 领域扩张太快:“过去五年,AI 领域呈现指数级扩张,我们正面临一场评审危机。”诺伊比格一语道破了同行评审系统当前承受的巨大压力。在如此重压之下,一些审稿人寻求“捷径”,似乎成了可以预见的风险。

学者困境:如何应对“AI 废话”的轰炸?

目前,已有一些作者因为评审意见中的虚假陈述而被迫撤稿。更多的研究者则在苦恼一个现实问题:该如何回复这些充满“AI 风格”的评审意见?

埃利奥特的经验颇具代表性:“疑似 AI 生成的评审往往包裹着‘巨量的内容’。”其中可能夹杂着一小部分相关、值得回应的点,但其余大部分则完全“毫无意义”。在这场信息洪流中,研究者不得不额外承担起辨别有效反馈的新负担。

毫无疑问,ICLR 的这场风波为整个学术界敲响了一记响亮的警钟:当 AI 变得足够“聪明”,聪明到不仅能辅助研究,更能大规模“污染”科研诚信的核心环节——同行评审时,我们赖以建立学术信任的体系,究竟该如何应对与重建?这个问题,已然迫在眉睫。

本文转载于:https://www.163.com/tech/article/KFF0SCFI00097U81.html 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。

热门关注