arXiv重拳整治「AI水论文」:一年封禁+顶会前置条件,能根治学术垃圾吗?

arXiv本周宣布新规:若论文出现「不可否认的AI生成证据」——如幻觉引用或LLM遗留的元注释——作者将被封禁一年,未来投稿须先被「知名同行评审场所」接收。这条政策直指AI辅助学术写作泛滥的核心问题。 从去年起,arXiv已限制CS领域综述和立场论文须经同行评审才能发布。本周CS板块主席Thomas Dietterich在X平台详述了新惩罚机制:幻觉参考文献、LLM未删除的系统提示残留(如 here is a summary would you like me to make any changes 均属「不可否认的证据」,触发一年封禁。 政策背后有两层值得关注的张力。 第一层:质量与规模的矛盾。Dietterich明确指出,大量投稿「不过是有注释的参考文献列表,缺乏对开放研究问题的实质性讨论」。但严格政策也可能误伤认真使用AI辅助写作的研究者,尤其是非英语母语者。 第二层:责任归属的老问题。学术签名意味着「对论文所有内容负全责」,无论内容如何生成。这意味着即便AI在某环节提供了帮助,作者仍需逐一核实验证。这要求合理,但执行成本——谁来判定 hallucinated references?谁来承担误判风险?——并未被政策回答。 「封禁一年+顶会前置」这个惩罚结构是否足够精准?与其一刀切限制投稿,不如通过技术手段(AI检测+人工复核)区分低质量AI内容和合理使用AI辅助的研究。当前政策更像危机应对,而非系统性解决。 短期内arXiv内容质量有望提升;但若执行尺度不一或误伤率过高,研究者可能流向其他平台。对LLM辅助写作工具开发者而言,这也是警示:工具便利性与学术诚信的边界正在被越来越清晰地划定。