arXiv收紧AI生成论文政策:提交虚假内容者将被禁言一年

最大计算机科学预印本平台 arXiv 在 ChatGPT 普及后论文投稿数量激增,低质量 AI 生成内容泛滥问题日益严峻。arXiv 计算机科学委员会主席 Thomas G. Dietterich 近日在社交媒体上明确表态:作者一旦署名,即对论文所有内容承担全部责任,无论这些内容如何生成。 这条规则看似简单,实际上直指当前 AI 科研领域的核心矛盾:大模型擅长生成流畅文本,但生成胡编的引用、不存在的公式推导、看似合理实则错误的实验结论——这些在论文中极难被人工发现,却极易混入最终稿件。 arXiv 的处罚逻辑分为两级:首次违规,禁发一年;二次违规,赎身条件是在同行评审期刊发表。这意味着违规者将面临极高的声誉成本和时间成本,而不是简单地删稿了事。 从技术角度看,这套机制背后有一个关键假设:AI 生成的内容是可以被识别和证明存在问题的。但现实是,随着模型能力提升,AI 生成的高度专业化文本正在变得难以区分。Dietterich 本人也承认,这是一场军备竞赛。 更深层的问题在于激励机制。科研评价体系长期以论文数量为主要指标,在这种压力下,AI 生成看起来合格的论文成为某些人的捷径。惩罚机制能起到威慑作用,但如果审稿流程本身不升级,单靠事后追责难以从源头解决问题。 对整个 AI 社区而言,arXiv 此举是一个信号:随着生成式 AI 渗透学术写作,传统同行评审的信任基础正在被动摇。平台、作者、审稿人都需要新的游戏规则,才能在这个 AI 加速生产知识的时代维持科研诚信的底线。