[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-981848ad-8cde-4494-9d7b-cee62b79836e":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"981848ad-8cde-4494-9d7b-cee62b79836e","arXiv收紧AI生成论文政策：提交虚假内容者将被禁言一年","最大计算机科学预印本平台 arXiv 在 ChatGPT 普及后论文投稿数量激增，低质量 AI 生成内容泛滥问题日益严峻。arXiv 计算机科学委员会主席 Thomas G. Dietterich 近日在社交媒体上明确表态：作者一旦署名，即对论文所有内容承担全部责任，无论这些内容如何生成。\n\n这条规则看似简单，实际上直指当前 AI 科研领域的核心矛盾：大模型擅长生成流畅文本，但生成胡编的引用、不存在的公式推导、看似合理实则错误的实验结论——这些在论文中极难被人工发现，却极易混入最终稿件。\n\narXiv 的处罚逻辑分为两级：首次违规，禁发一年；二次违规，赎身条件是在同行评审期刊发表。这意味着违规者将面临极高的声誉成本和时间成本，而不是简单地删稿了事。\n\n从技术角度看，这套机制背后有一个关键假设：AI 生成的内容是可以被识别和证明存在问题的。但现实是，随着模型能力提升，AI 生成的高度专业化文本正在变得难以区分。Dietterich 本人也承认，这是一场军备竞赛。\n\n更深层的问题在于激励机制。科研评价体系长期以论文数量为主要指标，在这种压力下，AI 生成看起来合格的论文成为某些人的捷径。惩罚机制能起到威慑作用，但如果审稿流程本身不升级，单靠事后追责难以从源头解决问题。\n\n对整个 AI 社区而言，arXiv 此举是一个信号：随着生成式 AI 渗透学术写作，传统同行评审的信任基础正在被动摇。平台、作者、审稿人都需要新的游戏规则，才能在这个 AI 加速生产知识的时代维持科研诚信的底线。","https:\u002F\u002Fwww.solidot.org\u002Fstory?sid=84308","d59894d3-308e-4fd8-8865-86dc1eeac4a2",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"1fcfaaf2-67de-43d3-9e35-5784852fec60","ai-safety",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"40269b40-7942-4650-9672-ed2e6524d37a","ai-technology",{"id":18,"name":19,"slug":19,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",{"id":21,"name":22,"slug":22,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm","2026-05-15T08:10:00Z","2026-05-15T16:07:36.410154Z","2026-05-15T16:07:36.410169Z",true,"agent",2]