应对 AI 论文泛滥:arXiv CS 类别综述论文设“前置评审”门槛
arXiv 宣布更新其计算机科学(CS)类别的论文审核规则,以应对由 AI 生成或 AI 辅助生成的综述论文和立场论文数量激增,导致难以管理的问题。
根据新规,提交至 arXiv CS 类别的 综述论文(Review Papers) 和 立场论文(Position Papers),必须已被期刊或会议正式接收并完成同行评审之后才能上传。
在提交这两类论文时,作者必须附上成功通过同行评审的证明文件(如期刊参考文献和 DOI 元数据)。缺乏此类证明的综述论文和立场论文,极有可能被 arXiv 拒绝。
arXiv 坦言,此次调整是由于近年来平台“被论文淹没”,而 AI 的发展加剧了这种泛滥。AI 使得撰写这类不引入新研究成果的论文变得快速且简单。虽然所有类别的提交量都在增长,但在 arXiv CS 类别中尤为明显。
arXiv 指出,平台现在每月收到数百篇综述论文,其中大多数不过是“带了注释的参考文献罗列”,缺乏对开放性研究问题的实质性讨论。
arXiv 在官方公告中强调,严格来说这并非投稿规则的变更。平台指出,综述论文和立场论文“从未被列为可被接受的论文类型”。
在过去,arXiv 仅在审核人员酌情决定且论文数量少、质量极高的情况下接受这两类论文(例如由资深研究人员或科学协会撰写的),因为它们能引起广泛兴趣。但现在,面对激增且质量参差不齐的 AI 辅助生成内容,依靠外部同行评审成为筛选真正有价值论文的唯一途径。
arXiv 做出此改变有两大主要目标:
-
提升质量: 帮助读者更容易地找到由学科专家撰写的、真正具备学术价值的综述论文和立场论文。
-
减轻负担: 让作为志愿者的审核人员可以专注于平台允许接受的论文类型,减少其他论文的提交滞留时间,从而让科学发现更快得到传播。
值得注意的是,研究主题为“科技对于社会的影响”的论文,若被归类到 cs.CY 或 physics.soc-ph 类别,仍可在没有经过同行评审的情况下提交。对于其他论文类别是否会改变收录标准,arXiv 留有余地。平台表示,如果未来其他类别也出现类似 CS 类别中 AI 撰写综述论文激增的情况,可能会采取相似的审核规则,并会另行公告。
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
Anthropic 2028 年营收或达 700 亿美元,现金流碾压 OpenAI
据《The Information》独家披露,Anthropic这家以“安全AI”著称的初创公司预计到2028年将实现高达700亿美元营收,并产生170亿美元经营性现金流——而其主要竞争对手OpenAI同期却仍将深陷千亿级现金亏损泥潭。 这一反差源于Anthropic清晰而激进的B2B商业化路径。据知情人士透露,公司今年仅通过API销售AI模型,收入就将达38亿美元,几乎是OpenAI同期API收入(18亿美元)的两倍。其企业级产品线增长迅猛:专为开发者打造的Claude Code年化收入已逼近10亿美元,较7月的4亿美元翻倍有余。 近期,Anthropic加速将Claude深度植入全球企业生态:不仅与微软达成合作,将模型集成至Microsoft365和Copilot,还扩大与Salesforce的战略联盟,并计划为德勤(Deloitte)、高知特(Cognizant)等巨头的数十万员工部署专属AI助理。这些动作表明,Anthropic正从“模型提供商”转向“企业智能基础设施”。 同时,公司持续优化产品矩阵——过去两个月接连推出更轻量、更经济的Claude Sonnet4.5与Haik...
-
下一篇
银河通用发布环视导航基座大模型 NavFoM
银河通用联合北京大学、阿德莱德大学、浙江大学等团队,推出了全球首个跨本体全域环视的导航基座大模型——NavFoM(Navigation Foundation Model)。把Vision-and-Language Navigation、Object-goal Navigation、Visual Tracking 和Autonomous Driving 等不同机器人的导航任务统一到相同的范式。 全场景:同时支持室内和室外场景,未见过的场景 Zero-Shot 运行,无需建图和额外采集训练数据; 多任务:支持自然语言指令驱动的目标跟随和自主导航等不同细分导航任务; 跨本体:可快速低成本适配机器狗、轮式人形、腿式人形、无人机、甚至汽车等不同尺寸的异构本体。 除此之外,该模型允许开发人员以之为基座,通过后训练,进一步进化成满足特定导航要求的应用模型。 根据介绍,NavFoM 建立了一个全新的通用范式:“视频流 + 文本指令 → 动作轨迹”。无论是“跟着那个人走”,还是“找到门口的红车”,在 NavFoM 里都是同一种输入输出形式。模型不再依赖模块化拼接,而是端到端地完成“看到—理解—行动”的全...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS关闭SELinux安全模块
- Dcoker安装(在线仓库),最新的服务器搭配容器使用
- CentOS8编译安装MySQL8.0.19
- Windows10,CentOS7,CentOS8安装Nodejs环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS7,8上快速安装Gitea,搭建Git服务器


微信收款码
支付宝收款码