炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:网易科技)
编者按
新年伊始,Science现任主编H·霍尔顿·索普发表了他的2026年开年社论,为科学界在人工智能浪潮中的方向定下了基调。作为美国著名化学家,索普曾先后担任北卡罗来纳大学教堂山分校校长与圣路易斯华盛顿大学教务长,于2019年10月正式执掌这本百年期刊。在今年的第一篇社论中,他明确指出:面对席卷而来的AI技术,科学期刊的根本使命并非盲目追逐技术潮流,而在于坚守那份必须由人类智慧与判断来捍卫的文献可靠性与学术诚信。
如今,但凡讨论科学或教育话题,人工智能(AI)总是一个绕不开的话题,大型语言模型能不能用来辅助查找文献?甚至捉刀代笔、评审论文?在一些更为大胆的设想中,未来从事科学研究、进行实验乃至审核发表的人类,都将逐步被排除在这个过程之外。每当此类宏大预言四起时,Science杂志始终保持一份冷静:我们将继续专注于耕耘一份由人类精心淬炼,能经得起时间考验的扎实的研究文献。
Science目前的政策是:允许在某些环节有限度地使用大型语言模型且无需特别声明,例如用以优化论文文本的清晰度与可读性,或协助整理参考文献。但若超此范围,比如用于起草文稿正文,则必须明确告知。此外,严禁使用AI生成图表。所有作者均须对论文全部内容负责并予以确认,包括借助AI生成的部分。
Science自身也在使用AI工具,例如iThenticate和Proofig,以便更有效地检测文本抄袭或图像篡改。过去一年,我们与DataSeer合作,对刊物“所有研究文章必须共享数据与代码”政策的执行情况进行了评估。初步结果令人欣慰,在2021至2024年间发表于Science的2680篇论文中,有69%共享了数据。为了进一步提升透明度,我们在2025年试行了一项由 DataSeer 生成的可重复性核查清单,并正将其纳入编辑流程。这项技术可自动扫描论文并生成预填清单,作者只需核对并修正即可。
尽管AI能协助我们发现疏漏、纠正错误,或者提醒补充本应公开的代码与原始数据,但使用与评估这些AI产出,反而需要投入更多而非更少的人力。事实上,AI让我们能以更高标准审视论文,但其生成的报告终究需要人来研判。长远看,AI或许真会取代某些工作,但我对此仍持保留态度。历史表明,多数技术进步并未导致灾难性的失业。
更值得警惕的是,AI若介入论文生产与评审,可能侵蚀科学文献的可靠性。为此,Science明确禁止审稿人将稿件内容输入大型语言模型以生成评审意见,这与一些新兴做法截然不同。当然,审稿人可用AI辅助润色文字,前提是必须声明。
Science对维护文献纯洁性的警觉,日益增强,这已成为我们追寻科学真理不懈努力的一部分。在这个时代,经由人类精心编辑、多人独立评审的论文出版,以及在发现错误后及时撤稿与更正,比以往任何时候都显得更重要。作为一个人力投入相对充裕的期刊家族,Science系列期刊或许能少受些“AI劣质内容泛滥”的冲击,也少为其推波助澜。然而,世上没有完美无缺的系统,无论是由人还是机器运作。技术可能导致文献质量降级,恰恰反衬出以人类科学经验与智慧为主导的学术记录多么珍贵。
回想15年前,大规模在线开放课程(MOOC)曾被认为将颠覆高等教育,但大学并未因此消亡。在线教育反而成了重要补充,助力高等教育走向更广阔的天地。学术期刊全面转向在线出版,同样带来了规模的扩展而非萎缩。因此,对于AI如何冲击科学文献,那些惊人之论都不妨先让子弹飞一会儿。
和许多工具一样,若能用得其所,AI可以让科学界走得更远。我们真正需要的,是在每一次AI热潮中保持清醒,审慎前行。
H·霍尔顿·索普
《科学》系列期刊主编
编辑:吴欧 郭郭