审稿人已无法分辨AI生成与研究者撰写的论文,中山大学、东南大学、兰州大学网安学院导师拆解“真创新”
2026-02-24
5046

2025年,学术圈因AI掀起不小波澜。先是国际顶会ICLR开展实验,AI生成的论文竟通过了Workshop的同行评审,这意味着审稿人已没法分辨论文是AI生成还是研究者撰写;同年,上海交通大学提出全球首个自主进化智能科研系统DREAM,它能独立自动完成“提问-编码-配置-评判”四大科研环节,全程不用人工干预。
而此前,AI应用爆发后,常有学生论文被AI检测为AI生成的新闻,《科技日报》曾发文称“能为论文打出公正分的是导师、审稿人,不是任何AI工具”。一边是AI误判人类论文,一边是AI深度参与科研,AI在学术文本生成中的走向成了焦点,中山大学、东南大学、兰州大学网安学院的教师们就此分享了看法。
在AI使用边界上,教师们态度明确。他们大多支持科研中用大模型,觉得能借LLM提升写作、完善思路是好事,还把大模型比作“计算器”,认为用其润色、翻译,能让研究者专注核心算法与实验。但也强调AI是双刃剑,有“幻觉”、致能力退化、引发模型坍塌等风险,所以学生用AI时,得能判断结论准确性,涉及算法与实验创新等领域要谨慎。

对于创新,教师们提到全球研究成果不少,像2024年网安领域国际会议NDSS收到694篇投稿,录用140篇,还有近100篇论文在研讨会发表,但真正从0到1的研究少,80%是“修补组合式”创新。AI特别擅长这种创新,效率比人类团队高,比如上海交大的DREAM系统能自动化科研流程,有学生借助AI,原本两三个月的算法工作几天就能完成,西湖大学的AI系统DeepScientis更是用两周完成人类三年的科研量。不过,教师们也担忧,大家都用相似AI工具,会出现大量同质化研究,掩盖真正的原创思想,而且AI目前难以实现从0到1的创新,这种突破更多依赖科学家的直觉、积累等。
在网安领域,AI的价值和风险都很突出。它能自动化模拟攻击组合、聚合推理情报、自动生成测试用例,但也让威胁产生速度加快、钓鱼邮件模板更具迷惑性、数据投毒更易。在网安博弈中,攻击方当下更占优势,A降低了高级网络攻击门槛,还让自身成为新的高价值攻击目标,为网安研究增添了新维度。
中国科学院院士、南方科技大学校长薛其坤表示,高校学生要与AI链接,打造有AI本领的新人;《国务院关于深入实施“人工智能+”行动的意见》也要求加快探索AI驱动的新型科研范式。毕竟,学术出版共同体关注的核心是创新本身,而非创新来自AI还是人类。
