自ChatGPT上线以来,一些研究人员的论文产出速度变得“突飞猛进”。
据美国《野兽日报》日前报道,美国田纳西大学健康科学中心的放射科医生Som Biswas,在4个月内使用ChatGPT写了16篇论文,并在4个不同的期刊上发表了5篇。
他将第一次尝试的论文提交给了《放射学》杂志(IF= 29.146),这是北美放射学会的一份同行评审月刊。同时,他也向编辑坦言:你看到的都是AI写的。几天后,这篇题为《ChatGPT与医学写作的未来》的论文通过了同行评审,并顺利发表。
以ChatGPT为代表的大型语言模型(LLM)大大提升了生产效率,但它们也在科学界造成了翻天覆地的变化,许多专家担心学术出版的可信度受到侵蚀。
Biswas最新的一篇文章,是4月28日发表在《儿科放射学》杂志上的一篇评论。在这篇文章中,Biswas是唯一的作者,他在结尾处承认用ChatGPT写了这篇文章。Biswas承认,他利用AI写的论文并不限于放射学专业。事实上,他还写了关于ChatGPT在军事、教育、农业、社交媒体、保险、法律和微生物学中作用的论文。并且,他已经成功地将这些文章发表在不同的小众学科期刊上,包括一篇关于计算机编程的论文发表在《美索不达米亚计算机科学杂志》,以及2封发表在《生物医学工程年鉴》上的致编辑的信——主题关于全球变暖和公共卫生。
Biswas说,他这样做的动机不仅仅是为了看到自己的署名。他想成为一项新兴技术的传播者,他认为这项技术将永远改变所有研究人员的工作方式。
美国弗吉尼亚理工大学工程学教授、《生物医学工程年鉴》的主编Stefan Duma坦言,在过去的几个月里,他看到期刊收到的论文数量呈指数级增长——其中包括2篇来自Biswas的给编辑部的信。
Duma解释说,给编辑的信基本上是期刊的意见部分,其中对发表文章的写作类型和研究深度的限制较少。这也是为什么Duma愿意发表Biswas的2篇文章。但是,他补充说,由于质量低下,他一直在拒绝更多由ChatGPT和其他LLM生成的文章。
此外,上文提及的两本期刊《儿科放射学》《美索不达米亚计算机科学杂志》,没有回应媒体的置评请求。
在微生物学家、科学诚信专家Elisabeth Bik看来,“至少Biswas承认他在使用ChatGPT,所以你必须给予他一些信任。”Bik说,“我已经遇到了很多其他人,他们也发表了大量令人难以置信的论文,同时也不承认ChatGPT。这些人发表得太多了。而这,实际上是不可能的。”
Bik对在学术界使用LLM技术有两种看法。一方面,她承认对于第一语言不是英语的研究人员来说,它可以成为一种宝贵的工具,可以用它来构建连贯的句子和段落。另一方面,她也一直在关注,很多研究人员明显滥用聊天机器人,仅在过去几个月里就发表了数十篇文章。
至于滥用产生的原因,Bik认为是“引用和出版物数量这两个衡量学术水平的指标。” 如果可以找到一种人为的方式来提高这些东西,这样就可以轻松地赢得更好的绩效指标。
版权声明:分享只为学术交流,如涉及侵权问题请联系我们,我们将及时修改或删除。