
Xin Zhiyuan报告编辑:Taozi [Xin Zhiyuan介绍] Chatgpt在学术界打喷嚏,并且有700多篇论文使用AI而无需报告。实际上,一些领先的期刊将自愿从100多个论文中删除AI语言。今天,最新的自然文章显示了学术论文背后的混乱。 “我最终更新知识”,“再生响应”,“作为AI语言模型”……这些简短的句子一直是领先的期刊文书工作中的标准。 2024年,在放射学病例报告中发表的一篇论文直接向后落后,因为本文中出现了“我是AI语言模型”。令人惊讶的是,这句话不仅吸引了集合的注意力,而且还逃脱了对编辑,考官和类型的评论。在Kali Pageskills面前的最新文章中,它直接揭示了主要期刊的当前状态 - AI在学术文献中被用来写太多。路易斯维尔大学亚历克斯·格林(Alex Glynn)创建了一个ONLINE跟踪器“ Academ-Ai”,录制了700多篇具有AI痕迹的论文。扩展全文
其中,AI形成产生的一些内容更模糊,例如“当然,在这里”是一种常见的机器句子。
Glynn的评论还表明,在Elsevier的主要出版商Springer Nature和MDPI期刊上,前500篇论文中有13%发表。
纸张地址:https://arxiv.org/pdf/2411.15218
在顶级杂志中解决场景的情况下,AI“脸”不能隐藏
近年来,Chatgpt Generative AI被扫入学术界,并深深地改变了写作和写作论文的生态。
研究人员更依赖于这些工具来起草,抛光甚至检查,但与此同时,出现了相关现象:许多论文使用AI而无需披露。
即使被发现后,他们也悄悄地“纠正”了它,从而造成了科学完整性的潜在风险。
以下文章已发表在Elsevier锂的纸锂电池上。第一部分介绍了旧的changpt。
两种情况都是无尽的。
例如,有关肝脏损害的本文在摘要部分中有一个句子。
“不过,我很难过,因为我是AI语言模型,我无法获得实时信息或特定的患者数据...”
另一篇名为“与JAK/Stat信号通路相关的精子干细胞的细胞功能”的文章吸引了整个Internet的完善讨论。
除了亚历克斯·格林(Alex Glynn)的发现外,波兰卡托维斯(Katowice)经济大学的研究人员阿图尔·斯特雷基(Artur Strzelecki)在著名的期刊上也发现了类似的问题。这些期刊应具有严格的编辑和评估过程,但仍未透露AI使用的痕迹。
大自然团体联系了几个标签问题,例如Springer Nature,Taylor Francis和IEEE,他们提到了InteRNAL AI政策 -
在某些情况下,这些政策不需要那些打算披露AI使用的人,或者在某些情况下仅需要披露。
例如,施普林格(Springer)说:“用于辅助文档编辑的人工智能没有具有读数,样式以及语法或拼写错误的能力的更改。”
即使在审阅者中,收到许多使用AI来帮助准备手稿的人也在增加。
格林说:“如果使用AI来改善语言,随着这些工具变得流行,使用AI的简单披露以某种方式毫无意义。”
因此,从表面上看,它应该清楚地说明他或她如何详细使用AI的集合,这将帮助编辑和读者确定他们需要在哪里进行更多评论。
本文的主要杂志默默地消除了“证据”
有些人可能会说,删除明显的短语不一定需要发布更正,而只提及有关此更改的评论就足够了。
但是,Hinnot标记了这些变化,谁能确保纸张本身没有其他问题?
例如,去年在PLOS One发表的一篇论文(现在是Back),专家发现了“再生响应”一词,甚至发现了其他问题,包括许多无法验证的纸张参考文献。
更担心的是,在发现了一些AI的痕迹之后,出版商选择悄悄地删除这些标志性短语而不发布任何描述或勘误。
该练习称为“秘密更正”。 Strzelecki发现了1例,而Glynn发现了5例。
例如,在上一篇毒理学上发表的一篇论文,《杂志》(Journal Elsevier)在2023年,“再生反应”被默默删除。
该领先问题的AI政策设定了iBunthose,他们必须设置有助于手稿技术的生成AI和AI的使用。
Elsevier发言人在Stecem中说:“我们已经调查了涉嫌未指定使用AI工具的提交和发表的论文。”恩特。
不仅如此,图卢兹大学等的Glynn和计算机科学家Guillaume Cabanac都发现,在2月份的论文中,有100多个类似的安静变化,其中一些与未指定的AI使用有关。
最严重的秘密变化是Bakis Productions Ltd,MDPI和Elsevier,所有这些都超过20倍。
在修改类型中,内容已更改为92次。
出版商需要迅速采取行动,i -screen现有论文并构建它们,Cabanacmag建立了更严格的分析机制。
但是,他还指出,这样的问题仅是发表研究的一小部分,而所有人都不应因其对科学的信任而被记住。
参考:返回Sohu以查看更多