今天,很高兴为大家分享来自媒体滚动的科学资助机构拒绝用AI进行同行评议,如果您对科学资助机构拒绝用AI进行同行评议感兴趣,请往下看。
4月初,美国匹兹堡大学神经学家Greg Siegle在一次会议上听到了他觉得“非常可怕”的事情。一位美国国立卫生研究院(NIH)的同行评议专家说,人工智能(AI)工具ChatGPT已成为他起草审查报告时不可或缺的工具,并表示,ChatGPT可以节省大量时间:起草审查报告可能只需将提案的部分内容(如摘要、目标和研究策略)粘贴到AI中,然后要求其评估信息即可。
?
图片来源:A.MASTIN/SCIENCE
然而据《科学》报道,NIH和其他资助机构却对这一做法表示反对。6月23日起,NIH禁止使用ChatGPT等在线生成AI工具用于“分析和制定同行评议评论”。在类似举措中,澳大利亚研究委员会(ARC)也在7月7日禁止使用AI生成同行评议。
其他机构也在制定对策。NIH一位发言人说,他们已经成立了一个内部工作组,研究是否可以适当使用AI作为价值审查过程的一部分,如果是的话,可能需要什么“护栏”。
ChatGPT和其他大型语言模型在庞大的信息数据库上进行训练,以生成近乎人类编写的文本。这促使担心伦理和事实准确性的科学出版商限制使用这些模型来撰写论文,包括《科学》在内的一些出版商和期刊也禁止审稿人使用它们。
对于资助机构来说,保密是最重要的问题。当提案的一部分被输入在线AI工具时,这些信息就成为其训练数据的一部分。NIH担心数据将被发送、保存、查看或使用。
批评人士还担心,AI撰写的评论容易出错,因为它们取材于现有信息,对非主流观点有偏见,且缺乏推动科学创新的创造力。NIH官员在博客中写道:“NIH所看重的原创性思想在这个过程中丧失了,并且同质化了,甚至可能构成剽窃。”
在澳大利亚,一名研究人员运营的匿名Twitter账户ARC_Tracker报告称,一些科学家收到的评论似乎是由ChatGPT撰写的。ARC_Tracker说,有些人把部分提案粘贴到ChatGPT上,也得到了类似的评价。
ARC_Tracker的所有者说,科学家可能认为ChatGPT产生了有意义的反馈,但它本质上是在重复提案。不可否认,一些审稿人也会这样做。但是,适当的审查应该能够提供洞察力、批评、知情意见和专家评估,与提案中已有内容的总结之间存在很大的区别。
然而,一些研究人员表示,AI提供了一个改善同行评议过程的机会。美国爱荷华大学精神病遗传学家Jake Michaelson说,审稿人可以使用这些工具来检查他们的评论,看看他们是否忽略了提案中的某些内容,以帮助他们评估自己领域之外的工作。“最终,我认为AI将成为同行评议过程的第一线,人类专家将补充AI评审。我宁愿让ChatGPT-4来审核我的提案,也不愿让一个懒惰的审稿人来审核。”
随着时间的推移,形势可能会发生变化。几位科学家在NIH的博客上指出,一些生成式AI模型可以离线工作,并且不会违反机密性。NIH回应,它希望为“快速发展的领域提供额外的指导”。
美国西北大学伦理学博士后研究员Mohammad Hosseini认为NIH的禁令目前是合理的:“考虑到NIH处理的问题和项目的敏感性,以及AI工具的新颖性,采取谨慎和慎重的方法是绝对必要的。”
好了,关于科学资助机构拒绝用AI进行同行评议就讲到这。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。