发布时间:2024-11-05 21:02:35 来源: sp20241105
【今日视点】
◎本报记者 刘 霞
2022年11月,OpenAI发布生成式人工智能(AI)工具ChatGPT。鉴于生成式AI可快速创建文本、图像等内容,两个月后,ChatGPT已作为作者,赫然出现在一些学术论文上。英国纽卡斯尔大学数字创新研究员萨瓦斯·帕帕扬尼斯表示,在学术界这一竞争激烈的领域,任何能增加研究人员学术产出的工具都是“香饽饽”。
英国《自然》杂志网站在近日的报道中指出,ChatGPT等大型语言模型(LLM)正在重塑科学写作和出版的面貌。但这些工具在提高生产力的同时,可能也会带来负面影响。出版商和科学家必须考虑如何更符合伦理道德地使用这些工具,以及过度依赖这些工具将对学术研究前景产生何种影响。
变身科学家“左膀右臂”
LLM可帮助科学家编写代码,撰写文献综述,以及开展头脑风暴。此外,LLM工具也在不断改进,拥有相关技能的研究人员甚至可以依据自己的写作风格和研究领域,开发出独属于自己的个性化LLM。
2023年,《自然》杂志对1600多名科学家进行了一项调查。近30%的受访者表示,他们曾使用生成式AI工具辅助撰写论文;约15%的人表示曾使用这些工具帮助撰写科研经费申请书。
在此项调查中,约55%的受访者认为,生成式AI的一个主要好处是它能为母语非英语的研究人员编辑和翻译论文。
欧洲研究委员会(ERC)2023年12月开展的一项民意调查也显示,1000多名ERC资助者中,75%的受助者认为,生成式AI工具将减少研究中的语言障碍;85%的人认为生成式AI可承担重复或劳动密集型任务,如文献综述等;38%的人认为生成式AI将提高科学生产力,如帮助研究人员更快撰写论文。
筛选出有价值论文更难
生成式AI也可能会产生某些与来源无关的荒谬或不真实的内容,这被称为“幻觉”。
专家认为,LLM有望增加学术产出。这看起来似乎很美,但也会带来另一个问题:期刊的投稿量大幅增加,导致编辑和同行评审人员不堪重负。帕帕扬尼斯表示,在大量发表的论文中筛选出有意义的研究已经很困难了,如果ChatGPT和其他LLM大幅增加论文产出,从中筛选出有价值的论文将更具挑战性。
在此环境下,科研人员应该把工作重点放在写出真正高水平的论文上。目前学术界“不发文,就没门”的模式,要求搞学术研究的人必须快速而持续地发表自己的研究论文。但这一点需要改变,学术界应该建立一个新的质量重于数量的体系。已经有机构意识到了这一点,例如,德国研究基金会要求申请者在一份提案中只列出10篇出版物。
出版商为AI制定规则
随着生成式AI等工具逐渐渗透学术论文领域,学术出版商开始给其“立规矩”,发布有关在写作过程中如何使用ChatGPT及其他LLM的规定。1月31日发表在《英国医学杂志》上的一篇论文指出,截至去年10月,100种顶级学术期刊中,有87种提供了有关作者如何使用生成式AI的指导。
例如,施普林格·自然出版集团(自然集团)2023年1月发布作者指南,新增了两大原则:首先,ChatGPT等LLM目前不符合作者标准。因为任何作者都要对作品负责,而AI工具无法承担责任。其次,使用LLM工具的研究人员应在方法或致谢部分列出这种使用。如果一篇论文不包括方法或致谢,作者应当在引言或其他适当位置列出对LLM的使用。
《科学》杂志主编霍顿·索普强调,尽管截至2023年11月,美国科学促进会允许研究人员在撰写论文手稿时使用生成式AI,但仍然禁止在同行评审期间使用LLM。自然集团也禁止同行评审员将手稿上传到生成式AI工具中。一些科研拨款机构,包括美国国立卫生研究院和澳大利亚研究委员会则出于保密考虑,禁止审查人员使用生成式AI来帮助申请科研经费。
尽管研究人员正竞相开发LLM检测工具,但索普指出,目前还没有一个检测工具可产生令人信服的结果,以更好地对期刊投稿进行筛选。
ChatGPT等生成式AI技术不断发展,学术界也应找到更好的方法,以便更有效地利用它来促进高质量科研论文的产出,推动科学技术的进步。
(责编:罗知之、陈键)