点击阅读英文原文
一些学者日前制定了在学术写作中“合乎道德地”使用人工智能的指导方针,以预防出现有问题的研究实践。
该框架由来自剑桥大学、哥本哈根大学、牛津大学和新加坡国立大学等机构的学者制定,发表于《自然机器智能》(Nature Machine Intelligence)。他们警告称,包括ChatGPT在内的大型语言模型(LLM)给学术界带来了与剽窃、作者权归属和“整个学术界诚信”相关的风险。
该文章指出,虽然大型语言模型的使用存在争议,但包括NEJM AI在内的领先期刊“目前积极鼓励负责任地使用它们,以提高论文投稿的质量”。
该框架建议学者对任何使用了人工智能的稿件提供透明信息并承认使用工具,采用人工审阅来保证人工智能参与产出任何作品的准确性和完整性,并确保该作品有“实质性的人类贡献”。
人工审查将确保作者必须对大型语言模型辅助论文中提出的任何主张“承担责任”。
哥本哈根大学法学教授、该报告的合著者蒂莫·明森(Timo Missen)表示,指导方针对塑造人工智能在学术研究中的道德使用“至关重要”,特别是当它被用来共同创作文章时。
明森教授说:“基于研究伦理原则的适当认可应确保透明度、道德完整性和正确归属。理想情况下,这将促进一个注重协作和更具包容性的环境,让人类的聪明才智和机器智能得以增强学术话语。”
这一呼吁正值学术界关于人工智能的使用以及大学是否应该限制或采用这项技术的争论日益激烈时,而最近的研究表明,学者们往往比学生更多地使用人工智能工具。
该论文概述了一个被作者们称之为“大型语言模型使用承认书”的模板。研究人员可以在提交手稿时使用该模板来明确他们在工作中使用了这类技术。学者们声称,这将“简化人工智能辅助学术写作中对道德标准的遵守,并提高大型语言模型使用的透明度”。
该文章称,大型语言模型应该“既不降低也不提高传统研究实践中已经存在的责任标准”,并补充称有必要提供指导,以“确保大型语言模型的使用方式能够增强而非削弱对研究的信任”。
How to navigate the grey areas of AI ethics
报告称,这种方法恰合时宜,因为“它的目的是确保新技术的整合不会以牺牲既定学术价值观和实践为代价”。
该论文另一位合著者、来自牛津实践伦理中心的朱利安·萨乌莱斯库(Julian Savulescu)将大型语言模型描述为学术研究的“潘多拉魔盒”。
“它可以消除学术独立性、创造力、原创性和思想本身。但也可以促进难以置信的共同创造和生产力。这些指南是在学术写作和研究中负责任且合乎道德地使用大型语言模型的第一步。”