人工智能(AI)生成的文本、视频和图像几乎与人类的文本、视频和图像难以区分,因此我们常常无法分辨什么是真实的。研究人员和科学家越来越多地得到人工智能的支持。因此,一个国际工作组现已制定了在研究中使用人工智能的原则,以确保人们对科学的信任。
科学的蓬勃发展依赖于可重复性、透明度和责任感,而对研究的信任尤其源于这样一个事实:无论研究结果来自哪个机构,其都是有效的。此外,研究的基础数据必须公布,研究人员必须对其发表的内容负责。
但如果人工智能参与到研究中会怎样?专家们长期以来一直使用人工智能工具来设计新分子、评估复杂数据,甚至提出研究问题或证明数学猜想。人工智能正在改变研究的面貌,专家们正在争论研究结果是否仍然可信。
一个由来自政治、商业和学术界的成员组成的跨学科工作组在《美国国家科学院院刊》最新一期上发表了一篇社论,认为应继续遵循五项原则来确保人类在研究中的责任。慕尼黑工业大学公共政策、治理和创新技术教授乌尔斯·加塞尔(UrsGasser)是专家之一。
简要建议:
研究人员应该公开他们使用的工具和算法,并清楚地识别机器和人类的贡献。
即使研究人员使用了人工智能分析工具,他们仍然要对数据的准确性和从中得出的结论负责。
必须对人工智能生成的数据进行标记,以免与现实世界的数据和观察结果混淆。
专家必须确保他们的研究结果科学合理且不会造成伤害。例如,必须将人工智能因使用的训练数据而“产生偏差”的风险降至最低。
最后,研究人员应该与政策制定者、民间社会和企业一起监测人工智能的影响,并根据需要调整方法和规则。
“以前的人工智能原则主要关注人工智能的发展。现在制定的原则侧重于科学应用,而且来得正是时候。它们对跨学科和跨领域的研究人员具有信号效应,”加瑟尔解释说。
该工作组建议,设立一个设在美国国家科学、工程和医学研究院的新战略委员会,为科学界提供建议。
加塞尔说:“我希望其他国家的科学院——尤其是欧洲的科学院——能够采取这一举措,进一步加强对在研究中负责任地使用人工智能的讨论。”