Nature:为什么生成式AI要开源?纽约大学教授发文,“科学发展的道德之路”

图片

来源:Nature

作者:Arthur Spirling,纽约大学政治与数据科学教授

似乎每天都会有一个新的大型语言模型(LLM)诞生,其创造者和学术界也都会对其响应人类提示的非凡能力进行疯狂般的评论。它可以修复代码!它可以写一封推荐信!它能快速总结一篇文章!

我是一名正在使用和教授此类模型的政治和数据科学家,从我的角度来看,学者们需要对 LLM 持谨慎态度。最广受吹捧的 LLMs 是专有的和封闭的:由商业公司运营,不公开其基础模型,无法供他人独立检查或验证,研究人员和公众不知道这些模型是在哪些文件上训练的。

急于将此类人工智能(AI)模型纳入研究是一个问题。它们的使用威胁着来之不易的研究伦理学进展和结果的可重复性。

相反,研究人员需要通力合作,开发透明的、不依赖公司的开源 LLM。

诚然,专有模型很方便,“开箱即用”。但是,当务之急是投资于开源的 LLM,既要帮助建立它们,又要将它们用于研究。我很乐观地认为,它们将被广泛采用,就像开源统计软件一样,专有的统计程序在最初会很受欢迎,但如今社区大多使用的是 R 或 Python 等开源平台

一个开源的 LLM,BLOOM,已于去年 7 月发布,其他建立开源 LLM 的努力也在进行中。这类项目很好,但我认为我们需要更多的合作,并汇集国际资源和专业知识。开源的 LLM 的资金通常不如大公司充足。而且,他们还需要在奔跑中站稳脚跟:这个领域的发展如此之快,以至于 LLM 的一个版本在几周或几个月内就变得过时了。加入这些努力的学者,越多越好。

而且,使用开源的 LLM 对可重复性至关重要。封闭式 LLM 的所有者可以在任何时候改变他们的产品或其训练数据——这可以改变科学研究的结果。

例如,一个研究小组可能会发表一篇论文,测试一个专有的 LLM 给出的建议是否能够帮助临床医生更有效地与病人沟通。**如果另一个小组试图复制这项研究,他们不知道模型的基础训练数据是否相同,甚至该技术是否仍然得到支持。**OpenAI 的 GPT-3 已经被 GPT-4 所取代,支持早期版本的 LLM 将不再是该公司的主要优先事项。

相比之下,对于开源的 LLM,研究人员可以查看模型的很多细节,以了解它是如何工作的,定制它的代码并标记错误。这些细节包括模型的可调整参数和它所训练的数据。社区的参与和监督有助于使这些模型长期保持稳定。

此外,在科学研究中使用专有的 LLM 对研究伦理也有令人不安的影响。用于训练这些模型的文本是未知的:它们可能包括社交媒体平台上用户之间的直接消息,或由在法律上无法同意共享其数据的儿童编写的内容。尽管制作公开文本的人们可能已经同意了平台的服务条款,但这也许不是研究人员希望看到的知情同意标准。

在我看来,科学家应尽可能在自己的工作中不再使用这些模型。我们应该转而使用开放的 LLM,并尽力推广它们。此外,学者们,尤其是那些拥有大量社交媒体粉丝的学者,不应该告诉他人使用专有模型。如果价格飙升,或者公司倒闭,研究人员可能会后悔推广了那些让同事被困在昂贵合同中的技术。

目前,研究人员可以求助于私人组织制作的开放式 LLM。例如,我和我的同事们正在使用 Meta 公司的开放式 LLM OPT-175B。LLaMA 和 OPT-175B 都是免费使用的。但从长远来看,这样做的坏处是使科学依赖于企业的 “仁慈”,这是一个充满不稳定性的局面。

因此,应该有与 LLM 合作的学术行为准则,以及监管。但这些都需要时间。我预计,这种规定最初会很笨拙,而且生效缓慢。

同时,大规模的合作项目迫切需要支持,为研究训练开源模型。政府应该通过拨款增加资金。该领域正在以闪电般的速度发展,现在需要开始协调国家和国际的努力。科学界最适合评估由此产生的模型的风险,且需要谨慎向公众推荐这些模型**。**

但是很明显,开放的环境才是正确的。

原文链接:

https://www.nature.com/articles/d41586-023-01295-4

猜你喜欢

转载自blog.csdn.net/AMiner2006/article/details/130264034