互联网消息·极客观察3月28日 最近AI圈突然流行起开源概念。Meta承诺将会打造开源AI,马斯克起诉OpenAI,说它缺少开源模型。与此同时,一批科技领袖和科技企业纷纷为开源概念呐喊。不过科技界碰到一个难以解决的根本问题:它们对“开源AI”的概念无法达成共识。
照字面意思,开源AI意味着未来任何人都可以参与科技开发,它能加速创新、增强透明度,让用户对系统拥有更多控制权。但到目前为止没有人给“开源AI”进行明确界定,科技巨头完全可以根据自己的需要扭曲概念,甚至有可能利用开源AI稳固自身地位。
在这里我们不得不提到Open Source Initiative (OSI),它是一个非盈利组织,成立于1998年,正是它推动了开源软件的发展。OSI已经招集研发人员、律师、议员、大科技公司代表,总计约70人,试图明确界定“开源AI”概念。
OSI高管Stefano Maffulli说,他们对开源AI原则已经达成广泛共识,但细节方面分歧很多。要考虑复杂的竞争利益,要找到一套方案让所有人满意,要让大企业积极参与,真的不容易。
大厂的态度
去年7月,Meta开源Llama 2模型。Meta AI与开源事务法律副总顾问Jonathan Torres说:“我们支持OSI明确定义开源AI,为了全球开源社区的利益,我们会积极参与定义工作。”
相比Meta,OpenAI显得没有那么积极。在过去几年前,OpenAI很少谈及自己的研发进度,理由是安全无法保证。OpenAI新闻发言人称:“只有当我们谨慎评估好利益与风险,包括误用、加速等问题,才会考虑将强大的AI模型开放。”
Stability AI和Aleph Alpha已经提供一些开源模型,Hugging Face托管了一批免费使用AI模型。
谷歌Gemini和PaLM 2模型也没有开源,但Gemma模型已经可以免费使用,它的对手是Meta Llama 2,但谷歌所说的不是“开源”,而是“开放”。
到底上述模型能不能称为“开源”,大家意见并不统一。不管是Llama 2还是Gemma都需要获得授权,使用时会受到限制,苛刻的要求无疑是与开源相违背的。既然开源就不能施加任何限制,科技企业显然没有做到。
OSI高管Stefano Maffulli称,开源的目的本来是要确保开发者可以随意使用、研究、修改、分享软件,不施加任何限制,但AI的运行方式有些不同,所以原本适用于软件的开源理念无法流畅转移到AI领域。
Stefano Maffulli解释称,AI模型涉及的组件太多了,如果是软件,只需要修改底层代码就行了,AI更复杂,根据目的的不同,修改AI模型会牵涉到训练模型、训练数据、处理数据的代码、管理训练流程的代码,还有模型的底层架构等。
基本自由是什么?基本权利是什么?我们都需要明确界定。为了执行基本权利如何操作也不够明晰。只有定义明确,定义被大家尊重、接受才能降低合规成本,减少摩擦,分享知识。
当前的症结在于数据。所有大型科技企业只是简单发布了预训练模型,没有提供训练数据。如果想给开源AI下一个更明确的定义,没有数据就很难修改、研究模型,所以它们并不是开源模型。
有些人持不同意见,他们认为只要简单描述数据,研究人员就能深入调查模型,没有必要通过重新训练来修改模型。预训练模型可以通过所谓的微调进行调整,也就是用一批规模较小的特殊数据集来重新训练。
比如Meta提供的Llama 2,Meta虽然给出的是预训练模型,但已经有一批开发者下载、修改它,然后分享自己的修改结果。开发者会用它完成各种项目,它已经拥有一整套生态系统,我们能不能叫它半开放?或者叫半开源?
非盈利组织Open Future的研发人员Zuzanna Warso认为,从技术角度看,如果没有原始训练数据,研发人员无法修改模型,但没有训练数据就真的无法自由研究模型吗?这个争论点也值得商榷。
Zuzanna Warso称:“在整个流程中,训练数据是关键组成部分。如果我们真的关心开放,也应该关心数据的开放度。”
开源的意义
AI Now Institute联合执行董事Sarah Myers West去年曾发表一篇论文,她在论文中指出,许多开源AI项目缺少开放性,但她同时也指出,训练尖端AI需要大量数据和计算力,苛刻的要求限制了小玩家的参与,不管模型的开源程度如何都受到限制。
通过开源,人们希望达成怎样的目标?对于这个问题大家也莫衷一是。Sarah Myers West称:“是为了安全?为了学术研究?还是为了增强竞争?我们必须对目标有更清晰的认识,系统开放到什么程度会对目标追求产生怎样的影响,这点也需要考虑。”
OSI在定义草案中认为,开源能带来好处,其中自主、透明就是关键收益,但文件中也提到了“超出范围的问题”,比如伦理、信任、责任。
Maffulli解释称,从历史上看开源社区的关注重点是如何减少软件分享摩擦,不能陷入无限争论,比如应该如何使用软件。
有人不认同Maffulli的说法,技术是中性的,伦理问题不可控,这些有争议的问题本来就很重要,之所以拒绝讨论是避免松散的开源社区分崩离析。
除了OSI,还有一些组织也想为开源AI指明方向,比如2022年成立的 Responsible AI Licenses