Runway突然删库跑路之后仍“岁月静好”,信任正在被侵蚀
开源模型的突然删除侵蚀着公众对人工智能开发协作模式的信任。上周,Runway在未通知任何人的情况下,悄然删除了所有资源,包括备受瞩目的Stable Diffusion v1.5等重要项目。
作为AI视频创作工具的领军者,Runway的此番动作,无疑在全球AI社区掀起了不小的波澜。
Runway的官方社交平台在事件发生后并未表现出任何异常,仍不遗余力的宣传主打产品,这与删库行为形成了鲜明对比,引发了外界的广泛关注和种种猜测。
Runway将HuggingFace和GitHub平台上的资源全部移除,尤其是将Stable Diffusion v1.5删除,不仅对依靠这个模型进行项目研究的人员和社区造成了影响,还引发了关于开源人工智能资源的可靠性和稳定性的问题,可能会侵蚀对人工智能开发协作性质的信任。
此外,发布者的突然跑路,也令HuggingFace和GitHub这类人工智能模型共享和协作主要平台面临直接挑战。
Runway删库的三大可能原因
Runway官方尚未对删库行为作出明确回应,官方社交平台一片“岁月静好”,仿佛什么都没发生。这种反差更加深了外界的疑惑和猜测,大多数人认为runway删库主要有三个原因:
首先是Runway与Stability AI自2022年就Stable Diffusion模型开始的利益纠纷。该模型最初的技术源于发表在CVPR 2022上的《High-Resolution Image Synthesis with Latent Diffusion Models》论文中,该论文的五名作者分别来自慕尼黑大学、海德堡大学和Runway公司。为了在此基础上训练出 SD,研究团队动用了 4000 个 A100 Ezra-1 AI 超大集群,而 Stability AI 公司正是这些算力的提供者。尽管没有参与研发,Stability AI仍率先高调对外发布了Stable Diffusion,令许多人以为这家公司就是该模型的所有者。之后,在Runway公司发布Stable Diffusion v1.5模型,就遭到了Stability AI法务团队的侵权警告,要求Runway删除Stable Diffusion v1.5,并通知已标记此模型具有潜在的知识产权争议。
而Runway的CEO表示:Runway也参与了Stable Diffusion的研究,他们发布Stable Diffusion v1.5的行为并没有构成侵权。这个研究的作者们来自Runway和慕尼黑大学,研究和代码去年也已经开源。
其次是Stable Diffusion 1.5曾被曝出侵权,有多名艺术家和摄影师发起诉讼称Runway使用了受版权保护的作品来训练AI模型。
据称,这些模型通过Runway AI平台进行分发,用户可在平台上生成,能够可能复制与原告风格相似的新图像,从而侵犯了许多人的版权。训练数据版权问题日渐白热化,美国已有十余起诉讼,Runway此次删库对后续诉讼是否有影响仍待观察。
最后一个猜测是Runway出于商业利益的考量。由于开源领域的竞争加剧,一些从Stable Diffusion v1.5 中借鉴了太多的免费开源项目可能威胁到Runway的商业模式,特别是其盈利丰厚的在线视频生成器业务。因此 Runway 撤回了对开源的所有支持,以保护其核心商业利益。
无论Runway 此举的真实原因为何,它都在一定程度上损害了公司的声誉,也为AI行业的开源与商业化之争添加了新的讨论话题。
突然的删库跑路,信任正在被侵蚀
AI行业快速发展,如何平衡开源精神与商业利益,如何处理训练数据侵权问题,是每家公司面临的法律问题,亦是商业选择。
在接受21世纪记者采访时,AI合规专家朱玲凤就指出:应当建立对开源人工智能完善的治理结构,妥善处理模型开发者、模型贡献者、训练数据的权利人、模型使用者、开源社区之间的关系,形成符合各方利益、权责分明的分层治理结构,以保证整个开源生态的可持续发展。
信任是开源社区运营的基础,其形成了发布者和使用者的良性循环。
针对于Runway此次突然删库事件,朱玲凤认为,该事件为开源人工智能生态系统带来了不稳定因素,引发了公众对于关于开源人工智能资源的可靠性和稳定性的思考,可能会侵蚀对人工智能开发协作性质的信任。同时发布者突然删库的操作还会造成对使用开源模型开发者和研究人员、AI模型共享协作平台造成一系列连锁干扰。此外也会造成社区贡献的损失,因为随着时间的推移,开源社区已在这些模型上进行了构建和改进,移除同时也就意味着这些宝贵的社区贡献和改进的丢失。
开源社区应为托管的人工智能模型实施高级版本控制和来源追踪。并创建标准化流程,用于处理撤下请求和知识产权争议。此外,还要建立关于模型完整性的明确政策,包括模型更新和废弃的指南。
外界猜测是因为与Stability版权纠纷导致了Runway采取了预防性措施。对此朱玲凤分析道,讨论侵权责任的范畴,首先应当就训练数据的版权侵权认定形成共识,之后再评价下游调用或微调开源模型的使用方式是否也会导致侵权责任传染。从技术上来说,可以通过备份模型的情况来保证模型相关信息不被删除,但是发布者是否会因为开源AI模型被广泛使用而被认定侵权,使用者是否会因继续使用模型而被认定侵权,还需要进一步探讨。
而面对像runway发布的开源模型,其使用者是否可以被认定为有侵权责任的疑惑,目前还没有形成共识,但就开源AI本身的产权归属来说,合规专家朱玲凤则表示,是否可以认定具备公共品的属性,不应由发布者单方决定。退一步来说,也应当有稳妥的撤出或召回流程,尽到维护使用者的供应链稳定性的合理义务,否则将对开源社区的开放协作的互信氛围造成致命打击。
随着AI技术的发展,版权治理需要更加细致和全面的法律框架来指导。开源项目如何在尊重原创版权的同时,促进技术的创新和应用,是一个亟待解决的问题。
记者郭聪聪 实习生刘欣 北京报道