Sora 模型是一种文本生视频生成器,因其能够创建具有良好时间稳定性的高保真短视频而引发轰动。目前争议的核心,主要集中在技术进步、道德问题以及对艺术创作领域的冲击等方面。
作为一套扩散模型,它能够将文本提示词转换为最长一分钟的视频。运用来自各种模型的技术,Sora 实现了精确的文生视觉效果以及大为增强的画面时间连贯性。OpenAI 对于 Sora 无疑给予了厚望,雄心勃勃地将其定位为实现通用 AI 的基础性一环。但必须承认,令人印象深刻的 Sora 技术同样有其局限性:在生成复杂物理现象和保障内容安全等方面,这款新模型的表现仍然有待改进。
正如 Hugging Face 讨论版块中的描述,Sora 是一次“令人着迷的技术实力展示”。该模型以视频形式制作“视觉连贯表达”的能力被誉为生成式 AI 又一里程碑式的成就。
泄露事件以及背后的动机
Hugging Face 上泄露 Sora 模型的公开信。
Sora 模型的泄露似乎出自测试人员和贡献者们(特别是来自创意产业的测试人员和贡献者)的不满情绪。批评者声称,OpenAI(目前估值已超过 1500 亿美元)夺取了他们的劳动果实,依靠无偿或报酬极低的贡献来完善其模型。这些测试人员中包括视觉艺术家和视频制作者,他们提供了宝贵的反馈和创意灵感,但却发现自己得不到任何公平的认可或者经济补偿。
一位 Hugging Face 匿名贡献者在评论中指出,“这不仅仅是无偿工作的问题,而是尊重的问题。OpenAI 将我们的付出视为素材,而非创造性专业知识。这根本不能叫合作,而是赤裸裸的压榨。”
这种反抗行为无疑是对 AI 开发当中,对创造性专业知识的广泛商品化作出的抗议。此番泄露也是经过精心策划,旨在凸显 OpenAI 涉嫌无视艺术劳动的经济价值,也呼应了 AI 道德语境中已经普遍存在的不满情绪。
这批参与者表示,短短三小时之后,“OpenAI 就暂时关闭了所有艺术家对 Sora 的早期访问权限。”
道德与法律的复杂性
Sora 争议也重新引发了关于版权和知识产权的争论。OpenAI 此前曾因将受到版权保护的素材用于训练目的而受到窝里横,并以属于合理使用为自己辩护。尽管 OpenAI 已声明 Sora 的训练数据包含授权与公开数据集,但该公司对于具体细节一直保持沉默,也因此令人们产生了怀疑。这种训练素材的不透明性,加上创作者和出版商们的持续诉讼,也将技术进步与知识产权之间紧张的对抗关系摆上了台面。
对 Sora 等生成式 AI 模型的安全担忧,促使 OpenAI 实施了保护措施,包括检测分类器和内容政策执行机制。然而,这些措施可能还不足以解决泄露模型的潜在滥用问题。Hugging Face 用户评论称,“如此大规模的泄露破坏了 OpenAI 施加道德保障的努力,反而将不受制约的权力交到了任何拥有访问权限的人手中。”
对 AI 和创意产业产生广泛影响
Sora 泄露事件,象征着 AI 时代下一场整体性的权力斗争。一方面,OpenAI 将自己定位为创新与实用相融合的先驱,而 Sora 则代表一种实现视频创作大众化的工具。但另一方面,此番泄露事件也凸显出系统性矛盾,例如创造性劳动被低估、以及 AI 依赖人类创造力所带来的道德困境。
来自用户“PR-Puppets”的评论:我们发布这款工具,是为了让每个人都有机会体验这款约 300 位艺术家参与贡献的新功能,免费且不受限制地进行访问。我们并不反对将 AI 技术作为艺术工作使用(如果反对,我们可能也不会受邀参加此计划)。我们所反对的,是这项计划的发布方式以及该工具在公开发布之前的开发方式。我们之所以有此行动,是希望 OpenAI 变得更开放、对艺术家们更友好,在公关宣传之外真正做点实事。
Hugging Face 上的另一位贡献者也提到,“AI 成果并非凭空而来。它站在创意人员的肩膀之上,而这些创意人员往往没有得到认可。Sora 泄露事件不啻为一记警钟,提醒我们缺少道德约束的创新就是剥削。”