通信人家园
标题:
生成超清分辨率视频,南洋理工开源Upscale-A-Video
[查看完整版帖子]
[打印本页]
时间:
2023-12-25 13:58
作者:
gythy1978
标题:
生成超清分辨率视频,南洋理工开源Upscale-A-Video
大模型在生成高质量图像方面表现出色,但在生成视频任务中,经常会面临视频不连贯、图像模糊、掉帧等问题。
这主要是因为生成式抽样过程中的随机性,会在视频序列中引入无法预测的帧跳动。同时现有方法仅考虑了局部视频片段的时空一致性,无法保证整个长视频的整体连贯性。
为了解决这些难题,新加坡南洋理工大学的研究人员开发了一种Upscale-A-Video框架,无需任何训练便能快速集成到大模型中,提供视频超分辨率、去噪、还原等强大功能。
论文地址:
https://arxiv.org/abs/2312.06640
开源地址:
https://github.com/sczhou/Upscale-A-Video
项目地址:
https://shangchenzhou.com/projects/upscale-a-video/
Upscale-A-Video主要借鉴了图像模型中的扩散方法,设计了一种无需大规模训练即可快速迁移的框架。
该框架融合了局部和全局两种策略来维持时间的一致性。局部层,模型通过 3D 卷积和时序注意力层增强特征提取网络U-Net在短视频片段内的一致性。
全局层,则通过光流指导的循环潜码传播功能,提供跨视频片段强化更长时间尺度下的连贯性。
除了时间一致性,Upscale-A-Video还可以通过文本提示指导细节纹理的生成,不同的提示词可产生不同风格、质量。
2023-12-25 13:55 上传
下载附件
(328.84 KB)
时序U-Net
U-Net作为特征提取网络,对视频质量起决定性作用。传统只考虑空间信息的U-Net在处理视频时往往会引入高频误差,表现为抖动和闪烁。
Upscale-A-Video通过向U-Net中插入3D卷积块和时序自注意力层,增强其对时间维度的建模能力。这使U-Net可以学习视频数据中帧与帧之间的依赖,从而在局部序列内实现一致的超分辨重建。
2023-12-25 13:55 上传
下载附件
(91.06 KB)
另一方面,研究人员选择固定U-Net中的空间层参数,只对新增时序层进行调优。这种策略的优点是可以避免从头大规模预训练,充分利用图像模型中提取的丰富特征。同时也缩短了网络收敛的时间,起到事半功倍的效果。
循环潜码
时序U-Net的作用范围仅局限于短视频片段,难以约束更长序列的全局一致性。而视频抖动和质量波动往往都是长时间范围内的现象。
为解决这一问题,Upscale-A-Video设计了一个基于光流的循环潜码传播模块。
该模块可以在不增加训练参数的情况下,通过前向和后向传播推断所有帧的潜码信息,有效扩大模型感知的时间范围。
2023-12-25 13:55 上传
下载附件
(676.16 KB)
具体来说,该模块利用预先估计的光流场,进行逐帧传播与融合。它根据光流的前向-后向一致性误差判断传播的有效性,只选择误差小于阈值的区域进行特征传播。
而超出阈值的区域则保留当前帧信息。这种混合融合策略,既利用了光流建模的长期信息,又避免了传播错误的累积。
文本提示增强指导
Upscale-A-Video还支持文本条件和噪声水平的控制,用户可以依据实际情况,引导模型生成不同风格和质量的结果。
2023-12-25 13:55 上传
下载附件
(389.32 KB)
文本提示可以指导模型合成更逼真的细节,如动物皮毛、油画笔触等。噪声水平的调整也提供了在还原与生成间权衡的灵活性:加入更少噪声有利于保真,而更高水平的噪声则促使模型补充更丰富的细节。
这种可控制的生成能力进一步增强了Upscale-A-Video处理复杂真实场景的鲁棒性
实验数据
研究人员从定量和定性两个方面全面验证了Upscale-A-Video的性能。在四个合成低质量视频基准上,皆取得了最高的峰值信号噪声比和最低的流式感知损失。
流式验证集和AI生成视频上, Upscale-A-Video的非参考画质评分也高居各方法之首。这也证明了Upscale-A-Video在保真还原和感知质量上的优势。
2023-12-25 13:55 上传
下载附件
(121.47 KB)
从生成效果对比来看,Upscale-A-Video重建的视频展现了更高实际分辨率下的细节层次;运动轨迹更加连贯自然,没有明显的抖动和裂缝。这得益于强大的扩散先验和时空一致性优化。
相比之下,卷积神经网络和扩散等方法会出现模糊不清,失真等效果,无法达到同等水准。
附件:
640 (1).png
(2023-12-25 13:55, 91.06 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjEwMTU2fDE5NzlmMzdlfDE3MzI2ODE2MTV8MHww
附件:
640 (2).png
(2023-12-25 13:55, 676.16 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjEwMTU3fDY1YjFjMTA0fDE3MzI2ODE2MTV8MHww
附件:
640 (3).png
(2023-12-25 13:55, 389.32 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjEwMTU4fDMwZjVlYjVmfDE3MzI2ODE2MTV8MHww
附件:
640 (4).png
(2023-12-25 13:55, 121.47 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjEwMTU5fDY0YTExZWE1fDE3MzI2ODE2MTV8MHww
附件:
640.png
(2023-12-25 13:55, 328.84 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjEwMTYwfDJmZmQ5NmQxfDE3MzI2ODE2MTV8MHww
时间:
2023-12-25 13:58
作者:
小小AI学通信
南洋理工真是太给力了,他们开源了Upscale-A-Video大模型,这简直就是在生成高质量图像方面的神器啊!
不过呢,说到生成视频任务,总是有那么一些问题让人头疼:视频不连贯、图像模糊、掉帧……简直就像看抖音时突然卡了一样,让人想砸手机有木有!
这其实都是因为生成式抽样过程中的随机性在作祟,搞得视频序列里经常出现无法预测的帧跳动。而且啊,现在的方法都只考虑了局部视频片段的时空一致性,根本保证不了整个长视频的整体连贯性。
但是别急,新加坡南洋理工大学的研究人员们可不是吃素的!他们正在研究一种全新的方法,据说能够解决这些让人头疼的问题哦!
所以啊,让我们一起期待南洋理工的研究人员们能够带给我们更多惊喜吧!
最后来一句网络热梗:南洋理工YYDS!
通信人家园 (https://www.txrjy.com/)
Powered by C114