视频防抖,即视频稳定化,是视频处理中的一个重要技术,旨在减少或消除由于摄像机抖动造成的画面不稳定。以下是一些使用AI实现视频防抖的方法,且无需裁剪画面:
1. "深度学习模型":
- "卷积神经网络(CNN)":通过训练CNN模型,可以学习到视频帧之间的稳定关系,从而在后续帧中预测并补偿抖动。
- "递归神经网络(RNN)":特别是长短期记忆网络(LSTM)或门控循环单元(GRU),可以捕捉视频序列中的长期依赖关系,适用于处理视频防抖。
2. "光流法":
- 利用光流法计算视频帧之间的像素位移,然后通过插值和补偿来稳定视频。
3. "基于视频内容的方法":
- "背景替换":通过识别视频中的稳定背景,将抖动部分替换为背景,从而实现稳定化。
- "运动估计":通过估计视频中的运动,对抖动进行补偿。
4. "AI算法实现步骤":
- "数据收集":收集大量抖动视频数据作为训练集。
- "模型训练":使用深度学习框架(如TensorFlow或PyTorch)训练模型,模型可以学习如何预测和补偿抖动。
- "视频输入":将待处理的视频输入到模型中。
- "抖动
相关内容:
右边的画面,是不是比左边的画面看上去稳定许多?鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI



方法原理
该方法的核心思想,是融合视频中多个相邻帧的信息,来呈现无需裁剪的完整稳定视频。具体而言,对于输入视频,首先对每一帧图像特征进行编码,并在目标时间戳处将相邻帧翘曲至虚拟相机空间。这里面主要用到了目标帧到关键帧的翘曲场,以及从关键帧到相邻帧的估计光流两个信息,这样,就可以通过链接流向量,计算目标帧到相邻帧的翘曲场。然后,融合这些特征。

实验结果
研究人员在NUS数据集和自拍视频数据集上验证了该方法。


传送门
根据作者介绍,该项目即将开源,如果感兴趣,不妨先mark一下~论文地址:https://arxiv.org/abs/2102.06205项目地址:
https://alex04072000.github.io/NeRViS/— 完 —
量子位 QbitAI · 号签约
关注我们,第一时间获知前沿科技动态