旷视开源AI人像视频生成框架MegActor:只需一张照片+视频,就能生成逼真表情包

原文标题:旷视开源的AI人像视频生成太炸了!输入照片即可模仿任意表情包

原文作者:机器之心

冷月清谈:

- 旷视科技开源了新的AI人像视频生成框架MegActor,输入一张静态肖像图片和一段视频文件,即可生成一段表情丰富、动作一致的AI人像视频。 - 与其他AI视频模型不同,MegActor采用开源的方式,可供开发者社区使用。 - MegActor采用原始图像进行驱动,能够捕捉细致的表情和运动信息。 - 通过使用条件扩散模型,有效解决了身份泄露和背景干扰等问题。 - MegActor仅使用公开数据集训练,处理了VFHQ和CeleV数据集进行训练,总时长超过700小时。 - MegActor支持各种驱动视频,如演讲、唱歌、表情包等,亦可生成不同画风的视频(照片、绘画、漫画、AI数字人等)。

怜星夜思:

1、你觉得MegActor生成的人像表情能有多逼真?
2、MegActor的开源对于AI视频生成领域有哪些影响?
3、除了生成表情包,MegActor还有哪些潜在的应用场景?

原文内容

机器之心发布

机器之心编辑部


日前,旷视科技发布了一项新的开源 AI 人像视频生成框架 ——MegActor。基于该框架,用户只需输入一张静态的肖像图片,以及一段视频(演讲、表情包、rap)文件,即可生成一段表情丰富、动作一致的 AI 人像视频。MegActor 所生成的视频长度,取决于给定的驱动视频的长度。与阿里 EMO、微软 VASA 等最新涌现的 AI 视频模型不同,旷视 MegActor 将采用开源的方式,提供给开发者社区使用。MegActor 能够呈现出丝毫毕现的效果,面部细节更加丰富自然,画质更出色。



为了进一步展示其泛化性,MegActor 甚至可以让 VASA 里面的人物肖像和它们的视频彼此组合生成,得到表情生动的视频生成结果。



即使是对比阿里 EMO 的官方 Case,MegActor 也能生成近似的结果。





总的来说,不管是让肖像开口说话,让肖像进行唱歌 Rap,还是让肖像模仿各种搞怪的表情包,MegActor 都可以得到非常逼真的生成效果。


  • 论文:https://arxiv.org/abs/2405.20851
  • 代码地址:https://github.com/megvii-research/megactor

  • 项目地址:https://megactor.github.io/


MegActor 是旷视研究院的最新研究成果。旷视研究院,是旷视打造的公司级研究机构。旷视研究院旨在通过基础创新突破 AI 技术边界,以工程创新实现技术到产品的快速转化。经过多年发展,旷视研究院已成为全球规模领先的人工智能研究院。

在目前的人像视频生成领域,许多工作通常使用高质量的闭源自采数据进行训练,以追求更好的效果。而旷视研究院始终坚持全面开源,确保实际效果的可复现性。MegActor 的训练数据全部来自公开可获取的开源数据集,配合开源代码,使得感兴趣的从业者可以从头开始完整复现这些令人惊艳的效果。

为了完全复刻原始视频的表情和动作,MegActor 采用了原始图像进行驱动,这与多数厂商使用 sketch、pose、landmark 的中间表示皆然不同,能够捕捉到细致的表情和运动信息。


旷视科技研究总经理范浩强表示,在 AI 视频生成领域,我们发现目前主流的骨骼关键点控制方式不仅要求用户提供难以获取的专业控制信号,同时生成视频相较于原肖像的保真程度也不尽如人意。通过一系列研究发现,使用原视频进行驱动,不仅将帮助用户降低控制信号的门槛,更能生成更加保真且动作一致的视频。

具体来说,MegActor 主要由两个阶段构成:

  • 使用了一个 ReferenceNet 对参考图像进行特征提取,负责得到参考图像的外观和背景等信息;
  • 使用了一个 PoseGuider,对输入的视频进行运动和表情信息提取,负责将运动和表情信息迁移到参考图像上。

尽管相较于使用音频或 landmark 等表示方式,使用原始视频进行驱动能带来更加丰富的表情细节和运动信息。然而,使用原始视频进行驱动依然存在两大核心技术挑战:一是 ID 泄露问题;二是原始视频中的背景和人物皱纹等无关信息会干扰影响合成表现。

为此,MegActor 开创性地采用了条件扩散模型。首先,它引入了一个合成数据生成框架,用于创建具有一致动作和表情但不一致身份 ID 的视频,以减轻身份泄露的问题。其次,MegActor 分割了参考图像的前景和背景,并使用 CLIP 对背景细节进行编码。这些编码的信息随后通过文本嵌入模块集成到网络中,从而确保了背景的稳定性。

在数据训练方面,旷视研究院团队仅使用公开的数据集进行训练,处理了 VFHQ 和 CeleV 数据集进行训练,总时长超过 700 小时。同时,为了避免 ID 泄露问题,MegActor 还使用换脸和风格化方法 1:1 生成合成数据,实现表情和动作一致、但 ID 不一致的数据。此外,为了提高对大范围动作和夸张表情的模仿能力,团队使用注视检测模型对数据进行处理,获取大约 5% 的高质量数据进行 Finetune 训练。

通过采用一系列新的模型框架和训练方法,旷视研究院团队仅使用了不到 200 块 V100 显卡小时的训练时长,最终实现的具体特性包括:

  • 可以根据输入的视频生成任意持续时间的模仿视频,同时保证角色身份的一致性
  • 支持各种驱动视频,如演讲、唱歌、表情包等
  • 支持不同的画风(照片、传统绘画、漫画、AI 数字人等)

与音频生成的方法相比,MegActor 生成的视频,不仅能确保表情和动作一致,更能达到同样的自然程度。

目前,MegActor 已经完全开源,供广大开发者和用户即开即用。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

娱乐派:MegActor可以用来制作趣味短视频、恶搞视频,让娱乐创作更加便捷。

抖机灵派:有了MegActor,以后可以把自己的照片变成表情包,让群聊气氛瞬间活跃起来~哈哈

实用派:开源意味着MegActor可以被更广泛地使用,从而促进AI视频生成技术在实际应用中的落地。

影视派:MegActor可用于影视制作中,生成虚拟演员、特技替身,弥补真人演员的局限。

学术派:MegActor的开源将推动AI视频生成领域的研究和探索,使更多研究人员和开发者能够参与到这一领域中来。

学术派:MegActor通过使用原始图像进行驱动,并采用条件扩散模型等技术,能够捕捉到更加细致的表情和运动信息,从而生成高度逼真的表情。

商业派:MegActor的开源可能会对商业闭源AI视频生成产品形成竞争压力,推动整个行业更加开放和透明。

娱乐派:MegActor生成的表情包绝对可以以假乱真,让你分分钟笑出腹肌!

教育派:MegActor可以在教育领域发挥作用,比如生成历史人物、科学家的视频,让教学更加生动形象。