原文标题:太全了!苹果上新视觉模型4M-21,搞定21种模态
原文作者:机器之心
冷月清谈:
- 提出任意到任意模态单一模型4M-21,支持21种模态数据输入和任务执行。
- 通过特定模态离散化技术,实现不同模态统一训练和表示。
- 扩展视觉模型能力,支持更细粒度和可控的多模态生成。
- 在多模态生成、检索、开箱即用任务等方面表现出优异性能。
- 通过模型迁移,在单模态和多模态下游任务中取得显著提升。
本文解决了一系列视觉模态数据相关的问题:
- 提供了一种在数十种异构模态上进行任意任务训练的单一模型。
- 实现了跨模态检索,无需专门训练单独的模态检索器。
- 通过特定模态离散化技术,实现了不同模态数据的高效统一表示。
- 在各种视觉任务(如图像生成、分割、姿估计、检索)和下游任务(如3D物体检测)中展示了出色的开箱即用性能和迁移学习能力。
未来展望:
4M-21模型的出现,为构建通用视觉智能体铺平了道路,它可以处理广泛的视觉模态和任务,并具有强大的适应性和泛化性。
讨论:
- 4M-21模型在图像/视频生成、编辑和特效制作等创意领域有哪些潜在应用?
- 该模型是否可以通过持续训练和改进,进一步扩展到更多模态和任务?
- 4M-21模型对计算机视觉领域的影响是什么?它将如何激发新的研究方向和应用?
怜星夜思:
2、该模型是否可以通过持续训练和改进,进一步扩展到更多模态和任务?
3、4M-21模型对计算机视觉领域的影响是什么?它将如何激发新的研究方向和应用?
原文内容
编辑:陈萍、小舟
当前的多模态和多任务基础模型,如 4M 或 UnifiedIO,显示出有希望的结果。然而,它们接受不同输入和执行不同任务的开箱即用能力,受到它们接受训练的模态和任务的数量(通常很少)的限制。
基于此,来自洛桑联邦理工学院(EPFL)和苹果的研究者联合开发了一个任意到任意模态单一模型,该模型在数十种高度多样化的模态上进行训练,并对大规模多模态数据集和文本语料库进行协同训练。
训练过程中一个关键步骤是对各种模态执行离散 tokenization,无论它们是类似图像的神经网络特征图、向量、实例分割或人体姿态等结构化数据,还是可以表征为文本的数据。
-
论文地址:https://arxiv.org/pdf/2406.09406
-
论文主页 https://4m.epfl.ch/
-
论文标题:4M-21: An Any-to-Any Vision Model for Tens of Tasks and Modalities
该研究展示了训练单一模型,也能完成现有模型至少 3 倍多的任务 / 模态,并且不会损失性能。此外,该研究还实现了更细粒度和更可控的多模态生成能力。
该研究建立在多模态掩码预训练方案的基础上,并通过在数十种高度多样化的模态上进行训练来提高模型能力。通过使用特定于模态的离散分词器对其进行编码,该研究实现了在不同模态上训练单个统一模型。
简单来说,该研究在几个关键维度上扩展了现有模型的功能:
-
模态:从现有最佳任意到任意模型的 7 种模态增加到 21 种不同模态,从而实现跨模态检索、可控生成和强大的开箱即用性能。这是第一次单个视觉模型可以以任意到任意的方式解决数十个不同的任务,而不会损害性能,并且没有任何传统的多任务学习。
-
多样性:添加对更多结构化数据的支持,例如人体姿态、SAM 实例、元数据等等。
-
tokenization:使用特定于模态的方法研究不同模态的离散 tokenization,例如全局图像嵌入、人体姿态和语义实例。
-
扩展:将模型大小扩展至 3B 参数,将数据集扩展至 0.5B 样本。
-
协同训练:同时在视觉和语言上协同训练。
方法介绍
该研究采用 4M 预训练方案(该研究同样来自 EPFL 和苹果,在去年发布),其被证明是一种通用方法,可以有效扩展到多模态。
具体而言,本文保持架构和多模态掩码训练目标不变,通过扩大模型和数据集的规模、增加训练模型所涉及的模态类型和数量,并且在多个数据集上进行联合训练,可以提升模型的性能和适应性。
模态分为以下几大类别:RGB、几何、语义、边缘、特征图、元数据和文本,如下图所示。
Tokenization
Tokenization 主要包括将不同模态和任务转换为序列或离散 token,从而统一它们的表示空间。研究者使用不同的 tokenization 方法来离散具有不同特征的模态,如图 3 所示。总而言之,本文采用了三种 tokenizer,包括 ViT tokenizer、MLP tokenizer 以及文本 tokenizer。
在架构选择上,本文采用基于 Transformer 的 4M 编码器 - 解码器架构,并添加额外的模态嵌入以适应新模态。
实验结果
接下来,论文展示了 4M-21 多模态能力。
多模态生成
基于迭代解码 token ,4M-21 可以用来预测任意训练模态。如图 2 所示,本文可以从给定的输入模态以一致的方式生成所有模态。
此外,由于该研究可以有条件和无条件地从其他模态的任何子集生成任何训练模态,因此它支持几种方法来执行细粒度和多模态生成,如图 4 所示,例如执行多模态编辑。此外,4M-21 表现出改进的文本理解能力,无论是在 T5-XXL 嵌入上还是在常规字幕上,都可以实现几何和语义上合理的生成(图 4,右上)。
多模态检索
如图 5 所示,4M-21 解锁了原始 DINOv2 和 ImageBind 模型无法实现的检索功能,例如通过使用其他模态作为查询来检索 RGB 图像或其他模态。此外,4M-21 还可以组合多种模态来预测全局嵌入,从而更好地控制检索,如右图所示。
开箱即用
4M-21 能够开箱即用地执行一系列常见的视觉任务,如图 6 所示。
表 1 评估了 DIODE 表面法线和深度估计、COCO 语义和实例分割、3DPW 3D 人体姿态估计等。
迁移实验
此外,本文还训练了三种不同尺寸的模型:B、L 和 XL。然后,将其编码器迁移到下游任务,并在单模态 (RGB) 和多模态 (RGB + 深度) 设置上进行评估。所有迁移实验均丢弃解码器,而是训练特定任务的头部。结果如表 2 所示:
最后,本文在 NYUv2、Hypersim 语义分割和 ARKitScenes 上的 3D 对象检测上执行多模态传输。如表 3 所示,4M-21 充分利用了可选的深度输入,并显著改进了基线。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com