智源开源BGE-VL:基于MegaPairs合成数据的领先多模态向量模型

智源开源多模态向量模型BGE-VL,基于合成数据集MegaPairs,显著提升多模态检索性能,相关资源将陆续开放。

原文标题:智源开源多模态向量模型BGE-VL:多模态检索新突破

原文作者:机器之心

冷月清谈:

智源研究院开源了新的多模态向量模型BGE-VL,该模型在图文检索和组合图像检索等任务中取得了显著成果。BGE-VL基于大规模合成数据集MegaPairs训练,该数据集通过结合多模态表征模型、多模态大模型和大语言模型,从海量图文语料库中高效挖掘多模态三元组数据。MegaPairs具备优异的可扩展性和卓越的数据质量,仅需少量数据即可实现更优的训练效果。BGE-VL在多个主流多模态检索基准测试中表现出色,尤其是在组合图像检索方面,显著提升了性能。该模型的技术报告、数据、模型及代码资源将陆续开源。

怜星夜思:

1、MegaPairs 数据集合成方法的创新点在哪里?与传统方法相比有哪些优势?
2、BGE-VL 模型在实际应用场景中有哪些潜在的应用价值?
3、MegaPairs 的数据合成方法是否可以推广到其他领域?

原文内容

机器之心发布
机器之心编辑部

BGE 系列模型自发布以来广受社区好评。近日,智源研究院联合多所高校开发了多模态向量模型 BGE-VL,进一步扩充了原有生态体系。BGE-VL 在图文检索、组合图像检索等主要多模态检索任务中均取得了最佳效果。BGE-VL 借助大规模合成数据 MegaPairs 训练而成。这一设计具备以下两大核心优势:


  • 优异的可扩展性MegaPairs 结合多模态表征模型、多模态大模型和大语言模型,在海量图文语料库中高效挖掘多模态三元组数据。其算法能够以极低成本持续生成多样化且高质量的多模态三元组本次发布的版本涵盖 2600 万条样本,为多模态检索模型的训练提供了大规模、高价值的数据支持。

  • 卓越的数据质量相较于传统多模态数据,MegaPairs 仅需 1/70 的数据量即可实现更优的训练效果。利用该合成数据,智源训练了多模态检索模型 BGE-VL,显著提升了多个主流多模态检索基准的性能。


BGE-VL 的技术报告已发布,相关数据、模型及代码资源将陆续向社区全面开放。

  • 论文地址:https://arxiv.org/abs/2412.14475

  • 项目主页:https://github.com/VectorSpaceLab/MegaPairs

  • 模型地址:https://huggingface.co/BAAI/BGE-VL-MLLM-S1


图片

研究背景

在大模型时代,信息检索需要满足人们日益多样化的需求,这种需求不仅体现在用户的多模态查询输入上,也体现在对多模态信息的需求上。例如,用户可能拍摄一张汽车外观图,并希望获取该款汽车的指定信息。在这种情况下,多模态检索器需要综合理解用户的图像和文本指令,并从多种模态的信息中检索出最相关的内容。

然而,现有的多模态检索模型通常基于单一形式的跨模态配对数据(如图像 - 文本对)进行训练,这使得它们难以处理复杂的组合模态输入。近年来,指令微调技术在文本检索和大语言模型等领域已经证明了其增强多任务能力的有效性。然而,以往的多模态检索指令数据集大多依赖人工标注,限制了大规模多样化数据的获取。

为解决这一限制,智源 BGE 团队创新性地提出了 MegaPairs 数据合成方法。该方法通过从现有大规模图像数据集中挖掘多样的关联图像对,并利用开源多模态大模型和大语言模型进行自动化指令生成,从而构建出高质量、可扩展、泛化性强的多模态检索指令微调数据集。团队基于 MegaPairs 的高质量数据,训练并开源多模态向量模型 BGE-VL 系列,实现了当前最佳的多模态检索能力。

MegaPairs 构造

MegaPairs 提出从现有大规模图文语料库中挖掘并构造大规模、高质量多模态检索指令数据集。

具体地,MegaPairs 的构造主要分为两个关键步骤:

(1)使用多种相似度模型从图像数据集中挖掘多样的图像对;
(2)使用开源的多模态大模型和大语言模型合成开放域检索指令。

以下图为例,MegaPairs 首先从大规模图像数据集中采样一对图像 - 文本数据作为查询数据。然后,利用多种图像和文本相似度模型,挖掘出多组关联图像对(例如:同款汽车的外饰与内饰、同款汽车不同涂装、同品牌汽车未来概念图等)。接着,针对这些挖掘出的图像对,MegaPairs 采用两阶段标注方法:首先使用多模态大语言模型(MLLM)总结两张图片之间的关联关系,然后使用大语言模型(LLM)撰写最终的开放域检索指令。

值得注意的是,MegaPairs 完全基于开源数据集和开源模型进行自动化构建和标注。通过引入多个相似度模型和两阶段标注方法,MegaPairs 能够在无需人工参与的情况下,扩展性地生成大规模、高质量且多样化的多模态检索指令数据集。

MegaPairs 多模态三元数据构造流程

基于上述流水线,MegaPairs 合成了超过 2600 万条(查询图像,查询语句,目标图像)三元数据对。此外,鉴于 “难负例” 在训练检索模型的重要性,MegaPairs 对于每组挖掘的图像对数据都选取了其他相似图片作为难负例。

BGE-VL 模型

基于 MegaPairs 合成的大规模多模态检索指令数据集,智源 BGE 团队训练出了 3 款不同尺寸的多模态检索模型。包括基于 CLIP 架构的 BGE-VL-Base 和 BGE-VL-Large,以及基于多模态大模型架构的 BGE-VL-MLLM。团队发现,仅仅使用 MegaPairs 三元组数据训练,模型就在多个任务上实现了远超以往方法的的领先性能优势。

综合多模态嵌入任务性能表现

团队首先在 Massive Multimodal Embedding Benchmark(MMEB)上验证了 MMRet 模型的性能。MMEB 是一个综合性基准测试,涵盖了 4 大类共计 36 个不同多模态嵌入评测任务:分类(Classification)、视觉问答(Visual Question Answering)、检索(Retrieval)和视觉定位(Visual Grounding)。

MMEB 评测任务示例图

在零样本性能表现方面,BGE-VL 在 MMEB 的多个任务类型和整体评分均实现了最优性能。更令人兴奋的是,MegaPairs 并未包含 MMEB 中的绝大部分任务类型数据(例如 Classification、VQA,Grounding),却能够实现良好的任务泛化能力。


根据 MMEB 的设置,团队进一步在 MMEB 的分布内(IND)集合(包含 36 个评测任务中的 20 个任务)上对 BGE-VL 进行了有监督微调。实验结果显示,BGE-VL 的平均性能指标相比直接在 MMEB 上微调的 VLM2Vec (LLaVA-1.6) 模型高出 9.1 个百分点。同时,在分布外(OOD)数据集上的平均表现也比两版 VLM2Vec 分别高出 11.6% 和 7.1%。这些结果证明了 MegaPairs 数据的高质量和泛化能力。


组合图像检索性能

传统图像检索通常采用 “文搜图” 或 “图搜图” 的方式。近年来,组合图像检索作为一种新兴的图像搜索范式,允许用户同时输入图像和搜索指令,实现更精准的图像检索效果。这一方法被谷歌称为 “下一代图像搜索范式”。

在当前主流的组合图像检索评测集 CIRCO 上,BGE-VL 在不同模型尺寸上均显著刷新了现有基准。大幅超越包括谷歌的 MagicLens 系列和英伟达的 MM-Embed 等对比基线。具体而言,BGE-VL-MLLM 较之前的 SOTA 模型提升了 8.1 个百分点。此外,BGE-VL-Base 模型以不到 1/50 的参数量超越了如 MM-Embed 和 E5-V 等大模型底座的多模态检索器。这些实验结果有力展示了 MegaPairs 数据的有效性。


团队还对 MegaPairs 的可扩展性和数据质量进行了深入研究。如图所示,一方面,随着 MegaPairs 数据规模的增加,BGE-VL 模型表现出一致的性能增长趋势,证明了 MegaPairs 数据构造方法的良好可扩展性。另一方面,与在 37M 闭源数据上训练的 SOTA 模型 Google MagicLens 相比,MegaPairs 仅需 1/70 的数据规模(0.5M)即可实现显著的性能优势,证明了 MegaPairs 数据的高效性和高质量。

MegaPairs 可扩展性分析:使用不同规模的 MegaPairs 数据训练 BGE-VL-base 模型在各评测基准上的性能变化趋势。虚线表示基于 CLIP-base 并在 37M MagicLens 数据集上训练的 MagicLens-B 模型的性能。

BGE-VL 检索可视化结果


未来,智源将继续探索 MegaPairs 与更丰富的多模态检索场景结合,进一步打造更全能通用的多模态检索器。

更多方法和实验细节请参照论文。

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]


我觉得MegaPairs最大的创新点在于它利用了多种相似度模型和两阶段标注方法来挖掘和生成数据,并且全程自动化,无需人工干预。传统方法大多依赖人工标注,成本高不说,数据规模也受限,多样性也不够,MegaPairs这方面就好很多。

MegaPairs 的核心优势在于其可扩展性和数据质量。它可以以极低的成本持续生成多样化且高质量的多模态三元组,并且相比传统方法,用更少的数据量就能达到更好的训练效果。这对于多模态检索模型的训练来说非常重要。

从学术角度来看,MegaPairs 的创新性在于它结合了多种先进技术,包括多模态表征模型、多模态大模型和大语言模型,并将其应用于大规模数据集的自动化构建。这为多模态检索领域的研究提供了一个新的思路。

我觉得可以啊,MegaPairs 的核心思想是利用现有的大规模数据集和模型来自动生成高质量的数据,这个思路应该可以应用到其他需要大量标注数据的领域,比如语音识别、机器翻译等等。

推广到其他领域的关键在于如何根据具体任务的需求调整数据合成策略,以及如何选择合适的模型。如果能做好这两点,MegaPairs 的方法应该会有很大的应用潜力。

BGE-VL 在组合图像检索方面的提升很值得期待啊,以后在电商平台搜索商品,说不定可以直接上传一张类似的图片,再加一些文字描述,就能找到想要的商品了,想想就方便。

我觉得在教育领域也挺有用的,比如学生可以拍一张动植物的照片,然后通过 BGE-VL 检索到相关的百科知识,辅助学习。

从更专业的角度来看,BGE-VL 可以应用于智能内容创作、跨模态信息检索、多媒体数据分析等领域,具有很大的商业价值和社会价值。

理论上讲,只要有足够的数据和合适的模型,MegaPairs 的方法就可以推广到任何需要大规模标注数据的领域。但这还需要进一步的研究和实践来验证。