CVPR2025论文ProAPO提出了一种自动化提示优化方法,提升视觉-语言模型在图像分类中的性能,无需人工干预,有效应对细粒度分类挑战。
原文标题:【CVPR2025】ProAPO: 逐步自动化提示优化用于视觉分类
原文作者:数据派THU
冷月清谈:
本文介绍了一种新的提示优化方法ProAPO,旨在解决视觉-语言模型在图像分类中对高质量提示的依赖问题。该方法通过进化算法,逐步优化语言提示,无需人工干预,就能为细粒度类别找到具有视觉区分度的提示。针对类别特定提示搜索空间过大的问题,ProAPO引入了基于编辑和进化的操作,一次性生成多样化候选提示,并提出了两种采样策略来寻找更好的初始搜索点和减少遍历类别数量。此外,该方法还应用了一种带有熵约束的适应度评分来缓解过拟合。实验结果表明,ProAPO在单样本图像分类任务中表现优异,优于现有的基于文本提示的方法,并提升了LLM生成描述方法的效果。该方法还可改进基于适配器的方法,并在不同骨干网络中有效迁移。
怜星夜思:
1、文章提到LLMs(大型语言模型)存在“幻觉”问题,导致生成的提示可能不准确。除了文中提到的优化方法,大家觉得从LLMs本身的角度,有哪些方法可以缓解或消除这种“幻觉”?
2、ProAPO方法中提到的“基于编辑和进化的操作”具体是指什么?如果让你来设计这样的操作,你会考虑哪些因素?
3、文章强调ProAPO在单样本图像分类任务中的优势。 除了单样本分类,你认为ProAPO方法还可以应用到哪些其他视觉任务中? 为什么?
2、ProAPO方法中提到的“基于编辑和进化的操作”具体是指什么?如果让你来设计这样的操作,你会考虑哪些因素?
3、文章强调ProAPO在单样本图像分类任务中的优势。 除了单样本分类,你认为ProAPO方法还可以应用到哪些其他视觉任务中? 为什么?
原文内容
来源:专知本文约1000字,建议阅读5分钟
本文旨在通过最小化监督且无需人工干预的方式,为细粒度类别寻找具有视觉区分度的提示。
视觉-语言模型(VLMs)通过大规模成对的图像-文本数据进行训练,在图像分类领域取得了显著进展。其性能在很大程度上依赖于提示(prompt)的质量。尽管最近的研究表明,由大型语言模型(LLMs)生成的视觉描述能够增强VLMs的泛化能力,但由于LLMs的“幻觉”问题,针对特定类别的提示可能不准确或缺乏区分度。本文旨在通过最小化监督且无需人工干预的方式,为细粒度类别寻找具有视觉区分度的提示。我们提出了一种基于进化的算法,逐步优化语言提示,从任务特定的模板到类别特定的描述。与优化模板不同,类别特定的候选提示搜索空间呈爆炸式增长,这增加了提示生成成本、迭代次数以及过拟合问题。为此,我们首先引入了几种简单但有效的基于编辑和进化的操作,通过一次性查询LLMs生成多样化的候选提示。接着,提出了两种采样策略,以找到更好的初始搜索点并减少遍历的类别数量,从而节省迭代成本。此外,我们应用了一种带有熵约束的新型适应度评分来缓解过拟合问题。在具有挑战性的单样本图像分类任务中,我们的方法优于现有的基于文本提示的方法,并在13个数据集上提升了LLM生成描述方法的效果。同时,我们证明了我们的最优提示能够改进基于适配器的方法,并在不同骨干网络中有效迁移。我们的代码已公开在此处。