type
status
date
slug
summary
tags
category
icon
password
paper
github
个人博客位置

1 背景

CLIP[1]自提出以来在zero-shot分类、跨模态搜索、多模态对齐等多个领域得到广泛应用。得益于其令人惊叹的能力,激起了研究者广泛的关注和优化。
目前对CLIP的优化主要可以分为两大类:其一是如何降低CLIP的训练成本;其二是如何提升CLIP的performance。
对于第一类优化任务的常见思路有3种。1)优化训练架构,如LiT[2]通过freezen image encoder,单独训练text encoder来进行text 和image的对齐来加速训练;2)减少训练token,如FLIP[3]通过引入视觉mask,通过只计算非mask区域的视觉表征来实现加速(MAE[4]中的思路)。3)优化目标函数,如CatLIP[5]将caption转为class label,用分类任务来代替对比学习任务来实现加速。
对于第二类提升CLIP的performance最常用和有效的手段就是数据治理,即构建高质量、大规模、高多样性的图文数据,典型的工作如:DFN[6]。
SigLIP这篇paper提出用sigmoid loss来做图文对比训练。这个方案既能降低训练成本,在小batch下(低于32k)performance也优于传统方法。

2 Method

为了方便阐述,符号定义如下:
符号
image encoder
text encoder
image
text
mini-batch
对于经典的softmax-based优化目标InfoNCE,其核心思路是让positive的图文对的距离越近越好,让negative图文对的距离越远越好,计算公式如下:
其中:
 
InfoNCE的缺点
  • softmax的计算存在数值不稳定的问题,需要引入额外的trick保证softmax的计算稳定性。详情见附录。
  • 计算量大。softmax loss的非对称(asymmetry),需要做了两次normalization,即。并且计算稳定性的trick也需要引入额外的计算量。
  • 显存占用大,由于要计算normalize,需要维护一个很大的概率分布矩阵。假定batch size为32k,那么这个概率分布矩阵的大小为
下面来看文本提出的sigmoid loss 。其定义如下:
从上式可见,Sigmoild loss将每对图文对独立看待。即分别将每对图文对做二分类。
  • 时为正例。
  • 时为负例。
式子中,为图文对的标签,1表示是正例,-1表示是负例。直观来看,式(2)明显存在正负样本不均衡的问题,batch size为时,正例数为,负例数为。为了缓解正负样本不均衡,作者引入两个learnable parameter 来调节正负例的梯度,初始时。附录对这两个参数的作用机理进行了浅要分析。
notion image
多卡场景下,可以用式(3)的通信策略实现高效训练。
notion image
sigmoid-based contrastive learning的理论说完了,下面从实验的角度分析sigmoid loss的一些特性。

3 Experiment

3.1 Setting

(一) 模型
作者将基于sigmoid loss训练的CLIP称为SigLIP(Sigmoid loss for Language-Image Pre-training), 将sigmoid loss和LiT[2]架构训练的CLIP称为SigLIT (sigmoid LiT)
(二) 评估指标
作者主要从以下2个指标来评估模型的性能
  • Imagenet的zero shot准确率
  • XM3600多语言数据集的zero shot跨模态搜索准确率。
(三)训练数据集
webLi[9]

3.2 The influence of batch size

在之前的研究表明[8]:对比学习的batch size越大,效果越好。但之前的研究受限成本,最大只研究到64k。这篇paper将batch size扩大到1M。结果表明,当batch size达到32k,继续扩大的收益就很低了,达到256k后,收益达到顶峰。随后根据上述经验,作者对比了sigmoid和softmax的scale up batch size的能力,有以下几点核心结论:
  • sigmoid loss相比softmax loss更节约显存。用sigmoid loss时,4张TPU-v4能够容纳4096个batch size,但若用softmax,batch size只能容纳2048。
  • 在小batch下(batch size低于32k)sigmoid-based明显优于softmax-based loss,随着batch size进一步增加,二者差距逐渐减少。
notion image
notion image
作者给出了2个微调经验
1)微调时image encoder不要引入weight-decay
2)增加batch size时,transformer的训练开始变得不稳定,通过设小beta2有助于huan jie。
notion image

3.3 The influence of positive and negative pairs ratio

对于sigmoid来说,它的loss是以pair为粒度计算的,positive和negative非常不平衡。以batch size 为例(有16k个图文对),只有个positive samples,但有个negative samples,其positive和negative的比率约为
因此,有必要深入探究positive和negative的不平衡对模型的影响。得益于sigmoid loss(式2)以pair为粒度的计算方式,我们可以很方便的人为控制正负样本的比例。作者尝试了4种方式调控positive和negative的比例
  • Random: 通过随机mask掉negative sample,来保证positive和negative的占比
  • Hard:通过mask掉loss较低的negative sample ,来保证positive和negative的占比
  • Hard, matched pair:通过mask掉loss较低的negative的sample,来保证positive和negative的占比。由于上述mask的操作,模型的“pair seen”少,此实验通过增加iteration来保证”pair seen”和原始一致。(相当于常用的resample方法)
  • Easy:通过mask掉loss较高的negative sample,来保证positive和negative的占比。
作者在SigLIT上用进行以上四种mask out机制的实验。,迭代
notion image
结果表明:
  • 不做matched pair的情况下,用3种mask方式均会造成精度下降。影响程度:easy>random>hard。
  • Hard sample mining + matched pair有助于进一步提升模型性能。
  • 当正负样本的imbalance减弱时,learnable bias和pair的logit都在上升,说明了预设的learnable bias起到了积极的作用。
总体来看,得益于learnable temperature和learnable bias,sigmoid loss的正负样本不均衡基本不会导致模型性能下降。
文中对这两个超参数的初始值进行了进一步实验,结果如下。(可见引入合适的prior knowledge对提升模型performance非常有效)
notion image
 

3.4 Label noise robustness

作者进一步评估数据噪声对模型鲁棒性的影响。通过以下五种方法“污染”训练噪声:
  1. Image:以概率将图文对的图片用均匀噪声替换;
  1. Text:以概率将图文对的文本token序列用随机采样的等长token序列替换;
  1. Batch alignment: 随机将batch中的的sample的图文pair进行shuffle;
  1. Image & text: 同时进行1.和2.
  1. Image, text & batch: 同时进行3和4
从结果可见,sigmoid loss在“污染”数据的performance更好。
notion image

4 小结

sigmoid-based contrastive learning从经典的softmax-based contrastive learning的“pick the right class”转化为“rate this pair”。这个转化实现了compute efficient和memory efficient,并在实验中证明,siglip在小batch下(低于32k)更具优势。

5 参考文献

6 附录

6.1 附录一:softmax的溢出问题

  • 解决上溢出问题
  • 很大时,分子可能出现,当和联用时,会出现,此时应当进行如下变形。
     

    6.2 附录2: sigmoid loss梯度分析

    梯度
     
    当为正例
    当为负例
     
    通过预设时不同logits下正负样本梯度的coefficient。
     
    notion image
     
    RNN并行化——《Were RNNs All We Needed?》论文解读BLIP3技术小结(xGen-MM (BLIP-3): A Family of Open Large Multimodal Models)
    • Twikoo