微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

论文阅读 (68):Self-Contrastive Learning: An Efficient Supervised Contrastive Framework with Single...

1 引入

1.1 题目

  2021自对比学习:单视图和子网络下的高效有监督对比框架 (Self-contrastive learning: An efficient supervised contrastive framework with single-view and sub-network)

1.2 摘要

  提出了一个高效的有监督对比学习框架,称为自对比学习 (Self-contrastive (SelfCon) learning),以在来自输出网络 (Multi-exit network) 的不同级别的多个输出中进行自对比。单视角下的自对比学习无需额外的增强样本,这使得它解决了多视图下批处理的一些问题,例如,高计算成本和泛化错误。与先前基于无监督学习多视图之间互信息 (Mutual information, MI) 的方法不同:
  1)在有监督单视图框架下证明了SelfCon损失的MI界限;
  2)实证分析了自对比学习的成功与来自单视图和子网络下的正则化效果有关。

1.3 Bib

@article{Bae:2021:self,
author      =   {Sangmin Bae and Sungnyun Kim and Jongwoo Ko and Gihun Lee and  Seungjong Noh and Se-Young Yun},
title       =   {Self-contrastive learning: {A}n efficient supervised contrastive framework with single-view and sub-network},
journal     =   {arXiv:2106.15499},
year        =   {2021}
}

2 自对比学习

  首先定义编码器结构,令 F F F表示骨架网络; G G G表示子网络,其将骨架的参数共享到某个中间层。令 T T T表示产生中间特征的共享层。注意 F F F G G G包括编码器后的投影头。如图1所示,锚样本 (Anchor sample) 的正负对分别使用绿色和红色突出显示

图1:不同学习框架在增强和架构方面的比较。SubCon和SelfCon均使用与正对具有相同真实标签的所有样本。在三种方法中,每个输出看作是锚特征。特别地,在 (b) 和 (c) 中,来自主干网络的锚点与来自主干网络的其他特征以及来自子网络的特征进行对比

2.1 SupCon损失

  为了缓解交叉熵损失的不足,例如泛化性能降低和利润率不佳的可能性,Khosla等人提出了一个对比损失的有监督版本,其定义正对为具有相同真实标签的样本。重新制定的SubCon损失如下:
L s u p = ∑ i ∈ I [ − 1 ∣ P i ∣ ∑ p ∈ P i F ( x i ) T F ( x p ) + log ⁡ ( ∑ p ∈ P i e F ( x i ) T F ( x p ) + ∑ n ∈ N i e F ( x i ) T F ( x n ) ) ] I ≡ { 1 , … , 2 B } , P i ≡ { p ∈ I ∖ { i } ∣ y p = y i } , N i ≡ { n ∈ I ∣ y n ≠ y i } (1) \tag{1} \begin{array}{ll} \mathcal{L}_{sup}=& \sum\limits_{i\in I}\Bigg[-\frac{1}{|P_i|}\sum\limits_{p\in P_i}F(x_i)^TF(x_p)\\ &+\log\left(\sum\limits_{p\in P_i}e^{F(x_i)^TF(x_p)}+\sum\limits_{n\in N_i}e^{F(x_i)^TF(x_n)}\right)\Bigg]\\ &I\equiv\{1,\dots,2B\},\\ &P_i\equiv\{p\in I\setminus\{i\}|y_p=y_i\},\\ &N_i\equiv\{n\in I|y_n\neq y_i\} \end{array} Lsup=iI[Pi1pPiF(xi)TF(xp)+log(pPieF(xi)TF(xp)+nNieF(xi)TF(xn))]I{1,,2B},Pi{pI{i}yp=yi},Ni{nIyn=yi}(1)其中 B B B是批次大小。为了简洁,温度参数 τ \tau τ被省略,其用于软化或者硬化softmax值,以及省略了锚样本求和的除数常量 1 / ∣ I ∣ 1/|I| 1/∣I I I I表示用于多时间批处理的索引的集合,其连接了原始的 B B B个图像和增量图像,即 x B + i x_{B+i} xB+i x i x_i xi一个增量对。 P i P_i Pi N i N_i Ni是屈服于锚点 i i i的正负对索引的集合。公式1分类交叉熵的一种,第一项包含正对,第二项包含所有的正负对。当 P i ≡ { ( i + B ) m o d   2 B } P_i\equiv\{(i+B)mod\ 2B\} Pi{(i+B)mod 2B}时该公式等价于NT-Xent损失。

2.2 SelfCon损失

  我们的目标是最大化骨架网络与子网络输出间的相似性。因此定义了SelfCon损失,它为每个输出形成一个自对比任务,包括来自子网络的特征。
L self  = ∑ i ∈ I , ω ∈ Ω [ − 1 ∣ P i 1 ∣ ∣ Ω ∣ ∑ p 1 ∈ P i 1 , ω 1 ∈ Ω ω ( x i ) ⊤ ω 1 ( x p 1 ) + log ⁡ ∑ ω 2 ∈ Ω ( ∑ p 2 ∈ P i 2 e ω ( x i ) ⊤ ω 2 ( x p 2 ) + ∑ n ∈ N i e ω ( x i ) ⊤ ω 2 ( x n ) ) ] I ≡ { { 1 , … , B }  (SelfCon-S)  { 1 , … , 2 B }  (SelfCon-M)  , P i j ≡ { p j ∈ I \ { i } ∣ y p j = y i } , N i ≡ { n ∈ I ∣ y n ≠ y i } (2) \tag{2} \begin{aligned} &\mathcal{L}_{\text {self }}=\sum_{\substack{i \in I, \boldsymbol{\omega} \in \Omega}}\left[-\frac{1}{\left|P_{i 1}\right||\Omega|} \sum_{\substack{p_{1} \in P_{i 1}, \boldsymbol{\omega}_{1} \in \Omega}} \omega\left(x_{i}\right)^{\top} \boldsymbol{\omega}_{1}\left(x_{p_{1}}\right)\right.\\ &\left.+\log \sum_{\boldsymbol{\omega}_{2} \in \Omega}\left(\sum_{p_{2} \in P_{i 2}} e^{\boldsymbol{\omega}\left(x_{i}\right)^{\top} \boldsymbol{\omega}_{2}\left(x_{p_{2}}\right)}+\sum_{n \in N_{i}} e^{\boldsymbol{\omega}\left(x_{i}\right)^{\top} \boldsymbol{\omega}_{2}\left(x_{n}\right)}\right)\right]\\ &I \equiv\left\{\begin{array}{ll} \{1, \ldots, B\} & \text { (SelfCon-S) } \\ \{1, \ldots, 2 B\} & \text { (SelfCon-M) } \end{array},\right.\\ &P_{i j} \equiv\left\{p_{j} \in I \backslash\{i\} \mid y_{p_{j}}=y_{i}\right\}, N_{i} \equiv\left\{n \in I \mid y_{n} \neq y_{i}\right\} \end{aligned} Lself =iI,ωΩ Pi1∣Ω∣1p1Pi1,ω1Ωω(xi)ω1(xp1)+logω2Ω p2Pi2eω(xi)ω2(xp2)+nNieω(xi)ω2(xn) I{{1,,B}{1,,2B} (SelfCon-S)  (SelfCon-M) ,Pij{pjI\{i}ypj=yi},Ni{nIyn=yi}(2)其中 Ω = { F , G } \Omega=\{F,G\} Ω={F,G}是骨架网络和子网络的一个函数集合。 ω 1 \omega_1 ω1是用于生成正对的函数 ω 2 \omega_2 ω2是用于从多输出网络生成对比对的函数。当输出特征来自于不同的输出路径时,我们包含了一个锚样本到正集合中,即 P i j ← P i j ∪ { i } P_{ij}\leftarrow P_{ij}\cup\{i\} PijPij{i}。例如, G ( x i ) G(x_i) G(xi)是关于 F ( x i ) F(x_i) F(xi)一个正对。这里依然省略了 τ \tau τ和除数常量。
  尽管流行的对比方法强制通过数据增强生成多视图批次,但SelfCon学习中的子网络起着增强的作用,并提供了特征空间的替代视图。因此,在没有额外的增强样本的情况下,我们使用单视图批次 (SelfCon-S) 和多视图批次 (SelfCon-M) 来制定SelfCon损失函数

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


谷歌翻译不能用了怎么办?最近有很多用户发现谷歌浏览器翻译功能不能使用了,这个该怎么解决呢,这里小编为大家提供两种解决方法。一种是通过修改操作系统的 hosts 文件,将 API 所使用的域名映射到一个可用的 IP 上
ios17有不少新功能,此次更新重点升级了电话和短信的功能,新增了联系人海报、音频消息转文字、check in等新功能,同时还带来了独立的手记功能“Journal”,可标记重要时刻,以及在待机中增加了“Standby”模式,可横
什么是IP地址?IP地址有什么用? 很简单,IP是整个TCP/IP协议族的核心,也是构成互联网的基础。
网上找到的动图下载到本地保存时格式却成了webp,想要发表情包却成了发短视频了,怎么解决这个问题呢?其实只需要将webp格式转为gif格式就好啦,下面小编带大家来看一下怎么转。
小米手机一开相机就死机怎么处理? 处理手机一开相机就死机的操作步骤:打开设置-应用程序-相机-清除数据试试;
充电宝押金什么时候可以退?具体操作充电宝退押金的操作步骤如下:1、打开微信里面的小程序进入街电小程序
学信网可以查到入团准确信息吗?学信网查不到入团时间。入团准确时间查询有以下方法:1、查看团员证。团员证上清楚的写着入团时间,只要找到团员证,马上就能查自己的入团时间了。
如果忽然遇到系统运行出现慢的问题,我们就会检查一下任务管理中是否有占用系统资源的进程在作怪,而在任务管理器中发现一个很占CPU使用率的程序-rundll32.exe,但是通过杀毒软件却没有任何用。
什么是bs机
OTG打开没反应怎么办