序言
在深度学习的广阔领域中,表示学习( Representation Learning \text{Representation Learning} Representation Learning)与半监督学习( Semi-supervised Learning \text{Semi-supervised Learning} Semi-supervised Learning)是两大核心研究方向,它们不仅深刻影响着模型的性能与泛化能力,还在探索数据的内在结构与因果关系上展现出巨大潜力。表示学习旨在通过深度学习模型从原始数据中自动提取出有效的特征表示,这些表示能够简化问题复杂度,提高模型的学习效率与准确性。而半监督学习则巧妙地将有标签数据与无标签数据结合,利用有限的标注信息指导模型从大量未标注数据中学习,从而在数据稀缺的情况下获得更好的性能。
半监督解释因果关系
-
表示学习的一个重要问题是 ‘‘什么原因能够使一个表示比另一个表示更好? ”
- 一种假设是,理想表示中的特征对应到观测数据的潜在成因,特征空间中不同的特征或方向对应着不同的原因,从而表示能够区分这些原因。
- 这个假设激励我们去寻找表示 p ( x ) p(\boldsymbol{x}) p(x) 的更好方法。
- 如果 y \boldsymbol{y} y 是 x \boldsymbol{x} x 的重要成因之一,那么这种表示也可能是计算 p ( y ∣ x ) p(\boldsymbol{y} \mid \boldsymbol{x}) p(y∣x) 的一种良好表示。
- 从至少 20 20 20 世纪 90 90 90 年代以来,这个想法已经指导了大量的深度学习研究工作 ( Becker and Hinton, 1992; Hinton and Sejnowski, 1999 \text{Becker and Hinton, 1992; Hinton and Sejnowski, 1999} Becker and Hinton, 1992; Hinton and Sejnowski, 1999)。
- 关于半监督学习可以超过纯监督学习的其他论点,请读者参考 Chapelle et al. (2006b) \text{Chapelle et al. (2006b)} Chapelle et al. (2006b)的第 1.2 1.2 1.2 节。
-
在表示学习的其他方法中,我们大多关注易于建模的表示——例如,数据稀疏或是各项之间相互独立的情况。
- 能够清楚地分离出潜在因素的表示可能并不一定易于建模。
- 然而,该假设的激励半监督学习使用无监督表示学习的一个更深层原因是,对于很多人工智能任务而言,有两个相随的特点:一旦我们能够获得观察结果基本成因的解释,那么将会很容易分离出个体属性。
- 具体来说,如果表示向量 h \boldsymbol{h} h 表示观察值 x \boldsymbol{x} x 的很多潜在因素,并且输出向量 y \boldsymbol{y} y 是最为重要的原因之一,那么从 h \boldsymbol{h} h 预测 y \boldsymbol{y} y 会很容易。
-
首先,让我们看看 p ( x ) p(\mathbf{x}) p(x) 的无监督学习无助于学习 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(y∣x) 时,半监督学习为何失败。
- 例如,考虑一种情况, p ( x ) p(\mathbf{x}) p(x) 是均匀分布的,我们希望学习 f ( x ) = E [ y ∣ x ] f(\boldsymbol{x})=\mathbb{E}[\mathbf{y}\mid\boldsymbol{x}] f(x)=E[y∣x]。
- 显然,仅仅观察训练集的值 x \boldsymbol{x} x 不能给我们关于 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(y∣x) 的任何信息。
-
接下来,让我们看看半监督学习成功的一个简单例子。
- 考虑这样的情况, x \mathbf{x} x 来自一个混合分布,每个 y \mathbf{y} y 值具有一个混合分量,如
图例1
所示。 - 如果混合分量很好地分出来了,那么建模 p ( x ) p(\mathbf{x}) p(x) 可以精确地指出每个分量的位置,每个类一个有标签的样本的训练集足以精确学习 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(y∣x)。
- 但是更一般地,什么能将 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(y∣x) 和 p ( x ) p(\mathbf{x}) p(x) 关联在一起呢?
- 考虑这样的情况, x \mathbf{x} x 来自一个混合分布,每个 y \mathbf{y} y 值具有一个混合分量,如
-
如果 y \mathbf{y} y 与 x \mathbf{x} x 的成因之一非常相关,那么 p ( x ) p(\mathbf{x}) p(x) 和 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(y∣x) 也会紧密关联,试图找到变化潜在因素的无监督表示学习可能会有助于半监督学习。
-
假设 y \mathbf{y} y 是 x \mathbf{x} x 的成因之一,让 h \mathbf{h} h 代表所有这些成因。真实的生成过程可以被认为是根据这个有向图模型结构化出来的,其中 h \mathbf{h} h 是 x \mathbf{x} x 的父节点:
p ( h , x ) = p ( x ∣ h ) p ( h ) p(\mathbf{h},\mathbf{x})=p(\mathbf{x}\mid\mathbf{h})p(\mathbf{h}) p(h,x)=p(x∣h)p(h) — 公式1 \quad\textbf{---\footnotesize{公式1}} —公式1 -
因此,数据的
边缘概率
是: p ( x ) = E h p ( x ∣ h ) p(\boldsymbol{x})=\mathbb{E}_{\mathbf{h}}p(\boldsymbol{x}\mid\boldsymbol{h}) p(x)=Ehp(x∣h) — 公式2 \quad\textbf{---\footnotesize{公式2}} —公式2 -
从这个直观的观察,我们得出结论, x \mathbf{x} x 最好可能的模型(从广义的观点)是会表示上述 ‘‘真实’’ 结构的,其中 h \boldsymbol{h} h 作为潜变量解释 x \boldsymbol{x} x 中可观察的变化。
- 上文讨论的 ‘‘理想’’的表示学习应该能够反映出这些潜在因子。
- 如果 y \mathbf{y} y 是其中之一(或是紧密关联于其中之一),那么将很容易从这种表示中预测 y \mathbf{y} y。
- 我们会看到给定 x \mathbf{x} x 下 y \mathbf{y} y 的条件分布通过贝叶斯规则关联到上式中的分量:
p ( y ∣ x ) = p ( x ∣ y ) p ( y ) p ( x ) p(\mathbf{y}\mid\mathbf{x})=\displaystyle\frac{p(\mathbf{x}\mid\mathbf{y})p(\mathbf{y})}{p(\mathbf{x})} p(y∣x)=p(x)p(x∣y)p(y) — 公式3 \quad\textbf{---\footnotesize{公式3}} —公式3 - 因此
边缘概率
p ( x ) p(\mathbf{x}) p(x) 和条件概率
p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(y∣x) 密切相关,前者的结构信息应该有助于学习后者。 - 因此,在这些假设情况下, 半监督学习应该能提高性能。
-
关于这个事实的一个重要的研究问题是,大多数观察是由极其大量的潜在成因形成的。
- 假设 y = h i \mathbf{y} = \text{h}_i y=hi,但是无监督学习器并不知道是哪一个 h i \text{h}_i hi。
- 对于一个无监督学习器暴力求解就是学习一种表示,这种表示能够捕获所有合理的重要生成因子 h j \text{h}_j hj,并将它们彼此区分开来,因此不管 h i \text{h}_i hi 是否关联于 y \mathbf{y} y,从 h \mathbf{h} h 预测 y \mathbf{y} y 都是容易的。
-
在实践中,暴力求解是不可行的,因为不可能捕获影响观察的所有或大多数变化。
- 例如,在视觉场景中,表示是否应该对背景中的所有最小对象进行编码?
- 根据一个有据可查的心理学现象,人们不会察觉到环境中和他们所在进行的任务并不立刻相关的变化——具体例子可参考 Simons and Levin (1998) \text{Simons and Levin (1998)} Simons and Levin (1998)。
- 半监督学习的一个重要研究前沿是确定每种情况下要编码的对象。
- 目前,处理大量潜在原因的两个主要策略是,同时使用无监督学习和监督学习信号,从而使得模型捕获最相关的变动因素,或是使用纯无监督学习学习更大规模的表示。
-
无监督学习的一个新兴策略是修改确定哪些潜在因素最为关键的定义。
- 之前,自编码器和生成模型被训练来优化一个类似于均方误差的固定标准。
- 这些固定标准确定了哪些因素是突出的。
- 例如,图像像素的均方误差隐式地指定,一个潜在因素只有在其显著地改变大量像素的亮度时,才是重要影响因素。
- 如果我们希望解决的问题涉及到小对象的交互,那么这将有可能遇到问题。
- 如
图例2
所示,在机器人任务中,自编码器未能学习到编码小乒乓球。 - 同样是这个机器人,它可以成功地与更大的对象进行交互(例如棒球, 均方误差在这种情况下很突出)。
-
还有一些其他的突出性的定义。
- 例如,如果一组像素具有高度可识别的模式,那么即使该模式不涉及到极端的亮度或暗度,该模式还是会被认为非常突出。
- 实现这样一种定义 ‘‘突出’’ 的方法是使用最近提出的生成式对抗网络 ( generative adversarial network \text{generative adversarial network} generative adversarial network) ( Goodfellow et al., 2014c \text{Goodfellow et al., 2014c} Goodfellow et al., 2014c)。
- 在这种方法中, 生成模型被训练来愚弄前馈分类器。
- 前馈分类器尝试将来自生成模型的所有样本识别为假的,并将来自训练集的所有样本识别为真的。
- 在这个框架中,
前馈网络
能够识别出的任何结构化模式都是非常突出的。 - 生成式对抗网络会在后续篇章:有向生成网络中更详细地介绍。
- 为了叙述方便,知道它能学习出如何决定什么是突出就可以了。
- Lotter et al. (2015) \text{Lotter et al. (2015)} Lotter et al. (2015) 表明,生成人类头部头像的模型在使用均方误差训练时往往会忽视耳朵,但是对抗式框架学习能够成功地生成耳朵。
- 因为耳朵与周围的皮肤相比不是非常明亮或黑暗,所以根据均方误差损失它们不是特别突出,但是它们高度可识别的形状和一致的位置意味着前馈网络能够轻易地学习出如何检测它们,从而使得它们在生成式对抗框架下是高度突出的。
图例3
给了一些样例图片。生成式对抗网络只是确定应该表示哪些因素的一小步。- 我们期望未来的研究能够发现更好的方式来确定表示哪些因素,并且根据任务来开发表示不同因素的机制。
-
正如 Sch o ¨ lkopf et al. (2012) \text{Schölkopf et al. (2012)} Scho¨lkopf et al. (2012) 指出,学习潜在因素的好处是,如果真实的生成过程中 x \mathbf{x} x 是结果, y \mathbf{y} y 是原因,那么建模 p ( x ∣ y ) p(\mathbf{x}\mid\mathbf{y}) p(x∣y) 对于 p ( y ) p(\mathbf{y}) p(y) 的变化是鲁棒的。
- 如果因果关系被逆转,这是不对的,因为根据贝叶斯规则, p ( x ∣ y ) p(\mathbf{x}\mid\mathbf{y}) p(x∣y) 将会对 p ( y ) p(\mathbf{y}) p(y) 的变化十分敏感。
- 很多时候,我们考虑分布的变化(由于不同领域、时间不稳定性或任务性质的变化)时,因果机制是保持不变的( ‘‘宇宙定律不变’’),而潜在因素的边缘分布是会变化的。
- 因此,通过学习试图恢复成因向量 h \mathbf{h} h 和 p ( x ∣ h ) p(\mathbf{x}\mid\mathbf{h}) p(x∣h) 的生成模型,我们可以期望最后的模型对所有种类的变化有更好的泛化和鲁棒性。
- 图例1:混合模型。
-
混合模型
-
说明:
- 具有三个混合分量的混合密度示例。
- 混合分量的内在本质是潜在解释因子 y y y。
- 因为混合分量(例如,图像数据中的自然对象类别)在统计学上是显著的,所以仅仅使用无标签的样本无监督建模 p ( x ) p(x) p(x) 也能揭示解释因子 y y y。
-
- 图例2:机器人任务上,基于均方误差训练的自编码器不能重构乒乓球。
-
机器人任务上,基于均方误差训练的自编码器不能重构乒乓球
-
说明:
- 乒乓球的存在及其所有空间坐标,是生成图像且与机器人任务相关的重要潜在因素。
- 不幸的是,自编码器具有有限的容量,基于均方误差的训练没能将乒乓球显著识别出来编码。
- 以上图像由 Chelsea Finn \text{Chelsea Finn} Chelsea Finn 提供。
-
- 图例3:预测生成网络是一个学习哪些特征重要的例子。
-
预测生成网络是一个学习哪些特征重要的例子
-
说明:
- 在这个例子中,预测生成网络已被训练成在特定视角预测人头的 3 D 3\text{D} 3D 模型。
- 左图:
- 真实情况。
- 这是一张网络应该生成的正确图片。
- 中图:
- 由具有均方误差的预测生成网络生成的图片。
- 因为与相邻皮肤相比,耳朵不会引起亮度的极大差异,所以它们对于模型学习表示中并不足够突出重要。
- 右图:
- 由具有均方误差和对抗损失的模型生成的图片。
- 使用这个学习到的代价函数,由于耳朵遵循可预测的模式,因此耳朵是显著重要的。
- 学习哪些原因对于模型而言是足够重要和相关的,是一个重要的活跃研究领域。
- 以上图片由 Lotter et al. (2015) \text{Lotter et al. (2015)} Lotter et al. (2015) 提供。
-
总结
-
当我们将目光转向半监督解释因果关系时,这一交叉领域的研究更加引人入胜。它不仅要求模型能够准确地从数据中提取特征并进行分类或回归,还期望模型能够揭示数据背后的因果机制。生成式对抗网络( GANs \text{GANs} GANs)等先进模型在此方面展现出巨大潜力,通过模拟数据的生成过程来识别结构化模式,进而推断潜在的因果关系。这种能力对于构建更加鲁棒、可解释的深度学习模型至关重要,尤其在医疗、金融等需要高度准确性与可解释性的领域中具有广泛的应用前景。
-
总之,深度学习中的表示学习与半监督解释因果关系是推动人工智能发展的重要力量。它们不仅提升了模型的学习效率与泛化能力,还为我们揭示了数据背后的深层含义与因果规律,为构建更加智能、可靠的人工智能系统奠定了坚实基础。
往期内容回顾
应用数学与机器学习基础 - 概率与信息论篇
深度网络现代实践 - 深度前馈网络介绍篇