深度学习之表示学习 - 半监督解释因果关系篇

序言

在深度学习的广阔领域中,表示学习( Representation Learning \text{Representation Learning} Representation Learning)与半监督学习( Semi-supervised Learning \text{Semi-supervised Learning} Semi-supervised Learning)是两大核心研究方向,它们不仅深刻影响着模型的性能与泛化能力,还在探索数据的内在结构与因果关系上展现出巨大潜力。表示学习旨在通过深度学习模型从原始数据中自动提取出有效的特征表示,这些表示能够简化问题复杂度,提高模型的学习效率与准确性。而半监督学习则巧妙地将有标签数据与无标签数据结合,利用有限的标注信息指导模型从大量未标注数据中学习,从而在数据稀缺的情况下获得更好的性能。

半监督解释因果关系

  • 表示学习的一个重要问题是 ‘‘什么原因能够使一个表示比另一个表示更好? ”

    • 一种假设是,理想表示中的特征对应到观测数据的潜在成因,特征空间中不同的特征或方向对应着不同的原因,从而表示能够区分这些原因。
    • 这个假设激励我们去寻找表示 p ( x ) p(\boldsymbol{x}) p(x) 的更好方法。
    • 如果 y \boldsymbol{y} y x \boldsymbol{x} x 的重要成因之一,那么这种表示也可能是计算 p ( y ∣ x ) p(\boldsymbol{y} \mid \boldsymbol{x}) p(yx) 的一种良好表示。
    • 从至少 20 20 20 世纪 90 90 90 年代以来,这个想法已经指导了大量的深度学习研究工作 ( Becker and Hinton, 1992; Hinton and Sejnowski, 1999 \text{Becker and Hinton, 1992; Hinton and Sejnowski, 1999} Becker and Hinton, 1992; Hinton and Sejnowski, 1999)。
    • 关于半监督学习可以超过纯监督学习的其他论点,请读者参考 Chapelle et al. (2006b) \text{Chapelle et al. (2006b)} Chapelle et al. (2006b)的第 1.2 1.2 1.2 节。
  • 在表示学习的其他方法中,我们大多关注易于建模的表示——例如,数据稀疏或是各项之间相互独立的情况。

    • 能够清楚地分离出潜在因素的表示可能并不一定易于建模。
    • 然而,该假设的激励半监督学习使用无监督表示学习的一个更深层原因是,对于很多人工智能任务而言,有两个相随的特点:一旦我们能够获得观察结果基本成因的解释,那么将会很容易分离出个体属性。
    • 具体来说,如果表示向量 h \boldsymbol{h} h 表示观察值 x \boldsymbol{x} x 的很多潜在因素,并且输出向量 y \boldsymbol{y} y 是最为重要的原因之一,那么从 h \boldsymbol{h} h 预测 y \boldsymbol{y} y 会很容易。
  • 首先,让我们看看 p ( x ) p(\mathbf{x}) p(x) 的无监督学习无助于学习 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(yx) 时,半监督学习为何失败。

    • 例如,考虑一种情况, p ( x ) p(\mathbf{x}) p(x) 是均匀分布的,我们希望学习 f ( x ) = E [ y ∣ x ] f(\boldsymbol{x})=\mathbb{E}[\mathbf{y}\mid\boldsymbol{x}] f(x)=E[yx]
    • 显然,仅仅观察训练集的值 x \boldsymbol{x} x 不能给我们关于 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(yx) 的任何信息。
  • 接下来,让我们看看半监督学习成功的一个简单例子。

    • 考虑这样的情况, x \mathbf{x} x 来自一个混合分布,每个 y \mathbf{y} y 值具有一个混合分量,如图例1所示。
    • 如果混合分量很好地分出来了,那么建模 p ( x ) p(\mathbf{x}) p(x) 可以精确地指出每个分量的位置,每个类一个有标签的样本的训练集足以精确学习 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(yx)
    • 但是更一般地,什么能将 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(yx) p ( x ) p(\mathbf{x}) p(x) 关联在一起呢?
  • 如果 y \mathbf{y} y x \mathbf{x} x 的成因之一非常相关,那么 p ( x ) p(\mathbf{x}) p(x) p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(yx) 也会紧密关联,试图找到变化潜在因素的无监督表示学习可能会有助于半监督学习。

  • 假设 y \mathbf{y} y x \mathbf{x} x 的成因之一,让 h \mathbf{h} h 代表所有这些成因。真实的生成过程可以被认为是根据这个有向图模型结构化出来的,其中 h \mathbf{h} h x \mathbf{x} x 的父节点:
    p ( h , x ) = p ( x ∣ h ) p ( h ) p(\mathbf{h},\mathbf{x})=p(\mathbf{x}\mid\mathbf{h})p(\mathbf{h}) p(h,x)=p(xh)p(h) — 公式1 \quad\textbf{---\footnotesize{公式1}} 公式1

  • 因此,数据的边缘概率是: p ( x ) = E h p ( x ∣ h ) p(\boldsymbol{x})=\mathbb{E}_{\mathbf{h}}p(\boldsymbol{x}\mid\boldsymbol{h}) p(x)=Ehp(xh) — 公式2 \quad\textbf{---\footnotesize{公式2}} 公式2

  • 从这个直观的观察,我们得出结论, x \mathbf{x} x 最好可能的模型(从广义的观点)是会表示上述 ‘‘真实’’ 结构的,其中 h \boldsymbol{h} h 作为潜变量解释 x \boldsymbol{x} x 中可观察的变化。

    • 上文讨论的 ‘‘理想’’的表示学习应该能够反映出这些潜在因子。
    • 如果 y \mathbf{y} y 是其中之一(或是紧密关联于其中之一),那么将很容易从这种表示中预测 y \mathbf{y} y
    • 我们会看到给定 x \mathbf{x} x y \mathbf{y} y 的条件分布通过贝叶斯规则关联到上式中的分量:
      p ( y ∣ x ) = p ( x ∣ y ) p ( y ) p ( x ) p(\mathbf{y}\mid\mathbf{x})=\displaystyle\frac{p(\mathbf{x}\mid\mathbf{y})p(\mathbf{y})}{p(\mathbf{x})} p(yx)=p(x)p(xy)p(y) — 公式3 \quad\textbf{---\footnotesize{公式3}} 公式3
    • 因此边缘概率 p ( x ) p(\mathbf{x}) p(x)条件概率 p ( y ∣ x ) p(\mathbf{y} \mid \mathbf{x}) p(yx) 密切相关,前者的结构信息应该有助于学习后者。
    • 因此,在这些假设情况下, 半监督学习应该能提高性能。
  • 关于这个事实的一个重要的研究问题是,大多数观察是由极其大量的潜在成因形成的。

    • 假设 y = h i \mathbf{y} = \text{h}_i y=hi,但是无监督学习器并不知道是哪一个 h i \text{h}_i hi
    • 对于一个无监督学习器暴力求解就是学习一种表示,这种表示能够捕获所有合理的重要生成因子 h j \text{h}_j hj,并将它们彼此区分开来,因此不管 h i \text{h}_i hi 是否关联于 y \mathbf{y} y,从 h \mathbf{h} h 预测 y \mathbf{y} y 都是容易的。
  • 在实践中,暴力求解是不可行的,因为不可能捕获影响观察的所有或大多数变化。

    • 例如,在视觉场景中,表示是否应该对背景中的所有最小对象进行编码?
    • 根据一个有据可查的心理学现象,人们不会察觉到环境中和他们所在进行的任务并不立刻相关的变化——具体例子可参考 Simons and Levin (1998) \text{Simons and Levin (1998)} Simons and Levin (1998)
    • 半监督学习的一个重要研究前沿是确定每种情况下要编码的对象。
    • 目前,处理大量潜在原因的两个主要策略是,同时使用无监督学习和监督学习信号,从而使得模型捕获最相关的变动因素,或是使用纯无监督学习学习更大规模的表示。
  • 无监督学习的一个新兴策略是修改确定哪些潜在因素最为关键的定义。

    • 之前,自编码器和生成模型被训练来优化一个类似于均方误差的固定标准。
    • 这些固定标准确定了哪些因素是突出的。
    • 例如,图像像素的均方误差隐式地指定,一个潜在因素只有在其显著地改变大量像素的亮度时,才是重要影响因素。
    • 如果我们希望解决的问题涉及到小对象的交互,那么这将有可能遇到问题。
    • 图例2所示,在机器人任务中,自编码器未能学习到编码小乒乓球。
    • 同样是这个机器人,它可以成功地与更大的对象进行交互(例如棒球, 均方误差在这种情况下很突出)。
  • 还有一些其他的突出性的定义。

    • 例如,如果一组像素具有高度可识别的模式,那么即使该模式不涉及到极端的亮度或暗度,该模式还是会被认为非常突出。
    • 实现这样一种定义 ‘‘突出’’ 的方法是使用最近提出的生成式对抗网络 ( generative adversarial network \text{generative adversarial network} generative adversarial network) ( Goodfellow et al., 2014c \text{Goodfellow et al., 2014c} Goodfellow et al., 2014c)。
    • 在这种方法中, 生成模型被训练来愚弄前馈分类器。
    • 前馈分类器尝试将来自生成模型的所有样本识别为假的,并将来自训练集的所有样本识别为真的。
    • 在这个框架中,前馈网络能够识别出的任何结构化模式都是非常突出的。
    • 生成式对抗网络会在后续篇章:有向生成网络中更详细地介绍。
    • 为了叙述方便,知道它能学习出如何决定什么是突出就可以了。
    • Lotter et al. (2015) \text{Lotter et al. (2015)} Lotter et al. (2015) 表明,生成人类头部头像的模型在使用均方误差训练时往往会忽视耳朵,但是对抗式框架学习能够成功地生成耳朵。
    • 因为耳朵与周围的皮肤相比不是非常明亮或黑暗,所以根据均方误差损失它们不是特别突出,但是它们高度可识别的形状和一致的位置意味着前馈网络能够轻易地学习出如何检测它们,从而使得它们在生成式对抗框架下是高度突出的。
    • 图例3给了一些样例图片。生成式对抗网络只是确定应该表示哪些因素的一小步。
    • 我们期望未来的研究能够发现更好的方式来确定表示哪些因素,并且根据任务来开发表示不同因素的机制。
  • 正如 Sch o ¨ lkopf et al. (2012) \text{Schölkopf et al. (2012)} Scho¨lkopf et al. (2012) 指出,学习潜在因素的好处是,如果真实的生成过程中 x \mathbf{x} x 是结果, y \mathbf{y} y 是原因,那么建模 p ( x ∣ y ) p(\mathbf{x}\mid\mathbf{y}) p(xy) 对于 p ( y ) p(\mathbf{y}) p(y) 的变化是鲁棒的。

    • 如果因果关系被逆转,这是不对的,因为根据贝叶斯规则, p ( x ∣ y ) p(\mathbf{x}\mid\mathbf{y}) p(xy) 将会对 p ( y ) p(\mathbf{y}) p(y) 的变化十分敏感。
    • 很多时候,我们考虑分布的变化(由于不同领域、时间不稳定性或任务性质的变化)时,因果机制是保持不变的( ‘‘宇宙定律不变’’),而潜在因素的边缘分布是会变化的。
    • 因此,通过学习试图恢复成因向量 h \mathbf{h} h p ( x ∣ h ) p(\mathbf{x}\mid\mathbf{h}) p(xh) 的生成模型,我们可以期望最后的模型对所有种类的变化有更好的泛化和鲁棒性。

  • 图例1:混合模型。
    • 混合模型
      在这里插入图片描述

    • 说明:

      • 具有三个混合分量的混合密度示例。
      • 混合分量的内在本质是潜在解释因子 y y y
      • 因为混合分量(例如,图像数据中的自然对象类别)在统计学上是显著的,所以仅仅使用无标签的样本无监督建模 p ( x ) p(x) p(x) 也能揭示解释因子 y y y

  • 图例2:机器人任务上,基于均方误差训练的自编码器不能重构乒乓球。
    • 机器人任务上,基于均方误差训练的自编码器不能重构乒乓球
      在这里插入图片描述

    • 说明:

      • 乒乓球的存在及其所有空间坐标,是生成图像且与机器人任务相关的重要潜在因素。
      • 不幸的是,自编码器具有有限的容量,基于均方误差的训练没能将乒乓球显著识别出来编码。
      • 以上图像由 Chelsea Finn \text{Chelsea Finn} Chelsea Finn 提供。

  • 图例3:预测生成网络是一个学习哪些特征重要的例子。
    • 预测生成网络是一个学习哪些特征重要的例子
      在这里插入图片描述

    • 说明:

      • 在这个例子中,预测生成网络已被训练成在特定视角预测人头的 3 D 3\text{D} 3D 模型。
      • 左图:
        • 真实情况。
        • 这是一张网络应该生成的正确图片。
      • 中图:
        • 由具有均方误差的预测生成网络生成的图片。
        • 因为与相邻皮肤相比,耳朵不会引起亮度的极大差异,所以它们对于模型学习表示中并不足够突出重要。
      • 右图:
        • 由具有均方误差和对抗损失的模型生成的图片。
        • 使用这个学习到的代价函数,由于耳朵遵循可预测的模式,因此耳朵是显著重要的。
        • 学习哪些原因对于模型而言是足够重要和相关的,是一个重要的活跃研究领域。
      • 以上图片由 Lotter et al. (2015) \text{Lotter et al. (2015)} Lotter et al. (2015) 提供。

总结

  • 当我们将目光转向半监督解释因果关系时,这一交叉领域的研究更加引人入胜。它不仅要求模型能够准确地从数据中提取特征并进行分类或回归,还期望模型能够揭示数据背后的因果机制。生成式对抗网络( GANs \text{GANs} GANs)等先进模型在此方面展现出巨大潜力,通过模拟数据的生成过程来识别结构化模式,进而推断潜在的因果关系。这种能力对于构建更加鲁棒、可解释的深度学习模型至关重要,尤其在医疗、金融等需要高度准确性与可解释性的领域中具有广泛的应用前景。

  • 总之,深度学习中的表示学习与半监督解释因果关系是推动人工智能发展的重要力量。它们不仅提升了模型的学习效率与泛化能力,还为我们揭示了数据背后的深层含义与因果规律,为构建更加智能、可靠的人工智能系统奠定了坚实基础。

往期内容回顾

应用数学与机器学习基础 - 概率与信息论篇
深度网络现代实践 - 深度前馈网络介绍篇

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/149743.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

C++:deque的底层原理

一、deque是是双端队列。 deque(双端队列):是一种双开口的"连续"空间的数据结构,双开口的含义是:可以在头尾两端进行插入和删除操作,且时间复杂度为O(1),与vector比较,头插效率高,不…

spring里面内置的非常实用的工具

一 、请求数据记录 Spring Boot提供了一个内置的日志记录解决方案,通过 AbstractRequestLoggingFilter 可以记录请求的详细信息。 AbstractRequestLoggingFilter 有两个不同的实现类,我们常用的是 CommonsRequestLoggingFilter。 通过 CommonsRequestL…

AlDente Pro for Mac电池健康保护工具

AlDente Pro for Mac 是一款适用于 Mac 的实用电池健康保护工具。以下是它的主要特点和优势: 软件下载地址 一、保护电池寿命的原理 锂离子和聚合物电池(如 Mac 笔记本中的电池)在 30% 到 80% 之间运行时使用寿命最长。始终将电池电量保持…

网关基础知识

1.网关路由 网关:就是网络的关口,负责请求的路由、转发、身份校验。 在SpringCloud中网关的实现包括两种: 1.Spring Cloud Gateway Spring官方出品 基于WebFlux响应式编程 无需调优即可获得优异性能 2.Netflix Zuul Netflix出品 基于Ser…

快递物流短信API接口代码

官网:快递鸟 API参数 用户信息类 一.短信模版 1.接口说明 使用快递鸟短信功能时,预先设置好短信模板和对应的发送规则,快递鸟短信API将根据设置的好的模板和规则,进行短信的发送和反馈。 (1)仅支持Json格式。 (2)请求指令810…

vulnhub(13):Digitalworld.local JOY(ftp 的未授权文件读写漏洞、文件覆盖提权)

端口 nmap主机发现 nmap -sn 192.168.72.0/24 ​ Nmap scan report for 192.168.72.171 Host is up (0.00020s latency). ​ 171是新出现的机器,他就是靶机 nmap端口扫描 nmap -Pn 192.168.72.171 -p- --min-rate 10000 -oA nmap/scan 扫描开放端口保存到 nmap/sca…

Python | Leetcode Python题解之第435题无重叠区间

题目: 题解: class Solution:def eraseOverlapIntervals(self, intervals: List[List[int]]) -> int:if not intervals:return 0intervals.sort(keylambda x: x[1])n len(intervals)right intervals[0][1]ans 1for i in range(1, n):if intervals…

网络资源模板--Android Studio 垃圾分类App

目录 一、项目演示 二、项目测试环境 三、项目详情 四、完整的项目源码 一、项目演示 网络资源模板--垃圾分类App 二、项目测试环境 三、项目详情 登陆注册 设置点击监听器:当用户点击注册按钮时触发事件。获取用户输入:从输入框获取用户名和密码&a…

springboot 接口接收及响应xml数据

1.实体类 import javax.xml.bind.annotation.XmlAccessType; import javax.xml.bind.annotation.XmlAccessorType; import javax.xml.bind.annotation.XmlElement; import javax.xml.bind.annotation.XmlRootElement;XmlRootElement XmlAccessorType(XmlAccessType.FIELD) // …

【SpringBoot详细教程】-03-整合Junit【持续更新】

JUnit是一个用于Java编程语言的测试框架。它支持自动化单元测试,可以帮助开发人员测试代码的正确性和健壮性。JUnit提供了一组注解、断言和测试运行器,可以方便地编写和运行单元测试。 SpringBoot 整合 junit 特别简单,分为以下三步完成 在…

网络安全等级保护 | 规范企业网络系统安全使用 | 天锐股份助力等保制度落地

在当今数字化高速发展的时代,网络安全对于企业的重要性日益凸显。而近年来,数据泄露、网络攻击等安全事件频发,给企业和个人带来了前所未有的挑战。在这一背景下,网络安全等级保护制度(简称“等保”)作为国…

经颅磁刺激技术,脑科学研究——精神患者治疗方案

经颅磁刺激(Transcranial Magnetic Stimulation ,TMS)技术是一种利用脉冲磁场作用于中枢神经系统(主要是大脑),改变皮层神经细胞的膜电位,使之产生感应电流,影响脑内代谢和神经电活动…

Qt QFileDialog使用方法

头文件 #include <QFileDialog> 成员名称返回值说明getExistingDirectoryQString返回用户选中的文件夹路径getExistingDirectoryUrlQUrl与QFileDialog::getExistingDirectory()的主要区别来自于为用户提供的选择远程目录的能力getOpenFileNameQString返回用户选中的文件…

基于深度学习的树叶识别系统的设计与实现(pyqt5 python3.9 yolov8 10000张数据集)

&#x1f497;博主介绍&#x1f497;&#xff1a;✌在职Java研发工程师、专注于程序设计、源码分享、技术交流、专注于Java技术领域和毕业设计✌ 温馨提示&#xff1a;文末有 CSDN 平台官方提供的老师 Wechat / QQ 名片 :) Java精品实战案例《700套》 2025最新毕业设计选题推荐…

解锁微软录屏工具:2024 开启屏幕录制新时代

现在快节奏的生活环境&#xff0c;录屏工具已成为不可或缺的记录利器&#xff0c;其应用范围广泛。若你正对windows自带录屏功能充满好奇&#xff0c;渴望掌握其操作方法&#xff0c;或是寻求更多专业、便捷的录屏软件选项&#xff0c;那么就请继续阅读吧。 1.福昕录屏大师 链…

Figma 中要放大并下载 UI 设计中的图标

Figma 中要放大并下载 UI 设计中的图标&#xff0c;通常可以通过以下几步操作来实现&#xff1a; 1. 放大图标&#xff1a; 打开 Figma 文件并找到你想要放大的图标。 选中图标&#xff0c;点击界面右上角的 “缩放”工具&#xff08;放大镜图标&#xff09;&#xff0…

Note_XML学习笔记

XML学习笔记 1. XML 教程 经常见到XML学习一下。由于是学到中间才想起记笔记&#xff0c;之前的就简略回顾一下&#xff1a; 1&#xff09;XML是数据存储的一种语言载体&#xff1b; 2&#xff09;只负责存储&#xff0c;不负责显示&#xff1b; 3&#xff09;和HTML语言的风…

华为认证HCIA篇--网络通信基础

大家好呀&#xff01;我是reload。今天来带大家学习一下华为认证ia篇的网络通信基础部分&#xff0c;偏重一些基础的认识和概念性的东西。如果对网络通信熟悉的小伙伴可以选择跳过&#xff0c;如果是新手或小白的话建议还是看一看&#xff0c;先有个印象&#xff0c;好为后续的…

【德国RapidEye地球探测卫星】

德国RapidEye地球探测卫星 德国RapidEye地球探测卫星是一项具有重要意义的商业遥感卫星系统&#xff0c;以下是关于该卫星的详细介绍&#xff1a; 一、基本概况 名称&#xff1a;RapidEye性质&#xff1a;商用卫星发射时间&#xff1a;2008年8月29日&#xff0c;由第聂伯-1…

Spring AOP实现原理-动态代理

目录 代理的基础概念 示例1&#xff1a;静态代理&#xff08;场景&#xff1a;客户通过中介租房东的房子&#xff09; 示例2&#xff1a;JDK动态代理实现房东、中介出租房屋 示例3&#xff1a;CGLib动态代理实现房东出租房屋 示例4&#xff1a;观察Spring IOC容器中代理对象…