神经网络通俗理解学习笔记(3)注意力神经网络

Tansformer

    • 什么是注意力机制
    • 注意力的计算
    • 键值对注意力和多头注意力
    • 自注意力机制
    • 注意力池化及代码实现
    • Transformer模型
    • Transformer代码实现

什么是注意力机制

注意力机制的发展史
Attention Mechanism
Mnih V, Heess N, Graves A. Recurrent models of visual attention, 2014.
Vaswani A, et al. Attention is alyouneed, 2017. (Tansformer首篇文章)

生物学中的注意力
从众多信息中选择出对当前任务目标更关键的信息

深度学习中的注意力机制
让神经网络能够更加关注图像中的重要特征,而不是整张图像

编解码器架构
大多数注意力机制都附着在Encoder-Decoder框架下
注意力机制是一种思想,本身并不依赖于任何框架

在这里插入图片描述
在这里插入图片描述

编码器的信息被压缩到编码器和解码器之间固定长度的向量
会导致很多信息的损失
存在信息瓶颈的问题

解决办法:
NLP中的注意力机制
上下文向量c应可访问输入序列所有部分,而不仅是最后一个每一时刻产生不同的语言编码向量,表示不同的关注区域

在这里插入图片描述

注意力机制的类型
隐式注意力:非常深的神经网络已经学会了一种形式的隐式注意
显式注意力:根据先前输入的记忆“权衡”其对输入的敏感度

注意力机制的类型
软注意力:函数在其域内平滑变化,因此是可微的
硬注意力:用随机抽样模型代替了确定性方法,不可微的

在这里插入图片描述

编解码器架构中的注意力机制
注意力权重的计算:

在这里插入图片描述
在这里插入图片描述
建立编码器到解码器之间非线性的映射关系

把yi-1看作是一个查询向量,看和编码器中哪个隐状态hj最相关

注意力的可视化
对齐alignment
权重是动态计算的
允许一对多的关系

在这里插入图片描述

注意力的计算

编码器-解码器中的注意力
神经网络的输出
注意力就是衡量两种隐状态间对齐”程度的分数

输入是解码器先前的状态
以及各个时刻编码器的隐藏状态
在这里插入图片描述
输出就是一个权重
表示编码器和解码器2种状态间的关联关系。并且捕捉对齐关系

如何计算注意力
注意力就是衡量编码器隐状态与前一时刻解码器输出对齐的分数

在这里插入图片描述

第二种最常用,将注意力参数转化为小型的全连接网络

注意力相当于一组可以训练的权重
可以用标准的反向传播算法进行调整

解码器决定原来要输入注意句子中哪一部分
通过让解码器有注意力机制,减轻编码器必须将输入的序列语句中所有信息编码成固定长度向量的这种负担。
通过这种方法信息可以分布在整个序列中
解码器可以相应的选择检索这些信息

在这里插入图片描述

注意视角,是解码器来注意编码器中当中的隐状态序列,从他这里去关注重要信息

在这里插入图片描述

全局注意力和局部注意力
Global Attention:在整个输入序列上计算注意力分数
Local Attention:只考虑输入单元/标记的一个子集

在这里插入图片描述

注意力权重 是剧烈变化,不像全连接权重缓慢变化
而且注意力 的输入是隐状态,全连接输入的是前一层的神经元

自注意力机制
·Self-Attention:序列自身的注意力

在这里插入图片描述
在这里插入图片描述
把序列转化成一个新序列在输入
可以看作是对输入序列的一种预处理

注意力机制的优点

  • 解决了编码器到解码器之间信息传递的瓶颈问题
  • 建立编码器状态和解码器间直接联系,消除了梯度消失问题(RNN 级联 造成)
  • 提供了更好的可解释性

在这里插入图片描述
注意力权重关系图

注意力与transformer
transformer:编码器到解码器两个序列之间的一个转换器
注意力机制某种程度上就是transformer

注意力机制是transformer模型的核心部分
主要处理信息序列的处理问题
通过学习不同位置之间的关系来决定对哪些位置进行重点的关注从而输出更加准确的结果

注意力机制的应用
通用的NLP模型,文本生成、聊天机器人、文本分类等任务
图像分类模型中也可以使用注意力机制,VisionTransformer

键值对注意力和多头注意力

经典注意力机制计算:
在这里插入图片描述

直接使用编码器隐状态计算注意力的局限:
注意力分数仅基于隐藏状态在序列中的相对位置而不是他们的内容,限制了模型关注相关信息的能力

故引入键值对

在这里插入图片描述
query可以看作是解码器上一回的输出
key value 由input 线性变化得来
value不参与计算 实现相似性和内容的分离

键值对注意力分数的计算:
在这里插入图片描述
dk是向量的维度

QK相当于求了相似性

Q、K、V本质都是输入向量的线性变换

W都是训练得到的

在这里插入图片描述
当key和value相等 就回到了前面的经典注意力机制

key value分离带来更多灵活性

多头注意力机制
Multi-Head Attention:多个查询向量

在这里插入图片描述
在这里插入图片描述
每个Q关注X不同的角度 不同部分
使模型学习到更加丰富的内容
捕获X更多信息
并行还能提高训练效率

自注意力机制

Self-Attention:
The animal didn’t cross the street it was too tired.because

it到底知道animal还是street呢

在这里插入图片描述

自注意
可以让模型聚焦在输入的重要部分,忽略不相关信息
能处理变长的信息 图像文本等
而且可以在不改变模型结构情况下,加强模型的表示能力
还能减少模型的复杂度,因为只对关键信息进行处理

获取输入向量的OKV值
三个权重矩阵训练得到
Query:查询
Key:键
Value:值

在这里插入图片描述
qkv分别由词嵌入向量与权重相乘得到

自注意力分数
查询向量q和各个单词的键向量求点积运算

在这里插入图片描述
Softmax归一化
除以key向量维度的平方根
使得梯度更加稳定

在这里插入图片描述
softmax求出来的注意力分布
表示每个词对各个位置的关注程度

注意力加权求和

保留想关注的词
淹没不相干的词
加权和为自注意力输出

在这里插入图片描述

汪意力矩阵计算
一次性计算出所有位置的的Attention输出向量

在这里插入图片描述
QK 相乘是求相似度
softmax是为获取自注意力分布

K和V分离是为了使模型更灵活捕获更多信息
V保存了输入的内容
Z表示序列自身内部不同元素间的注意力关系

自注意力机制的理解
计算输入序列每个元素与其余元素之间的相关性得分

在这里插入图片描述

注意力池化及代码实现

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
颜色越浅表示权重越大

注意力池化
Q与K的计算构成注意力池化
注意力池化对输入进行选择并生成最终输出

对信息筛选的本身其实就是池化

对输入进行选择并生成输出这一过程就是池化

在这里插入图片描述

非参数注意力池化

非参数就是不用训练
,

  • 平均注意力池化

在这里插入图片描述

  • 通用注意力池化公式
    在这里插入图片描述

  • Nadaraya-Watson核回归公式
    在这里插入图片描述
    在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
参数注意力池化
令查询O和键K之间的距离乘以可学习参数w

在这里插入图片描述

Transformer模型

RNN 和LSTM 都存在梯度爆炸的问题
transformer通过自注意力机制的建模避免了这一问题

模型结构
六个编码器串联
六个解码器串联
编解码器互联

在这里插入图片描述
编码器把输入变成一些向量
解码器则利用这些向量来输出序列
两者通过注意力机制交互,使得解码器能够根据输入序列生成输出序列

可以理解为 彼此通过多次非线性变化在不同空间提取更多特征

编码器的结构相同,但不共享权重

在这里插入图片描述

嵌入算法转化为向量
超参数:512

在这里插入图片描述
每个词都独立
词与词间的关系通过自注意力机制来表达

前向反馈没有相互之间的计算,因此前向反馈层可以并行运算

在这里插入图片描述

多头自注意力层

在这里插入图片描述

一个输入X会生成不同的Q、K、V
得到不同的Z
然后再拼接他们

扩展模型关注不同位置的能力
为注意力层提供了多个表示子空间

有点类似CNN中的不同卷积核
用于捕捉输入空间不同维度特征

不同颜色代表不同头
颜色深浅代表自注意力权重
以it为例,编码时关注重点

  • The animal
  • tired
    在这里插入图片描述
    一个头关注animal
    一个头关注tired

位置嵌入
为了让模型了解单词的顺序,我们添加了位置编码向量

embedding 单词嵌入向量可以通过预训练的word2vector 或者 glove 获取 或者训练得到
位置编码 使用正余弦函数定义

在这里插入图片描述

transformer并不是RNN结构而是使用全局信息,无法利用单词顺序信息,所以要引入位置嵌入向量保存位置信息

残差结构
更容易学习复杂特征
避免梯度消失和爆炸
训练更稳定,收敛快

在这里插入图片描述

每一步解码都要编码器的输出来生成输出序列中下一个单词的表示
通过连接编码器和解码器,模型可以有效利用编码器对输入序列的理解,从而输出更有效输出序列
也可以避免信息丢失问题,从而提高模型整体性能

在这里插入图片描述

编解码器协同工作

在这里插入图片描述
在这里插入图片描述

线性层和softmax层

线性层:转化为logits向量
每个单元格对应一个单词分数
softmax层:转化为概率
选择具有最高概率的单词作输出

在这里插入图片描述

优缺点
与RNN相比更易并行化训练;本身无单词顺序,要加入位置嵌入
重点是自注意力结构OKV矩阵;多头注意力含多个自注意力模块
在这里插入图片描述

Transformer代码实现

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
数据太烂了,并不是说transformer不行
可以借鉴代码

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/140760.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

JavaScript - 异步编程

1. 前言 在 JavaScript 中,异步编程是一种处理需要等待操作(如网络请求、文件读取或计时器)的编程方式。由于 JavaScript 是单线程的,意味着它一次只能执行一个任务。异步编程允许你在等待某些操作完成时,继续执行其他…

【技术调研】三维(4)-ThreeJs阴影投射、光线投射及案例

阴影投射 阴影是灯光经过物体后产生的,几个关键的设置: 灯光属性设置:.castShadow : Boolean 。此属性设置为 true 灯光将投射阴影。注意:这样做的代价比较高,需要通过调整让阴影看起来正确。 查看 DirectionalLight…

CAD_Electrical 2022使用记录

一、CAD软件实用调整 1、如何调节窗口背景颜色 例如:将图中白色的背景色调节为黑色。 步骤:在CAD空白区域点击右键 -> 点击选项 -> 在显示中点击颜色(窗口元素) -> 将二维模型空间统一背景的颜色修改成需要的颜色 2、如何调节关标大小 例如&a…

如何精确统计Pytorch模型推理时间

文章目录 0 背景1 精确统计方法2 手动synchronize和Event适用场景 0 背景 在分析模型性能时需要精确地统计出模型的推理时间,但仅仅通过在模型推理前后打时间戳然后相减得到的时间其实是Host侧向Device侧下发指令的时间。如下图所示,Host侧下发指令与De…

发展与监管协同发力 人工智能算法领域已形成良好生态

发展与监管协同发力 人工智能算法领域已形成良好生态 近日,全国组织机构统一社会信用代码数据服务中心对国家网信办公示的人工智能领域备案信息进行了详尽的分析,揭示了我国人工智能产业的蓬勃景象。据统计,我国人工智能领域的备案主体遍布各…

MySQL之表的约束

目录 前言 一:空属性 二:默认值 三:列描述 四:zerofill 五:主键 六:自增长 七:唯一键 八:外键 接下来的日子会顺顺利利,万事胜意,生活明朗-----------林辞忧 前言 表中一定要有各种约束,通过约束…

零倾覆力矩点(ZMP)

系列文章目录 前言 在机器人学中,零倾力矩点(ZMP)是一个特征点,主要用于足式运动。在下文的一些假设中,我们将看到,它非正式地代表了一个系统接触反作用力的结果点。例如,下图中的刚体处于静态平…

【深入理解SpringCloud微服务】深入理解nacos配置中心(四)——配置新增或修改源码分析

【深入理解SpringCloud微服务】深入理解nacos配置中心(四)——配置新增或修改源码分析 原理回顾源码分析ConfigController#publishConfig()ConfigOperationService#publishConfig()nacos事件监听机制ConfigChangePublisher#notifyConfigChange()NotifyCe…

在 FlexSim 中使用 OpenUSD 分析、可视化和优化现实世界的流程

对于制造和工业企业而言,效率和精度至关重要。为了简化运营、降低成本和提高生产力,各公司正在转向数字孪生和离散事件模拟。 离散事件模拟使制造商能够通过试验不同的输入和行为来优化流程,这些输入和行为可以逐步进行建模和测试。 FlexSi…

6. Transforms的使用(一)--ToTensor()

Transforms的使用(一) 1.使用ToTensor类将数据转化为Tensor形式 导入需要使用的transforms类 from torchvision import transforms创建ToTensor类的实例 totensor transforms.ToTensor()将读取的图片ndarray数据转化为Tensor数据 img cv.imread(img_p…

Java网络编程 TCP通信(Socket 与 ServerSocket)

1.TCP通信原理 TCP通信涉及两个端点:客户端和服务器。服务器端使用 ServerSocket 监听特定端口,等待客户端的连接请求。客户端使用 Socket 连接到服务器的IP地址和端口。一旦连接建立,双方就可以通过输入输出流进行数据交换. ServerSocket是…

视频工具EasyDarwin生成RTMP给WVP拉流列表

效果 运行 登录 http://127.0.0.1:10086/ admin/admin 创建RTMP服务

微型导轨在光学仪器中的应用!

微型导轨在光学仪器中扮演着至关重要的角色,以其高精度、高稳定性的特点,提供稳定的光学路径和精确的光学元件位置。接下来,我们一起来看看微型导轨在光学仪器中的应用实例! 1、显微镜:在显微镜中,微型导轨…

鹏哥C语言自定义笔记重点(67-)

67. 68. 69. 70. 71.结构体内容 72.理解结构体的字节数 73. #pragma once //头文件中使用,功能是:防止头文件被多次引用 74.结构体传参 结论:结构体传参时,要传结构体地址。 75.位段 76.static是只能在该文件中看到,其他地方看不到 77.…

【6大设计原则】迪米特法则:解密软件设计中的“最少知识原则”

引言 在软件设计中,设计原则是指导我们构建高质量、可维护系统的基石。迪米特法则(Law of Demeter,LoD),也被称为“最少知识原则”,是六大设计原则之一。它强调对象之间的松耦合,确保系统的各个…

8. Transforms的使用(三)-- Resize

Transforms的使用(三) 1. 为什么要使用Resize 在模型的训练过程中往往需要图片数据的维度相同,才能适应深度学习模型中的相关神经网络结构,这时候就需要使用Resize保证所有的图片保持相同的尺寸2. 使用Resize调整图片的尺寸 在pytorch2.3的版本上,Resize()支持对Tensor类…

1405 问题 E: 世界杯

废话 这个题,我估计 22 22 22 年的时候写过一次,当时应该是搞明白了,现在重新写还是不会写,有点无奈 题目 问题 E: 世界杯:现在的 OJ 把题目加到一个活动里面去之后,感觉之后这个链接就访问不了了。题目…

CSS—4

1.定位 1.相对定位 2.绝对定位 3.固定定位 4.粘性定位 5.定位的特殊应用 2.布局-版心 3.布局-常用布局名词 4.布局-重置默认样式

321. 拼接最大数

1. 题目 321. 拼接最大数 2. 解题思路 题目精简一下: 给你两个数组,从每个数组选取N个元素(需要保持相对顺序,比如从数组[4,8,2]选取两个元素,选取出来后必须保持顺序,比如选4和2,那么组成新…

对操作系统(OS)管理和进程的理解

文章目录 从冯诺依曼体系入手来了解计算机硬件部分操作系统操作系统的概念设计操作系统(OS)的目的对下(硬件)OS的管理对上如何理解系统调用 进程 在计算机系统中,硬件、操作系统和进程是三个至关重要的概念。它们相互协…