万字长文解读【深度学习面试——训练(DeepSpeed、Accelerate)、优化(蒸馏、剪枝、量化)、部署细节】

🌺历史文章列表🌺

  1. 深度学习——优化算法、激活函数、归一化、正则化
  2. 深度学习——权重初始化、评估指标、梯度消失和梯度爆炸
  3. 深度学习——前向传播与反向传播、神经网络(前馈神经网络与反馈神经网络)、常见算法概要汇总
  4. 万字长文解读深度学习——卷积神经网络CNN
  5. 万字长文解读深度学习——循环神经网络RNN、LSTM、GRU、Bi-RNN
  6. 万字长文解读深度学习——Transformer
  7. 万字长文解读深度学习——GPT、BERT、T5
  8. 万字长文解读深度学习——ViT、ViLT、DiT
  9. 万字长文解读深度学习——CLIP、BLIP
  10. 万字长文解读深度学习——AE、VAE
  11. 万字长文解读深度学习——GAN
  12. 万字长文解读深度学习——训练、优化、部署细节

文章目录

  • 模型训练
    • DeepSpeed
      • DeepSpeed 的核心功能
        • ZeRO 优化器(Zero Redundancy Optimizer)
        • 混合精度训练(Mixed Precision Training)
        • 分布式的数据并行和流水线并行(Distributed Data Parallel and Pipeline Parallelism)
        • 自动微调和优化(Automatic Tuning and Optimization)
        • 深度优化的内存管理和调度(Memory Management and Scheduling)
      • DeepSpeed 的优势
      • DeepSpeed 的应用场景
      • 总结
    • Accelerate
      • Accelerate 的主要功能和特点
      • 与其他分布式训练工具的对比
      • Accelerate 的应用场景
      • 总结
    • Accelerate 和 DeepSpeed对比
      • 相同点
      • 不同点
      • 各自的优缺点
        • Accelerate
        • DeepSpeed
      • 适用场景
      • 总结
  • 模型压缩和优化技术
    • 1. 知识蒸馏 (Knowledge Distillation)
      • 基本概念
      • 工作流程
      • 关键技术
      • 类型
      • 应用场景
      • 优势与挑战
        • 优势
        • 挑战
      • 总结
    • 2. 权重剪枝 (Model Pruning)
      • 基本原理
      • 二分类
        • 1. 非结构化剪枝(Unstructured Pruning)
        • 2. 结构化剪枝(Structured Pruning)
      • 常用方法
        • 1. 基于权重大小的剪枝(Magnitude-based Pruning)
        • 2. 基于梯度的剪枝(Gradient-based Pruning)
        • 3. L1/L2 正则化剪枝(Regularization-based Pruning)
        • 4. 基于熵的剪枝(Entropy-based Pruning)
        • 5. 迭代剪枝与再训练(Iterative Pruning and Fine-tuning)
      • 工作流程
      • 优势和局限性
        • 优势
        • 局限性
      • 实际应用
      • 总结
    • 3. 权值量化 (Quantization)
      • 基本原理
      • 类型
        • 1. 静态量化(Post-training Quantization, PTQ)
        • 2. 动态量化(Dynamic Quantization)
        • 3. 量化感知训练(Quantization-aware Training, QAT)
      • 常用方法
        • 1. 线性量化
        • 2. 非线性量化
        • 3. 对称量化和非对称量化
        • 4. 小数位量化(Fixed-point Quantization)
      • 优势与挑战
        • 优势
        • 挑战
      • 实际应用
      • 量化技术总结
    • 4. 权重共享 (Weight Sharing)
    • 5. 低秩分解 (Low-Rank Factorization)
    • 6. 神经架构搜索 (Neural Architecture Search, NAS)
    • 其他优化
    • 总结
    • 应用场景
  • 模型部署
      • 模型部署的关键步骤
      • 常见的模型部署方式
      • 优势与挑战
      • 总结
  • 边缘端部署方案
    • 总结

模型训练

DeepSpeed

DeepSpeed 是由微软开源的一个深度学习大规模分布式训练,特别适合大规模预训练模型(如 GPT、BERT、T5 等)的高效训练。DeepSpeed 提供了一系列技术和工具,以提升模型的计算效率、内存使用效率和训练速度。它不仅支持模型的分布式训练,还包含一些用于训练和推理的高效技术。

DeepSpeed 的核心功能

ZeRO 优化器(Zero Redundancy Optimizer)
  • 作用:通过消除冗余的数据存储和计算,大幅减少训练大规模模型时的内存需求,使得超大规模模型的训练成为可能。
  • 原理:将优化器状态梯度模型参数分布到多个 GPU 中,每个 GPU 只存储一部分数据,通过分布式计算实现更高的内存利用率
  • ZeRO 阶段性优化:ZeRO 优化器分为多个阶段,每个阶段逐步减少内存冗余,实现更高的内存效率。
    • ZeRO Stage 1:分布式存储优化器状态。每个 GPU 只存储模型的部分优化器状态,这样多个设备可以共享优化器的负担。
    • ZeRO Stage 2:分布式存储梯度信息。模型的梯度分布到不同设备中,而不是每个设备都存储完整的梯度。
    • ZeRO Stage 3:分布式存储模型参数。每个 GPU 仅保留部分模型参数,使得整个模型可以在多 GPU 上进行分布式存储,从而大幅减少显存占用。
  • 显存高效性:ZeRO 的三级优化可以将显存需求减少到原本的很小比例,使得在有限显存的硬件上训练数百亿到数千亿参数的大规模模型成为可能。
混合精度训练(Mixed Precision Training)
  • 作用:使用半精度(FP16) 进行训练,在保证模型精度的同时大幅减少显存占用和计算成本。
  • 特点:DeepSpeed 在混合精度训练中采用 NVIDIA 的 Apex 技术,支持 FP16 和 FP32 的混合精度计算,有效加速模型训练。

1. 混合精度实现
传统上,神经网络的训练使用 32位浮点数(FP32)来表示模型参数计算结果。这种高精度表示在某些任务中可能并不总是必要的,而且会带来显存和计算上的高成本。DeepSpeed混合精度训练通过在模型中引入较低精度的数值表示(如16 位浮点数,FP16)来减小显存消耗和加速计算。

  • DeepSpeed 主要使用 FP16(半精度浮点数) 和 FP32(单精度浮点数) 进行混合精度训练,降低了显存需求和计算量。
    • FP16(半精度浮点数):具有更低的存储需求(16 位),用于模型的前向和反向传播计算,以及大部分参数和激活函数的存储。用于加速计算
    • FP32(单精度浮点数):用于存储模型的关键权重累计梯度等更敏感的数据。保证精度和稳定性
  • 它通过动态损失缩放、优化器的低精度支持,深度集成硬件加速等技术,确保在混合精度下的数值稳定性。

其中的 大部分权重和激活函数除了使用FP16 也可以使用 BF16

FP16 和 BF16 的对比如下:

特性FP16(半精度浮点数)BF16(BFloat16)
位数结构16 位(1 符号位,5 指数位,10 尾数位)16 位(1 符号位,8 指数位,7 尾数位)
指数范围较小,容易出现下溢或上溢与 FP32 相同,数值范围较大
精度的尾数精度,精度优于 BF16精度略于 FP16
数值稳定性,特别是在处理大动态范围数据时,更适合大动态范围的任务
硬件支持NVIDIA V100、A100、RTX 系列等大部分 GPUNVIDIA A100、H100 和 Google TPU
损失缩放需求需要动态损失缩放(Dynamic Loss Scaling)通常不需要损失缩放
  • FP16:适合广泛的硬件环境和常规任务,特别适用于在大多数 GPU 上进行的计算密集型任务。需要结合损失缩放来解决数值不稳定的问题。
  • BF16:适合需要高数值稳定性的任务,如在 A100 或 TPU 上训练大规模模型,可以替代 FP16,且通常无需损失缩放。BF16 在支持硬件上提供更高的稳定性,更适合于大动态范围的模型训练。

2. 自动混合精度 AMP

DeepSpeed 的混合精度训练不是简单地降低模型参数精度,而是会进行自动选择性的调整精度来实现高效且稳定的混合精度训练:

  • 自动混合精度(Automatic Mixed Precision, AMP):DeepSpeed 会在适当的时候自动将模型的参数和梯度转换为 16 位。例如,在大多数计算(如前向和反向传播)中将参数和梯度转换为 FP16 或 BF16,以提高速度并减少内存消耗;在需要更高精度的步骤(如关键参数的更新)中使用 FP32

3. 动态损失缩放
在混合精度训练中,特别是使用 FP16 时,由于数值表示的范围变小,梯度可能会下溢(变为零)或上溢(变得过大)。DeepSpeed 使用动态损失缩放动态调整损失的缩放因子,以确保数值稳定性。

动态损失缩放核心思路在反向传播中将损失值乘以一个损失缩放因子,从而放大梯度的数值。这个因子在整个训练过程中会动态调整,以确保梯度在 FP16 精度下计算时不会因为数值过小而变为零。

假设损失值为 ( L L L ):

  • 通过 缩放因子 ( S S S ),在反向传播前,将损失值放大 ( S S S ) 倍,即使用放大的损失值 ( L × S L \times S L×S ) 来计算梯度。
  • 计算得到的梯度也会被放大 ( S ) 倍。然后,在更新参数前,将梯度除以 ( S S S ) 还原。

这种缩放只影响梯度的计算过程,而不影响参数的更新,确保模型学习过程中梯度的有效性。

说明:

  • 损失缩放因子生效节点:损失缩放因子是一个数值系数,将损失值在反向传播前进行放大,以确保梯度不会因精度限制而下溢,在更新参数前进行缩放。防止模型更新中的梯度消失或爆炸。
  • 自动调整机制:在训练过程中,DeepSpeed 会检测梯度是否发生溢出,如果发现梯度溢出,则自动减小缩放因子;如果没有发生溢出,则逐渐增加缩放因子,从而实现平衡。
  • 好处:动态损失缩放能够保证 FP16 下的梯度计算不至于失真,确保训练的稳定性并加速收敛。

工作流程如下:

  1. 初始设置损失缩放因子:训练开始时设置一个较大的初始损失缩放因子 ( S ),例如 1024。这个因子会在训练过程中动态调整

  2. 损失缩放:在每次反向传播时,将损失值放大 ( S ) 倍,并使用放大后的损失值计算梯度。放大的梯度更不容易在 FP16 精度下因数值范围限制而被截断为零。

  3. 溢出检测

    • 反向传播完成后,检查计算的梯度是否出现溢出(例如是否有 NaN 或 Inf 值)。
    • 如果检测到梯度溢出,说明缩放因子 ( S ) 太大,导致溢出。此时会将 ( S ) 减小(通常减少一半) 以防止溢出。
    • 如果没有溢出,说明当前的缩放因子适合当前计算精度,可以选择 保持当前因子,或者根据训练情况逐步增大缩放因子,以尽可能地提高梯度的有效信息量。
  4. 梯度还原:在参数更新前,将放大的梯度除以缩放因子 ( S )恢复到正常范围。这一过程不会影响模型的学习,只是确保了计算过程中梯度的数值稳定性。

4. 混合精度优化器
DeepSpeedZeRO 优化器 确实很好地支持混合精度训练,并对不同精度的参数和梯度进行优化处理:

  • 显存节省:ZeRO 优化器通过分片和分布式存储显著减少显存占用,与混合精度相结合时,能够最大化内存效率。
  • FP16 和 BF16 兼容性:DeepSpeed 的混合精度优化器在支持 FP16 和 BF16 的设备上会自动切换精度,以获得最佳的性能和稳定性。

5. 深度集成硬件加速

DeepSpeed 充分利用了硬件的混合精度计算能力,尤其在 NVIDIA GPU 的 Tensor CoreGoogle TPU 的支持下,实现了 FP16 和 BF16 的加速:

  • Tensor Core 的利用:在支持 FP16 的 GPU(如 NVIDIA 的 V100、A100 等)上,Tensor Core 计算能显著提升吞吐量。DeepSpeed 能识别这些硬件支持,并自动选择在计算过程中使用 Tensor Core,大幅提升了计算效率。
  • BF16 支持:BF16 模式在 NVIDIA A100、H100 及 Google TPU 上也得到原生支持,DeepSpeed 可以在支持的硬件环境中自动选择 BF16,以保证更高的数值稳定性。
分布式的数据并行和流水线并行(Distributed Data Parallel and Pipeline Parallelism)
  • 数据并行(DP):DeepSpeed支持常见的数据并行方式,将数据分配到多台设备,利用多 GPU 同步计算梯度。
  • 流水线并行(Pipeline Parallelism):将模型的不同阶段分布到多个设备中,以流水线方式进行前向和后向传播,特别适合超大模型的训练。

DeepSpeed 中的并行化技术是其核心功能之一,用于在大规模模型训练中优化资源利用、提升计算效率,并最大限度地减少显存开销。DeepSpeed 提供了数据并行模型并行流水线并行混合并行 等多种并行化策略,适用于各种规模的深度学习任务。以下是对每种并行化技术的详细介绍。

1. 数据并行(Data Parallelism)

数据并行是一种最常见的并行化策略,它将训练数据划分为多个批次,分发到不同的 GPU 上,每个 GPU持有相同的模型副本,但负责处理不同的数据批次

工作原理:

  • 模型复制:在所有参与并行的设备上复制完整的模型副本。
  • 数据分片:将数据划分为多个部分,每个设备上处理不同的数据子集。
  • 梯度同步:每个设备在独立处理数据后,会生成自己的梯度。通过 all-reduce 操作,将所有设备上的梯度进行汇总平均,再应用到每个设备的模型副本上,以保持模型参数的一致性。
  • 更新模型:同步梯度后,所有设备上的模型参数更新保持一致。

优缺点:

  • 优点:实现简单,易于扩展。适合多节点多 GPU 的大规模分布式训练。
  • 缺点:每个设备都需存储完整的模型副本,当模型参数量较大时,显存开销大。

深化(ZeRO 数据并行优化):

在传统数据并行的基础上,DeepSpeed 提供了 ZeRO(Zero Redundancy Optimizer)
技术,通过将优化器状态模型的参数梯度分布到多个设备上,减少显存冗余,显著降低了显存占用。ZeRO
进一步细分为多个阶段,每个阶段都在显存优化方面有独特的策略:

  • ZeRO Stage 1:分布式存储优化器状态。
  • ZeRO Stage 2:分布式存储梯度。
  • ZeRO Stage 3:分布式存储模型参数,使模型仅在部分设备上存储,进一步降低显存需求。

2. 流水线并行(Pipeline Parallelism)

流水线并行将模型执行过程分为多个阶段不同设备负责模型不同的阶段。数据分批次通过各个阶段,形成流水线,从而提高设备利用率。

工作原理:

  • 模型阶段划分:将模型按执行过程分成多个阶段,每个阶段放到不同的设备上。
  • 数据流水线:将数据分成多个小批次(micro-batches),这些小批次会依次传递给每个阶段。例如,第一批数据进入第一个设备,进行前向计算后,传递给第二个设备。同时,第一设备可以继续处理第二批数据,以形成流水线。
  • 梯度同步:在反向传播时,流水线中的每个设备需要同步梯度,以确保模型一致性。

优缺点:

  • 优点:通过分阶段处理,提高了设备的利用率,适合深层次模型的分布式训练。
  • 缺点:实现复杂,且由于反向传播中的同步和设备间的通信增加了延迟。

深化(微批次策略):

流水线并行通常会结合 微批次(micro-batch)
以降低延迟。将批量数据分成更小的微批次,可以降低每个阶段的等待时间,最大化设备利用率。

3. 模型并行(Model Parallelism)

模型并行将模型的参数计算任务按照模型的层划分到不同的设备上,每个设备只负责模型的一部分,适用于超大模型的训练。

工作原理:

  • 模型层拆分:根据模型结构,将模型按或按张量拆分成不同部分,并将这些部分分配给不同的设备。例如,一个模型的前几层放在第一个 GPU 上,中间层放在第二个 GPU 上,以此类推。

  • 数据共享:数据流从一个设备传递到另一个设备。每个设备负责特定层的前向和反向传播计算,结果再传递给下一个设备。
    优缺点:

  • 优点:每个设备只需要存储部分模型参数,显存消耗较小,适合参数量超大的模型(如 GPT-3)。

  • 缺点:由于每个设备之间需要频繁通信,增加了同步和通信开销;对于层次依赖较强的模型,通信效率较低。

深化(张量并行):

在模型并行中,DeepSpeed 支持 张量并行,将模型中的张量拆分到多个设备上。例如,将矩阵或权重矩阵分割成小块,并在不同 GPU上并行计算。这种方法适合矩阵乘法等大规模计算的并行化,并且减少了显存占用和通信需求,特别适合 Transformer 等模型。

4. 混合并行(Hybrid Parallelism)

混合并行将上述几种并行化技术结合使用,从而在显存利用和计算效率之间找到最佳平衡。DeepSpeed提供了灵活的混合并行支持,使得超大规模模型可以跨多个 GPU 和节点进行高效训练。

工作原理:

  • 数据并行 + 模型并行:例如,可以同时使用数据并行和模型并行,其中数据并行用于分发数据批次,模型并行用于分配模型参数。
  • 数据并行 + 流水线并行:模型在不同设备上分成多个流水线阶段,同时在每个设备上运行数据并行。
  • 全混合模式:结合数据并行、模型并行和流水线并行,例如在多节点集群上训练超大模型时,可以利用数据并行分布数据,模型并行分布参数,流水线并行分阶段处理数据。

优缺点:

  • 优点:混合并行可以同时处理数据量大、模型参数多的场景,使得多节点多 GPU 系统能够充分发挥计算能力。
  • 缺点:实现复杂,尤其是在多种并行化策略交叉应用时,增加了设备通信的管理难度。

模型并行 和 流水线并行区别:
模型并行(Model Parallelism) 和 流水线并行(Pipeline Parallelism) 可能会让人分不清,两者区别参考下面示意图:
流水线并行:

时间轴 →
微批次1: [设备1:阶段1][设备2:阶段2][设备3:阶段3]
微批次2:        [设备1:阶段1][设备2:阶段2][设备3:阶段3]
微批次3:               [设备1:阶段1][设备2:阶段2][设备3:阶段3]

模型并行:

[设备1]      [设备2]      [设备3]└──层1       └──层2       └──层3│            │            │↓            ↓            ↓数据流动   中间结果传递  最终输出
自动微调和优化(Automatic Tuning and Optimization)
  • 作用:DeepSpeed 提供了一些优化器(如 AdamW、Lamb)的高效实现,并对学习率调度器进行了优化,能够自动调整训练参数,提高模型收敛速度。
  • 优化策略:DeepSpeed 提供了 AdamW、LAMB 等优化器的高效实现,这些优化器尤其适合大模型的训练任务。

1. DeepSpeed 版本的 AdamW 优化器(DeepSpeed AdamW)

AdamW 是一种常用的优化器,适合大多数深度学习任务,尤其是大型 Transformer 模型。DeepSpeed提供了一个专门的高效版本 DeepSpeed AdamW,专为大规模分布式环境设计,结合了显存优化和高效的通信策略。

DeepSpeed AdamW 优化器相对于普通 AdamW 的改进之处:

  • 内存优化:DeepSpeed AdamW 支持 ZeRO 的分布式显存优化技术,将优化器状态(如动量和二阶矩)分布到多个 GPU 上,从而减少显存占用。
  • 全局同步:在大规模分布式训练中,DeepSpeed AdamW 利用 all-reduce 操作来同步梯度,确保每个设备在更新时获得全局一致的梯度。
  • 加速收敛:相较于标准 AdamW,通信和显存管理上做了优化,使得在处理大批量数据时能够更高效。

All-Reduce 是一种在分布式计算中用于数据聚合的通信操作,广泛用于多 GPU 和多节点的分布式深度学习中,特别是在同步梯度更新时。其主要作用是在多台设备(如 GPU)上汇总数据并分发结果,确保每个设备都能获得全局一致的结果。

2. LAMB 优化器(Layer-wise Adaptive Moments optimizer for Batch training)

LAMB(Layer-wise Adaptive Moments optimizer for Batch training)是专为大批量训练而设计的优化器。它在 DeepSpeed 中被优化用于超大批量训练场景,比如 NLP 模型和Transformer 模型的训练。

  • 层次自适应学习率:LAMB 可以根据模型的不同层次动态调整学习率,这对于大批量数据的训练尤其重要,能够提升收敛效率。
  • 适合大批量训练:相比 AdamW,LAMB 在大批量训练时更稳定,能够在不损失收敛速度的前提下适应超大批量大小(例如数千或数万批次大小)。
  • 结合 ZeRO 优化:在 DeepSpeed 中,LAMB 可以与 ZeRO 优化结合使用,显著降低显存占用,使得大批量训练在多设备上变得更高效。
深度优化的内存管理和调度(Memory Management and Scheduling)
  • 作用:通过优化 GPU 内存的分配和调度,DeepSpeed 能够有效利用内存资源,特别是在内存瓶颈下实现大模型的训练。
  • 内存管理:DeepSpeed 会自动计算和释放不必要的中间变量,降低内存占用,尤其在 ZeRO Stage 3 中得到显著优化。

1. 激活检查点(Activation Checkpointing)
激活检查点(Activation Checkpointing)是 DeepSpeed中的一种内存优化技术,它通过在反向传播过程中有选择性地保存中间激活值,有效降低了显存需求。

  • 工作原理:在模型的前向传播中,仅保存关键层的激活值,而不是保存所有层的激活。当进行反向传播时,未保存的激活值将通过重新计算得到,而不是直接从显存中读取。这种策略节省了大量的显存占用,因为激活值是深度学习训练中显存的主要占用之一。
  • 应用场景:对于深层模型,激活检查点技术特别有用,因为这些模型在前向传播中生成了大量的激活值。通过有选择地保存这些激活值,可以显著减少显存占用。
    激活检查点的优势在于它可以在显存和计算之间找到平衡点,虽然需要一些额外的计算开销(重新计算未保存的激活值),但显存节省带来的收益通常远大于计算增加的成本。

2. 动态显存分配(Dynamic Memory Allocation)
DeepSpeed 实现了动态显存分配策略,使得模型可以根据需求灵活分配显存资源,避免了不必要的显存占用。

  • 按需分配内存:DeepSpeed 在训练过程中,只有在需要的时候才分配显存资源。比如在前向传播过程中每一层的内存仅在该层运行时才会分配,并在执行完该层计算后释放。这样可以有效减少瞬时的显存占用,避免内存碎片化问题。
  • 内存重用:对于不同阶段使用的相同内存资源,DeepSpeed 通过内存重用技术实现了显存的最大化利用。例如,某些前向和反向传播的中间结果可以重复使用,不需要为每个步骤分配独立的显存。

3. 分布式检查点(Partitioned Checkpointing)
分布式检查点技术用于减少保存和恢复模型时的显存占用,它将模型参数拆分后分别存储到不同的设备上

  • 工作原理:在传统的训练过程中,保存完整模型的检查点需要每个 GPU 同时拥有完整的模型参数,这会消耗大量显存。通过分布式检查点,模型的不同部分在不同 GPU 上保存,每个 GPU 只需要存储一部分参数。这种方法减轻了显存的压力,并且可以在需要时有效恢复模型。
  • 增量保存:DeepSpeed 还支持增量保存检查点,允许用户只保存自上次检查点以来发生更改的部分。这种方法进一步减少了存储需求,并加快了保存检查点的速度。

4. 内存调度(Memory Scheduling)
DeepSpeed 通过优化的内存调度算法,智能管理各个计算步骤的显存分配与释放,避免了显存资源的浪费。

  • 计算图优化:DeepSpeed 根据模型的计算图,预测每层的内存需求,智能调度内存分配顺序,确保每一层的计算所需的内存可以得到高效分配。
  • 动态内存释放:在不影响后续计算的情况下,DeepSpeed 会实时释放不再需要的内存。例如,反向传播时,已经完成计算的梯度会立即释放,避免了不必要的显存消耗。
  • 智能任务调度:通过对计算任务的智能调度,DeepSpeed 能够平衡计算和显存使用,在模型不同阶段合理分配计算任务,避免内存瓶颈。

DeepSpeed 的优势

  • 支持超大规模模型训练:借助 ZeRO 优化器分布式内存管理,DeepSpeed 使得在有限的 GPU 上训练超大规模模型成为可能。
  • 高效的内存和计算资源利用:通过混合精度训练、流水线并行等技术,DeepSpeed 能有效提高 GPU 的利用率,减少计算和内存消耗。
  • 易用性和兼容性:DeepSpeed 能与 PyTorch 无缝集成,支持主流的分布式训练框架和云平台,便于扩展到多种硬件环境。

DeepSpeed 的应用场景

  • 超大规模语言模型的预训练:DeepSpeed 支持数百亿到万亿参数的模型训练,是 GPT-3 等大型模型的理想选择。
  • 高效分布式训练:在有限的 GPU 环境下训练大模型,DeepSpeed 的分布式优化和内存管理大幅提升了训练效率。
  • 推理优化:DeepSpeed 还提供一些推理加速方法(如量化和混合精度推理),适合在部署大模型时提高推理速度和效率。

总结

DeepSpeed 是一种强大的深度学习优化工具,尤其适合需要大规模分布式训练的模型。它通过 ZeRO 优化器、混合精度训练、分布式并行等技术,显著提升了模型训练的效率和扩展性,使得大模型的训练和推理在资源受限的情况下成为可能。


Accelerate

Accelerate 是由 Hugging Face 开发的一个轻量级库,旨在简化和加速分布式训练流程,特别是帮助开发者轻松管理多设备(如多个 GPU 和 TPUs)上的训练。Accelerate 针对分布式深度学习的复杂性进行了抽象,提供了易于使用的接口,让开发者无需深入研究底层的分布式设置,就可以在多设备上高效训练模型。

Accelerate 的主要功能和特点

  1. 多设备支持(Multi-Device Support)

    • 自动适配设备:Accelerate 自动检测和管理 CPU、单个 GPU、多 GPU 和 TPU 等设备,无需手动配置。
    • 分布式训练支持数据并行(Data Parallelism),用户可以轻松在多个设备上并行训练模型。
    • 易于切换:用户只需几行代码,即可将模型部署在多个设备上,而无需手动配置和管理设备信息。
  2. 简化的分布式训练接口

    • 去除复杂的分布式配置:Accelerate 提供了简单的 API 和实用工具来设置分布式环境,例如自动同步数据、广播梯度等。
    • 多进程管理支持自动化的进程管理,用户无需手动编写多进程代码,即可实现分布式训练的并行化。
    • 兼容性:Accelerate 可与 PyTorch 的原生分布式训练接口(如 torch.distributed)无缝集成,同时也兼容 Hugging Face 的 Transformers 库。
  3. 数据加载优化

    • 分布式数据加载:在分布式训练中,Accelerate 能够高效地分配和管理数据加载器,确保每个设备接收到不同的数据分片,避免重复数据处理。
    • 自动数据并行:当在多个设备上训练时,Accelerate 能够自动将数据分配给各个设备,并在训练结束后自动合并结果。
  4. 自动混合精度(Automatic Mixed Precision, AMP)

    • 自动化的混合精度支持:Accelerate 支持在不同设备(如 NVIDIA GPU、TPU)上进行混合精度训练,利用 FP16 精度加速计算和减少内存占用。
    • 简单易用:用户无需深入理解混合精度的细节,只需通过设置参数即可轻松开启 AMP。
  5. 易于调试和集成

    • 代码最小化修改:Accelerate 在设计上减少了对用户代码的侵入性,用户只需少量的修改就可以将单 GPU 代码扩展到多 GPU 或分布式环境。
    • 与 Hugging Face Transformers 无缝集成:Accelerate 可以直接配合 Transformers 库,简化大型语言模型的分布式训练设置,非常适合 NLP 模型的分布式训练。

与其他分布式训练工具的对比

  • 与 DeepSpeed 的对比:DeepSpeed 侧重于超大规模模型的高效训练,提供了更多内存优化和并行技术(如 ZeRO 优化器、流水线并行等)。而 Accelerate 的定位更为轻量化,适合需要简单、快速部署分布式训练的开发者,不需要大规模的分布式架构设置。
  • 与 PyTorch 的原生分布式训练对比:Accelerate 简化了 PyTorch 分布式 API 的复杂配置,使得分布式训练更易于实现,适合在简单的分布式训练场景下使用。

Accelerate 的应用场景

  • 快速分布式训练:适合需要将模型轻松扩展到多 GPU 或 TPU 的用户,例如快速迭代的研究人员或开发者。
  • NLP 和预训练模型:与 Hugging Face Transformers 的无缝集成,适合进行 NLP 模型的预训练和微调。
  • 小规模分布式实验:对于小规模分布式实验和测试,Accelerate 提供了便捷的接口,适合不具备复杂分布式训练经验的用户。

总结

Accelerate 通过简化分布式训练的流程和配置,让多设备训练变得更简单高效。它适合轻量级的分布式训练需求,尤其适用于需要快速部署分布式环境的小规模实验、NLP 任务、以及与 Hugging Face Transformers 的集成场景。

Accelerate 和 DeepSpeed对比

AccelerateDeepSpeed 都是用于优化深度学习模型训练的库,尤其在多设备和分布式训练上具有重要作用,但它们的目标、功能和适用场景有所不同。以下是它们的主要相同点、不同点,以及各自的优缺点。

相同点

  1. 多设备支持:Accelerate 和 DeepSpeed 都支持多 GPU 和 TPU 等多设备环境下的训练,能够有效地利用硬件资源。
  2. 分布式训练优化:两者都提供了简化的分布式训练接口和优化技术,帮助开发者加速深度学习模型的训练过程。
  3. 内存优化:二者都包括了不同形式的内存优化机制,能够减少显存占用,使得更大的模型可以在有限的硬件资源上训练。
  4. 自动化配置:两者都简化了分布式训练的设置,提供了封装好的接口,使得开发者不必深入了解底层分布式系统,即可轻松部署模型。

不同点

特性AccelerateDeepSpeed
主要目标提供简单轻量的分布式训练工具支持超大规模模型的高效分布式训练
优化深度提供基础的多设备支持和分布式优化提供高级优化(如 ZeRO 分布式优化)
模型类型小到中型模型,轻量级分布式训练适用于大规模模型(数十亿至万亿参数)
支持的并行方式数据并行、TPU 支持数据并行、模型并行、流水线并行等多种方式
Hugging Face 集成与 Transformers 库深度集成需要与 Transformers 进行额外集成
开发者复杂度轻量化,易上手,适合快速部署较高的技术要求,适合大规模复杂项目
主要优化器和功能混合精度训练、分布式数据加载ZeRO 优化器、混合精度训练、内存管理等

各自的优缺点

Accelerate
  • 优点

    • 易用性高:Accelerate 的 API 设计非常简洁,适合没有复杂分布式训练经验的开发者。
    • 轻量化:在多 GPU 和 TPU 上快速部署分布式训练,特别适合小到中等规模的模型训练。
    • 与 Hugging Face Transformers 深度集成:使其在 NLP 任务和预训练模型微调方面更加便捷。
    • 自动适配多设备:支持 CPU、GPU、TPU 等设备,易于迁移和扩展。
  • 缺点

    • 缺乏深度优化:相比 DeepSpeed,Accelerate 在内存管理和训练优化方面较为基础,不适合特别大的模型。
    • 并行支持有限:主要支持数据并行,对于更高级的模型并行和流水线并行支持较少,不适合大规模模型的分布式训练。
DeepSpeed
  • 优点

    • 适合大规模模型:通过 ZeRO 优化器,DeepSpeed 能够支持超大规模模型(如 GPT-3)的训练,显著降低内存消耗。
    • 高级并行支持:支持数据并行、模型并行、流水线并行等多种分布式训练方式,适合更复杂的分布式场景。
    • 内存效率高:在内存管理方面进行了深度优化,通过减少冗余存储,使得模型可以扩展到更大规模。
    • 高效的优化器实现:提供了针对大规模模型优化的高效实现,如 Adam、Lamb 等优化器的分布式实现。
  • 缺点

    • 复杂性高:DeepSpeed 的配置和使用较为复杂,尤其是对于并行方式的设置需要较高的技术门槛。
    • 需要较多资源:由于其目标是大规模模型训练,DeepSpeed 在多 GPU 集群等分布式环境下的优势更为明显,对资源有较高需求。
    • 依赖性强:与部分深度学习框架的集成度较低,需要开发者做更多的手动集成工作。

适用场景

  • Accelerate:适用于小到中型模型的分布式训练,特别是 Hugging Face Transformers 等 NLP 任务的轻量分布式训练场景。适合在快速开发和部署时使用,如 NLP 微调和小规模实验。
  • DeepSpeed:适合超大规模模型的分布式训练和高效优化,适合需要深入优化大模型训练的复杂任务,如 GPT-3、BERT 等大模型的预训练和分布式推理。

总结

  • Accelerate 更轻量、易用,适合快速的分布式部署和中小型模型的多设备训练。
  • DeepSpeed 更适合复杂的大规模分布式训练,提供更高级的内存管理和并行计算支持,是大规模模型的理想选择。

模型压缩和优化技术

模型压缩和优化技术是为了在保证模型性能(精度、推理速度等)的前提下减少模型的体积、降低计算复杂度和内存占用从而提高模型在资源受限环境中的部署效率。这些技术对于在边缘设备、移动设备等计算资源有限的场景中部署深度学习模型尤为重要。以下是几种常见的模型压缩和优化技术的解释:

1. 知识蒸馏 (Knowledge Distillation)

知识蒸馏是一种通过“教师模型”(通常是一个性能较高但规模较大的模型)来指导“学生模型”(通常是一个较小但高效的模型)训练的技术。其基本思想是让学生模型学习教师模型输入数据上的输出分布,而不是直接学习真实标签。主要步骤如下:

  • 训练教师模型: 首先训练一个大规模的教师模型,该模型通常有很好的性能。
  • 蒸馏训练: 使用教师模型的预测结果(软标签)来训练学生模型。通常情况下,学生模型会通过一种称为“蒸馏损失”(Distillation Loss)的函数来最小化其输出与教师模型输出的差异。
  • 优势: 知识蒸馏可以有效地提升学生模型的精度,即使学生模型结构相对简单,也能获得接近教师模型的性能。

推荐阅读:一文搞懂【知识蒸馏】【Knowledge Distillation】算法原理

基本概念

知识蒸馏(Knowledge Distillation)是一种将大模型的知识迁移到小模型的方法,旨在保持模型性能的同时,减少模型的参数量和计算复杂度。知识蒸馏广泛用于深度学习中模型压缩和加速的任务,使得小模型能够在有限资源的设备(如手机、嵌入式设备)上高效运行,同时仍保持高精度

知识蒸馏通过训练一个小模型(学生模型)模仿 一个 大模型(教师模型) 的行为。大模型的输出(通常是类别概率分布或特征表示)作为小模型的“软标签”或监督信号,使小模型能够更好地学习复杂的数据分布。

知识蒸馏可以分为以下几种基本形式:

  1. 软标签蒸馏:通过教师模型的输出概率作为目标,使得学生模型不仅学习正确的分类,还学习类别之间的相对关系。
  2. 中间层蒸馏:将教师模型的中间层表示传递给学生模型,使其学习更丰富的特征表示。
  3. 基于特征的蒸馏:直接从教师模型的隐藏层特征提取知识,并将其应用于学生模型。

工作流程

知识蒸馏的整个流程确保了小模型在有限资源的设备上高效运行,同时保留了教师模型的精度。这种方法被广泛应用于边缘计算、移动应用和其他对计算资源敏感的场景。

步骤详细操作
训练教师模型训练一个高精度的大模型,作为学生模型学习的知识源
准备软标签过温度调节生成教师模型的软标签,提供类别间相对关系信息
构建学生模型设计一个小而高效的模型,用于模仿教师模型的行为
构建损失函数使用软标签和硬标签损失的组合,以平衡学生模型对硬标签和软标签的学习
训练学生模型通过前向传播、反向传播和参数更新迭代优化学生模型,模仿教师模型的输出
评估模型对比教师和学生模型的性能,确保学生模型在效率和精度上的平衡
部署学生模型导出学生模型到目标平台,进行量化、剪枝等优化,并在真实环境中进行测试部署
  1. 训练教师模型

    • 目标:知识蒸馏的第一步是训练一个高精度的大模型,也就是教师模型。教师模型通常具有较大的参数量和复杂的结构,能有效学习到数据的复杂模式。
    • 训练:教师模型通常在完整数据集上进行标准的监督学习训练,以确保其在任务上的性能足够好(例如分类任务中达到较高的准确率)。教师模型的高精度和强泛化能力为学生模型提供了可靠的“知识源”。
    • 优化:教师模型可以使用标准的损失函数(例如分类任务中的交叉熵损失)进行优化。教师模型的最终性能将直接影响学生模型的学习效果,因此需要仔细调优确保教师模型的高质量。
  2. 准备教师模型的输出

    • 目标:在知识蒸馏中,教师模型的输出不再是简单的硬标签(one-hot),而是称为“软标签”的类别概率分布。软标签提供了类别间的细微关系,是学生模型的重要学习目标

    • 温度调节:教师模型的输出通常使用温度调节(temperature scaling)进行平滑。具体来说,教师模型在生成输出的 softmax 概率分布时会加入温度参数 ( T T T ),以平滑各类别之间的概率分布

    • 输出软标签:经过温度调节后的 softmax 输出(软标签)会被保存下来,作为学生模型的目标。软标签比硬标签包含了更多类别间的信息,有助于学生模型更细致地学习数据分布。

    • 教师模型生成的软标签的计算公式
      在这里插入图片描述

      • ( p_i ):第 ( i ) 类的概率(软标签)。
      • ( z_i ):第 ( i ) 类的 logit(教师模型输出的未归一化分数)。
      • ( T ):温度参数,用于控制软化程度。

公式参数解释

  1. Logits( z i z_i zi:Logits 是教师模型最后一层但是没有经过 softmax的输出(在应用 softmax 之前),通常表示各类别的非归一化得分

  2. 温度参数( T T T:温度参数用于调节 softmax 函数的输出分布。在知识蒸馏中,通过调整温度参数 ( T T T ) 的值,教师模型可以生成更加平滑的概率分布,从而帮助学生模型学习类别之间的相对关系。

    • 当 ( T = 1 T = 1 T=1 ) 时,这个公式就变成了普通的 softmax 函数,输出的概率分布直接对应教师模型对各类别的置信度。
    • 当 ( T > 1 T > 1 T>1 ) 时,输出分布变得更加平滑,使得非最大类的概率变得较大,利于学生模型捕捉到类间关系

温度参数 ( T ) 的作用

  • 更高的温度(即 T > 1 T > 1 T>1会使得 logits 被缩放得更小,从而使 softmax 函数的输出分布更平滑。这意味着各类别的概率差异会缩小,学生模型可以更好地理解不同类别之间的相对关系而不仅仅关注于概率最高的类别
  • 通过这种方式,学生模型在训练时不仅学习到正确答案的类别标签,还学习到不同类别之间的关系(即类间相似性)。这有助于学生模型在实际应用中对未见数据具有更好的泛化能力。
  1. 构建学生模型

    • 目标:学生模型通常比教师模型小,具有更少的参数量。它的目的是在保持教师模型精度的同时,显著降低计算和存储需求,以便在资源受限的设备(如手机、嵌入式设备)上高效运行。
    • 设计:学生模型可以与教师模型具有相同的结构,但层数、参数量较少;也可以是其他架构,甚至与教师模型完全不同。学生模型的设计通常会根据目标硬件的限制来优化,以在保持精度的前提下达到更高的计算效率。
    • 初始化:学生模型的权重可以从头初始化,也可以使用预训练模型的权重作为初始状态,以加快训练收敛速度。
  2. 构建损失函数

    • 目标:在知识蒸馏过程中,学生模型不仅要匹配数据集的硬标签(真实标签),还要学习教师模型的软标签(类别概率分布)
    • 组合损失:通常,知识蒸馏的总损失硬标签损失软标签损失加权组合。公式如下:
      在这里插入图片描述
    • 软标签损失(蒸馏损失):软标签损失通常使用 Kullback-Leibler (KL) 散度来衡量教师模型和学生模型输出概率分布之间的差异。KL 散度公式如下:
      在这里插入图片描述
  3. 训练学生模型

    • 目标:学生模型通过组合损失函数在软标签硬标签监督下进行训练。其目标是尽可能接近教师模型的表现。
    • 过程
      1. 前向传播:将输入数据经过学生模型,得到学生模型的输出概率分布。
      2. 计算损失:基于软标签损失和硬标签损失的加权组合,计算学生模型的总损失。
      3. 反向传播和参数更新:使用标准的优化算法(如 SGD 或 Adam)进行反向传播,更新学生模型的参数。
    • 超参数调整:在训练学生模型时,温度参数 ( T T T )损失加权系数 ( α \alpha α ) 都会显著影响蒸馏效果。通常通过实验调整,以找到最佳参数配置。
  4. 评估学生模型

    • 目标:在学生模型训练完成后,对其进行评估,检查它的性能是否接近教师模型。评估学生模型的性能可以使用标准的评估指标,如分类任务中的准确率、F1 分数等。
    • 对比:评估时,通常将学生模型的性能与教师模型的性能进行对比,确保学生模型在保持高效推理的同时,准确率尽可能接近教师模型。
    • 优化:如果学生模型的精度未达到预期,可以调整模型架构、增加训练数据量或调整蒸馏超参数(如 ( T T T ) 和 ( α \alpha α )),然后重新训练。
  5. 部署学生模型

    • 目标:知识蒸馏的最终目的是在性能受限的设备上部署学生模型。因此,部署学生模型时需要考虑计算成本、推理延迟和内存占用等因素。
    • 模型导出和优化:根据目标平台(如手机、边缘设备)对模型进行导出和优化。常见的优化方法包括量化、剪枝、加速推理框架(如 TensorRT)等。
    • 上线和测试:在真实环境中测试学生模型的表现,确保其推理速度和精度满足应用需求。必要时进行进一步优化和调整。

关键技术

  1. 温度调节(Temperature Scaling)

    • 温度调节是知识蒸馏中的重要技术,常用于教师模型输出的平滑化处理温度参数 ( T T T ) 增大时,类别概率分布会更加平滑使学生模型更关注不同类别的相对关系,而不仅仅是最优类别。
      在这里插入图片描述
  2. 损失函数设计

    • 知识蒸馏中的损失函数一般包括两个部分:一个是学生模型与真实标签之间的交叉熵损失,另一个是学生模型和教师模型的软标签之间的蒸馏损失
    • 蒸馏损失通常使用 Kullback-Leibler (KL) 散度来衡量教师和学生模型输出之间的差异,鼓励学生模型的输出接近教师模型的输出。
  3. 中间层蒸馏

    • 在一些知识蒸馏方案中,不仅将教师模型的输出作为知识来源,还将其中间层特征传递给学生模型,使学生能够学习到更加丰富的表示。
    • 通过匹配学生和教师模型的中间层表示,可以显著提升学生模型的表达能力和精度。

类型

  1. 单教师-单学生蒸馏

    • 最基础的知识蒸馏类型,只有一个教师模型和一个学生模型。
    • 教师模型通过软标签和中间层表示向学生模型传递知识。
  2. 多教师蒸馏

    • 多个教师模型向单个学生模型提供知识。学生模型学习多个教师模型的组合输出,通常取平均值或加权融合。
    • 这种方法可以进一步提升学生模型的泛化能力。
  3. 自蒸馏(Self-distillation)

    • 不需要单独的教师模型,而是通过多轮训练让模型自己学习自己的知识。例如,每轮训练后生成新的软标签,进一步提升模型精度。
    • 自蒸馏可用于模型的迭代提升,无需外部教师模型。
  4. 对比学习蒸馏(Contrastive Distillation)

    • 使用对比学习的方法使得学生模型和教师模型在生成相似样本时的输出更加接近,而在不同样本上输出差异更大。
    • 对比学习蒸馏通过增加表示的区分度提升学生模型的效果。

应用场景

  1. 模型压缩与加速

    • 知识蒸馏可以有效压缩模型,使得小模型在准确率接近大模型的同时,计算成本和存储需求大幅减少,适用于嵌入式设备或移动端。
  2. 迁移学习

    • 将教师模型从某一领域迁移到其他相关领域,学生模型可以在新领域中得到更好的泛化表现
  3. 多任务学习

    • 通过知识蒸馏,可以将一个多任务的教师模型中的知识转移给多个单任务学生模型,使得学生模型在单一任务上表现更好。
  4. 自监督学习

    • 在自监督学习中,知识蒸馏可以帮助模型有效利用未标注数据,进一步提升模型在下游任务中的性能。

优势与挑战

优势
  1. 有效的模型压缩:知识蒸馏能显著缩小模型规模,同时在准确率上与教师模型接近,适合在资源受限的设备上部署
  2. 改进的泛化能力:学生模型通过学习教师模型的输出分布,能够更好地理解数据分布,提高泛化性能
  3. 灵活性:知识蒸馏方法适用于多种深度学习任务和模型架构,能与其他模型压缩方法(如剪枝、量化)结合使用
挑战
  1. 教师模型依赖:蒸馏效果依赖于教师模型的质量,若教师模型不准确,学生模型可能学到错误的知识。
  2. 训练时间:蒸馏过程通常需要额外的训练步骤,增加了训练时间和计算资源需求
  3. 知识转移的有效性:如何选择最优的蒸馏方法、温度参数以及特征层是一个挑战,需要在不同任务和模型上调整。

总结

知识蒸馏是一种重要的模型压缩方法,通过让小模型(学生模型)学习大模型(教师模型)的知识,达到模型精简和高效推理的目的。它已广泛应用于计算受限环境下的深度学习模型部署,并在迁移学习、多任务学习等场景中表现出色。知识蒸馏仍在持续研究中,未来可能通过结合更多优化方法进一步提升学生模型的效果。

2. 权重剪枝 (Model Pruning)

模型剪枝是一种减少模型冗余参数的方法,通常通过移除对模型性能影响较小的权重或神经元来降低模型的计算复杂度和存储需求。模型剪枝的主要方法包括:

  • 非结构化(权重)剪枝 (Weight Pruning): 将小于某个阈值的权重设为零。剪枝后可以使用稀疏矩阵表示模型,从而减少计算量和存储需求。
  • 结构剪枝 (Structured Pruning): 移除整个滤波器(卷积核)、通道或层。结构剪枝通常在减少模型复杂度的同时更好地保持模型性能。
  • 过程: 先训练一个全量模型,然后根据某种准则(如权重的绝对值、梯度等)进行剪枝,再在剪枝后的模型上进行微调以恢复性能
  • 优势: 剪枝可以大幅度减少模型参数量和计算量,适用于在资源有限的硬件上部署模型。

基本原理

权重剪枝(Weight Pruning)是一种用于深度学习模型压缩的技术,通过移除模型中的冗余权重(连接),来减少模型的参数量和计算量,进而降低内存占用并加速推理速度。权重剪枝主要应用于卷积神经网络(CNN)、循环神经网络(RNN)等结构,可以有效压缩模型,使其更适合在资源受限的设备(如移动端、嵌入式系统)上部署。

在神经网络中,不同权重对模型的输出影响程度不同。权重剪枝的核心思想是通过评估每个权重的重要性,移除对输出影响较小的权重连接。这样不仅能减少参数量,还可以保持模型精度。

权重剪枝通常可以划分为两个步骤

  1. 剪枝过程:确定哪些权重不重要并移除。
  2. 微调(Fine-tuning):剪枝后对模型进行微调,以恢复可能受到损害的精度

二分类

权重剪枝可以分为 非结构化剪枝结构化剪枝,这两种方式各有优缺点。

1. 非结构化剪枝(Unstructured Pruning)
  • 定义:在非结构化剪枝中,模型可以选择性地移除任意不重要的权重,剪枝过程不必遵循特定的结构化规则
  • 原理:通过评估每个权重的大小或梯度,将绝对值较小的权重置零,这些被剪掉的权重被认为对模型输出影响较小。
  • 优势:非结构化剪枝的灵活性较高,理论上可以获得很高的剪枝比例。
  • 缺点:非结构化剪枝后的权重稀疏性较强,结构不规则不易直接加速硬件计算;需要专用的稀疏矩阵存储和运算库来支持高效的稀疏性加速。
  • 应用场景:通常用于模型压缩,适合不考虑硬件加速的场景,例如压缩存储大小。
2. 结构化剪枝(Structured Pruning)
  • 定义:结构化剪枝移除整个特定权重组遵循网络的结构化特性。例如,卷积层的通道、滤波器、卷积核、层等,形成更规则的结构化剪枝模式。
  • 原理:通过评估神经元或通道的重要性,将不重要的神经元、通道、层进行移除,以减少计算负担。
  • 优势:结构化剪枝后模型仍然保持结构完整,能够直接适配硬件加速(如 GPU、TPU 等),实现显著的推理加速。
  • 缺点:剪枝过程中约束更多,压缩率和精度的平衡更难把握。
  • 应用场景:适用于需要高效推理的场景,例如在边缘设备或移动端部署 CNN。

常用方法

权重剪枝可以基于不同的剪枝标准和方法实现。以下是一些常见的权重剪枝技术:

1. 基于权重大小的剪枝(Magnitude-based Pruning)
  • 原理:基于权重的绝对值进行剪枝,通常认为绝对值较小的权重对模型的输出影响较小,因此可以被移除。
  • 实现:按比例剪枝(例如剪掉 20% 的权重)或设定剪枝阈值(小于阈值的权重被剪掉),可以通过多轮剪枝迭代提高剪枝比例。
  • 优点:实现简单,适用于大多数网络结构。
  • 缺点:仅依赖权重的大小进行剪枝,可能忽略一些重要的但权重值小的连接。
2. 基于梯度的剪枝(Gradient-based Pruning)
  • 原理:基于梯度对权重重要性的影响来判断是否剪枝。梯度值较小的权重通常对损失函数的影响较小,可以被剪枝。
  • 实现:在训练过程中,通过权重的梯度信息评估每个权重的重要性,将梯度绝对值较小的权重剪枝。
  • 优点:相比基于大小的剪枝,这种方法能够考虑权重在损失函数中的影响,更具针对性。
  • 缺点:需要额外计算梯度信息,计算成本较高。
3. L1/L2 正则化剪枝(Regularization-based Pruning)
  • 原理:通过引入 L1 或 L2 正则化项,鼓励模型中的一些权重接近于零,从而达到自动剪枝的效果。
  • 实现:在训练过程中将 L1 或 L2 范数作为正则化项加入损失函数,使模型中不重要的权重逐渐变小,接近零后即可剪枝。
  • 优点:正则化剪枝可以在训练中逐步实现,无需单独的剪枝步骤。
  • 缺点:训练时间会增加,适合剪枝比例较小的情况
4. 基于熵的剪枝(Entropy-based Pruning)
  • 原理计算每个权重或特征的重要性信息熵,信息熵较低的权重对输出不敏感,可以被移除。
  • 实现:评估每个通道、滤波器或权重的信息熵,将信息熵较低的部分进行剪枝。
  • 优点:能够精准衡量重要性,适合复杂模型。
  • 缺点:计算复杂度较高,适合小规模网络。
5. 迭代剪枝与再训练(Iterative Pruning and Fine-tuning)
  • 原理逐步剪枝模型,避免一次性移除过多权重。每次剪枝后,对模型进行微调,以恢复模型性能
  • 实现:在每轮剪枝后微调模型,逐步提高剪枝比例,达到最大压缩率。
  • 优点:保持精度的同时获得较高的压缩率。
  • 缺点:剪枝和微调需要多轮迭代,增加训练时间。

工作流程

权重剪枝的基本流程如下:

  1. 训练基础模型:首先训练一个完整的模型,使其在任务上达到最佳性能。
  2. 评估权重重要性:选择合适的评估标准(如权重大小梯度信息熵等)来判断每个权重或连接的重要性。
  3. 选择剪枝比例:根据模型的规模、目标设备性能等因素设定剪枝比例(如 20% 的权重)。
  4. 剪枝不重要的权重:根据评估标准和剪枝比例,移除不重要的权重。可以是一次性剪枝,或者是逐步剪枝。
  5. 微调模型:剪枝后,通常会对模型进行再训练,以恢复剪枝过程中可能损失的精度。微调步骤可以多次进行,以确保剪枝后的模型保持较好的精度
  6. 评估压缩效果:在剪枝和微调完成后,测试剪枝后的模型精度,并与原始模型进行对比,评估剪枝的效果。

优势和局限性

优势
  • 显著减少模型参数量:剪枝可以有效减少模型的参数,减小模型存储需求。
  • 加速推理速度:特别是结构化剪枝,可以显著减少计算量,实现推理加速。
  • 保持较高精度:在适当的剪枝策略下,可以在较小的精度损失下获得高效的压缩效果。
局限性
  • 非结构化剪枝难以加速推理:非结构化剪枝得到的稀疏模型结构不易直接在通用硬件上加速,需要稀疏矩阵库支持。
  • 剪枝比例与精度的平衡难以把握:过高的剪枝比例可能导致模型性能显著下降。
  • 迭代剪枝耗时较长:剪枝和微调过程通常需要多轮迭代,增加训练时间。

实际应用

  • 卷积神经网络(CNN):CNN 的大量权重适合剪枝,通过剪枝可以显著减少参数量和卷积计算的开销。
  • 循环神经网络(RNN):RNN 中的权重剪枝可用于减少循环网络的计算量,适合语音识别、机器翻译等

任务。

  • 全连接层:全连接层的参数量较大,适合进行非结构化剪枝,减少存储需求。

总结

权重剪枝是一种有效的模型压缩技术,通过移除不重要的权重来降低模型的参数量和计算量。根据剪枝方法的不同,剪枝可以在不同程度上加速推理过程,同时保持较高的模型精度。在实际应用中,权重剪枝技术广泛用于模型压缩、推理加速和边缘设备部署中。

3. 权值量化 (Quantization)

量化是指将模型中的浮点数权重和激活值转换为低精度的整数表示(如8-bit)【类似上面提到的DeepSpeed的混合精度】,从而减少模型的存储和计算开销。量化的主要类型有:

  • 静态量化 (Static Quantization): 在推理前将模型的权重和激活值提前量化
  • 动态量化 (Dynamic Quantization): 推理时激活值根据输入动态量化推理前权重已经量化
  • 量化感知训练 (Quantization-Aware Training): 在训练过程中考虑量化误差,以减小量化带来的精度损失。
  • 优势: 量化可以在保持模型精度的前提下,显著减少模型大小和计算开销,适用于在移动设备和边缘设备上部署。

基本原理

权值量化(Weight Quantization)是一种通过降低模型中权重和激活值的数值精度压缩模型的技术。量化技术能够显著减少模型的存储需求和计算开销,尤其适合资源受限的硬件设备(如手机、嵌入式系统、FPGA、TPU 等),在保持模型精度的同时大幅提高推理效率。

传统深度学习中,权值和激活值通常使用 32 位浮点数(FP32)来表示,虽然精度高但计算量大。权值量化的基本思想是将这些 32 位浮点数转换为更低精度的数据类型(如 8 位整数,INT8),从而减少存储和计算的成本。

量化的常见数据类型有:

  • INT8:8 位整数,是最常用的量化精度,平衡了性能和精度。
  • FP16:16 位浮点数,在部分精度要求较高的场景中使用。
  • 其他精度:如 INT4、INT2,甚至二值化(binary),适用于对精度要求较低的场景。

类型

权值量化根据实现的时间点和计算方式不同,可以分为以下几类:

量化类型原理优势应用场景
静态量化使用一组校准数据计算激活值的动态范围,在推理前将模型的权重和激活值量化为低精度(如 INT8)实现简单,推理加速推理任务,适合精度要求较低的模型
动态量化推理前对权重进行量化推理时根据输入数据动态量化激活值精度更高,适应实时变化的数据NLP 模型中的 RNN、LSTM 等,输入分布变化较大的任务
量化感知训练训练过程中对权重和激活值模拟量化误差,使用伪量化方法使模型在训练时适应量化的效果精度损失最小,适合复杂模型高精度模型(CNN、Transformer),适合需要保持高精度的任务
1. 静态量化(Post-training Quantization, PTQ)

静态量化是在模型训练完成后,将模型的权重和部分激活值量化为低精度的整数。这种方法不需要在训练中进行额外的调整,因此也称为后量化

  • 工作流程
    1. 训练出完整精度模型。
    2. 将模型的权重和激活值量化为低精度。
    3. 推理时直接使用量化后的模型进行计算。
  • 优点:实现简单,不需要重新训练。
  • 缺点:精度可能有所损失,尤其是对于复杂或精度要求较高的模型。
2. 动态量化(Dynamic Quantization)

动态量化是在推理时部分激活值进行动态量化。通常在推理前(模型训练完成后)对模型的权重进行静态量化的(如 INT8),而在推理过程中对激活值进行动态量化(如 FP32 转换为 INT8),以减少量化误差。

  • 工作流程
    1. 训练完成后,对权重进行静态量化
    2. 在推理时,根据当前输入动态量化激活值
  • 优点:相比静态量化有更好的精度保持。
  • 缺点:计算复杂度增加,对推理速度有一定影响。
3. 量化感知训练(Quantization-aware Training, QAT)

量化感知训练是一种在训练阶段就考虑到量化影响的技术。QAT 在训练过程中引入量化噪声,对权重和激活值进行模拟量化,使模型逐步适应低精度表示。这样可以最大程度地减少量化带来的精度损失,是目前精度最高的量化方法。

  • 工作流程
    1. 训练中加入量化模拟,即引入量化操作模拟推理中的低精度计算。
    2. 训练过程调整模型权重,使其更适应量化后的推理环境。
  • 优点:量化精度最高,可以减少精度损失。
  • 缺点:训练时间增加,需要更多的计算资源。

量化感知训练工作流程如下:

  1. 基础模型训练:训练一个完整精度模型,使其达到预期的高精度表现。

  2. 插入量化节点:在网络中加入量化操作,在每层后添加量化模拟,使模型在前向传播时模拟低精度计算的影响。

  3. 训练模型适应量化:在加入量化模拟的模型上继续训练,优化模型权重,使其逐步适应量化带来的精度损失。

  4. 量化模型参数:将最终训练得到的权重量化为整数表示,保存模型。

  5. 推理优化:部署到硬件上使用量化推理优化,使得模型在计算和存储方面都更高效。

常用方法

权值量化的实现方法通常包括线性量化、非线性量化、对称量化和非对称量化等,每种方法在精度和计算开销上有所不同。

量化方式原理优势应用场景
线性量化使用线性映射将权重和激活值缩放到低精度区间实现简单,适合硬件加速数据分布均匀的模型和任务,适合常规计算场景
非线性量化采用对数或分段线性方法,将权重和激活值映射到低精度区间,以适应数据分布减少量化误差,适合数据分布不均的模型稀疏网络、复杂分布数据,适合对精度要求高的模型
对称量化将正负数的量化范围对称,适用于数据分布对称的情况实现简单,硬件友好数据均匀分布的模型,适合标准硬件加速
非对称量化使用不同的量化范围来覆盖正负数据,适用于数据分布不均的情况适应性强,减少量化误差数据分布不均的模型,适合高精度模型的量化
小数位量化使用小数位来表示权重和激活值,适合存储精度较低的数据节省存储空间,适合小范围权重精度要求低、权重小范围变化的模型,适合轻量化模型部署
1. 线性量化

线性量化(Uniform Quantization)将权重映射到固定的低精度区间,例如将 FP32 权重映射到 INT8。具体过程如下:
在这里插入图片描述

  • 优缺点
    • 线性量化实现简单,适用于硬件加速。
    • 但对于分布不均匀的权重(如稀疏分布)会产生较大误差。
2. 非线性量化

非线性量化(Non-uniform Quantization)使用不同的步长非均匀分布来量化权重,可以减少量化误差,尤其在数据分布不均匀时更有效。

  • 实现:例如使用对数分布或自适应区间来量化,更多关注重要的权重区间。
  • 优缺点:非线性量化可以有效减少误差,但计算和实现复杂,硬件支持有限。
3. 对称量化和非对称量化
  • 对称量化(Symmetric Quantization):零点 ( z = 0 ),量化步长相同,适用于分布均匀的权重。
  • 非对称量化(Asymmetric Quantization):零点 ( z 不等于 0 ),正负区间的步长不同,适合分布不均的权重。
4. 小数位量化(Fixed-point Quantization)

对于权重取值范围较小的情况,可以直接将权重映射到固定的小数位数上,这样既可以减少存储开销,也便于硬件计算。

优势与挑战

优势
  • 内存节省:量化将 32 位浮点数转换为更低精度的数据类型(如 8 位整数),大幅减少模型的存储需求。
  • 加速计算:低精度整数计算相比浮点数计算更高效,在专用硬件(如 TPU、FPGA)上能进一步加速推理过程。
  • 能源效率:低精度计算的能耗显著降低,特别适合移动设备和嵌入式设备。
挑战
  • 精度损失:量化会引入近似误差,对精度要求高的模型可能导致性能下降,尤其是静态量化方法。
  • 不均匀分布:模型权重和激活值可能存在不均匀分布,线性量化可能无法很好地拟合这些分布,导致量化误差较大。
  • 硬件支持:不同硬件平台对量化支持程度不同,需要在选择数据格式和量化方法时考虑目标设备的硬件特性。

实际应用

权值量化技术在多个深度学习任务和模型中得到了广泛应用:

  • 计算机视觉:在 CNN 中广泛应用于图像分类、目标检测、图像分割等任务,以加速模型的推理过程。
  • 自然语言处理:在 Transformer 等模型中,对注意力层和自注意力计算量化,减少大模型在推理中的存储和计算开销。
  • 边缘计算与移动应用:量化技术非常适合资源受限的设备,例如手机、智能摄像头等,需要节省能耗和存储的场景。
  • 实时推理:量化后的模型在实际部署中推理速度更快,适合要求低延迟的应用场景,如实时监控、自动驾驶等。

量化技术总结

权值量化是深度学习模型优化的重要技术,在移动设备、嵌入式系统和低功耗设备上部署深度学习模型时有着广泛的应用。量化感知训练(QAT)是当前精度保持最好的量化方法,静态量化则适合模型部署的快速应用。选择合适的量化方法可以在性能和精度之间取得良好平衡,使得深度学习模型在实际应用中更加高效。

4. 权重共享 (Weight Sharing)

权重共享是一种将多个模型参数共享相同的权重,从而减少模型参数数量的方法。常用于压缩神经网络和减少参数冗余。

  • 过程: 训练过程中,将模型中多个类似参数强制约束为相同的值或从一个小的候选集(如哈希表)中选择。
  • 优势: 权重共享可以大幅度减少模型参数量,从而节省存储空间和计算资源。

5. 低秩分解 (Low-Rank Factorization)

低秩分解是一种将模型参数矩阵分解为多个低秩矩阵的乘积,从而减少计算量和存储需求的方法。常用于压缩大型全连接层和卷积层。

  • 过程: 将一个大的权重矩阵分解为两个或多个小的矩阵的乘积,这些小矩阵的秩比原矩阵低得多。
  • 优势: 低秩分解可以显著减少矩阵乘法的计算量,提高推理速度。

6. 神经架构搜索 (Neural Architecture Search, NAS)

NAS是一种自动设计高效神经网络结构的方法,通过搜索算法(如强化学习或进化算法)自动寻找性能与效率兼具的模型架构。

  • 过程: 定义一个模型结构搜索空间,使用搜索算法在这个空间中找到最优的模型结构。
  • 优势: NAS可以自动化地找到高效且适合特定硬件或任务的模型架构,减少人工设计的复杂性。

这些技术可以单独使用,也可以组合使用,以在特定应用场景中最大化模型的效率和性能。

其他优化

在处理大型数据集时,Transformer模型可以通过以下几种方法加以优化

  1. 使用分布式训练
  2. 数据预处理与数据增强
  3. 混合精度训练
  4. 逐步增加数据集规模

总结

方法主要目的优点缺点
剪枝去除冗余参数显著减小模型大小可能导致结构不规则
量化降低参数精度显著减少存储需求可能导致精度损失
知识蒸馏训练轻量学生模型性能接近大模型训练需要教师模型
低秩分解分解权重矩阵降低计算量适用性不广泛
NAS自动设计轻量架构高效模型,自动化搜索成本高

应用场景

模型压缩技术广泛应用于移动设备、嵌入式系统和其他计算资源受限的场景,适合需要在有限资源下部署深度学习模型的情况。


模型部署

模型部署是指将训练好的机器学习或深度学习模型集成到生产环境中,使其能够在实际应用中处理实时数据和提供预测服务。模型部署的流程涉及模型的封装、部署环境的选择、部署方式的设计,以及后续的监控和优化。以下是模型部署的关键步骤、常见方法和部署的最佳实践。

模型部署的关键步骤

  1. 模型打包

    • 将模型保存为特定格式(如 ONNX、TorchScript、SavedModel),便于在不同框架和设备上兼容运行。
    • 在打包过程中,可以将模型的结构和权重、预处理/后处理逻辑一起封装。
  2. 选择部署环境

    • 本地部署:适合小型应用或开发测试阶段。
    • 云端部署:通过云服务(如 AWS、GCP、Azure)提供的算力资源和服务,可以方便地扩展和缩放部署环境,适合处理大量请求。
    • 边缘设备部署:将模型部署在边缘设备(如手机、嵌入式设备、IoT 设备)上,适合延迟要求低或资源受限的场景。
  3. 选择部署方式

    • 批量预测(Batch Prediction):适合非实时需求,将多个样本进行批量推理,一般用于大规模预测任务。
    • 在线预测(Online Prediction):适合实时需求,通常以 API 形式部署,客户端通过请求获取实时预测结果。
    • 流式处理(Streaming Prediction):处理数据流中的连续样本,适合实时数据处理,例如传感器数据监控和事件检测。
  4. 优化模型

    • 模型压缩:采用剪枝、量化、知识蒸馏等技术压缩模型,降低计算资源和内存需求。
    • 硬件加速:在 GPU、TPU 或 NPU 等硬件上加速推理,提升响应速度。
    • 混合精度推理:使用混合精度(如 FP16)进行推理,以减少内存占用和推理时延。
  5. 部署框架和工具

    • 常见部署工具和框架包括:
      • TensorFlow Serving:适用于 TensorFlow 模型的高效服务框架,支持 API 部署和批量处理。
      • TorchServe:适用于 PyTorch 模型的部署框架,支持多模型管理和 REST API 服务。
      • ONNX Runtime:跨平台模型推理框架,支持多种硬件和低延迟需求。
      • FastAPI 或 Flask:常用于构建 RESTful API,可以将模型封装为在线服务。
      • Hugging Face Inference API:适用于 NLP 模型的部署和服务,支持多语言模型的推理。
  6. 监控和维护

    • 性能监控:监控模型的响应时间、内存和 CPU/GPU 使用率,确保模型满足实时需求。
    • 预测准确性监控:实时监控模型的预测结果,评估模型是否准确。
    • 模型更新:根据需求或数据变化定期更新模型,例如通过重新训练或微调,确保模型在生产环境中始终保持高性能。

常见的模型部署方式

  1. 容器化部署

    • 使用 Docker 将模型、依赖库、环境配置一起打包成容器,可以部署到本地或云端。
    • Kubernetes 用于管理容器化部署,可以实现模型的负载均衡、自动扩展和恢复。
  2. 无服务器架构(Serverless)

    • 通过无服务器架构(如 AWS Lambda、Google Cloud Functions)部署模型,仅在接收到请求时启动函数,适合需求波动较大的场景。
    • 无服务器架构通常成本更低,但不适合高频实时推理。
  3. 微服务架构

    • 将模型服务部署为微服务,通过 REST 或 gRPC 接口提供服务,与应用的其他服务解耦。
    • 适合需要高可靠性和可扩展性的生产环境。
  4. 边缘计算部署

    • 在资源受限的设备上(如手机、摄像头)部署模型,适合低延迟或隐私要求较高的场景。

优势与挑战

  • 优势

    • 提供实时或准实时的预测服务,直接应用于实际业务需求。
    • 在生产环境中可以通过部署多个模型提高可靠性,满足不同场景下的服务需求。
  • 挑战

    • 延迟:在高并发或低延迟要求下,难以保证模型的响应时间。
    • 可扩展性:需要根据预测需求的增长调整部署架构,确保服务的可扩展性。
    • 模型更新:需要在不影响服务的情况下进行模型更新,保证服务的连续性。

总结

模型部署是将模型应用到生产环境中以便实时服务用户的过程。通过选择合适的部署环境、部署方式和优化策略,可以提高模型的性能和响应速度。模型部署是将 AI 应用落地的关键步骤,它将训练好的模型转换为可用的服务,推动了机器学习在实际业务中的应用。

边缘端部署方案

框架/平台描述优点适用场景
TensorFlow Lite轻量级深度学习框架,专为移动和边缘设备设计。- 轻量级,内存占用低
- 高效推理,支持量化
- 跨平台支持(Android、iOS、Raspberry Pi)
适用于手机、物联网设备、嵌入式系统等资源受限环境
ONNX Runtime高性能推理引擎,支持 ONNX 格式,兼容多种深度学习框架。- 跨框架支持
- 硬件加速支持(CPU、GPU、FPGA)
- 易于集成
适用于跨框架部署、多种硬件加速需求的推理任务
Nvidia Jetson嵌入式计算平台,带有强大的 GPU,专为边缘计算设计。- 强大计算性能,GPU加速
- 支持多种深度学习框架
- 丰富的开发生态
高性能计算场景,如自动驾驶、机器人、无人机等
Apache MXNet高效的深度学习框架,支持多语言编程,并支持云和边缘设备。- 灵活性强,支持动态计算图
- 多GPU支持,快速训练
- MXNet Lite 适合移动和嵌入式设备
适用于需要快速实验、开发和边缘推理的场景

总结

这些边缘端部署方案各有优劣,选择合适的方案取决于具体的应用需求、设备资源限制和性能要求。** TensorFlow Lite 和 ONNX Runtime 适合轻量级应用** ,Nvidia Jetson 则适合高性能计算场景,而** Apache MXNet 提供了灵活的开发环境和强大的性能**。根据具体的使用场景进行选择,能够更好地实现边缘计算的目标。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/11386.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

C++ | Leetcode C++题解之第554题砖墙

题目&#xff1a; 题解&#xff1a; class Solution { public:int leastBricks(vector<vector<int>>& wall) {unordered_map<int, int> cnt;for (auto& widths : wall) {int n widths.size();int sum 0;for (int i 0; i < n - 1; i) {sum wi…

DDei在线设计器V1.2.42版发布

V1.2.42版 新特性&#xff1a; 1.快捷编辑框可以映射到主控件的多个属性上&#xff0c;从而实现快速编辑。 2.跟随图形的支持范围增加&#xff0c;从仅支持线控件到支持所有控件 2.新增控件双击回调函数EVENT_CONTROL_DBL_CLICK&#xff0c;可以用于覆盖默认的快速编辑逻辑…

大数据的实时处理:工具和最佳实践

在当今的数字世界中&#xff0c;数据以前所未有的速度从无数来源生成&#xff0c;包括社交媒体、物联网设备、电子商务平台等。随着组织认识到这些数据的潜在价值&#xff0c;他们越来越多地转向实时处理&#xff0c;以获得即时、可操作的见解。但是&#xff0c;实时处理大数据…

【51单片机】蜂鸣器演奏音乐——小星星天空之城

学习使用的开发板&#xff1a;STC89C52RC/LE52RC 编程软件&#xff1a;Keil5 烧录软件&#xff1a;stc-isp 开发板实图&#xff1a; 文章目录 蜂鸣器按键发声无源蜂鸣器演奏音乐简单乐理小星星天空之城 蜂鸣器 蜂鸣器在开发板的位置如下&#xff1a; 蜂鸣器是一种将电信号转…

【含开题报告+文档+源码】高校校园二手交易平台的设计与实现

开题报告 随着互联网的快速发展&#xff0c;电子商务成为了现代化社会中不可或缺的一部分。线上交易平台的兴起&#xff0c;为商家和消费者创造了更多的交易机会和便利。然而&#xff0c;传统的电商平台通常由一家中央机构管理和控制&#xff0c;对商家和消费者的自由度有一定…

录制的音频听起来非常缓慢,声音很模糊

一、主题 录制的音频听起来非常缓慢&#xff0c;声音很模糊 二、问题背景 硬件&#xff1a;T113&#xff0c;R528等平台系列产品 软件&#xff1a;Tina5.0 三、问题描述 1、复现步骤 使用arecord进行录音。 arecord -Dhw:audiocodec -f S16_LE -r 16000 -c 2 -d 5 /tmp/t…

计算机的错误计算(一百五十)

摘要 探讨 MATLAB 中 的计算精度问题。当 为含有小数的大数或 &#xff08;&#xff09;附近数时&#xff0c;输出会有错误数字。 例1. 已知 计算 直接贴图吧&#xff1a; 另外&#xff0c;16位的正确值分别为 -0.7882256119904400e0、0.1702266977524110e0、-0.…

【网络安全 | 漏洞挖掘】Google SSO用户的帐户接管

未经许可,不得转载。 文章目录 DOM XSS获取 CSRF Token解除Google账户绑定在这篇博文中,我将详细介绍找到针对Google SSO用户的账号接管(ATO)漏洞的过程。 DOM XSS 我遇到 DOM XSS 漏洞的位置非常微妙,因为我遇到了非常严格的WAF。 获取 CSRF Token 在找到XSS漏洞后,我…

2024中国游戏出海情况

01 哪里出海更花钱&#xff1f; 报告显示&#xff0c;中国手游在全球不同市场的获客成本不同&#xff0c;整体来看北美市场竞争更加激烈&#xff0c;其安卓和iOS获客成本是拉丁美洲的12倍和7倍。 按具体市场划分&#xff0c;获客成本最高的TOP 3为韩国、美国和日本&#xff0c…

AI写作(七)的核心技术探秘:情感分析与观点挖掘

一、AI 写作中的关键技术概述 情感分析与观点挖掘在 AI 写作中起着至关重要的作用。情感分析能够帮助 AI 理解文本中的情感倾向&#xff0c;无论是正面、负面还是中性。在当今信息时代&#xff0c;准确把握用户情绪对于提供个性化体验和做出明智决策至关重要。例如&#xff0c;…

AlphaProof IMO 2024 P1 in LEAN 之 简介

AlphaProof 是用于进行数学证明的人工智能&#xff0c;其中&#xff0c;对于 IMO 2024 中的6道题中的 4 道。本系列博文&#xff0c;就 AlphaProof 对于 IMO 2024 P1 给出的答案进行详细讲述。这里是此系列的第一篇。 IMO 2024 P1 题目如下&#xff1a; IMO 2024 P1 答案 α 为…

CANFD与CAN区别

CANFD帧的帧格式相比于传统CAN帧的帧格式多了以下的不同的&#xff1a; 1.CANFD帧中用RRS位替换了CAN帧中的RTR位&#xff0c;CAN报文中的RTR&#xff08;Remote Transmission Request&#xff09;位是远程帧发送请求位&#xff0c;当RTR位为显性&#xff08;0&#xff09;时&…

并发编程设计模式——Balking模式(三十九)

Balking 模式 多线程下&#xff0c;维护一个共享状态满足某个条件时&#xff0c;执行业务逻辑&#xff1b;当不满足时则立即放弃。通常用互斥锁来确保共享状态线程安全&#xff0c;如果不需要保证共享状态原子性&#xff0c;也可以用 volitle 修饰&#xff0c;替换互斥锁。 Bal…

了解Synchronized与Lock的区别

前言&#xff1a; 在多线程编程中&#xff0c;保证线程安全是至关重要的。Java提供了两种主要的同步机制&#xff1a;synchronized关键字和Lock接口。尽管它们都是为了解决多线程并发访问共享资源的问题&#xff0c;但在使用方式和特性上存在一些显著的差异。 synchronized&am…

DOM操作和事件监听综合练习:利用JS实现图片轮播

我们经常会看到购物网页上有商品图片在自动循环播放&#xff0c;这就是图片轮播&#xff0c;图片轮播‌是一种常见的网页设计元素&#xff0c;用于在网页上自动切换显示多张图片或内容。它通过JavaScript来实现图片的自动轮播效果&#xff0c;结合HTML和CSS来完成布局和样式设置…

Spark 新作《循序渐进 Spark 大数据应用开发》简介

《循序渐进Spark大数据应用开发》由清华大学出版社出版&#xff0c;已于近期上市。该书基于Spark 3.5.1编写&#xff0c;提供24个实战案例26个上机练习&#xff0c;可谓是目前市面上最新的Spark力作。 本文对《循序渐进Spark大数据应用开发》一书做个大致的介绍。 封面部分 …

【王木头】最大似然估计、最大后验估计

目录 一、最大似然估计&#xff08;MLE&#xff09; 二、最大后验估计&#xff08;MAP&#xff09; 三、MLE 和 MAP 的本质区别 四、当先验是均匀分布时&#xff0c;MLE 和 MAP 等价 五、总结 本文理论参考王木头的视频&#xff1a; 贝叶斯解释“L1和L2正则化”&#xff…

算法|牛客网华为机试41-52C++

牛客网华为机试 上篇&#xff1a;算法|牛客网华为机试21-30C 文章目录 HJ41 称砝码HJ42 学英语HJ43 迷宫问题HJ44 SudokuHJ45 名字的漂亮度HJ46 截取字符串HJ48 从单向链表中删除指定值的节点HJ50 四则运算HJ51 输出单向链表中倒数第k个结点HJ52 计算字符串的编辑距离 HJ41 称砝…

【国产桌面操作系统开发】制作桌面快捷方式

前言 目前使用最广的国产桌面操作系统是麒麟kylin操作系统和统信UOS操作系统&#xff0c;在国产系统上开发应用&#xff0c;需要在桌面提供一个快捷方式给用户使用&#xff0c;国产系统是Linux阵营&#xff0c;与window系统是有差异的。 国产系统桌面 国产系统桌面是一个xxx.d…

AndroidStudio-常用布局

一、线性布局LinearLayout 线性布局内部的各视图有两种排列方式: 1.orientation属性值为horizontal时&#xff0c;内部视图在水平方向从左往右排列。 2.orientation属性值为vertical时&#xff0c;内部视图在垂直方向从上往下排列。 如果不指定orientation属性&#xff0c;…