LLM学习:大模型微调&蒸馏&裁剪

8问LLM

Transformer Layers as Painters

本文为了理解预训练变换器(transformer)模型中各层的作用和它们之间的相互作用。具体来说,作者们试图通过一系列实验来探究以下问题:

  1. 不同层是否使用相同的表示空间?
  2. 所有层是否都是必需的?
  3. 中间层是否执行相同的功能?
  4. 层的顺序是否重要?
  5. 层是否可以并行运行?
  6. 某些任务是否比其他任务更依赖于层的顺序?
  7. 循环是否有助于并行化层?
  8. 哪些变体对性能的影响最小?

实验测试

图片

本文对LLM的每一层进行了尝试(赞扬这种打破砂锅问到底的精神❤️)

图片

可以看出:skip和switch起始层和结尾层对模型的影响很大,中间层几乎没有影响。

统计了下每一层的权重激活的分布,也发现中间的权重有很高的相似度。

图片

最终得到如下结论:

1、起始层和结束层很重要,和其他层的表示空间不一样。

2、中间层的权重分布基本一致。可删除小部分层,交换少部分层、并行运行小部分层,对模型结果影响较小(删除/交换越多,性能影响越大)。

图片

3、如果将相似的中间层全部替换为同一个层的权重,会导致严重的性能下降。(全部替换,改动太大)

图片

4、从各种任务效果上看,数学推理这种逻辑要求较高的任务场景受到模型改动的影响更大。而聊天/翻译等场景略好一点。

修剪模型虽然有效,但修剪后的模型在回答事实问题或生成长答案时表现较差。即使在重新训练模型后,也难以弥补这些任务的性能损失,这表明虽然这些层中存储的大部分信息是多余的,但其中的某些部分可能是关键任务所必需的。

Prompt Compression

Characterizing Prompt Compression Methods for Long Context Inference

这篇论文试图解决的问题是长文本上下文推理中的挑战,特别是系统层面上计算和内存需求的增加,以及在处理长文本时准确度的下降。论文关注的是压缩提示(prompt)的方法,以减少上下文长度,同时保留重要信息。

论文通过以下步骤解决这个问题:

  • 方法分类:将方法分为提取式压缩、抽象式压缩和token剪枝。
  • 评估设置:使用GPT-3.5-Turbo、Mixtral 8x7B和DBRX Instruct等模型,以及LongBench基准测试,包括单文档问答、多文档问答和摘要任务。
  • 数据集:使用LongBench中的多个数据集进行评估,包括NarrativeQA、Qasper、MultiFieldQA等。
  • 压缩方法评估:评估了原始方法、LongLLMLingua、重排模型(Reranker)、结合重排和LongLLMLingua的方法,以及查询不可知的抽象压缩方法。

图片

An illustration of different prompt compression methods: Token pruning

图片

An illustration of query-aware and query-agnostic compression

  • 论文分析了提取式压缩、抽象式压缩和token剪枝三种主要方法,并通过一系列实验发现提取式压缩通常表现最佳,能够在几乎不降低准确度的情况下实现高达10倍的压缩率。
  • 论文还探讨了查询感知与查询不可知压缩方法,并发现查询感知的抽象压缩方法在某些情况下表现更好。

LazyLLM:token裁剪

LazyLLM: Dynamic Token Pruning for Efficient Long Context LLM Inference

本文解决的问题是提高基于Transformer的大型语言模型(LLM)在长文本上下文中的推理效率。特别是在推理的预填充(prefilling)阶段,对于长文本提示(prompts),必须计算所有token的KV缓存,这显著增加了生成第一个token所需的时间,可能导致预填充阶段成为生成过程中的瓶颈。

原理

已知LLM的推理过程由prefilling和decoding阶段组成

图片

prompt-based LLM inference can be divided into two sequential stages: prefilling anddecoding

prefilling阶段是计算密集型,decoding阶段是传输密集型。decoding阶段的耗时和kv cache的size有关。

借鉴了LongBench论文中的注意力热力图表示,将全部layer的attention score显示出来可得下图,可以看出大部分score都很低,表示对结果影响极小。

图片

ttention scores of input tokens

因此本文提出了LazyLLM,根据注意力分数有选择性的计算某些token,大大降低了计算量,减少了TTFT(首token耗时)。

图片

Comparison between standard LLM and LazyLLM

具体选择过程如下所示。

图片

Overview of the LazyLLM framework

  • 1、既然需要根据注意力分数筛选,那么就要计算所有token的注意力结果。考虑到使用单层计算可能不够鲁棒,这里选择前30%的层计算全部token,注意力分数取平均值。
  • 2、根据注意力分数按照top-k机制裁剪30%(通过mask方式处理)
  • 3、使用剩余70%的token继续运行30%的层数。使用上述计算的平均注意力继续裁剪掉30%,此时剩40%
  • 4、使用剩余40%的token继续运行30%的层数。使用上述计算的平均注意力继续裁剪掉30%,此时剩10%
  • 5、运行完最后10%的layer,得到输出token。

考虑到当前裁剪的token可能对后续N个token会有影响,因此裁剪不是一次性的,而是每次运行时都会重新进行裁剪。

这里有个小细节:每次都要重新裁剪,需要保证token不会重复计算。

结论

可以在几乎不影响模型质量的条件下,有接近一倍的性能提升(token最多计算一遍,所以最差也和原始模型性能相同)。

图片

Minitron:模型蒸馏裁剪

Compact Language Models via Pruning and Knowledge Distillation

英伟达出品,试图解决的问题是如何有效地压缩大型语言模型(LLMs),以便在不同的部署规模和大小上使用,同时减少从头开始训练每种变体所需的计算资源。

图片

Minitron 模型性能

背景: 预训练模型很多,做预训练耗时耗力,因此考虑在现有开源预训练模型基础上进行微调。由于模型参数比较冗余,因此可以进行裁剪,从而减少模型参数,提高推理速度。

最终方案: 剪枝+微调

原理

剪枝和蒸馏流程如下所示

图片

High-level overview of our proposed iterative pruning and distillation approach to train afamily of smaller LLMs

在模型宽度上,将维度划分为多个block,尝试了简单求和以及L2、var等方法,简单求和的效果并不总是最好的。

图片

在模型深度上,使用困惑度和block重要性进行评估。

删除单个层并计算其对该剪枝模型的PPL的影响;使用层的输入和输出之间的余弦距离来估计层的灵敏度。灵敏度可以在一次前向传递中计算出来,这使得它比基于 PPL 的重要性具有显着的速度优势。

图片

灵敏度

剪枝后需要对修剪模型进行二次训练,这里有两种方式:传统continues training和Knowledge Distillation。此处尝试了蒸馏训练,将原本未裁剪的模型作为teacher,裁剪后的模型作为student。尝试了多种loss。

图片

最终L ,图片

相差很大,因此动态计算合适的α可以达到更好的效果。

效果

图片

MINITRON-BB和同级别模型的性能对比

图片

MINITRON-4B和同级别模型的性能对比

从Nemotron-4-15B裁剪的MINITRON-8B模型和MINITRON-4B模型相比原始模型和其他同级别的base模型相比,具有不错的性能。

和其他裁剪的模型对比

图片

裁剪方法对比

二次训练方法效果对比

图片

Accuracy comparison for 4B using the 8T blend

  • 1、从原始4B模型上随机训练
  • 2、从15B模型裁剪到4B模型上,随机训练
  • 3、从15B模型裁剪到4B模型上,蒸馏训练
  • 3、从8B模型裁剪到4B模型上,蒸馏训练

可以看出裁剪+蒸馏>裁剪>原始模型

蒸馏训练的损失函数选择:尝试使用 Kullback-Leibler 散度 (KLD)、MSE、余弦相似度和反向 KLD (R-KLD) 来计算 Llogits。KLD效果最好。

图片

loss对模型影响对比

训练过程中可以选择很多loss,哪种对模型提升最明显? 单独使用 Llogits 可以获得最佳性能。

图片

单次修剪和多次修剪对比。

将 Nemotron-4 15B 压缩为 MINITRON 4B 需要将原始模型重量大幅减少 73.3%。激进的一次性修剪会失去基础LLM的重要功能??? --> 首先修剪和重新训练 Nemotron-4 15B 以创建 MINITRON 8B(减少 46%),然后进一步修剪和重新训练后者为 MINITRON 4B(减少 50%)。

图片

裁剪策略影响

二次裁剪模型质量更高。

二次训练单阶段和两阶段对比。 有研究显示多阶段预训练例程的结果更高,测试表明对比本论文模型,单阶段训练就够了。

  • 1、修剪第 1 阶段检查点,使用第 1 阶段和第 2 阶段数据的部分进行重新训练;
  • 2、修剪第 2 阶段检查点,使用第 2 阶段数据的一部分进行重新训练。

图片

FLAMe:RM模型

Foundational Autoraters: Taming Large Language Models for Better Automatic Evaluation

本文提出了FLAMe,这是一个用于自动评估大型语言模型输出的模型系列。FLAMe通过在多样化的人类评估任务集合上进行训练(包含 500 万多个人类判断的 100 多个不同质量评估任务的集合),提高了在各种任务上的泛化能力。

图片

FLAMe-24B vs others

其中任务类型有四种:配对评估、单点评估、分类任务和开放式评估。

图片

数据内容包含回答质量、事实性、安全性、编码和数学等。

图片

结论

高质量数据得训练出高质量模型?其他好像没啥创新点。

WeLore:动态低秩微调

From GaLore to WeLore: How Low-Rank Weights Non-uniformly Emerge from Low-Rank Gradients

我们知道权重很容易出现低秩现象,因此出现了LoRA微调。但是如果以一个固定的低秩参数进行微调又很难得到理想的全量微调效果,因为每个模型的每个权重矩阵的分布都不一样,有些权重矩阵有可能出现满秩,用低秩去近似肯定会损害模型性能。

图片

osine similarity of the gradients obtained from various checkpoints

因此对应于跨transformer的不同层的权重矩阵可以大致分类为:

  • 1、低秩分量(LRC),表现出高质量的低秩结构(可以通过 SVD 获得的排序奇异值中的重尾来估计)它们的梯度可以携带来自数据的丰富误差信号;
  • 2、非低秩分量 (N-LRC) 具有非收敛的低秩结构(奇异值分布中缺少重尾),并且无法在不引入明显重构误差的情况下进行低秩分解

本文根据SVD分解结果动态选择LRC矩阵的秩,并在微调过程中只训练低秩权重,冻结高秩的权重矩阵,以达到加速效果。

最终在精度和FT相当的情况下,大幅提高了微调速度。

图片

Case2Code:代码领域合成数据集

论文试图提高大型语言模型(LLMs)在代码领域进行归纳推理(inductive reasoning)的能力。具体来说,它希望教会LLMs通过观察示例或序列变换来推断潜在的规则,但现有的LLMs大多擅长演绎推理(deductive reasoning)。在人类生成的数据中,需要归纳推理(inductive reasoning)的指令相对较少,这使得LLMs难以学习。

图片

Examples of deductive and inductive reason-ing in the code domain

提出了一个数据合成框架,用于自动生成大规模高质量的Case2Code训练样本。通过在多种设置下训练不同的LLMs,展示了合成的Case2Code数据不仅可以提高LLMs在归纳推理任务上的性能,还可以提升它们在一般编程任务上的能力。

图片

synthetic framework

scaling-with-vocab:词表的scaling law

这篇论文试图解决的问题是确定在扩展大型语言模型(LLMs)时,词汇表大小的最优值。

图片

Vocabulary parameters of popular LLMs and predict vocab size

Llama2-7B 采用32K的词汇量,而 Gemma-7B采用更大的词汇量 256K,那么问题来了:LLM的计算最佳词汇量是多少?

为了分析,本文提出了三种方法:

  • 1、(通过 IsoFLOP 估计幂律):使用从 33M 到 1.13B 范围内的非词表参数预训练模型,模型组共享相同的 FLOP(“IsoFLOP”)但词表配置不同。分别将 FLOP 与非词表参数、词表参数和训练数据相关的幂律拟合。

  • 2、根据论文引入了一种基于导数的方法,通过使用 FLOPs w.r.t. 的导数来估计最佳词表量,并找到相应的零解。图片,导数计算公式如下

图片

Beyond Chinchilla-Optimal: Accounting for Inference in Language Model Scaling Laws

  • 3、将vocab大小合并到Chinchilla 缩放规则中,并将结果公式拟合到模型上,以根据非词表参数、词表参数和训练量来预测归一化损失函数共同的字符。

图片

分析

基于 Transformer 的语言模型的 FLOPs © 大概可以估计为 C ≈ 6N D,可以重写为

图片

随着词汇量的增加,模型性能先上升后下降的原因是:

  • (1)在较小的 V 下,增加词汇量很容易提高 f (V ) 的tokenizer能力。随后,可以使用固定数量的token从模型中学习更多的字符,从而提高模型性能。
  • (2) 当 V 很大时,分词生育率的增益会降低,而扩展词汇表带来的参数无法在有限的数据下得到充分的训练,从而导致模型性能下降。

图片

FLOPs curve with various vocabulary sizes,

给定固定的 FLOP 预算,对于每个预算,采用一组总参数相似且词汇量从 4K 到 96K 不等的模型。可以发现随着词汇量的增加,loss先降后增,因此存在一个最优的vocab size。

图片

Loss curveswith various vocabulary sizes given different FLOP budgets.

效果

图片

ero-shot performance of models with Nnv = 2.87B

图片

ero-shot performance of models with Nnv = 2.87B

使用优化后的词表大小可以得到更高的性能。

To Code, or Not To Code? Exploring Impact of Code in Pre-training

系统地研究了代码数据对总体性能的影响。

图片

将数据分为通用数据和代码数据两部分。

Fine-tuning Large Language Models with Human-inspired Learning Strategies in Medical Question Answering

本文研究了相同数据和算力下,不同训练策略对模型性能的影响

图片

FuseAI:模型融合蒸馏策略

Knowledge Fusion of Large Language Models

论文试图解决的问题是如何将多个大型语言模型(LLMs)融合,以创建一个统一的模型,该模型有效地利用多个结构不同的LLMs的集体能力和独特优势。

图片

FuseChat与FuseLLM

从语言模型的角度来看,认为概率分布矩阵可以反映其在理解文本时的某些固有知识。因此,来自不同LLM的同一文本的不同概率分布矩阵可用于表示这些模型中嵌入的不同知识。FUSELLM 方法通过概率建模来解决 LLM 融合问题,旨在通过合并源 LLM 的概率分布来创建统一的 LLM。

Loss设计

常规的训练loss如下

图片

将这种token级视图重新构建为顺序分布格式。CLM 目标可以解释为减少 Pθ t 与单热标签矩阵 Ot ∈ {0, 1}N ×V 之间的差异。

图片

当从一组要融合的 LLM 开始时,FUSELLM 在反映预训练数据集的原始文本语料库上对目标 LLM 进行轻量级持续训练。FUSELLM 不是仅仅依赖于 CLM 目标,而是非常重视最小化目标 LLM 的概率分布与源 LLM 的概率分布之间的差异。

对于语料库 C 中的每个文本,应用提供的 K 个源 LLM 并获得一组概率分布矩阵,表示为 {Pθj t }K j=1,其中 θj 表示第 j 个 LLM 的参数。利用这些矩阵,将各个模型的知识外化到统一的空间中,本质上是在文本上创建统一的概率表示。

图片

所得矩阵 Pt 被视为源 LLM 的集体知识和独特优势的表示,使用 Qt 来表示文本 t 的目标 LLM 的输出分布矩阵。为了将源 LLM 的功能转移到目标 LLM,强制目标 LLM 的预测和融合表示矩阵 Pt 之间的对齐。

图片

最终loss为

图片

对齐策略

这里需要注意的是,和模型蒸馏方法有些类似,计算的是logits之间的关系。当不同模型的tokenizer不同时,即使logits经过lm_head线性层转换后的token信息相同,logits分布也可能会差别很大,因此最好是融合同tokenizer的模型(比如qwen系列),不然效果可能会比较差。

我们承认,源 LLM 之间的词汇差异可能会导致矩阵错位 {Pθj t }K j=1。为了解决这个问题,我们采用了token对齐策略(第 3.3 节中对此进行了解释),以促进跨模型的更连贯的概率解释。对齐概率矩阵后,我们继续将它们融合成一个紧凑的表示。

论文中使用了多种对齐方式处理不同的tokenizer。

多个LLM之间的token对齐对于有效的知识融合至关重要,因为它保证了概率分布矩阵的正确映射。

图片

tokne级对齐

图片

token级对齐

为了结合来源法学硕士的集体知识,同时保留其独特优势,必须评估不同法学硕士的质量并为其各自的分布矩阵分配不同的重要性级别。为此,在处理文本 t 时,利用分布矩阵和黄金标签之间的交叉熵损失作为 LLM 预测质量的指标(Marion 等人,2023)。源LLM的交叉熵分数越低,意味着对文本的理解越准确,其预测应该具有更大的意义。基于这个标准,引入两个融合函数:(1)MinCE:该函数输出具有最小交叉熵得分的分布矩阵;(2) AvgCE:该函数根据交叉熵分数生成分布矩阵的加权平均值

图片

logits级对齐

融合算法流程

整个流程可以简单概括为:

  • 1、初始化N个source LLM,并将其中某个复制一份作为target LLM。
  • 2、输入data到source LLM处理,得到N个logit分布,融合成一个最终分布。
  • 3、根据target LLm的结果分布和目标分布计算loss,更新target LLM参数。

图片

LongWriter:模型长文本性能优化

LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs

本文认为虽然模型能够处理长达100,000个标记的输入,但在生成超过2,000词的输出时表现不佳。原因主要是长数据集的质量不高导致,因此提出了一个合成高质量超长文本数据集的方法。

图片

gentWrite管线

简单来说,论文提出了一个名为AgentWrite的基于代理的流水线,该流水线将超长文本生成任务分解为多个子任务,使得现成的LLMs能够生成超过20,000词的连贯输出:

  • 第一步:计划(Plan),AgentWrite根据用户的输入制定详细的写作计划,包括每个段落的结构和目标字数。
  • 第二步:写作(Write),按照计划,模型依次为每个段落生成内容。为了保持输出的连贯性,在生成每个段落时,会将之前生成的段落作为上下文输入。

图片

LongWriter-6k

最终训练的效果还不错:短文本上没啥优势,但是2k以上提升显著。

图片

Evaluation results on LongBench-Write

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/150849.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

ShardingSphere-JDBC垂直分片

文章目录 1、订单库 db_order1.2、创建数据库 2、用户库 db_user2.1、创建 atguigu-mysql-user 容器2.2、登录 atguigu-mysql-user 容器2.3、设置密码2.4、创建数据库 3、创建实体类 TOrder4、创建实体类 TUser5、创建 TOrderMapper6、创建 TUserMapper7、application.yml8、sh…

Vue常用PC端和移动端组件库、Element UI的基本使用(完整引入和按需引入)

目录 1. Vue常用PC端和移动端组件库2. Element UI的基本使用2.1 完整引入2.2 按需引入 1. Vue常用PC端和移动端组件库 提供常用的布局、按钮、输入框、下拉框等UI布局,以组件的形式提供。使用这些组件,结构、样式、交互就都有了 移动端常用UI组件库 Van…

如何借助Java批量操作Excel文件?

最新技术资源(建议收藏) https://www.grapecity.com.cn/resources/ 前言 | 问题背景 在操作Excel的场景中,通常会有一些针对Excel的批量操作,批量的意思一般有两种: 对批量的Excel文件进行操作。如导入多个Excel文件…

工业制造场景中的设备管理深度解析

在工业制造的广阔领域中,设备管理涵盖多个关键方面,对企业的高效生产和稳定运营起着举足轻重的作用。 一、设备运行管理 1.设备状态监测 实时监控设备的运行状态是确保生产顺利进行的重要环节。通过传感器和数据采集系统等先进技术,获取设备…

最详细的AI产品经理学习路径|精确到天

💌最近很多想转行AI产品经理的小伙伴问我,AI产品经理到底要学哪些东西呢? ⏩这里,我整理了一份详细的AI产品经理学习路径,大家只要按照思维导图,进行学习就可以了 💎整个学习框架和体系是精心…

GESP等级考试C++二级-while语句

while语句用于循环执行某些语句。 1 while语句格式 while语句的格式如图1所示。 图1 while语句的格式 当while后面跟的条件是true时,则执行尖括号内的操作,执行完成之后,如果条件依然是true,则继续执行尖括号内的操作&#xff…

FortiOS SSL VPN 用户访问权限配置

简介 使用不同用户组或用户登录 SSL VPN 隧道模式后,可配置不同的访问权限。 本文介绍为不同用户组分配不同访问权限的配置方法。 相关组件 FortiGate:FortiOS v6.4.14 build2093 (GA) 客户端:Windows11,安装 FortiClient VPN 7.…

vscode下pnpm命令执行不了

今天使用pnpm install 报错,信息如下: 解决方法 一、安装pnpm 用cmd执行命令 npm install pnpm -g 二、用powershell 以管理员身份运行 执行命令 set-ExecutionPolicy RemoteSigned 回到vscode执行 pnpm install已经可以执行了

3D Slicer医学图像全自动AI分割组合拳-MONAIAuto3DSeg扩展

3D Slicer医学图像全自动AI分割组合拳-MONAIAuto3DSeg扩展 1 官网下载最新3D Slicer image computing platform | 3D Slicer 版本5.7 2 安装torch依赖包: 2.1 进入安装目录C:\Users\wangzhenlin\AppData\Local\slicer.org\Slicer 5.7.0-2024-09-21\bin&#xff0…

UE4_Niagara基础实例—使用自定义参数

实现的功能:使用自定义的参数来调整粒子远离发射器后粒子大小的变化 效果图: 操作步骤: 1、创建Niagara系统,使用Simple Sprite Burst模板作为新系统的发射器,更名为NS_Custompara。 2、双击打开Niagara系统编辑界面…

闰年判断-C语言

1.问题: 判断某一年是否是闰年。 2.解答: 闰年是公历中的名词,分为普通闰年和世纪闰年,普通闰年:公历年份是4的倍数的,且不是100的倍数,为普通闰年;世纪闰年:公历年份是整百数的,必…

5个被低估的Huggingface工具

Hugging Face Hub 拥有超过 85 万个公共模型,每月新增约 5 万个模型,而且这个数字似乎还在不断攀升。我们还提供企业中心订阅,可解锁合规性、安全性和治理功能,以及推理端点上的额外计算能力,用于生产级推理&#xff0…

Vue 自定义指令实现权限控制

一. 引言 Vue.js 提供了一种简单、灵活的方式来创建交互式的用户界面。在 Vue.js 中,指令是一种特殊的属性,可以附加到 HTML 元素上以执行一些操作。我们可以使用自定义指令来实现各种功能,比如:权限控制、自动聚焦、拖动指令等等…

网安加·百家讲坛 | 刘寅:人工智能(AI)是解决软件工程问题的“银子弹”吗?

作者简介:刘寅,东南大学电子工程系本、硕,南京大学EMBA,PMP,前科大讯飞技术副总经理,曾就职于中兴通讯、摩托罗拉、趋势科技、初速度等国内、国际名企,多次负责过质量体系从0到1的搭建&#xff…

【研赛A题成品论文】24华为杯数学建模研赛A题成品论文+可运行代码丨免费分享

2024华为杯研究生数学建模竞赛A题精品成品论文已出! A题 风电场有功功率优化分配 一、问题分析 A题是一道工程建模与优化类问题,其目的是根据题目所给的附件数据资料分析风机主轴及塔架疲劳损伤程度,以及建立优化模型求解最优有功功率分配…

「JVS更新日志」智能BI、低代码、逻辑引擎9.25功能更新说明

项目介绍 JVS是企业级数字化服务构建的基础脚手架,主要解决企业信息化项目交付难、实施效率低、开发成本高的问题,采用微服务配置化的方式,提供了 低代码数据分析物联网的核心能力产品,并构建了协同办公、企业常用的管理工具等&am…

【C++掌中宝】用最少的话让你全方位理解内联函数

文章目录 引言1. 什么是内联函数2. 工作原理3. 内联函数的编程风格4. 使用限制5. 内联函数与宏的比较6. 优缺点7. 何时使用内联函数8. 补充9. 总结结语 引言 在C编程中,函数的调用开销是程序运行效率的一个重要影响因素。为了解决频繁调用函数时的性能问题&#xf…

人工智能助力阿尔茨海默症治疗:微软与上海精神卫生中心的新研究

最近,微软研究院与上海市精神卫生中心合作,基于微软 Azure OpenAI 服务中的多模态大模型,开发了一种名为“忆我”(ReMe)的个性化认知训练框架。这一创新项目旨在通过数字化手段扩展自动化认知训练的范围,为…

如何瞬间建造一个百亿商品的网上商城?借助API,无需逐个上传商品数据,自动对接电商平台百亿商品数据

在快速发展的电商时代,构建一个拥有百亿级商品数据的网上商城曾是许多企业遥不可及的梦想。然而,随着技术的不断进步,特别是电商平台API接口的广泛应用,这一梦想正逐渐变为现实。本文将详细介绍如何通过调用电商平台API接口&#…

用AI绘画年入百万?揭秘高效起始号与现变路径...

part.1 AI绘画的优势 AI绘画的魅力在于其高效和灵活 无论你是通过Midjourney还是Stable Diffusion,只需输入简单的提示词,再加上一些额外的控制调整,AI绘画就能快速生成各种创意内容。角色IP设计、游戏原画、3D场景甚至是天马行空的创意都…