混合专家模型在大模型微调领域进展

前言:随着大规模语言模型(LLM)的快速发展,人工智能在自然语言处理领域取得了巨大的进步。在将大模型转化为实际生产力时,不免需要针对实际的任务对大模型进行微调。然而,随着模型规模的增长,微调这些模型的成本也大幅增加。因此,高效微调技术(PEFT)逐渐成为提升部署模型性能的关键手段。专家混合(MoE)技术通过动态激活大模型的部分参数,极大地减少了计算资源的消耗,在不显著增加推理和训练时间的情况下,大幅提升了模型的参数量,提升了模型的灵活性和性能。最近一年来,有一些工作将MoE技术和PEFT技术相结合,以期望复现MoE技术在预训练LLM时的优异表现。本文将探讨MoE在LLM微调中的应用,展示其在提升效率和性能方面的独特优势。

1 背景

1.1 大模型高效微调技术

大模型高效微调技术(LLM-PEFT)旨在在不修改模型全部参数的前提下,通过调整少量参数来实现模型的高效微调。由于LLM往往包含数十亿甚至上千亿参数,直接微调整个模型的计算成本极高且资源消耗巨大。PEFT通过引入诸如冻结大部分参数、仅微调特定层或模块等方法,有效降低了训练成本。常见的PEFT方法包括微调低秩矩阵(LoRA)、适应性前馈网络(Adapter)等技术,它们可以在保证模型性能的同时大幅减少计算和存储资源的需求。

1.2 混合专家技术

专家混合(MoE, Mixture of Experts)是一种用于提升模型计算效率的技术,通过动态路由机制,MoE模型只激活部分专家网络,而非让所有参数同时参与计算。每个“专家”是一个独立的子模型,模型在不同输入时有选择性地调用最适合的专家,从而减少计算负担。相比全参数激活的传统密集模型,MoE一般为稀疏模型,能够在保持模型规模和性能的同时,大幅减少计算资源消耗,尤其适合大规模语言模型的训练与推理。MoE的这种灵活性使其在处理复杂、多样化的任务时具备显著优势。

在这里插入图片描述

如上图所示,近些年来,有一些工作将MoE思想引入LLM中,将Transformer架构中的FFN模块作为专家网络组成MoE网络,在每一个Transformer子层中都以MoE层来替换FFN层。具体来说,MoE层通常由一个线性层(Linear Layer) 作为门函数(gate function),负责输出一个指导向量。指导向量的长度等于专家数量,其上每个值代表着对应专家的得分。我们选出得分最高的个值(Top-K)对应的专家进行激活,即将输入路由给这个专家。最后将个专家的输出按照先前的得分进行线性组合,得到MoE层的输出。

这种架构相比原始的Transformer架构,大量增加了可训练参数量,同时不显著增加训练及推理时间,成为了现在主流的大模型架构。

1.3 混合专家微调技术

随着微调技术的重要性逐渐显现,有人将MoE思想引入到大模型微调领域,以增强大模型的微调效果。

在这里插入图片描述

MoE微调方案与MoE大模型架构非常相似,同样是用MoE层替换FFN层。其中MoE-LoRA层对应于MoE大模型架构中的MoE层,将MoE层中的FFN专家替换为LoRA专家。为了保留大模型预训练参数,再将MoE层的输出加在预训练FFN模块的权重 上。如上图所示,近期也有工作认为,应该让每个LoRA专家共享预训练FFN模块的权重,这样可以获得更好的效果。

2 MoE微调技术的意义

在当今的大模型应用场景中,预训练微调体系依然是主流路线之一。因此,如何提高微调性能,就成为了十分重要的任务。MoE的本质,就是在一个共享的base上产生若干个专家分支,这些专家分支之间被严格的分隔,以形成不同的特征域。接下来本文将根据MoE的特性,介绍MoE对于微调技术的意义。

2.1 多模态及多任务学习

多模态任务是一类天然适合MoE来完成的任务。普通的LoRA技术,在面对多模态任务时,因为需要将多模态输入模块的,来自多个特征空间的数据进行对齐,因此会出现模型很难收敛的现象。针对这一难题,LLaVA-MoLE[1]给出了一种解决方案,引入MoE技术,用简单高效的方法一定程度上缓解了多模态任务难收敛的问题。MoCLE[2]也在视觉语言模型(VLM)问题上引入了MoE来缓解多模态数据对齐的难题。

2.2 提高参数规模

普通的微调中,对于LoRA秩的选择并不需要太大,因为并不是秩越大越好。换句话说,LoRA并不符合缩放定律(scaling law)。而MoE技术,为实现缩放定律带来了希望的曙光。因为MoE可以在不明显增加训练、推理时延的情况下大量扩张参数量,因此MoE技术带来的大量相互分隔的可训练参数,带来了参数量的提升,同时也在实验中被证明,是一种能提高微调后模型效果的方案。

2.3 解决灾难性遗忘问题

灾难性遗忘问题指的是模型在微调某一任务时可能会丢失之前学到的知识。MoE通过专家模块化的设计,可以让不同任务使用不同的专家,从而减轻灾难性遗忘的风险。例如,在微调过程中,可以为新任务引入新的专家模块,而保留原有的专家来处理旧任务。这样既能保持旧任务的性能,又能有效适应新任务。

3 MoE微调技术的挑战

3.1 MoE微调技术面临的问题

MoE微调模型面临着许多挑战,主要包括:模型收敛问题,模型稳定性问题和路由不均衡问题。

因为MoE微调模型,相比于LoRA模型,具有更复杂的专家、路由器协同训练,因此相对来说更难以收敛,同时收敛速度也会慢一些。由于线性层的简洁性,因此大部分MoE微调模型实际上需要在路由模块计算时,需要将计算精度提升到FP32,才能保证MoE微调模型的有效性。这是MoE微调模型的不稳定性导致的。MoE微调技术还继承了MoE技术所面临的另一个挑战:路由不均衡问题,并且在微调时,不均衡现象更甚。路由不均衡问题是指,路由模块总是激活若干个专家,而有些专家几乎不会被激活。这会导致参数的浪费,与我们增加参数量的初衷相悖。

3.2 MoE微调技术创新性上的挑战

MoE架构拆开来看,除了超参数上的调整,实际上只有两个地方是具有极大创新空间的:路由模块(Router Module)和损失函数(Loss Function)。

当前所有的MoE模型,都是针对超参数和损失函数来进行创新的。由此可以看出,对路由模块的创新是极具难度的。当前所有MoE模型的路由模块均由一个简单的线性层构成。作为从隐藏层空间映射到指导向量空间的重要模块,人们对其的创新大多无效,因此鲜有文章对路由模块进行创新。因此,人们普遍期望通过优化损失函数的方法,来解决上述挑战。

当前人们对MoE模型的创新性研究主要集中于损失函数上。因此,人们提出了多种损失函数,来尝试使其路由达到均衡的状态,以此来达成理论分析中,各个专家各司其职的效果。但各种新颖的损失函数虽然对模型效果略有提升,但并没有,也或许不需要使路由模块的路由结果真正达到均衡的状态。

3.3 MoE微调技术的损失函数

因为上述原因,人们在损失函数上的创新相比其他地方是百花齐放的。首先是路由均衡问题, OUTRAGEOUSLY LARGE NEURAL NETWORKS: THE SPARSELY-GATED MIXTURE-OF-EXPERTS LAYER[3]提出了重要性损失(Importance Loss):

其中为门函数(Gate Function),也就是路由模块内的线性层;代表着异变系数(Coefficient of Variation);是一个超参数。重要性损失定义了专家重要性这一重要概念,以各个专家的得分为自变量,得到了一个收敛时会让专家保持平衡的损失函数。这是一个相对古老是平衡损失函数。在与接下来的损失函数做对比时,即可看出该损失函数的劣势所在。

另一篇文章Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity[4]中提出了辅助损失函数(Auxiliary Loss):

其中为超参数,N代表专家数量,B代表批量数,代表着专家所被分配的输入中,被分配权重最大为多少。所以代表着分配给专家i的令牌部分,可以被视为分配给专家i的令牌的数量,代表着分配给专家i部分的令牌的权重之和。由此可以看出,辅助损失函数综合考虑了专家被分配到的“重要性”,以及专家被激活的次数。尽管这个被激活次数并不是真的被激活次数的统计量,但是这里表现出了作者对路由均衡函数的思考:即需要综合考量专家的重要性以及被激活次数。这也是这个函数至今仍被广泛应用的原因之一。

除了辅助损失函数以外,还有一些只取等,只考虑专家重要性或者被激活次数作为损失函数的方法,但这些方法均没有被证明优于辅助损失函数。

针对模型不稳定的问题,ST-MOE: DESIGNING STABLE AND TRANSFERABLE SPARSE EXPERT MODELS[5]提出了:

其中B是批次(batch)中的令牌(token)数量,N是专家的数量,是门函数的输出。通过惩罚大权重,来使模型更稳定。这个损失作为一个古老的损失函数,现在也很少有人使用了。

近期还有工作提出了对比损失函数的思想,该思想认为专家之间应当相互对立,区别越大越好。因此,损失函数的设计逻辑为:对于当前令牌,被分配的K个专家之间的相似度应该更大,而这些专家与其他专家之间的相似度应该更低。

4 MoE微调技术展望

MoE微调技术如今还是一个非常年轻的技术路线,在理论上拥有着极高的上限,并且基于MoE的预训练模型的成功也代表着MoE理论在大模型时代会被越来越多的研究,而这些关于MoE的研究经验也会促进所有MoE相关技术的发展。具体来说,关于路由模块的研究尚且不足,关于路由模块路由原理、以及创新还都处于起步阶段;关于损失函数的设计,虽然百花齐放,也有经受住时间考验是损失函数的存在,但是损失函数作为调控路由模块的关键函数,是否可以根据路由模块的原理、特性,进一步精心设计,解决MoE微调技术的现有挑战?

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/1547045.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

【最新华为OD机试E卷-支持在线评测】分苹果(100分)多语言题解-(Python/C/JavaScript/Java/Cpp)

🍭 大家好这里是春秋招笔试突围 ,一枚热爱算法的程序员 💻 ACM金牌🏅️团队 | 大厂实习经历 | 多年算法竞赛经历 ✨ 本系列打算持续跟新华为OD-E/D卷的多语言AC题解 🧩 大部分包含 Python / C / Javascript / Java / Cpp 多语言代码 👏 感谢大家的订阅➕ 和 喜欢�…

[Linux][进程][进程的七种状态]

进程状态是操作系统用来管理进程的一种手段,操作系统通过动态的调整进程状态来合理的分配资源,维护整个系统的生态。 // Linux内核对进程各个状态的定义,Linux系统的进程的状态不考虑/* * The task state array is a strange "bitmap&qu…

尚庭公寓-接口定义

5. 接口定义 5.1 后台管理系统接口定义 5.1.1 公寓信息管理 5.1.1.1 属性管理 属性管理页面包含公寓和房间各种可选的属性信息,其中包括房间的可选支付方式、房间的可选租期、房间的配套、公寓的配套等等。其所需接口如下 房间支付方式管理 页面如下 所需接口如…

【笔记】如何将本地的.md变成不影响阅读的类pdf模式

在1处搜索markdown viewer 在2处勾选url复选框 将需要阅读的md文件的本地路径去除双引号(如果没有双引号不必做任何处理) 直接放进浏览器url地址栏 正常显示图片与文字 解决

如何将泰语入门提高到精通呢?

要精通泰语,需要从基础的字母和发音开始学习,并通过积累词汇、频繁练习口语、沉浸在语言环境中来不断提高。参加在线课程或找专业教师进行系统性学习也很有帮助。此外,利用各种教材和在线资源,以及保持持续和一致的学习态度&#…

【线程】线程池

线程池通过一个线程安全的阻塞任务队列加上一个或一个以上的线程实现,线程池中的线程可以从阻塞队列中获取任务进行任务处理,当线程都处于繁忙状态时可以将任务加入阻塞队列中,等到其它的线程空闲后进行处理。 线程池作用: 1.降…

Teams集成-订阅事件处理

在Teams会议侧边栏应用开发-会议转写-CSDN博客的基础上,使用/delta接口尝试获取实时转写,发现只能更新了一次,然后就不再更新了,想尝试使用订阅事件去获取转写,发现也不是实时的,当会议结束时,订…

排序题目:对角线遍历 II

文章目录 题目标题和出处难度题目描述要求示例数据范围 解法思路和算法代码复杂度分析 题目 标题和出处 标题:对角线遍历 II 出处:1424. 对角线遍历 II 难度 6 级 题目描述 要求 给定一个二维整数数组 nums \texttt{nums} nums,将 …

阅读记录:iCaRL: Incremental Classifier and Representation Learning

1. Contribution 提出了一种新的训练策略,iCaRL:允许以增量方式学习:只需要同时存在一小部分类别的训练数据,新类别可以逐步添加。同时学习分类器和数据表示:iCaRL能够同时学习强大的分类器和数据表示,这与…

vscode【实用插件】Markdown Preview Enhanced 预览 .md 文件

安装 在 vscode 插件市场的搜索 Markdown Preview Enhanced点安装 使用 用 vscode 打开任意 .md 文件右键快捷菜单 最终效果 可打开导航目录

有哪些小众但高逼格的蓝牙耳机推荐?百元开放式耳机推荐大赏

如今的耳机市场中,主流品牌的影响力不容小觑。然而,还有一些小众的耳机品牌,犹如未被发掘的珍宝,静候着人们去探索。这些小众品牌或许没有进行大规模的广告推广,但它们凭借独特的设计、出色的音质以及对品质的不懈坚持…

需求: 通过后台生成的树形结构,返回给前台用于动态生成表格标题,并将对应标题下面的信息对应起来

1. 如图所以&#xff0c;完成以下内容对应 2. 代码示例如下&#xff0c; 动态生成树形结构列名称&#xff0c;并将表格中存在的值与其对应起来 /*** 查询资源计划列表** param resourcePlan 资源计划* return 资源计划*/Overridepublic Map<String, Object> selectResour…

【通俗易懂】FFT求解全过程,各参数详细解释

在进行FFT全过程讲解之前&#xff0c;小编先给大家解释一下&#xff0c;在FFT中出现的一些参数名词解释。 &#xff08;1&#xff09;采样频率 Fs Fs 1 / 采样间隔 根据奈奎斯特定理&#xff1a;Fs ≥ 最高频率分量的两倍&#xff0c;这样才能避免混叠 &#xff08;2&…

CAT1 RTU软硬件设计开源资料分析(TCP协议+Modbus协议+GNSS定位版本 )

01 CAT1 RTU方案简介&#xff1a; 远程终端单元( Remote Terminal Unit&#xff0c;RTU)&#xff0c;一种针对通信距离较长和工业现场环境恶劣而设计的具有模块化结构的、特殊的计算机测控单元&#xff0c;它将末端检测仪表和执行机构与远程控制中心相连接。 奇迹TCP RTUGNS…

Alertmanager 路由匹配

Alertmanager主要负责对Prometheus产生的告警进行统一处理&#xff0c;因此在Alertmanager配置中一般会包含以下几个主要部分&#xff1a; 全局配置&#xff08;global&#xff09;&#xff1a;用于定义一些全局的公共参数&#xff0c;如全局的SMTP配置&#xff0c;Slack配置等…

uni-app canvas文本自动换行

封装 // 填充自动换行的文本function fillFeedText({ctx, text, x, y, maxWidth, lineHeight, color, size}) {// 文本配置ctx.setFontSize(size);ctx.setFillStyle(color);// 计算文本换行宽高&#xff0c;换行逻辑const words text.split();let line ;const lines [];for …

en造数据结构与算法C# 二叉树的顺序存储和前中后序遍历

二叉树的序号和索引区别 二叉树的顺序存储代码 我用的是List表&#xff0c;只要是线性表就都能实现二叉树 public class Tree<T> : MonoBehaviour {private List<T> bitTree new List<T>();//添加顺序存储方法public void AddTree(T[] values){for(int i…

2024最新盘点:推荐几款主流的采购管理系统

大家都明白采购对制造型企业的重要性&#xff0c;但是在面对市场上琳琅满目的采购管理系统企业却不知道该如何选择&#xff0c;不要担心。 本篇文章将对市面上知名的采购管理系统进行综合测评&#xff0c;深入剖析这些平台的特点与优势。看完这篇内容&#xff0c;你将对不同采…

这本书简直就是自然语言处理学习者的福音!

自然语言处理被誉为“人工智能皇冠上的明珠”! 深度学习等技术的引入为自然语言处理技术带来了一场革命&#xff0c;近年来也出现了自然语言处理的新范式。 早期的静态词向量预训练模型&#xff0c;以及后来的动态词向量预训练模型&#xff0c;特别是2018 年以来&#xff0c;…

书生大模型实战营学习[9] OpenCompass 评测 InternLM-1.8B 实践

准备工作 打开开发机&#xff0c;选择cuda11.7环境&#xff0c;A100选择10%&#xff0c;点击创建&#xff0c;然后进入开发机即可&#xff0c;和之前的操作一样。接下来创建环境&#xff0c;下载必要的依赖包 conda create -n opencompass python3.10 conda install pytorch2…