hugging face 使用教程———快速入门

概述

    本篇存在的意义是快速介绍hugging face使用,梳理主要部件,梳理易混淆概念。原因是:目前hugging face的使用,官方放在了3个地方(参考链接部分):使用文档、NLP教程、Transformers git的readme 文件,很多重叠内容比较浪费时间,很容易看懵。等大家有了主要概念再去看需要具体看某个函数或功能。

    本篇主要从以下维度来快速介绍hugging face使用:

    1、是什么:我觉得这么讲更适合当前(20240603)初学者,hugging face本身集成了常用的三大功能:model hub、data hub、space,和一个著名源代码库Transformers。

    2、怎么用:这里除了上面的几大部件,最需要知道的几个易混淆名词:pipeline、AutoTokenizer、AutoConfig、AutoModel、AutoModelForXXX、accelerate、Trainer、peft、Agents、optimum。

一、是什么

1、model hub

    登录官方网站(https://huggingface.co/models)可以看到如下的页面(我们选择models 选项卡)。

    其中蓝色和绿色,就是后面怎么用的时候代码里面对应的参数名,分别代表任务类型和模型名字,其中任务类型在代码中全部换为小写。

    模型内部如下,这个是一个比较复杂的代码,并且当前没有被hugging face 的Transformers git代码集成,所以有自定义的一些源码,就需要也上传到对应的hub上,调用逻辑,主要是通过config json 里面的map 字段。

2、databub

    整体和model hub类似, 登录官方网站(https://huggingface.co/datasets)

3、space

    其实就是对应的服务的一个demo地址,可以先简单试一下模型效果。登录官方网站(https://huggingface.co/spaces)

4、docs

    就是对应的一些文档,这部分和源码里面的readme 有重叠。官方网址(https://huggingface.co/docs)

5、Transformers

    这是整个工程的开源代码库,这个要区别Transform(这是一个架构名称,区别与CNN),这个git里面集成了一些知名的结构的源代码,比如llama,并且没有做过多的抽象,可以方便快速查看源代码

    比如:https://github.com/huggingface/transformers/tree/main/src/transformers/models

    这里就要区别使用model bub,这是两种不同的使用方式,一般而言 model bub会更新和更全。官方也有文档写怎么提交这两种方式,参见这里https://github.com/huggingface/transformers/blob/main/docs/source/zh/custom_models.md

二、怎么用

    这里以pytorch和LLM类为例,图像和声音的可以参考官方对应文档,整体流程差不多。涉及的python安装包(建议使用Python虚拟环境):

    pip install transformers datasets evaluate accelerate torch

1、AutoTokenizer、AutoModel、AutoModelForXXX、AutoConfig

首先这里还是建议使用Auto类别,AutoModel、AutoModelForXXX、特定类区别:

AutoModel:加载基础的预训练模型,不带特定任务头部。

AutoModelFor 系列:为特定任务(如分类、标注、问答等)加载预训练模型,并添加适当的任务头部。

直接使用特定模型类(如 BertModel.from_pretrained):提供明确性和特定模型功能,适合需要特定模型特性的场景。

PS:

*这里AutoTokenizer需要和model绑定保持一致,因为不同的模型使用的Tokenizer可能不一样。需要基本了解BPE算法,还有就是hugging face tokenizer默认为快速版本使用rust编写,也可以选择满速版本使用Python原生实现,只需要在参数中将 use_fast=False 即可。

*这里AutoConfig需要和model等绑定保持一致,并且AutoConfig并不能加载权重。

使用范例:

from transformers import AutoModel, AutoModelForSequenceClassification, AutoTokenizer, AutoConfig, BertModel, BertTokenizermodel_name = "bert-base-uncased"# 使用AutoModel加载基础模型
model = AutoModel.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)# 使用AutoModelFor加载适用于特定任务的模型
model_for_classification = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)# 直接使用BertModel加载模型,等价使用AutoModel加载基础模型
model = BertModel.from_pretrained(model_name)
tokenizer = BertTokenizer.from_pretrained(model_name)# 从预训练模型名称加载配置
config = AutoConfig.from_pretrained(model_name)
model = AutoModel.from_config(config)  # 使用配置初始化模型(仅创建模型,不加载权重)
model = AutoModel.from_pretrained(model_name)  # 从预训练模型名称加载模型(包括配置和权重)
tokenizer = AutoTokenizer.from_pretrained(model_name)

2、pipeline

上面代码其实已经很简洁,但使用pipeline后可以仅需要一行代码。

其中pipeline支持的任务:https://huggingface.co/docs/transformers/main/en/main_classes/pipelines#transformers.pipeline.task

from transformers import pipeline# 加载文本分类pipeline
classifier = pipeline("sentiment-analysis", model="bert-base-uncased")# 示例文本
text = "I love using transformers library!"# 进行情感分析
result = classifier(text)
print(result)#其中pipeline参数可以为多种# 使用默认
classifier = pipeline("sentiment-analysis")# 指定model
classifier = pipeline("sentiment-analysis", model="bert-base-uncased")
model_name = "bert-base-uncased"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)

自定义pipeline

官方:https://github.com/huggingface/transformers/blob/main/docs/source/zh/add_new_pipeline.md

简单的修改后处理的代码如下:

class MyPipeline(TextClassificationPipeline):def postprocess():# Your code goes herescores = scores * 100# And heremy_pipeline = MyPipeline(model=model, tokenizer=tokenizer, ...)
# or if you use *pipeline* function, then:
my_pipeline = pipeline(model="xxxx", pipeline_class=MyPipeline)

完整的一个示例如下:

from transformers import AutoTokenizer, AutoModelForSequenceClassification
from transformers import Pipeline
import torchclass CustomTextClassificationPipeline(Pipeline):def __init__(self, model, tokenizer, **kwargs):super().__init__(model=model, tokenizer=tokenizer, **kwargs)def _sanitize_parameters(self, **kwargs):preprocess_kwargs = {}forward_kwargs = {}postprocess_kwargs = {}return preprocess_kwargs, forward_kwargs, postprocess_kwargsdef preprocess(self, inputs):# 自定义预处理步骤return self.tokenizer(inputs, padding=True, truncation=True, return_tensors="pt")def _forward(self, model_inputs):# 自定义前向传播步骤with torch.no_grad():outputs = self.model(**model_inputs)return outputsdef postprocess(self, model_outputs):# 自定义后处理步骤logits = model_outputs.logitspredictions = torch.nn.functional.softmax(logits, dim=-1)return predictions# 加载模型和分词器
model_name_or_path = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path)# 创建自定义 pipeline
custom_pipeline = CustomTextClassificationPipeline(model=model, tokenizer=tokenizer)# 示例文本
texts = ["I love using the transformers library!","I had a terrible experience with this product."
]# 进行分类
results = custom_pipeline(texts)# 输出结果
for text, result in zip(texts, results):print(f"Text: {text}\nClassification: {result}\n")

3、accelerate

    这里对等的相关概念还有:megtron、PyTorch FSDP、deepspeed。这里就不对比详细区别,因为整体的技术都是zero系列的思路,只不过不同的时刻支持的方案有区别,当你用的时候可以查看所使用版本支持哪些并行方案。整体适合生态而言:

*Accelerate:适合希望快速实现分布式训练的用户,尤其是使用 Hugging Face 生态系统的用户。

*DeepSpeed:适合需要训练非常大规模模型的用户,对性能和资源利用率有高要求的场景。

*PyTorch FSDP:适合需要在多 GPU 上进行大规模模型训练的用户,尤其是已经在使用 PyTorch 的用户。

    使用方式也相对简单,安装accelerate、简单设置、简单修改训练源码、启动训练,参照:https://github.com/huggingface/transformers/blob/main/docs/source/zh/accelerate.md

    # 安装库

pip install accelerate

    # 简单配置

accelerate config

    修改训练源码(查看+、-部分)  

 + from accelerate import Acceleratorfrom transformers import AdamW, AutoModelForSequenceClassification, get_scheduler
+ accelerator = Accelerator()model = AutoModelForSequenceClassification.from_pretrained(checkpoint, num_labels=2)optimizer = AdamW(model.parameters(), lr=3e-5)
- device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
- model.to(device)
+ train_dataloader, eval_dataloader, model, optimizer = accelerator.prepare(
+     train_dataloader, eval_dataloader, model, optimizer+ )num_epochs = 3num_training_steps = num_epochs * len(train_dataloader)lr_scheduler = get_scheduler("linear",optimizer=optimizer,num_warmup_steps=0,num_training_steps=num_training_steps)progress_bar = tqdm(range(num_training_steps))model.train()for epoch in range(num_epochs):for batch in train_dataloader:
-         batch = {k: v.to(device) for k, v in batch.items()}outputs = model(**batch)loss = outputs.loss
-         loss.backward()
+         accelerator.backward(loss)optimizer.step()lr_scheduler.step()optimizer.zero_grad()progress_bar.update(1)

    启动训练

accelerate launch train.py

4、peft

    Transformers原生支持一些PEFT方法,这意味着你可以加载本地存储或在Hub上的adapter权重,并使用几行代码轻松运行或训练它们。以下是受支持的方法:Low Rank Adapters、IA3、AdaLoRA。参考:https://github.com/huggingface/transformers/blob/main/docs/source/zh/peft.md

    要从huggingface的Transformers库中加载并使用PEFTadapter模型,请确保Hub仓库或本地目录包含一个adapter_config.json文件和adapter权重,如上例所示。然后,您可以使用AutoModelFor类加载PEFT adapter模型。

    1)要为因果语言建模加载一个PEFT adapter模型:可以使用AutoModelFor类或基础模型类(如OPTForCausalLM或LlamaForCausalLM)来加载一个PEFT adapter;也可以通过load_adapter方法来加载 PEFT adapter。 

    2)添加新的adapter,切换adapter,启用禁用adapter。这里需要区别:

    *enable_adapters 影响的是整个模型的适配器功能开关。

    *set_active_adapters 影响的是具体的适配器激活状态。默认使用最后一次调用该函数的适配器,所以,当需要同时使用多个适配器的时候,同时传给该函数,切不要分次传入(只有最后一个生效)。

    *load_adapter:从外部资源加载预训练的适配器,适用于已经有预训练适配器的情况。

    *add_adapter:在模型中添加一个新的适配器,适用于需要在新任务上训练适配器的情况。

    * 调用关系链:enable_adapters:如果你希望在推理或训练过程中使用适配器,那么你需要调用 enable_adapters 方法。如果你不调用这个方法,模型将不使用适配器。set_active_adapters:如果你只有一个适配器,并且不需要切换适配器,那么你不需要调用 set_active_adapters 方法。如果你有多个适配器并需要在它们之间切换,那么你需要调用这个方法。

    *get_peft_model & add_adapter: get_peft_model是 PEFT 库的一部分,专注于参数高效微调技术。add_adapter 是 AdapterHub 或 Transformers 库的一部分。

from transformers import AutoModelForCausalLM, AutoTokenizer# 定义模型和适配器的ID
model_id = "facebook/opt-350m"
peft_model_id = "ybelkada/opt-350m-lora"# 加载基础模型
model = AutoModelForCausalLM.from_pretrained(model_id)# 加载PEFT适配器
model.load_adapter(peft_model_id, adapter_name="adapter_1")# 再次加载相同的PEFT适配器,作为不同的适配器名称
model.load_adapter(peft_model_id, adapter_name="adapter_2")# 启用适配器
model.enable_adapters()  # 禁用: model.disable_adapters()# 设置使用的适配器,展示切换
model.set_active_adapters("adapter_1")  # 使用 adapter_1
print("Using adapter_1:")
inputs = tokenizer("Hello, how are you?", return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))model.set_active_adapters("adapter_2")  # 使用 adapter_2
print("Using adapter_2:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))# 同时使用多个适配器(如果支持)
model.set_active_adapters(["adapter_1", "adapter_2"])  # 同时使用 adapter_1 和 adapter_2
print("Using adapter_1 and adapter_2:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))# 只使用 adapter_1
model.set_active_adapters("adapter_1")
print("Using adapter_1 again:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))# 只使用 adapter_2
model.set_active_adapters("adapter_2")
print("Using adapter_2 again:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

5、Trainer

    对于pytorch,当你的模型是模型都是标准的 torch.nn.Module,然后可以使用trainer来替代自己手写训练循环,初次之外trainer:包含了基础的训练循环并且为诸如分布式训练(也就是可以理解默认使用了acclerate),混合精度等特性增加了额外的功能。需要注意你可以使用回调来将trainer与其他库集成,查看训练循环来报告进度或提前结束训练。回调不会修改训练循环。如果想自定义损失函数等,就需要子类化 Trainer。 这里补充一点:Trainer 类支持的损失函数主要取决于所使用的模型。大多数预训练模型在其 forward 方法中已经定义了适合其任务的损失函数。如果需要自定义损失函数,可以通过继承 Trainer 类并重写 compute_loss 方法来实现。

from transformers import Trainer, TrainingArguments, AutoModelForSequenceClassification, AutoTokenizer,  PreTrainedModel, PretrainedConfig
from datasets import load_dataset
import numpy as np
from sklearn.metrics import accuracy_score, precision_recall_fscore_support
from peft import LoraConfig# 加载数据集
dataset = load_dataset("glue", "mrpc")# 加载预训练模型和分词器
model_name = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)#  ———————————————————————————————————— 如下是自定义模型——————————————————————————————————————————————————  #"""
class CustomBertModel(PreTrainedModel):def __init__(self, config):super().__init__(config)self.bert = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased", config=config)self.custom_layer = nn.Linear(config.hidden_size, config.num_labels)def forward(self, input_ids=None, attention_mask=None, token_type_ids=None, labels=None):outputs = self.bert(input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)logits = self.custom_layer(outputs[1])  # 使用 BERT 的池化输出loss = Noneif labels is not None:loss_fct = nn.CrossEntropyLoss()loss = loss_fct(logits.view(-1, self.config.num_labels), labels.view(-1))return (loss, logits) if loss is not None else logits# 加载配置和模型
config = PretrainedConfig.from_pretrained("bert-base-uncased", num_labels=2)
model = CustomBertModel(config)
"""# ———————————————————————————————————— 如下是使用LoRa —————————————————————————————————————————————————— #
"""
peft_config = LoraConfig(lora_alpha=16,lora_dropout=0.1,r=64,bias="none",task_type="SEQ_CLS",
)
model.add_adapter(peft_config)
model.enable_adapters()  # 启用适配器,禁用: model.disable_adapters()# peft_model = get_peft_model(model, peft_config) # 上面两行代码也可以使用这行代码替换
"""# 预处理数据
def preprocess_function(examples):return tokenizer(examples['sentence1'], examples['sentence2'], truncation=True)
encoded_dataset = dataset.map(preprocess_function, batched=True)# 定义计算指标
def compute_metrics(pred):labels = pred.label_idspreds = np.argmax(pred.predictions, axis=1)precision, recall, f1, _ = precision_recall_fscore_support(labels, preds, average='binary')acc = accuracy_score(labels, preds)return {'accuracy': acc,'f1': f1,'precision': precision,'recall': recall}# 设置训练参数
training_args = TrainingArguments(output_dir='./results',evaluation_strategy="epoch",learning_rate=2e-5,per_device_train_batch_size=16,per_device_eval_batch_size=16,num_train_epochs=3,weight_decay=0.01,
)# 初始化 Trainer
trainer = Trainer(model=model,args=training_args,train_dataset=encoded_dataset['train'],eval_dataset=encoded_dataset['validation'],compute_metrics=compute_metrics
)# 开始训练
trainer.train()# 评估模型
trainer.evaluate()# 保存模型
save_dir = ''
model.save_pretrained(save_dir)
model = AutoModelForSequenceClassification.from_pretrained(save_dir)

6、optimum

支持的平台比较多(Intel、amd、NVIDIA等):https://huggingface.co/docs/optimum/index

鉴于目前还是都使用NVIDIA,所以重点看这里:https://github.com/huggingface/optimum-nvidia

然后发现底层其实还是TensorRT-LLM: https://github.com/NVIDIA/TensorRT-LLM,支持模型列表:Support Matrix — tensorrt_llm documentation

7、agent

目前(20240604)hugging face还在开发中,后续持续跟进,建议目前还是使用longchain 框架。

参考链接

https://huggingface.co/docs/transformers/v4.41.3/zh/index

https://huggingface.co/learn/nlp-course/zh-CN/chapter1/1

https://github.com/huggingface/transformers/tree/main/docs/source/zh

https://github.com/huggingface/transformers/tree/main/docs/source/zh/main_classes

swiGLU: Index - 笔记 

rope:一文通透位置编码:从标准位置编码、旋转位置编码RoPE到ALiBi、LLaMA 2 Long-CSDN博客

Yarn:大模型长度扩展综述:从直接外推ALiBi、插值PI、NTK-aware插值、YaRN到S2-Attention-CSDN博客

长文本:https://zhuanlan.zhihu.com/p/640641794 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/1487160.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

PDF转Word后不能修改怎么办?是什么原因呢?

平时在生活中,很多朋友都会有将PDF转换成Word文档的需求,因为一般情况下PDF文件是不能直接编辑修改的,所以只能通过这种方式来解决问题。但是近期,有部分用户在后台反馈说PDF转Word后不能修改怎么办呢?其实这个问题也是…

前端页面:用户交互持续时间跟踪(duration)user-interaction-tracker

引言 在用户至上的时代,精准把握用户行为已成为产品优化的关键。本文将详细介绍 user-interaction-tracker 库,它提供了一种高效的解决方案,用于跟踪用户交互的持续时间,并提升项目埋点的效率。通过本文,你将了解到如…

云仓如何改变传统仓储模式?

云仓,即云仓储,是一种基于互联网技术的现代仓储模式,与传统的仓储模式相比,它在多个方面进行了创新和优化,包括: ———————————————————— 1、数据管理与实时监控: 云仓储利…

每日一题 LeetCode03 无重复字符的最长字串

1.题目描述 给定一个字符串 s ,请你找出其中不含有重复字符的最长字串的长度。 2 思路 可以用两个指针, 滑动窗口的思想来做这道题,即定义两个指针.一个left和一个right 并且用一个set容器,一个length , 一个maxlength来记录, 让right往右走,并且用一个set容器来…

【数据结构】链表(单链表实现 + 详解 + 原码)

🎇🎉🎉🎉点进来你就是我的人了 博主主页:🙈🙈🙈戳一戳,欢迎大佬指点! 人生格言: 当你的才华撑不起你的野心的时候,你就应该静下心来学习! 欢迎志同道合的朋友…

Spring Boot配置文件的语法规则

主要介绍两种配置文件的语法和格式,properties和yml 目录 1.配置文件的作用 2.创建配置文件 3.properties语法 4.yml语法 5.配置文件格式 1.配置文件的作用 对于配置文件,也有独立的文件夹去存放,主要用来存放一些需要经过变动的数据&a…

IEDA怎么把springboot项目 启动多个

利用Idea提供的Edit Configurations配置应用参数。 点击Modify Options进行添加应用参数: 确保这里勾选

如何避免蓝屏?轻量部署,安全和业务连续性才能两不误

自19日起,因CrowdStrike软件更新的错误配置而导致的“微软全球蓝屏”,影响依然在持续。这场被称为“史上最大规模的IT故障”,由于所涉全球企业太多,专家估计“蓝屏”电脑全部恢复正常仍需时日。 尽管 CEO 乔治 库尔茨&#xff08…

C#入门与精通

C#精通 本文章主要是对于学习C#基础难点进行学习以及与java语言的不同点,详细学习可见官网:https://dotnet.microsoft.com/en-us/learn 文章目录 C#精通VSVS基本设置 C#是什么C#程序控制台输出变量内插占位符C#foreach循环类型转换操作数组内置方法格式设…

OpenAI发布GPT-4 Mini的深度分析及中国大模型的弯道超车机会

引言 在OpenAI封禁中国IP访问其API后,紧接着推出了GPT-4 Mini,这是一个引发广泛关注和讨论的新举措。此举不仅让人们质疑OpenAI的战略方向,更引发了对中国大模型是否能弯道超车的讨论。本文将详细分析GPT-4 Mini的特点、市场影响及中国大模型…

广东工程职业技术学院财经学院领导一行莅临泰迪智能科技参观交流

7月19日,广东工程职业技术学院财经学院市场调查与统计分析专业主任苏志鹏、专业老师余乐莅临广东泰迪智能科技股份有限公司产教融合实训基地参观交流。泰迪智能科技董事长张良均、副总经理施兴、高校业务部经理孙学镂、校企合作经理吴桂锋进行接待。 仪式伊始&#…

leetcode-79. 单词搜索

题目描述 给定一个 m x n 二维字符网格 board 和一个字符串单词 word 。如果 word 存在于网格中,返回 true ;否则,返回 false 。 单词必须按照字母顺序,通过相邻的单元格内的字母构成,其中“相邻”单元格是那些水平相…

美食地图开发

调用地图接口展示数据库录入的不同类别地址信息,提供导航服务,手机端电脑端自适应。 语音介绍使用微软的tts接口可选不同语音性别生成

Mysql数据库和Sql语句

数据库管理: sql语句:数据库用来增删改查的语句(重要) 备份:数据库的数据进行备份 主从复制、读写分离、高可用(重要) Mysql数据库和Sql语句 一、Mysql数据库 1、数据库:组织、…

HTML(五)——HTML区块,布局

HTML区块 HTML可以通过 <div> 和 <span>将元素组合起来&#xff0c;可以来布局&#xff0c;就是盒子&#xff0c;div是块级盒子&#xff0c;里面 可以放任何东西&#xff0c;span里面装的是文本 HTML 区块元素 大多数 HTML 元素被定义为块级元素或内联元素。 实…

Java——————接口(interface) <详解>

1.1 接口的概念 在现实生活中&#xff0c;接口的例子比比皆是&#xff0c;比如&#xff1a;笔记本电脑上的USB接口&#xff0c;电源插座等。 电脑的USB口上&#xff0c;可以插&#xff1a;U盘、鼠标、键盘...所有符合USB协议的设备 电源插座插孔上&#xff0c;可以插&#xff…

BGP选路之Next Hop

原理概述 当一台BGP路由器中存在多条去往同一目标网络的BGP路由时&#xff0c;BGP协议会对这些BGP路由的属性进行比较,以确定出去往该目标网络的最优BGP路由,然后将该最优BGP路由与去往同一目标网络的其他协议路由进行比较&#xff0c;从而决定是否将该最优BGP路由放进P路由表中…

Mysql的主从复制(重要)和读写分离(理论重要实验不重要)

一、主从复制&#xff1a;架构一般是一主两从。 1.主从复制的模式&#xff1a; mysql默认模式为异步模式&#xff1a;主库在更新完事务之后会立即把结果返回给从服务器&#xff0c;并不关心从库是否接收到以及从库是否处理成功。缺点&#xff1a;网络问题没有同步、防火墙的等…

Codeforces Round 960 (Div. 2)

比赛链接&#xff1a;Dashboard - Codeforces Round 960 (Div. 2) - Codeforces A题 Submission Bait​​​​​​ 题目&#xff1a; 中文题面&#xff1a; 爱丽丝和鲍勃在大小为 n 的数组 a 中进行游戏。 他们轮流进行运算&#xff0c;爱丽丝先开始。不会运算的一方将输掉…

Vue3 SvgIcon组件开发

在前面自定义tree组件继续功能迭代前&#xff0c;我们先开发一个通用的ScgIcon组件&#xff0c;用于后续组件模板中小图标的展示。 引入iconfont 官网&#xff1a;https://www.iconfont.cn/ 选取图标进行下载&#xff0c;只取iconfont.js文件 在prettier中忽略该文件&#x…