金九银十!大模型相关工作岗位面试可能遇到的面试问题

图片

问题:什么是大语言模型 (LLM)?

大语言模型 (LLM) 是一种人工智能算法,它使用深度学习技术和海量数据集来理解、总结、生成和预测新的内容。LLM 是一种生成式 AI,专门设计用于生成文本内容。LLM 的核心是语言模型,它类似于人类语言,为沟通和生成新概念提供基础。

LLM 的训练过程首先需要一个数据集,然后使用各种技术推断关系,最终根据训练数据生成新内容。LLM 是语言模型在 AI 领域的演变,它显著扩展了用于训练和推理的数据量,从而大幅提升了 AI 模型的能力。

LLM 通常至少包含十亿个参数,参数是机器学习术语,指模型在训练过程中使用的变量,可以用来推断新内容。现代 LLM 出现在 2017 年,使用 Transformer 模型,这是一种通常被称为 Transformer 的神经网络。由于参数数量众多以及 Transformer 模型的应用,LLM 能够快速理解和生成准确的响应,使其在许多不同领域广泛适用。

一些 LLM 被称为基础模型,这个术语由斯坦福人类中心人工智能研究所于 2021 年提出。基础模型规模庞大且影响深远,可以作为进一步优化和特定用例的基础。GPT-4 是一种 LLM,其参数数量远远超过其所有前身。

问题:LLM 的应用场景有哪些?

大型语言模型 (LLM) 的应用场景非常广泛,涵盖了多个领域,例如:

  1. 内容生成: LLM 可以用于生成各种形式的内容,例如文章、博客文章、营销文案、视频脚本和社交媒体更新。它们可以根据不同的写作风格和语气进行调整,从而生成与特定目标受众产生共鸣的内容。企业和内容创作者利用这些模型来简化内容制作流程,节省写作过程中的时间和精力。
  2. 翻译和本地化: LLM 可以提供跨多种语言对的准确、上下文感知的翻译。这些模型经过大量双语或多语文本的训练,能够理解不同语言的细微差别、习语和语法结构。它们可以保留原文的意图和风格,这对文学翻译、商业通信和法律文件至关重要。至于本地化,LLM 有助于根据不同的目标受众在文化和语境上调整内容,确保翻译后的材料在文化上是合适的,并能产生共鸣。它们会考虑当地的习俗、度量单位、日期格式和文化参考,使内容相关且易于访问。这种能力在营销和娱乐行业尤其重要,因为参与度在很大程度上取决于文化细微差别。此外,大型语言模型可以促进实时翻译和本地化,使企业能够与国际合作伙伴和客户有效沟通。
  3. 搜索和推荐: LLM 能够以空前的准确性和上下文理解能力理解和处理自然语言查询。当集成到搜索引擎中时,这些模型可以解释用户查询背后的意图,并提供相关的搜索结果。它们还可以根据用户的兴趣和偏好提供个性化的推荐,从而改善用户体验。
  4. 聊天机器人和虚拟助手: LLM 是构建智能聊天机器人和虚拟助手的核心。这些模型能够理解自然语言,并以自然、连贯的方式进行对话。它们可以用于提供客户支持、安排约会、回答问题,甚至进行简单的对话。
  5. 代码生成: LLM 可以用于生成代码,例如 Python、Java 和 JavaScript。它们可以根据自然语言描述生成代码,或者根据现有代码生成新的代码。这对于开发人员来说非常有用,可以帮助他们更快地编写代码,并减少错误。
  6. 数据分析: LLM 可以用于分析大量文本数据,例如客户评论、社交媒体帖子和新闻文章。它们可以识别趋势、洞察力和见解,帮助企业做出更明智的决策。
  7. 教育和培训: LLM 可以用于提供个性化的教育和培训,根据学习者的个人需求调整内容。它们可以提供辅导、生成练习题,并提供针对学生正在学习(或难以理解)的内容的解释。这种 LLM 用例使教育更易获得且更实用。它有助于创建从教科书到互动在线课程的一切内容,使全球学习者都能获得教育。
  8. 网络安全: 企业可以使用 LLM 来分析和解释大量网络安全数据,以便更好地预测、识别和应对潜在的安全威胁。LLM 学习网络安全警报的上下文和细微差别,从而实现更快、更准确的威胁检测和响应,增强企业的安全态势。
  9. 医疗保健: LLM 可以用于分析患者数据,例如病历和医疗影像,帮助医生做出更准确的诊断和治疗计划。它们还可以用于开发新的药物和治疗方法。
  10. 金融: LLM 可以用于分析金融数据,例如市场趋势和客户行为,帮助金融机构做出更明智的投资决策。它们还可以用于检测欺诈行为。

总而言之,LLM 的应用场景非常广泛,并且随着技术的不断发展,其应用范围将会越来越广。

图片

问题:什么是 Transformers?在 Transformers 出现之前,文本生成是如何进行的?

Transformers 是一种神经网络架构,它通过学习序列数据中各个元素之间的关系来理解上下文和含义。它们使用一种称为注意力机制的数学技术来识别序列中即使是相距很远的元素之间的微妙关系。

在 Transformers 出现之前,文本生成主要依赖于循环神经网络 (RNN) 架构,例如长短期记忆网络 (LSTM)。RNN 逐个处理序列中的元素,并使用隐藏状态来存储先前元素的信息。然而,RNN 存在一些局限性,例如难以处理长序列中的依赖关系,以及训练速度较慢。

Transformers 的出现克服了 RNN 的这些局限性,它能够并行处理所有元素,并通过注意力机制有效地学习长距离依赖关系。这使得 Transformers 能够在文本生成、机器翻译、问答等任务中取得显著的性能提升。

问题:Transformer 如何生成文本?

Transformer 模型通过其独特的注意力机制来生成文本。它不像传统的循环神经网络 (RNN) 那样逐个处理序列,而是能够同时关注输入序列中的所有词语,并根据这些词语之间的关系来预测下一个词语。

Transformer 模型主要由编码器和解码器组成。编码器将输入序列转换为一个包含语义信息的向量表示,解码器则利用这个向量表示来生成输出序列。

  • 编码器

    • 词嵌入层 (Embedding Layer): 将每个词语转换为一个稠密的向量表示。
    • 多头注意力层 (Multi-Head Attention Layer): 计算每个词语与其他词语之间的注意力权重,并根据这些权重来加权平均其他词语的向量表示,从而得到每个词语的上下文表示。
    • 前馈神经网络层 (Feedforward Neural Network Layer): 对每个词语的上下文表示进行非线性变换,进一步提取特征。
  • 解码器

    • 掩码多头注意力层 (Masked Multi-Head Attention Layer): 与编码器中的多头注意力层类似,但它只关注当前词语之前的词语,以防止模型“窥视”未来的词语。
    • 编码器-解码器注意力层 (Encoder-Decoder Attention Layer): 计算解码器中每个词语与编码器中所有词语之间的注意力权重,以获取编码器中所有词语的语义信息。
    • 前馈神经网络层 (Feedforward Neural Network Layer): 对每个词语的上下文表示进行非线性变换,进一步提取特征。
    • 输出层 (Output Layer): 将每个词语的上下文表示映射到词汇表中所有词语的概率分布,并选择概率最高的词语作为下一个词语。
  • 生成过程

    • 将输入序列送入编码器,得到一个包含语义信息的向量表示。
    • 将一个特殊的开始符号 (例如,) 送入解码器。
    • 解码器根据编码器的向量表示和当前词语的上下文信息,预测下一个词语。
    • 将预测的词语添加到输出序列中,并将其作为下一个词语的输入,重复步骤 3 和 4,直到生成一个结束符号 (例如,) 或达到预设的长度。

总结

Transformer 模型通过其独特的注意力机制,能够同时关注输入序列中的所有词语,并根据这些词语之间的关系来预测下一个词语,从而生成流畅、连贯的文本。

图片

问题:什么是提示?

提示是用户或程序提供给大型语言模型 (LLM) 的输入或查询,以从模型中获得特定响应。提示可以是自然语言句子或问题,也可以是代码片段或命令,或者任何文本或代码的组合,具体取决于领域和任务。提示可以像一个单词一样简单,也可以像一段话一样复杂。提示的目的是为 AI 模型提供足够的信息,以生成与提示相关的文本。

简单来说,您可以将提示想象成一个占位符,生成式 AI 应用程序将把输入馈送到其中。例如,如果您想让 AI 模型生成一首关于爱情的诗,您可以使用以下提示:

写一首关于爱情的诗。

AI 模型将使用此提示生成与爱情主题相关的文本。生成的文本可能是一首诗,但也可能是一个故事、一首歌,甚至一段代码。

提示可以用于各种任务,包括:

  • 生成文本
  • 翻译语言
  • 编写不同类型的创意内容
  • 以信息丰富的方式回答您的问题

提示是一个强大的工具,可用于为各种目的生成文本。通过了解提示的工作原理,您可以使用它们来创建相关、有创意和原创的文本。

问题:生成式人工智能项目生命周期。

生成式人工智能 (GenAI) 项目的生命周期与传统的数据科学项目类似,但包含了一些独特的步骤和考虑因素,尤其是在使用大型语言模型 (LLM) 方面。

  • GenAI 项目生命周期

    • 问题定义 (Problem Definition):明确定义项目目标,理解业务背景,并设定 GenAI 解决方案的明确目标。这包括确定 GenAI 应用的范围、潜在影响和预期结果。
    • 数据调查 (Data Investigation):调查和获取可用于增强和/或训练 GenAI 大型语言模型 (LLM) 的数据。这包括评估数据景观,重点关注数据的可用性、相关性和质量。
    • 数据准备 (Data Preparation):清理、格式化和构建数据,使其适合与所选 GenAI 模型和技术一起使用。这通常包括通过处理和将其嵌入向量存储数据库来准备数据。
    • 开发 (Development):使用适当的 LLM 模型开发代理,并考虑集成检索增强生成 (RAG) 和使用其他 AI 技术,例如设计有效的提示 (即提供给 LLM 的自然语言指令,引导其生成所需输出)。此阶段还包括根据需要微调大型语言模型。
    • 评估 (Evaluation):对代理进行严格测试,以确保其正确性、可读性、性能和可靠性。根据预定义的标准和目标评估代理,以确保其满足所需标准和业务需求。
    • 部署 (Deployment):将代理部署到目标环境中,包括设置必要的基础设施。此基础设施设置应促进代理的托管、扩展和管理,确保其平稳运行并集成到现有系统中。
    • 监控和改进 (Monitoring and Improvement):实施对已部署应用程序的持续监控,以跟踪其性能、用户满意度和运营效率。根据性能数据、用户反馈和不断变化的业务需求定期更新和改进代理。
  • GenAI 项目生命周期与传统数据科学项目生命周期的比较

GenAI 项目生命周期与传统数据科学项目生命周期 (例如 CRISP-DM) 类似,但 GenAI 项目生命周期包含了更多针对 AI 系统开发的考虑因素,例如使用 LLM 和 RAG。

  • GenAI 项目生命周期的关键挑战

模型准确性不确定性 (Model Accuracy Uncertainty):GenAI 模型的准确性可能难以预测,因为它们依赖于大量数据和复杂的算法。

数据准备不确定性 (Data Preparation Uncertainty):准备适合 GenAI 模型的数据可能很困难,因为数据可能需要清理、格式化和结构化。

  • GenAI 项目生命周期的关键见解

GenAI 项目生命周期是一个迭代过程,需要持续的监控和改进。

GenAI 项目需要一个多学科团队,包括数据科学家、工程师和业务专家。

GenAI 项目需要仔细考虑伦理和社会影响。

  • 总结

GenAI 项目生命周期是一个复杂的过程,需要仔细规划和执行。通过理解 GenAI 项目生命周期的各个阶段,以及与传统数据科学项目生命周期的区别,可以帮助团队有效地开发和部署 GenAI 应用程序。

图片

问题:如何预先训练大型语言模型?

预训练大型语言模型 (LLM) 是一个复杂的过程,涉及使用大量无标签文本数据来训练模型,使其能够理解和生成人类语言。

预训练过程通常包括以下步骤:

  • 数据准备:首先,需要收集大量文本数据,例如书籍、文章、代码和网页。这些数据需要经过清理和预处理,以去除噪声和不必要的字符。
  • 模型选择:选择合适的模型架构,例如 Transformer 模型。
  • 训练目标:选择一个训练目标,例如预测下一个词或句子。
  • 模型训练:使用准备好的数据和选择的模型架构,使用反向传播算法来训练模型。
  • 评估和优化:评估模型的性能,并根据评估结果进行优化。

预训练 LLM 的主要方法包括:

  • 自回归模型:这些模型预测序列中的下一个词,例如 GPT-3。
  • 自编码模型:这些模型试图重建输入序列,例如 BERT。
  • 序列到序列模型:这些模型将输入序列转换为输出序列,例如 BART。

预训练 LLM 需要大量的计算资源和时间,但它可以为各种下游任务提供强大的基础模型。

问题:大型语言模型的预训练面临的挑战

大型语言模型(LLM)的预训练面临着许多挑战,主要包括以下几个方面:

  • \1. 数据质量问题

噪声数据: 从互联网上收集的训练数据通常包含大量噪声,例如拼写错误、语法错误、重复内容、无关信息等。这些噪声数据会影响模型的训练效果,导致模型生成不准确或不连贯的文本。

偏差数据: 训练数据中可能存在各种偏差,例如性别、种族、政治立场等方面的偏差。这些偏差会导致模型在生成文本时也带有相应的偏差,甚至可能产生歧视性的内容。

敏感信息: 训练数据中可能包含敏感信息,例如个人隐私、商业机密等。如果这些信息被模型学习到,可能会被泄露或用于恶意目的。

  • \2. 计算资源问题

高昂的计算成本: 训练大型语言模型需要大量的计算资源,包括高性能的硬件设备和大量的电力消耗。这使得训练 LLM 成本高昂,只有少数大型科技公司才能负担得起。

训练时间长: 训练大型语言模型需要花费很长时间,甚至需要数周或数月。这会延缓模型的开发和迭代速度。

  • \3. 模型可解释性问题

黑盒模型: 大型语言模型通常被认为是黑盒模型,因为我们无法完全理解模型内部的运作机制。这使得我们难以解释模型的预测结果,也难以评估模型的可靠性和安全性。

  • \4. 模型安全性和伦理问题

生成虚假信息: 大型语言模型可以生成逼真的文本,但这些文本可能包含虚假信息或误导性内容。这会对社会造成负面影响,例如传播谣言、制造恐慌等。

滥用风险: 大型语言模型可以被用于各种目的,包括生成恶意代码、进行网络攻击等。这需要我们认真考虑模型的安全性和伦理问题,制定相应的安全措施和伦理规范。

除了以上列出的挑战,大型语言模型的预训练还面临着其他一些问题,例如模型的泛化能力、模型的鲁棒性等。解决这些挑战需要研究人员和工程师的共同努力,才能推动大型语言模型技术的发展和应用。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/150114.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

9.24作业

将昨天的My_string类中的所有能重载的运算符全部进行重载 、[] 、>、<、、>、<、! 、&#xff08;可以加等一个字符串&#xff0c;也可以加等一个字符&#xff09;、输入输出(<< 、 >>) 代码如下 MyString.h #ifndef MYSTRING_H #define MYSTRING_…

初学者必备:一文读懂大语言模型(LLM)入门攻略!

当前2024年&#xff0c;LLM领域发展日新月异&#xff0c;很多新的实用技术层出不穷&#xff0c;个人认为要跟上LLM的发展&#xff0c;需要掌握以下内容&#xff0c;并需要不断地跟踪学习。 入门LLM前置基础 深度学习基础知识&#xff1a;推荐李宏毅的深度学习课程Python和num…

OpenCV图像分割(2)分水岭算法图像分割函数watershed()的使用

操作系统&#xff1a;ubuntu22.04 OpenCV版本&#xff1a;OpenCV4.9 IDE:Visual Studio Code 编程语言&#xff1a;C11 算法描述 使用分水岭算法执行基于标记的图像分割。 该函数实现了分水岭算法的一种变体&#xff0c;即无参数基于标记的分割算法&#xff0c;在文献 [186]…

matlab中在一个图上持续画多条曲线的方法

在数据分析的过程中&#xff0c;会遇到一种情况&#xff0c;就是想对多组数据进行分析&#xff0c;这时就想把他们放在同一张图里&#xff0c;来看他们表现出来的特征。如下图所示&#xff1a; 例如&#xff0c;我这里有几组数据&#xff0c;想对他们的整体趋势进行分析。 1、…

乐观锁处理秒杀超卖问题及悲观锁解决一人一单

Service Transactional//事务控制 public class VoucherOrderServiceImpl extends ServiceImpl<VoucherOrderMapper, VoucherOrder> implements IVoucherOrderService {ResourceSeckillVoucherServiceImpl seckillVoucherService;ResourceRedisIdWorker redisIdWorker;Re…

Navicat连接数据库

一、MySQL地卸载&#xff1a; 二、Navicat连接数据库&#xff1a; 安装navicat的安装&#xff1a; 错误解决方法&#xff1a; 实验过程&#xff1a; 在本地sql数据库可以访问&#xff0c;说明数据库开启 用navicat连接&#xff1a;出现问题&#xff1a; 将mysql用户登录的加密…

图论系列(dfs)9.25

一、主题空间 场地由若干主题空间与走廊组成&#xff0c;场地的地图记作由一维字符串型数组 grid&#xff0c;字符串中仅包含 "0"&#xff5e;"5" 这 6 个字符。地图上每一个字符代表面积为 1 的区域&#xff0c;其中 "0" 表示走廊&#xff0…

计算机毕设选题推荐-基于python的电子健康信息分析系统【源码+文档+调试】

精彩专栏推荐订阅&#xff1a;在下方主页&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb; &#x1f496;&#x1f525;作者主页&#xff1a;计算机毕设木哥&#x1f525; &#x1f496; 文章目录 一、电子健康信息…

H7-TOOL脱机烧录增加国产3PEAK混合信号单片机TPS32和富芮坤FR8008,FR8003和FR2012支持

支持单路&#xff0c;1拖4和1拖16脱机烧录 3PEAKS思瑞浦混合信号单片机TPS32M支持 1、在线烧录&#xff0c;脱机烧录均正常。 2、注意事项&#xff1a;推荐使用整片擦除。 在线烧录&#xff1a; 脱机烧录&#xff1a; 接线效果&#xff1a; 富芮坤FR8008x支持&#xff0c;支…

校园自助打印系统小程序的设计

管理员账户功能包括&#xff1a;系统首页&#xff0c;个人中心&#xff0c;用户管理&#xff0c;店长管理&#xff0c;打印店管理&#xff0c;打印服务管理&#xff0c;服务类型管理&#xff0c;预约打印管理&#xff0c;系统管理 微信端账号功能包括&#xff1a;系统首页&…

java基础课程-spring security基础课程

1. spring security介绍&#xff1a; 1.1 spring security定义&#xff1a; 2. Spring Security使用 2.1 用户身份认证&#xff1a; 2.1.1 写在配置文件中&#xff1a; 2.1.2 不用配置文件&#xff1a;&#xff0c;service实现UserDetailService这个类的的loadUserByUserNam…

CNVD漏洞和证书挖掘经验总结

前言 本篇文章主要是分享一下本人挖掘CVND漏洞碰到的一些问题&#xff0c;根据过往成功归档的漏洞和未归档的漏洞总结出的经验&#xff0c;也确实给审核的大佬们添了很多麻烦&#xff08;主要真的没人教一下&#xff0c;闷着头尝试犯了好很多错误&#xff0c;希望各位以后交一个…

JavaScript类型转换和相等性详解

类型转换 10"objects" //10objects,数字10转换为字符串 "7"*"4" //28&#xff0c;两个字符串均转为数字,只要不是加&#xff0c;其他都按两个数字算 var n 1-"x"// NaN&#xff0c;字符串x无法转化为数字 n"objects"//…

微服务--Docker

Docker是一个开源的应用容器引擎&#xff0c;它基于Go语言并遵从Apache2.0协议开源。Docker提供了一种轻量级、可移植和自包含的容器化环境&#xff0c;使开发人员能够在不同的计算机上以一致的方式构建、打包和分发应用程序。 一、Docker的基本概念 容器&#xff08;Contain…

TON生态系统开发指南:从零开始构建你的Web3应用

随着Web3的不断发展&#xff0c;TON&#xff08;The Open Network&#xff09;生态系统逐渐成为备受瞩目的区块链平台。依托其与Telegram的深度整合&#xff0c;TON生态为开发者提供了一个极具潜力的开发环境&#xff0c;特别是在社交、支付和金融这三个核心领域。本文旨在帮助…

企业源代码也需要加密?2024十款源代码加密软件排行榜

在当今数字化时代&#xff0c;源代码作为企业的核心资产&#xff0c;其重要性不言而喻。源代码不仅是企业技术创新的体现&#xff0c;更是商业机密和竞争优势的基石。然而&#xff0c;随着网络攻击和数据泄露事件的频发&#xff0c;源代码的安全性面临着前所未有的挑战。企业源…

零基础转行学网络安全怎么样?能找到什么样的工作?

网络安全对于现代社会来说变得越来越重要&#xff0c;但是很多人对于网络安全的知识却知之甚少。那么&#xff0c;零基础小白可以学网络安全吗&#xff1f;答案是肯定的。 零基础转行学习网络安全是完全可行的&#xff0c;但需要明确的是&#xff0c;网络安全是一个既广泛又深入…

centos7 更新 yum源 为 阿里云 LTS

centos7 更新 yum源 为 阿里云 按照下面的 步骤 1,2&#xff0c;3,4 来一遍 参考文档 CentOS yum源设置为国内aliyun yum源 https://developer.aliyun.com/article/1523301?spm5176.26934562.main.2.16c938e4ys9prQ CentOS 镜像 https://developer.aliyun.com/mirror/cent…

【每天学点AI】五个阶段带你了解人工智能大模型发展史!

20世纪50年代 NLP的早期研究主要基于规则的方法&#xff0c;依赖于语言学专家手工编写的规则和词典。这些规则通常是关于语法、语义和句法结构的人工规则。 例如一个简单的陈述句通常遵循“主语 谓语 宾语”的结构&#xff0c;每一个陈述句都以这种规则做标记。 那时候的NLP…

SpringCloud之服务网关zuul初级篇

SpringCloud之服务网关zuul初级篇 前面的文章我们介绍了&#xff0c;Eureka用于服务的注册于发现&#xff0c;Feign支持服务的调用以及均衡负载&#xff0c;Hystrix处理服务的 熔断防止故障扩散&#xff0c;Spring Cloud Config服务集群配置中心&#xff0c;似乎一个微服务框…