使用 Elasticsearch Reindex API 迁移数据

使用 Elasticsearch Reindex API 迁移数据

在 Elasticsearch 中,随着需求的变化,可能需要对索引进行重建或更新。这通常涉及创建新索引、迁移数据等步骤。本文介绍如何使用 Reindex API 将旧索引中的数据迁移到新索引中

一、步骤概述

  1. 创建新索引:根据需求创建一个新索引,新旧索引的字段名称和数据类型必须一致

  2. 数据完整性:确保在迁移过程中,旧索引不再进行写入操作,以避免数据不一致

  3. 迁移数据:使用 Reindex API 将旧索引中的数据重新索引到新索引中

二、reindex基本使用

  • 源索引的 _source 字段必须启用,才能提取文档内容
  • 目标索引在执行 _reindex 前应按照需求配置好,Reindex API 不会复制源索引的设置(例如映射、分片、副本等),这些需要在重新索引前手动配置

基本使用示例

POST /_reindex
{"source": {"index": "my-index-000001"},"dest": {"index": "my-new-index-000001"}
}

请求条件

如果启用了 Elasticsearch 的安全功能,执行 Reindex API 需要具备以下权限:

  • 对源数据流、索引或别名的读取权限。
  • 对目标数据流、索引或别名的写入权限。
  • 如果希望 Reindex API 自动创建数据流或索引,还需具备 auto_configurecreate_indexmanage 权限。
  • 若从远程集群重新索引,需要配置 reindex.remote.whitelist 设置,并且源集群用户需要具有 monitorread 权限。

异步执行 Reindex

请求默认是异步执行的,虽然 API 会立即返回一个响应,但任务实际上在后台执行。如果希望同步执行任务,可以在 URL 中添加 wait_for_completion=true 参数,示例如下:

POST _reindex?wait_for_completion=true&refresh
{"source": {"index": "index_v1"},"dest": {"index": "index_v2"}
}

三、指定slice并行和size大小优化速度

创建好新索引后,可以使用 Reindex API 进行数据迁移。以下是迁移数据的示例:

POST _reindex?slices=20&refresh
{"source": {"index": "index_v1","size": 5000},"dest": {"index": "index_v2"}
}
  • slices:可以指定并发执行的切片数,帮助加快迁移速度
  • size:每次从源索引中读取的文档数量

上面两个参数要根据服务器硬件的配置和网络传输速度等进行设置,并非越高越好

监控重建任务

在进行数据迁移时,可以使用以下命令监控重建任务的进度:

GET /_tasks?detailed=true&actions=*reindex

这个命令会返回当前所有重建任务的详细信息,包括任务的状态、已处理的文档数量、总文档数量以及任何可能的错误信息

image-20240920172550693

如果需要查看特定的任务信息,可以使用:

GET /_tasks/<task_id>

<task_id> 替换为实际的任务 ID

取消重建任务

如果在迁移过程中需要停止重建任务,可以使用以下命令取消指定任务:

POST /_tasks/<task_id>/_cancel

注意事项

  • 在迁移完成后,可以对新索引进行验证,确保数据完整性和准确性
  • 迁移完成后,可以删除旧索引以释放存储空间

以下为官方文档的翻译,官方文档链接:[Reindex API | Elasticsearch Guide 8.15] | Elastic

官方文档的翻译:Reindex API

Reindex API 用于将文档从一个索引复制到另一个索引。它允许你将数据从源索引、别名或数据流迁移到目标索引。但需要注意,源和目标不能相同,不能将数据流重新索引到自身。

基本要求

  • 源索引的 _source 字段必须启用,才能提取文档内容。
  • 目标索引在执行 _reindex 前应按照需求配置好,Reindex API 不会复制源索引的设置(例如映射、分片、副本等),这些需要在重新索引前手动配置。

基本使用示例

POST /_reindex
{"source": {"index": "my-index-000001"},"dest": {"index": "my-new-index-000001"}
}

请求条件

如果启用了 Elasticsearch 的安全功能,执行 Reindex API 需要具备以下权限:

  • 对源数据流、索引或别名的读取权限。
  • 对目标数据流、索引或别名的写入权限。
  • 如果希望 Reindex API 自动创建数据流或索引,还需具备 auto_configurecreate_indexmanage 权限。
  • 若从远程集群重新索引,需要配置 reindex.remote.whitelist 设置,并且源集群用户需要具有 monitorread 权限。

功能描述

Reindex API 会从源索引提取文档,并将其重新索引到目标索引。支持复制全部文档或文档子集。在没有指定 version_type 或设置为 internal 时,Elasticsearch 将不考虑版本冲突,直接覆盖目标索引中已有的相同 ID 文档。如果将 version_type 设置为 external,则会保留源文档的版本信息,创建缺失文档,更新目标索引中较旧版本的文档。

异步执行 Reindex

通过将 wait_for_completion 设置为 false,可以异步执行 Reindex。此时,Elasticsearch 会执行一些预检操作,启动请求,并返回一个任务 ID,你可以用它来取消或查询任务状态。

从多个源重新索引

如果需要从多个源进行重新索引,建议一次处理一个源,而不是使用通配符进行批量处理。这样可以在出现错误时重新启动特定的索引过程。

示例 Bash 脚本

for index in i1 i2 i3 i4 i5; docurl -HContent-Type:application/json -XPOST localhost:9200/_reindex?pretty -d'{"source": {"index": "'$index'"},"dest": {"index": "'$index'-reindexed"}}'
done

限速和重新限速

Reindex 支持通过 requests_per_second 参数对批次操作进行限速。设置为任意正数可限制每秒的请求次数,设置为 -1 则禁用限速。例如,假设批次大小为 1000,requests_per_second 设置为 500:

目标时间 = 1000 / 500 = 2 秒
等待时间 = 目标时间 - 写入时间 = 2 秒 - 0.5= 1.5

可以使用 _rethrottle API 动态调整正在运行的 Reindex 请求的限速:

POST _reindex/{task_id}/_rethrottle?requests_per_second=-1

分片处理(Slicing)

Reindex 支持使用切片(Sliced scroll)并行化处理。手动切片时,可以为每个请求提供一个 slice 参数:

POST /_reindex
{"source": {"index": "my-index-000001","slice": {"id": 0,"max": 2}},"dest": {"index": "my-new-index-000001"}
}

也可以使用 slices 参数让 Elasticsearch 自动选择切片数量:

POST /_reindex?slices=5&refresh
{"source": {"index": "my-index-000001"},"dest": {"index": "my-new-index-000001"}
}

如何选择切片数量

一般情况下,切片数量与索引中的分片数量相同效果最好。如果分片数量过大(例如 500),可以选择较小的切片数量,因为切片过多可能影响性能。通常建议切片数量不超过分片数量,以避免额外的开销。

路由

Reindex 默认保留文档的路由信息,但可以通过 dest.routing 参数进行更改:

POST /_reindex
{"source": {"index": "source","query": {"match": {"company": "cat"}}},"dest": {"index": "dest","routing": "=cat"}
}

批次大小

默认情况下,Reindex 使用 1000 条文档作为批次大小,可以通过 size 参数自定义批次大小:

POST /_reindex
{"source": {"index": "source","size": 100},"dest": {"index": "dest"}
}

使用 Ingest 管道进行重建索引

您可以在重建索引时通过 ingest 管道处理文档。以下是指定管道的示例:

json复制代码POST _reindex
{"source": {"index": "source"},"dest": {"index": "dest","pipeline": "some_ingest_pipeline"}
}

查询参数

  • refresh(可选,布尔):如果为 true,请求会刷新受影响的分片,使此操作对搜索可见。默认值为 false。
  • timeout(可选,时间单位):每个索引操作等待的时间,包括:
    • 自动索引创建
    • 动态映射更新
    • 等待活动分片 默认值为 1 分钟。这确保 Elasticsearch 至少等待超时之前不会失败。实际等待时间可能更长,特别是在发生多次等待时。
  • wait_for_active_shards(可选,字符串):必须激活的分片副本数量才能继续操作。可以设置为 “all” 或任意正整数,最大值为索引中的总分片数量(number_of_replicas+1)。默认值为 1,即主分片。
  • wait_for_completion(可选,布尔):如果为 true,请求会阻塞,直到操作完成。默认值为 true。
  • requests_per_second(可选,整数):此请求的速率限制,每秒的子请求数量。默认值为 -1(无速率限制)。
  • require_alias(可选,布尔):如果为 true,目标必须是索引别名。默认值为 false。
  • scroll(可选,时间单位):指定在滚动搜索中应保持一致的索引视图的时间。
  • slices(可选,整数):将此任务分成的切片数量。默认值为 1,即任务未被切片成子任务。
  • max_docs(可选,整数):处理的最大文档数量。默认处理所有文档。当设置为小于或等于 scroll_size 的值时,将不会使用滚动来检索操作的结果。

请求体

  • conflicts(可选,枚举):设置为 “proceed” 以继续重建索引,即使存在冲突。默认值为 “abort”。

  • max_docs(可选,整数):重建索引的最大文档数量。如果 conflicts 设置为 “proceed”,重建索引可能会尝试从源中重建更多文档,直到成功将 max_docs 文档索引到目标中,或者遍历完源查询中的所有文档。

  • source(必需,字符串):您要复制的数据流、索引或别名的名称。也接受以逗号分隔的列表,以从多个源重建索引。

  • query(可选,查询对象):使用查询 DSL 指定要重建的文档。

  • remote(可选,字符串):要从中索引的远程 Elasticsearch 实例的 URL。索引远程数据时需要此参数。

    • username(可选,字符串):用于远程主机身份验证的用户名。
    • password(可选,字符串):用于远程主机身份验证的密码。
    • socket_timeout(可选,时间单位):远程套接字读取超时。默认值为 30 秒。
    • connect_timeout(可选,时间单位):远程连接超时。默认值为 30 秒。
    • headers(可选,对象):包含请求头的对象。
  • size(可选,整数):每批次要索引的文档数量。用于远程索引时,确保批次适合堆内缓冲区,默认最大大小为 100 MB。

  • slice(可选,整数):手动切片的切片 ID。

    • max(可选,整数):切片的总数。
  • sort(可选,列表):在索引之前按字段排序的以逗号分隔的 : 对列表。与 max_docs 一起使用以控制重建的文档。

    注意:在 7.6 中,重建索引时排序功能已被弃用。重建时的排序从未保证按顺序索引文档,并阻碍了重建的进一步发展,例如弹性和性能改进。如果与 max_docs 一起使用,建议使用查询过滤器。

  • _source(可选,字符串):如果为 true,重建所有源字段。设置为列表以重建特定字段。默认值为 true。

  • dest(必需,字符串):您要复制到的数据流、索引或索引别名的名称。

  • version_type(可选,枚举):索引操作使用的版本类型。有效值:internal、external、external_gt、external_gte。有关更多信息,请参见版本类型。

  • op_type(可选,枚举):设置为 “create” 以仅索引不存在的文档(如果缺失则放入)。有效值:index、create。默认值为 index。

    要重建到数据流目标,必须将此参数设置为 “create”。

  • pipeline(可选,字符串):要使用的管道名称。

  • script(可选,字符串):重建文档源或元数据时运行的脚本。

    • lang(可选,枚举):脚本语言:painless、expression、mustache、java。有关更多信息,请参见脚本。

响应体

  • took(整数):整个操作耗时的毫秒数。
  • timed_out(布尔):如果在重建期间执行的任何请求超时,则该标志设置为 true。
  • total(整数):成功处理的文档数量。
  • updated(整数):成功更新的文档数量,即在重建前同一 ID 的文档已存在。
  • created(整数):成功创建的文档数量。
  • deleted(整数):成功删除的文档数量。
  • batches(整数):重建过程中提取的滚动响应的数量。
  • noops(整数):由于用于重建的脚本返回了无操作值而被忽略的文档数量。
  • version_conflicts(整数):重建中遇到的版本冲突数量。
  • retries(整数):重建尝试的重试次数。bulk 表示重试的批量操作数量,search 表示重试的搜索操作数量。
  • throttled_millis(整数):请求为符合 requests_per_second 而休眠的毫秒数。
  • requests_per_second(整数):在重建过程中有效执行的每秒请求数量。
  • throttled_until_millis(整数):此字段在 _reindex 响应中应始终等于零。它仅在使用任务 API 时有意义,指示下次(自纪元以来的毫秒)将在符合 requests_per_second 的情况下再次执行被限制的请求。
  • failures(数组):如果在处理过程中有任何不可恢复的错误,则此数组中将包含错误。如果此数组非空,则请求因这些错误而中止。重建是通过批次实现的,任何失败都会导致整个过程中止,但当前批次中的所有失败都会收集到数组中。您可以使用 conflicts 选项防止在版本冲突时重建中止。

示例

根据查询重建选择文档

您可以通过向源添加查询来限制文档。例如,以下请求仅将 user.id 为 kimchy 的文档复制到 my-new-index-000001:

json复制代码POST _reindex
{"source": {"index": "my-index-000001","query": {"term": {"user.id": "kimchy"}}},"dest": {"index": "my-new-index-000001"}
}
使用 max_docs 限制重建的文档数量

您可以通过设置 max_docs 来限制处理的文档数量。例如,以下请求将从 my-index-000001 复制一个文档到 my-new-index-000001:

json复制代码POST _reindex
{"max_docs": 1,"source": {"index": "my-index-000001"},"dest": {"index": "my-new-index-000001"}
}
从多个源重建

源中的 index 属性可以是一个列表,从多个源复制的请求。此请求将从 my-index-000001 和 my-index-000002 索引中复制文档:

json复制代码POST _reindex
{"source": {"index": ["my-index-000001", "my-index-000002"]},"dest": {"index": "my-new-index-000002"}
}

Reindex API 不会处理 ID 冲突,因此最后写入的文档将覆盖之前的版本。如果目标索引已经存在文档,且 ID 与源相同,则它们会被替换。

从远程索引重建数据

Reindex 支持从远程 Elasticsearch 集群重建数据:

POST _reindex
{"source": {"remote": {"host": "http://otherhost:9200","username": "user","password": "pass"},"index": "my-index-000001","query": {"match": {"test": "data"}}},"dest": {"index": "my-new-index-000001"}
}

host 参数必须包含协议、主机和端口(例如 https://otherhost:9200),以及可选路径(例如 https://otherhost:9200/proxy)。usernamepassword 参数是可选的,当提供时,_reindex 将使用基本认证连接到远程 Elasticsearch 节点。请确保在使用基本认证时使用 HTTPS,否则密码将以明文发送。可以配置多种设置来管理 HTTPS 连接的行为。

当使用 Elastic Cloud 时,也可以通过有效的 API 密钥对远程集群进行身份验证:

POST _reindex
{"source": {"remote": {"host": "http://otherhost:9200","headers": {"Authorization": "ApiKey API_KEY_VALUE"}},"index": "my-index-000001","query": {"match": {"test": "data"}}},"dest": {"index": "my-new-index-000001"}
}

远程主机必须在 elasticsearch.yml 中通过 reindex.remote.whitelist 属性显式允许。可以设置为允许的远程主机和端口组合的逗号分隔列表。协议被忽略,仅使用主机和端口。例如:

reindex.remote.whitelist: [otherhost:9200, another:9200, 127.0.10.*:9200, localhost:*]

允许的主机列表必须在任何将协调重建的节点上进行配置。

此功能应适用于你可能遇到的任何版本的远程 Elasticsearch 集群。这将允许你通过从旧版本集群中重建数据来升级到当前版本。

Elasticsearch 不支持主要版本之间的向前兼容。例如,不能从 7.x 集群重建到 6.x 集群。

为了启用发送到旧版本 Elasticsearch 的查询,query 参数直接发送到远程主机,不进行验证或修改。

从远程集群重建数据不支持手动或自动切片。

从远程服务器重建数据使用一个堆内存缓冲区,默认最大大小为 100MB。如果远程索引包含非常大的文档,你需要使用较小的批量大小。以下示例将批量大小设置为 10,非常小:

POST _reindex
{"source": {"remote": {"host": "http://otherhost:9200",...},"index": "source","size": 10,"query": {"match": {"test": "data"}}},"dest": {"index": "dest"}
}

还可以通过 socket_timeout 字段设置远程连接的套接字读取超时,通过 connect_timeout 字段设置连接超时。两者的默认值均为 30 秒。此示例将套接字读取超时设置为一分钟,连接超时设置为 10 秒:

POST _reindex
{"source": {"remote": {"host": "http://otherhost:9200",...,"socket_timeout": "1m","connect_timeout": "10s"},"index": "source","query": {"match": {"test": "data"}}},"dest": {"index": "dest"}
}

配置 SSL 参数

从远程重建支持可配置的 SSL 设置。这些设置必须在 elasticsearch.yml 文件中指定,安全设置在 Elasticsearch 密钥库中添加。在 _reindex 请求的主体中无法配置 SSL。

以下设置是支持的:

  • reindex.ssl.certificate_authorities

    • 应信任的 PEM 编码证书文件的路径列表。不能同时指定 reindex.ssl.certificate_authoritiesreindex.ssl.truststore.path
  • reindex.ssl.truststore.path

    • 包含要信任的证书的 Java 密钥库文件的路径。该密钥库可以是 “JKS” 或 “PKCS#12” 格式。不能同时指定这两个设置。
  • reindex.ssl.truststore.password

    • 信任库的密码(reindex.ssl.truststore.path)。[7.17.0] 在 7.17.0 中已弃用。建议使用 reindex.ssl.truststore.secure_password
  • reindex.ssl.truststore.secure_password (安全)

    • 信任库的密码(reindex.ssl.truststore.path)。此设置不能与 reindex.ssl.truststore.password 一起使用。
  • reindex.ssl.truststore.type

    • 信任库的类型(reindex.ssl.truststore.path)。必须是 jks 或 PKCS12。如果信任库路径以 “.p12”、“.pfx” 或 “pkcs12” 结尾,此设置默认为 PKCS12。否则,默认为 jks。
  • reindex.ssl.verification_mode

    • 指示保护中间人攻击和证书伪造的验证类型。可以是 full(验证主机名和证书路径)、certificate(验证证书路径,但不验证主机名)或 none(不进行验证 - 强烈建议在生产环境中不要使用)。默认为 full。
  • reindex.ssl.certificate

    • 指定用于 HTTP 客户端身份验证的 PEM 编码证书(或证书链)(如果远程集群需要)。此设置要求设置 reindex.ssl.key。不能同时指定这两个设置。
  • reindex.ssl.key

    • 指定与用于客户端身份验证的证书相关联的 PEM 编码私钥的路径(reindex.ssl.certificate)。不能同时指定这两个设置。
  • reindex.ssl.key_passphrase

    • 如果 PEM 编码私钥被加密,指定解密其的密码(reindex.ssl.key)。[7.17.0] 在 7.17.0 中已弃用。建议使用 reindex.ssl.secure_key_passphrase
  • reindex.ssl.secure_key_passphrase (安全)

    • 如果 PEM 编码私钥被加密,指定解密其的密码(reindex.ssl.key)。不能与 reindex.ssl.key_passphrase 一起使用。
  • reindex.ssl.keystore.path

    • 指定包含用于 HTTP 客户端身份验证的私钥和证书的密钥库的路径(如果远程集群需要)。该密钥库可以是 “JKS” 或 “PKCS#12” 格式。不能同时指定这两个设置。
  • reindex.ssl.keystore.type

    • 密钥库的类型(reindex.ssl.keystore.path)。必须是 jks 或 PKCS12。如果密钥库路径以 “.p12”、“.pfx” 或 “pkcs12” 结尾,此设置默认为 PKCS12。否则,默认为 jks。
  • reindex.ssl.keystore.password

    • 密钥库的密码(reindex.ssl.keystore.path)。[7.17.0] 在 7.17.0 中已弃用。建议使用 reindex.ssl.keystore.secure_password
  • reindex.ssl.keystore.secure_password (安全)

    • 密钥库的密码(reindex.ssl.keystore.path)。此设置不能与 reindex.ssl.keystore.password 一起使用。
  • reindex.ssl.keystore.key_password

    • 密钥库中密钥的密码(reindex.ssl.keystore.path)。默认为密钥库密码。[7.17.0] 在 7.17.0 中已弃用。建议使用 reindex.ssl.keystore.secure_key_password
  • reindex.ssl.keystore.secure_key_password (安全)

    • 密钥库中密钥的密码(reindex.ssl.keystore.path)。默认为密钥库密码。此设置不能与 reindex.ssl.keystore.key_password 一起使用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/1541131.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

LEAN 赋型唯一性(Unique Typing)之 并行 κ 简化 (Parallel κ reduction)>>ₖ

基于 κ 简化 &#xff08;κ reduction&#xff09; 的概念&#xff0c;引入了并行简化&#xff08;Parallel Reduction&#xff09;的概念&#xff0c;记 >>&#xff0c;而 并行K简化&#xff08;Parallel K Reduction&#xff09;记为 >>ₖ 。直观的意思是&…

Windows下利用MSYS2和VS的nmake编译nginx源码

目录 一、使用说明 二、安装软件 2.1 下载依赖库 2.3 下载并安装 StrawberryPerl 2.4 下载并安装 MSYS 2 2.5 nginx源代码下载 三、编译配置 3.1 设置NGX_MSVC_VER 3.2 配置 Makefile 3.3 编译代码 3.4 整理Nginx发布环境 四、错误处理 一、使用说明 本文章主要记…

【正点原子K210连载】第四十章 YOLO2人手检测实验摘自【正点原子】DNK210使用指南-CanMV版指南

第四十章 YOLO2人手检测实验 在上一章节中&#xff0c;介绍了利用maix.KPU模块实现YOLO2的人脸检测&#xff0c;本章将继续介绍利用maix.KPU模块实现YOLO2的人手检测。通过本章的学习&#xff0c;读者将学习到YOLO2网络的人手检测应用在CanMV上的实现。 本章分为如下几个小节&…

RocketMQ核心编程模型与最佳实践

目录 一、RocketMQ的消息模型 1、RocketMQ客户端基本流程 2、消息确认机制 3、广播消息 4、顺序消息机制 5、延迟消息 6、批量消息 7、过滤消息 8、事务消息 9、ACL权限控制机制 二、SpringBoot整合RocketMQ 1、快速实战 2、如何处理各种消息类型 3、实现原理 三…

周末愉快!——周复盘

加班的晚上有一个美梦&#xff01; 周末愉快简单复盘结尾 精华&#xff1a; 在这个信息爆炸的时代&#xff0c;我们的大脑每天都被无数的数据和刺激充斥&#xff0c;以至于我们常常感到应接不暇。然而&#xff0c;正如古人所言&#xff1a;“不飞则已&#xff0c;一飞冲天”&am…

GraphRAG 与 RAG 的比较分析

检索增强生成&#xff08;RAG&#xff09;技术概述 检索增强生成&#xff08;Retrieval-Augmented Generation&#xff0c;简称 RAG&#xff09;是一种旨在提升大型语言模型&#xff08;Large Language Models&#xff0c;LLMs&#xff09;性能的技术方法。其核心思想是通过整…

容器化安装Jenkins部署devops

基础环境介绍 系统使用的是centos7.9 内核使用的是5.16.13-1.el7.elrepo.x86_64 容器使用的是26.1.4 docker-compose使用的是 v2.29.0 链路图 devops 配置git环境插件 部署好jenkins后开始配置 jenkins连接git&#xff0c;这里需要jenkins有连接git的插件。在已安装的插件…

豆包Python SDK接入流程

模型与价格 豆包的模型介绍可以看豆包大模型介绍&#xff0c;模型价格可以看豆包定价文档里的“模型推理” - “大语言模型” - “字节跳动”部分。 推荐使用以下模型&#xff1a; Doubao-lite-32k&#xff1a;每百万 token 的输入价格为 0.3 元&#xff0c;输出价格为 0.6 元…

Hexo博客私有部署Twikoo评论系统并迁移评论记录(自定义邮件回复模板)

部署 之前一直使用的artalk&#xff0c;现在想改用Twikoo&#xff0c;采用私有部署的方式。 私有部署 (Docker) 端口可以根据实际情况进行修改 docker run --name twikoo -e TWIKOO_THROTTLE1000 -p 8100:8100 -v ${PWD}/data:/app/data -e TWIKOO_PORT8100 -d imaegoo/twi…

LabVIEW编程能力如何能突飞猛进

要想让LabVIEW编程能力实现突飞猛进&#xff0c;需要采取系统化的学习方法&#xff0c;并结合实际项目进行不断的实践。以下是一些提高LabVIEW编程能力的关键策略&#xff1a; 1. 扎实掌握基础 LabVIEW的编程本质与其他编程语言不同&#xff0c;它是基于图形化的编程方式&…

nethogs显示每个进程所使用的带宽

1、安装nethogs&#xff1a; Ubuntu、Debian和Fedora用户可以从默认软件库获得。CentOS用户则需要Epel。 #ubuntu或debian安装方法 sudo apt-get install nethogs #fedroa或centos安装法 sudo yum install nethogs -y 2、使用测试 nethogs是一款小巧的"net top&quo…

开源项目还需要花钱吗

开源和免费并不完全等同&#xff0c;很多用户对开源软件是否真的不花钱存在误解。本文深入探讨开源的真正含义、开源项目是否需要付费、以及开源软件的盈利模式。通过分析国内外主流开源平台&#xff0c;我们将帮助读者更好地理解开源与免费之间的区别。 什么是开源 开源软件指…

增强现实系列—GaussianAvatars: Photorealistic Head Avatar

&#x1f31f;&#x1f31f; 欢迎来到我的技术小筑&#xff0c;一个专为技术探索者打造的交流空间。在这里&#xff0c;我们不仅分享代码的智慧&#xff0c;还探讨技术的深度与广度。无论您是资深开发者还是技术新手&#xff0c;这里都有一片属于您的天空。让我们在知识的海洋中…

【ollama】ollama配置本地大模型并运行

ollama的Github链接 https://github.com/ollama/ollamaollama官网链接 https://ollama.com/打开后点击下载 下载完成后进行安装&#xff0c;安装完毕后在终端输入以下&#xff0c;代表安装成功 ollama在ollama官网的模型库中找到需要的模型&#xff0c;这里使用阿里最新开源…

ZYNQ FPGA自学笔记~操作PLL

一 时钟缓冲器、管理和路由 垂直时钟中心&#xff08;clock backbone&#xff09;将设备分为相邻的左侧和右侧区域&#xff0c;水平中心线将设备分为顶部和底部两侧。clock backbone中的资源镜像到水平相邻区域的两侧&#xff0c;从而将某些时钟资源扩展到水平相邻区域。BUFG不…

JavaWeb---三层架构

文章目录 1. 为什么需要分层&#xff1f;2.软件设计中的分层模式3.分层4.三层架构&#xff1a;显示层、业务逻辑层、数据访问层3. 案例&#xff1a;利用三层架构原理实现编写web程序的流程 摘自&#xff1a;https://blog.csdn.net/qq_64001795/article/details/124112824 1. 为…

死锁(详解版)

一、什么是死锁 死锁就是多个线程在运行过程中&#xff0c;都需要获取对方线程所持有的锁&#xff08;资源&#xff09;&#xff0c;导致处于长期无限等待的状态。 二、死锁产生原因 两个线程各自持有不同的锁&#xff0c;然后试图获取对方线程的锁&#xff0c;造成双方无限等待…

聊城网站建设:企业如何打造高效官网

聊城网站建设&#xff1a;企业如何打造高效官网 在互联网飞速发展的今天&#xff0c;官方网站已成为企业展示形象、推广产品、与客户沟通的重要平台。尤其对于聊城地区的企业来说&#xff0c;建立一个高效的官网显得尤为重要。本文将分享一些关键步骤&#xff0c;帮助企业打造一…

如何在Mac上查看剪贴板历史记录

重点摘要 macOS 内建的剪贴簿查看器可以透过 Finder 存取,但只能显示最近一次复制的内容,而且重新开机后就会清除。若要更进阶的剪贴簿管理,第三方 app 像是 CleanClip 提供了强大的功能和更好的组织方式。CleanClip 提供了全方位的剪贴簿历史管理解决方案,支援各种内容类型和…

书客、柏曼、明基护眼台灯怎么样?实测三款热门护眼台灯推荐

随着市场上照明产品种类的日益丰富&#xff0c;从护眼台灯到护眼落地灯等各种选择足以让初次接触的宝妈们感到困惑&#xff0c;仿佛置身于一个复杂的选择迷宫。为了帮助大家筛选出真正优质的护眼灯&#xff0c;作为一位长期关注护眼照明领域的评测博主&#xff0c;我综合考虑了…