C/C++ 优化,strlen 示例

目录

C/C++ optimization, the strlen examplehttps://hallowed-blinker-3ca.notion.site/C-C-optimization-the-strlen-example-108719425da080338d94c79add2bb372

揭开优化的神秘面纱...

让我们来谈谈 CPU

等等,SIMD 是什么?

为什么 strlen 是一个很好的例子...

你的编译器是你的朋友,但你需要和它交流

1. 清晰和结构化的代码

2. 糟糕的代码模式无法被优化掉

3. SIMD 和低级优化通常需要手动干预

SSE 和 AVX,兄弟,这是什么?

AVX2 和 AVX512

为什么内存对齐很重要?

现在我们来真正编写一个酷(且优化过的)strlen

性能分析…

每次迭代的资源压力:

基准测试

也许可以是一个汇编版本...

参考文献:


本文翻译自louis Touzalin(x账号:@at0m741)的文章: 

C/C++ optimization, the strlen examplehttps://hallowed-blinker-3ca.notion.site/C-C-optimization-the-strlen-example-108719425da080338d94c79add2bb372

对于任何想要最大化其程序性能的开发人员来说,C/C++ 优化是一个基础主题。理解代码如何与硬件交互,可以使你充分利用现代处理器的能力。

在本文中,我们将探索 CPU 流水线、内存管理、编译器选项、高效使用寄存器以及利用 SIMD(单指令多数据)指令,并通过一个大家都已经使用过的函数示例:strlen

揭开优化的神秘面纱...

是的,低级语言中的优化可能有很多原因让人感到相当可怕,但其实并不那么难。

确实,阅读一些源代码会带来某种抽象,可能会让人感到害怕,但在我看来并不是这样。关键词是:只是倾斜,花点时间,不要害怕... 从简单的函数开始,我将尝试给你一些关键点,以开始理解优化是可行的(在一定程度上,但稍后我们会看到这一点)。

还有,请千万不要成为这样的人:

6efe49866d0a43008065d22e80a49c2e.png 

让我们来谈谈 CPU

优化最重要的方面是理解 CPU 和内存。在 x86_64 架构中,CPU 流水线是一个关键概念,它使得现代处理器能够同时执行多个指令,极大地提高了效率。这个流水线将每个指令的执行分解为几个阶段。每个阶段处理指令执行的一个特定部分——从内存中获取它、解码它、执行它、访问内存,最后将结果写回。

在 x86_64 处理器中,流水线通常由以下阶段组成:

  1. 取指:CPU 从内存中检索下一个指令。
  2. 解码:将指令解码成 CPU 可以理解的格式。
  3. 执行:CPU 执行实际的操作(例如,加法、乘法)。
  4. 内存访问:如果指令需要访问内存(读取或写入),则在此阶段发生。
  5. 写回:操作的结果被写回到 CPU 寄存器或内存中。

流水线的好处在于,当一个指令正在执行时,另一个可以被解码,还有一个可以被取指。这种并行性提高了吞吐量而不需要增加时钟速度。然而,流水线并非没有挑战,特别是与冒险(一个指令依赖于前一个指令结果的情况)和分支(程序流程意外改变时)相关的问题,可能会导致流水线停滞,降低效率。

 dbeebc9b197f4875870cb2ff0a8cc874.png

在流水线中,每个阶段需要一个时钟周期来完成。现代 CPU 旨在每个时钟周期执行一个指令(IPC:每个周期的指令数),但实际上,由于数据依赖、内存延迟或分支预测失误等因素,很少能达到这一点,IPC 通常在 2 到 4 之间。如果一个指令依赖于前一个指令的结果,CPU 可能需要等待(或“暂停”)直到该结果准备好,这会引入额外的周期并降低性能。

这是对 CPU 流水线的“简短”介绍,但现在,让我们来谈谈代码。

等等,SIMD 是什么?

SIMD(单指令多数据)是一种并行计算概念,其中单个指令同时对多个数据片段进行操作。与一次处理一个元素不同,SIMD 允许对多个数据点并行执行相同的操作(如加法、乘法或比较),通常在 CPU 的向量寄存器内。这种技术特别适合涉及重复计算的操作,例如在多媒体处理、科学模拟或大型数据集中发现的那些。

daad59a99d3b43de8fb41c9ac2b1c177.png 

通过一次性处理多个元素,SIMD 可以大大提高性能和效率,特别是在涉及大量数据的任务中,通过减少所需的指令和迭代次数。

别担心,我稍后会用具体的例子详细解释,这一部分只是一个简单的背景。

为什么 strlen 是一个很好的例子...

当开始探索 C/C++ 中的优化 时,选择具体的示例是至关重要的,这些示例可以让你在提供清晰和可衡量的改进可能性的同时,理解基本概念。在这些示例中,strlen 函数作为一个理想的起点脱颖而出。

基本实现涉及一个循环,该循环遍历字符串中的每个字符,直到遇到空字符为止:

size_t basic_strlen(const char *str) 
{size_t len = 0;while (str[len])len++;return len;
}

 

这种 strlen 的实现是低效的,因为它一次处理字符串中的一个字节,导致不必要的内存访问,并且没有利用现代 CPU 的能力。每次循环迭代都会增加 len 的值,并检查下一个字符,这会导致性能不佳,特别是对于长字符串。

此外,它没有利用 SIMD(单指令多数据)指令,这些指令允许 CPU 同时处理多个字节,减少迭代次数并加快执行速度。但这里有一个“更好”的版本:

#include <string.h>
#include <stdint.h>
#include <limits.h>#define ALIGN sizeof(size_t)
#define ONES ((size_t)-1 / UCHAR_MAX)
#define HIGHS (ONES * (UCHAR_MAX / 2 + 1))
#define HASZERO(x) (((x) - ONES) & ~(x) & HIGHS)size_t strlen(const char *s)
{const char *start = s;while ((uintptr_t)s % ALIGN) {if (!*s) return s - start;s++;}const size_t *w = (const size_t *)s;while (!HASZERO(*w)) w++;s = (const char *)w;while (*s) s++;return s - start;
}

 相比之下,Musl-libc 中的指针算术和对齐版本在循环中对齐内存后增加指针(s++)。它在最后计算起始和结束指针之间的差值,从而减少了每次迭代的操作次数。

27ef3b596a9b4d388f403ef873405436.png 

 

这个优化版本在指针对齐后,通过一次读取 size_t(在64位系统上通常是8字节)来处理更大的字符串块。这减少了内存访问和迭代次数,显著加快了字符串遍历的速度。此外,HASZERO 宏中使用的位运算允许高效地检测一个字中的空字节,避免了单独检查每个字节。

指针算术通常使编译器能够应用更激进的优化,例如消除冗余指令或更有效地使用寄存器。许多现代编译器擅长识别指针算术模式,并且可以比使用指针增量和单独计数器的版本更有效地优化这个版本。

尽管 Musl 版本稍微更高效一些,但值得进一步讨论 SIMD,以充分利用现代处理器提供的可能性。

你的编译器是你的朋友,但你需要和它交流

在使用像 ClangGCC 这样的现代编译器时,通常会使用 -O2-O3 等优化标志来自动提高生成代码的性能。这些标志指示编译器执行各种优化,包括 内联函数循环展开向量化(SIMD) 和常量折叠等。对于开发人员来说,这可以在不手动更改代码的情况下带来显著的性能提升。

2bd65842390440c3b920c4e5c6fecbd5.png 

然而,尽管编译器优化标志可以帮助,它们不是万能的解决方案,它们不能完全补偿写得不好或未经优化的代码。以下是原因:

1. 清晰和结构化的代码

某些代码模式是低效的,再多的编译器优化也无法神奇地使它们变得快速。例如,过度的分支、未优化的循环或重复的内存访问会导致性能瓶颈。一个在每次循环迭代中检查条件的函数只能优化到一定程度上。编译器可能会移除一些冗余操作,但如果逻辑本质上是低效的,性能提升将是微乎其微的。

例如,如果你实现一个 strlen 函数,它逐个检查每个字符,而没有实现像 SIMD 这样的更大数据处理操作,编译器可能会稍微加速它,但它不能自己将其转换成一个高效的 SIMD 函数。你需要编写能够利用 CPU 能力的代码。

为了看看结构良好的代码如何能让编译器在优化上走得更远,让我们以矩阵乘法为例(是的,不是 strlen,但让我来烹饪...):

void naive_matrix_multiply(int N, float **A, float **B, float **C) 
{for (int i = 0; i < N; i++) {for (int j = 0; j < N; j++) {C[i][j] = 0.0;for (int k = 0; k < N; k++) C[i][j] += A[i][k] * B[k][j];}}
}

这个函数只是执行一个简单的矩阵乘法:

eq?C_%7Bi%2Cj%7D%20%3D%20%5Csum_%7Bk%3D1%7D%5E%7BN%7D%20A_%7Bi%2Ck%7D%20%5Ccdot%20B_%7Bk%2Cj%7D

eq?%5Cbegin%7Bbmatrix%7D%20a_%7B11%7D%20%26%20a_%7B12%7D%20%5C%5C%20a_%7B21%7D%20%26%20a_%7B22%7D%20%5Cend%7Bbmatrix%7D%20%5Ctimes%20%5Cbegin%7Bbmatrix%7D%20b_%7B11%7D%20%26%20b_%7B12%7D%20%5C%5C%20b_%7B21%7D%20%26%20b_%7B22%7D%20%5Cend%7Bbmatrix%7D%20%3D%20%5Cbegin%7Bbmatrix%7D%20a_%7B11%7Db_%7B11%7D%20&plus;%20a_%7B12%7Db_%7B21%7D%20%26%20a_%7B11%7Db_%7B12%7D%20&plus;%20a_%7B12%7Db_%7B22%7D%20%5C%5C%20a_%7B21%7Db_%7B11%7D%20&plus;%20a_%7B22%7Db_%7B21%7D%20%26%20a_%7B21%7Db_%7B12%7D%20&plus;%20a_%7B22%7Db_%7B22%7D%20%5Cend%7Bbmatrix%7D

但是,可以像这样写得更好: 

void optimized_matrix_multiply(int N, float **A, float **B, float **C) 
{const int block_size = 64; int i, j, k, ii, jj, kk;for (i = 0; i < N; i++)for (j = 0; j < N; j++)C[i][j] = 0.0f;for (ii = 0; ii < N; ii += block_size) {for (jj = 0; jj < N; jj += block_size) {for (kk = 0; kk < N; kk += block_size) {for (i = ii; i < std::min(ii + block_size, N); i++) {for (j = jj; j < std::min(jj + block_size, N); j++) {float sum = 0.0f;for (k = kk; k < std::min(kk + block_size, N); k++) sum += A[i][k] * B[k][j];C[i][j] += sum;}}}}}
}

如果你在不使用 -O3 标志的情况下编译,你会发现“朴素”的函数在处理 512x512 的矩阵时自然更快(嗯...你在做什么...让我解释一下...):

		Naive matrix multiplication took: 401 msOpti  matrix multiplication took: 518 ms

 但如果我们简单地使用 -O3

Naive matrix multiplication took: 118 ms
Opti  matrix multiplication took: 90 ms

这个优化的矩阵乘法之所以更好,是因为它采用了缓存块(分块)技术。它将矩阵划分为更小的块,这些块更适合放入CPU缓存中,减少了缓存未命中并提高了内存局部性。通过一次处理矩阵的较小部分,它最小化了从较慢的内存(RAM)加载数据的次数,从而更有效地利用CPU缓存并提高整体性能。这就是为什么代码结构和预优化如此重要。

2. 糟糕的代码模式无法被优化掉

(译注:原文此处应该是漏掉了一些内容)

3. SIMD 和低级优化通常需要手动干预

虽然像 Clang 和 GCC 这样的编译器支持自动向量化,并在某些情况下可以利用 SIMD 指令,但它们并不总是积极地这样做。在许多情况下,开发人员必须手动编写代码来利用 SIMD,或者使用内置函数或特定于编译器的标志向编译器提供清晰的提示。

例如,如果不手动调用 AVX 或 SSE 内置函数,编译器可能无法自动将基本循环转换为 SIMD 操作,特别是如果循环包含数据依赖或复杂条件,这些对于编译器来说难以分析。

SSE 和 AVX,兄弟,这是什么?

单指令多数据(SIMD) 是现代 CPU 中用于提高性能的强大技术,它通过同时对多个数据点执行相同操作来实现。SIMD 允许单个指令并行处理多个数据点,这可以显著加快数据处理任务,特别是涉及大型数据集或重复操作的任务。

SIMD 代表单指令多数据。这意味着用单个指令,处理器可以同时对多个数据项执行相同的操作。想象一下,你有一个数组中的多个数值,你想给它们每个都加上一个特定的数字。与其逐个对每个值执行这个加法,SIMD 允许处理器将它们打包处理,这要快得多。

 bc37f62641c140c1bf979121ef6abed1.png

AVX2 和 AVX512

高级向量扩展(AVX) 是对 x86 指令集架构的扩展,旨在通过启用 SIMD 操作来提高性能。AVX2 通过引入新的整数操作指令并将寄存器大小从128位扩展到256位,扩展了原始AVX的能力。AVX-512 进一步扩展了这些能力,将寄存器大小加倍到512位,允许更大的并行性。

e2dcd60cd98d4155ab4ced85c2451bcc.png

使用 AVX2/AVX-512 的主要优势在于能够并行对多个数据元素执行操作。这种并行性可以显著减少处理大型数据数组所需的指令数量,从而提高性能并减少执行时间。此外,AVX-512 中更宽的寄存器允许在单条指令中处理更多的数据,进一步提高性能。有了这些基本解释,下一个 strlen 实现应该会更有趣……

AVX2 和 AVX-512 是增加用于向量处理的寄存器大小的扩展。

AVX2 启用了 256 位寄存器,这意味着处理器不再一次处理 16 位或 32 位,而是可以同时处理 256 位,或者说 32 个字符(因为每个字符 8 位)。

AVX-512 将这个容量翻倍,实现了 512 位操作,相当于并行处理 64 个字符。

这些扩展对于操作大型数据块特别有用,比如字符串操作或矩阵计算。

为什么内存对齐很重要?

AVX2 和 AVX-512 要求数据在内存中特定边界上对齐(AVX2 为 32 字节,AVX-512 为 64 字节)。对齐意味着我们数据的起始内存地址必须是 32 或 64 的倍数,以充分利用 AVX 寄存器。

如果数据没有对齐,处理器必须执行额外的读取来正确加载值,导致减速。这就是为什么,在您的 strlen_avx 实现中,您会注意在使用 AVX 指令之前检查对齐,并处理数据未对齐的情况。

现在我们来真正编写一个酷(且优化过的)strlen

遵循 AVX2 寄存器 的原则,即 256 位,你自然会明白可以一次增加 32 位……

主要思想是使用 AVX 寄存器的 256 位在单次操作中比较 32 个字符串字符。以下是它的逐步工作原理:

 

size_t _strlen_avx(const char *str) 
{const char *original_ptr = str;  __m256i ymm_zero = _mm256_set1_epi8(0);uintptr_t misalignment = (uintptr_t)str & 31;if (misalignment != 0) {size_t offset = 32 - misalignment;__m256i ymm_data = _mm256_loadu_si256((__m256i*)str);__m256i cmp_result = _mm256_cmpeq_epi8(ymm_zero, ymm_data);int32_t mask = _mm256_movemask_epi8(cmp_result);mask >>= misalignment;if (mask != 0) {int32_t index = __builtin_ctz(mask);return (size_t)(str + index - original_ptr);}str += offset;}while (1) {_mm_prefetch(str + 32, _MM_HINT_T0);__m256i ymm_data = _mm256_load_si256((__m256i*)str);  __m256i cmp_result = _mm256_cmpeq_epi8(ymm_zero, ymm_data);int32_t mask = _mm256_movemask_epi8(cmp_result);if (mask != 0) {int32_t index = __builtin_ctz(mask);return (size_t)(str + index - original_ptr);}str += 32;}return 0;
}

是的,我知道,与第一个版本相比,这看起来很可怕,但让我解释一下……我当然会解释整个函数。

    if (__builtin_expect(str == NULL, 0))return 0;

这行代码检查输入的字符串指针 str 是否为 NULL。使用 __builtin_expect 的目的是告诉编译器,字符串为 NULL 的情况非常不可能发生(第二个参数是 0),这有助于编译器优化分支预测。这对于通过指导 CPU 预测这种情况很少发生,从而提高热点代码路径的性能是有用的。

const char *original_ptr = str;  
__m256i ymm_zero = _mm256_setzero_si256();

original_ptr 存储输入字符串的起始地址。稍后,它将用于通过从这个初始指针减去 str 的最终位置来计算字符串的长度。

然后,ymm_zero 使用 Intel 内置函数 _mm256_setzero_si256 创建一个用零填充的 256 位向量(AVX 寄存器)。SIMD 寄存器是一个 256 位的空间,即 32 字节(1 个字符 = 8 位)。我们将使用一个寄存器来加载字符串的 32 个字符的部分,另一个寄存器来将这些 32 个字符与 \0(空字符终止符)进行比较。

uintptr_t misalignment = (uintptr_t)str & 31;

然后我们使用按位与操作(& 31)来管理不对齐的情况,这检查指针是否对齐到 32 字节。是的,因为要充分利用 AVX2 的性能,我们需要对齐到 32 字节。

_mm_prefetch(str + 32, _MM_HINT_T0);
if (misalignment != 0) 
{int64_t offset = 32 - misalignment;__m256i ymm_data = _mm256_loadu_si256((__m256i*)str);__m256i cmp_result = _mm256_cmpeq_epi8(ymm_zero, ymm_data);int32_t mask = _mm256_movemask_epi8(cmp_result);if (mask != 0) {int32_t index = __builtin_ctz(mask);return (uintptr_t)(str + index) - (uintptr_t)original_ptr;}str += offset;
}

当处理器需要从内存中读取数据时,由于处理器和内存之间的速度差异,会有一个延迟(延迟)。为了最小化这种影响,预加载(preloading)包括要求处理器提前加载某些数据,通过将其放置在缓存中,缓存是位于处理器附近的快速内存。

这意味着你要求处理器开始将位于 str + 64 的数据加载到缓存中。因此,当你的循环到达这个位置时,数据已经在缓存中可用,减少了等待时间,提高了整体性能。

如果数据没有对齐到 32 字节,代码通过使用 _mm256_loadu_si256 调整,这允许非对齐的内存访问。数据与零向量使用 _mm256_cmpeq_epi8 进行比较,以找到空字符终止符。mask 是由 _mm256_movemask_epi8 生成的,它将比较结果转换为一个 32 位掩码,其中每个位代表一个字节。

如果 mask 不为零,它指示空字符(\0)的位置。__builtin_ctz(mask) 查找第一个设置位的索引,指示空字节所在的位置。然后函数返回字符串的长度。

如果没有在未对齐的部分找到空字符,str 会增加 offset(需要对齐指针的数量)。想法是一次将字符串的 32 字节加载到 AVX 寄存器中。如果字符串正确对齐,你可以使用优化的一次性读取。

  	_mm_prefetch(str + 32, _MM_HINT_T0);while (1) {__m256i ymm_data = _mm256_load_si256((__m256i*)str);  __m256i cmp_result = _mm256_cmpeq_epi8(ymm_zero, ymm_data);int32_t mask = _mm256_movemask_epi8(cmp_result);if (mask != 0) {int32_t index = __builtin_ctz(mask);return (uintptr_t)(str + index) - (uintptr_t)original_ptr;}str += 32;}

 

主循环遍历字符串的 32 字节块(每次迭代两个 32 字节加载)。每次迭代包括:

  • 使用 _mm256_load_si256 加载 32 字节的对齐数据。
  • 将 32 字节与 ymm_zero 比较,以检查空字节。
  • 从比较结果中提取一个 32 位掩码,以识别 32 字节块中空终止符的位置。

将 32 个字符加载到 AVX 寄存器后,每个字符都会在单条指令中与 \0 进行比较。如果在前 32 字节中检测到空字节(mask != 0),函数使用 __builtin_ctz(mask)(计算掩码中的尾随零)找到第一个空字节的索引。然后通过从空字节的位置减去原始指针来计算字符串的长度。

一旦完成比较,我们需要知道在 32 个字符中 \0 出现在哪里。为此,我们使用一个提取位掩码的函数。

如果在前 32 字节中没有找到空字节,函数会以相同的方式检查接下来的 32 字节(str + 32)。如果它找到了空字节,它将返回计算出的长度。

如果在整个 64 字节块(两次 32 字节加载)中都没有找到空字节,函数将 str 指针向前移动 64 字节,并继续循环。

对齐对于 AVX 指令的性能至关重要,因为处理器在读取对齐良好的数据块时效率更高。然而,字符字符串往往不会对齐在 32 或 64 字节边界上。

在这种情况下,你需要手动处理不对齐的情况:

  1. 如果字符串从一个不对齐的地址开始,你使用不对齐加载指令(_mm256_loadu_si256)单独处理初始字符。
  2. 一旦确保了对齐,剩余的字符串就可以使用 AVX2 和 _mm256_load_si256 高效地以 32 字节块处理。

这种对齐的仔细管理允许你充分利用 SIMD 的力量,即使在数据不对齐时也不会损失性能。

5527ddb1d92141b1a0cbcc920f670763.png

 

性能分析…

在运行时很容易判断代码是否经过优化,但仍然值得从 CPU 流水线利用的角度进行性能分析。为此,我们将使用 LLVM-mca 工具,它允许我们分析编译时的输出。

terations:         100
Instructions:      4400
Total Cycles:      1515
Total uOps:        5600Dispatch Width:    4
uOps Per Cycle:    3.70
IPC:               2.90
Block RThroughput: 14.0Instruction Info:
[1]: #uOps
[2]: Latency
[3]: RThroughput
[4]: MayLoad
[5]: MayStore
[6]: HasSideEffects (U)[1]    [2]    [3]    [4]    [5]    [6]    Instructions:1      1     0.33                        test	rdi, rdi1      1     1.00                        je	.LBB0_11      1     0.33                        mov	rcx, rdi1      5     0.50    *      *            prefetcht0	byte ptr [rdi + 32]1      1     0.33                        mov	rax, rdi1      1     0.33                        and	rcx, 311      1     1.00                        je	.LBB0_71      0     0.25                        vpxor	xmm0, xmm0, xmm02      8     0.50    *                   vpcmpeqb	ymm0, ymm0, ymmword ptr [rdi]1      2     1.00                        vpmovmskb	eax, ymm01      1     0.33                        test	eax, eax1      1     1.00                        je	.LBB0_61      3     1.00                        bsf	eax, eax4      1     1.00                  U     vzeroupper1      1     1.00                  U     ret1      1     0.33                        neg	rcx1      1     0.50                        lea	rax, [rdi + rcx]1      1     0.33                        add	rax, 321      5     0.50    *      *            prefetcht0	byte ptr [rax + 64]1      1     0.33                        mov	rcx, rax1      1     0.33                        sub	rcx, rdi1      0     0.25                        vpxor	xmm0, xmm0, xmm02      8     0.50    *                   vpcmpeqb	ymm1, ymm0, ymmword ptr [rax]1      2     1.00                        vpmovmskb	edx, ymm11      1     0.33                        test	edx, edx1      1     1.00                        jne	.LBB0_92      8     0.50    *                   vpcmpeqb	ymm1, ymm0, ymmword ptr [rax + 32]1      2     1.00                        vpmovmskb	edx, ymm11      1     0.33                        test	edx, edx1      1     1.00                        jne	.LBB0_111      1     0.33                        add	rax, 641      1     0.33                        add	rcx, 641      1     1.00                        jmp	.LBB0_81      3     1.00                        bsf	eax, edx1      1     0.33                        add	rax, rcx4      1     1.00                  U     vzeroupper1      1     1.00                  U     ret1      3     1.00                        bsf	eax, edx1      1     0.33                        add	rax, rcx1      1     0.33                        add	rax, 324      1     1.00                  U     vzeroupper1      1     1.00                  U     ret1      0     0.25                        xor	eax, eax1      1     1.00                  U     retResources:
[0]   - SBDivider
[1]   - SBFPDivider
[2]   - SBPort0
[3]   - SBPort1
[4]   - SBPort4
[5]   - SBPort5
[6.0] - SBPort23
[6.1] - SBPort23Resource pressure per iteration:
[0]    [1]    [2]    [3]    [4]    [5]    [6.0]  [6.1]  -      -     10.98  11.49   -     13.53  2.50   2.50   Resource pressure by instruction:
[0]    [1]    [2]    [3]    [4]    [5]    [6.0]  [6.1]  Instructions:-      -     0.99    -      -     0.01    -      -     test	rdi, rdi-      -      -      -      -     1.00    -      -     je	.LBB0_1-      -     0.99   0.01    -      -      -      -     mov	rcx, rdi-      -      -      -      -      -     0.50   0.50   prefetcht0	byte ptr [rdi + 32]-      -     0.01   0.99    -      -      -      -     mov	rax, rdi-      -     0.49   0.51    -      -      -      -     and	rcx, 31-      -      -      -      -     1.00    -      -     je	.LBB0_7-      -      -      -      -      -      -      -     vpxor	xmm0, xmm0, xmm0-      -      -     1.00    -      -     0.50   0.50   vpcmpeqb	ymm0, ymm0, ymmword ptr [rdi]-      -     1.00    -      -      -      -      -     vpmovmskb	eax, ymm0-      -      -     1.00    -      -      -      -     test	eax, eax-      -      -      -      -     1.00    -      -     je	.LBB0_6-      -      -     1.00    -      -      -      -     bsf	eax, eax-      -      -      -      -      -      -      -     vzeroupper-      -      -      -      -     1.00    -      -     ret-      -     1.00    -      -      -      -      -     neg	rcx-      -     1.00    -      -      -      -      -     lea	rax, [rdi + rcx]-      -     0.99    -      -     0.01    -      -     add	rax, 32-      -      -      -      -      -     0.50   0.50   prefetcht0	byte ptr [rax + 64]-      -      -     1.00    -      -      -      -     mov	rcx, rax-      -     0.01   0.49    -     0.50    -      -     sub	rcx, rdi-      -      -      -      -      -      -      -     vpxor	xmm0, xmm0, xmm0-      -      -     0.50    -     0.50   0.50   0.50   vpcmpeqb	ymm1, ymm0, ymmword ptr [rax]-      -     1.00    -      -      -      -      -     vpmovmskb	edx, ymm1-      -     0.50   0.49    -     0.01    -      -     test	edx, edx-      -      -      -      -     1.00    -      -     jne	.LBB0_9-      -      -     0.51    -     0.49   0.50   0.50   vpcmpeqb	ymm1, ymm0, ymmword ptr [rax + 32]-      -     1.00    -      -      -      -      -     vpmovmskb	edx, ymm1-      -      -     1.00    -      -      -      -     test	edx, edx-      -      -      -      -     1.00    -      -     jne	.LBB0_11-      -      -     0.49    -     0.51    -      -     add	rax, 64-      -      -     0.01    -     0.99    -      -     add	rcx, 64-      -      -      -      -     1.00    -      -     jmp	.LBB0_8-      -      -     1.00    -      -      -      -     bsf	eax, edx-      -     0.50    -      -     0.50    -      -     add	rax, rcx-      -      -      -      -      -      -      -     vzeroupper-      -      -      -      -     1.00    -      -     ret-      -      -     1.00    -      -      -      -     bsf	eax, edx-      -     1.00    -      -      -      -      -     add	rax, rcx-      -     0.50   0.49    -     0.01    -      -     add	rax, 32-      -      -      -      -      -      -      -     vzeroupper-      -      -      -      -     1.00    -      -     ret-      -      -      -      -      -      -      -     xor	eax, eax-      -      -      -      -     1.00    -      -     ret

 

  1. IPC(每周期指令数)为 2.90 在现代处理器上是极好的。这个指标表明,平均而言,我们的代码每个 CPU 周期执行将近 3 条指令。由于大多数现代 CPU 的最大 IPC 大约为 4(由于发射宽度),达到 2.90 意味着你的代码非常高效地利用了 CPU 流水线。
  2. 每周期微操作数为 3.70,加上 4 的发射宽度,我们的代码几乎饱和了流水线。这表明你的代码让执行单元保持忙碌,最大化了吞吐量。
  3. 块吞吐量为 14.0 周期 表示你的循环(或代码块)的每次迭代(或代码块)平均需要 14 个周期来执行。这个低值反映了代码块高度优化且效率很高。

每次迭代的资源压力:

  • 资源压力表明每次执行每个执行端口或单元被利用的程度。
  • 使用的端口:
    • 端口 2 和 3: 使用频繁(大约各 11 个单元)。这些端口处理整数 ALU 操作、分支和一些 SIMD 操作。
    • 端口 5: 压力最高(大约 13.53 个单元)。这个端口通常处理内存加载操作。
    • 端口 6.0 和 6.1: 中等压力(各 2.50 个单元)。这些端口处理 SIMD 操作,特别是涉及 256 位 AVX 指令的操作。
  • 内存访问指令:
    • vpcmpeqb 带有内存操作数,由于内存加载,对端口 5 造成压力。
    • 预取指令(prefetcht0)也增加了端口 5 的压力。
  • SIMD 指令:
    • vpcmpeqb 和 vpmovmskb 由于它们的 SIMD 特性,对端口 2、3、6.0 和 6.1 造成压力。
  • 控制流指令:
    • 分支指令(jejnejmp)增加了端口 5 的压力。

这个 strlen 实现利用了几个关键的优化技术以获得最大性能。它检查空指针并处理内存对齐,确保高效的内存访问。通过使用 SIMD(单指令多数据)通过 AVX 指令一次处理 32 字节,它显著减少了与逐字符方法相比的迭代次数。

该函数使用预取来减少内存延迟,在需要之前将数据加载到缓存中。这有助于 CPU 保持高吞吐量。此外,它处理未对齐和对齐的内存访问,有效处理即使是未对齐的字符串。这些综合技术使得这个 AVX 优化的 strlen 比传统实现快得多,特别是对于长字符串。

基准测试

现在,我们来看一看我们的优化是否真的有所作为。是时候进行一些基准测试,检查所有花哨的 SIMD 指令和预取技巧是否真的值得。基准测试给我们提供了冷酷而坚硬的数字——我们将发现这些调整是否真的加快了我们的 strlen 函数的速度,或者它们只是噪声。通过比较原始实现和我们的优化版本,我们可以看到代码在实际条件下运行得有多快(或者不是)。

1db1ffcdcbd84f01a7f0a40456f7c6a4.png 

 

对于长度为 473 和 603 的字符串的基准测试,我们观察到以下关键点:

  1. 标准 strlen 表现得非常高效,时间范围在 0.00006 - 0.00007 秒之间。这是预期的,因为它在标准库中已经过良好优化。
  2. strlen_avx 显示出竞争力的性能,但比标准实现略慢。AVX 优化可能对这些较短的字符串没有完全的好处,其中开销可能超过收益。
  3. strlen_avx_ultimate 提供的结果非常接近标准 strlen,表明这个版本中进一步的优化对于短字符串是有效的。
  4. strlen_AVX_asm,可能包括内联汇编和 AVX 指令,比纯 AVX 版本稍慢。这可能是由于汇编指令或寄存器管理的开销,特别是在处理较短的字符串时。但是让我来烹饪…
  5. pointer_strlen 对于较短的字符串明显较慢,耗时超过 0.0004 秒。块读取优化在这种规模上不太有效,简单的指针算术对于短长度的字符串没有太多好处。
  6. stupid_strlen 是最慢的,耗时约 0.0014 秒。这种实现可能没有预取、展开、SIMD 等优化,其方法可能对任何字符串长度都不够高效。

总结来说,对于较短的字符串,标准 strlen 和优化过的 AVX 版本(strlen_avx 和 strlen_avx_ultimate)表现最佳,而像 pointer_strlen 和 stupid_strlen 这样的自定义实现则落后。 

cbc3bb77ae3446f095dbd74142787448.png

 

对于较大字符串(长度为 1,048,575)的基准测试,结果显示了几个重要的趋势:

  1. 标准 strlen 表现非常好,时间一致在 0.150 秒左右。这是预期的,因为标准库版本针对常见情况高度优化,使用了调整良好的循环展开、预取和可能的底层向量化指令。
  2. strlen_avx_ultimate 非常接近标准 strlen,性能在 0.151 到 0.153 秒之间。这表明终极 AVX 版本提供了类似的好处,可能由于在长数据块上高效的向量化操作。设置 AVX 操作的轻微开销可能阻止了它大幅度超越标准实现,但它仍然非常高效。
  3. strlen_avx 稍慢,大约在 0.161 秒范围。这表明虽然 AVX 指令有帮助,但这个版本的实现可能存在一些效率问题,或者它可能没有充分发挥 AVX 的潜力,特别是与“终极”版本相比。
  4. strlen_AVX_asm 明显慢得多,大约在 0.36 秒。尽管使用了 AVX,这个版本涉及内联汇编,可能会因为手动寄存器管理和函数调用开销引入开销。汇编优化有时可能难以在不同的 CPU 上管理,对于长字符串,这种方法不太有效。
  5. pointer_strlen 大约需要 0.566 秒。这个实现使用基本的指针算术并一次读取多个字符。对于大字符串,这种方法因为不利用任何 SIMD(单指令多数据)优化或 CPU 特定指令以更大块处理数据而受到影响。
  6. stupid_strlen 是最慢的,大约需要 2.85 秒。这个结果是预期的,因为这个版本可能一次处理一个字符,没有任何优化,导致大字符串的巨大性能损失。

对于大字符串,标准 strlenstrlen_avx_ultimate 是最快的,AVX 版本利用向量化指令一次处理多个字符。strlen_AVX_asm 表现不佳,可能由于手动汇编管理的开销。pointer_strlenstupid_strlen 明显慢得多,突出了在处理大量数据时使用 SIMD 等高级技术的重要性。

 

也许可以是一个汇编版本...

即使在 C 语言中可以实现类似的性能,用汇编语言编写 strlen 函数可以精确控制硬件特定的特性和优化,这些可能是编译器无法充分利用的。汇编使你能够利用高级处理器指令,如 SIMD 操作,并针对目标架构精确编写代码,可能在关键部分挤出额外的性能。

此外,用汇编编写确保了一致和可预测的行为,绕过了不同编译器优化或 C 语言版本可能带来的变异性。当需要最大效率,即使是微小的性能提升也很重要时,这种控制水平是非常宝贵的。

以下是我们的 strlen 函数:

section .text
global ft_strlen_avx_asm
%define PAGE_SIZE 4096
%define VEC_SIZE 32ft_strlen_avx_asm:test        rdi, rdije          return_zeromov         rsi, rdimov         rax, rdiand         eax, VEC_SIZE - 1jz          aligned_startmov         ecx, VEC_SIZEsub         ecx, eaxprefetcht0  [rdi + PAGE_SIZE]vpxor       xmm0, xmm0, xmm0vmovdqu     xmm1, [rdi]vpcmpeqb    xmm1, xmm1, xmm0pmovmskb    edx, xmm1test        edx, edxjne         found_null_unaligned add         rdi, rcxvzeroupperjmp         aligned_start aligned_start:vpxor       ymm0, ymm0, ymm0aligned_loop:vmovdqa     ymm1, [rdi] vpcmpeqb    ymm1, ymm1, ymm0 vpmovmskb   edx, ymm1 test        edx, edxjne         found_null_aligned add         rdi, VEC_SIZEjmp         aligned_loop found_null_unaligned:bsf         eax, edx sub         rdi, rsi add         rax, rdi    vzeroupperretfound_null_aligned:bsf         eax, edxsub         rdi, rsi   add         rax, rdi  vzeroupperretreturn_zero:xor         eax, eax  vzeroupperret

 

汇编代码中,每条指令对应特定的低级操作,许多操作在 C 语言中可以使用 AVX 内置函数或标准 C 代码找到等价物。

  • test rdi, rdi 指令检查字符串指针是否为空,这在 C 中相当于 if (str == NULL)
  • je return_zero 如果设置了零标志,则跳转到返回标签,类似于 C 中直接返回零的 if 语句。
  • mov rsi, rdi 和 mov rax, rdi 将字符串指针复制到其他寄存器,这类似于 C 中的 const char *original_ptr = str
  • and eax, VEC_SIZE - 1 通过计算指针与向量大小的模数来检查对齐,相当于 C 中的 uintptr_t misalignment = (uintptr_t)str & 31
  • prefetcht0 [rdi + PAGE_SIZE] 将内存预取到缓存中,类似于 C 中的 _mm_prefetch(str + PAGE_SIZE, _MM_HINT_T0)
  • vpxor xmm0, xmm0, xmm0 将一个 AVX 寄存器清零,相当于 C 中的 __m256i ymm_zero = _mm256_setzero_si256()
  • vmovdqu xmm1, [rdi] 从内存中加载未对齐的数据到寄存器,这在 C 中对应于 _mm256_loadu_si256((__m256i*)str)
  • vpcmpeqb xmm1, xmm1, xmm0 逐字节比较加载的数据与零,这与 C 中的 _mm256_cmpeq_epi8(ymm_data, ymm_zero) 相同。
  • pmovmskb edx, xmm1 创建一个掩码位,其中每个位代表字节比较的结果,相当于 C 中的 _mm256_movemask_epi8(cmp_result)
  • bsf eax, edx 扫描第一个设置的位,可以用 C 表示为 __builtin_ctz(mask),而 sub rdi, rsi 计算长度,类似于 C 中的指针减法 (uintptr_t)(str + index) - (uintptr_t)original_ptr

这个版本使用了完全相同的逻辑,不同的是使用汇编器意味着你可以直接操作寄存器,使你从编译器中解放出来,编译器有时可能会遗漏某些优化。

但在一些基准测试之后:

6d27755e37c24f60b6c0de06e9fbe098.png

是的,比 Glibc 快,但对字符串来说(并非总是这样,因为技术问题)。

总结:C/C++ 中低级优化的力量

C/C++ 中优化代码可能一开始看起来令人生畏,但一旦你深入其中,实际上非常令人满意。从像 strlen 这样的简单事物开始,然后逐渐使用 指针算术SIMDAVX 等技巧进行调整,展示了你对性能可以有多大的控制权。

这里的真正收获是什么?编译器很智能,但它们不能承担所有重任。你必须编写代码,利用现代 CPU 的特性,有时你得亲自动手处理事情——比如内存对齐或使用那些美味的 AVX 指令。一旦你这样做了,结果可能是惊人的,特别是对于大规模数据处理。

当然,像 循环展开预取 这样的优化可能会变得相当复杂,可能不总是带来巨大的收益,但它们是极好的例子,展示了当你了解底层发生了什么时,你可以将性能提升到什么程度。最好的部分是什么?这不仅仅是关于编写更快的代码——而是关于学习以一种全新的方式思考你的程序如何与硬件交互。

 

参考文献:

  • Intel intrinsics : https://www.intel.com/content/www/us/en/docs/intrinsics-guide/index.html
  • Musl lib : musl - musl - an implementation of the standard library for Linux-based systems
  • Glibc : The GNU C Library- GNU Project - Free Software Foundation
  • Memory pdf : https://people.freebsd.org/~lstewart/articles/cpumemory.pdf
  • Opti pdf : https://www.agner.org/optimize/optimizing_cpp.pdf
  • Simpl_libc : https://github.com/at0m741/SIMPL_libc

 

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/19772.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

性能测试

浅谈性能瓶颈之Mysql慢查询 1.开启测试环境的mysql数据库慢查询日志&#xff0c;然后在日志文件里自动记录这些慢查询&#xff0c;以及not using index的查询。数据库执行下面几个命令&#xff1a; set global slow_query_logon /*开启慢查询日志*/set log_queries_not_using_…

【AI+教育】一些记录@2024.11.11

《清华发布工具学习框架&#xff0c;让ChatGPT操控地图、股票查询&#xff0c;贾维斯已来&#xff1f;》 清华发布工具学习框架&#xff0c;让ChatGPT操控地图、股票查询&#xff0c;贾维斯已来&#xff1f;工具学习&#xff0c;清华天团让 ChatGPT 拿起专业工具https://mp.we…

图数据库 | 7、图数据库三大组件之一 之 图存储(下)

在图数据库中有三大组件——图计算、图存储以及图查询语言。上一个篇文章&#xff0c;老夫聊到了图存储&#xff0c;重点讲的是它的基础概念以及图存储引擎的架构设计中的一对重要概念——非原生图与原生图&#xff0c;接下来我们就聊聊关于图存储数据结构与构图的那些事儿吧。…

生产环境部署Nginx服务器双机热备部署-keepalived(多种模式教程)

前言&#xff1a;今天演示下生产环境keepalived的部署方式&#xff0c;安装模式有很多&#xff0c;比如说主备模型和双主模型&#xff0c;主备分&#xff1a;抢占模式 和 非抢占模式。这里我会一一展开说具体怎么配置 一、双节点均部署Nginx&#xff1a; 第一步&#xff1a;上…

陶哲轩:计算机通用方法,往往比深奥的纯数学更能解决问题

刚刚&#xff0c;著名数学家陶哲轩在个人社交平台更新的几篇帖子&#xff0c;引起大家广泛的共鸣。 陶哲轩用浅显易懂的语言表达了自己对数学的理解与思考心得。 文中谈到了一个关于「度」的问题&#xff0c;陶哲轩表示在设计系统时&#xff0c;缺乏或者过度的数学分析可能都…

NewStarCTF2024-Week3-Web-WP

目录 1、Include Me 2、blindsql1 3、臭皮踩踩背 4、臭皮的计算机 5、这“照片”是你吗 1、Include Me 使用 data 协议&#xff0c;结合 base64 编码绕过 payload&#xff1a; ?iknow1&medata://text/plain;base64,PD89c3lzdGVtKCJ0YWMgL2ZsYWciKTs 拿到 flag&#…

java版询价采购系统 招投标询价竞标投标系统 招投标公告系统源码

在信息化飞速发展的今天&#xff0c;电子招投标采购系统已成为企业运营中的重要一环。这一系统不仅优化了传统的招投标流程&#xff0c;还为企业带来了诸多显著的价值。 首先&#xff0c;电子招投标采购系统极大地提高了工作效率。传统招投标过程中&#xff0c;企业需要耗费大…

小林Coding—Java「二、Java基础篇」

&#xe0032;&#xe0032;二 Java基础面试篇 数据类型 引用类型 类&#xff1a;Class接口&#xff1a;Interface数组&#xff1a;Array枚举&#xff1a;Enum自动装箱&#xff1a;int -> Integer 自动拆箱&#xff1a;Integer -> int // 下面代码会先自动拆箱将sum转为…

GBDT 算法

GBDT 梯度决策提升树是将一些弱分类决策树的结果加在一起&#xff0c;每一棵决策树对前一颗觉得树残差进行优化&#xff0c;从而使得总体的损失值达到最小。 GBDT 公式 Fm-1: 上一棵树的结果 α \alpha α: 学习率 hm(x): 当前树&#xff0c;通过训练调整结果&#xff0c;降低…

java~Lambda表达式

目录 Lambda和匿名内部类 语法 函数式接口 无返回值&#xff08;无参、有参&#xff09; 有返回值&#xff08;无参、有参&#xff09; 语法精简 四个基本的函数式接口 方法引用 实例方法引用 静态方法引用 特殊方法引用 构造方法引用 数组引用 集合 List、Set …

PyQt5信号与槽二

窗口数据传递 在开发程序时&#xff0c;如果这个程序只有一个窗口&#xff0c;则应该关心这个窗口里面的各个控件之间是如何传递数据的&#xff1b;如果这个程序有多个窗口&#xff0c;那么还应该关心不同的窗口之间是如何传递数据的。对于多窗口的情况&#xff0c;一般有两种…

【java】多态

一、概念 多态是同一个行为具有多个不同表现形式或形态的能力。 多态就是同一个接口&#xff0c;使用不同的实例而执行不同操作。 同一个事件发生在不同的对象上会产生不同的结果。 比如&#xff1a; public class Test {public static void main(String[] args) {Person xn…

使用Holoviews创建复杂的可视化布局

目录 一、Holoviews简介 二、安装Holoviews 三、Holoviews的基本概念 元素&#xff08;Elements&#xff09;&#xff1a; 容器&#xff08;Containers&#xff09;&#xff1a; 映射&#xff08;Mappings&#xff09;&#xff1a; 四、基本用法 创建元素&#xff1a; …

Java2.1——异常

异常基本概念 一&#xff1a;程序出错 分类 &#xff1a; 编辑错误&#xff0c;逻辑错误&#xff0c;运行时错误 目的&#xff1a; 异常处理让程序出错了还运行&#xff0c;避免中止运行 二&#xff1a; 运行时错误 当出现编译时无法预料的问题&#xff0c;将运行错误报告…

2025年假期python,工作日python脚本求出 输出日期内容

# coding:utf-8 import datetime# 假设已知的节假日和调休安排 holidays [datetime.date(2025, 1, 1), # 元旦datetime.date(2025, 1, 28), # 春节datetime.date(2025, 1, 29), # 春节datetime.date(2025, 1, 30), # 春节datetime.date(2025, 1, 31), # 春节datetime.dat…

1TB! 台湾最新倾斜摄影3DTiles数据分享

之前的文章分享了546GB香港倾斜摄影3DTiles数据&#xff0c;主要是验证倾斜模型3DTiles转换工具的生产效率和数据显示效率&#xff0c;结果对比可以看出无论是数据生产速度以及成果数据显示效率上&#xff0c;都优于其他两种技术路线。最近使用倾斜模型3DTiles工具生产了台湾地…

ssm136公司项目管理系统设计与实现+jsp(论文+源码)_kaic

毕 业 设 计&#xff08;论 文&#xff09; 题目&#xff1a;公司项目管理系统设计与实现 摘 要 现代经济快节奏发展以及不断完善升级的信息化技术&#xff0c;让传统数据信息的管理升级为软件存储&#xff0c;归纳&#xff0c;集中处理数据信息的管理方式。本T公司项目管理系…

【Sql Server】sql server 2019设置远程访问,外网服务器需要设置好安全组入方向规则

大家好&#xff0c;我是全栈小5&#xff0c;欢迎来到《小5讲堂》。 这是《Sql Server》系列文章&#xff0c;每篇文章将以博主理解的角度展开讲解。 温馨提示&#xff1a;博主能力有限&#xff0c;理解水平有限&#xff0c;若有不对之处望指正&#xff01; 目录 前言1、无法链接…

小车综合玩法--2.超声波避障

一、实验准备 通过超声波模块与小车结合&#xff0c;实现小车超声波避障。小车接线已安装&#xff0c;且安装正确 二、实验原理 通过超声波我们获取小车与障碍物的距离。当检测到小车与障碍物的距离小于我们的设置的距离时&#xff0c;小车左旋避开障碍物。 三、实验源码 #!…

「二」体验HarmonyOS端云一体化开发模板——创建端云一体化工程

关于作者 白晓明 宁夏图尔科技有限公司董事长兼CEO、坚果派联合创始人 华为HDE、润和软件HiHope社区专家、鸿蒙KOL、仓颉KOL 华为开发者学堂/51CTO学堂/CSDN学堂认证讲师 开放原子开源基金会2023开源贡献之星 「目录」 「一」HarmonyOS端云一体化概要 「二」体验HarmonyOS端云一…