微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

在 SSE/AVX 中高效计算 X 的能力

如何解决在 SSE/AVX 中高效计算 X 的能力

我正在寻找最高效的方法来计算 SSE-128/AVX-256/AVX-512 寄存器(128 位和 256 位和 512 位)中所有浮点 X 的第一个整数幂,例如对于浮点 AVX1-256,我想在给定 X^1,X^2,X^3,X^4,X^5,X^6,X^7,X^8 输入时进入寄存器 X。我需要 float-32 和 double-64 的代码

我为 AVX-256/float-32 案例实现了这段代码

Try it online!

__m256 _mm256_powers_ps(float x) {
    float const x2 = x * x,x4 = x2 * x2;
    return _mm256_mul_ps(
        _mm256_mul_ps(
            _mm256_setr_ps( x,x2,x,x2),_mm256_setr_ps( 1,1,x2)
        ),x4,x4)
    );
}

我设计它主要是为了看起来简单。但我认为在性能方面它可以做得更快,也许少一两个乘法。有人可以推荐一个更快的版本吗?也许甚至有一些单一的 AVX 指令来计算这些能力?

我对所有 128 位(4 个浮点数或 2 个双精度数)和 256 位(8 个浮点数或 4 个双精度数)和 512 位 SIMD 寄存器(16 个浮点数)的 float-32 和 double-64 版本都感兴趣或 8 个双打)。

我还实现了可能更快的版本,看起来更复杂,但乘法少了,没有进行速度比较:

Try it online!

__m256 _mm256_powers_ps(float x) {
    float const x2 = x * x;
    __m256 const r = _mm256_mul_ps(
        _mm256_setr_ps( x,x2)
    );
    return _mm256_mul_ps(r,_mm256_setr_m128(_mm_set1_ps(1),_mm_permute_ps(_mm256_castps256_ps128(r),0b11'11'11'11))
    );
}

我也在考虑简单的非 SIMD 解决方案可能也很快,因为许多独立乘法的并行流水线良好:

Try it online!

__m256 _mm256_powers_ps(float x) {
    auto const x2 = x * x;
    auto const x3 = x2 * x;
    auto const x4 = x2 * x2;
    return _mm256_setr_ps(
        x,x3,x4 * x,x4 * x2,x4 * x3,x4 * x4);
}

注意:计算浮点或双精度多项式的阶段需要 X 的这些幂,请参阅我关于在 SIMD 上计算多项式的 other question。这个多项式可能有不同的度数,有时是 3,有时是 6,有时是 9,有时是 15,甚至是 25 或 32 或 43 度。这个数字是任意的,实际上可以使用整个范围的 1-48 次多项式。多项式的系数预先作为常数给出。但是事先不知道应该为其计算的值 X。当然,我将使用 FMA 模块来计算 poly 值本身,但是使用 SIMD 计算 poly 需要预先计算的 X 幂。

最常用的目标 cpuIntel Xeon Gold 6230,它有 AVX-512,所以我需要为它优化代码

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。