| // RUN: %clang_cc1 -fexperimental-new-pass-manager -flax-vector-conversions=none -ffreestanding %s -triple=x86_64-apple-darwin -target-feature +avx512f -emit-llvm -o - -Wall -Werror | FileCheck %s |
| // RUN: %clang_cc1 -fexperimental-new-pass-manager -flax-vector-conversions=none -fms-extensions -fms-compatibility -ffreestanding %s -triple=x86_64-windows-msvc -target-feature +avx512f -emit-llvm -o - -Wall -Werror | FileCheck %s |
| |
| #include <immintrin.h> |
| |
| __m512d test_mm512_sqrt_pd(__m512d a) |
| { |
| // CHECK-LABEL: @test_mm512_sqrt_pd |
| // CHECK: call <8 x double> @llvm.sqrt.v8f64(<8 x double> %{{.*}}) |
| return _mm512_sqrt_pd(a); |
| } |
| |
| __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_mask_sqrt_pd |
| // CHECK: call <8 x double> @llvm.sqrt.v8f64(<8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_sqrt_pd (__W,__U,__A); |
| } |
| |
| __m512d test_mm512_maskz_sqrt_pd (__mmask8 __U, __m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_sqrt_pd |
| // CHECK: call <8 x double> @llvm.sqrt.v8f64(<8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> {{.*}} |
| return _mm512_maskz_sqrt_pd (__U,__A); |
| } |
| |
| __m512d test_mm512_mask_sqrt_round_pd(__m512d __W,__mmask8 __U,__m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_mask_sqrt_round_pd |
| // CHECK: call <8 x double> @llvm.x86.avx512.sqrt.pd.512(<8 x double> %{{.*}}, i32 11) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_sqrt_round_pd(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512d test_mm512_maskz_sqrt_round_pd(__mmask8 __U,__m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_sqrt_round_pd |
| // CHECK: call <8 x double> @llvm.x86.avx512.sqrt.pd.512(<8 x double> %{{.*}}, i32 11) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> {{.*}} |
| return _mm512_maskz_sqrt_round_pd(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512d test_mm512_sqrt_round_pd(__m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_sqrt_round_pd |
| // CHECK: call <8 x double> @llvm.x86.avx512.sqrt.pd.512(<8 x double> %{{.*}}, i32 11) |
| return _mm512_sqrt_round_pd(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512 test_mm512_sqrt_ps(__m512 a) |
| { |
| // CHECK-LABEL: @test_mm512_sqrt_ps |
| // CHECK: call <16 x float> @llvm.sqrt.v16f32(<16 x float> %{{.*}}) |
| return _mm512_sqrt_ps(a); |
| } |
| |
| __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_mask_sqrt_ps |
| // CHECK: call <16 x float> @llvm.sqrt.v16f32(<16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_sqrt_ps( __W, __U, __A); |
| } |
| |
| __m512 test_mm512_maskz_sqrt_ps( __mmask16 __U, __m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_sqrt_ps |
| // CHECK: call <16 x float> @llvm.sqrt.v16f32(<16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> {{.*}} |
| return _mm512_maskz_sqrt_ps(__U ,__A); |
| } |
| |
| __m512 test_mm512_mask_sqrt_round_ps(__m512 __W,__mmask16 __U,__m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_mask_sqrt_round_ps |
| // CHECK: call <16 x float> @llvm.x86.avx512.sqrt.ps.512(<16 x float> %{{.*}}, i32 11) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_sqrt_round_ps(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512 test_mm512_maskz_sqrt_round_ps(__mmask16 __U,__m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_sqrt_round_ps |
| // CHECK: call <16 x float> @llvm.x86.avx512.sqrt.ps.512(<16 x float> %{{.*}}, i32 11) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> {{.*}} |
| return _mm512_maskz_sqrt_round_ps(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512 test_mm512_sqrt_round_ps(__m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_sqrt_round_ps |
| // CHECK: call <16 x float> @llvm.x86.avx512.sqrt.ps.512(<16 x float> %{{.*}}, i32 11) |
| return _mm512_sqrt_round_ps(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512d test_mm512_rsqrt14_pd(__m512d a) |
| { |
| // CHECK-LABEL: @test_mm512_rsqrt14_pd |
| // CHECK: @llvm.x86.avx512.rsqrt14.pd.512 |
| return _mm512_rsqrt14_pd(a); |
| } |
| |
| __m512d test_mm512_mask_rsqrt14_pd (__m512d __W, __mmask8 __U, __m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_mask_rsqrt14_pd |
| // CHECK: @llvm.x86.avx512.rsqrt14.pd.512 |
| return _mm512_mask_rsqrt14_pd (__W,__U,__A); |
| } |
| |
| __m512d test_mm512_maskz_rsqrt14_pd (__mmask8 __U, __m512d __A) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_rsqrt14_pd |
| // CHECK: @llvm.x86.avx512.rsqrt14.pd.512 |
| return _mm512_maskz_rsqrt14_pd (__U,__A); |
| } |
| |
| __m512 test_mm512_rsqrt14_ps(__m512 a) |
| { |
| // CHECK-LABEL: @test_mm512_rsqrt14_ps |
| // CHECK: @llvm.x86.avx512.rsqrt14.ps.512 |
| return _mm512_rsqrt14_ps(a); |
| } |
| |
| __m512 test_mm512_mask_rsqrt14_ps (__m512 __W, __mmask16 __U, __m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_mask_rsqrt14_ps |
| // CHECK: @llvm.x86.avx512.rsqrt14.ps.512 |
| return _mm512_mask_rsqrt14_ps (__W,__U,__A); |
| } |
| |
| __m512 test_mm512_maskz_rsqrt14_ps (__mmask16 __U, __m512 __A) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_rsqrt14_ps |
| // CHECK: @llvm.x86.avx512.rsqrt14.ps.512 |
| return _mm512_maskz_rsqrt14_ps (__U,__A); |
| } |
| |
| __m512 test_mm512_add_ps(__m512 a, __m512 b) |
| { |
| // CHECK-LABEL: @test_mm512_add_ps |
| // CHECK: fadd <16 x float> |
| return _mm512_add_ps(a, b); |
| } |
| |
| __m512d test_mm512_add_pd(__m512d a, __m512d b) |
| { |
| // CHECK-LABEL: @test_mm512_add_pd |
| // CHECK: fadd <8 x double> |
| return _mm512_add_pd(a, b); |
| } |
| |
| __m512 test_mm512_mul_ps(__m512 a, __m512 b) |
| { |
| // CHECK-LABEL: @test_mm512_mul_ps |
| // CHECK: fmul <16 x float> |
| return _mm512_mul_ps(a, b); |
| } |
| |
| __m512d test_mm512_mul_pd(__m512d a, __m512d b) |
| { |
| // CHECK-LABEL: @test_mm512_mul_pd |
| // CHECK: fmul <8 x double> |
| return _mm512_mul_pd(a, b); |
| } |
| |
| void test_mm512_storeu_si512 (void *__P, __m512i __A) |
| { |
| // CHECK-LABEL: @test_mm512_storeu_si512 |
| // CHECK: store <8 x i64> %{{.*}}, <8 x i64>* %{{.*}}, align 1{{$}} |
| // CHECK-NEXT: ret void |
| _mm512_storeu_si512 ( __P,__A); |
| } |
| |
| void test_mm512_storeu_ps(void *p, __m512 a) |
| { |
| // CHECK-LABEL: @test_mm512_storeu_ps |
| // CHECK: store <16 x float> %{{.*}}, <16 x float>* %{{.*}}, align 1{{$}} |
| // CHECK-NEXT: ret void |
| _mm512_storeu_ps(p, a); |
| } |
| |
| void test_mm512_storeu_pd(void *p, __m512d a) |
| { |
| // CHECK-LABEL: @test_mm512_storeu_pd |
| // CHECK: store <8 x double> %{{.*}}, <8 x double>* %{{.*}}, align 1{{$}} |
| // CHECK-NEXT: ret void |
| _mm512_storeu_pd(p, a); |
| } |
| |
| void test_mm512_mask_store_ps(void *p, __m512 a, __mmask16 m) |
| { |
| // CHECK-LABEL: @test_mm512_mask_store_ps |
| // CHECK: @llvm.masked.store.v16f32.p0v16f32(<16 x float> %{{.*}}, <16 x float>* %{{.*}}, i32 64, <16 x i1> %{{.*}}) |
| _mm512_mask_store_ps(p, m, a); |
| } |
| |
| void test_mm512_store_si512 (void *__P, __m512i __A) |
| { |
| // CHECK-LABEL: @test_mm512_store_si512 |
| // CHECK: load <8 x i64>, <8 x i64>* %__A.addr.i, align 64 |
| // CHECK: [[SI512_3:%.+]] = load i8*, i8** %__P.addr.i, align 8 |
| // CHECK: bitcast i8* [[SI512_3]] to <8 x i64>* |
| // CHECK: store <8 x i64> |
| _mm512_store_si512 ( __P,__A); |
| } |
| |
| void test_mm512_store_epi32 (void *__P, __m512i __A) |
| { |
| // CHECK-LABEL: @test_mm512_store_epi32 |
| // CHECK: load <8 x i64>, <8 x i64>* %__A.addr.i, align 64 |
| // CHECK: [[Si32_3:%.+]] = load i8*, i8** %__P.addr.i, align 8 |
| // CHECK: bitcast i8* [[Si32_3]] to <8 x i64>* |
| // CHECK: store <8 x i64> |
| _mm512_store_epi32 ( __P,__A); |
| } |
| |
| void test_mm512_store_epi64 (void *__P, __m512i __A) |
| { |
| // CHECK-LABEL: @test_mm512_store_epi64 |
| // CHECK: load <8 x i64>, <8 x i64>* %__A.addr.i, align 64 |
| // CHECK: [[SI64_3:%.+]] = load i8*, i8** %__P.addr.i, align 8 |
| // CHECK: bitcast i8* [[SI64_3]] to <8 x i64>* |
| // CHECK: store <8 x i64> |
| _mm512_store_epi64 ( __P,__A); |
| } |
| |
| void test_mm512_store_ps(void *p, __m512 a) |
| { |
| // CHECK-LABEL: @test_mm512_store_ps |
| // CHECK: store <16 x float> |
| _mm512_store_ps(p, a); |
| } |
| |
| void test_mm512_store_pd(void *p, __m512d a) |
| { |
| // CHECK-LABEL: @test_mm512_store_pd |
| // CHECK: store <8 x double> |
| _mm512_store_pd(p, a); |
| } |
| |
| void test_mm512_mask_store_pd(void *p, __m512d a, __mmask8 m) |
| { |
| // CHECK-LABEL: @test_mm512_mask_store_pd |
| // CHECK: @llvm.masked.store.v8f64.p0v8f64(<8 x double> %{{.*}}, <8 x double>* %{{.*}}, i32 64, <8 x i1> %{{.*}}) |
| _mm512_mask_store_pd(p, m, a); |
| } |
| |
| void test_mm512_storeu_epi32(void *__P, __m512i __A) { |
| // CHECK-LABEL: @test_mm512_storeu_epi32 |
| // CHECK: store <8 x i64> %{{.*}}, <8 x i64>* %{{.*}}, align 1{{$}} |
| return _mm512_storeu_epi32(__P, __A); |
| } |
| |
| void test_mm512_mask_storeu_epi32(void *__P, __mmask16 __U, __m512i __A) { |
| // CHECK-LABEL: @test_mm512_mask_storeu_epi32 |
| // CHECK: @llvm.masked.store.v16i32.p0v16i32(<16 x i32> %{{.*}}, <16 x i32>* %{{.*}}, i32 1, <16 x i1> %{{.*}}) |
| return _mm512_mask_storeu_epi32(__P, __U, __A); |
| } |
| |
| void test_mm512_storeu_epi64(void *__P, __m512i __A) { |
| // CHECK-LABEL: @test_mm512_storeu_epi64 |
| // CHECK: store <8 x i64> %{{.*}}, <8 x i64>* %{{.*}}, align 1{{$}} |
| return _mm512_storeu_epi64(__P, __A); |
| } |
| |
| void test_mm512_mask_storeu_epi64(void *__P, __mmask8 __U, __m512i __A) { |
| // CHECK-LABEL: @test_mm512_mask_storeu_epi64 |
| // CHECK: @llvm.masked.store.v8i64.p0v8i64(<8 x i64> %{{.*}}, <8 x i64>* %{{.*}}, i32 1, <8 x i1> %{{.*}}) |
| return _mm512_mask_storeu_epi64(__P, __U, __A); |
| } |
| |
| __m512i test_mm512_loadu_si512 (void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_loadu_si512 |
| // CHECK: load <8 x i64>, <8 x i64>* %{{.*}}, align 1{{$}} |
| return _mm512_loadu_si512 ( __P); |
| } |
| |
| __m512i test_mm512_loadu_epi32 (void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_loadu_epi32 |
| // CHECK: load <8 x i64>, <8 x i64>* %{{.*}}, align 1{{$}} |
| return _mm512_loadu_epi32 (__P); |
| } |
| |
| __m512i test_mm512_mask_loadu_epi32 (__m512i __W, __mmask16 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_mask_loadu_epi32 |
| // CHECK: @llvm.masked.load.v16i32.p0v16i32(<16 x i32>* %{{.*}}, i32 1, <16 x i1> %{{.*}}, <16 x i32> %{{.*}}) |
| return _mm512_mask_loadu_epi32 (__W,__U, __P); |
| } |
| |
| __m512i test_mm512_maskz_loadu_epi32 (__mmask16 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_loadu_epi32 |
| // CHECK: @llvm.masked.load.v16i32.p0v16i32(<16 x i32>* %{{.*}}, i32 1, <16 x i1> %{{.*}}, <16 x i32> %{{.*}}) |
| return _mm512_maskz_loadu_epi32 (__U, __P); |
| } |
| |
| __m512i test_mm512_loadu_epi64 (void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_loadu_epi64 |
| // CHECK: load <8 x i64>, <8 x i64>* %{{.*}}, align 1{{$}} |
| return _mm512_loadu_epi64 (__P); |
| } |
| |
| __m512i test_mm512_mask_loadu_epi64 (__m512i __W, __mmask8 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_mask_loadu_epi64 |
| // CHECK: @llvm.masked.load.v8i64.p0v8i64(<8 x i64>* %{{.*}}, i32 1, <8 x i1> %{{.*}}, <8 x i64> %{{.*}}) |
| return _mm512_mask_loadu_epi64 (__W,__U, __P); |
| } |
| |
| __m512i test_mm512_maskz_loadu_epi64 (__mmask16 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_loadu_epi64 |
| // CHECK: @llvm.masked.load.v8i64.p0v8i64(<8 x i64>* %{{.*}}, i32 1, <8 x i1> %{{.*}}, <8 x i64> %{{.*}}) |
| return _mm512_maskz_loadu_epi64 (__U, __P); |
| } |
| |
| __m512 test_mm512_loadu_ps(void *p) |
| { |
| // CHECK-LABEL: @test_mm512_loadu_ps |
| // CHECK: load <16 x float>, <16 x float>* {{.*}}, align 1{{$}} |
| return _mm512_loadu_ps(p); |
| } |
| |
| __m512 test_mm512_mask_loadu_ps (__m512 __W, __mmask16 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_mask_loadu_ps |
| // CHECK: @llvm.masked.load.v16f32.p0v16f32(<16 x float>* %{{.*}}, i32 1, <16 x i1> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_mask_loadu_ps (__W,__U, __P); |
| } |
| |
| __m512d test_mm512_loadu_pd(void *p) |
| { |
| // CHECK-LABEL: @test_mm512_loadu_pd |
| // CHECK: load <8 x double>, <8 x double>* {{.*}}, align 1{{$}} |
| return _mm512_loadu_pd(p); |
| } |
| |
| __m512d test_mm512_mask_loadu_pd (__m512d __W, __mmask8 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_mask_loadu_pd |
| // CHECK: @llvm.masked.load.v8f64.p0v8f64(<8 x double>* %{{.*}}, i32 1, <8 x i1> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_mask_loadu_pd (__W,__U, __P); |
| } |
| |
| __m512i test_mm512_load_si512 (void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_load_si512 |
| // CHECK: [[LI512_1:%.+]] = load i8*, i8** %__P.addr.i, align 8 |
| // CHECK: [[LI512_2:%.+]] = bitcast i8* [[LI512_1]] to <8 x i64>* |
| // CHECK: load <8 x i64>, <8 x i64>* [[LI512_2]], align 64 |
| return _mm512_load_si512 ( __P); |
| } |
| |
| __m512i test_mm512_load_epi32 (void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_load_epi32 |
| // CHECK: [[LI32_1:%.+]] = load i8*, i8** %__P.addr.i, align 8 |
| // CHECK: [[LI32_2:%.+]] = bitcast i8* [[LI32_1]] to <8 x i64>* |
| // CHECK: load <8 x i64>, <8 x i64>* [[LI32_2]], align 64 |
| return _mm512_load_epi32 ( __P); |
| } |
| |
| __m512i test_mm512_load_epi64 (void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_load_epi64 |
| // CHECK: [[LI64_1:%.+]] = load i8*, i8** %__P.addr.i, align 8 |
| // CHECK: [[LI64_2:%.+]] = bitcast i8* [[LI64_1]] to <8 x i64>* |
| // CHECK: load <8 x i64>, <8 x i64>* [[LI64_2]], align 64 |
| return _mm512_load_epi64 ( __P); |
| } |
| |
| __m512 test_mm512_load_ps(void *p) |
| { |
| // CHECK-LABEL: @test_mm512_load_ps |
| // CHECK: load <16 x float>, <16 x float>* %{{.*}}, align 64 |
| return _mm512_load_ps(p); |
| } |
| |
| __m512 test_mm512_mask_load_ps (__m512 __W, __mmask16 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_mask_load_ps |
| // CHECK: @llvm.masked.load.v16f32.p0v16f32(<16 x float>* %{{.*}}, i32 64, <16 x i1> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_mask_load_ps (__W,__U, __P); |
| } |
| |
| __m512 test_mm512_maskz_load_ps(__mmask16 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_load_ps |
| // CHECK: @llvm.masked.load.v16f32.p0v16f32(<16 x float>* %{{.*}}, i32 64, <16 x i1> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_maskz_load_ps(__U, __P); |
| } |
| |
| __m512d test_mm512_load_pd(void *p) |
| { |
| // CHECK-LABEL: @test_mm512_load_pd |
| // CHECK: load <8 x double>, <8 x double>* %{{.*}}, align 64 |
| return _mm512_load_pd(p); |
| } |
| |
| __m512d test_mm512_mask_load_pd (__m512d __W, __mmask8 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_mask_load_pd |
| // CHECK: @llvm.masked.load.v8f64.p0v8f64(<8 x double>* %{{.*}}, i32 64, <8 x i1> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_mask_load_pd (__W,__U, __P); |
| } |
| |
| __m512d test_mm512_maskz_load_pd(__mmask8 __U, void *__P) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_load_pd |
| // CHECK: @llvm.masked.load.v8f64.p0v8f64(<8 x double>* %{{.*}}, i32 64, <8 x i1> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_maskz_load_pd(__U, __P); |
| } |
| |
| __m512d test_mm512_set1_pd(double d) |
| { |
| // CHECK-LABEL: @test_mm512_set1_pd |
| // CHECK: insertelement <8 x double> {{.*}}, i32 0 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 1 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 2 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 3 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 4 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 5 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 6 |
| // CHECK: insertelement <8 x double> {{.*}}, i32 7 |
| return _mm512_set1_pd(d); |
| } |
| |
| __mmask16 test_mm512_knot(__mmask16 a) |
| { |
| // CHECK-LABEL: @test_mm512_knot |
| // CHECK: [[IN:%.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: [[NOT:%.*]] = xor <16 x i1> [[IN]], <i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true, i1 true> |
| // CHECK: bitcast <16 x i1> [[NOT]] to i16 |
| return _mm512_knot(a); |
| } |
| |
| __m512i test_mm512_alignr_epi32(__m512i a, __m512i b) |
| { |
| // CHECK-LABEL: @test_mm512_alignr_epi32 |
| // CHECK: shufflevector <16 x i32> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15, i32 16, i32 17> |
| return _mm512_alignr_epi32(a, b, 2); |
| } |
| |
| __m512i test_mm512_mask_alignr_epi32(__m512i w, __mmask16 u, __m512i a, __m512i b) |
| { |
| // CHECK-LABEL: @test_mm512_mask_alignr_epi32 |
| // CHECK: shufflevector <16 x i32> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15, i32 16, i32 17> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> {{.*}} |
| return _mm512_mask_alignr_epi32(w, u, a, b, 2); |
| } |
| |
| __m512i test_mm512_maskz_alignr_epi32( __mmask16 u, __m512i a, __m512i b) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_alignr_epi32 |
| // CHECK: shufflevector <16 x i32> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15, i32 16, i32 17> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> {{.*}} |
| return _mm512_maskz_alignr_epi32(u, a, b, 2); |
| } |
| |
| __m512i test_mm512_alignr_epi64(__m512i a, __m512i b) |
| { |
| // CHECK-LABEL: @test_mm512_alignr_epi64 |
| // CHECK: shufflevector <8 x i64> %{{.*}}, <8 x i64> %{{.*}}, <8 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9> |
| return _mm512_alignr_epi64(a, b, 2); |
| } |
| |
| __m512i test_mm512_mask_alignr_epi64(__m512i w, __mmask8 u, __m512i a, __m512i b) |
| { |
| // CHECK-LABEL: @test_mm512_mask_alignr_epi64 |
| // CHECK: shufflevector <8 x i64> %{{.*}}, <8 x i64> %{{.*}}, <8 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> {{.*}} |
| return _mm512_mask_alignr_epi64(w, u, a, b, 2); |
| } |
| |
| __m512i test_mm512_maskz_alignr_epi64( __mmask8 u, __m512i a, __m512i b) |
| { |
| // CHECK-LABEL: @test_mm512_maskz_alignr_epi64 |
| // CHECK: shufflevector <8 x i64> %{{.*}}, <8 x i64> %{{.*}}, <8 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> {{.*}} |
| return _mm512_maskz_alignr_epi64(u, a, b, 2); |
| } |
| |
| __m512d test_mm512_fmadd_round_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmadd_round_pd |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| return _mm512_fmadd_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| |
| __m512d test_mm512_mask_fmadd_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmadd_round_pd |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask3_fmadd_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmadd_round_pd |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_fmadd_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmadd_round_pd |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_fmsub_round_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| return _mm512_fmsub_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_fmsub_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmsub_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_fmsub_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmsub_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_fnmadd_round_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fnmadd_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| return _mm512_fnmadd_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask3_fnmadd_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmadd_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fnmadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_fnmadd_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmadd_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fnmadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_fnmsub_round_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fnmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| return _mm512_fnmsub_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_fnmsub_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fnmsub_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_fmadd_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmadd_pd |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_fmadd_pd(__A, __B, __C); |
| } |
| __m512d test_mm512_mask_fmadd_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmadd_pd |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmadd_pd(__A, __U, __B, __C); |
| } |
| __m512d test_mm512_mask3_fmadd_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmadd_pd |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmadd_pd(__A, __B, __C, __U); |
| } |
| __m512d test_mm512_maskz_fmadd_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmadd_pd |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmadd_pd(__U, __A, __B, __C); |
| } |
| __m512d test_mm512_fmsub_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_fmsub_pd(__A, __B, __C); |
| } |
| __m512d test_mm512_mask_fmsub_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmsub_pd(__A, __U, __B, __C); |
| } |
| __m512d test_mm512_maskz_fmsub_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmsub_pd(__U, __A, __B, __C); |
| } |
| __m512d test_mm512_fnmadd_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fnmadd_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_fnmadd_pd(__A, __B, __C); |
| } |
| __m512d test_mm512_mask3_fnmadd_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmadd_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fnmadd_pd(__A, __B, __C, __U); |
| } |
| __m512d test_mm512_maskz_fnmadd_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmadd_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fnmadd_pd(__U, __A, __B, __C); |
| } |
| __m512d test_mm512_fnmsub_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fnmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| return _mm512_fnmsub_pd(__A, __B, __C); |
| } |
| __m512d test_mm512_maskz_fnmsub_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fnmsub_pd(__U, __A, __B, __C); |
| } |
| __m512 test_mm512_fmadd_round_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmadd_round_ps |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| return _mm512_fmadd_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask_fmadd_round_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmadd_round_ps |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmadd_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask3_fmadd_round_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmadd_round_ps |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmadd_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_maskz_fmadd_round_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmadd_round_ps |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmadd_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_fmsub_round_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| return _mm512_fmsub_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask_fmsub_round_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmsub_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_maskz_fmsub_round_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmsub_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_fnmadd_round_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fnmadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| return _mm512_fnmadd_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask3_fnmadd_round_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fnmadd_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_maskz_fnmadd_round_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fnmadd_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_fnmsub_round_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fnmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| return _mm512_fnmsub_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_maskz_fnmsub_round_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fnmsub_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_fmadd_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmadd_ps |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_fmadd_ps(__A, __B, __C); |
| } |
| __m512 test_mm512_mask_fmadd_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmadd_ps |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_mask_fmadd_ps(__A, __U, __B, __C); |
| } |
| __m512 test_mm512_mask3_fmadd_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmadd_ps |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmadd_ps(__A, __B, __C, __U); |
| } |
| __m512 test_mm512_maskz_fmadd_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmadd_ps |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmadd_ps(__U, __A, __B, __C); |
| } |
| __m512 test_mm512_fmsub_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_fmsub_ps(__A, __B, __C); |
| } |
| __m512 test_mm512_mask_fmsub_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmsub_ps(__A, __U, __B, __C); |
| } |
| __m512 test_mm512_maskz_fmsub_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmsub_ps(__U, __A, __B, __C); |
| } |
| __m512 test_mm512_fnmadd_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fnmadd_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_fnmadd_ps(__A, __B, __C); |
| } |
| __m512 test_mm512_mask3_fnmadd_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmadd_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fnmadd_ps(__A, __B, __C, __U); |
| } |
| __m512 test_mm512_maskz_fnmadd_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmadd_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fnmadd_ps(__U, __A, __B, __C); |
| } |
| __m512 test_mm512_fnmsub_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fnmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| return _mm512_fnmsub_ps(__A, __B, __C); |
| } |
| __m512 test_mm512_maskz_fnmsub_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fnmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fnmsub_ps(__U, __A, __B, __C); |
| } |
| __m512d test_mm512_fmaddsub_round_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmaddsub_round_pd |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| return _mm512_fmaddsub_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_fmaddsub_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmaddsub_round_pd |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmaddsub_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask3_fmaddsub_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmaddsub_round_pd |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmaddsub_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_fmaddsub_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmaddsub_round_pd |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmaddsub_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_fmsubadd_round_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmsubadd_round_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| return _mm512_fmsubadd_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_fmsubadd_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsubadd_round_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmsubadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_fmsubadd_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsubadd_round_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmsubadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_fmaddsub_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmaddsub_pd |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: shufflevector <8 x double> [[SUB]], <8 x double> [[ADD]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| return _mm512_fmaddsub_pd(__A, __B, __C); |
| } |
| __m512d test_mm512_mask_fmaddsub_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmaddsub_pd |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: shufflevector <8 x double> [[SUB]], <8 x double> [[ADD]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmaddsub_pd(__A, __U, __B, __C); |
| } |
| __m512d test_mm512_mask3_fmaddsub_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmaddsub_pd |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: shufflevector <8 x double> [[SUB]], <8 x double> [[ADD]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmaddsub_pd(__A, __B, __C, __U); |
| } |
| __m512d test_mm512_maskz_fmaddsub_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmaddsub_pd |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: shufflevector <8 x double> [[SUB]], <8 x double> [[ADD]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmaddsub_pd(__U, __A, __B, __C); |
| } |
| __m512d test_mm512_fmsubadd_pd(__m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_fmsubadd_pd |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: shufflevector <8 x double> [[ADD]], <8 x double> [[SUB]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| return _mm512_fmsubadd_pd(__A, __B, __C); |
| } |
| __m512d test_mm512_mask_fmsubadd_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsubadd_pd |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: shufflevector <8 x double> [[ADD]], <8 x double> [[SUB]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fmsubadd_pd(__A, __U, __B, __C); |
| } |
| __m512d test_mm512_maskz_fmsubadd_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsubadd_pd |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: shufflevector <8 x double> [[ADD]], <8 x double> [[SUB]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> zeroinitializer |
| return _mm512_maskz_fmsubadd_pd(__U, __A, __B, __C); |
| } |
| __m512 test_mm512_fmaddsub_round_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmaddsub_round_ps |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| return _mm512_fmaddsub_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask_fmaddsub_round_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmaddsub_round_ps |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmaddsub_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask3_fmaddsub_round_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmaddsub_round_ps |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmaddsub_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_maskz_fmaddsub_round_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmaddsub_round_ps |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmaddsub_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_fmsubadd_round_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmsubadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| return _mm512_fmsubadd_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask_fmsubadd_round_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsubadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmsubadd_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_maskz_fmsubadd_round_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsubadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmsubadd_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_fmaddsub_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmaddsub_ps |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: shufflevector <16 x float> [[SUB]], <16 x float> [[ADD]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| return _mm512_fmaddsub_ps(__A, __B, __C); |
| } |
| __m512 test_mm512_mask_fmaddsub_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmaddsub_ps |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: shufflevector <16 x float> [[SUB]], <16 x float> [[ADD]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmaddsub_ps(__A, __U, __B, __C); |
| } |
| __m512 test_mm512_mask3_fmaddsub_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmaddsub_ps |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: shufflevector <16 x float> [[SUB]], <16 x float> [[ADD]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmaddsub_ps(__A, __B, __C, __U); |
| } |
| __m512 test_mm512_maskz_fmaddsub_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmaddsub_ps |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: shufflevector <16 x float> [[SUB]], <16 x float> [[ADD]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmaddsub_ps(__U, __A, __B, __C); |
| } |
| __m512 test_mm512_fmsubadd_ps(__m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_fmsubadd_ps |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: shufflevector <16 x float> [[ADD]], <16 x float> [[SUB]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| return _mm512_fmsubadd_ps(__A, __B, __C); |
| } |
| __m512 test_mm512_mask_fmsubadd_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fmsubadd_ps |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: shufflevector <16 x float> [[ADD]], <16 x float> [[SUB]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fmsubadd_ps(__A, __U, __B, __C); |
| } |
| __m512 test_mm512_maskz_fmsubadd_ps(__mmask16 __U, __m512 __A, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_maskz_fmsubadd_ps |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: shufflevector <16 x float> [[ADD]], <16 x float> [[SUB]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> zeroinitializer |
| return _mm512_maskz_fmsubadd_ps(__U, __A, __B, __C); |
| } |
| __m512d test_mm512_mask3_fmsub_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsub_round_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmsub_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask3_fmsub_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmsub_pd(__A, __B, __C, __U); |
| } |
| __m512 test_mm512_mask3_fmsub_round_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmsub_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask3_fmsub_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmsub_ps(__A, __B, __C, __U); |
| } |
| __m512d test_mm512_mask3_fmsubadd_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsubadd_round_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmsubadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask3_fmsubadd_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsubadd_pd |
| // CHECK: [[NEG:%.+]] = fneg <8 x double> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: shufflevector <8 x double> [[ADD]], <8 x double> [[SUB]], <8 x i32> <i32 0, i32 9, i32 2, i32 11, i32 4, i32 13, i32 6, i32 15> |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fmsubadd_pd(__A, __B, __C, __U); |
| } |
| __m512 test_mm512_mask3_fmsubadd_round_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsubadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmaddsub.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmsubadd_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask3_fmsubadd_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fmsubadd_ps |
| // CHECK: [[NEG:%.+]] = fneg <16 x float> %{{.*}} |
| // CHECK: [[SUB:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> [[NEG]] |
| // CHECK: [[ADD:%.+]] = call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: shufflevector <16 x float> [[ADD]], <16 x float> [[SUB]], <16 x i32> <i32 0, i32 17, i32 2, i32 19, i32 4, i32 21, i32 6, i32 23, i32 8, i32 25, i32 10, i32 27, i32 12, i32 29, i32 14, i32 31> |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fmsubadd_ps(__A, __B, __C, __U); |
| } |
| __m512d test_mm512_mask_fnmadd_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmadd_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fnmadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_fnmadd_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmadd_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fnmadd_pd(__A, __U, __B, __C); |
| } |
| __m512 test_mm512_mask_fnmadd_round_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmadd_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fnmadd_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask_fnmadd_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmadd_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fnmadd_ps(__A, __U, __B, __C); |
| } |
| __m512d test_mm512_mask_fnmsub_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fnmsub_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask3_fnmsub_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmsub_round_pd |
| // CHECK: fneg <8 x double> |
| // CHECK: fneg <8 x double> |
| // CHECK: @llvm.x86.avx512.vfmadd.pd.512 |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fnmsub_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_fnmsub_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_fnmsub_pd(__A, __U, __B, __C); |
| } |
| __m512d test_mm512_mask3_fnmsub_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmsub_pd |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: fneg <8 x double> %{{.*}} |
| // CHECK: call <8 x double> @llvm.fma.v8f64(<8 x double> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}}) |
| // CHECK: bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask3_fnmsub_pd(__A, __B, __C, __U); |
| } |
| __m512 test_mm512_mask_fnmsub_round_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fnmsub_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask3_fnmsub_round_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmsub_round_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: @llvm.x86.avx512.vfmadd.ps.512 |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fnmsub_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512 test_mm512_mask_fnmsub_ps(__m512 __A, __mmask16 __U, __m512 __B, __m512 __C) { |
| // CHECK-LABEL: @test_mm512_mask_fnmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask_fnmsub_ps(__A, __U, __B, __C); |
| } |
| __m512 test_mm512_mask3_fnmsub_ps(__m512 __A, __m512 __B, __m512 __C, __mmask16 __U) { |
| // CHECK-LABEL: @test_mm512_mask3_fnmsub_ps |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: fneg <16 x float> %{{.*}} |
| // CHECK: call <16 x float> @llvm.fma.v16f32(<16 x float> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}}) |
| // CHECK: bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %{{.*}}, <16 x float> %{{.*}}, <16 x float> %{{.*}} |
| return _mm512_mask3_fnmsub_ps(__A, __B, __C, __U); |
| } |
| |
| __mmask16 test_mm512_cmpeq_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpeq_epi32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpeq_epi32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpeq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpeq_epi32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpeq_epi32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpeq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpeq_epi64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpeq_epi64_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpeq_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpeq_epi64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpeq_epi64_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_cmpgt_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpgt_epi32_mask |
| // CHECK: icmp sgt <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpgt_epi32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpgt_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpgt_epi32_mask |
| // CHECK: icmp sgt <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpgt_epi32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpgt_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpgt_epi64_mask |
| // CHECK: icmp sgt <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpgt_epi64_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpgt_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpgt_epi64_mask |
| // CHECK: icmp sgt <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpgt_epi64_mask(__a, __b); |
| } |
| |
| __m512d test_mm512_unpackhi_pd(__m512d a, __m512d b) |
| { |
| // CHECK-LABEL: @test_mm512_unpackhi_pd |
| // CHECK: shufflevector <8 x double> {{.*}} <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15> |
| return _mm512_unpackhi_pd(a, b); |
| } |
| |
| __m512d test_mm512_unpacklo_pd(__m512d a, __m512d b) |
| { |
| // CHECK-LABEL: @test_mm512_unpacklo_pd |
| // CHECK: shufflevector <8 x double> {{.*}} <i32 0, i32 8, i32 2, i32 10, i32 4, i32 12, i32 6, i32 14> |
| return _mm512_unpacklo_pd(a, b); |
| } |
| |
| __m512 test_mm512_unpackhi_ps(__m512 a, __m512 b) |
| { |
| // CHECK-LABEL: @test_mm512_unpackhi_ps |
| // CHECK: shufflevector <16 x float> {{.*}} <i32 2, i32 18, i32 3, i32 19, i32 6, i32 22, i32 7, i32 23, i32 10, i32 26, i32 11, i32 27, i32 14, i32 30, i32 15, i32 31> |
| return _mm512_unpackhi_ps(a, b); |
| } |
| |
| __m512 test_mm512_unpacklo_ps(__m512 a, __m512 b) |
| { |
| // CHECK-LABEL: @test_mm512_unpacklo_ps |
| // CHECK: shufflevector <16 x float> {{.*}} <i32 0, i32 16, i32 1, i32 17, i32 4, i32 20, i32 5, i32 21, i32 8, i32 24, i32 9, i32 25, i32 12, i32 28, i32 13, i32 29> |
| return _mm512_unpacklo_ps(a, b); |
| } |
| |
| __mmask16 test_mm512_cmp_round_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmp_round_ps_mask |
| // CHECK: fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_round_ps_mask(a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_round_ps_mask(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_round_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_round_ps_mask(m, a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_eq_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmp_ps_mask_eq_oq |
| // CHECK: fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_EQ_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_lt_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_lt_os |
| // CHECK: fcmp olt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_LT_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_le_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_le_os |
| // CHECK: fcmp ole <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_LE_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_unord_q(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_unord_q |
| // CHECK: fcmp uno <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_UNORD_Q); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_neq_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_neq_uq |
| // CHECK: fcmp une <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NEQ_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_nlt_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_nlt_us |
| // CHECK: fcmp uge <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NLT_US); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_nle_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_nle_us |
| // CHECK: fcmp ugt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NLE_US); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_ord_q(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_ord_q |
| // CHECK: fcmp ord <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_ORD_Q); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_eq_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_eq_uq |
| // CHECK: fcmp ueq <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_EQ_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_nge_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_nge_us |
| // CHECK: fcmp ult <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NGE_US); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_ngt_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_ngt_us |
| // CHECK: fcmp ule <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NGT_US); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_false_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_false_oq |
| // CHECK: fcmp false <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_FALSE_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_neq_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_neq_oq |
| // CHECK: fcmp one <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NEQ_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_ge_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_ge_os |
| // CHECK: fcmp oge <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_GE_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_gt_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_gt_os |
| // CHECK: fcmp ogt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_GT_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_true_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_true_uq |
| // CHECK: fcmp true <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_TRUE_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_eq_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_eq_os |
| // CHECK: fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_EQ_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_lt_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_lt_oq |
| // CHECK: fcmp olt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_LT_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_le_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_le_oq |
| // CHECK: fcmp ole <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_LE_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_unord_s(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_unord_s |
| // CHECK: fcmp uno <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_UNORD_S); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_neq_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_neq_us |
| // CHECK: fcmp une <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NEQ_US); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_nlt_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_nlt_uq |
| // CHECK: fcmp uge <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NLT_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_nle_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_nle_uq |
| // CHECK: fcmp ugt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NLE_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_ord_s(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_ord_s |
| // CHECK: fcmp ord <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_ORD_S); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_eq_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_eq_us |
| // CHECK: fcmp ueq <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_EQ_US); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_nge_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_nge_uq |
| // CHECK: fcmp ult <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NGE_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_ngt_uq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_ngt_uq |
| // CHECK: fcmp ule <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NGT_UQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_false_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_false_os |
| // CHECK: fcmp false <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_FALSE_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_neq_os(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_neq_os |
| // CHECK: fcmp one <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_NEQ_OS); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_ge_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_ge_oq |
| // CHECK: fcmp oge <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_GE_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_gt_oq(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_gt_oq |
| // CHECK: fcmp ogt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_GT_OQ); |
| } |
| |
| __mmask16 test_mm512_cmp_ps_mask_true_us(__m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_cmp_ps_mask_true_us |
| // CHECK: fcmp true <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmp_ps_mask(a, b, _CMP_TRUE_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_eq_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_ps_mask_eq_oq |
| // CHECK: [[CMP:%.*]] = fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_EQ_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_lt_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_lt_os |
| // CHECK: [[CMP:%.*]] = fcmp olt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_LT_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_le_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_le_os |
| // CHECK: [[CMP:%.*]] = fcmp ole <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_LE_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_unord_q(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_unord_q |
| // CHECK: [[CMP:%.*]] = fcmp uno <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_UNORD_Q); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_neq_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_neq_uq |
| // CHECK: [[CMP:%.*]] = fcmp une <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NEQ_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_nlt_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_nlt_us |
| // CHECK: [[CMP:%.*]] = fcmp uge <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NLT_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_nle_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_nle_us |
| // CHECK: [[CMP:%.*]] = fcmp ugt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NLE_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_ord_q(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_ord_q |
| // CHECK: [[CMP:%.*]] = fcmp ord <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_ORD_Q); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_eq_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_eq_uq |
| // CHECK: [[CMP:%.*]] = fcmp ueq <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_EQ_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_nge_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_nge_us |
| // CHECK: [[CMP:%.*]] = fcmp ult <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NGE_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_ngt_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_ngt_us |
| // CHECK: [[CMP:%.*]] = fcmp ule <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NGT_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_false_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_false_oq |
| // CHECK: [[CMP:%.*]] = fcmp false <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_FALSE_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_neq_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_neq_oq |
| // CHECK: [[CMP:%.*]] = fcmp one <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NEQ_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_ge_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_ge_os |
| // CHECK: [[CMP:%.*]] = fcmp oge <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_GE_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_gt_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_gt_os |
| // CHECK: [[CMP:%.*]] = fcmp ogt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_GT_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_true_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_true_uq |
| // CHECK: [[CMP:%.*]] = fcmp true <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_TRUE_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_eq_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_eq_os |
| // CHECK: [[CMP:%.*]] = fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_EQ_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_lt_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_lt_oq |
| // CHECK: [[CMP:%.*]] = fcmp olt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_LT_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_le_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_le_oq |
| // CHECK: [[CMP:%.*]] = fcmp ole <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_LE_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_unord_s(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_unord_s |
| // CHECK: [[CMP:%.*]] = fcmp uno <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_UNORD_S); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_neq_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_neq_us |
| // CHECK: [[CMP:%.*]] = fcmp une <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NEQ_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_nlt_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_nlt_uq |
| // CHECK: [[CMP:%.*]] = fcmp uge <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NLT_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_nle_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_nle_uq |
| // CHECK: [[CMP:%.*]] = fcmp ugt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NLE_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_ord_s(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_ord_s |
| // CHECK: [[CMP:%.*]] = fcmp ord <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_ORD_S); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_eq_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_eq_us |
| // CHECK: [[CMP:%.*]] = fcmp ueq <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_EQ_US); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_nge_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_nge_uq |
| // CHECK: [[CMP:%.*]] = fcmp ult <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NGE_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_ngt_uq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_ngt_uq |
| // CHECK: [[CMP:%.*]] = fcmp ule <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NGT_UQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_false_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_false_os |
| // CHECK: [[CMP:%.*]] = fcmp false <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_FALSE_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_neq_os(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_neq_os |
| // CHECK: [[CMP:%.*]] = fcmp one <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_NEQ_OS); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_ge_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_ge_oq |
| // CHECK: [[CMP:%.*]] = fcmp oge <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_GE_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_gt_oq(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_gt_oq |
| // CHECK: [[CMP:%.*]] = fcmp ogt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_GT_OQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_ps_mask_true_us(__mmask16 m, __m512 a, __m512 b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_ps_mask_true_us |
| // CHECK: [[CMP:%.*]] = fcmp true <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_ps_mask(m, a, b, _CMP_TRUE_US); |
| } |
| |
| __mmask8 test_mm512_cmp_round_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmp_round_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_round_pd_mask(a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_round_pd_mask(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_round_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_round_pd_mask(m, a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_eq_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmp_pd_mask_eq_oq |
| // CHECK: fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_EQ_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_lt_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_lt_os |
| // CHECK: fcmp olt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_LT_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_le_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_le_os |
| // CHECK: fcmp ole <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_LE_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_unord_q(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_unord_q |
| // CHECK: fcmp uno <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_UNORD_Q); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_neq_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_neq_uq |
| // CHECK: fcmp une <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NEQ_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_nlt_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_nlt_us |
| // CHECK: fcmp uge <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NLT_US); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_nle_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_nle_us |
| // CHECK: fcmp ugt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NLE_US); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_ord_q(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_ord_q |
| // CHECK: fcmp ord <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_ORD_Q); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_eq_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_eq_uq |
| // CHECK: fcmp ueq <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_EQ_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_nge_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_nge_us |
| // CHECK: fcmp ult <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NGE_US); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_ngt_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_ngt_us |
| // CHECK: fcmp ule <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NGT_US); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_false_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_false_oq |
| // CHECK: fcmp false <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_FALSE_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_neq_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_neq_oq |
| // CHECK: fcmp one <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NEQ_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_ge_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_ge_os |
| // CHECK: fcmp oge <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_GE_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_gt_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_gt_os |
| // CHECK: fcmp ogt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_GT_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_true_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_true_uq |
| // CHECK: fcmp true <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_TRUE_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_eq_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_eq_os |
| // CHECK: fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_EQ_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_lt_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_lt_oq |
| // CHECK: fcmp olt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_LT_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_le_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_le_oq |
| // CHECK: fcmp ole <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_LE_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_unord_s(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_unord_s |
| // CHECK: fcmp uno <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_UNORD_S); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_neq_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_neq_us |
| // CHECK: fcmp une <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NEQ_US); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_nlt_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_nlt_uq |
| // CHECK: fcmp uge <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NLT_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_nle_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_nle_uq |
| // CHECK: fcmp ugt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NLE_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_ord_s(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_ord_s |
| // CHECK: fcmp ord <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_ORD_S); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_eq_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_eq_us |
| // CHECK: fcmp ueq <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_EQ_US); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_nge_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_nge_uq |
| // CHECK: fcmp ult <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NGE_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_ngt_uq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_ngt_uq |
| // CHECK: fcmp ule <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NGT_UQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_false_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_false_os |
| // CHECK: fcmp false <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_FALSE_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_neq_os(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_neq_os |
| // CHECK: fcmp one <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_NEQ_OS); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_ge_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_ge_oq |
| // CHECK: fcmp oge <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_GE_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_gt_oq(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_gt_oq |
| // CHECK: fcmp ogt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_GT_OQ); |
| } |
| |
| __mmask8 test_mm512_cmp_pd_mask_true_us(__m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_cmp_pd_mask_true_us |
| // CHECK: fcmp true <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmp_pd_mask(a, b, _CMP_TRUE_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_eq_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_pd_mask_eq_oq |
| // CHECK: [[CMP:%.*]] = fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_EQ_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_lt_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_lt_os |
| // CHECK: [[CMP:%.*]] = fcmp olt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_LT_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_le_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_le_os |
| // CHECK: [[CMP:%.*]] = fcmp ole <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_LE_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_unord_q(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_unord_q |
| // CHECK: [[CMP:%.*]] = fcmp uno <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_UNORD_Q); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_neq_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_neq_uq |
| // CHECK: [[CMP:%.*]] = fcmp une <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NEQ_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_nlt_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_nlt_us |
| // CHECK: [[CMP:%.*]] = fcmp uge <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NLT_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_nle_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_nle_us |
| // CHECK: [[CMP:%.*]] = fcmp ugt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NLE_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_ord_q(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_ord_q |
| // CHECK: [[CMP:%.*]] = fcmp ord <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_ORD_Q); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_eq_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_eq_uq |
| // CHECK: [[CMP:%.*]] = fcmp ueq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_EQ_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_nge_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_nge_us |
| // CHECK: [[CMP:%.*]] = fcmp ult <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NGE_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_ngt_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_ngt_us |
| // CHECK: [[CMP:%.*]] = fcmp ule <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NGT_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_false_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_false_oq |
| // CHECK: [[CMP:%.*]] = fcmp false <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_FALSE_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_neq_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_neq_oq |
| // CHECK: [[CMP:%.*]] = fcmp one <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NEQ_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_ge_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_ge_os |
| // CHECK: [[CMP:%.*]] = fcmp oge <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_GE_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_gt_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_gt_os |
| // CHECK: [[CMP:%.*]] = fcmp ogt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_GT_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_true_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_true_uq |
| // CHECK: [[CMP:%.*]] = fcmp true <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_TRUE_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_eq_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_eq_os |
| // CHECK: [[CMP:%.*]] = fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_EQ_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_lt_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_lt_oq |
| // CHECK: [[CMP:%.*]] = fcmp olt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_LT_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_le_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_le_oq |
| // CHECK: [[CMP:%.*]] = fcmp ole <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_LE_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_unord_s(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_unord_s |
| // CHECK: [[CMP:%.*]] = fcmp uno <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_UNORD_S); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_neq_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_neq_us |
| // CHECK: [[CMP:%.*]] = fcmp une <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NEQ_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_nlt_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_nlt_uq |
| // CHECK: [[CMP:%.*]] = fcmp uge <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NLT_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_nle_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_nle_uq |
| // CHECK: [[CMP:%.*]] = fcmp ugt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NLE_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_ord_s(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_ord_s |
| // CHECK: [[CMP:%.*]] = fcmp ord <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_ORD_S); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_eq_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_eq_us |
| // CHECK: [[CMP:%.*]] = fcmp ueq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_EQ_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_nge_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_nge_uq |
| // CHECK: [[CMP:%.*]] = fcmp ult <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NGE_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_ngt_uq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_ngt_uq |
| // CHECK: [[CMP:%.*]] = fcmp ule <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NGT_UQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_false_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_false_os |
| // CHECK: [[CMP:%.*]] = fcmp false <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_FALSE_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_neq_os(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_neq_os |
| // CHECK: [[CMP:%.*]] = fcmp one <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_NEQ_OS); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_ge_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_ge_oq |
| // CHECK: [[CMP:%.*]] = fcmp oge <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_GE_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_gt_oq(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_gt_oq |
| // CHECK: [[CMP:%.*]] = fcmp ogt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_GT_OQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask_true_us(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: test_mm512_mask_cmp_pd_mask_true_us |
| // CHECK: [[CMP:%.*]] = fcmp true <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, _CMP_TRUE_US); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_pd_mask(__mmask8 m, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmp_pd_mask(m, a, b, 0); |
| } |
| |
| __mmask8 test_mm512_cmpeq_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmpeq_pd_mask |
| // CHECK: fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmpeq_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmpeq_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmpeq_ps_mask |
| // CHECK: fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmpeq_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpeq_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpeq_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp oeq <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpeq_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpeq_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpeq_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp oeq <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpeq_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmple_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmple_pd_mask |
| // CHECK: fcmp ole <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmple_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmple_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmple_ps_mask |
| // CHECK: fcmp ole <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmple_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmple_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmple_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp ole <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmple_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmple_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmple_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp ole <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmple_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmplt_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmplt_pd_mask |
| // CHECK: fcmp olt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmplt_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmplt_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmplt_ps_mask |
| // CHECK: fcmp olt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmplt_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmplt_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmplt_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp olt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmplt_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmplt_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmplt_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp olt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmplt_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmpneq_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmpneq_pd_mask |
| // CHECK: fcmp une <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmpneq_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmpneq_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmpneq_ps_mask |
| // CHECK: fcmp une <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmpneq_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpneq_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpneq_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp une <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpneq_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpneq_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpneq_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp une <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpneq_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmpnle_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmpnle_pd_mask |
| // CHECK: fcmp ugt <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmpnle_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmpnle_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmpnle_ps_mask |
| // CHECK: fcmp ugt <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmpnle_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpnle_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpnle_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp ugt <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpnle_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpnle_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpnle_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp ugt <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpnle_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmpnlt_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmpnlt_pd_mask |
| // CHECK: fcmp uge <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmpnlt_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmpnlt_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmpnlt_ps_mask |
| // CHECK: fcmp uge <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmpnlt_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpnlt_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpnlt_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp uge <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpnlt_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpnlt_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpnlt_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp uge <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpnlt_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmpord_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmpord_pd_mask |
| // CHECK: fcmp ord <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmpord_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmpord_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmpord_ps_mask |
| // CHECK: fcmp ord <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmpord_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpord_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpord_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp ord <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpord_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpord_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpord_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp ord <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpord_ps_mask(k, a, b); |
| } |
| |
| __mmask8 test_mm512_cmpunord_pd_mask(__m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_cmpunord_pd_mask |
| // CHECK: fcmp uno <8 x double> %{{.*}}, %{{.*}} |
| return _mm512_cmpunord_pd_mask(a, b); |
| } |
| |
| __mmask16 test_mm512_cmpunord_ps_mask(__m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_cmpunord_ps_mask |
| // CHECK: fcmp uno <16 x float> %{{.*}}, %{{.*}} |
| return _mm512_cmpunord_ps_mask(a, b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpunord_pd_mask(__mmask8 k, __m512d a, __m512d b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpunord_pd_mask |
| // CHECK: [[CMP:%.*]] = fcmp uno <8 x double> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpunord_pd_mask(k, a, b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpunord_ps_mask(__mmask16 k, __m512 a, __m512 b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpunord_ps_mask |
| // CHECK: [[CMP:%.*]] = fcmp uno <16 x float> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> [[CMP]], {{.*}} |
| return _mm512_mask_cmpunord_ps_mask(k, a, b); |
| } |
| |
| __m256d test_mm512_extractf64x4_pd(__m512d a) |
| { |
| // CHECK-LABEL: @test_mm512_extractf64x4_pd |
| // CHECK: shufflevector <8 x double> %{{.*}}, <8 x double> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7> |
| return _mm512_extractf64x4_pd(a, 1); |
| } |
| |
| __m256d test_mm512_mask_extractf64x4_pd(__m256d __W,__mmask8 __U,__m512d __A){ |
| // CHECK-LABEL:@test_mm512_mask_extractf64x4_pd |
| // CHECK: shufflevector <8 x double> %{{.*}}, <8 x double> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7> |
| // CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}} |
| return _mm512_mask_extractf64x4_pd( __W, __U, __A, 1); |
| } |
| |
| __m256d test_mm512_maskz_extractf64x4_pd(__mmask8 __U,__m512d __A){ |
| // CHECK-LABEL:@test_mm512_maskz_extractf64x4_pd |
| // CHECK: shufflevector <8 x double> %{{.*}}, <8 x double> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7> |
| // CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}} |
| return _mm512_maskz_extractf64x4_pd( __U, __A, 1); |
| } |
| |
| __m128 test_mm512_extractf32x4_ps(__m512 a) |
| { |
| // CHECK-LABEL: @test_mm512_extractf32x4_ps |
| // CHECK: shufflevector <16 x float> %{{.*}}, <16 x float> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7> |
| return _mm512_extractf32x4_ps(a, 1); |
| } |
| |
| __m128 test_mm512_mask_extractf32x4_ps(__m128 __W, __mmask8 __U,__m512 __A){ |
| // CHECK-LABEL:@test_mm512_mask_extractf32x4_ps |
| // CHECK: shufflevector <16 x float> %{{.*}}, <16 x float> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7> |
| // CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}} |
| return _mm512_mask_extractf32x4_ps( __W, __U, __A, 1); |
| } |
| |
| __m128 test_mm512_maskz_extractf32x4_ps( __mmask8 __U,__m512 __A){ |
| // CHECK-LABEL:@test_mm512_maskz_extractf32x4_ps |
| // CHECK: shufflevector <16 x float> %{{.*}}, <16 x float> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7> |
| // CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}} |
| return _mm512_maskz_extractf32x4_ps( __U, __A, 1); |
| } |
| |
| __mmask16 test_mm512_cmpeq_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpeq_epu32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpeq_epu32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpeq_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpeq_epu32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpeq_epu32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpeq_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpeq_epu64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpeq_epu64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpeq_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpeq_epu64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpeq_epu64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmpge_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpge_epi32_mask |
| // CHECK: icmp sge <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpge_epi32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpge_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpge_epi32_mask |
| // CHECK: icmp sge <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpge_epi32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpge_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpge_epi64_mask |
| // CHECK: icmp sge <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpge_epi64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpge_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpge_epi64_mask |
| // CHECK: icmp sge <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpge_epi64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmpge_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpge_epu32_mask |
| // CHECK: icmp uge <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpge_epu32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpge_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpge_epu32_mask |
| // CHECK: icmp uge <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpge_epu32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpge_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpge_epu64_mask |
| // CHECK: icmp uge <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpge_epu64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpge_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpge_epu64_mask |
| // CHECK: icmp uge <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpge_epu64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmpgt_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpgt_epu32_mask |
| // CHECK: icmp ugt <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpgt_epu32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpgt_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpgt_epu32_mask |
| // CHECK: icmp ugt <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpgt_epu32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpgt_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpgt_epu64_mask |
| // CHECK: icmp ugt <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpgt_epu64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpgt_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpgt_epu64_mask |
| // CHECK: icmp ugt <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpgt_epu64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmple_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmple_epi32_mask |
| // CHECK: icmp sle <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmple_epi32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmple_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmple_epi32_mask |
| // CHECK: icmp sle <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmple_epi32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmple_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmple_epi64_mask |
| // CHECK: icmp sle <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmple_epi64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmple_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmple_epi64_mask |
| // CHECK: icmp sle <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmple_epi64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmple_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmple_epu32_mask |
| // CHECK: icmp ule <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmple_epu32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmple_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmple_epu32_mask |
| // CHECK: icmp ule <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmple_epu32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmple_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmple_epu64_mask |
| // CHECK: icmp ule <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmple_epu64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmple_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmple_epu64_mask |
| // CHECK: icmp ule <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmple_epu64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmplt_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmplt_epi32_mask |
| // CHECK: icmp slt <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmplt_epi32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmplt_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmplt_epi32_mask |
| // CHECK: icmp slt <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmplt_epi32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmplt_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmplt_epi64_mask |
| // CHECK: icmp slt <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmplt_epi64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmplt_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmplt_epi64_mask |
| // CHECK: icmp slt <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmplt_epi64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmplt_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmplt_epu32_mask |
| // CHECK: icmp ult <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmplt_epu32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmplt_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmplt_epu32_mask |
| // CHECK: icmp ult <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmplt_epu32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmplt_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmplt_epu64_mask |
| // CHECK: icmp ult <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmplt_epu64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmplt_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmplt_epu64_mask |
| // CHECK: icmp ult <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmplt_epu64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmpneq_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpneq_epi32_mask |
| // CHECK: icmp ne <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpneq_epi32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpneq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpneq_epi32_mask |
| // CHECK: icmp ne <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpneq_epi32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpneq_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpneq_epi64_mask |
| // CHECK: icmp ne <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpneq_epi64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpneq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpneq_epi64_mask |
| // CHECK: icmp ne <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpneq_epi64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmpneq_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpneq_epu32_mask |
| // CHECK: icmp ne <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmpneq_epu32_mask(__a, __b); |
| } |
| |
| __mmask16 test_mm512_mask_cmpneq_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpneq_epu32_mask |
| // CHECK: icmp ne <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmpneq_epu32_mask(__u, __a, __b); |
| } |
| |
| __mmask8 test_mm512_cmpneq_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmpneq_epu64_mask |
| // CHECK: icmp ne <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmpneq_epu64_mask(__a, __b); |
| } |
| |
| __mmask8 test_mm512_mask_cmpneq_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmpneq_epu64_mask |
| // CHECK: icmp ne <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmpneq_epu64_mask(__u, __a, __b); |
| } |
| |
| __mmask16 test_mm512_cmp_eq_epi32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmp_eq_epi32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmp_epi32_mask(__a, __b, _MM_CMPINT_EQ); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_eq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_eq_epi32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmp_epi32_mask(__u, __a, __b, _MM_CMPINT_EQ); |
| } |
| |
| __mmask8 test_mm512_cmp_eq_epi64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmp_eq_epi64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmp_epi64_mask(__a, __b, _MM_CMPINT_EQ); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_eq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_eq_epi64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmp_epi64_mask(__u, __a, __b, _MM_CMPINT_EQ); |
| } |
| |
| __mmask16 test_mm512_cmp_epu32_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmp_epu32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_cmp_epu32_mask(__a, __b, 0); |
| } |
| |
| __mmask16 test_mm512_mask_cmp_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_epu32_mask |
| // CHECK: icmp eq <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: and <16 x i1> %{{.*}}, %{{.*}} |
| return (__mmask16)_mm512_mask_cmp_epu32_mask(__u, __a, __b, 0); |
| } |
| |
| __mmask8 test_mm512_cmp_epu64_mask(__m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_cmp_epu64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_cmp_epu64_mask(__a, __b, 0); |
| } |
| |
| __mmask8 test_mm512_mask_cmp_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_cmp_epu64_mask |
| // CHECK: icmp eq <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: and <8 x i1> %{{.*}}, %{{.*}} |
| return (__mmask8)_mm512_mask_cmp_epu64_mask(__u, __a, __b, 0); |
| } |
| |
| __m512i test_mm512_mask_and_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_and_epi32 |
| // CHECK: and <16 x i32> |
| // CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_and_epi32(__src, __k,__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_and_epi32(__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_maskz_and_epi32 |
| // CHECK: and <16 x i32> |
| // CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_and_epi32(__k,__a, __b); |
| } |
| |
| __m512i test_mm512_mask_and_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_and_epi64 |
| // CHECK: %[[AND_RES:.*]] = and <8 x i64> |
| // CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[AND_RES]], <8 x i64> %{{.*}} |
| return _mm512_mask_and_epi64(__src, __k,__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_and_epi64(__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_maskz_and_epi64 |
| // CHECK: %[[AND_RES:.*]] = and <8 x i64> |
| // CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[AND_RES]], <8 x i64> %{{.*}} |
| return _mm512_maskz_and_epi64(__k,__a, __b); |
| } |
| |
| __m512i test_mm512_mask_or_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_or_epi32 |
| // CHECK: or <16 x i32> |
| // CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_or_epi32(__src, __k,__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_or_epi32(__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_maskz_or_epi32 |
| // CHECK: or <16 x i32> |
| // CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_or_epi32(__k,__a, __b); |
| } |
| |
| __m512i test_mm512_mask_or_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_or_epi64 |
| // CHECK: %[[OR_RES:.*]] = or <8 x i64> |
| // CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[OR_RES]], <8 x i64> %{{.*}} |
| return _mm512_mask_or_epi64(__src, __k,__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_or_epi64(__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_maskz_or_epi64 |
| // CHECK: %[[OR_RES:.*]] = or <8 x i64> |
| // CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[OR_RES]], <8 x i64> %{{.*}} |
| return _mm512_maskz_or_epi64(__k,__a, __b); |
| } |
| |
| __m512i test_mm512_mask_xor_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_xor_epi32 |
| // CHECK: xor <16 x i32> |
| // CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_xor_epi32(__src, __k,__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_xor_epi32(__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_maskz_xor_epi32 |
| // CHECK: xor <16 x i32> |
| // CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1> |
| // CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_xor_epi32(__k,__a, __b); |
| } |
| |
| __m512i test_mm512_mask_xor_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_mask_xor_epi64 |
| // CHECK: %[[XOR_RES:.*]] = xor <8 x i64> |
| // CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[XOR_RES]], <8 x i64> %{{.*}} |
| return _mm512_mask_xor_epi64(__src, __k,__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_xor_epi64(__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_maskz_xor_epi64 |
| // CHECK: %[[XOR_RES:.*]] = xor <8 x i64> |
| // CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1> |
| // CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[XOR_RES]], <8 x i64> %{{.*}} |
| return _mm512_maskz_xor_epi64(__k,__a, __b); |
| } |
| |
| __m512i test_mm512_and_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_and_epi32 |
| // CHECK: and <16 x i32> |
| return _mm512_and_epi32(__a, __b); |
| } |
| |
| __m512i test_mm512_and_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_and_epi64 |
| // CHECK: and <8 x i64> |
| return _mm512_and_epi64(__a, __b); |
| } |
| |
| __m512i test_mm512_or_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_or_epi32 |
| // CHECK: or <16 x i32> |
| return _mm512_or_epi32(__a, __b); |
| } |
| |
| __m512i test_mm512_or_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_or_epi64 |
| // CHECK: or <8 x i64> |
| return _mm512_or_epi64(__a, __b); |
| } |
| |
| __m512i test_mm512_xor_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_xor_epi32 |
| // CHECK: xor <16 x i32> |
| return _mm512_xor_epi32(__a, __b); |
| } |
| |
| __m512i test_mm512_xor_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) { |
| // CHECK-LABEL: @test_mm512_xor_epi64 |
| // CHECK: xor <8 x i64> |
| return _mm512_xor_epi64(__a, __b); |
| } |
| |
| __m512i test_mm512_maskz_andnot_epi32 (__mmask16 __k,__m512i __A, __m512i __B){ |
| // CHECK-LABEL: @test_mm512_maskz_andnot_epi32 |
| // CHECK: xor <16 x i32> %{{.*}}, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1> |
| // CHECK: and <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_andnot_epi32(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_andnot_epi32 (__mmask16 __k,__m512i __A, __m512i __B, |
| __m512i __src) { |
| // CHECK-LABEL: @test_mm512_mask_andnot_epi32 |
| // CHECK: xor <16 x i32> %{{.*}}, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1> |
| // CHECK: and <16 x i32> %{{.*}}, %{{.*}} |
| // CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_andnot_epi32(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_andnot_si512(__m512i __A, __m512i __B) |
| { |
| //CHECK-LABEL: @test_mm512_andnot_si512 |
| //CHECK: load {{.*}}%__A.addr.i, align 64 |
| //CHECK: %neg.i = xor{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1> |
| //CHECK: load {{.*}}%__B.addr.i, align 64 |
| //CHECK: and <8 x i64> %neg.i,{{.*}} |
| |
| return _mm512_andnot_si512(__A, __B); |
| } |
| |
| __m512i test_mm512_andnot_epi32(__m512i __A, __m512i __B) { |
| // CHECK-LABEL: @test_mm512_andnot_epi32 |
| // CHECK: xor <16 x i32> %{{.*}}, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1> |
| // CHECK: and <16 x i32> %{{.*}}, %{{.*}} |
| return _mm512_andnot_epi32(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_andnot_epi64 (__mmask8 __k,__m512i __A, __m512i __B) { |
| // CHECK-LABEL: @test_mm512_maskz_andnot_epi64 |
| // CHECK: xor <8 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1> |
| // CHECK: and <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_maskz_andnot_epi64(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_andnot_epi64 (__mmask8 __k,__m512i __A, __m512i __B, |
| __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_andnot_epi64 |
| // CHECK: xor <8 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1> |
| // CHECK: and <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_mask_andnot_epi64(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_andnot_epi64(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_andnot_epi64 |
| // CHECK: xor <8 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1> |
| // CHECK: and <8 x i64> %{{.*}}, %{{.*}} |
| return _mm512_andnot_epi64(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_sub_epi32 (__mmask16 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_sub_epi32 |
| //CHECK: sub <16 x i32> %{{.*}}, %{{.*}} |
| //CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_sub_epi32(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_sub_epi32 (__mmask16 __k,__m512i __A, __m512i __B, |
| __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_sub_epi32 |
| //CHECK: sub <16 x i32> %{{.*}}, %{{.*}} |
| //CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_sub_epi32(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_sub_epi32(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_sub_epi32 |
| //CHECK: sub <16 x i32> |
| return _mm512_sub_epi32(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_sub_epi64 (__mmask8 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_sub_epi64 |
| //CHECK: sub <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_maskz_sub_epi64(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_sub_epi64 (__mmask8 __k,__m512i __A, __m512i __B, |
| __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_sub_epi64 |
| //CHECK: sub <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_mask_sub_epi64(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_sub_epi64(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_sub_epi64 |
| //CHECK: sub <8 x i64> |
| return _mm512_sub_epi64(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_add_epi32 (__mmask16 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_add_epi32 |
| //CHECK: add <16 x i32> %{{.*}}, %{{.*}} |
| //CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_add_epi32(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_add_epi32 (__mmask16 __k,__m512i __A, __m512i __B, |
| __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_add_epi32 |
| //CHECK: add <16 x i32> %{{.*}}, %{{.*}} |
| //CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_add_epi32(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_add_epi32(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_add_epi32 |
| //CHECK: add <16 x i32> |
| return _mm512_add_epi32(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_add_epi64 (__mmask8 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_add_epi64 |
| //CHECK: add <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_maskz_add_epi64(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_add_epi64 (__mmask8 __k,__m512i __A, __m512i __B, |
| __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_add_epi64 |
| //CHECK: add <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_mask_add_epi64(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_add_epi64(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_add_epi64 |
| //CHECK: add <8 x i64> |
| return _mm512_add_epi64(__A,__B); |
| } |
| |
| __m512i test_mm512_mul_epi32(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_mul_epi32 |
| //CHECK: shl <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: ashr <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: shl <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: ashr <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| return _mm512_mul_epi32(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_mul_epi32 (__mmask8 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_mul_epi32 |
| //CHECK: shl <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: ashr <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: shl <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: ashr <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_maskz_mul_epi32(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_mul_epi32 (__mmask8 __k,__m512i __A, __m512i __B, __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_mul_epi32 |
| //CHECK: shl <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: ashr <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: shl <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: ashr <8 x i64> %{{.*}}, <i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32, i64 32> |
| //CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_mask_mul_epi32(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mul_epu32 (__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_mul_epu32 |
| //CHECK: and <8 x i64> %{{.*}}, <i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295> |
| //CHECK: and <8 x i64> %{{.*}}, <i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295> |
| //CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| return _mm512_mul_epu32(__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_mul_epu32 (__mmask8 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_mul_epu32 |
| //CHECK: and <8 x i64> %{{.*}}, <i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295> |
| //CHECK: and <8 x i64> %{{.*}}, <i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295> |
| //CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_maskz_mul_epu32(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_mul_epu32 (__mmask8 __k,__m512i __A, __m512i __B, __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_mul_epu32 |
| //CHECK: and <8 x i64> %{{.*}}, <i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295> |
| //CHECK: and <8 x i64> %{{.*}}, <i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295, i64 4294967295> |
| //CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| //CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return _mm512_mask_mul_epu32(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_maskz_mullo_epi32 (__mmask16 __k,__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_maskz_mullo_epi32 |
| //CHECK: mul <16 x i32> %{{.*}}, %{{.*}} |
| //CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_maskz_mullo_epi32(__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mask_mullo_epi32 (__mmask16 __k,__m512i __A, __m512i __B, __m512i __src) { |
| //CHECK-LABEL: @test_mm512_mask_mullo_epi32 |
| //CHECK: mul <16 x i32> %{{.*}}, %{{.*}} |
| //CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} |
| return _mm512_mask_mullo_epi32(__src,__k,__A,__B); |
| } |
| |
| __m512i test_mm512_mullo_epi32(__m512i __A, __m512i __B) { |
| //CHECK-LABEL: @test_mm512_mullo_epi32 |
| //CHECK: mul <16 x i32> |
| return _mm512_mullo_epi32(__A,__B); |
| } |
| |
| __m512i test_mm512_mullox_epi64 (__m512i __A, __m512i __B) { |
| // CHECK-LABEL: @test_mm512_mullox_epi64 |
| // CHECK: mul <8 x i64> |
| return (__m512i) _mm512_mullox_epi64(__A, __B); |
| } |
| |
| __m512i test_mm512_mask_mullox_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { |
| // CHECK-LABEL: @test_mm512_mask_mullox_epi64 |
| // CHECK: mul <8 x i64> %{{.*}}, %{{.*}} |
| // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} |
| return (__m512i) _mm512_mask_mullox_epi64(__W, __U, __A, __B); |
| } |
| |
| __m512d test_mm512_add_round_pd(__m512d __A, __m512d __B) { |
| // CHECK-LABEL: @test_mm512_add_round_pd |
| // CHECK: @llvm.x86.avx512.add.pd.512 |
| return _mm512_add_round_pd(__A,__B,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_add_round_pd(__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { |
| // CHECK-LABEL: @test_mm512_mask_add_round_pd |
| // CHECK: @llvm.x86.avx512.add.pd.512 |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_mask_add_round_pd(__W,__U,__A,__B,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_maskz_add_round_pd(__mmask8 __U, __m512d __A, __m512d __B) { |
| // CHECK-LABEL: @test_mm512_maskz_add_round_pd |
| // CHECK: @llvm.x86.avx512.add.pd.512 |
| // CHECK: select <8 x i1> %{{.*}}, <8 x double> %{{.*}}, <8 x double> %{{.*}} |
| return _mm512_maskz_add_round_pd(__U,__A,__B,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); |
| } |
| __m512d test_mm512_mask_add_pd( |