| // RUN: %clang_cc1 -triple x86_64-unknown-linux-gnu -Wno-unused-value -fclangir -emit-cir %s -o %t.cir |
| // RUN: FileCheck --input-file=%t.cir %s -check-prefix=CIR |
| // RUN: %clang_cc1 -triple x86_64-unknown-linux-gnu -Wno-unused-value -fclangir -emit-llvm %s -o %t-cir.ll |
| // RUN: FileCheck --input-file=%t-cir.ll %s -check-prefix=LLVM |
| // RUN: %clang_cc1 -triple x86_64-unknown-linux-gnu -Wno-unused-value -emit-llvm %s -o %t.ll |
| // RUN: FileCheck --input-file=%t.ll %s -check-prefix=OGCG |
| |
| typedef unsigned short vus2 __attribute__((ext_vector_type(2))); |
| typedef int vi4 __attribute__((ext_vector_type(4))); |
| typedef int vi6 __attribute__((ext_vector_type(6))); |
| typedef unsigned int uvi4 __attribute__((ext_vector_type(4))); |
| typedef int vi3 __attribute__((ext_vector_type(3))); |
| typedef int vi2 __attribute__((ext_vector_type(2))); |
| typedef float vf4 __attribute__((ext_vector_type(4))); |
| typedef double vd2 __attribute__((ext_vector_type(2))); |
| |
| vi4 vec_a; |
| // CIR: cir.global external @[[VEC_A:.*]] = #cir.zero : !cir.vector<4 x !s32i> |
| |
| // LLVM: @[[VEC_A:.*]] = global <4 x i32> zeroinitializer |
| |
| // OGCG: @[[VEC_A:.*]] = global <4 x i32> zeroinitializer |
| |
| vi3 vec_b; |
| // CIR: cir.global external @[[VEC_B:.*]] = #cir.zero : !cir.vector<3 x !s32i> |
| |
| // LLVM: @[[VEC_B:.*]] = global <3 x i32> zeroinitializer |
| |
| // OGCG: @[[VEC_B:.*]] = global <3 x i32> zeroinitializer |
| |
| vi2 vec_c; |
| // CIR: cir.global external @[[VEC_C:.*]] = #cir.zero : !cir.vector<2 x !s32i> |
| |
| // LLVM: @[[VEC_C:.*]] = global <2 x i32> zeroinitializer |
| |
| // OGCG: @[[VEC_C:.*]] = global <2 x i32> zeroinitializer |
| |
| vd2 vec_d; |
| |
| // CIR: cir.global external @[[VEC_D:.*]] = #cir.zero : !cir.vector<2 x !cir.double> |
| |
| // LLVM: @[[VEC_D:.*]] = global <2 x double> zeroinitialize |
| |
| // OGCG: @[[VEC_D:.*]] = global <2 x double> zeroinitializer |
| |
| vi4 vec_e = { 1, 2, 3, 4 }; |
| |
| // CIR: cir.global external @[[VEC_E:.*]] = #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : |
| // CIR-SAME: !s32i, #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| |
| // LLVM: @[[VEC_E:.*]] = global <4 x i32> <i32 1, i32 2, i32 3, i32 4> |
| |
| // OGCG: @[[VEC_E:.*]] = global <4 x i32> <i32 1, i32 2, i32 3, i32 4> |
| |
| int x = 5; |
| |
| void foo() { |
| vi4 a; |
| vi3 b; |
| vi2 c; |
| vd2 d; |
| |
| vi4 e = { 1, 2, 3, 4 }; |
| |
| vi4 f = { x, 5, 6, x + 1 }; |
| |
| vi4 g = { 5 }; |
| |
| vi4 h = {}; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a"] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<3 x !s32i>, !cir.ptr<!cir.vector<3 x !s32i>>, ["b"] |
| // CIR: %[[VEC_C:.*]] = cir.alloca !cir.vector<2 x !s32i>, !cir.ptr<!cir.vector<2 x !s32i>>, ["c"] |
| // CIR: %[[VEC_D:.*]] = cir.alloca !cir.vector<2 x !cir.double>, !cir.ptr<!cir.vector<2 x !cir.double>>, ["d"] |
| // CIR: %[[VEC_E:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["e", init] |
| // CIR: %[[VEC_F:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["f", init] |
| // CIR: %[[VEC_G:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["g", init] |
| // CIR: %[[VEC_H:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["h", init] |
| // CIR: %[[VEC_E_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_E_VAL]], %[[VEC_E]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[GLOBAL_X:.*]] = cir.get_global @x : !cir.ptr<!s32i> |
| // CIR: %[[X_VAL:.*]] = cir.load{{.*}} %[[GLOBAL_X]] : !cir.ptr<!s32i>, !s32i |
| // CIR: %[[CONST_5:.*]] = cir.const #cir.int<5> : !s32i |
| // CIR: %[[CONST_6:.*]] = cir.const #cir.int<6> : !s32i |
| // CIR: %[[GLOBAL_X:.*]] = cir.get_global @x : !cir.ptr<!s32i> |
| // CIR: %[[X:.*]] = cir.load{{.*}} %[[GLOBAL_X]] : !cir.ptr<!s32i>, !s32i |
| // CIR: %[[CONST_1:.*]] = cir.const #cir.int<1> : !s32i |
| // CIR: %[[X_PLUS_1:.*]] = cir.binop(add, %[[X]], %[[CONST_1]]) nsw : !s32i |
| // CIR: %[[VEC_F_VAL:.*]] = cir.vec.create(%[[X_VAL]], %[[CONST_5]], %[[CONST_6]], %[[X_PLUS_1]] : |
| // CIR-SAME: !s32i, !s32i, !s32i, !s32i) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_F_VAL]], %[[VEC_F]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_G_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<5> : !s32i, #cir.int<0> : !s32i, |
| // CIR-SAME: #cir.int<0> : !s32i, #cir.int<0> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_G_VAL]], %[[VEC_G]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_H_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<0> : !s32i, #cir.int<0> : !s32i, |
| // CIR-SAME; #cir.int<0> : !s32i, #cir.int<0> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_H_VAL]], %[[VEC_H]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <3 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_C:.*]] = alloca <2 x i32>, i64 1, align 8 |
| // LLVM: %[[VEC_D:.*]] = alloca <2 x double>, i64 1, align 16 |
| // LLVM: %[[VEC_E:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_F:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_G:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_H:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_E]], align 16 |
| // LLVM: store <4 x i32> {{.*}}, ptr %[[VEC_F]], align 16 |
| // LLVM: store <4 x i32> <i32 5, i32 0, i32 0, i32 0>, ptr %[[VEC_G]], align 16 |
| // LLVM: store <4 x i32> zeroinitializer, ptr %[[VEC_H]], align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <3 x i32>, align 16 |
| // OGCG: %[[VEC_C:.*]] = alloca <2 x i32>, align 8 |
| // OGCG: %[[VEC_D:.*]] = alloca <2 x double>, align 16 |
| // OGCG: %[[VEC_E:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_F:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_G:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_H:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_E]], align 16 |
| // OGCG: store <4 x i32> {{.*}}, ptr %[[VEC_F]], align 16 |
| // OGCG: store <4 x i32> <i32 5, i32 0, i32 0, i32 0>, ptr %[[VEC_G]], align 16 |
| // OGCG: store <4 x i32> zeroinitializer, ptr %[[VEC_H]], align 16 |
| |
| void foo2(vi4 p) {} |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["p", init] |
| // CIR: cir.store{{.*}} %{{.*}}, %[[VEC_A]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> %{{.*}}, ptr %[[VEC_A]], align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> %{{.*}}, ptr %[[VEC_A]], align 16 |
| |
| void foo3() { |
| vi4 a = { 1, 2, 3, 4 }; |
| int e = a[1]; |
| } |
| |
| // CIR: %[[VEC:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[INIT:.*]] = cir.alloca !s32i, !cir.ptr<!s32i>, ["e", init] |
| // CIR: %[[VEC_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_VAL]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[IDX:.*]] = cir.const #cir.int<1> : !s32i |
| // CIR: %[[ELE:.*]] = cir.vec.extract %[[TMP]][%[[IDX]] : !s32i] : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[ELE]], %[[INIT]] : !s32i, !cir.ptr<!s32i> |
| |
| // LLVM: %[[VEC:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[INIT:.*]] = alloca i32, i64 1, align 4 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // LLVM: %[[TMP:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[ELE:.*]] = extractelement <4 x i32> %[[TMP]], i32 1 |
| // LLVM: store i32 %[[ELE]], ptr %[[INIT]], align 4 |
| |
| // OGCG: %[[VEC:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[INIT:.*]] = alloca i32, align 4 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // OGCG: %[[TMP:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[ELE:.*]] = extractelement <4 x i32> %[[TMP]], i32 1 |
| // OGCG: store i32 %[[ELE]], ptr %[[INIT]], align 4 |
| |
| void foo4() { |
| vi4 a = { 1, 2, 3, 4 }; |
| |
| int idx = 2; |
| int e = a[idx]; |
| } |
| |
| // CIR: %[[VEC:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[IDX:.*]] = cir.alloca !s32i, !cir.ptr<!s32i>, ["idx", init] |
| // CIR: %[[INIT:.*]] = cir.alloca !s32i, !cir.ptr<!s32i>, ["e", init] |
| // CIR: %[[VEC_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_VAL]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[CONST_IDX:.*]] = cir.const #cir.int<2> : !s32i |
| // CIR: cir.store{{.*}} %[[CONST_IDX]], %[[IDX]] : !s32i, !cir.ptr<!s32i> |
| // CIR: %[[TMP1:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP2:.*]] = cir.load{{.*}} %[[IDX]] : !cir.ptr<!s32i>, !s32i |
| // CIR: %[[ELE:.*]] = cir.vec.extract %[[TMP1]][%[[TMP2]] : !s32i] : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[ELE]], %[[INIT]] : !s32i, !cir.ptr<!s32i> |
| |
| // LLVM: %[[VEC:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[IDX:.*]] = alloca i32, i64 1, align 4 |
| // LLVM: %[[INIT:.*]] = alloca i32, i64 1, align 4 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // LLVM: store i32 2, ptr %[[IDX]], align 4 |
| // LLVM: %[[TMP1:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[TMP2:.*]] = load i32, ptr %[[IDX]], align 4 |
| // LLVM: %[[ELE:.*]] = extractelement <4 x i32> %[[TMP1]], i32 %[[TMP2]] |
| // LLVM: store i32 %[[ELE]], ptr %[[INIT]], align 4 |
| |
| // OGCG: %[[VEC:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[IDX:.*]] = alloca i32, align 4 |
| // OGCG: %[[INIT:.*]] = alloca i32, align 4 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // OGCG: store i32 2, ptr %[[IDX]], align 4 |
| // OGCG: %[[TMP1:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[TMP2:.*]] = load i32, ptr %[[IDX]], align 4 |
| // OGCG: %[[ELE:.*]] = extractelement <4 x i32> %[[TMP1]], i32 %[[TMP2]] |
| // OGCG: store i32 %[[ELE]], ptr %[[INIT]], align 4 |
| |
| void foo5() { |
| vi4 a = { 1, 2, 3, 4 }; |
| |
| a[2] = 5; |
| } |
| |
| // CIR: %[[VEC:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[VEC_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_VAL]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[CONST_VAL:.*]] = cir.const #cir.int<5> : !s32i |
| // CIR: %[[CONST_IDX:.*]] = cir.const #cir.int<2> : !s32i |
| // CIR: %[[TMP:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[NEW_VEC:.*]] = cir.vec.insert %[[CONST_VAL]], %[[TMP]][%[[CONST_IDX]] : !s32i] : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NEW_VEC]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // LLVM: %[[TMP:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[NEW_VEC:.*]] = insertelement <4 x i32> %[[TMP]], i32 5, i32 2 |
| // LLVM: store <4 x i32> %[[NEW_VEC]], ptr %[[VEC]], align 16 |
| |
| // OGCG: %[[VEC:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // OGCG: %[[TMP:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[NEW_VEC:.*]] = insertelement <4 x i32> %[[TMP]], i32 5, i32 2 |
| // OGCG: store <4 x i32> %[[NEW_VEC]], ptr %[[VEC]], align 16 |
| |
| void foo6() { |
| vi4 a = { 1, 2, 3, 4 }; |
| int idx = 2; |
| int value = 5; |
| a[idx] = value; |
| } |
| |
| // CIR: %[[VEC:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[IDX:.*]] = cir.alloca !s32i, !cir.ptr<!s32i>, ["idx", init] |
| // CIR: %[[VAL:.*]] = cir.alloca !s32i, !cir.ptr<!s32i>, ["value", init] |
| // CIR: %[[VEC_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_VAL]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[CONST_IDX:.*]] = cir.const #cir.int<2> : !s32i |
| // CIR: cir.store{{.*}} %[[CONST_IDX]], %[[IDX]] : !s32i, !cir.ptr<!s32i> |
| // CIR: %[[CONST_VAL:.*]] = cir.const #cir.int<5> : !s32i |
| // CIR: cir.store{{.*}} %[[CONST_VAL]], %[[VAL]] : !s32i, !cir.ptr<!s32i> |
| // CIR: %[[TMP1:.*]] = cir.load{{.*}} %[[VAL]] : !cir.ptr<!s32i>, !s32i |
| // CIR: %[[TMP2:.*]] = cir.load{{.*}} %[[IDX]] : !cir.ptr<!s32i>, !s32i |
| // CIR: %[[TMP3:.*]] = cir.load{{.*}} %0 : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[NEW_VEC:.*]] = cir.vec.insert %[[TMP1]], %[[TMP3]][%[[TMP2]] : !s32i] : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NEW_VEC]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[IDX:.*]] = alloca i32, i64 1, align 4 |
| // LLVM: %[[VAL:.*]] = alloca i32, i64 1, align 4 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %1, align 16 |
| // LLVM: store i32 2, ptr %[[IDX]], align 4 |
| // LLVM: store i32 5, ptr %[[VAL]], align 4 |
| // LLVM: %[[TMP1:.*]] = load i32, ptr %[[VAL]], align 4 |
| // LLVM: %[[TMP2:.*]] = load i32, ptr %[[IDX]], align 4 |
| // LLVM: %[[TMP3:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[NEW_VEC:.*]] = insertelement <4 x i32> %[[TMP3]], i32 %[[TMP1]], i32 %[[TMP2]] |
| // LLVM: store <4 x i32> %[[NEW_VEC]], ptr %[[VEC]], align 16 |
| |
| // OGCG: %[[VEC:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[IDX:.*]] = alloca i32, align 4 |
| // OGCG: %[[VAL:.*]] = alloca i32, align 4 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // OGCG: store i32 2, ptr %[[IDX]], align 4 |
| // OGCG: store i32 5, ptr %[[VAL]], align 4 |
| // OGCG: %[[TMP1:.*]] = load i32, ptr %[[VAL]], align 4 |
| // OGCG: %[[TMP2:.*]] = load i32, ptr %[[IDX]], align 4 |
| // OGCG: %[[TMP3:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[NEW_VEC:.*]] = insertelement <4 x i32> %[[TMP3]], i32 %[[TMP1]], i32 %[[TMP2]] |
| // OGCG: store <4 x i32> %[[NEW_VEC]], ptr %[[VEC]], align 16 |
| |
| void foo7() { |
| vi4 a = {1, 2, 3, 4}; |
| a[2] += 5; |
| } |
| |
| // CIR: %[[VEC:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[VEC_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_VAL]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[CONST_VAL:.*]] = cir.const #cir.int<5> : !s32i |
| // CIR: %[[CONST_IDX:.*]] = cir.const #cir.int<2> : !s32i |
| // CIR: %[[TMP:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[ELE:.*]] = cir.vec.extract %[[TMP]][%[[CONST_IDX]] : !s32i] : !cir.vector<4 x !s32i> |
| // CIR: %[[RES:.*]] = cir.binop(add, %[[ELE]], %[[CONST_VAL]]) nsw : !s32i |
| // CIR: %[[TMP2:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[NEW_VEC:.*]] = cir.vec.insert %[[RES]], %[[TMP2]][%[[CONST_IDX]] : !s32i] : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NEW_VEC]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // LLVM: %[[TMP:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[ELE:.*]] = extractelement <4 x i32> %[[TMP]], i32 2 |
| // LLVM: %[[RES:.*]] = add nsw i32 %[[ELE]], 5 |
| // LLVM: %[[TMP2:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[NEW_VEC:.*]] = insertelement <4 x i32> %[[TMP2]], i32 %[[RES]], i32 2 |
| // LLVM: store <4 x i32> %[[NEW_VEC]], ptr %[[VEC]], align 16 |
| |
| // OGCG: %[[VEC:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // OGCG: %[[TMP:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[ELE:.*]] = extractelement <4 x i32> %[[TMP]], i32 2 |
| // OGCG: %[[RES:.*]] = add nsw i32 %[[ELE]], 5 |
| // OGCG: %[[TMP2:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[NEW_VEC:.*]] = insertelement <4 x i32> %[[TMP2]], i32 %[[RES]], i32 2 |
| // OGCG: store <4 x i32> %[[NEW_VEC]], ptr %[[VEC]], align 16 |
| |
| |
| void foo8() { |
| vi4 a = { 1, 2, 3, 4 }; |
| vi4 plus_res = +a; |
| vi4 minus_res = -a; |
| vi4 not_res = ~a; |
| } |
| |
| // CIR: %[[VEC:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[PLUS_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["plus_res", init] |
| // CIR: %[[MINUS_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["minus_res", init] |
| // CIR: %[[NOT_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["not_res", init] |
| // CIR: %[[VEC_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_VAL]], %[[VEC]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP1:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[PLUS:.*]] = cir.unary(plus, %[[TMP1]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[PLUS]], %[[PLUS_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP2:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[MINUS:.*]] = cir.unary(minus, %[[TMP2]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[MINUS]], %[[MINUS_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP3:.*]] = cir.load{{.*}} %[[VEC]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[NOT:.*]] = cir.unary(not, %[[TMP3]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NOT]], %[[NOT_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[PLUS_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[MINUS_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[NOT_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // LLVM: %[[TMP1:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: store <4 x i32> %[[TMP1]], ptr %[[PLUS_RES]], align 16 |
| // LLVM: %[[TMP2:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[SUB:.*]] = sub <4 x i32> zeroinitializer, %[[TMP2]] |
| // LLVM: store <4 x i32> %[[SUB]], ptr %[[MINUS_RES]], align 16 |
| // LLVM: %[[TMP3:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // LLVM: %[[NOT:.*]] = xor <4 x i32> %[[TMP3]], splat (i32 -1) |
| // LLVM: store <4 x i32> %[[NOT]], ptr %[[NOT_RES]], align 16 |
| |
| // OGCG: %[[VEC:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[PLUS_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[MINUS_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[NOT_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC]], align 16 |
| // OGCG: %[[TMP1:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: store <4 x i32> %[[TMP1]], ptr %[[PLUS_RES]], align 16 |
| // OGCG: %[[TMP2:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[SUB:.*]] = sub <4 x i32> zeroinitializer, %[[TMP2]] |
| // OGCG: store <4 x i32> %[[SUB]], ptr %[[MINUS_RES]], align 16 |
| // OGCG: %[[TMP3:.*]] = load <4 x i32>, ptr %[[VEC]], align 16 |
| // OGCG: %[[NOT:.*]] = xor <4 x i32> %[[TMP3]], splat (i32 -1) |
| // OGCG: store <4 x i32> %[[NOT]], ptr %[[NOT_RES]], align 16 |
| |
| void foo9() { |
| vi4 a = {1, 2, 3, 4}; |
| vi4 b = {5, 6, 7, 8}; |
| |
| vi4 shl = a << b; |
| vi4 shr = a >> b; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["b", init] |
| // CIR: %[[SHL_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["shl", init] |
| // CIR: %[[SHR_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["shr", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<5> : !s32i, #cir.int<6> : !s32i, |
| // CIR-SAME: #cir.int<7> : !s32i, #cir.int<8> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SHL:.*]] = cir.shift(left, %[[TMP_A]] : !cir.vector<4 x !s32i>, %[[TMP_B]] : !cir.vector<4 x !s32i>) -> !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[SHL]], %[[SHL_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SHR:.*]] = cir.shift(right, %[[TMP_A]] : !cir.vector<4 x !s32i>, %[[TMP_B]] : !cir.vector<4 x !s32i>) -> !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[SHR]], %[[SHR_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[SHL_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[SHR_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // LLVM: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SHL:.*]] = shl <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[SHL]], ptr %[[SHL_RES]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SHR:.*]] = ashr <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[SHR]], ptr %[[SHR_RES]], align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[SHL_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[SHR_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // OGCG: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SHL:.*]] = shl <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[SHL]], ptr %[[SHL_RES]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SHR:.*]] = ashr <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[SHR]], ptr %[[SHR_RES]], align 16 |
| |
| void foo10() { |
| vi4 a = {1, 2, 3, 4}; |
| uvi4 b = {5u, 6u, 7u, 8u}; |
| |
| vi4 shl = a << b; |
| uvi4 shr = b >> a; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>>, ["b", init] |
| // CIR: %[[SHL_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["shl", init] |
| // CIR: %[[SHR_RES:.*]] = cir.alloca !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>>, ["shr", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<5> : !u32i, #cir.int<6> : !u32i, |
| // CIR-SAME: #cir.int<7> : !u32i, #cir.int<8> : !u32i]> : !cir.vector<4 x !u32i> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[SHL:.*]] = cir.shift(left, %[[TMP_A]] : !cir.vector<4 x !s32i>, %[[TMP_B]] : !cir.vector<4 x !u32i>) -> !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[SHL]], %[[SHL_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SHR:.*]] = cir.shift(right, %[[TMP_B]] : !cir.vector<4 x !u32i>, %[[TMP_A]] : !cir.vector<4 x !s32i>) -> !cir.vector<4 x !u32i> |
| // CIR: cir.store{{.*}} %[[SHR]], %[[SHR_RES]] : !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[SHL_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[SHR_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // LLVM: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SHL:.*]] = shl <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[SHL]], ptr %[[SHL_RES]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[SHR:.*]] = lshr <4 x i32> %[[TMP_B]], %[[TMP_A]] |
| // LLVM: store <4 x i32> %[[SHR]], ptr %[[SHR_RES]], align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[SHL_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[SHR_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // OGCG: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SHL:.*]] = shl <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[SHL]], ptr %[[SHL_RES]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[SHR:.*]] = lshr <4 x i32> %[[TMP_B]], %[[TMP_A]] |
| // OGCG: store <4 x i32> %[[SHR]], ptr %[[SHR_RES]], align 16 |
| |
| void foo11() { |
| vi4 a = {1, 2, 3, 4}; |
| vi4 b = {5, 6, 7, 8}; |
| |
| vi4 c = a + b; |
| vi4 d = a - b; |
| vi4 e = a * b; |
| vi4 f = a / b; |
| vi4 g = a % b; |
| vi4 h = a & b; |
| vi4 i = a | b; |
| vi4 j = a ^ b; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["b", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<5> : !s32i, #cir.int<6> : !s32i, |
| // CIR-SAME: #cir.int<7> : !s32i, #cir.int<8> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[ADD:.*]] = cir.binop(add, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[ADD]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SUB:.*]] = cir.binop(sub, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[SUB]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[MUL:.*]] = cir.binop(mul, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[MUL]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[DIV:.*]] = cir.binop(div, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[DIV]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[REM:.*]] = cir.binop(rem, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[REM]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[AND:.*]] = cir.binop(and, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[AND]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[OR:.*]] = cir.binop(or, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[OR]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[XOR:.*]] = cir.binop(xor, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[XOR]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // LLVM: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[ADD:.*]] = add <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[ADD]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SUB:.*]] = sub <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[SUB]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[MUL:.*]] = mul <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[MUL]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[DIV:.*]] = sdiv <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[DIV]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[REM:.*]] = srem <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[REM]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[AND:.*]] = and <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[AND]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[OR:.*]] = or <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[OR]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[XOR:.*]] = xor <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: store <4 x i32> %[[XOR]], ptr {{.*}}, align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // OGCG: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[ADD:.*]] = add <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[ADD]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SUB:.*]] = sub <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[SUB]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[MUL:.*]] = mul <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[MUL]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[DIV:.*]] = sdiv <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[DIV]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[REM:.*]] = srem <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[REM]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[AND:.*]] = and <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[AND]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[OR:.*]] = or <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[OR]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[XOR:.*]] = xor <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: store <4 x i32> %[[XOR]], ptr {{.*}}, align 16 |
| |
| void foo12() { |
| vi4 a = {1, 2, 3, 4}; |
| vi4 b = {5, 6, 7, 8}; |
| |
| vi4 c = a == b; |
| vi4 d = a != b; |
| vi4 e = a < b; |
| vi4 f = a > b; |
| vi4 g = a <= b; |
| vi4 h = a >= b; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["b", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, |
| // CIR-SAME: #cir.int<3> : !s32i, #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<5> : !s32i, #cir.int<6> : !s32i, |
| // CIR-SAME: #cir.int<7> : !s32i, #cir.int<8> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[EQ:.*]] = cir.vec.cmp(eq, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[EQ]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[NE:.*]] = cir.vec.cmp(ne, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[LT:.*]] = cir.vec.cmp(lt, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[LT]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[GT:.*]] = cir.vec.cmp(gt, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[GT]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[LE:.*]] = cir.vec.cmp(le, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[LE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[GE:.*]] = cir.vec.cmp(ge, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !s32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[GE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // LLVM: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[EQ:.*]] = icmp eq <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[EQ]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[NE:.*]] = icmp ne <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[NE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[LT:.*]] = icmp slt <4 x i32> %17, %18 |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[LT]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[GT:.*]] = icmp sgt <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[GT]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[LE:.*]] = icmp sle <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[LE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[GE:.*]] = icmp sge <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[GE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // OGCG: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[EQ:.*]] = icmp eq <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[EQ]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[NE:.*]] = icmp ne <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[NE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[LT:.*]] = icmp slt <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[LT]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[GT:.*]] = icmp sgt <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[GT]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[LE:.*]] = icmp sle <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[LE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[GE:.*]] = icmp sge <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[GE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| |
| void foo13() { |
| uvi4 a = {1u, 2u, 3u, 4u}; |
| uvi4 b = {5u, 6u, 7u, 8u}; |
| |
| vi4 c = a == b; |
| vi4 d = a != b; |
| vi4 e = a < b; |
| vi4 f = a > b; |
| vi4 g = a <= b; |
| vi4 h = a >= b; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>>, ["a", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>>, ["b", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !u32i, #cir.int<2> : !u32i, |
| // CIR-SAME: #cir.int<3> : !u32i, #cir.int<4> : !u32i]> : !cir.vector<4 x !u32i> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<5> : !u32i, #cir.int<6> : !u32i, |
| // CIR-SAME: #cir.int<7> : !u32i, #cir.int<8> : !u32i]> : !cir.vector<4 x !u32i> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[EQ:.*]] = cir.vec.cmp(eq, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !u32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[EQ]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[NE:.*]] = cir.vec.cmp(ne, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !u32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[LT:.*]] = cir.vec.cmp(lt, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !u32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[LT]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[GT:.*]] = cir.vec.cmp(gt, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !u32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[GT]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[LE:.*]] = cir.vec.cmp(le, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !u32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[LE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[GE:.*]] = cir.vec.cmp(ge, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !u32i>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[GE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // LLVM: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[EQ:.*]] = icmp eq <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[EQ]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[NE:.*]] = icmp ne <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[NE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[LT:.*]] = icmp ult <4 x i32> %17, %18 |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[LT]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[GT:.*]] = icmp ugt <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[GT]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[LE:.*]] = icmp ule <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[LE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[GE:.*]] = icmp uge <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[GE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // OGCG: store <4 x i32> <i32 5, i32 6, i32 7, i32 8>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[EQ:.*]] = icmp eq <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[EQ]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[NE:.*]] = icmp ne <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[NE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[LT:.*]] = icmp ult <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[LT]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[GT:.*]] = icmp ugt <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[GT]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[LE:.*]] = icmp ule <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[LE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[GE:.*]] = icmp uge <4 x i32> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[GE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| |
| void foo14() { |
| vf4 a = {1.0f, 2.0f, 3.0f, 4.0f}; |
| vf4 b = {5.0f, 6.0f, 7.0f, 8.0f}; |
| |
| vi4 c = a == b; |
| vi4 d = a != b; |
| vi4 e = a < b; |
| vi4 f = a > b; |
| vi4 g = a <= b; |
| vi4 h = a >= b; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !cir.float>, !cir.ptr<!cir.vector<4 x !cir.float>>, ["a", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !cir.float>, !cir.ptr<!cir.vector<4 x !cir.float>>, ["b", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.fp<1.000000e+00> : !cir.float, #cir.fp<2.000000e+00> : !cir.float, |
| // CIR-SAME: #cir.fp<3.000000e+00> : !cir.float, #cir.fp<4.000000e+00> : !cir.float]> : !cir.vector<4 x !cir.float> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !cir.float>, !cir.ptr<!cir.vector<4 x !cir.float>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.fp<5.000000e+00> : !cir.float, #cir.fp<6.000000e+00> : !cir.float, |
| // CIR-SAME: #cir.fp<7.000000e+00> : !cir.float, #cir.fp<8.000000e+00> : !cir.float]> : !cir.vector<4 x !cir.float> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !cir.float>, !cir.ptr<!cir.vector<4 x !cir.float>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[EQ:.*]] = cir.vec.cmp(eq, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !cir.float>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[EQ]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[NE:.*]] = cir.vec.cmp(ne, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !cir.float>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[NE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[LT:.*]] = cir.vec.cmp(lt, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !cir.float>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[LT]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[GT:.*]] = cir.vec.cmp(gt, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !cir.float>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[GT]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[LE:.*]] = cir.vec.cmp(le, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !cir.float>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[LE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !cir.float>>, !cir.vector<4 x !cir.float> |
| // CIR: %[[GE:.*]] = cir.vec.cmp(ge, %[[TMP_A]], %[[TMP_B]]) : !cir.vector<4 x !cir.float>, !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[GE]], {{.*}} : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x float>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x float>, i64 1, align 16 |
| // LLVM: store <4 x float> <float {{.*}}, float {{.*}}, float {{.*}}, float {{.*}}>, ptr %[[VEC_A]], align 16 |
| // LLVM: store <4 x float> <float {{.*}}, float {{.*}}, float {{.*}}, float {{.*}}>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[EQ:.*]] = fcmp oeq <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[EQ]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[NE:.*]] = fcmp une <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[NE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[LT:.*]] = fcmp olt <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[LT]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[GT:.*]] = fcmp ogt <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[GT]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[LE:.*]] = fcmp ole <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[LE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[GE:.*]] = fcmp oge <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // LLVM: %[[RES:.*]] = sext <4 x i1> %[[GE]] to <4 x i32> |
| // LLVM: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x float>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x float>, align 16 |
| // OGCG: store <4 x float> <float {{.*}}, float {{.*}}, float {{.*}}, float {{.*}}>, ptr %[[VEC_A]], align 16 |
| // OGCG: store <4 x float> <float {{.*}}, float {{.*}}, float {{.*}}, float {{.*}}>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[EQ:.*]] = fcmp oeq <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[EQ]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[NE:.*]] = fcmp une <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[NE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[LT:.*]] = fcmp olt <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[LT]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[GT:.*]] = fcmp ogt <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[GT]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[LE:.*]] = fcmp ole <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[LE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x float>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x float>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[GE:.*]] = fcmp oge <4 x float> %[[TMP_A]], %[[TMP_B]] |
| // OGCG: %[[RES:.*]] = sext <4 x i1> %[[GE]] to <4 x i32> |
| // OGCG: store <4 x i32> %[[RES]], ptr {{.*}}, align 16 |
| |
| void foo15() { |
| vi4 a; |
| vi4 b; |
| vi4 r = __builtin_shufflevector(a, b); |
| } |
| |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} {{.*}} : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{>*}} {{.*}} : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[NEW_VEC:.*]] = cir.vec.shuffle.dynamic %[[TMP_A]] : !cir.vector<4 x !s32i>, %[[TMP_B]] : !cir.vector<4 x !s32i> |
| |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr {{.*}}, align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr {{.*}}, align 16 |
| // LLVM: %[[MASK:.*]] = and <4 x i32> %[[TMP_B]], splat (i32 3) |
| // LLVM: %[[SHUF_IDX_0:.*]] = extractelement <4 x i32> %[[MASK]], i64 0 |
| // LLVM: %[[SHUF_ELE_0:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_0]] |
| // LLVM: %[[SHUF_INS_0:.*]] = insertelement <4 x i32> undef, i32 %[[SHUF_ELE_0]], i64 0 |
| // LLVM: %[[SHUF_IDX_1:.*]] = extractelement <4 x i32> %[[MASK]], i64 1 |
| // LLVM: %[[SHUF_ELE_1:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_1]] |
| // LLVM: %[[SHUF_INS_1:.*]] = insertelement <4 x i32> %[[SHUF_INS_0]], i32 %[[SHUF_ELE_1]], i64 1 |
| // LLVM: %[[SHUF_IDX_2:.*]] = extractelement <4 x i32> %[[MASK]], i64 2 |
| // LLVM: %[[SHUF_ELE_2:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_2]] |
| // LLVM: %[[SHUF_INS_2:.*]] = insertelement <4 x i32> %[[SHUF_INS_1]], i32 %[[SHUF_ELE_2]], i64 2 |
| // LLVM: %[[SHUF_IDX_3:.*]] = extractelement <4 x i32> %[[MASK]], i64 3 |
| // LLVM: %[[SHUF_ELE_3:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_3]] |
| // LLVM: %[[SHUF_INS_3:.*]] = insertelement <4 x i32> %[[SHUF_INS_2]], i32 %[[SHUF_ELE_3]], i64 3 |
| |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr {{.*}}, align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr {{.*}}, align 16 |
| // OGCG: %[[MASK:.*]] = and <4 x i32> %[[TMP_B]], splat (i32 3) |
| // OGCG: %[[SHUF_IDX_0:.*]] = extractelement <4 x i32> %[[MASK]], i64 0 |
| // OGCG: %[[SHUF_ELE_0:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_0]] |
| // OGCG: %[[SHUF_INS_0:.*]] = insertelement <4 x i32> poison, i32 %[[SHUF_ELE_0]], i64 0 |
| // OGCG: %[[SHUF_IDX_1:.*]] = extractelement <4 x i32> %[[MASK]], i64 1 |
| // OGCG: %[[SHUF_ELE_1:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_1]] |
| // OGCG: %[[SHUF_INS_1:.*]] = insertelement <4 x i32> %[[SHUF_INS_0]], i32 %[[SHUF_ELE_1]], i64 1 |
| // OGCG: %[[SHUF_IDX_2:.*]] = extractelement <4 x i32> %[[MASK]], i64 2 |
| // OGCG: %[[SHUF_ELE_2:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_2]] |
| // OGCG: %[[SHUF_INS_2:.*]] = insertelement <4 x i32> %[[SHUF_INS_1]], i32 %[[SHUF_ELE_2]], i64 2 |
| // OGCG: %[[SHUF_IDX_3:.*]] = extractelement <4 x i32> %[[MASK]], i64 3 |
| // OGCG: %[[SHUF_ELE_3:.*]] = extractelement <4 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_3]] |
| // OGCG: %[[SHUF_INS_3:.*]] = insertelement <4 x i32> %[[SHUF_INS_2]], i32 %[[SHUF_ELE_3]], i64 3 |
| |
| void foo16() { |
| vi6 a; |
| vi6 b; |
| vi6 r = __builtin_shufflevector(a, b); |
| } |
| |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} {{.*}} : !cir.ptr<!cir.vector<6 x !s32i>>, !cir.vector<6 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{>*}} {{.*}} : !cir.ptr<!cir.vector<6 x !s32i>>, !cir.vector<6 x !s32i> |
| // CIR: %[[NEW_VEC:.*]] = cir.vec.shuffle.dynamic %[[TMP_A]] : !cir.vector<6 x !s32i>, %[[TMP_B]] : !cir.vector<6 x !s32i> |
| |
| // LLVM: %[[TMP_A:.*]] = load <6 x i32>, ptr {{.*}}, align 32 |
| // LLVM: %[[TMP_B:.*]] = load <6 x i32>, ptr {{.*}}, align 32 |
| // LLVM: %[[MASK:.*]] = and <6 x i32> %[[TMP_B]], splat (i32 7) |
| // LLVM: %[[SHUF_IDX_0:.*]] = extractelement <6 x i32> %[[MASK]], i64 0 |
| // LLVM: %[[SHUF_ELE_0:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_0]] |
| // LLVM: %[[SHUF_INS_0:.*]] = insertelement <6 x i32> undef, i32 %[[SHUF_ELE_0]], i64 0 |
| // LLVM: %[[SHUF_IDX_1:.*]] = extractelement <6 x i32> %[[MASK]], i64 1 |
| // LLVM: %[[SHUF_ELE_1:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_1]] |
| // LLVM: %[[SHUF_INS_1:.*]] = insertelement <6 x i32> %[[SHUF_INS_0]], i32 %[[SHUF_ELE_1]], i64 1 |
| // LLVM: %[[SHUF_IDX_2:.*]] = extractelement <6 x i32> %[[MASK]], i64 2 |
| // LLVM: %[[SHUF_ELE_2:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_2]] |
| // LLVM: %[[SHUF_INS_2:.*]] = insertelement <6 x i32> %[[SHUF_INS_1]], i32 %[[SHUF_ELE_2]], i64 2 |
| // LLVM: %[[SHUF_IDX_3:.*]] = extractelement <6 x i32> %[[MASK]], i64 3 |
| // LLVM: %[[SHUF_ELE_3:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_3]] |
| // LLVM: %[[SHUF_INS_3:.*]] = insertelement <6 x i32> %[[SHUF_INS_2]], i32 %[[SHUF_ELE_3]], i64 3 |
| |
| // OGCG: %[[TMP_A:.*]] = load <6 x i32>, ptr {{.*}}, align 32 |
| // OGCG: %[[TMP_B:.*]] = load <6 x i32>, ptr {{.*}}, align 32 |
| // OGCG: %[[MASK:.*]] = and <6 x i32> %[[TMP_B]], splat (i32 7) |
| // OGCG: %[[SHUF_IDX_0:.*]] = extractelement <6 x i32> %[[MASK]], i64 0 |
| // OGCG: %[[SHUF_ELE_0:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_0]] |
| // OGCG: %[[SHUF_INS_0:.*]] = insertelement <6 x i32> poison, i32 %[[SHUF_ELE_0]], i64 0 |
| // OGCG: %[[SHUF_IDX_1:.*]] = extractelement <6 x i32> %[[MASK]], i64 1 |
| // OGCG: %[[SHUF_ELE_1:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_1]] |
| // OGCG: %[[SHUF_INS_1:.*]] = insertelement <6 x i32> %[[SHUF_INS_0]], i32 %[[SHUF_ELE_1]], i64 1 |
| // OGCG: %[[SHUF_IDX_2:.*]] = extractelement <6 x i32> %[[MASK]], i64 2 |
| // OGCG: %[[SHUF_ELE_2:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_2]] |
| // OGCG: %[[SHUF_INS_2:.*]] = insertelement <6 x i32> %[[SHUF_INS_1]], i32 %[[SHUF_ELE_2]], i64 2 |
| // OGCG: %[[SHUF_IDX_3:.*]] = extractelement <6 x i32> %[[MASK]], i64 3 |
| // OGCG: %[[SHUF_ELE_3:.*]] = extractelement <6 x i32> %[[TMP_A]], i32 %[[SHUF_IDX_3]] |
| // OGCG: %[[SHUF_INS_3:.*]] = insertelement <6 x i32> %[[SHUF_INS_2]], i32 %[[SHUF_ELE_3]], i64 3 |
| |
| void foo17() { |
| vd2 a; |
| vus2 W = __builtin_convertvector(a, vus2); |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<2 x !cir.double>, !cir.ptr<!cir.vector<2 x !cir.double>>, ["a"] |
| // CIR: %[[TMP:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<2 x !cir.double>>, !cir.vector<2 x !cir.double> |
| // CIR: %[[RES:.*]] = cir.cast(float_to_int, %[[TMP]] : !cir.vector<2 x !cir.double>), !cir.vector<2 x !u16i> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <2 x double>, i64 1, align 16 |
| // LLVM: %[[TMP:.*]] = load <2 x double>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[RES:.*]]= fptoui <2 x double> %[[TMP]] to <2 x i16> |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <2 x double>, align 16 |
| // OGCG: %[[TMP:.*]] = load <2 x double>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[RES:.*]]= fptoui <2 x double> %[[TMP]] to <2 x i16> |
| |
| void foo18() { |
| vi4 a = {1, 2, 3, 4}; |
| vi4 shl = a << 3; |
| |
| uvi4 b = {1u, 2u, 3u, 4u}; |
| uvi4 shr = b >> 3u; |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a", init] |
| // CIR: %[[SHL_RES:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["shl", init] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>>, ["b", init] |
| // CIR: %[[SHR_RES:.*]] = cir.alloca !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>>, ["shr", init] |
| // CIR: %[[VEC_A_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i, |
| // CIR-SAME: #cir.int<4> : !s32i]> : !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[VEC_A_VAL]], %[[VEC_A]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SH_AMOUNT:.*]] = cir.const #cir.int<3> : !s32i |
| // CIR: %[[SPLAT_VEC:.*]] = cir.vec.splat %[[SH_AMOUNT]] : !s32i, !cir.vector<4 x !s32i> |
| // CIR: %[[SHL:.*]] = cir.shift(left, %[[TMP_A]] : !cir.vector<4 x !s32i>, %[[SPLAT_VEC]] : !cir.vector<4 x !s32i>) -> !cir.vector<4 x !s32i> |
| // CIR: cir.store{{.*}} %[[SHL]], %[[SHL_RES]] : !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>> |
| // CIR: %[[VEC_B_VAL:.*]] = cir.const #cir.const_vector<[#cir.int<1> : !u32i, #cir.int<2> : !u32i, |
| // CIR-SAME: #cir.int<3> : !u32i, #cir.int<4> : !u32i]> : !cir.vector<4 x !u32i> |
| // CIR: cir.store{{.*}} %[[VEC_B_VAL]], %[[VEC_B]] : !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !u32i>>, !cir.vector<4 x !u32i> |
| // CIR: %[[SH_AMOUNT:.*]] = cir.const #cir.int<3> : !u32i |
| // CIR: %[[SPLAT_VEC:.*]] = cir.vec.splat %[[SH_AMOUNT]] : !u32i, !cir.vector<4 x !u32i> |
| // CIR: %[[SHR:.*]] = cir.shift(right, %[[TMP_B]] : !cir.vector<4 x !u32i>, %[[SPLAT_VEC]] : !cir.vector<4 x !u32i>) -> !cir.vector<4 x !u32i> |
| // CIR: cir.store{{.*}} %[[SHR]], %[[SHR_RES]] : !cir.vector<4 x !u32i>, !cir.ptr<!cir.vector<4 x !u32i>> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[SHL_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[SHR_RES:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[SHL:.*]] = shl <4 x i32> %[[TMP_A]], splat (i32 3) |
| // LLVM: store <4 x i32> %[[SHL]], ptr %[[SHL_RES]], align 16 |
| // LLVM: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SHR:.*]] = lshr <4 x i32> %[[TMP_B]], splat (i32 3) |
| // LLVM: store <4 x i32> %[[SHR]], ptr %[[SHR_RES]], align 16 |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[SHL_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[SHR_RES:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[SHL:.*]] = shl <4 x i32> %[[TMP_A]], splat (i32 3) |
| // OGCG: store <4 x i32> %[[SHL]], ptr %[[SHL_RES]], align 16 |
| // OGCG: store <4 x i32> <i32 1, i32 2, i32 3, i32 4>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SHR:.*]] = lshr <4 x i32> %[[TMP_B]], splat (i32 3) |
| // OGCG: store <4 x i32> %[[SHR]], ptr %[[SHR_RES]], align 16 |
| |
| void foo19() { |
| vi4 a; |
| vi4 b; |
| vi4 u = __builtin_shufflevector(a, b, 7, 5, 3, 1); |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a"] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["b"] |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[TMP_A]], %[[TMP_B]] : !cir.vector<4 x !s32i>) [#cir.int<7> : |
| // CIR-SAME: !s64i, #cir.int<5> : !s64i, #cir.int<3> : !s64i, #cir.int<1> : !s64i] : !cir.vector<4 x !s32i> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SHUF:.*]] = shufflevector <4 x i32> %[[TMP_A]], <4 x i32> %[[TMP_B]], <4 x i32> <i32 7, i32 5, i32 3, i32 1> |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SHUF:.*]] = shufflevector <4 x i32> %[[TMP_A]], <4 x i32> %[[TMP_B]], <4 x i32> <i32 7, i32 5, i32 3, i32 1> |
| |
| void foo20() { |
| vi4 a; |
| vi4 b; |
| vi4 u = __builtin_shufflevector(a, b, -1, 1, -1, 1); |
| } |
| |
| // CIR: %[[VEC_A:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["a"] |
| // CIR: %[[VEC_B:.*]] = cir.alloca !cir.vector<4 x !s32i>, !cir.ptr<!cir.vector<4 x !s32i>>, ["b"] |
| // CIR: %[[TMP_A:.*]] = cir.load{{.*}} %[[VEC_A]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[TMP_B:.*]] = cir.load{{.*}} %[[VEC_B]] : !cir.ptr<!cir.vector<4 x !s32i>>, !cir.vector<4 x !s32i> |
| // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[TMP_A]], %[[TMP_B]] : !cir.vector<4 x !s32i>) [#cir.int<-1> : |
| // CIR-SAME: !s64i, #cir.int<1> : !s64i, #cir.int<-1> : !s64i, #cir.int<1> : !s64i] : !cir.vector<4 x !s32i> |
| |
| // LLVM: %[[VEC_A:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[VEC_B:.*]] = alloca <4 x i32>, i64 1, align 16 |
| // LLVM: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // LLVM: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // LLVM: %[[SHUF:.*]] = shufflevector <4 x i32> %[[TMP_A]], <4 x i32> %[[TMP_B]], <4 x i32> <i32 poison, i32 1, i32 poison, i32 1> |
| |
| // OGCG: %[[VEC_A:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[VEC_B:.*]] = alloca <4 x i32>, align 16 |
| // OGCG: %[[TMP_A:.*]] = load <4 x i32>, ptr %[[VEC_A]], align 16 |
| // OGCG: %[[TMP_B:.*]] = load <4 x i32>, ptr %[[VEC_B]], align 16 |
| // OGCG: %[[SHUF:.*]] = shufflevector <4 x i32> %[[TMP_A]], <4 x i32> %[[TMP_B]], <4 x i32> <i32 poison, i32 1, i32 poison, i32 1> |
| |
| void foo21() { |
| vi4 a; |
| unsigned long size = __builtin_vectorelements(a); |
| } |
| |
| // CIR: %[[INIT:.*]] = cir.alloca !u64i, !cir.ptr<!u64i>, ["size", init] |
| // CIR: %[[SIZE:.*]] = cir.const #cir.int<4> : !u64i |
| // CIR: cir.store align(8) %[[SIZE]], %[[INIT]] : !u64i, !cir.ptr<!u64i> |
| |
| // LLVM: %[[SIZE:.*]] = alloca i64, i64 1, align 8 |
| // LLVM: store i64 4, ptr %[[SIZE]], align 8 |
| |
| // OGCG: %[[SIZE:.*]] = alloca i64, align 8 |
| // OGCG: store i64 4, ptr %[[SIZE]], align 8 |